INTELIGÊNCIA ARTIFICIAL

ChatGPT se importa mais com produtos do que com segurança, diz pesquisador da empresa

De saída da OpenAI, desenvolvedora da ferramenta de IA, Jan Leike explica que demissão ocorreu por desentendimentos sobre objetivos da plataforma

Créditos: Divulgação OpenAI
Escrito en TECNOLOGIA el

Jan Leike é um importante pesquisador de segurança da empresa por trás do ChatGPT e acaba de pedir demissão dias após o lançamento de seu mais recente modelo de inteligência artificial (IA), o GPT-4o

O agora ex-funcionário sênior da OpenAI acusa a empresa de priorizar “produtos brilhantes” em vez da segurança e revela que ele pediu demissão depois que um desentendimento sobre objetivos principais atingiu o “ponto de ruptura”.

Leike atuou como um pesquisador-chave de segurança na OpenAI como codiretor de superalinhamento. Entre as tarefas dele estava a de garantir que poderosos sistemas de IA aderissem aos valores e objetivos humanos.

O pesquisador pediu demissão da OpenAI dias depois que a empresa com sede em São Francisco (EUA) lançou seu mais recente modelo de IA, o GPT-4o. Sua saída significa que duas figuras seniores de segurança da OpenAI deixaram esta semana após a renúncia de Ilya Sutskever, cofundador da OpenAI e também codiretor de superalinhamento.

Leike comentou os motivos de sua saída em uma postagem no X (antigo Twitter) nesta sexta-feira (17), no qual disse que a cultura de segurança havia se tornado uma prioridade menor.

“Nos últimos anos, a cultura e os processos de segurança ficaram em segundo plano em relação aos produtos brilhantes”, escreveu.

A OpenAI foi fundada com o objetivo de garantir que a inteligência artificial geral, que descreve como “sistemas de IA que são geralmente mais inteligentes que os humanos”, beneficie toda a humanidade.

Em suas postagens X, Leike disse que há algum tempo discordava da liderança da OpenAI sobre as prioridades da empresa, mas que o impasse “finalmente atingiu um ponto de ruptura”.

Leike disse que a OpenAI, que também desenvolveu o gerador de imagens Dall-E e o gerador de vídeo Sora, deveria investir mais recursos em questões como segurança, impacto social, confidencialidade e segurança para sua próxima geração de modelos.

“Esses problemas são muito difíceis de resolver e estou preocupado por não estarmos no caminho certo para chegar lá”, escreveu ele, acrescentando que estava ficando “cada vez mais difícil” para sua equipe fazer sua pesquisa.

“Construir máquinas mais inteligentes que as humanas é um empreendimento inerentemente perigoso. A OpenAI está assumindo uma enorme responsabilidade em nome de toda a humanidade”, escreveu Leike, acrescentando que a OpenAI “deve se tornar uma empresa AGI que prioriza a segurança”.

Sam Altman, presidente-executivo da OpenAI, respondeu ao tópico de Leike com uma postagem no X agradecendo a seu ex-colega por suas contribuições para a cultura de segurança da empresa.

Cúpula Global de Segurança em IA

A demissão de Leike ocorre dias antes da Cúpula Global de Segurança em IA (AI Safety Summit) que será realizada dias 21 e 22 de maio em Seul, capital da Coreia do Sul. O encontro vai reunir políticos, especialistas e executivos tecnológicos discutirão a supervisão da tecnologia.

A segunda Cúpula Global de Segurança em IA ocorre seis meses após o Reino Unido realizar o primeiro evento em Bletchley Park. Em uma declaração, autoridades governamentais confirmaram que o evento expandirá a 'Declaração de Bletchley', um acordo assinado por 28 países, incluindo os EUA e a China, para colaborar na segurança da IA.

O evento, uma continuação da cúpula realizada em Bletchley Park, Reino Unido, contará com a participação de líderes globais, empresas de tecnologia, sociedade civil e acadêmicos. A cúpula abordará a segurança dos modelos de IA avançados e incluirá a divulgação do primeiro Relatório Científico Internacional sobre Segurança em IA Avançada.

O encontro será realizado tanto virtualmente quanto presencialmente. No primeiro dia, haverá uma reunião virtual de líderes co-presidida pelo primeiro-ministro do Reino Unido, Rishi Sunak, e pelo presidente da Coreia do Sul, Yoon Suk Yeol. No segundo dia, haverá reuniões presenciais co-presididas pelo secretário de Tecnologia do Reino Unido, Michelle Donelan, e pelo ministro da Ciência e TIC da Coreia do Sul, Lee Jong-Ho.

Novidades do GPT-4o

O GPT-4o, a nova versão do modelo de linguagem da OpenAI, traz várias melhorias e novos recursos significativos. 

  • Multimodalidade: GPT-4o é capaz de lidar com entradas de texto, áudio, imagem e vídeo, tornando-o um modelo verdadeiramente multimodal. Isso permite conversas mais naturais e interativas, onde o modelo pode responder a diferentes tipos de mídia simultaneamente.
     
  • Interrupções em Tempo Real: Uma das características mais inovadoras é a capacidade do GPT-4o de ser interrompido durante suas respostas e adaptar-se imediatamente. Isso faz com que a interação com o modelo se assemelhe mais a uma conversa humana.
     
  • Modulação Emotiva da Voz: O GPT-4o pode detectar o tom emocional na voz do usuário e responder de forma correspondente, variando o estilo de fala e até mesmo cantando se necessário.
     
  • Desempenho Multilíngue Melhorado: O modelo oferece suporte aprimorado para mais de 50 idiomas, melhorando a velocidade e a qualidade das traduções e das interações multilíngues.
     
  • Aplicação para Desktop e Nova Interface: O lançamento inclui uma nova aplicação para desktop do ChatGPT para macOS, que facilita a interação com o modelo fora do navegador, além de uma interface de usuário renovada que é mais amigável e conversacional.
     
  • Memória Personalizada: O GPT-4o agora pode lembrar das preferências dos usuários entre sessões, oferecendo uma experiência mais personalizada. Esse recurso, antes exclusivo para usuários premium, agora está disponível também para usuários da versão gratuita.
     
  • Acessibilidade e Economia: O modelo é duas vezes mais rápido e 50% mais barato que o GPT-4 Turbo, tornando-o mais acessível a uma ampla gama de desenvolvedores e usuários.


 

Reporte Error
Comunicar erro Encontrou um erro na matéria? Ajude-nos a melhorar