nova fase

OpenAI encerra equipe de segurança após saída de co-fundador

A equipe de superalinhamento, formada há menos de um ano, tinha a missão de garantir que futuras inteligências artificiais superqualificadas fossem seguras e benéficas

OpenAI
OpenAI encerra equipe de segurança – Crédito: Divulgação

A OpenAI dissolveu sua equipe dedicada ao “superalinhamento” de IA, após a saída dos líderes Ilya Sutskever e Jan Leike na última semana. Esta decisão foi tomada em um momento crítico para a empresa, enquanto enfrenta desafios de segurança e reorganização interna.

Publicidade

A equipe de superalinhamento, formada há menos de um ano sob a liderança de Sutskever e Leike, tinha a missão de garantir que futuras inteligências artificiais superqualificadas fossem seguras e benéficas. No entanto, a OpenAI optou por integrar esses esforços em outras áreas da empresa. Segundo um comunicado à Bloomberg News, a decisão visa reforçar a segurança da IA em todas as suas operações.

A saída de Sutskever, cofundador e cientista-chefe da OpenAI, foi motivada por desentendimentos com o CEO, Sam Altman, sobre a velocidade do desenvolvimento da IA. Leike seguiu o mesmo caminho, alegando dificuldades em obter recursos e priorizar a segurança na pesquisa. Em uma postagem no X, Leike destacou que sua equipe estava “navegando contra o vento” e enfrentando desafios crescentes para realizar a pesquisa crucial de alinhamento de IA.

Reações e Medidas da OpenAI

Além disso, o encerramento da equipe reacendeu debates sobre o equilíbrio entre inovação rápida e segurança na OpenAI. Outros membros da equipe, como Leopold Aschenbrenner e Pavel Izmailov, também deixaram a empresa recentemente. Izmailov foi afastado antes de sua saída, enquanto Aschenbrenner não respondeu aos pedidos de comentário.

Em resposta às críticas de Leike, Altman admitiu no X que há “muito mais a fazer” e reafirmou o compromisso da OpenAI com a segurança. A empresa nomeou John Schulman como novo líder científico do trabalho de alinhamento e Jakub Pachocki como o novo cientista-chefe, substituindo Sutskever.

Publicidade

Entretanto, a OpenAI continua a investir em segurança de IA através de diversas equipes e iniciativas, incluindo uma equipe de preparação lançada em outubro passado para mitigar riscos catastróficos dos sistemas. Em novembro, a empresa enfrentou uma crise interna significativa quando Sutskever e outros membros do conselho decidiram demitir Altman, gerando uma revolta que quase levou à demissão em massa dos funcionários. O CEO foi reintegrado após Sutskever expressar arrependimento pela decisão.

No comunicado de sua saída, Sutskever expressou confiança de que a OpenAI continuará desenvolvendo uma AGI segura e benéfica sob a atual liderança. A AGI, ou inteligência artificial geral, refere-se a sistemas de IA que podem realizar tarefas tão bem ou melhor que os humanos, um objetivo ainda distante, mas central na missão da OpenAI.

Publicidade

Todavia, a reorganização na OpenAI destaca os desafios em equilibrar inovação e segurança no desenvolvimento de tecnologias avançadas de IA, refletindo as tensões internas e a necessidade de um enfoque robusto na segurança desses sistemas.

*texto sob supervisão de Tomaz Belluomini

Assine nossa newsletter

Cadastre-se para receber grátis o Menu Executivo Perfil Brasil, com todo conteúdo, análises e a cobertura mais completa.

Grátis em sua caixa de entrada. Pode cancelar quando quiser.