Um grupo de funcionários e ex-funcionários da OpenAI está exigindo que as empresas de inteligência artificial sejam mais transparentes sobre os “sérios riscos” da IA e que protejam os funcionários que manifestam preocupações sobre a tecnologia que estão desenvolvendo.
“Empresas de IA têm fortes incentivos financeiros para evitar uma supervisão eficaz”, afirma a carta aberta divulgada na última terça-feira (4), assinada por atuais e ex-funcionários de empresas de IA, incluindo a OpenAI, criadora da popular ferramenta ChatGPT.
Os signatários pedem que as empresas de IA promovam “uma cultura de crítica aberta” que acolha, em vez de punir, aqueles que levantam preocupações, especialmente enquanto a legislação luta para acompanhar o rápido avanço da tecnologia.
As empresas já reconheceram os “sérios riscos” da IA — desde manipulação até a perda de controle, conhecida como “singularidade”, que poderia resultar na extinção da humanidade. No entanto, o grupo enfatiza que as empresas devem fazer mais para educar o público sobre esses riscos e as medidas de proteção.
Transparência e proteção aos denunciantes
Segundo os funcionários de IA, no estado atual da legislação, não acreditam que as empresas compartilharão voluntariamente informações críticas sobre a tecnologia. Assim, é essencial que atuais e ex-funcionários se manifestem — e que as empresas não imponham acordos de “disparagement” ou retaliações contra aqueles que expressem preocupações relacionadas a riscos.
“As proteções ordinárias para denunciantes são insuficientes porque se concentram em atividades ilegais, enquanto muitos dos riscos que nos preocupam ainda não são regulamentados”, escreveram os signatários.
A carta chega em um momento em que as empresas se apressam para implementar ferramentas de IA generativa em seus produtos, enquanto reguladores governamentais, empresas e consumidores lutam com o uso responsável.
Muitos especialistas em tecnologia, pesquisadores e líderes têm chamado por uma pausa temporária na corrida pela IA ou pela intervenção do governo para criar uma moratória.
Resposta da OpenAI
Em resposta à carta, um porta-voz da OpenAI disse à CNN que a empresa está “orgulhosa do nosso histórico de fornecer os sistemas de IA mais capazes e seguros e acredita em nossa abordagem científica para lidar com riscos”, acrescentando que a empresa concorda que “o debate rigoroso é crucial, dada a importância dessa tecnologia”.
A OpenAI destacou que possui uma linha direta anônima de integridade e um Comitê de Segurança e Proteção liderado por membros do conselho e líderes de segurança da empresa. A empresa também afirmou que não vende informações pessoais, não constrói perfis de usuários, nem usa esses dados para direcionar anúncios ou vender produtos.
How we’re disrupting attempts by covert influence operations to use AI deceptively: https://t.co/ddGJvM7yES
— OpenAI (@OpenAI) May 30, 2024
Ceticismo e esperança
Daniel Ziegler, um dos organizadores da carta e engenheiro de aprendizado de máquina que trabalhou na OpenAI entre 2018 e 2021, expressou ceticismo sobre o compromisso da empresa com a transparência. “É realmente difícil dizer de fora o quão seriamente eles estão levando seus compromissos de avaliações de segurança e identificação de danos sociais, especialmente com as fortes pressões comerciais para avançar rapidamente”, disse Ziegler à CNN.
“É muito importante ter a cultura e os processos certos para que os funcionários possam se manifestar de maneira direcionada quando tiverem preocupações”. Ele espera que mais profissionais da indústria de IA tornem públicas suas preocupações como resultado da carta.