banner
Lar / blog / Especialistas em IA rejeitam Musk
blog

Especialistas em IA rejeitam Musk

Nov 27, 2023Nov 27, 2023

(Esta história de 31 de março foi corrigida para mostrar que a Fundação Musk é um importante, não o principal doador da FLI, no parágrafo 6)

Por Martin Coulter

LONDRES (Reuters) - Quatro especialistas em inteligência artificial expressaram preocupação depois que seu trabalho foi citado em uma carta aberta – co-assinada por Elon Musk – exigindo uma pausa urgente nas pesquisas.

A carta, datada de 22 de março e com mais de 1.800 assinaturas até sexta-feira, pedia um disjuntor de seis meses no desenvolvimento de sistemas "mais poderosos" do que o novo GPT-4 da OpenAI, apoiado pela Microsoft, que pode manter uma conversa humana. , compor músicas e resumir documentos longos.

Desde que o predecessor do GPT-4, o ChatGPT, foi lançado no ano passado, empresas rivais correram para lançar produtos similares.

A carta aberta diz que os sistemas de IA com “inteligência humana competitiva” representam riscos profundos para a humanidade, citando 12 pesquisas de especialistas, incluindo acadêmicos universitários, bem como funcionários atuais e antigos da OpenAI, Google e sua subsidiária DeepMind.

Desde então, grupos da sociedade civil nos EUA e na UE pressionaram os legisladores a controlar a pesquisa da OpenAI. A OpenAI não respondeu imediatamente aos pedidos de comentários.

Os críticos acusaram o Future of Life Institute (FLI), a organização por trás da carta, de priorizar cenários apocalípticos imaginários sobre preocupações mais imediatas sobre IA, como preconceitos racistas ou sexistas. A Fundação Musk é um dos principais doadores da FLI.

Entre as pesquisas citadas estava "On the Dangers of Stochastic Parrots", um conhecido artigo de autoria de Margaret Mitchell, que anteriormente supervisionou a pesquisa ética de IA no Google.

Mitchell, agora cientista-chefe de ética da empresa de IA Hugging Face, criticou a carta, dizendo à Reuters que não estava claro o que contava como "mais poderoso que o GPT4".

“Ao tratar muitas ideias questionáveis ​​como um dado adquirido, a carta afirma um conjunto de prioridades e uma narrativa sobre IA que beneficia os apoiadores da FLI”, disse ela. "Ignorar danos ativos agora é um privilégio que alguns de nós não têm."

Seus co-autores Timnit Gebru e Emily M. Bender criticaram a carta no Twitter, com o último classificando algumas de suas reivindicações como "desequilibradas".

O presidente da FLI, Max Tegmark, disse à Reuters que a campanha não foi uma tentativa de impedir a vantagem corporativa da OpenAI.

"É muito hilário. Já vi pessoas dizerem: 'Elon Musk está tentando desacelerar a concorrência'", disse ele, acrescentando que Musk não teve nenhum papel na redação da carta. "Não se trata de uma empresa."

RISCOS AGORA

Shiri Dori-Hacohen, professora assistente da Universidade de Connecticut, também questionou o fato de seu trabalho ser mencionado na carta. No ano passado, ela foi coautora de um trabalho de pesquisa argumentando que o uso generalizado de IA já representava sérios riscos.

Sua pesquisa argumentou que o uso atual de sistemas de IA pode influenciar a tomada de decisões em relação às mudanças climáticas, guerra nuclear e outras ameaças existenciais.

Ela disse à Reuters: "A IA não precisa atingir a inteligência de nível humano para exacerbar esses riscos".

"Existem riscos inexistentes que são muito, muito importantes, mas não recebem o mesmo tipo de atenção em nível de Hollywood."

Solicitado a comentar as críticas, Tegmark, da FLI, disse que os riscos de curto e longo prazo da IA ​​devem ser levados a sério.

"Se citarmos alguém, isso significa apenas que afirmamos que ele está endossando a frase. Não significa que ele está endossando a carta ou que endossamos tudo o que ele pensa", disse ele à Reuters.

Dan Hendrycks, diretor do Center for AI Safety, com sede na Califórnia, que também foi citado na carta, manteve seu conteúdo, dizendo à Reuters que era sensato considerar eventos de cisne negro - aqueles que parecem improváveis, mas teriam consequências devastadoras.

A carta aberta também alertou que ferramentas generativas de IA poderiam ser usadas para inundar a internet com "propaganda e falsidade".

Dori-Hacohen disse que foi "muito rico" para Musk ter assinado, citando um aumento relatado de desinformação no Twitter após a aquisição da plataforma, documentado pelo grupo da sociedade civil Common Cause e outros.