6 Melhor Total
Mar 05, 2023Schneider Home: uma casa inteligente onde a eletricidade não é tão burra
Mar 07, 2023A Nova Geração de Comutadores MV Inteligentes
Mar 09, 2023Como limpar um ventilador de banheiro: 12 passos para mantê-lo funcionando sem problemas
Mar 11, 2023Ação urgente necessária para infraestrutura de energia
Mar 13, 2023Especialistas em IA rejeitam Musk
(Esta história de 31 de março foi corrigida para mostrar que a Fundação Musk é um importante, não o principal doador da FLI, no parágrafo 6)
Por Martin Coulter
LONDRES (Reuters) - Quatro especialistas em inteligência artificial expressaram preocupação depois que seu trabalho foi citado em uma carta aberta – co-assinada por Elon Musk – exigindo uma pausa urgente nas pesquisas.
A carta, datada de 22 de março e com mais de 1.800 assinaturas até sexta-feira, pedia um disjuntor de seis meses no desenvolvimento de sistemas "mais poderosos" do que o novo GPT-4 da OpenAI, apoiado pela Microsoft, que pode manter uma conversa humana. , compor músicas e resumir documentos longos.
Desde que o predecessor do GPT-4, o ChatGPT, foi lançado no ano passado, empresas rivais correram para lançar produtos similares.
A carta aberta diz que os sistemas de IA com “inteligência humana competitiva” representam riscos profundos para a humanidade, citando 12 pesquisas de especialistas, incluindo acadêmicos universitários, bem como funcionários atuais e antigos da OpenAI, Google e sua subsidiária DeepMind.
Desde então, grupos da sociedade civil nos EUA e na UE pressionaram os legisladores a controlar a pesquisa da OpenAI. A OpenAI não respondeu imediatamente aos pedidos de comentários.
Os críticos acusaram o Future of Life Institute (FLI), a organização por trás da carta, de priorizar cenários apocalípticos imaginários sobre preocupações mais imediatas sobre IA, como preconceitos racistas ou sexistas. A Fundação Musk é um dos principais doadores da FLI.
Entre as pesquisas citadas estava "On the Dangers of Stochastic Parrots", um conhecido artigo de autoria de Margaret Mitchell, que anteriormente supervisionou a pesquisa ética de IA no Google.
Mitchell, agora cientista-chefe de ética da empresa de IA Hugging Face, criticou a carta, dizendo à Reuters que não estava claro o que contava como "mais poderoso que o GPT4".
“Ao tratar muitas ideias questionáveis como um dado adquirido, a carta afirma um conjunto de prioridades e uma narrativa sobre IA que beneficia os apoiadores da FLI”, disse ela. "Ignorar danos ativos agora é um privilégio que alguns de nós não têm."
Seus co-autores Timnit Gebru e Emily M. Bender criticaram a carta no Twitter, com o último classificando algumas de suas reivindicações como "desequilibradas".
O presidente da FLI, Max Tegmark, disse à Reuters que a campanha não foi uma tentativa de impedir a vantagem corporativa da OpenAI.
"É muito hilário. Já vi pessoas dizerem: 'Elon Musk está tentando desacelerar a concorrência'", disse ele, acrescentando que Musk não teve nenhum papel na redação da carta. "Não se trata de uma empresa."
RISCOS AGORA
Shiri Dori-Hacohen, professora assistente da Universidade de Connecticut, também questionou o fato de seu trabalho ser mencionado na carta. No ano passado, ela foi coautora de um trabalho de pesquisa argumentando que o uso generalizado de IA já representava sérios riscos.
Sua pesquisa argumentou que o uso atual de sistemas de IA pode influenciar a tomada de decisões em relação às mudanças climáticas, guerra nuclear e outras ameaças existenciais.
Ela disse à Reuters: "A IA não precisa atingir a inteligência de nível humano para exacerbar esses riscos".
"Existem riscos inexistentes que são muito, muito importantes, mas não recebem o mesmo tipo de atenção em nível de Hollywood."
Solicitado a comentar as críticas, Tegmark, da FLI, disse que os riscos de curto e longo prazo da IA devem ser levados a sério.
"Se citarmos alguém, isso significa apenas que afirmamos que ele está endossando a frase. Não significa que ele está endossando a carta ou que endossamos tudo o que ele pensa", disse ele à Reuters.
Dan Hendrycks, diretor do Center for AI Safety, com sede na Califórnia, que também foi citado na carta, manteve seu conteúdo, dizendo à Reuters que era sensato considerar eventos de cisne negro - aqueles que parecem improváveis, mas teriam consequências devastadoras.
A carta aberta também alertou que ferramentas generativas de IA poderiam ser usadas para inundar a internet com "propaganda e falsidade".
Dori-Hacohen disse que foi "muito rico" para Musk ter assinado, citando um aumento relatado de desinformação no Twitter após a aquisição da plataforma, documentado pelo grupo da sociedade civil Common Cause e outros.