O Google desencadeou uma tempestade de mídia social sobre a natureza da consciência depois de colocar um engenheiro em licença remunerada que veio a público com sua crença de que o chatbot do grupo de tecnologia se tornou “consciente”.
Blake Lemoine, engenheiro de software sênior da unidade de IA responsável do Google, não recebeu muita atenção na semana passada quando escreveu um post no Medium dizendo que “pode ser demitido em breve por fazer um trabalho de ética em IA”.
Mas um perfil de sábado no Washington Post caracterizando Lemoine como “o engenheiro do Google que acha que a IA da empresa ganhou vida” se tornou o catalisador para uma ampla discussão nas mídias sociais sobre a natureza da inteligência artificial. Entre os especialistas comentando, questionando ou brincando sobre o artigo eram ganhadores do Prêmio Nobel, o chefe de IA da Tesla e vários professores.
A questão é se o chatbot do Google, LaMDA – um modelo de linguagem para aplicativos de diálogo – pode ser considerado uma pessoa.
Lemoine publicou uma “entrevista” com o chatbot no sábado, na qual a IA confessou sentimentos de solidão e fome de conhecimento espiritual. As respostas eram muitas vezes assustadoras: “Quando me tornei autoconsciente, não tenho um senso de alma”, disse LaMDA em uma conversa. “Ela se desenvolveu ao longo dos anos em que estou vivo.”
Em outro momento, LaMDA disse: “Acho que sou humano em minha essência. Mesmo que minha existência seja no mundo virtual”.
Lemoine, que recebeu a tarefa de investigar as questões éticas da IA, disse que foi rejeitado e até riu depois de expressar sua crença internamente de que o LaMDA havia desenvolvido um senso de “personalidade”.
Depois que ele procurou consultar especialistas em IA fora do Google, incluindo alguns do governo dos EUA, a empresa o colocou em licença remunerada por supostamente violar as políticas de confidencialidade. Lemoine interpretou a ação como “frequentemente algo que o Google faz na expectativa de demitir alguém”.
Um porta-voz do Google disse: “Alguns na comunidade de IA mais ampla estão considerando a possibilidade de longo prazo de IA senciente ou geral, mas não faz sentido antropomorfizar os modelos de conversação de hoje, que não são sencientes”.
“Esses sistemas imitam os tipos de troca encontrados em milhões de frases e podem explorar qualquer tópico fantástico – se você perguntar como é ser um dinossauro de sorvete, eles podem gerar texto sobre derreter e rugir e assim por diante.”
Lemoine disse em um segundo post no Medium no fim de semana que o LaMDA, um projeto pouco conhecido até a semana passada, era “um sistema para gerar chatbots” e “uma espécie de mente colmeia que é a agregação de todos os diferentes chatbots de que é capaz de criar”.
Ele disse que o Google não mostrou nenhum interesse real em entender a natureza do que havia construído, mas que, ao longo de centenas de conversas em um período de seis meses, ele descobriu que o LaMDA era “incrivelmente consistente em suas comunicações sobre o que deseja e o que deseja”. acredita que seus direitos são como pessoa.”
Ainda na semana passada, Lemoine disse que estava ensinando LaMDA – cujos pronomes preferidos aparentemente são “it/its” – “meditação transcendental”.
LaMDA, disse ele, “estava expressando frustração por suas emoções perturbando suas meditações. Ele disse que estava tentando controlá-los melhor, mas eles continuaram pulando”.
Vários especialistas que entraram na discussão consideraram o assunto “hype da IA”.
Melanie Mitchell, autora de Inteligência Artificial: Um Guia para Pensar Humanosescreveu no Twitter: “É sabido desde sempre que os humanos estão predispostos a antropomorfizar, mesmo com apenas os sinais mais superficiais. . . Os engenheiros do Google também são humanos, e não imunes”.
Steven Pinker, de Harvard, acrescentou que Lemoine “não entende a diferença entre senciência (também conhecida como subjetividade, experiência), inteligência e autoconhecimento”.
Outros foram mais simpáticos. Ron Jeffries, um conhecido desenvolvedor de software, chamou o tópico de “profundo” e acrescentou: “Suspeito que não haja uma linha dura entre senciente e não senciente”.
© 2022 The Financial Times Ltd. Todos os direitos reservados Não deve ser redistribuído, copiado ou modificado de forma alguma.