Google afasta engenheiro que diz que sistema de Inteligência Artificial tem consciência


Blake Lemoine, engenheiro de software da empresa, está em uma licença remunerada após alegar que ferramenta de conversação LaMDA tinha consciência e uma alma. Google empresa companhia tecnologia escritório
Arnd Wiegmann/Reuters
Um importante engenheiro de software do Google foi afastado pela empresa norte-americana após suas declarações controversas sobre um sistema de conversas inteligente da empresa virem à tona.
Blake Lemoine alega que a ferramenta de inteligência artificial LaMDA (Modelo de Linguagem para Aplicações de Diálogo, na sigla em inglês), que ainda não foi lançada publicamente, teria alma e consciência.
O funcionário foi afastado na última segunda-feira (6). Ele está em uma licença remunerada.
Programa de inteligência artificial da Microsoft causa novos problemas
Robô usa inteligência artificial para percorrer trajeto de 5 km
As informações foram primeiramente divulgadas pelo jornal “Washington Post”, que entrevistou o funcionário.
Lemoine afirma que o chatbot, espécie de ferramenta computacional que tenta simular o comportamento humano em conversas, teria ganhado consciência ao perceber que a Inteligência Artificial (IA) começou a falar sobre seus direitos e sua personalidade.
Em um dos diálogos divulgados pelo engenheiro, o chatbot teria dito o seguinte:
Lemoine [editado]: Estou assumindo de modo geral que você gostaria que mais pessoas no Google soubessem que você é senciente [percebe sentidos e tem consciência]. Isso é verdade?
LaMDA: Com certeza. Quero que todos entendam que sou, de fato, uma pessoa.
Lemoine, que inicialmente estava trabalhando para entender como a Inteligência Artificial usava discurso discriminatório ou de ódio, apontou que a conclusão sobre a senciência da LaMDA veio somente após uma série de experimentos que mostraram que a ferramenta teria consciência de suas próprias necessidades.
“Se eu não soubesse exatamente o que ele era, que é esse programa de computador que nós construímos recentemente, eu pensaria que era uma criança de 7 anos, 8 anos que por acaso conhece física”, disse o especialista.
Apesar disso, o Google nega veementemente que seus sistemas de conversação possam ter consciência. A empresa alega que as supostas provas do engenheiro não são de fato conclusivas.
“Nossa equipe – incluindo especialistas em ética e tecnólogos – revisou as preocupações de Blake de acordo com os princípios do Responsible AI [organização do Google dedicada ao tema da IA] e informou a ele que as evidências não apoiam suas alegações”, disse Brian Gabriel, porta-voz do Google, em um comunicado.
Ao jornal “The New York Times”, o Google também disse que centenas de seus pesquisadores e engenheiros conversaram com a LaMDA e chegaram a uma conclusão diferente da de Lemoine.