Geoffrey Hinton, um dos maiores nomes da inteligência artificial (IA) no mundo, confirmou que deixou seu cargo no Google na semana passada para falar sobre os “perigos” da tecnologia que ajudou a desenvolver. O trabalho de Hinton em redes neurais foi fundamental para moldar os sistemas de IA que alimentam muitos produtos atuais.
Hinton trabalhou meio período no Google por uma década nos esforços de desenvolvimento de IA da gigante da internet, mas desde então passou a se preocupar com a tecnologia e o papel que representa em seu avanço. “Eu me consolo com a desculpa normal: se eu não tivesse feito isso, outra pessoa teria feito”, disse Hinton ao jornal norte-americano “New York Times”, que foi o primeiro a relatar sua decisão.
Em uma publicação nas redes sociais, Hinton disse que deixou o Google para poder falar livremente sobre os riscos da IA, e não pelo desejo de criticar a empresa especificamente. “Saí para poder falar sobre os perigos da IA sem considerar como isso afeta o Google”, explicou Hinton em sua conta no Twitter. “O Google agiu com muita responsabilidade”, continuou.
Jeff Dean, cientista-chefe do Google, disse que Hinton “fez avanços fundamentais em IA” e expressou gratidão pela “década de contribuições de Hinton no Google”. “Continuamos comprometidos com uma abordagem responsável da IA”, declarou Dean em um comunicado fornecido à CNN.
A decisão de Hinton de se afastar da empresa e falar sobre a tecnologia ocorre quando um número crescente de legisladores, grupos de defesa e especialistas em tecnologia levantam alarmes sobre o potencial de uma nova safra de chatbots com inteligência artificial para espalhar desinformação e acabar com postos de empregos.
A onda de atenção em torno do ChatGPT no final do ano passado ajudou a renovar uma corrida entre as empresas de tecnologia para desenvolver e implantar ferramentas de IA semelhantes em seus produtos. OpenAI, Microsoft e Google estão na vanguarda dessa tendência, mas IBM, Amazon, Baidu e Tencent estão trabalhando em tecnologias semelhantes.
Em março, algumas figuras proeminentes da tecnologia assinaram uma carta pedindo que os laboratórios de inteligência artificial interrompessem o treinamento dos sistemas de IA mais poderosos por pelo menos seis meses, citando “riscos profundos para a sociedade e a humanidade”. A carta, publicada pelo “Future of Life Institute” (Instituto do Futuro da Vida, em tradução literal), uma organização sem fins lucrativos apoiada por Elon Musk, veio apenas duas semanas depois que a OpenAI anunciou o GPT-4, uma versão ainda mais poderosa da tecnologia que alimenta o ChatGPT.