‘O Poderoso Chefão da IA’ Deixa o Google e Alerta sobre o Perigo à Frente
Por meio século, Geoffrey Hinton alimentou a tecnologia no coração de chatbots como o ChatGPT.
Agora ele teme que isso cause sérios danos.
Cade Metz/NYTimes relatou esta história em Toronto.
1º de maio de 2023
Geoffrey Hinton foi um pioneiro da inteligência artificial. Em 2012, o Dr. Hinton e dois de seus alunos de pós-graduação na Universidade de Toronto criaram uma tecnologia que se tornou a base intelectual para os sistemas de IA que as maiores empresas do setor de tecnologia acreditam ser a chave para seu futuro.
Na segunda-feira, no entanto, ele se juntou oficialmente a um crescente coro de críticos que dizem que essas empresas estão correndo para o perigo com sua campanha agressiva para criar produtos baseados em inteligência artificial generativa, a tecnologia que alimenta chatbots populares como o ChatGPT.
O Dr. Hinton disse que largou o emprego no Google, onde trabalhou por mais de uma década e se tornou uma das vozes mais respeitadas na área, para poder falar livremente sobre os riscos da IA Uma parte dele, ele disse, agora lamenta o trabalho de sua vida.
“Eu me consolo com a desculpa normal: se eu não tivesse feito isso, outra pessoa teria”, disse o Dr. Hinton durante uma longa entrevista na semana passada na sala de jantar de sua casa em Toronto, a uma curta caminhada de onde ele e seus alunos fizeram sua descoberta.
A jornada do Dr. Hinton de pioneiro da IA a apocalíptico marca um momento notável para a indústria de tecnologia, talvez em seu ponto de inflexão mais importante em décadas. Os líderes da indústria acreditam que os novos sistemas de IA podem ser tão importantes quanto a introdução do navegador da Web no início dos anos 90 e podem levar a avanços em áreas que vão desde a pesquisa de drogas até a educação.
Mas atormentando muitos membros da indústria está o medo de que eles estejam liberando algo perigoso na natureza. A IA generativa já pode ser uma ferramenta para desinformação. Em breve, pode ser um risco para os empregos. Em algum momento, dizem os maiores temores da tecnologia, pode ser um risco para a humanidade.
“É difícil ver como você pode evitar que os maus atores o usem para coisas ruins”, disse o Dr. Hinton.
Depois que a OpenAI, startup de São Francisco, lançou uma nova versão do ChatGPT em março , mais de 1.000 líderes e pesquisadores de tecnologia assinaram uma carta aberta pedindo uma moratória de seis meses no desenvolvimento de novos sistemas porque as tecnologias de IA representam “riscos profundos para a sociedade e humanidade”.
Vários dias depois, 19 líderes atuais e anteriores da Associação para o Avanço da Inteligência Artificial, uma sociedade acadêmica de 40 anos, divulgaram sua própria carta alertando sobre os riscos da IA. Esse grupo incluía Eric Horvitz, diretor científico da Microsoft, que implantou a tecnologia da OpenAI em uma ampla gama de produtos, incluindo seu mecanismo de busca Bing .
Dr. Hinton, muitas vezes chamado de “o padrinho da IA”, não assinou nenhuma dessas cartas e disse que não queria criticar publicamente o Google ou outras empresas até que deixasse o emprego. Ele notificou a empresa no mês passado que estava se demitindo e, na quinta-feira, conversou por telefone com Sundar Pichai, presidente-executivo da Alphabet, controladora do Google. Ele se recusou a discutir publicamente os detalhes de sua conversa com Pichai.
O cientista-chefe do Google, Jeff Dean, disse em um comunicado: “Continuamos comprometidos com uma abordagem responsável da IA. Estamos aprendendo continuamente a entender os riscos emergentes e, ao mesmo tempo, inovar com ousadia”.
O Dr. Hinton, um expatriado britânico de 75 anos, é um acadêmico cuja carreira foi impulsionada por suas convicções pessoais sobre o desenvolvimento e uso da IA. Em 1972, como estudante de pós-graduação na Universidade de Edimburgo, o Dr. ideia chamada rede neural. Uma rede neural é um sistema matemático que aprende habilidades analisando dados. Na época, poucos pesquisadores acreditaram na ideia. Mas tornou-se o trabalho de sua vida.
Na década de 1980, o Dr. Hinton era professor de ciência da computação na Carnegie Mellon University, mas trocou a universidade pelo Canadá porque disse que relutava em receber financiamento do Pentágono. Na época, a maior parte da pesquisa de IA nos Estados Unidos era financiada pelo Departamento de Defesa. Dr. Hinton se opõe profundamente ao uso de inteligência artificial no campo de batalha – o que ele chama de “soldados robôs”.
Em 2012, Dr. Hinton e dois de seus alunos em Toronto, Ilya Sutskever e Alex Krishevsky, construíram uma rede neural capaz de analisar milhares de fotos e aprender a identificar objetos comuns, como flores, cachorros e carros.
O Google gastou US$ 44 milhões para adquirir uma empresa iniciada pelo Dr. Hinton e seus dois alunos. E seu sistema levou à criação de tecnologias cada vez mais poderosas, incluindo novos chatbots como ChatGPT e Google Bard . O Sr. Sutskever tornou-se cientista-chefe da OpenAI. Em 2018, o Dr. Hinton e dois outros colaboradores de longa data receberam o Prêmio Turing , muitas vezes chamado de “Prêmio Nobel da computação”, por seu trabalho em redes neurais.
Na mesma época, Google, OpenAI e outras empresas começaram a construir redes neurais que aprendiam com grandes quantidades de texto digital. O Dr. Hinton achava que era uma maneira poderosa para as máquinas entenderem e gerarem linguagem, mas era inferior à maneira como os humanos lidavam com a linguagem.
Então, no ano passado, quando o Google e a OpenAI construíram sistemas usando quantidades muito maiores de dados, sua visão mudou. Ele ainda acreditava que os sistemas eram inferiores ao cérebro humano em alguns aspectos, mas achava que eles estavam eclipsando a inteligência humana em outros. “Talvez o que está acontecendo nesses sistemas”, disse ele, “seja realmente muito melhor do que o que está acontecendo no cérebro”.
À medida que as empresas melhoram seus sistemas de IA, ele acredita, eles se tornam cada vez mais perigosos. “Veja como era há cinco anos e como é agora”, disse ele sobre a tecnologia de IA. “Pegue a diferença e propague-a adiante. Isso é assustador.”
Até o ano passado, disse ele, o Google agia como um “administrador adequado” da tecnologia, tomando cuidado para não lançar algo que pudesse causar danos. Mas agora que a Microsoft ampliou seu mecanismo de busca Bing com um chatbot – desafiando o core business do Google – o Google está correndo para implantar o mesmo tipo de tecnologia . Os gigantes da tecnologia estão presos em uma competição que pode ser impossível de parar, disse o Dr. Hinton.
Sua preocupação imediata é que a internet seja inundada com fotos , vídeos e textos falsos , e a pessoa comum “não consiga mais saber o que é verdade”.
Ele também está preocupado com o fato de que as tecnologias de IA irão, com o tempo, virar o mercado de trabalho. Hoje, chatbots como o ChatGPT tendem a complementar os trabalhadores humanos, mas podem substituir paralegais, assistentes pessoais, tradutores e outros que lidam com tarefas rotineiras. “Isso tira o trabalho pesado”, disse ele. “Pode levar mais do que isso.”
No futuro, ele está preocupado que as versões futuras da tecnologia representem uma ameaça para a humanidade, porque muitas vezes aprendem comportamentos inesperados com a grande quantidade de dados que analisam . Isso se torna um problema, disse ele, pois indivíduos e empresas permitem que os sistemas de IA não apenas gerem seu próprio código de computador, mas também executem esse código por conta própria. E ele teme o dia em que armas verdadeiramente autônomas – aqueles robôs assassinos – se tornem realidade.
“A ideia de que essas coisas poderiam realmente ficar mais inteligentes do que as pessoas – algumas pessoas acreditaram nisso”, disse ele. “Mas a maioria das pessoas achou que estava errado. E eu pensei que estava longe. Eu pensei que era de 30 a 50 anos ou até mais longe. Obviamente, não penso mais nisso.”
Muitos outros especialistas, incluindo muitos de seus alunos e colegas, dizem que essa ameaça é hipotética. Mas o Dr. Hinton acredita que a corrida entre o Google e a Microsoft e outros vai se transformar em uma corrida global que não vai parar sem algum tipo de regulamentação global.
Mas isso pode ser impossível, disse ele. Ao contrário das armas nucleares, disse ele, não há como saber se empresas ou países estão trabalhando na tecnologia em segredo. A melhor esperança é que os principais cientistas do mundo colaborem em formas de controlar a tecnologia. “Não acho que eles devam ampliar mais até que tenham entendido se podem controlá-lo”, disse ele.
Dr. Hinton disse que quando as pessoas costumavam perguntar como ele poderia trabalhar em uma tecnologia potencialmente perigosa, ele parafraseava Robert Oppenheimer, que liderou o esforço dos EUA para construir a bomba atômica: “Quando você vê algo que é tecnicamente bom, você Vá em frente e faça isso.”
Ele não diz mais isso.
Fonte: https://tinyurl.com/2ot5zzlv





