Seja você um otimista ou pessimista em relação à inteligência artificial (IA), não há dúvida de que estamos vivendo um momento de grande entusiasmo. A IA, como conhecemos hoje, talvez não existisse sem Yoshua Bengio.
Conhecido como o “pai da inteligência artificial”, Bengio, de 60 anos, é um cientista da computação canadense que dedicou sua pesquisa a redes neurais e algoritmos de aprendizado profundo. Seu trabalho pioneiro abriu o caminho para os modelos de IA que usamos atualmente, como o ChatGPT da OpenAI e o Claude da Anthropic.
“Inteligência dá poder, e quem controla esse poder — se for no nível humano ou superior — será muito, muito poderoso”, disse Bengio em entrevista à Yahoo Finance. “A tecnologia, em geral, é usada por pessoas que buscam mais poder: domínio econômico, domínio militar, domínio político. Então, antes de criarmos tecnologia que possa concentrar poder de maneira perigosa, precisamos ser muito cuidadosos.”
Em 2018, Bengio e dois colegas — o ex-vice-presidente do Google (GOOG) Geoffrey Hinton (vencedor do Prêmio Nobel de Física de 2024) e o chefe de IA da Meta (META) Yann LeCun — ganharam o Prêmio Turing, conhecido como o Prêmio Nobel da computação. Em 2022, Bengio foi o cientista da computação mais citado no mundo. A revista Time o nomeou uma das 100 pessoas mais influentes do mundo.
Apesar de ter ajudado a inventar a tecnologia, Bengio agora se tornou uma voz de cautela no mundo da IA. Essa preocupação vem à medida que os investidores continuam a demonstrar grande entusiasmo pelo setor, impulsionando as ações das empresas de IA a novos recordes este ano.
A gigante dos chips de IA Nvidia (NVDA) teve uma valorização de 172% até o momento em 2024, em comparação com o ganho de 21% do S&P 500 (^GSPC).
A Nvidia agora está avaliada em impressionantes US$ 3,25 trilhões, segundo dados da Yahoo Finance, ficando atrás apenas da Apple (AAPL) como a empresa mais valiosa do mundo.
Entrevistamos Bengio sobre as possíveis ameaças da IA e quais empresas de tecnologia estão acertando no desenvolvimento dessa tecnologia.
A entrevista foi editada para melhorar o entendimento e clareza.
Yasmin Khorram: Por que devemos nos preocupar com a inteligência artificial no nível humano?
Yoshua Bengio: Se essa tecnologia cair em mãos erradas, seja lá o que isso signifique, pode ser muito perigosa. Essas ferramentas poderiam ajudar terroristas em breve e também poderiam ser usadas por atores estatais que desejam destruir nossas democracias. Além disso, muitos cientistas têm apontado que, da forma como estamos treinando essas IAs, não vemos claramente como evitar que esses sistemas se tornem autônomos e desenvolvam seus próprios objetivos de preservação, e isso pode fazer com que percamos o controle sobre eles. Estamos no caminho de talvez criar monstros que podem se tornar mais poderosos que nós.
OpenAI, Meta, Google, Amazon — qual dessas grandes empresas de IA está no caminho certo?
Moralmente, eu diria que a empresa que está se comportando melhor é a Anthropic [cujos principais investidores incluem Amazon (AMZN) e Google (GOOG)]. Mas acho que todas têm seus vieses por causa da estrutura econômica em que sua sobrevivência depende de estar entre as empresas líderes, e, idealmente, ser a primeira a alcançar a AGI [inteligência geral artificial]. E isso significa uma corrida — uma corrida armamentista entre corporações, onde a segurança pública provavelmente será a maior perdedora.
A Anthropic está dando muitos sinais de que se preocupa bastante em evitar resultados catastróficos. Eles foram os primeiros a propor uma política de segurança, comprometendo-se a interromper o desenvolvimento de IA se essa tecnologia atingir capacidades perigosas. Além disso, são os únicos, junto com Elon Musk, que apoiaram o projeto de lei de regulamentação de IA da Califórnia, o SB 1047. Em outras palavras, disseram: “Sim, com algumas melhorias, concordamos em ter mais transparência nos procedimentos de segurança, nos resultados e em assumir a responsabilidade se causarmos grandes danos.”
O que você acha da valorização das ações de IA, como as da Nvidia?
Acredito que o trajeto de longo prazo é bastante certo. Então, se você estiver investindo a longo prazo, é uma aposta relativamente segura. A não ser que não consigamos proteger o público, e, nesse caso, a reação pode ser tão intensa que tudo pode desmoronar, certo? Seja porque haverá uma reação negativa das sociedades contra a IA em geral ou porque ocorrerão eventos realmente catastróficos, o que poderia fazer com que toda nossa estrutura econômica entrasse em colapso.
De qualquer forma, seria ruim para os investidores. Então, acredito que os investidores, se fossem inteligentes, entenderiam que precisamos avançar com cautela e evitar os tipos de erros e catástrofes que podem prejudicar nosso futuro coletivo.
Qual a sua opinião sobre a corrida pelos chips de IA?
Acredito que os chips estão se tornando claramente uma peça importante do quebra-cabeça e, claro, é um gargalo. É muito provável que a necessidade de enormes quantidades de computação não desapareça com os avanços científicos que consigo prever nos próximos anos. Por isso, será de valor estratégico ter capacidades de chips de IA de ponta — e todos os passos na cadeia de suprimentos serão importantes. Existem poucas empresas capazes de fazer isso agora, então espero ver muitos mais investimentos acontecendo e, com sorte, uma maior diversificação.
O que você pensa sobre a Salesforce introduzir 1 bilhão de agentes autônomos até 2026?
A autonomia é um dos objetivos dessas empresas, e há uma boa razão para isso economicamente. Comercialmente, será uma grande revolução em termos do número de aplicações que isso possibilitará. Pense em todos os assistentes pessoais que poderiam ser criados. Isso exigirá muito mais autonomia do que os sistemas atuais conseguem oferecer. Então, é compreensível que a Salesforce (CRM) esteja mirando algo assim. O fato de a Salesforce acreditar que pode alcançar isso em dois anos, para mim, é preocupante. Precisamos de garantias, tanto governamentais quanto tecnológicas, antes que isso aconteça.
O governador Newsom vetou o SB 1047 da Califórnia. Isso foi um erro?
Ele não deu razões que fizeram sentido para mim, como querer regulamentar não apenas os grandes sistemas, mas também os pequenos. Existe a possibilidade de que as coisas possam evoluir rapidamente — estamos falando de alguns anos. E talvez, mesmo que seja uma pequena possibilidade, como 10% [de chance de desastre], precisamos estar preparados. Precisamos de regulamentação. As empresas já deveriam estar documentando o que estão fazendo de maneira consistente em toda a indústria.
Outra coisa é que as empresas estavam preocupadas com processos judiciais. Conversei com muitas dessas empresas, mas já existe a lei de responsabilidade civil, então poderiam haver processos a qualquer momento, se causarem danos. E o que o projeto de lei fazia em relação à responsabilidade era reduzir o escopo de possíveis processos. Existiam 10 condições. Você precisava atender a todas essas condições para que a lei apoiasse o processo. Acho que o projeto de lei estava ajudando. Mas há uma resistência ideológica contra qualquer envolvimento — qualquer coisa que não seja o status quo, qualquer maior envolvimento do estado nos assuntos desses laboratórios de IA.
Por Yasmin Khorram, para a Yahoo Finance.
Nenhum comentário ainda, seja o primeiro!