Criadora do ChatGPT reforça unidade de assuntos globais enquanto políticos pressionam por novas leis que podem restringir modelos poderosos de IA.
A OpenAI rapidamente construiu uma equipe internacional de lobistas no último ano, enquanto a criadora do ChatGPT se junta a rivais como Google e Meta na tentativa de influenciar novas regulamentações, enquanto políticos aumentam sua vigilância sobre a inteligência artificial.
A start-up baseada em San Francisco disse ao Financial Times que expandiu o número de funcionários em sua equipe de assuntos globais de três no início de 2023 para 35. A empresa pretende aumentar esse número para 50 até o final de 2024.
A iniciativa ocorre enquanto os governos exploram e debatem legislações sobre a segurança da IA que podem restringir o crescimento da start-up e o desenvolvimento de seus modelos de ponta, que sustentam produtos como o ChatGPT.
“Não estamos abordando isso com a perspectiva de que precisamos entrar lá e acabar com as regulamentações… porque não temos o objetivo de maximizar o lucro; temos o objetivo de garantir que a AGI beneficie toda a humanidade”, disse Anna Makanju, vice-presidente de assuntos governamentais da OpenAI, referindo-se à inteligência geral artificial, ou ao ponto em que as máquinas têm habilidades cognitivas equivalentes às dos humanos.
Embora constitua uma pequena parte dos 1.200 funcionários da OpenAI, o departamento de assuntos globais é a unidade mais internacional da empresa, estrategicamente posicionada em locais onde a legislação de IA está avançada. Isso inclui a localização de funcionários na Bélgica, Reino Unido, Irlanda, França, Singapura, Índia, Brasil e EUA.
No entanto, a OpenAI ainda está atrás de seus rivais Big Tech nesse alcance. De acordo com registros públicos nos EUA, a Meta gastou um recorde de $7,6 milhões engajando-se com o governo dos EUA no primeiro trimestre deste ano, enquanto o Google gastou $3,1 milhões e a OpenAI $340.000. Em relação à advocacia específica para IA, a Meta nomeou 15 lobistas, o Google cinco, enquanto a OpenAI tem apenas dois.
“Quando entrei, o [ChatGPT tinha] 100 milhões de usuários [mas a empresa tinha] três pessoas para fazer política pública”, disse David Robinson, chefe de planejamento de políticas da OpenAI, que se juntou à empresa em maio do ano passado após uma carreira na academia e consultoria para a Casa Branca sobre sua política de IA.
“Chegou literalmente ao ponto em que haveria alguém de alto nível que queria uma conversa, e não havia ninguém que pudesse atender o telefone”, acrescentou.
Unidade de Assuntos Globais da OpenAI não lida com os casos regulatórios mais contenciosos
Essa tarefa cabe à equipe jurídica, que lida com questões relacionadas à revisão dos reguladores do Reino Unido e dos EUA sobre sua aliança de $18 bilhões com a Microsoft; a investigação da Comissão de Valores Mobiliários dos EUA sobre se o CEO Sam Altman enganou investidores durante sua breve destituição pelo conselho em novembro; e a investigação de proteção ao consumidor da Comissão Federal de Comércio dos EUA sobre a empresa.
Em vez disso, os lobistas da OpenAI se concentram na disseminação da legislação de IA. O Reino Unido, os EUA e Singapura estão entre os muitos países lidando com como governar a IA e consultando de perto a OpenAI e outras empresas de tecnologia sobre as regulamentações propostas.
A empresa esteve envolvida nas discussões em torno do Ato de IA da UE, aprovado este ano, uma das legislações mais avançadas na tentativa de regular modelos poderosos de IA.
A OpenAI foi uma das empresas de IA que argumentou que alguns de seus modelos não deveriam ser considerados entre aqueles que oferecem “alto risco” nas primeiras versões do ato e, portanto, estariam sujeitos a regras mais rigorosas, de acordo com três pessoas envolvidas nas negociações. Apesar dessa pressão, os modelos mais capazes da empresa estarão sob a responsabilidade do ato.
A OpenAI também se opôs à iniciativa da UE de examinar todos os dados fornecidos aos seus modelos de fundação, segundo pessoas familiarizadas com as negociações.
A empresa disse ao FT que os dados de pré-treinamento — os conjuntos de dados usados para dar aos modelos de linguagem uma compreensão ampla de linguagem ou padrões — deveriam estar fora do escopo da regulamentação, pois era uma maneira pobre de entender as saídas de um sistema de IA. Em vez disso, propôs que o foco deveria estar nos dados de pós-treinamento usados para ajustar os modelos para uma tarefa específica.
A UE decidiu que, para sistemas de IA de alto risco, os reguladores ainda podem solicitar acesso aos dados de treinamento para garantir que estejam livres de erros e vieses.
Desde que a lei da UE foi aprovada, a OpenAI contratou Chris Lehane, que trabalhou para o presidente Bill Clinton, na campanha presidencial de Al Gore e foi chefe de políticas do Airbnb, como vice-presidente de obras públicas. Lehane trabalhará de perto com Makanju e sua equipe.
A OpenAI também recentemente contratou Jakob Kucharczyk, ex-líder de concorrência na Meta. Sandro Gianella, chefe de políticas e parcerias europeias, ingressou em junho do ano passado após trabalhar no Google e na Stripe, enquanto James Hairston, chefe de políticas e parcerias internacionais, veio da Meta em maio do ano passado.
A empresa esteve recentemente envolvida em uma série de discussões com formuladores de políticas nos EUA e em outros mercados sobre o modelo Voice Engine da OpenAI, que pode clonar e criar vozes personalizadas, levando a empresa a restringir seus planos de lançamento após preocupações sobre os riscos de como ele poderia ser usado no contexto das eleições globais deste ano.
A equipe tem realizado workshops em países que enfrentam eleições este ano, como México e Índia, e publicado orientações sobre desinformação. Em países autocráticos, a OpenAI concede acesso individual aos seus modelos para “indivíduos de confiança” em áreas onde considera que não é seguro lançar os produtos.
Um funcionário do governo que trabalhou de perto com a OpenAI disse que uma preocupação diferente para a empresa era garantir que quaisquer regras fossem flexíveis no futuro e não ficassem desatualizadas com novos avanços científicos ou tecnológicos.
A OpenAI espera abordar alguns dos problemas herdados da era das mídias sociais, que, segundo Makanju, levaram a uma “desconfiança geral nas empresas do Vale do Silício”.
“Infelizmente, as pessoas frequentemente veem a IA com a mesma lente”, acrescentou. “Gastamos muito tempo garantindo que as pessoas entendam que essa tecnologia é bastante diferente e as intervenções regulatórias que fazem sentido para ela serão muito diferentes.”
No entanto, algumas figuras da indústria são críticas à expansão do lobby da OpenAI.
“Inicialmente, a OpenAI recrutou pessoas profundamente envolvidas em políticas de IA e especialistas, enquanto agora estão apenas contratando lobistas de tecnologia comuns, o que é uma estratégia muito diferente”, disse uma pessoa que se envolveu diretamente com a OpenAI na criação de legislações.
“Eles só querem influenciar legisladores da mesma maneira que as Big Tech têm feito há mais de uma década.”
Robinson, chefe de planejamento da OpenAI, disse que a equipe de assuntos globais tem objetivos mais ambiciosos. “A missão é segura e amplamente benéfica, e o que isso significa? Significa criar leis que não apenas nos permitam inovar e trazer tecnologia benéfica para as pessoas, mas também acabar em um mundo onde a tecnologia é segura.”
Nenhum comentário ainda, seja o primeiro!