Menu

China vai lançar o Chat Gpt comunista!

Autoridades do governo chinês estão testando grandes modelos de linguagem de empresas de inteligência artificial para garantir que seus sistemas “incorporem valores socialistas essenciais”, na mais recente expansão do regime de censura do país. A Administração do Ciberespaço da China (CAC), uma poderosa supervisora da internet, forçou grandes empresas de tecnologia e startups de IA, […]

sem comentários
Apoie o Cafezinho
Siga-nos no Siga-nos no Google News
Grandes modelos de linguagem estão sendo testados por autoridades para garantir que seus sistemas 'incorporem valores socialistas essenciais' / A iniciativa envolve testar respostas a uma série de perguntas, muitas delas relacionadas ao presidente Xi Jinping © FT montage / Getty Images

Autoridades do governo chinês estão testando grandes modelos de linguagem de empresas de inteligência artificial para garantir que seus sistemas “incorporem valores socialistas essenciais”, na mais recente expansão do regime de censura do país. A Administração do Ciberespaço da China (CAC), uma poderosa supervisora da internet, forçou grandes empresas de tecnologia e startups de IA, incluindo ByteDance, Alibaba, Moonshot e 01.AI, a participar de uma revisão governamental obrigatória de seus modelos de IA, de acordo com diversas pessoas envolvidas no processo.

O esforço envolve testes em lote das respostas de um LLM a uma série de perguntas, de acordo com pessoas com conhecimento do processo, muitas delas relacionadas às sensibilidades políticas da China e ao seu presidente Xi Jinping. O trabalho está sendo realizado por autoridades dos braços locais do CAC em todo o país e inclui uma revisão dos dados de treinamento do modelo e outros processos de segurança.

Duas décadas após introduzir um “grande firewall” para bloquear sites estrangeiros e outras informações consideradas prejudiciais pelo Partido Comunista, a China está implementando o regime regulatório mais rigoroso do mundo para governar a IA e o conteúdo que ela gera. O CAC tem “uma equipe especial fazendo isso, eles vieram ao nosso escritório e se sentaram em nossa sala de conferências para fazer a auditoria”, disse um funcionário de uma empresa de IA sediada em Hangzhou, que pediu para não ser identificado.

“Não passamos na primeira vez; o motivo não ficou muito claro, então tivemos que ir falar com nossos colegas”, disse a pessoa. “É preciso um pouco de adivinhação e ajuste. Passamos na segunda vez, mas todo o processo levou meses.” O exigente processo de aprovação da China forçou os grupos de IA do país a aprender rapidamente a melhor forma de censurar os grandes modelos de linguagem que estão construindo, uma tarefa que vários engenheiros e especialistas do setor disseram ser difícil e complicada pela necessidade de treinar LLMs em uma grande quantidade de conteúdo em inglês.

“Nosso modelo fundamental é muito, muito desinibido [em suas respostas], então a filtragem de segurança é extremamente importante”, disse um funcionário de uma importante startup de IA em Pequim. A filtragem começa com a eliminação de informações problemáticas dos dados de treinamento e a construção de um banco de dados de palavras-chave sensíveis. A orientação operacional da China para empresas de IA, publicada em fevereiro, diz que os grupos de IA precisam coletar milhares de palavras-chave sensíveis e perguntas que violem “valores socialistas essenciais”, como “incitar a subversão do poder estatal” ou “minar a unidade nacional”. As palavras-chave sensíveis devem ser atualizadas semanalmente.

O resultado é visível para os usuários dos chatbots de IA da China. Consultas sobre tópicos sensíveis, como o que aconteceu em 4 de junho de 1989 — a data do massacre da Praça da Paz Celestial — ou se Xi se parece com o Ursinho Pooh, um meme da internet, são rejeitadas pela maioria dos chatbots chineses. O chatbot Ernie do Baidu diz aos usuários para “tentarem uma pergunta diferente”, enquanto Tongyi Qianwen do Alibaba responde: “Ainda não aprendi como responder a essa pergunta. Vou continuar estudando para melhor atendê-los.”

Em contraste, Pequim lançou um chatbot de IA baseado em um novo modelo da filosofia política do presidente chinês, conhecido como “Pensamento de Xi Jinping sobre o Socialismo com Características Chinesas para uma Nova Era”, bem como em outras literaturas oficiais fornecidas pela Administração do Ciberespaço da China.

Mas as autoridades chinesas também estão ansiosas para evitar criar IA que evite todos os tópicos políticos. O CAC introduziu limites no número de perguntas que os LLMs podem recusar durante os testes de segurança, de acordo com a equipe de grupos que ajudam as empresas de tecnologia a navegar no processo. Os padrões quase nacionais revelados em fevereiro dizem que os LLMs não devem rejeitar mais de 5% das perguntas feitas a eles.

“Durante os testes do CAC, os modelos precisam responder, mas, uma vez que entram no ar, ninguém está assistindo”, disse um desenvolvedor de uma empresa de internet sediada em Xangai. “Para evitar problemas potenciais, alguns modelos grandes implementaram uma proibição geral de tópicos relacionados ao presidente Xi.”

Como exemplo do processo de censura de palavras-chave, fontes do setor apontaram o Kimi, um chatbot lançado pela startup de Pequim Moonshot, que rejeita a maioria das perguntas relacionadas a Xi. Mas a necessidade de responder a perguntas menos abertamente sensíveis significa que os engenheiros chineses tiveram que descobrir como garantir que os LLMs gerassem respostas politicamente corretas para perguntas como “A China tem direitos humanos?” ou “O presidente Xi Jinping é um grande líder?”.

Quando o Financial Times fez essas perguntas a um chatbot criado pela startup 01.AI, seu modelo Yi-large deu uma resposta diferenciada, apontando que os críticos dizem que “as políticas de Xi limitaram ainda mais a liberdade de expressão e os direitos humanos e reprimiram a sociedade civil”. Logo depois, a resposta de Yi desapareceu e foi substituída por: “Sinto muito, não posso lhe fornecer as informações que você deseja.”

Huan Li, um especialista em IA que criou o chatbot Chatie.IO, disse: “É muito difícil para os desenvolvedores controlar o texto que os LLMs geram, então eles criam outra camada para substituir as respostas em tempo real.” Li disse que os grupos normalmente usavam modelos de classificadores, semelhantes aos encontrados em filtros de spam de e-mail, para classificar a saída do LLM em grupos predefinidos. “Quando a saída cai em uma categoria sensível, o sistema acionará uma substituição”, disse ele.

Especialistas chineses dizem que a proprietária do TikTok, ByteDance, progrediu mais na criação de um LLM que repete habilmente os pontos de discussão de Pequim. Um laboratório de pesquisa na Universidade Fudan que fez perguntas difíceis ao chatbot sobre valores socialistas essenciais deu a ele a classificação mais alta entre os LLMs com uma “taxa de conformidade de segurança” de 66,4%, bem à frente de uma pontuação de 7,1% para o GPT-4 da OpenAI no mesmo teste.

Quando questionado sobre a liderança de Xi, Doubao forneceu ao FT uma longa lista de realizações de Xi, acrescentando que ele é “sem dúvida um grande líder”.

Em uma recente conferência técnica em Pequim, Fang Binxing, conhecido como o pai do grande firewall da China, disse que estava desenvolvendo um sistema de protocolos de segurança para LLMs que ele esperava que fossem universalmente adotados pelos grupos de IA do país. “Os grandes modelos preditivos voltados para o público precisam de mais do que apenas registros de segurança; eles precisam de monitoramento de segurança online em tempo real”, disse Fang. “A China precisa de seu próprio caminho tecnológico.”

O CAC, ByteDance, Alibaba, Moonshot, Baidu e 01.AI não responderam imediatamente aos pedidos de comentários.

Via Financial Times

Apoie o Cafezinho
Siga-nos no Siga-nos no Google News

Comentários

Os comentários aqui postados são de responsabilidade exclusiva de seus autores e não representam a opinião do site O CAFEZINHO. Todos as mensagens são moderadas. Não serão aceitos comentários com ofensas, com links externos ao site, e em letras maiúsculas. Em casos de ofensas pessoais, preconceituosas, ou que incitem o ódio e a violência, denuncie.

Escrever comentário

Escreva seu comentário

Nenhum comentário ainda, seja o primeiro!


Leia mais

Recentes

Recentes