Tradução exclusiva para o Cafezinho!
[O tradutor prefere não se identificar]
Ascensão da Inteligência Artificial (IA) como Máquina Armada de Propaganda
9/2/2017, Berit Anderson e Brett Horvath, no Scout
“É uma máquina de propaganda. Está dirigida para cada pessoa individualmente, para recrutar todos para uma ideia. É um nível de engenharia social como nunca vi. Estão capturando as pessoas e as mantêm presas num laço emocional, sem deixá-las ir” – disse o professor Jonathan Albright.
Albright, professor assistente e cientista especializado em dados na Elon University, começou a investigar os sites de notícias falsas [ing. fake news] depois que Donald Trump foi eleito presidente. Mediante pesquisa extensiva e entrevistas com Albright e outros especialistas chaves nesse campo, dentre os quais Samuel Woolley, Diretor de Pesquisa do Projeto de Propaganda Computacional da Oxford University, e Martin Moore, Diretor do Centro para Estudo de Mídia, Comunicação e Poder do Kings College, foi-se evidenciando para Scout que esse fenômeno tinha a ver com muito mais coisas que alguns episódios de noticiário falso. Era um item de quebra-cabeças muito maior e mais sinistro – a Inteligência Artificial (IA) Armada, como Máquina de Propaganda, usada para manipular nossas opiniões e comportamentos, de modo a promover específicas agendas políticas.
Alavancando a manipulação emocional com enxames de bots (robôs); postados como Facebook dark posts,[1] testes A/B e redes de notícias falsas, uma empresa chamada Cambridge Analytica ativou uma máquina invisível que se apossa das personalidades dos votantes individuais para criar grandes mudanças na opinião pública. Muitas dessas tecnologias já haviam sido usadas antes com algum resultado, mas juntas passam a operar como uma máquina quase impenetrável de manipulação do votante, que rapidamente se vai tornando o fator decisivo em eleições em todo o mundo.
Recentemente, Analytica ajudou a eleger o presidente Donald Trump nos EUA, garantiu a vitória a favor do Brexit, e puxou a arrancada da campanha de Ted Cruz em 2016, levando-o do fim da lista de candidatos às primárias do Partido Republicano, para a linha de frente.
A empresa pertence e é controlada por interesses conservadores e da “direita alternativa (ing. alt-right[2]) profundamente interligados no governo Trump. A família Mercer é uma dos principais proprietários da Cambridge Analytica e dos maiores doadores para a campanha de Trump. Steve Bannon, além de atuar como Estrategista Chefe de Trump e membro do Conselho de Segurança da Casa Branca [foi demitido ontem, 20/8/2017 (NTs)] é também membro diretor da Cambridge Analytica. Até recentemente, o diretor geral de tecnologia [ing. chief technology officer (CTO)] da Analytica era também diretor geral de tecnologia da Convenção Nacional Republicana.
Presumivelmente por causa de suas alianças, a Analytica não aceitou trabalhar em nenhuma campanha democrática – pelo menos nos EUA.[3] Mas está em conversações para ajudar Trump a fazer a gestão da opinião pública em torno de suas políticas presidenciais e expandir vendas da Trump Organization. Cambridge Analytica está agora em agressivo processo de expansão para os mercados comerciais norte-americanos e também tem contatos com partidos e governos de direita na Europa, Ásia e América Latina.
Cambridge Analytica não é a única empresa capaz de fazer o que anuncia – mas hoje é a mais poderosa. Compreender a Cambridge Analytica e a maior Máquina Armada de Propaganda com IA é essencial para quem queira compreender o moderno poder político, construir um movimento, ou não se deixar manipular. A Inteligência Artificial (IA) como Máquina Armada de Propaganda que a empresa oferece converteu-se no novo pré-requisito para o sucesso político, num mundo de polarização, isolamento e dark posts.
Houve uma onda de matérias sobre a própria Cambridge Analytica e sólida cobertura de aspectos individuais da máquina – robôs, notícias falsas, microtargeting [seleção fina de sujeitos alvos] – mas nada (que tenhamos visto) que mostre o intenso poder coletivo dessas tecnologias ou o assustador nível de influência que provavelmente terão em futuras eleições.
No passado, a propaganda e veiculação de mensagens políticas eram corridas armamentistas para ‘armar’ a narrativa a ser levada pelos novos meios – imprensa impressa, rádio e TV. Essa nova onda trouxe ao mundo algo exponencialmente mais insidioso – personalizado, adaptativo e, em resumo, a mais viciante propaganda. O Vale do Silício consumiu os últimos dez anos construindo plataformas cujo estado final natural é gerar um “vício digital” [ing. digital addiction]. Em 2016, Trump e seus aliados sequestraram aqueles especialistas.
Entramos numa nova era política. At Scout, acreditamos que o futuro de um diálogo construtivo, cívico e de eleições livres e abertas depende de nossa capacidade para compreender e antecipar essas armadilhas.
Bem-vindos à era da Inteligência Artificial (IA) como Máquina Armada de Propaganda.
Parte 1: Vigilância de Big Data[4] Encontra a Psicologia Computacional
Qualquer empresa pode juntar e comprar big data, mas a Cambridge Analytica desenvolveu um modelo para traduzir aqueles dados num perfil de personalidade que pode ser usado para prever e, na sequência, para modificar seu comportamento. Esse modelo foi desenvolvido pela empresa que pagou um professor de psicologia de Cambridge para que copiasse uma pesquisa original revolucionária de um pesquisador seu colega servindo-se de métodos duvidosos que violaram dos Termos de Serviço da Amazon. Baseada nessa origem, Cambridge Analytica aparece pronta para capturar e comprar quaisquer dados de que necessite para alcançar seus objetivos.
Em 2013, o Dr. Michal Kosinski, então candidato ao título de PhD. no Centro de Psicometria da Universidade de Cambridge, distribuiu um estudo revolucionário anunciando um novo modelo em cujo desenvolvimento ele e seus colegas consumiram anos.
Correlacionando os “Likes” em Facebook de seus ‘cobaias’ e os respectivos resultados OCEAN – resultados de um teste padronizado de personalidade, um questionário, usado por psicólogos – a equipe conseguiu identificar o gênero, a sexualidade, as crenças políticas e traços de personalidade, baseados exclusivamente nos itens que cada ‘cobaia’ marcara como “Like” no Facebook.
Créditos da Imagem: Michal Kosinski, David Stillwell e Thore Graepel
Segundo Das Magazine de Zurique, que usou o perfil de Kosinski no final de 2016, “como apenas dez ‘likes’ de input, o modelo conseguiu avaliar o caráter de uma pessoa melhor que um colega padrão de trabalho. Com 70, o modelo já ‘conhecia’ uma pessoa melhor que um amigo; com 150 ‘likes’, já o conhecia melhor que os próprios pais. Com 300 ‘likes’, a máquina de Kosinski podia prever o comportamento de um de seus ‘cobaias’ com mais acuidade que o/a parceiro/a dele/dela. Com número superior de likes o modelo já sabia mais de qualquer pessoa do que elas sabiam de si mesmas.”
Pouco depois, Kosinski foi procurado por Aleksandr Kogan, professor associado do Departamento de Psicologia de Cambridge, interessado em licenciar seu modelo para a empresa SCL Elections, que se apresentava como especialista em manipular eleições. A oferta incluía pagar considerável contribuição para o laboratório de Kosinki. Mas ele não aceitou, preocupado com as intenções daquela empresa e com os efeitos que a operação poderia vir a ter no longo prazo.
Kosinski e colegas trabalharam anos para desenvolver aquele modelo, mas com seus métodos e descobertas agora já no mundo, não foi preciso muito trabalho da empresa SCL Elections para replicá-los. Parece que fizeram precisamente isso.
Segundo investigação do Guardian, no início de 2014, apenas uns poucos meses depois de Kosinski ter recusado o negócio, a mesma empresa SCL associou-se a Kogan. Como parte dessa associação, Kogan pagou $1 a cada empregado da Amazon Mechanical Turk, para que respondessem ao questionário OCEAN. Só havia uma exigência: os interessados em responder ao questionário tinham de dar acesso a todos os próprios dados de Facebook. Disseram-lhes que os dados seriam usados para pesquisas. Essa tarefa foi notificada contra a empresa Amazon, por violar os Termos de Serviço da plataforma. O que muitos dos turcos nem suspeitaram foi que, segundo documentos que The Guardian examinou, “Kogan também capturou os mesmos dados de cada um dos amigos não informados de coisa alguma, de cada um dos empregados testados.”
Os dados reunidos no estudo de Kogan dariam origem à Cambridge Analytica, que surgiu de um desdobramento da SCL Elections, pouco depois. O nome, pelo menos metaforicamente, era algum reconhecimento ao trabalho de Kogan – e um aceno a Kosinski.
Mas esse primeiro conjunto de dados foi só o começa – apenas a semente de que Analytica precisava para construir seu próprio modelo de máquina para analisar a personalidade de seus usuários sem precisar submetê-los ao demorado teste OCEAN.
Depois de uma prova bem-sucedida do conceito, e apoiada por investidores conservadores ricos, a empresa Analytica continuou num frenesi de compra de dados, recolhendo dados sobre seus hábitos de compra, propriedades rurais, onde você vai à missa, que lojas visita, que revistas assina – dados os quais estão perfeitamente à venda por vários corretores e outras organizações que vendem informação sobre você. A Analytica agregou esses dados com perfis de eleitores, publicamente disponíveis online – inclusive os “likes” de Facebook – e com eles alimentou seu modelo de prever personalidades.
Nix gosta de jactar-se de que o modelo de personalidade de Analytica permitiu-lhe criar um perfil de personalidade para cada adulto nos EUA – 220 milhões, cada um com até 5.000 dados. E esses perfis estão sendo continuamente atualizados e melhorados, quanto mais aumenta o número de dados que você mesmo lança online.
Albright também acredita que seus postados de Facebook e Twitter estão sendo coletados e integrados aos perfis de personalidade que Cambridge Analytica constrói. “Twitter e também Facebook são usados para coletar muitos dados, porque as pessoas cedem, respondem, retuítam, mas basicamente também toda a discussão e contexto” – explica Albright.
Parte 2: Roteiros de engajamento automático que se alimentam das emoções de cada um
Coletar quantidades massivas de dados sobre a personalidade de eleitores pode parecer incômodo, mas não é, de fato, o que torna excepcional o trabalho de Cambridge Analytica. Para a Analytica e outras empresas como ela, o que realmente importa é o que elas fazem com aqueles dados.
Imagemm: Cambridge Analytica
“Seu comportamento é comandado por sua personalidade e na verdade quanto mais você pode compreender sobre a personalidade das pessoas, como força psicológica, mais você pode realmente começar a se aproximar da área do por que e como as pessoas tomam decisões,” Nix explicou a Sasha Issenburg, de Bloomberg. “Chamamos a isso de definição comportamental microdirigida, e aí está nosso molho secreto, se se pode dizer assim. Isso é o que estamos trazendo aos EUA.”
Imagemm: Cambridge Analytica
Usando esses dossiês, ou perfis psicográficos, como Analytica os chama, a empresa Cambridge Analytica não só identifica quais os eleitores que mais provavelmente trocarão de candidato ou de lado; podem também usar essa informação para prever e, na sequência, para modificar o comportamento futuro daquelas pessoas.
Como Vice noticiou recentemente, Kosinski e um colega trabalham agora num novo conjunto de pesquisas, ainda não publicadas, que avaliam a efetividade desses métodos. Os primeiros achados mostram que postados em Facebook que usam a definição comportamental microdirigida podem atrair até 63% mais clicks e 1.400 comentários a mais.
Scout procurou a empresa Cambridge Analytica com uma lista detalhada de perguntas sobre suas táticas comunicacionais, mas a companhia não quis responder perguntas nem comentar sobre as próprias táticas.
Mas pesquisadores em todo o ecossistema de tecnologia e mídia que acompanham as atividades das mensagens políticas de Cambridge Analytica já descobriram uma rede online adaptativa cara que automatiza a manipulação dos eleitores numa escala jamais vista antes na comunicação política.
“Eles [a campanha de Trump] usaram 40-50 mil diferentes variantes de anúncios todos os dias e mediam continuamente as respostas e depois adaptavam e modificavam os anúncios e as mensagem conforme as respostas,” disse Martin Moore, diretor do Centro para Estudo de Mídia, Comunicação e Poder do Kings College, ao jornal The Guardian no início de dezembro. “Tudo é feito de modo completamente opaco, e podem gastar quanto dinheiro precisem em locações especiais, porque você pode focar um raio de 8 km.”
Onde pesquisadores tradicionais podem perguntar diretamente em quem algum votará, a Analytica opera não com o que as pessoas dizem mas com o que as pessoas fazem, rastreando seus movimentos e interesses online e oferecendo anúncios multivariados concebidos para modificar o comportamento da pessoa, operando a partir do que a empresa já sabe de seus dados individuais de personalidade.
“Por exemplo,” Nix escreveu em artigo do ano passado sobre o trabalho de Analytica na campanha de Cruz, “nossos modelos permitiram identificar que havia um pequeno bolsão de eleitores em Iowa que sentia fortemente que os cidadãos deveriam ter de exibir documento de identificação com foto nas cabines eleitorais.”
“Alavancando nossos outros modelos, conseguimos aconselhar a campanha sobre como abordar essa questão com indivíduos específicos, considerado cada específico perfil, para usar essa questão relativamente pequena como ponto de pressão para motivar as pessoas a irem votar e votar em Cruz. Para pessoas enquadradas no grupo de personalidade “temperamental”, que tende a não gostar de compromissos, a mensagem da campanha adotaria a linha de “exibir um documento de identidade é ‘fácil como comprar uma caixa de cerveja’. Para as personalidades do grupo “estoicos tradicionalistas”, que tem ideias convencionais profundamente arraigadas, a linha foi de “exibir um documento de identidade para votar é simplesmente parte do privilégio de viver em democracia.”
Para a empresa Analytica, o feedback é instantâneo e a resposta automatizada: O que fez esse específico eleitor oscilante na Pennsylvania? Clicou no anúncio que ataca a negligência de Clinton no caso do servidor de e-mails dela? Sim? Ofereça mais conteúdo que enfatize fracassos no campo da responsabilidade pessoal. Não? O script automatizado tentará manchete diferente, talvez algo que jogue com outro traço de personalidade – talvez, digamos, a tendência do eleitor a simpatizar com figuras de autoridade. Talvez: “Agentes Top da Inteligência Concordam: E-mails de Clinton põem em perigo a Segurança Nacional.”
Grande parte disso tudo é feito com o uso de dark posts de Facebook, que só são visíveis aos usuários aos quais se dirige o postado.
Baseada na resposta dos usuários àqueles postados, a empresa Cambridge Analytica identificou quais as mensagens de Trump ressoavam mais profundamente e onde. Essa informação também foi usada para modelar o roteiro de viagem da campanha de Trump. 73% dos eleitores-alvos em Kent County, Mich. clicaram, digamos, num dos três anúncios sobre trazer os empregos de volta? Agende um comício de Trump em Grand Rapids, focado na recuperação econômica.
Analistas políticos na campanha de Clinton, que estavam baseando suas táticas em métodos tradicionais de pesquisa, riram quando Trump agendou eventos de campanha no chamado ‘muro azul’ – um grupo de estados, entre os quais Michigan, Pennsylvania e Wisconsin, que jamais haviam abandonado os Democratas. Mas a empresa Cambridge Analytica viu que ali havia uma abertura a partir de ‘engajamento aferido’ com seus postados de Facebook. Aquela pequena vantagem de votos em Michigan, Pennsylvania e Wisconsin garantiram a eleição de Trump.
Imagem: Ali Zifan/Wikimedia Commons
Também foram usados dark posts para deprimir o comparecimento às urnas, em grupos chaves de eleitores Democratas. “Nessa eleição, usaram-se dark posts para tentar reduzir o número de afro-norte-americanos votantes” – escreveu o jornalista e membro da Open Society McKenzie Funk num editorial no New York Times. “Segundo Bloomberg, a campanha de Trump distribuiu spots de propaganda recordando a votantes negros selecionados a linha infame da Hillary Clinton ‘super predadora’. Atacou o bairro de Little Haiti em Miami com mensagens sobre problemas com a Fundação Clinton no Haiti depois do terremoto de 2010.”
Uma vez que os dark posts só são visíveis para os usuários-alvos, não há possibilidade de alguém externo à Analytica ou da campanha de Trump rastrear o conteúdo desses spots de campanha. Nesse caso, não houve supervisão pela SEC, nem escrutínio público de anúncios de propaganda de ataque de Trump. Só há o movimento ocular rápido de milhões de usuários individuais escaneando seus feeds de Facebook.
Nas semanas anteriores que levaram à votação, uma campanha poderia lançar campanha de $10-100 milhões em dark post orientados para apenas uns poucos milhões de eleitores nos distritos oscilantes, e ninguém nem saberia. Podem estar nascendo aí problemas futuros de eleição ‘cisne-negro‘.
“Essas empresas”, diz Moore, “encontraram um meio para transgredir 150 anos de legislação que desenvolvemos, para tornar justas e abertas as eleições.”
Parte 3: Uma rede de propaganda para acelerar ideias, em minutos
Ao mesmo tempo, surpreendido pelos resultados da corrida presidencial de 2016, Albright começou a examinar o ‘problema das notícias falsas’ (ing. ‘fake news problem’). Como parte de sua pesquisa, Albright examinou 306 sites de notícias falsas para determinar exatamente os pontos de conexão entre todos e o ecossistema dominante. O que encontrou foi sem precedentes: uma rede de 23 mil páginas e 1,3 milhão de hyperlinks.
Imagem: Jonathan Albright
“Os sites na rede de notícias falsas e na super enviesada rede de Comunicação de Massas” – escreve Albright –,”há um nodo muito pequeno — significa que está pesadamente conectado à mídia-empresa dominante, às redes sociais e recursos informacionais (a maior parte dos quais estão ‘no centro’ da rede), mas são poucos os sites no grupo deles que envia links de volta.”
Esses sites não são propriedade nem são operados por entidades individual, diz ele, mas juntos conseguiram a Otimização do Motor de Busca, aumentando a visibilidade de notícias falsas e enviesadas a qualquer momento que alguém dê uma busca online em Google de algum termo relacionado à eleição – Trump, Clinton, judeus, muçulmanos, aborto, Obamacare.
“Essa rede” – Albright escreveu num post em que explorava seus achados, “é acionada on-demand para disseminar informação falsa, hiper enviesada e politicamente carregada.”
Ainda mais chocante para ele contudo foi que essa rede de notícias falsas cria uma poderosa infraestrutura para que empresas como Cambridge Analytica rastreiem eleitores e refinem os modelos de personalidades-alvos a serem atacados.
“Examinei os rastreadores nesses sites e fiquei absolutamente estupefato. Cada vez que alguém clica um “like” num desses postados em Facebook ou visita uma daquelas páginas, os scripts passam a seguir aquela pessoa por toda a rede. E isso permite caçar dados; e empresas influentes como Cambridge Analytica passam a poder seguir esses alvos por toda a rede, e enviar-lhes mensagens políticas altamente personalizadas.”
A rede de notícias falsas e enviesadas que Albright descobriu criou uma onda de propaganda que a Cambridge Analytica pôde surfar e, na sequência, amplificar. Quanto maior o número de notícias falsas com as quais um usuário engaja-se, mais viciantes podem ser os algoritmos de engajamento de personalidade da Analytica.
O votante n. 35.423 clicou numa notícia falsa sobre a rede de traficantes de sexo de Hillary? Vamos levar aquele votante a engajar-se com mais histórias sobre uma suposta história de assassinato e tráfico sexual que envolveria Hillary.
A sinergia entre redes de conteúdo falso, testagem automática da mensagem e métodos para construir perfis de personalidade rapidamente se espalhará para outros meios digitais. A pesquisa mais recente de Albright está focada numa inteligência artificial que cria automaticamente vídeos YouTube sobre eventos e notícias correntes. A Inteligência Artificial, que reage a tópicos-tendência em Facebook e Twitter, aproxima lado a lado imagens e subtítulos com uma voz gerada por computador. Em apenas uns poucos dias, foram gerados quase 80 mil vídeos por 19 diferentes canais.
Dado seu rápido desenvolvimento, a comunidade da tecnologia precisa antecipar o modo como a propaganda com Inteligência Artificial será em pouco tempo usada para mensagens de manipulação emocional nos celulares, como realidade virtual e realidade aumentada.
Parte 4: Um Robô Gestapo para Policiar o Debate Público
Se as notícias falsas criaram o andaime em que se apoiam a nova máquina de propaganda política automatizada, os robôs, ou os perfis falsos na mídia social tornaram-se a infantaria – um exército de robôs políticos usados para controlar conversas pelas mídias sociais e silenciar e intimidar jornalistas e outros que possam minar a distribuição das mensagens.
Samuel Woolley, Diretor de Pesquisa do Projeto de Propaganda Computacional da University de Oxford e participante do projeto Jigsaw de Google, dedicou toda sua carreira para estudar o papel dos robôs na organização da política online – quem os cria, como são usados e para que finalidade.
Pesquisa feita por Woolley e sua equipe em Oxford no início da eleição de 2016 descobriu que as mensagens políticas coordenadas pró-Trump investiam pesadamente em robôs para disseminar notícias falsas e desacreditar Hillary Clinton. No dia da eleição, o número de robôs de Trump era cinco vezes maior que o número dos robôs de Hillary.
“O uso de contas automatizadas foi deliberado e estratégico durante toda a eleição, mais claramente com propagandistas e programadores pró-Trump que ajustaram cuidadosamente o timing da produção de conteúdo durante os debates, colonizaram estrategicamente hashtags pró-Clinton, e depois do dia das eleições desabilitaram as próprias atividades” – como se lê no relatório da equipe de Woolley.
Não há como saber com certeza se a empresa Cambridge Analytica foi responsável por subcontratar a criação desses robôs pró-Trump. “Nas democracias ocidentais”, diz Woolley, “várias vezes aconteceu de robôs serem comprados ou construídos por subcontratados das principais equipes digitais das campanhas, porque há menor pressão de vigilância, nesses trabalhadores satélites, pelas comissões eleitorais.”
Mas se alguém do lado de fora da campanha de Trump está qualificado para especular, será Woolley. Sob a liderança do Dr. Philip Howard, e Pesquisador Principal da equipe, Woolley e seus colegas vêm rastreando os robôs, na organização política desde 2010. Foi quando Howard, mergulhado fundamente na pesquisa sobre o papel do Twitter na Primavera Árabe, viu pela primeira vez que milhares de robôs estavam cooptando hashtags usadas pelos que protestavam na rua.
Curioso, ele e a equipe começaram a procurar hackers, criadores de robôs e as campanhas políticas, para conhecer esse universo e tentar compreender o trabalho que faziam e suas motivações. Eventualmente, esses criadores criariam uma rede informal de cerca de 100 informantes que manteve Howard e seus colegas a par do que fazem os robôs, ao longo dos últimos poucos anos.
Não tardou, e Howard e sua equipe abriam os olhos para as campanhas eleitorais com robôs, também entre os próprios criadores. Quanto mais apareciam figuras políticas internacionais que começavam a usar as redes de robôs simplesmente como mais uma ferramenta de campanha, mais Howard, Woolley e toda a equipe encontraram material para estudar a ação que se desenrolava.
O mundo que esses informantes revelaram é uma rede internacional de governos, empresas de consultoria (quase sempre com proprietários ou alto comando executivo separados dos atores governamentais por apenas um pequeno passo), e indivíduos que construíram e mantêm redes massivas de robôs para amplificar as mensagens dos atores políticos, disseminar mensagens contra seus respectivos oponentes e silenciar todos cujas ideias ou visões políticas possam ameaçar os atores políticos ‘contratantes’.
“Os governos chinês, iraniano e russo empregam seus próprios especialistas em mídias sociais e pagam salários pequenos a grandes números de pessoas para gerar mensagens pró-governo,” Howard e coautores escreveram em documento de pesquisa em 2015 sobre o uso de robôs na eleição Venezuela.
Dependendo da categoria, dentre essas três, em que cada criador de robôs esteja – governo, consultoria ou individual – estarão provavelmente motivados por crenças políticas, tanto quanto pelo interesse de leiloar as próprias redes de influência digital entregando-as a quem pague mais.
Nem todos os robôs são criados iguais. A média, calculada com os robôs é também literalmente um robô – frequentemente programado para retuitar contas específicas para ajudar a popularizar ideias e visões específicas. Também acontece de responderem automaticamente a usuários do Twitter que usam determinadas palavras ou hashtags – frequentemente com insultos, calúnias ou ameaças pré-redigidos.
Robôs High-end bots, por sua vez, são mais analógicos, operados por pessoas reais. Assumem identidades falsas com diferentes personalidades e suas respostas a outros usuários online são específicas, orientados para mudar as opiniões de seguidores, atacando seus pontos de vista. Esses têm amigos e seguidores online. Nesse caso, é ainda menos provável que Facebook ou Twitter descubram essas contas e as desativem.
Trabalhando por conta própria, Woolley estima, um indivíduo pode construir e manter até 400 desses robôs Twitter de butique; em Facebook, que Woolley considera mais efetivo para identificar e fechar contas falsas, um indivíduo pode administrar 10-20.
Resultado disso, esses robôs de alta qualidade são frequentemente usados para múltiplas campanhas políticas. Durante o referendum do Brexit, a equipe de Oxford observou o processo pelo qual uma rede de robôs, que antes havia sido usada para influenciar a conversação em torno do conflito Israel/Palestina, foi reativada para operar na campanha a favor de a Grã-Bretanha sair da União Europeia. Adaptaram-se perfis individuais de modo a que refletissem o novo debate, as taglines foram modificadas para harmonizá-las com as novas linhas políticas – e lá se foram eles.
O exército de robôs da Rússia já foi tema de estudo especial, desde que um relatório especial da CIA revelou que a Rússia trabalhou para influenciar a eleição a favor de Trump. Recentemente a jornalista/comediante Samantha Bee viajou a Moscou para entrevistar dois trolls russos pagos.
Com os rostos cobertos com máscaras de esqui para não serem identificados, os dois conversaram com Bee sobre como e porque usaram suas contas durante as eleições nos EUA. Disseram a Bee que aparecem como norte-americanos online e atacam sites como The Wall Street Journal, The New York Post, The Washington Post, Facebook e Twitter. O objetivo, disseram eles, é “irritar” outros usuários das mídias sociais, mudar suas opiniões e silenciar a oposição.
Ou, nas palavras do Troll Russo #1, “até que seu adversário… cala a boca.”
O Futuro da Máquina de Propaganda com Inteligência Artificial Armada
As eleições de 2016 nos EUA já passaram, mas a Máquina de Propaganda com Inteligência Artificial Armada está só aquecendo. E por mais que cada um de seus componentes já seja suficientemente preocupante separadamente, juntos eles todos representam a chegada de uma nova era na comunicação política – uma muralha de aço entre vencedores e perdedores, que se montará cada vez com maior quantidade de dados, para que se façam análises mais acuradas de personalidade, rápido desenvolvimento a Inteligência Artificial e contratando mais trolls.
No momento, Trump e a empresa Cambridge Analytica estão destruindo os oponentes. Quanto mais dados reúnam por indivíduo, mais a Analytica e, por extensão, o governo Trump se beneficiarão dos efeitos de rede do trabalho deles – e mais difícil será enfrentar a operação deles na corte da opinião pública.
Cada Tweet que ecoa a partir das contas @realDonaldTrump e @POTUS anunciando e defendendo os movimentos do governo, enfrenta-se imediatamente com um coro de protesto e discussão. Mas mesmo esse engajamento conflitante negativo torna-se ativo valioso para o governo Trump, porque cada tuíto impulsivo pode ser examinado como um experimento psicográfico.
As primeiras poucas semanas de Trump no governo podem ter parecido tumultuadas e inseguras, mas representam claro sinal do que virá pela frente nesse governo – ordem executiva concebida para enfurecer e distrair o adversário, enquanto o governo cuida de tirar poderes do Judiciário, instalar Steve Bannon, que é diretor da Cambridge Analytica, no Conselho de Segurança Nacional, e lança várias ordens inconstitucionais a serem executadas por agências federais.
É provável que a empresa Cambridge Analytica consiga gordos contratos com as agências federais e está nos estágios finais das negociações para começar a administrar a comunicação digital da Casa Branca em todo o governo Trump. Que novo direcionamento preditivo por personalidade passará a ser possível com acesso amplo aos dados dos eleitores norte-americanos armazenados no IRS, no Departamento de Segurança Nacional ou na Agência de Segurança Nacional?
“Lênin quis destruir o Estado, e esse é também o meu objetivo. Quero derrubar tudo e destruir todo o establishment” – disse Bannon em 2013. Sabemos que Steve Bannon subscreve uma teoria da história, onde um ‘Guerreiro Cinzento’ messiânico consolida o poder e refaz a ordem global. Impulsionado pelo sucesso do Brexit e a vitória de Trump, Breitbart (site do qual Bannon foi Presidente Executivo até a eleição de Trump) e Cambridge Analytica (de cuja diretoria Bannon participa) agora produzem notícias falsas e propaganda automatizada para apoiar partidos de extrema direita, pelo menos na Alemanha, França, Hungria e Índia e também em partes da América do Sul.
Nunca antes esse tipo de movimento político internacional radical teve essa precisão e esse poder de tecnologia de propaganda. Tudo agora depende de se líderes, engenheiros, programadores, designers e investidores na comunidade de tecnologia responderão a essa ameaça. De como responderem dependem grandes aspectos da política global para todo o futuro hoje previsível.
O futuro da política não será guerra de candidatos nem, que fosse, de dinheiro na mão. Não se trata sequer de big data, como alguns disseram. Todos terão acesso aos grandes dados – como Hillary teve na eleição de 2016.
Doravante, o fator que distinguirá os que vencem eleições e os que as perdem, será o modo como um candidato use dados para refinar seus algoritmos de aprendizado automatizado e táticas de engajamento automático. Eleições em 2018 e 2020 não será concurso de ideias, mas batalha de mudança automatizada de comportamento.
A luta pelo futuro será uma guerra à distância, entre máquinas que aprendem. Será guerra travada online, em segredo, e com a ajuda não voluntária de todos vocês.
Qualquer um que queira fazer mudanças precisa compreender essa nova realidade. Só e quando isso ficar bem compreendido – e construindo melhores sistemas automatizados que amplificam a genuína paixão humana, sem manipulá-la –, outros candidatos e causas em todo o mundo poderão concorrer.
Na Scout, temos falado com estrategistas políticos, tecnólogos e especialistas em máquinas que aprendem, sobre como a propaganda de Inteligência Artificial se disseminará para toda a sociedade no futuro. Queremos trabalhar com você – a comunidade Scout – para planejar cenários a prever e planejar movimentos futuros. Eis algumas implicações, para que a conversa comece.
IMPLICAÇÃO #1:
Sentimento público converte-se em comércio de alta frequência
Graças a algoritmos de compra e venda de estoques, grandes porções dos mercados de mercadorias já nada têm a ver com qualquer sistema humano e, dirão alguns, já não servem ao objetivo anterior, como sinal de valor. Em vez disso, é um terreno de combate para compra e venda de algoritmos de alta qualidade para influenciar o preço ou conseguir nano-alavancagem na posição de preço.
Em futuro próximo, podemos ver processo semelhante que se desenrola em nossos debates públicos. Em vez e batalhas em conferências de imprensa e artigos de opinião, opinião pública sobre empresas e políticos podem converter-se em batalhas entre algoritmos concorrentes, cada um aplicado para alterar o sentimento popular. Já existem algoritmos para venda de ações, que analisam em tempo real milhões de Tuítos e postados online e fecham negócios em questão de milissegundos, baseados em mudanças no sentimento popular. Negócios movidos a algoritmos e ‘opinião pública algorítmica’ já estão conectados. O mais provável é que continuem a convergir.
IMPLICAÇÃO #2:
Progaganda automatizada personalizada que se adapta às suas fraquezas
E se a campanha de reeleição do presidente Trump para 2020 já não tiver as ‘melhores’ mensagens políticas, mas 250 milhões de versões algorítmicas de suas mensagens políticas, todas atualizadas em tempo real, personalizadas para caber precisamente na visão de mundo e atacar as inseguranças de seus eleitores-alvos? Em vez de ter de lidar com políticos enganadores, é possível que sejamos em breve testemunhas de uma explosão cambriana de robôs políticos e empresariais mentirosos patológicos que se aprimoram todos os dias no serviço de nos manipular.
IMPLICAÇÃO #3:
Não é simples bolha. Estamos presos na nossa própria matriz ideológica
Imagine que em 2020 você descubra que sua página política preferida ou seu grupo no Facebook não inclui na verdade nenhum membro humano, mas só dúzias ou centenas de robôs que sabem fazer você sentir-se à vontade e com suas opiniões validadas e valorizadas? É possível que você nunca descubra coisa alguma?
_________________________
[1] Dark-post (de Facebook), lit. “postado fechado”, é publicação patrocinada e segmentada que não aparece na timeline da página em questão. Eles são parecidos com os postados patrocinados, com a diferença de não serem visto na fanpage. Esse tipo de postado só aparecerá no feed de notícias dos fãs escolhidos por meio da segmentação que o próprio emissor fará (8/4/2016) você fará [NTs].
[2] Do Urban Dictionary [aqui traduzido]:
“Alt-Right”
Termo curioso definido pela máquina de fazer barulho do Partido Democrata como:
– Qualquer sujeito(a) não Democrata que a mídia consiga fazer caber no conceito de “suprematista branco”, “racista” ou “extremista de direita.” Atualmente os favoritos incluem os nazistas, a Ku Klux Klan, essa gente.
FATO: O termo “nazista” significa realmente “Nacional Socialismo”, e só se diferencia de “Internacional Socialismo” (Comunismo) porque os nazistas insistem na identidade nacional misturada com racismo. Mais um rebento da venenosa árvore do socialismo. Absolutamente não é correto.
FATO: A Ku Klux Klan foi, na origem, o braço armado do Partido Democrata no Sul dos EUA depois da Guerra Civil. A Klan e os Democratas separam-se para sempre, quando os Democratas pararam de puxar o saco dos pobres brancos, para puxar o saco das minorias pobres.
– É “Alt-Right” (como em “Direita Alternativa”) qualquer não Democrata que pratique violência espetacular como meio para promover sua agenda política.
FATO: Os chamados “Alt-Rights” mantiveram-se muito silenciosos durante a última eleição. Os verdadeiros nazistas e o pessoal da KKK ficaram em casa, além de terem dado uns poucos votos aos Republicanos sem nada pedir em troca, e teriam feito alguns supostos pronunciamentos, provavelmente falsos, encenados pelos Democratas.
FATO: O Grupo dos “Afro-Nazi” Storm Troopers e Camisas Marrons do movimento “Black Lives Matter” e outras organizações de Esquerda que apoiam os Democratas lá estavam na briga de rua, tumulto, saque e vandalizando para que todos vissem. A Mídia-Empresa Liberal Dominante fez impressionante silêncio no que tenha a ver com isso.
Vê-se instantaneamente a hipocrisia.
[3] No original “has declined to work on any democratic campaigns”. Isso é fake news, travestida de notícia ‘isenta’. Trump foi candidato plenamente democrático eleito por vias plenamente democráticas. Disso, não cabe duvidar. No caso do Brasil, será preciso provar que Temer é ladrão, para derrubá-lo. Porque tampouco cabe qualquer dúvida de que foi eleito democraticamente [NTs].
[4] Big Data [lit. “Grandes dados”] é expressão usada para designar volume massivo de dados tanto estruturados como não estruturados, tão grande que é difícil processá-lo pelas técnicas tradicionais de database e software. Em muitos cenários empresariais, o volume de dados é grande demais, ou modifica-se tão rapidamente ou excede a capacidade disponível para processamento [NTs].