Menu

A Inteligência Artificial já está em guerra – por Michéle Flournoy

Como a Inteligência Artificial Transformará o Militarismo Em 2002, uma equipe de operações especiais praticou invadindo um esconderijo. A equipe se aproximou silenciosamente de um prédio de dois andares, construído para treinamento militar, onde um líder terrorista fictício estava se escondendo. Um soldado rastejou até uma janela aberta e arremessou em um pequeno drone pilotado […]

sem comentários
Apoie o Cafezinho
Siga-nos no Siga-nos no Google News

Como a Inteligência Artificial Transformará o Militarismo

Em 2002, uma equipe de operações especiais praticou invadindo um esconderijo. A equipe se aproximou silenciosamente de um prédio de dois andares, construído para treinamento militar, onde um líder terrorista fictício estava se escondendo. Um soldado rastejou até uma janela aberta e arremessou em um pequeno drone pilotado por inteligência artificial. O drone de IA começou a voar de forma autônoma através do prédio, quarto por sala, enviando imagens de sua câmera diretamente para o tablet portátil do comandante do lado de fora. Em poucos minutos, a equipe teve plena consciência situacional do interior do edifício. Ele sabia quais quartos estavam vazios, que eram ocupados por membros da família adormecida, e onde o alvo principal era. A equipe entrou no prédio sabendo exatamente para onde ir, reduzindo o risco para cada membro. O exercício foi um sucesso: se fosse real, a equipe teria matado o líder terrorista.

O “quadcopter de IA-pilotado”, projetado pela Shield AI (onde eu era consultor), já foi usado em operações do mundo real. É apenas uma das muitas maneiras pelas quais a IA está começando a remodelar a segurança nacional dos EUA. Os militares dos EUA estão usando a IA para otimizar tudo, desde a manutenção de equipamentos até decisões orçamentárias. Os analistas de inteligência estão confiando na IA para digitalizar rapidamente montanhas de informações para identificar padrões relevantes que lhes permitam fazer melhores julgamentos e torná-los mais rápidos. No futuro, os americanos podem esperar que a IA mude a forma como os Estados Unidos e seus adversários também lutam no campo de batalha. Em suma, a IA provocou uma revolução de segurança – uma que está apenas começando a se desdobrar.

Como a IA invadiu a consciência pública, alguns pesquisadores, preocupados com os perigos da IA, pediram uma pausa no desenvolvimento. Mas parar o progresso da IA americana é impossível: os fundamentos matemáticos da IA são onipresentes, as habilidades humanas para criar modelos de IA proliferaram amplamente, e os impulsionadores da pesquisa e desenvolvimento da IA – tanto a criatividade humana quanto o ganho comercial – são muito poderosos. Tentar parar o progresso também seria um erro. está trabalhando duro para superar os Estados Unidos em IA, particularmente quando se trata de aplicações militares. Se for bem-sucedido, Pequim possuiria um exército muito mais poderoso, potencialmente capaz de aumentar o ritmo e o efeito de suas operações além do que os Estados Unidos podem igualar. A capacidade da China de usar a guerra cibernética e eletrônica contra as redes dos EUA e a infraestrutura crítica também seria perigosamente aprimorada. Simplificando, o Pentágono precisa acelerar – não lento – sua adoção de IA responsável. Se isso não acontecer, Washington pode perder a superioridade militar que subscreve os interesses dos Estados Unidos, a segurança de seus aliados e parceiros e a ordem internacional baseada em regras.

A aceleração, no entanto, é mais fácil dizer do que fazer. Os Estados Unidos podem liderar o mundo quando se trata de pesquisa e desenvolvimento de inteligência artificial, mas o governo dos EUA ainda luta para adotar tecnologias inovadoras como a IA com velocidade e em escala. Ele não emprega profissionais suficientes com o conhecimento técnico necessário para testar, avaliar, adquirir e gerenciar produtos de IA. Ele ainda está construindo a infraestrutura de dados e computador necessária para suportar grandes modelos de IA. Falta o financiamento flexível necessário para pegar rapidamente os protótipos de IA mais promissores e escalá-los entre as agências. E ainda não conseguiu construir os processos e plataformas de testes e avaliação necessários para garantir que qualquer IA integrada aos sistemas militares seja segura e confiável. Quando a IA desempenha um papel no uso da força, a barra de segurança e confiabilidade deve permanecer muito alta.

Os políticos e as autoridades de defesa estão cientes dessas questões. Os líderes do Congresso estão prestando muita atenção à IA, e eles estão discutindo como eles podem regular a indústria e ainda mantê-la globalmente competitiva. O Escritório do Secretário de Defesa emitiu uma estrutura política para a IA para acelerar sua adoção responsável e segura pelo Departamento de Defesa. O esforço essencial para promover simultaneamente a IA e colocar as grades de proteção em torno de seu uso – os que aparentemente estão em tensão – está em andamento.

Mas o Congresso ainda tem que agir, e a implementação da estrutura de IA do Pentágono ainda é um trabalho em andamento. Embora a criação de um Escritório Chefe de Inteligência Digital e Artificial no Departamento de Defesa tenha sido um marco importante, o Congresso ainda não forneceu a este escritório os recursos necessários para impulsionar a adoção responsável da IA em todo o estabelecimento de defesa. Para garantir que os aplicativos de defesa de IA sejam seguros e bem-sucedidos, o Pentágono precisará reforçar ainda mais os guardrails de IA, adicionar nova equipe técnica e desenvolver novas formas de testar e fazer a aquisição de IA. O tempo é essencial, e as apostas são muito altas para os Estados Unidos ficarem para trás.

AQUI E AGORA

Mesmo que as políticas e regulamentos ainda estejam sendo escritos, a IA já está transformando a segurança dos EUA. Os Estados Unidos A Força Aérea, por exemplo, está começando a usar a IA para ajudar a alocar recursos e prever como uma única decisão pode remodelar seu programa e orçamento. Se os líderes da força aérea, por exemplo, adicionarem outro esquadrão de F-35, sua plataforma de alocação de recursos habilitados para IA pode destacar imediatamente não apenas os custos diretos da decisão, mas também seus efeitos sobre o pessoal, bases, disponibilidade de aeronaves e outros domínios importantes.

Da mesma forma, os militares estão começando a usar modelos de IA na manutenção de sistemas de armas complexos, de navios a caças. Os programas I agora podem coletar dados dos sensores de uma plataforma e prever quando e que tipo de manutenção maximizará sua prontidão e longevidade, minimizando os custos.

Esses insights de manutenção são tremendamente úteis e são apenas o começo do que a IA preditiva pode fazer. A comunidade de inteligência dos EUA e vários comandos combatentes dos EUA – os comandos militares conjuntos com responsabilidade operacional por uma determinada região ou função – estão usando IA para vasculhem resmas de dados classificados e não classificados para identificar padrões de comportamento e prever futuros eventos internacionais. Na comunidade de inteligência, a IA ajudou os analistas a prever a invasão da Ucrânia pela Rússia com meses de antecedência, permitindo que os Estados Unidos alertassem o mundo e negassem ao presidente russo, Vladimir Putin, o elemento surpresa. Em Estados Unidos. Comando Estratégico, AI desenvolvido pela Rhombus Power (onde eu sou um conselheiro) está sendo usado para ajudar a alertar as autoridades sobre o movimento de mísseis com armas nucleares que muitas vezes evadiram a detecção no passado.

A IA preditiva também poderia dar a Washington uma melhor compreensão do que seus potenciais adversários podem estar pensando, especialmente líderes em Pequim. Ao contrário do auge da Guerra Fria, quando havia legiões de especialistas na tomada de decisões soviéticas, os Estados Unidos ainda estão descobrindo como a liderança da China traduz a política em ações específicas. A comunidade de inteligência poderia, por exemplo, desenvolver um grande modelo de linguagem que ingerisse todos os escritos e discursos disponíveis de líderes chineses, bem como relatórios de inteligência dos EUA sobre esses números, e depois imitaria como o presidente chinês Xi Jinping poderia decidir executar a política declarada. Analistas poderiam fazer perguntas específicas ao modelo – “Sob as circunstâncias, o presidente Xi estaria disposto a usar a força contra Taiwan?” – e antecipar possíveis respostas com base em uma riqueza de dados de mais fontes do que qualquer ser humano poderia sintetizar rapidamente. Eles poderiam até pedir ao modelo para mapear como uma crise pode se desenrolar e como diferentes decisões moldariam o resultado. Os insights resultantes podem ser úteis para informar analistas e formuladores de políticas, desde que os conjuntos de treinamento sejam transparentes (o que significa que eles citam as fontes de dados subjacentes aos julgamentos principais) e confiáveis (não propensos a “alucinações” – inferências inexplicáveis feitas pela IA).

A IA desencadeou uma revolução de segurança que está apenas começando a se desdobrar.

Os oficiais de inteligência já estão usando a IA diariamente para vasculhe milhares de fotos e vídeos. No passado, os analistas tinham que assistir a milhares de horas de vídeo em movimento completo para encontrar e marcar objetos de interesse, seja uma concentração de tanques ou mísseis móveis dispersos. Mas com a IA, os desenvolvedores podem treinar um modelo para examinar todo esse material e identificar apenas os objetos que o analista está procurando, geralmente em questão de segundos ou minutos. O analista também pode definir o modelo de IA para enviar um alerta sempre que um novo objeto de interesse é encontrado em uma determinada área geográfica. Essas ferramentas de “visão computacional” permitem que os analistas passem mais tempo fazendo o que só os humanos podem fazer: aplicando seus conhecimentos e julgamentos para avaliar o significado e as implicações do que a IA descobre. Como esses modelos se tornam mais precisos e confiáveis, eles têm o potencial de ajudar os comandantes dos EUA no terreno a tomar decisões operacionais críticas muito mais rápido do que um adversário pode responder, dando às forças dos EUA uma tremenda – talvez até decisiva – vantagem.

A AI poderia apoiar as operações militares de outras maneiras também. Por exemplo, se um adversário fosse bloquear ou atacar as redes de comando, controle e comunicações dos EUA, a IA poderia permitir um agente inteligente de comutação e roteamento que redirecionasse o fluxo de informações entre sensores, tomadores de decisão e atiradores para garantir que eles permaneçam conectados e possam manter a consciência situacional. Ter essas capacidades será fundamental para garantir que Washington e seus aliados possam tomar decisões melhores mais rapidamente do que seus adversários, mesmo no meio do combate.

A AI poderia ajudar ainda mais as forças dos EUA e aliadas, amplificando o trabalho de militares individuais no campo. Algumas aplicações de IA atualmente em desenvolvimento permitem que um único operador humano controle vários sistemas não tripulados, como um enxame de drones no ar, na água ou no submarino. Por exemplo, um piloto de caça poderia usar um enxame de drones voadores para confundir ou sobrecarregar o radar e o sistema de defesa aérea de um adversário. Um comandante submarino poderia usar veículos submarinos não tripulados para realizar reconhecimento em uma área fortemente defendida ou para caçar minas submarinas que ameaçam navios dos EUA e aliados. O Pentágono anunciou recentemente seu programa de drones Replicadores, que promete colocar em campo milhares de sistemas autônomos pequenos, inteligentes, de baixo custo, dispensáveis nos próximos dois anos.

Em um conflito com a China sobre Taiwan, essa equipe homem-máquina pode ser crítica. Se Pequim decidir usar a força para reivindicar a ilha, a China terá a vantagem de lutar em seu próprio quintal. Enquanto isso, os Estados Unidos enviarão suas unidades longas distâncias e em muito menos números. Se os militares dos EUA puderem aumentar suas plataformas tripuladas, como caças, bombardeiros, navios e submarinos, com um grande número de sistemas não tripulados relativamente baratos, isso poderia compensar um pouco essa desvantagem comparativa e complicar muito as operações militares chinesas.

JOGAR CERTO

Pequim, é claro, não tem intenção de ceder o domínio tecnológico a Washington. Está trabalhando duro para desenvolver suas próprias aplicações militares avançadas de IA. A China está investindo pesadamente em muitos dos mesmos casos de uso de IA que os Estados Unidos – como vigilância, identificação de alvos e enxames de drones. A diferença é que ele pode não estar vinculado às mesmas restrições éticas que os Estados Unidos e seus aliados, particularmente quando se trata de usar sistemas de armas totalmente autônomos.

Na corrida pela supremacia tecnológica, a China tem algumas vantagens óbvias. Ao contrário de Washington, Pequim pode ditar as prioridades econômicas de seu país e alocar os recursos que julgar necessários para atingir as metas de IA. A política de segurança nacional da China encoraja hackers, funcionários e funcionários chineses a roubar propriedade intelectual ocidental, e Pequim é descarada na tentativa de recrutar os principais tecnólogos ocidentais para trabalhar com instituições chinesas. Como a China tem uma política de “fusão civil-militar”, que elimina as barreiras entre seus setores civil e militar, o Exército Popular de Libertação pode aproveitar o trabalho de especialistas e empresas chinesas sempre que quiser. E até 2025, a China produzirá quase o dobro de Ph.D. candidatos em ciência, tecnologia, engenharia e matemática do que os Estados Unidos, inundando a economia da China com talentosos cientistas da computação em particular.

Mas os Estados Unidos têm suas próprias forças únicas. A economia baseada no mercado do país e o sistema político mais aberto dão aos desenvolvedores espaço para serem criativos. Tem ecossistemas de inovação inigualáveis no Vale do Silício, na área metropolitana de Austin, no corredor da Rota 128 de Massachusetts e em outros lugares. Os Estados Unidos também têm um vibrante ecossistema de capital de risco e private equity que atrai investimentos nacionais e internacionais incomparáveis. É o lar de muitas das principais universidades do mundo, permitindo-lhe atrair e reter alguns dos melhores talentos tecnológicos do mundo. De fato, metade das startups do Vale do Silício tem pelo menos um fundador que é imigrante. Mesmo entre aqueles que lamentam o rápido progresso da inteligência artificial da China, poucos, se houver, trocariam a mão dos Estados Unidos pela China. Mas quase todos eles concordariam que os Estados Unidos precisam jogar melhor para vencer.

Para isso, o Departamento de Defesa e a comunidade de inteligência terão que investir mais na aceleração da adoção da IA. Eles podem começar construindo sistemas comuns de infraestrutura digital que compartilham os mesmos padrões para garantir a interoperabilidade. A infraestrutura incluiria tecnologias e serviços baseados em nuvem; padrões de dados comuns; conjuntos de dados validados; acesso compartilhado a pilhas de software seguras; ferramentas sofisticadas para testes, avaliação e validação de modelos de IA; e interfaces de programação de aplicativos seguras que controlam quem obtém acesso a quais informações em vários níveis de classificação. O objetivo seria fornecer aos desenvolvedores os dados, algoritmos, ferramentas e poder de computação – ou poder de computação de alta velocidade – que eles precisam criar, testar, validar e usar novas ferramentas de IA.

Um soldado dos EUA usando um sistema de exibição de dados, Camp Pendleton, Califórnia, março de 2018 Rhita Daniel / EUA Corpo de Fuzileiros Navais / Reuters

Essas ferramentas só serão tão boas quanto as pessoas que as operam, é claro, e agora, o Departamento de Defesa não tem uma força de trabalho digitalmente adepto. Poucas pessoas na equipe entendem o suficiente sobre a IA para governar adequadamente seu uso, testar e avaliar ferramentas de IA para garantir que atendam aos padrões de “IA responsável” do Pentágono, ou para avaliar quais modelos de IA melhor atendem às necessidades dos militares ou do Departamento de Defesa – uma das maiores empresas do mundo.

Para atrair mais talentos de IA e para fazer melhor uso da força de trabalho de tecnologia que já possui, o Departamento de Defesa precisará melhorar a forma como recruta e gerencia funcionários digitalmente qualificados. O Pentágono pode começar seguindo o conselho da Comissão de Segurança Nacional sobre IA e estabelecer um corpo digital (modelado no Corpo Médico do Exército) para organizar, treinar e equipar os tecnólogos. Além disso, todas as academias de serviço militar existentes devem começar a ensinar os conceitos básicos de IA, e o Pentágono também deve estabelecer uma academia de serviços digitais dos EUA que educaria e treinaria aspirantes a tecnólogos civis, oferecendo-lhes uma educação universitária gratuita em troca de um compromisso de servir no governo por pelo menos cinco anos após a graduação. Finalmente, o Departamento de Defesa deve criar um corpo de reserva digital no qual trabalhadores de tecnologia de todos os Estados Unidos possam se voluntariar, a tempo parcial, para servir seu país.

O Pentágono, no entanto, nunca será capaz de atrair tantos especialistas em IA quanto o setor privado. O estabelecimento de defesa deve, portanto, melhorar a forma como alavanca o talento externo. Para começar, o Departamento de Defesa deve aprofundar suas conversas com empresas de tecnologia e os departamentos de ciência da computação das principais universidades. Também deve reduzir algumas das barreiras desatualizadas para as empresas de tecnologia que fazem negócios com o governo. Para fazer isso, as autoridades de defesa devem repensar como compram produtos e serviços baseados em software, incluindo IA. Em vez de levar anos para desenvolver um conjunto fixo de requisitos altamente específicos – como o departamento faz ao adquirir hardware militar – deve identificar rapidamente os problemas específicos que está tentando resolver e os padrões comuns que quaisquer soluções propostas devem atender e, em seguida, permitir que as empresas ofereçam soluções em um processo de licitação competitivo. Também deve garantir que as pessoas que realmente usam as ferramentas de IA específicas sejam capazes de fornecer feedback à medida que os modelos estão sendo desenvolvidos e testados.

Na verdade, o Pentágono deve criar uma carreira dedicada para profissionais de aquisição que querem se especializar em IA e outras tecnologias comercialmente orientadas. A maior parte do corpo de aquisições atual do Departamento de Defesa foi treinada para comprar sistemas de armas complexos, como submarinos, mísseis e jatos, o que exige prestar atenção meticulosa sobre se os empreiteiros atendem a especificações rígidas, requisitos de custos e marcos programados. Como resultado, a maioria desses profissionais é (compreensivelmente) altamente avessa ao risco – eles não são treinados nem incentivados a comprar tecnologias comerciais em rápido desenvolvimento ou a interromper um programa de aquisição plurianual existente para integrar uma nova tecnologia mais eficaz. O Pentágono deve, portanto, criar uma nova corte de especialistas em aquisições que são especificamente treinados para comprar esses tipos de sistemas. Este quadro deve ser considerado o Boinas Verdes da força de aquisição, e seus membros devem ser recompensados e promovidos com base em sua capacidade de entregar rapidamente e dimensionar tecnologias comerciais necessárias, como a IA.

Pequim não tem intenção de ceder o domínio tecnológico a Washington.

Embora as reformas internas ajudem o Pentágono a acelerar o progresso, as autoridades de defesa também precisarão de apoio sustentado do Congresso para acompanhar seus homólogos chineses. Para esse fim, o Congresso deve dar ao Departamento de Defesa um financiamento mais flexível que lhe permita gerenciar de forma otimizada os programas de IA. A maioria das dotações do Pentágono são fixas: quando o Congresso financia um programa, o departamento não pode simplesmente redirecionar o dinheiro para outra coisa. Mas a IA está evoluindo tão rápido e, em tantas direções diferentes, que as autoridades de defesa precisam de mais autoridades de reprogramação e financiamento mais flexível para que possam rapidamente movimentar dinheiro de projetos de baixo desempenho e reinvesti-lo em projetos mais promissores, dando ao Congresso um aviso apropriado. Essa abordagem é fundamental para permitir que o Pentágono adote IA com mais agilidade e velocidade.

O Congresso deve simultaneamente fornecer ao Escritório Chefe de Inteligência Digital e Artificial financiamento para ajudar projetos-piloto promissores de IA a atravessar o chamado vale da morte – o período difícil entre quando um projeto demonstra sucesso e quando o departamento está pronto para torná-lo um programa de registro em grande escala. Os militares dos EUA simplesmente não podem se dar ao luxo de adiar a adoção de uma ferramenta crítica de IA que emerge em 2023 até o orçamento de 2025 ou mais tarde.

Os Estados Unidos também precisarão continuar atraindo os melhores talentos tecnológicos do mundo, inclusive reformando elementos do sistema de imigração dos EUA. Estudantes e trabalhadores de ciência e tecnologia podem querer vir e permanecer nos Estados Unidos, mas as regras de imigração bizantinas tornam impossível para muitos deles fazê-lo. Os vistos educacionais, por exemplo, não permitem que estudantes estrangeiros permaneçam nos Estados Unidos por mais de três anos após a formatura. A dinâmica resultante é perversa: as instituições dos EUA treinam muitos dos melhores especialistas em tecnologia do mundo, apenas para mandá-los embora. Muitos deles são chineses e retornam à China.

Além disso, o Congresso impôs limites aos vistos H-1B – o visto que os Estados Unidos mais comumente oferecem a trabalhadores qualificados – significa que o país pode trazer apenas uma pequena porcentagem de pessoas que se candidatam. Por exemplo, dos 758.994 registros eletrônicos elegíveis recebidos durante a loteria H-1B de 2023, apenas 110.791 pessoas foram selecionadas (ou menos de 15%). Em suma, os Estados Unidos estão mantendo os talentos estrangeiros muito necessário que contribuiriam de bom grado e significativamente para a capacidade do país de competir em IA e outras tecnologias críticas.

ALTO RISCO, ALTA RECOMPENSA

AI é indispensável para a segurança futura dos Estados Unidos. Mas também representa grandes riscos. AI já está acelerando a disseminação da desinformação on-line e facilitando a discriminação inadvertida na contratação. Os cientistas da computação argumentaram que isso poderia permitir ataques cibernéticos automatizados em “velocidades de máquinas”. As químicas mostraram que a IA pode sintetizar armas químicas, e os biólogos expressaram preocupação de que ela possa ser usada para projetar novos patógenos ou armas biológicas. Os riscos são graves o suficiente para que até mesmo os líderes da indústria de IA tenham expressado alarme. Em maio de 2023, os chefes de quase todos os principais EUA. O laboratório de IA assinou uma carta alertando que suas invenções poderiam representar uma ameaça existencial para a humanidade.

De fato, a segurança nacional é o domínio da atividade humana, onde os riscos da IA são mais profundos. Um modelo I poderia, por exemplo, identificar erroneamente pessoas ou objetos como alvos, resultando em morte e destruição não intencionais durante o conflito. Modelos de IA de caixa preta – aqueles cujo raciocínio não pode ser adequadamente compreendido ou explicado – podem levar os planejadores militares a tomar decisões perigosas. Esse risco seria mais agudo se a IA desenvolvida para uma situação fosse aplicada a outra sem testes e supervisão suficientes. O que pode ser perfeitamente racional e responsável em uma situação pode ser irracional e perigoso em outra.

Os riscos não resultam apenas de sistemas mal projetados ou descuidados. Os Estados Unidos poderiam ser exigentes no desenvolvimento e implementação de IA, apenas para seus adversários encontrarem maneiras de corromper os dados dos EUA, levando os sistemas a ficarem descontrolados. Por exemplo, se um adversário fosse capaz de falsificar uma ferramenta AI de visão computacional habilitada para atacar um veículo civil em vez de um militar, isso poderia fazer com que os Estados Unidos prejudicassem inadvertidamente civis em uma zona de conflito, minando a credibilidade e a autoridade moral dos EUA. Um adversário também poderia corromper dados de maneiras que degradariam o desempenho de um sistema de armas habilitado para IA ou que poderiam fazer com que ele fosse desligado.

O Pentágono está ciente desses riscos e, em fevereiro de 2020, emitiu um conjunto de princípios éticos que regem como a IA deve ser usada. Um princípio pediu ao pessoal do departamento que exerça julgamento e cuidado no desenvolvimento, implantação e uso de recursos de IA. Outro disse que o Departamento de Defesa tentará “minimizar o viés não intencional nas capacidades de IA”. Um terceiro pediu para garantir que toda a IA seja feita e usada de maneiras que possam ser entendidas e explicadas, com dados e metodologias transparentes e auditáveis. E os líderes de defesa orientaram seus funcionários a garantir que os sistemas de IA sejam rigorosamente testados quanto à sua segurança, segurança e eficácia; que os sistemas de IA são atribuídos a usos claramente definidos; e que os sistemas de IA podem ser desengajados ou desativados se exibirem comportamento não intencional.

Um drone voando sobre Ein Shemer, Israel, julho de 2023 Amir Cohen / Reuters (em inglês)

Para armas autônomas e semiautônomas, o Departamento de Defesa emitiu orientações ainda mais específicas. Os líderes do Pentágono orientaram os comandantes e os operadores a usarem um julgamento cuidadoso sobre as armas habilitadas para a IA, inclusive garantindo que essas armas sejam usadas de maneira consistente com os parâmetros do treinamento do modelo e com as regras de engajamento para a operação em que a IA está sendo implantada. As regras do Departamento de Defesa também estipulam que os comandantes usam a IA de acordo com as leis da guerra. Por exemplo, qualquer arma habilitada para IA deve ser discriminada, capaz de distinguir entre combatentes e não-combatentes no campo de batalha, e capaz de evitar deliberadamente atacar o último. O Pentágono também proibiu o uso de IA em seus sistemas de comando e controle nuclear, e pediu que outras potências nucleares façam o mesmo.

Entre a liderança da comunidade de defesa dos EUA, essas regras de “IA responsável” alcançaram um grande consenso. Mas colocá-los em prática não é um pequeno desafio – especialmente dado o tamanho do aparato de defesa dos Estados Unidos. O Pentágono iniciou o processo criando um órgão de governança de alto nível, começando a estabelecer dados e infraestrutura digital para suportar uma variedade de aplicativos de IA; construindo os recursos de teste, avaliação e validação necessários para garantir a conformidade com os princípios de IA do Departamento de Defesa; e aumentando a conscientização da IA em todo o departamento. Este processo de implementação ainda está em sua infância. Mas o quadro político fornece uma base sólida para construir.

Ainda assim, o Pentágono seria sábio para fortalecer ainda mais essas diretrizes. Por exemplo, os funcionários da defesa devem exigir que todos os fornecedores de IA dêem ao Departamento de Defesa total transparência nas origens dos dados que usam em seus conjuntos de treinamento. Além disso, o departamento deve garantir que o comportamento de qualquer modelo de IA que ele adota seja explicável (totalmente compreendido por seus usuários e desenvolvedores), sem sufocar a inovação. Ele pode fazer isso fortalecendo como testa, avalia e verifica os sistemas. O departamento também deve ampliar e ampliar o trabalho realizado pela Agência de Projetos de Pesquisa Avançada de Defesa – uma das entidades responsáveis pelo desenvolvimento de tecnologias emergentes para os militares – para garantir que as ferramentas de IA sejam explicáveis e responsáveis pelo design. Os princípios éticos do departamento, em outras palavras, devem ser tratados como características necessárias que moldam a forma como os modelos de defesa de IA são projetados desde o início.

Instituições dos EUA treinam muitos dos melhores especialistas em tecnologia do mundo, apenas para mandá-los embora.

Mas a comunidade de defesa dos EUA não será capaz de acelerar a adoção da IA, a menos que o público acredite que usará a IA de maneiras eficazes, responsáveis, éticas e legais. Caso contrário, a primeira vez que um pedido de IA leva a uma decisão muito ruim ou sérias consequências não intencionais no campo de batalha, é improvável que os combatentes confiem nela, e os formuladores de políticas e legisladores provavelmente suspenderão ou proibirão seu uso. O Departamento de Defesa deve, portanto, aumentar seu investimento na pesquisa e desenvolvimento da segurança da IA. Deve ser transparente sobre o que vai e não usará a IA para fazer. E o Pentágono deve considerar fazer com que seus fornecedores coloquem os guard-rails sobre como eles desenvolvem a IA. Se uma empresa quiser fornecer IA aos militares, por exemplo, o Departamento de Defesa pode exigir que ela atenda a rigorosos padrões de proteção de dados e segurança cibernética. Ao fazê-lo, o Pentágono poderia ajudar a tornar a IA mais segura, não apenas para as forças armadas, mas para todos.

Os Estados Unidos, é claro, não podem garantir que a IA seja desenvolvida e usada com responsabilidade. Outros países – incluindo concorrentes – também terão que adotar barreiras e normas políticas. O mundo deu um primeiro passo valioso quando, em novembro de 2021, 193 países aprovaram um acordo global sobre a ética da inteligência artificial – o primeiro do mundo. Inclui o princípio de que os países devem garantir a supervisão humana e a agência sobre toda a IA.

Embora este acordo seja uma base importante, os Estados Unidos devem procurar locais para discutir a IA com seus potenciais adversários, especialmente a China, assim como encontrou maneiras de falar sobre armas nucleares e outras formas de controle de armas com a União Soviética durante a Guerra Fria. Para ter sucesso, Washington também terá que trabalhar em estreita colaboração com seus aliados e parceiros para se certificar de que eles estão todos na mesma página. Os países que concordam com um conjunto de normas de IA devem estar dispostos a ameaçar os infratores com custos severos, incluindo sanções econômicas multilaterais, expulsão de fóruns internacionais e ações legais para responsabilizar os autores por danos. Atores que violam as regras de IA, por exemplo, podem ser indiciados em um tribunal federal dos EUA, já que cinco hackers chineses estavam em 2014 por lançar ataques cibernéticos contra empresas dos EUA. Os estados que violam essas regras podem enfrentar uma potencial retaliação por qualquer dano causado – incluindo, em casos extremos, ação militar.

A NECESSIDADE DE VELOCIDADES RESPONSÁVEIS

No mundo da microeletrônica, os especialistas costumam falar sobre a lei de Moore: o princípio de que o número de transistores em chips dobra a cada dois anos, resultando em dispositivos exponencialmente mais capazes. A lei ajuda a explicar a rápida ascensão de tantas inovações tecnológicas, incluindo smartphones e motores de busca.

Dentro da segurança nacional, o progresso da IA criou outro tipo de lei de Moore. Quaisquer que sejam os primeiros mestres militares que organizam, incorporam e institucionalizem o uso de dados e IA em suas operações nos próximos anos, colherá avanços exponenciais, dando-lhe vantagens notáveis sobre seus inimigos. O primeiro adotante da IA em escala provavelmente terá um ciclo de decisão mais rápido e melhores informações sobre as quais basear as decisões. Suas redes provavelmente serão mais resilientes quando sob ataque, preservando sua capacidade de manter a consciência situacional, defender suas forças, engajar alvos de forma eficaz e proteger a integridade de seu comando, controle e comunicações. Também será capaz de controlar enxames de sistemas não tripulados no ar, na água e sob o mar para confundir e sobrecarregar um adversário. Os Estados Unidos não podem se dar ao luxo de ficar para trás.

Mas o aparato de segurança nacional também não pode se dar ao luxo de ser imprudente. Sem as salvaguardas adequadas, os modelos de IA podem causar todos os tipos de danos não intencionais. Os sistemas desonestos podem até matar tropas dos EUA ou civis desarmados dentro ou perto de áreas de combate. Os Estados Unidos, portanto, encontram-se diante de um enigma. As apostas de desacelerar a IA são inaceitavelmente altas, mas também as apostas de correr à frente sem as devidas precauções.

Os formuladores de políticas dos EUA parecem entender esse paradoxo. Os líderes do Congresso sabem que, se regulassem a IA com muita mão, poderiam levar os melhores inovadores da IA a deixar os Estados Unidos para trabalhar onde há menos restrições, e os Estados Unidos ficariam atrás de seus concorrentes. Mas os formuladores de políticas democratas e republicanos também sabem que alguma regulamentação e supervisão são essenciais para garantir que a adoção da IA seja segura e responsável. A Câmara dos Deputados e o Senado estão realizando sessões para educar seus membros e agendar audiências para obter conselhos de especialistas. Esses esforços para construir um consenso bipartidário antes de legislar devem ser aplaudidos.

Mas entender o problema é apenas o primeiro passo. Para resolvê-lo – para equilibrar a necessidade de velocidade com a necessidade de segurança – os formuladores de políticas terão que implementar melhores abordagens para acelerar a adoção, bem como garantir a segurança. Caso contrário, os americanos correm o risco de serem pegos em um mundo de perigos crescentes de IA e declínio do poder e influência dos EUA.

Tradução automática. Artigo original aqui.

Apoie o Cafezinho
Siga-nos no Siga-nos no Google News

Comentários

Os comentários aqui postados são de responsabilidade exclusiva de seus autores e não representam a opinião do site O CAFEZINHO. Todos as mensagens são moderadas. Não serão aceitos comentários com ofensas, com links externos ao site, e em letras maiúsculas. Em casos de ofensas pessoais, preconceituosas, ou que incitem o ódio e a violência, denuncie.

Escrever comentário

Escreva seu comentário

Nenhum comentário ainda, seja o primeiro!


Leia mais

Recentes

Recentes