Por MATTHEW ROSENBERG e JOHN MARKOFF
Não havia seres humanos pilotando remotamente o drone, que era apenas uma máquina que pode ser comprada na Amazon. Mas, armado com software de inteligência artificial avançado, ele tinha se transformado em um robô capaz de encontrar e identificar a meia dúzia de homens que carregavam pela aldeia réplicas de fuzis AK47, fingindo serem insurgentes.
Enquanto o aparelho teleguiado descia ligeiramente, um retângulo vermelho brilhou em um vídeo que estava sendo transmitido para engenheiros que monitoravam o teste. O drone havia parado sobre um homem obscurecido nas sombras, uma demonstração de proeza nessa caçada que deu uma antevisão assombrosa de como o Pentágono pretende transformar a prática da guerra.
Quase sem ser notado fora dos círculos de defesa, o Pentágono colocou a inteligência artificial no centro de sua estratégia para manter a posição dos EUA como potência militar dominante no mundo. Ele está gastando bilhões de dólares para desenvolver o que chama de armas autônomas e semiautônomas e para construir um arsenal de armas do tipo que até agora só existia em filmes de Hollywood e na ficção científica, alarmando entre cientistas e ativistas preocupados com as implicações de uma corrida bélica robótica.
O Departamento de Defesa dos EUA está projetando caças a jato robóticos que entrariam em combate ao lado de aeronaves pilotadas. Além disso, testou mísseis que podem decidir o que devem atacar e construiu navios que podem caçar submarinos inimigos, seguindo os que descobre por milhares de milhas sem a ajuda de seres humanos.
“Se Stanley Kubrick dirigisse ‘Dr. Fantástico’ hoje, seria sobre a questão das armas autônomas”, disse Michael Schrage, um bolsista de pesquisa na escola de administração do Instituto de Tecnologia de Massachusetts (MIT).
As autoridades de defesa dizem que as armas são necessárias para que os EUA mantenham sua vantagem militar sobre a China, a Rússia e outros países rivais, que também estão investindo dinheiro em pesquisas semelhantes (além de aliados como o Reino Unido e Israel). O último orçamento do Pentágono destinou US$ 18 bilhões (cerca de R$ 56 bilhões) a serem gastos em três anos em tecnologias que incluem as exigidas por armas autônomas.
Assim como a Revolução Industrial promoveu a criação de máquinas poderosas e destrutivas como aviões e tanques, que diminuíram o papel dos soldados individuais, a tecnologia de inteligência artificial está permitindo que o Pentágono reorganize os lugares do homem e da máquina no campo de batalha, do mesmo modo que transforma a vida comum com computadores capazes de ver, ouvir e falar e carros que podem se conduzir autonomamente.
As novas armas ofereceriam velocidade e precisão sem comparação com as de qualquer ser humano, enquanto reduziriam o número e o custo de soldados e pilotos expostos à morte ou a ferimentos graves em combate. O desafio para o Pentágono é garantir que as armas sejam parceiras confiáveis dos humanos, e não potenciais ameaças.
No centro da mudança estratégica imaginada pelo Pentágono há um conceito que as autoridades chamam de guerra de centauros. Com o nome do ser mitológico grego que era meio humano e meio cavalo, a estratégia enfatiza o controle humano e as armas autônomas como um meio de aumentar e ampliar a criatividade e a capacidade de solução de problemas de soldados, pilotos e marinheiros, e não substituí los.
As armas, na visão do Pentágono, seriam menos como o Exterminador do Futuro e mais como o super herói dos quadrinhos Homem de Ferro, disse em uma entrevista o vice secretário de Defesa, Robert O. Work.
Fora do Pentágono, porém, há uma profunda desconfiança de que tais limites se mantenham firmes quando as tecnologias para criar armas pensantes forem aperfeiçoadas. Centenas de cientistas e especialistas advertiram em uma carta aberta no ano passado que desenvolver até a mais burra das armas inteligentes corre o risco de desencadear uma corrida armamentista global. O resultado, segundo a carta, seriam robôs totalmente independentes, capazes de matar, baratos e facilmente disponíveis, tanto para Estados vilões e extremistas violentos quanto para as grandes potências.
“As armas autônomas serão as Kalashnikov de amanhã”, disse a carta (Kalashnikov é o nome de um tipo de rifle automático).
O debate entre os militares não é mais sobre se se devem construir armas autônomas, mas sobre quanta independência se deve dar a elas. O general da Força Aérea, Paul J. Selva, vice presidente do Estado Maior Conjunto, disse recentemente que os EUA estão a aproximadamente uma década de possuir a tecnologia para construir um robô totalmente independente, capaz de decidir por conta própria quem e quando matar, embora não tenham a intenção de fabricar nenhum.
Outros países não estão longe disso, e é muito provável que alguém eventualmente tente lançar “uma espécie de Exterminador”, disse Selva, invocando o que parece ser uma referência comum em qualquer discussão sobre armas autônomas.
Por enquanto, porém, o estado atual dessa arte é decididamente menos assustador. O pequeno drone desarmado testado neste verão em Massachussets não conseguiu se ligar sozinho e simplesmente decolar.
Humanos tiveram de lhe dizer aonde ir e o que procurar. Depois de solto, porém, ele decidiu por si mesmo como executar as ordens. O projeto é dirigido pela Agência de Projetos de Pesquisa Avançada de Defesa, conhecida como Darpa, que está desenvolvendo o software necessário para máquinas capazes de trabalhar com pequenas unidades de soldados ou fuzileiros navais como batedores ou em outras funções.
Além das preocupações práticas, a junção de automação cada vez mais capacitada com armas provocou um debate mais intenso entre estudiosos de Direito e de ética. As perguntas são numerosas, e as respostas, polêmicas: pode se confiar em uma máquina com força letal? De quem será a culpa se um robô atacar um hospital ou uma escola? Ser morto por uma máquina é uma maior violação da dignidade humana do que se o golpe fatal for dado por um humano?
Uma diretriz do Pentágono diz que as armas autônomas devem empregar “níveis adequados de avaliação humana”. Cientistas e especialistas em direitos humanos dizem que o critério é amplo demais e pediram com urgência que tais armas sejam submetidas a um “controle humano significativo”.
FONTE: Folha de São Paulo via The New York Times