Por MATTHEW ROSENBERG e JOHN MARKOFF
O pequeno drone com seis rotores passou zumbindo pela réplica de uma aldeia do Oriente Médio e se aproximou de uma construção parecida com uma mesquita, com sua câmera procurando alvos.
Não havia seres humanos pilotando remotamente o drone, que era apenas uma máquina que pode ser comprada na Amazon. Mas, armado com software de inteligência artificial avançado, ele tinha se transformado em um robô capaz de encontrar e identificar a meia dúzia de homens que carregavam pela aldeia réplicas de fuzis AK47, fingindo serem insurgentes.
Enquanto o aparelho teleguiado descia ligeiramente, um retângulo vermelho brilhou em um vídeo que estava sendo transmitido para engenheiros que monitoravam o teste. O drone havia parado sobre um homem obscurecido nas sombras, uma demonstração de proeza nessa caçada que deu uma antevisão assombrosa de como o Pentágono pretende transformar a prática da guerra.
Quase sem ser notado fora dos círculos de defesa, o Pentágono colocou a inteligência artificial no centro de sua estratégia para manter a posição dos EUA como potência militar dominante no mundo. Ele está gastando bilhões de dólares para desenvolver o que chama de armas autônomas e semiautônomas e para construir um arsenal de armas do tipo que até agora só existia em filmes de Hollywood e na ficção científica, alarmando entre cientistas e ativistas preocupados com as implicações de uma corrida bélica robótica.
O Departamento de Defesa dos EUA está projetando caças a jato robóticos que entrariam em combate ao lado de aeronaves pilotadas. Além disso, testou mísseis que podem decidir o que devem atacar e construiu navios que podem caçar submarinos inimigos, seguindo os que descobre por milhares de milhas sem a ajuda de seres humanos.
“Se Stanley Kubrick dirigisse ‘Dr. Fantástico’ hoje, seria sobre a questão das armas autônomas”, disse Michael Schrage, um bolsista de pesquisa na escola de administração do Instituto de Tecnologia de Massachusetts (MIT).
As autoridades de defesa dizem que as armas são necessárias para que os EUA mantenham sua vantagem militar sobre a China, a Rússia e outros países rivais, que também estão investindo dinheiro em pesquisas semelhantes (além de aliados como o Reino Unido e Israel). O último orçamento do Pentágono destinou US$ 18 bilhões (cerca de R$ 56 bilhões) a serem gastos em três anos em tecnologias que incluem as exigidas por armas autônomas.
Assim como a Revolução Industrial promoveu a criação de máquinas poderosas e destrutivas como aviões e tanques, que diminuíram o papel dos soldados individuais, a tecnologia de inteligência artificial está permitindo que o Pentágono reorganize os lugares do homem e da máquina no campo de batalha, do mesmo modo que transforma a vida comum com computadores capazes de ver, ouvir e falar e carros que podem se conduzir autonomamente.
As novas armas ofereceriam velocidade e precisão sem comparação com as de qualquer ser humano, enquanto reduziriam o número e o custo de soldados e pilotos expostos à morte ou a ferimentos graves em combate. O desafio para o Pentágono é garantir que as armas sejam parceiras confiáveis dos humanos, e não potenciais ameaças.
No centro da mudança estratégica imaginada pelo Pentágono há um conceito que as autoridades chamam de guerra de centauros. Com o nome do ser mitológico grego que era meio humano e meio cavalo, a estratégia enfatiza o controle humano e as armas autônomas como um meio de aumentar e ampliar a criatividade e a capacidade de solução de problemas de soldados, pilotos e marinheiros, e não substituí los.
As armas, na visão do Pentágono, seriam menos como o Exterminador do Futuro e mais como o super herói dos quadrinhos Homem de Ferro, disse em uma entrevista o vice secretário de Defesa, Robert O. Work.
Fora do Pentágono, porém, há uma profunda desconfiança de que tais limites se mantenham firmes quando as tecnologias para criar armas pensantes forem aperfeiçoadas. Centenas de cientistas e especialistas advertiram em uma carta aberta no ano passado que desenvolver até a mais burra das armas inteligentes corre o risco de desencadear uma corrida armamentista global. O resultado, segundo a carta, seriam robôs totalmente independentes, capazes de matar, baratos e facilmente disponíveis, tanto para Estados vilões e extremistas violentos quanto para as grandes potências.
“As armas autônomas serão as Kalashnikov de amanhã”, disse a carta (Kalashnikov é o nome de um tipo de rifle automático).
O debate entre os militares não é mais sobre se se devem construir armas autônomas, mas sobre quanta independência se deve dar a elas. O general da Força Aérea, Paul J. Selva, vice presidente do Estado Maior Conjunto, disse recentemente que os EUA estão a aproximadamente uma década de possuir a tecnologia para construir um robô totalmente independente, capaz de decidir por conta própria quem e quando matar, embora não tenham a intenção de fabricar nenhum.
Outros países não estão longe disso, e é muito provável que alguém eventualmente tente lançar “uma espécie de Exterminador”, disse Selva, invocando o que parece ser uma referência comum em qualquer discussão sobre armas autônomas.
Por enquanto, porém, o estado atual dessa arte é decididamente menos assustador. O pequeno drone desarmado testado neste verão em Massachussets não conseguiu se ligar sozinho e simplesmente decolar.
Humanos tiveram de lhe dizer aonde ir e o que procurar. Depois de solto, porém, ele decidiu por si mesmo como executar as ordens. O projeto é dirigido pela Agência de Projetos de Pesquisa Avançada de Defesa, conhecida como Darpa, que está desenvolvendo o software necessário para máquinas capazes de trabalhar com pequenas unidades de soldados ou fuzileiros navais como batedores ou em outras funções.
Além das preocupações práticas, a junção de automação cada vez mais capacitada com armas provocou um debate mais intenso entre estudiosos de Direito e de ética. As perguntas são numerosas, e as respostas, polêmicas: pode se confiar em uma máquina com força letal? De quem será a culpa se um robô atacar um hospital ou uma escola? Ser morto por uma máquina é uma maior violação da dignidade humana do que se o golpe fatal for dado por um humano?
Uma diretriz do Pentágono diz que as armas autônomas devem empregar “níveis adequados de avaliação humana”. Cientistas e especialistas em direitos humanos dizem que o critério é amplo demais e pediram com urgência que tais armas sejam submetidas a um “controle humano significativo”.
FONTE: Folha de São Paulo via The New York Times
Questoes eticas aparte , nao se pode negar que mais cedo ou tarde isto iria ocorrer ,o ser humano eh motivado pelo desafio e o desafio tecnologico do momento eh a inteligencia artificial 100% autonoma , os orçamentos para defesa (guerrar ) sao aprovados com muita satisfaçao pelos politicos ( nao aqui ),portanto eh natural que estah tecnologia encontre um campo fertil na area militar ,fora isto , descontando os mimimis e xororos das organizaçoes de direitos humanos e afins , na pratica nao ha diferença para o alvo (que morre-ra) se ele vai ser estourado por um drone AI , ou por um Homo sapiens , este papo deque um ser humano pode no ultimo momento abortar uma açao e que a maquina FRIA nao faria isto eh pura besteira , as maiores atrocidades contra a natureza , contra animais e contra seres humanos (crianças ,idosos ) sao feitas pelo ser sentimental humano ,Homo sapiens ! Talves a birra se deve pela concorrencia , nao seremos exclusivos em cometer atrocidades !
Eu acho que drones e robos com inteligencia artificial propria não devem ser usados em combate, alem de uma questão ética, esse tipo de coisa trata a vida dos soldados e das pessoas como se fossem nada. Tinham que criar um lei internacional proibindo tal uso, para mim tem que ter sempre um operador humano atrás do drone por que isso de certa forma deixa a coisa mais “humana”.
Parece que entre as lideranças, a pulsão pela morte está cada vez mais forte do que o desejo pela vida e assim vão conduzindo a humanidade…Rumo a quê mesmo?