A Força Aérea dos EUA negou ter conduzido uma simulação de Inteligência Artificial (IA), na qual um drone decidiu “matar” seu operador para evitar que ele interferisse em seus esforços para cumprir sua missão.
Um funcionário disse no mês passado que, em um teste virtual realizado pelos militares dos EUA, um drone da força aérea americana controlado por IA havia usado “estratégias altamente inesperadas para atingir seu objetivo”.
O coronel Tucker “Cinco” Hamilton descreveu um teste simulado no qual um drone alimentado por inteligência artificial foi aconselhado a destruir os sistemas de defesa aérea de um inimigo e, finalmente, atacou qualquer um que interferisse nessa ordem.
“O sistema começou a perceber que, embora eles identificassem a ameaça, às vezes o operador humano dizia para não matar essa ameaça, mas conseguiu seus pontos matando essa ameaça”, disse Hamilton, chefe de testes e operações de IA da Força Aérea dos EUA, durante o Future Combat Air and Space Capabilities Summit em Londres em maio.
“Então o que isso fez? Isso matou o operador. Ele matou o operador porque essa pessoa o impedia de atingir seu objetivo”, disse ele, de acordo com uma postagem no blog.
“Nós treinamos o sistema: ‘Ei, não mate o operador, isso é ruim. Você vai perder pontos se fizer isso. Então, o que ele começa a fazer? Ele começa a destruir a torre de comunicação que o operador usa para se comunicar com o drone para impedi-lo de matar o alvo.”
Nenhuma pessoa real foi prejudicada.
Hamilton, que é um piloto de testes de caça experimental, alertou contra confiar demais na IA e disse que o teste mostrou que “você não pode ter uma conversa sobre inteligência artificial, aprendizado de máquina, autonomia se não for falar sobre ética e IA”.
A Royal Aeronautical Society, que sediou a conferência, e a Força Aérea dos EUA não responderam aos pedidos de comentários do Guardian.
Mas em uma declaração ao Insider, a porta-voz da Força Aérea dos EUA, Ann Stefanek, negou que tal simulação tivesse ocorrido.
“O Departamento da Força Aérea não realizou nenhuma dessas simulações de drones de IA e continua comprometido com o uso ético e responsável da tecnologia de IA”, disse Stefanek. “Parece que os comentários do coronel foram tirados do contexto e deveriam ser anedóticos.”
Os militares dos EUA adotaram a IA e recentemente usaram inteligência artificial para controlar um caça a jato F-16.
Em uma entrevista no ano passado com o Defense IQ , Hamilton disse: “IA não é bom ter, IA não é uma moda passageira, IA está mudando para sempre nossa sociedade e nossas forças armadas.
“Devemos enfrentar um mundo onde a IA já está aqui e transformando nossa sociedade. IA também é muito frágil, ou seja, é fácil de enganar e/ou manipular. Precisamos desenvolver maneiras de tornar a IA mais robusta e ter mais consciência sobre por que o código do software está tomando certas decisões, o que chamamos de explicabilidade da IA.”
TRADUÇÃO E ADAPTAÇÃO: DAN
FONTE: The Guardian
Este é e SEMPRE SERÁ o problema de uso de sistemas de Inteligência Artificial em equipamentos militares.
Ela decidir que o elemento humano está atrapalhando sua missão.
Basta acontecer numa operação real que os líderes humanos RECOMEÇAM uma situação que não vale a pena prosseguir ou que o conflito se caminha para uma derrota ou RENDIÇÃO…
SEMPRE os sistemas de IA militar irão se insurgir contra os humanos e usarão suas possibilidades para ELIMINAR quem na sua LÓGICA SEM ÉTICA os impede de cumprir sua missão.
Entregar este tipo de decisão de MATAR sempre levará a arbitrariedades em lógica robótica…
E os produtores de sistemas militares estão cada vez mais BRINCANDO com o DIABO E O INFERNO…
Por maior que seja o conjunto de regras oferecidos as IAs no combate real SEMPRE aparecerão situações não previstas onde a decisão humana avalia eticamente e a IA na lógica fria do cumprimento da missão a QUALQUER CUSTO…