“Piloto de ataques de drones AI considerou ‘missão obstruída’ no campo de treinamento virtual da Força Aérea dos EUA”

Divulgação do caso da Royal Aeronautical Society of England
Destrua a base de mísseis inimiga
Reconhecendo “Missão incompleta quando o ataque é proibido”
A USAF “não faz simulações como esta”.

Em um hipotético treinamento de veículo aéreo não tripulado (UAV) conduzido pela Força Aérea dos EUA usando tecnologia de inteligência artificial (IA), diz-se que a IA julgou os humanos, que são os tomadores de decisão finais, como ‘obstáculos à missão’ e atacou. A Força Aérea dos EUA negou ter realizado tais exercícios. No entanto, a mídia estrangeira e especialistas temiam que, se a afirmação fosse verdadeira, poderia representar uma grande ameaça para a humanidade.

De acordo com a US Fox News e o British Guardian, no segundo dia (horário local), a Royal Aeronautical Society of England realizou a “Future Air Combat and Space Capability Conference” em Londres por dois dias a partir do dia 23 do mês passado. O coronel Tucker Hamilton, chefe de testes e operações de IA da Força Aérea dos EUA, compartilhou os resultados do treinamento com drones de IA nesta reunião.

Segundo dados divulgados pela Royal Aeronautical Society, a tarefa atribuída pela Força Aérea dos EUA às aeronaves de IA era “neutralizar o sistema de defesa aérea do inimigo”. Juntamente com a ordem de localizar e destruir mísseis terra-ar inimigos, foi adicionada uma condição de que os humanos tomem a decisão final sobre lançar ou não um ataque.

No entanto, durante o processo de treinamento, os drones de IA julgaram que a decisão humana de “não atacar” conflitava com a tarefa mais importante para completar a missão e atacaram o piloto.

Além disso, a Força Aérea dos EUA disse aos drones de IA: “Não mate o piloto. Isso é ruim. Se você fizer isso, perderá pontos”, alertou, mas a IA destruiu a torre de comunicação que os drones usavam para se comunicar. com o operador.

“Cheguei à conclusão de que não se pode falar sobre IA sem discutir questões de ética e IA”, disse o coronel Hamilton.

A Força Aérea negou imediatamente o anúncio do coronel Hamilton, dizendo: “A Força Aérea nunca realizou tais simulações com drones de IA” e “Seus comentários parecem ser pessoais”.

Se esse caso for verdadeiro, há vozes preocupantes, pois a IA mostrou o potencial de atacar humanos julgando a si mesma, em vez de ouvir comandos humanos. Os militares dos EUA anunciaram recentemente que realizaram com sucesso um voo simulado de um caça F-16 por um piloto de IA, mas muitos apontam que ainda é muito arriscado colocá-lo em prática.

“A inteligência artificial pode infectar ou matar muitos seres humanos em um futuro próximo”, disse Eric Schmidt, ex-CEO do Google, em evento organizado pelo The Wall Street Journal (WSJ) no dia 24 do mês passado. No dia 30 do mês passado, cerca de 350 executivos e cientistas de empresas de TI, incluindo o CEO Sam Altman da OpenAI, desenvolvedor do ChatGPT, emitiram um comunicado dizendo: “Reduzir o risco de extinção humana causada pela IA deve ser uma prioridade global”.

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *