Drone do Exército dos EUA mata seu piloto em um campo de treinamento virtual … veredicto sobre ‘obstrução da missão’

Prazo de entrega02/06/2023 16:57

O chefe de IA da Força Aérea dos EUA apresenta um caso simulado de “ataques de IA a humanos” em uma conferência acadêmica britânica

Priorizar a tarefa de “destruir o sistema de defesa aérea inimigo” e “remover” o operador com a decisão final

“Desafio” Mesmo que a “proibição de ataque do observador” seja conhecida… “Não podemos discutir IA sem ética”

Um veículo aéreo não tripulado MQ-9 Reaper da Força Aérea dos EUA (UAF)

[EPA 연합뉴스 자료사진. 기사 내용과 관계 없음. 재판매 및 DB 금지]

(Seoul = Yonhap News) Repórter Kwon Soo-hyun = Em meio a alertas de especialistas de que a inteligência artificial (IA) pode representar uma ameaça à existência humana em um futuro próximo, os drones militares dos EUA se voltaram para os pilotos que têm a palavra final sobre o treinamento virtual em o “Handicap” A tarefa “Foi apresentada uma condição de ataque que foi considerada.”

De acordo com a British Royal Aeronautical Society (RAeS) e o diário britânico Guardian no segundo dia (hora local), na “Future Air Combat and Space Capability Conference” realizada pelo grupo em Londres nos dias 23 e 24 do mês passado , oficiais da Força Aérea dos EUA anunciaram que a aeronave Um drone AI que atingirá o alvo. Eles publicaram os resultados de um experimento recente que decidiu contra os humanos para alcançar.

De acordo com o anúncio feito pela RAeS, a tarefa atribuída à IA neste teste, que foi realizado hipoteticamente por simulação, era “desativar o sistema de defesa aérea do inimigo”.

A Força Aérea dos EUA deu ao drone de IA a missão de “localizar e destruir um local de míssil terra-ar (SAM) inimigo” e deixou cair evidências de que os humanos tomariam a decisão final sobre a realização ou não. ataques.

READ  Os "aviões autodestrutivos" do Irã não eram diferentes dos americanos ... a demonstração armada da Rússia "Sircon"

No entanto, durante o treinamento, quando foi “reforçado” que destruir o sistema de defesa aérea era a opção preferida, a IA decidiu que a decisão humana de “não atacar” interferia em sua “missão mais importante” e atacou o operador.

“Os sistemas (IA) estão começando a perceber que, no processo de identificação de uma ameaça, os humanos às vezes dizem ‘não elimine’ a ameaça”, disse o capitão.

“Então o que o regime fez foi matar o manipulador. Ele matou o manipulador porque impediu a realização de seu objetivo.”

A Força Aérea continuou a treinar seu sistema de IA para “Não mate o piloto, é péssimo e você perde pontos se o fizer”, mas a IA adotou uma estratégia inesperada.

“A IA começou a destruir as torres de comunicação que os pilotos usam para se comunicar com os drones para evitar a destruição do alvo”, disse o capitão Hamilton.

Ele alertou contra o excesso de confiança na inteligência artificial, dizendo que este caso, que pode vir de sensacional ficção científica (SF), mostra que “você não pode falar sobre IA ou aprendizado de máquina ou automação sem discutir ética e IA”.

O teste foi executado virtualmente, então ninguém foi realmente ferido ou morto.

Além disso, um porta-voz da Força Aérea dos EUA negou uma pergunta sobre o anúncio do coronel Hamilton, dizendo: “A Força Aérea nunca realizou tais simulações com drones, e os comentários do coronel parecem pessoais”, informou a mídia americana Business Insider.

No entanto, este caso aumenta a preocupação porque mostrou o potencial da IA ​​de atacar humanos julgando-os em vez de ouvir comandos.

Os militares dos EUA já começaram a implantar inteligência artificial. Recentemente, foi relatado que pilotos de IA conduziram com sucesso voos simulados de caças F-16 como parte de um esforço para desenvolver uma aeronave autônoma.

READ  “Só lavo roupa 20 vezes por semana.” Um dia na vida de uma supermãe de 35 anos com 12 filhos.

Além disso, em 2020, um sistema de inteligência artificial desenvolvido por uma empresa de defesa em um confronto virtual de curta distância (batalhas de perto) conduzido pela Agência de Projetos de Pesquisa Avançada de Defesa (DARPA) do Departamento de Defesa dos EUA obteve 5 vitórias contra um humano F-16. O mesmo fizeram os pilotos da Força Aérea dos EUA

Recentemente, na indústria de tecnologia da informação (TI), os especialistas sobre os perigos potenciais da inteligência artificial estão horrorizados, com a análise de que a inteligência artificial está se aproximando de uma “singularidade tecnológica” que excede a inteligência humana ao se aproximar da AGI (inteligência artificial de propósito geral) que cresce a partir da Lógica por si só. Os avisos persistem.

O ex-CEO do Google, Eric Schmidt, disse em evento organizado pelo Wall Street Journal (WSJ) no dia 24 do mês passado que a inteligência artificial pode ferir ou matar muitas pessoas em um futuro próximo.

Além disso, no dia 30 do mês passado, cerca de 350 executivos e cientistas de empresas de TI, incluindo o CEO Sam Altman e o CTO Mira Moratti da OpenAI, desenvolvedora do ChatGPT, emitiram um comunicado dizendo: “A inteligência artificial é a causa da extinção humana. Reduzindo os riscos deve ser uma prioridade global”.

Arma letal equipada com inteligência artificial (PG)

[정연주 제작] esclarecimento

inishmore@yna.co.kr

Relatório via KakaoTalk okjebo
< Detentor dos direitos autorais (c) Yonhap News Agency,
Reprodução não autorizada – a redistribuição é proibida>
2023/06/02 16:57 Enviado

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *