A Áustria pediu, nesta segunda-feira (29), novos esforços para regular o uso de inteligência artificial (IA) em sistemas de armas que poderiam criar os chamados “robôs assassinos”.
O pedido aconteceu em uma conferência que tinha como objetivo reviver discussões, em grande parte, paralisadas sobre o assunto.
Com o rápido avanço da tecnologia de IA, os sistemas de armas que podem matar sem intervenção humana estão cada vez mais próximos, estabelecendo desafios éticos e jurídicos que precisam ser resolvidos em breve.
“Não podemos deixar este momento passar sem agir. Agora é a hora de chegar a um acordo sobre regras e normas internacionais para garantir o controle humano”, disse o ministro das Relações Exteriores austríaco, Alexander Schallenberg, na reunião de organizações não-governamentais e internacionais.
“Pelo menos vamos garantir que a decisão mais profunda e de longo alcance, quem vive e quem morre, permaneça nas mãos dos humanos e não das máquinas”, pontuou no discurso de abertura da conferência intitulada “Humanidade na Encruzilhada : Sistemas de Armas Autônomos e o Desafio da Regulamentação”.
Anos de discussões na Organização das Nações Unidas (ONU) produziram poucos resultados tangíveis. Assim, muitos participantes na conferência em Viena destacaram que a janela para ação está se fechando rapidamente.
“É muito importante agir — e muito rapidamente”, alertou a presidente do Comitê Internacional da Cruz Vermelha, Mirjana Spoljaric, em um painel de discussão na conferência.
“O que vemos hoje nos diferentes contextos de violência são falhas morais face à comunidade internacional. E não queremos ver essas falhas se acelerarem atribuindo a responsabilidade pela violência, pelo controle da violência, às máquinas e aos algoritmos”, adicionou.
Inteligência artificial na guerraA inteligência artificial já está sendo usada nos campos de batalha. Os drones na Ucrânia, por exemplo, são projetados para encontrar seu próprio caminho até o alvo quando tecnologias de interferência de sinal isolam os dispositivos de seus operadores, dizem diplomatas.
Os Estados Unidos afirmaram neste mês que estavam analisando uma reportagem que revelou que os militares israelenses têm usado IA para ajudar a identificar alvos de bombardeios na Fixa de Gaza.
“Já vimos a IA cometendo erros de seleção em ambos os sentidos, grandes e pequenos, desde reconhecer erroneamente a cabeça de um árbitro como uma bola de futebol até mortes de pedestres causadas por carros autônomos incapazes de reconhecer travessias imprudentes”, ressaltou Jaan Tallinn, programador de software e investidor em tecnologia.
“Devemos ser extremamente cautelosos ao confiar na precisão destes sistemas, seja nos setores militar ou civil”, concluiu.