metropoles.com

Riscos da IA em armamentos autônomos (por Felipe Sampaio)

O avanço fascinante da inteligência artificial desperta o debate geopolítico

atualizado

Compartilhar notícia

Google News - Metrópoles
Yuichiro Chino/Getty Images
Foto colorida de robô teclando em quadro azul com números
1 de 1 Foto colorida de robô teclando em quadro azul com números - Foto: Yuichiro Chino/Getty Images

O avanço fascinante da inteligência artificial desperta o debate geopolítico, as preocupações éticas e especulações fantasiosas, a exemplo de tantos outros saltos tecnológicos ocorridos na nossa história.

Nas aplicações militares, o terreno é fértil para a imaginação das consequências de um uso em larga escala da I.A. Basta lembrarmos do supercomputador Hal 9000, do filme 2001 Uma Odisseia no Espaço, ou das rebeliões de máquinas inteligentes nas séries MATRIX ou O Exterminador do Futuro.

Mais próximo ainda da nossa realidade atual está o filme Stealth Ameaça Silenciosa, onde um jato militar comandado por I.A. toma decisões autônomas durante uma missão e se insurge contra seus próprios controladores ao tentarem desativá-lo e abatê-lo.

Um ponto importante na discussão do uso de armas autônomas se refere ao aprofundamento das desigualdades entre as nações porque, assim como ocorre com as armas nucleares, poucos países terão recursos para equiparem suas forças armadas com armamentos movidos a inteligência artificial.

Outra preocupação inevitável com o uso militar da I.A. diz respeito à responsabilidade pelas decisões tomadas por equipamentos autônomos. Qual é o grau de autonomia que se pode atribuir a uma máquina? Quem responde pelas suas decisões erradas é o comandante, o operador, o fabricante, o governo? É suficiente atribuir a culpa por um massacre de população civil a uma “falha mecânica”?

Um talento adicional da tecnologia I.A. é a sua possiblidade de aprender. O Machine Learning (Aprendizado de Máquina) permite aos equipamentos acumular e analisar tantas informações que seus algoritmos adquirem uma capacidade crescente semelhante (ou superior?) ao raciocínio humano. Nesse caso, até onde, e o quê, uma máquina está autorizada a aprender? Ao aprender para atingir determinado objetivo, a máquina poderá decidir inclusive mudar seu objetivo?

Há rumores de que mísseis e drones semiautônomos já estão em uso na guerra da Ucrânia. Organizações como Human Rights Watch e o movimento Stop Killer Robots alertam para os riscos de danos colaterais civis e de desequilíbrio geopolítico.

Enquanto isso, OTAN, EUA, Rússia e China avançam no desenvolvimento de tecnologias e de normativas que possibilitem o uso militar da I.A. com razoável controle humano e com garantias de respeito ao direito internacional e aos acordos sobre guerras.

Nesse cenário, o que se tem atualmente é, de um lado, a ausência de uma regulamentação adequada por parte das Nações Unidas ou de fóruns internacionais especializados e, de outro, a disposição das indústrias de Defesa e de tecnologia para a inauguração da era das ‘guerras inteligentes’ (se é que existe alguma inteligência no ato de guerrear).

 

Felipe Sampaio: atual diretor do Sistema Nacional de Informações de Segurança Pública SINESP; chefiou a assessoria dos ministros da Defesa e da Segurança Pública; foi secretário-executivo de segurança urbana do Recife; cofundador do Centro Soberania e Clima.

Quais assuntos você deseja receber?

Ícone de sino para notificações

Parece que seu browser não está permitindo notificações. Siga os passos a baixo para habilitá-las:

1.

Ícone de ajustes do navegador

Mais opções no Google Chrome

2.

Ícone de configurações

Configurações

3.

Configurações do site

4.

Ícone de sino para notificações

Notificações

5.

Ícone de alternância ligado para notificações

Os sites podem pedir para enviar notificações

metropoles.comBlog do Noblat

Você quer ficar por dentro da coluna Blog do Noblat e receber notificações em tempo real?