Armas autônomas: o perigo dos drones de guerra
Politica
Publicado em 01/08/2022

Uma fantasia circunscrita aos romances e aos filmes de ficção científica? Antes, uma realidade que se aproxima rapidamente, que nenhum acordo internacional parece ser capaz de impedir por enquanto

 

A reportagem é de Nicolas Celnik, publicada por Socialter. A tradução é do Cepat.

 

É uma ameaça que pode abalar as relações internacionais em um futuro próximo: ano após ano, aproximamo-nos da era das armas autônomas. Em dezembro de 2021, uma cúpula convocada em Genebra para tratar da questão da proibição dos sistemas de armas autônomas letais (LAWS) no âmbito da conferência de revisão da Convenção das Nações Unidas sobre o emprego de certas armas convencionais (CCAC), sob a presidência da França.

 

É esta reunião das Nações Unidas, a sexta da sua história, que decide sobre a proibição do uso de arsenais específicos – como foi o caso das armas químicas em 1993. Segundo alguns observadores, era o agora ou nunca para o 125 Estados Partes Contratantes para parar a corrida por “robôs assassinos”. Porque a velocidade com que a indústria está se desenvolvendo deixa pouco tempo para procrastinar: os especialistas estimam que o mercado de armas autônomas já representa entre 12 e 15 bilhões de dólares e que poderá chegar a 30 bilhões de dólares até o final da década. Apesar dessas previsões, a cúpula de dezembro de 2021 não chegou a um consenso para proibir as armas autônomas.

 

Mas do que exatamente estamos falando? Atualmente existe toda uma gama de armas que são descritas como “semi-autônomas”, como os drones, que são usados para cruzar o ar em missões de vigilância ou destruir veículos, como os aparelhos turcos Bayraktar TB2, que desempenharam um papel fundamental na resistência do exército ucraniano. Esses aparelhos já fazem quase tudo sozinhos: eles se movem, identificam alvos e se colocam em posição de neutralizá-los sozinhos.

 

O exército americano também está trabalhando em “enxames” de drones coordenados por inteligência artificial para aumentar seu poder de ação. Mas mesmo esses sistemas não fazem nada até que a instrução para disparar seja dada a eles remotamente por um humano. As armas e os drones autônomos “utilizam a inteligência artificial para explorar alvos, identificá-los como inimigos e tomar ações letais contra eles sem a participação humana”, escreve o jornalista Mathew J. Schwartz. E isso muda tudo.

 

O desenvolvimento desses dispositivos, sem nenhuma surpresa, levantou uma série de preocupações tecnológicas e éticas. Imagine por um momento que um sistema autônomo seja afetado por uma falha de software: e se uma máquina de guerra ultra-avançada saísse do esquema de comando que lhe foi dado e decidisse eliminar tudo o que pudesse à sua volta? Quem deve ser contatado como responsável? O construtor, o programador, o exército…? Sem ir tão longe a ponto de considerar réplicas de “Terminators” vagando pelas ruas, também podemos apontar para outro risco, além da disfunção: a incapacidade técnica de interpretar com precisão os comportamentos humanos ou as situações.

 

Essas armas autônomas serão capazes de distinguir entre crianças brincando com armas de brinquedo e soldados apontando para elas, ou entre civis que fogem da cena de um combate e adversários que batem em retirada? Pode-se argumentar que os humanos não estão imunes às dificuldades de interpretação. No entanto, “o problema não é que as máquinas cometam esse tipo de erro e os humanos não, disse James Dawes, pesquisador de direitos humanos da Universidade de Macalester (Minnesota).

 

O problema é a capacidade, a eficiência e a velocidade desses robôs assassinos, impulsionados por um único algoritmo que controla todo um contingente”. Em outras palavras: a maior preocupação não é que ocorra um erro, mas a escala dramática que isso pode tomar. Terceiro risco, finalmente: o que aconteceria se, como os pesquisadores já conseguiram fazer, os drones fossem “hackeados” no campo de batalha? Reconfigurados para mudar de alvo e depois atirar à vontade?

 

Claro, há uma série de especialistas que defendem essas armas sob o pretexto habitual de que qualquer melhoria tecnológica é sinônimo de maior segurança para os civis no campo de batalha. Podemos, assim, ler Hitoshi Nasu, professor da academia militar americana de West Point, defendendo o uso dessas armas sob o argumento de que “os humanistas devem saudar a capacidade do drone de distinguir alvos militares para evitar ataques a civis”. Em outras palavras, em consonância com os “ataques cirúrgicos” da Guerra do Golfo para justificar uma ofensiva de bombardeio, as armas autônomas estão apenas esperando um movimento ousado para se verem também qualificadas como “limpas”.

 

Mas as preocupações com as armas autônomas não se limitam a considerações éticas e tecnológicas. Na realidade, sua existência poderia afetar sobretudo a natureza e até mesmo o número de conflitos. Para começar, onde a bomba nuclear continua a ser desenvolvida com o objetivo reivindicado de constituir uma força de dissuasão e para parar as guerras, as armas autônomas podem levar à multiplicação das operações militares. A razão é simples: “Elas contornam os dois obstáculos que historicamente limitaram o número de guerras: a preocupação com os civis e com os próprios soldados”, enfatiza James Dawes.

 

Ao reduzir o risco de perder soldados em uma zona de operações, as armas autônomas poderiam reduzir a relutância em entrar em conflito por parte das potências melhor equipadas. Ao apresentar as perdas como puramente materiais, os Estados agressores poderiam esperar minar mais facilmente qualquer oposição à guerra entre a sua população. Então, como todas as tecnologias de ponta veem suas falsificações circulando no mercado paralelo depois de algum tempo, é uma aposta segura que em pouco tempo robôs assassinos falíveis, mas de baixo custo, sejam encontrados nas mãos de grupos armados envolvidos em guerrilhas – que poderiam então transformá-los em um tráfego para o menos sinistro.

 

Diante dessas ameaças, o secretário-geral das Nações UnidasAntónio Guterres, fez um apelo já em 2020 para “medir as implicações legais, morais e éticas que o desenvolvimento de armas autónomas coloca”, acrescentando: “A minha profunda convicção é que as máquinas com a capacidade e o poder de tirar vidas sem intervenção humana devem ser proibidas pelo direito internacional”.

 

Dada a urgência do assunto, a cúpula de Genebra se reunirá novamente para alguns dias de discussão ainda em 2022. Para bom entendedor...

 

 

Comentários