sábado, 13 de dezembro de 2014

Armas dirigidas por robôs, não por seres humanos, levantam questões éticas

Avião de guerra dos EUA solta míssil projetado para 
selecionar e atacar alvos sem supervisão humana

Em um dia ensolarado de outono no ano passado, além da costa do sul da Califórnia, um bombardeiro B-1 da Força Aérea lançou um míssil experimental, que pode anunciar o futuro das guerras. 

Inicialmente, os pilotos a bordo do avião direcionaram o míssil, mas na metade do percurso até seu destino, ele rompeu a comunicação com seus operadores. Sozinho, sem supervisão humana, o míssil decidiu qual dos três navios atacar, baixando pouco acima da superfície do mar e atingindo um cargueiro não tripulado de 79 metros.

O teste foi considerado um sucesso militar. Mas o projeto desse novo míssil e de outras armas que podem escolher alvos por conta própria tem provocado protestos de alguns analistas e cientistas, que temem que um limiar ético está sendo cruzado.

Os fabricantes de armas, eles dizem, estão dando os primeiros passos para o desenvolvimento de máquinas de guerra robóticas que fazem uso de software, e não de instrução humana, para decidir o que atacar e quem matar. A velocidade com que essas armas calculam e se movem fará com que sejam cada vez mais difíceis de serem controladas pelos seres humanos, dizem os críticos –ou para que se defendam delas.

E alguns cientistas temem que ao visar reduzir mortes indiscriminadas e automatizar o conflito armado, essas armas possam algum dia tornar a guerra mais admissível, até mesmo mais provável.

Os drones (aeronaves não tripuladas) convencionais são operados por pilotos a distância, e mísseis teleguiados são direcionados por humanos. Mas agora o Reino Unido, Israel e a Noruega estão implantando mísseis e drones que realizam ataques contra radares, tanques ou navios inimigos sem controle humano direto.

Após o lançamento, eles empregam inteligência artificial e seus próprios sensores para selecionar alvos e iniciar um ataque.

Os mísseis Brimstone "dispare e esqueça" do Reino Unido, por exemplo, podem distinguir entre tanques, carros e ônibus sem assistência humana, e podem caçar alvos em uma região predeterminada sem supervisão. Os Brimstones também se comunicam uns com os outros, compartilhando seus alvos.

Armamentos autoguiados ainda mais avançados --chamadas de armas autônomas-- estão sendo projetados, apesar dos detalhes geralmente serem mantidos em segredo.

"Uma corrida armamentista de armas autônomas já está ocorrendo", disse Steve Omohundru, um físico e especialista em inteligência artificial da Self-Aware Systems, um centro de pesquisa de Palo Alto, Califórnia. "Elas podem responder mais rápido, de modo mais eficiente e com menor previsibilidade."

Na última quinta-feira, representantes de dezenas de nações se reunirão em Genebra para considerar se o desenvolvimento dessas armas deve ser restringido pela Convenção sobre Certas Armas Convencionais. Christof Heyns, o relator especial da ONU para execuções extrajudiciais, sumárias ou arbitrárias, pediu no ano passado por uma moratória no desenvolvimento dessas armas.

O próprio Pentágono emitiu uma diretriz obrigando autorização de alto nível para o desenvolvimento de armas capazes de matar sem supervisão humana. Mas o avanço rápido da tecnologia já tornou a diretriz obsoleta, dizem alguns cientistas.

"Nossa preocupação é a respeito de como os alvos são determinados, e mais importante, quem os determina", disse Peter Asaro, um cofundador e vice-presidente do Comitê Internacional para Controle de Armas Robóticas, um grupo de cientistas que defende restrições ao uso de robôs militares. "Os alvos serão determinados por humanos? Ou os sistemas decidirão automaticamente qual é o alvo?"

Fabricantes de armas nos Estados Unidos foram os primeiros a desenvolver armas avançadas autônomas. Uma versão inicial do míssil de cruzeiro Tomahawk tinha a capacidade de caçar navios soviéticos no horizonte, sem controle humano direto. Ele foi retirado de uso no início dos anos 90, após um tratado de armas nucleares com a Rússia.

Em 1988, a Marinha testou um míssil antinavios Harpoon que empregava uma forma inicial de autoguiagem. O míssil confundiu um cargueiro indiano, que entrou por engano na área de teste, com seu alvo. O Harpoon, que não possuía ogiva, atingiu a ponte do cargueiro, matando um tripulante. 

Apesar do acidente, o Harpoon se tornou padrão entre os armamentos navais e permanece amplamente em uso.

Nos últimos anos, inteligência artificial começou a suplantar a tomada de decisão humana em uma série de campos, como negociação de ações em alta velocidade e diagnóstico médico, e até mesmo em carros autoguiados. Mas os avanços tecnológicos em três áreas em particular tornaram as armas autônomas uma possibilidade real.

Novos tipos de sensores de radar, laser e infravermelho estão ajudando mísseis e drones a calcular melhor sua posição e orientação. "Visão de máquina", que lembra a dos seres humanos, identifica padrões em imagens e ajuda as armas a distinguirem alvos importantes. Essa informação cheia de nuances dos sensores pode ser rapidamente interpretada por sistemas sofisticados de inteligência artificial, permitindo ao míssil ou drone realizar sua própria análise durante o voo. O hardware de computador responsável por tudo isso se tornou relativamente barato –e descartável.

O míssil testado além da costa da Califórnia, o Míssil Antinavio de Longo Alcance, está sendo desenvolvido pela Lockheed Martin para a Força Aérea e para a Marinha. Ele foi projetado para voar centenas de quilômetros, manobrando por conta própria para evitar radar e sem contato por rádio com os controladores humanos.

Em uma diretriz publicada em 2012, o Pentágono traçou uma linha divisória entre armas semiautônomas, cujos alvos são escolhidos por um operador humano, e armas plenamente autônomas, que podem caçar e travar em alvos sem intervenção.

As armas do futuro, dizia a diretriz, devem ser "projetadas para permitir que comandantes e operadores exerçam níveis apropriados de julgamento humano sobre o uso de força".

Todavia, o Pentágono argumenta que o novo míssil antinavio é apenas semiautônomo e que os seres humanos estão suficientemente representados em suas decisões de escolha de alvo e matar. Mas representantes da Agência de Projetos de Pesquisa Avançada de Defesa, que inicialmente desenvolveu o míssil, e da Lockheed se recusaram a comentar sobre como as armas decidem os alvos, dizendo que a informação é confidencial.

"Ele operará de forma autônoma na busca pela frota inimiga", disse Mark Gubrud, um físico e um dos primeiros críticos das chamadas armas inteligentes. "Isso é algo bastante sofisticado, que eu chamaria de inteligência artificial fora do controle humano."

Paul Scharre, um especialista em armas atualmente no Centro para a Nova Segurança Americana, que lidera um grupo de trabalho que redigiu a diretriz do Pentágono, disse: "É válido perguntar se isso cruza a linha". 

Alguns especialistas em controle de armas dizem que exigir apenas controle humano "apropriado" para essas armas é vago demais, acelerando o desenvolvimento de novos sistemas de determinação de alvos que automatizam o matar.

Heyns, da ONU, disse que as nações com armas avançadas deveriam concordar em limitar seus sistemas de amas a aqueles com controle humano "significativo" sobre a seleção e ataque a alvos. "Deve ser semelhante ao papel que um comandante exerce sobre suas tropas", disse Heyns.

Sistemas que permitem aos seres humanos passar por cima das decisões do computador podem não atender esse critério, ele acrescentou. Armas que tomam suas próprias decisões se movem tão rapidamente que os supervisores humanos logo serão incapazes de acompanhar. Mas muitas delas são projetas explicitamente para permitir que os operadores humanos abram mão dos controles.

O míssil antirradar de Israel, o Harpy, aguarda no céu até que um radar inimigo é ativado. Ele então ataca e destrói a instalação de radar por conta própria.

A Noruega planeja equipar sua frota de caças avançados com o Míssil de Ataque Conjunto, que pode caçar, reconhecer e detectar um alvo sem intervenção humana. Os oponentes o chamam de "robô assassino". Analistas militares como Scharre argumentam que armas automatizadas como essas deveriam ser abraçadas: a guerra guiada por software pode resultar em menos mortes em massa e baixas civis. As armas autônomas, eles dizem, não cometem crimes de guerra.

Em 16 de setembro de 2011, por exemplo, aviões de guerra britânicos dispararam duas dúzias de mísseis Brimstone contra um grupo de tanques líbios que disparavam contra civis. Oito ou mais dos tanques foram destruídos simultaneamente, segundo um porta-voz militar, poupando as vidas de muitos civis.

Seria difícil para operadores humanos coordenarem o enxame de mísseis com precisão semelhante. 

"Armas melhores e mais inteligentes são boas se puderem reduzir as baixas civis ou as mortes indiscriminadas", disse Scharre.

Fonte: John Markoff - Tradutor: George El Khouri Andolfato

Nenhum comentário: