ONU questiona uso de ‘robôs assassinos’ em guerras

A Organização das Nações Unidas (ONU) está preocupada com o desenvolvimento dos robôs LARs (Robôs Autônomos Letais, na sigla em inglês) que tem autonomia de decidir quem ou o que destruir.

Pode um robô fazer a distinção entre alvos militares e civis? Entre soldados lutando e os que querem se render?

X-47B-UCAV-2

Quem será responsabilizado por erros, já que robôs não podem ser julgados por crimes de guerra?

Essas são algumas das questões que estão sendo levantadas pela organização, que propõe uma moratória no desenvolvimento desse tipo de armamentos, uma nova geração de máquinas que atacam de forma independente, com autonomia de decisão – ao contrário dos ‘drones’, por exemplo, os aviões não tripulados usados pelos EUA nos Afeganistão, que respondem a comando humano.

Segundo Christof Heyns, relator especial da ONU para execuções extrajudiciais, essa suspensão permitiria um envolvimento internacional significativo no debate sobre a ética do uso dos Robôs Autônomos Letais em conflitos armados.

Acredita-se que Estados Unidos, Grã-Bretanha e Israel estejam desenvolvendo esse tipo de robô, no entanto, esses países não mostraram interesse em se comprometer com a moratória proposta pela ONU.

Fonte: BBC Brasil

11 Comentários

  1. Não existem armas autônomas ainda. O que existem são IFF(indentification friendly or foe). Porém eles definem o que são ou não aliados, não são capazes de distinguir civis de alvos militares inimigos. Além do mais, não muda nada ter um robô ou um humano matando. De qualquer jeito ninguém vai ser punido porque país nenhum extraditaria seus próprios militares(ou vocês viram algum militar da OTAN, EUA, UK, Rússia ou de qualquer outro lugar pagando por suas atrocidades cometidas no campo de batalha?) Esse povo tá vendo exterminador do futuro demais e tá viajando na maionese. Mesmo que fossem criados sistemas do tipo eles seriam limitados por quão bom fosse o algoritmo criado para distinguir entre alvos e não alvos. Não errariam nem mais nem menos que humanos, lembrando que eles não seriam verdadeiras IAs e portanto ainda obedeceriam ordens. Ou seja, se ordenado a atacar um alvo ele o faria, independente do que lá estiver localizado. Não muito diferente do que qualquer piloto de caça faria.

    • Muito bem explicado Lucas Senna, concordo com tudo que você disse muito lúcida a sua explicação ! Ainda mais quando você diz:
      ”Esse povo tá vendo exterminador do futuro demais e tá viajando na maionese…”

    • Lucas Senna,

      Armas altonomas já existem… Mísseis como o Tomahawk poderiam ser considerados como tal, sendo capazes de voar sem interferência humana, utilizando seus próprios meios para orientar-se.

      A função do IFF é justamente permitir a distinção de alvos no espaço aéreo, interrogando aeronaves civis e militares. Ou seja, podém perfeitamente dizer quem é civil ou não…

      • Não me referi entre aeronaves e sim entre humanos. Um sistema IFF não identifica entre civis e alvos inimigos. Ele pode até possuir algoritmos para detectar entre um em outro baseado nos movimentos e no formato do corpo, objetos na mão etc… Mas como disse, estão limitados ao algoritmo usado para prever o comportamento e discernir se é de um aliado ou agressor. E nossa programação ainda é muito primitiva, especialmente na área de prever ameaças e movimentos.
        O Tomahawk não é exatamente uma arma autônoma, ele não decide o alvo, que previamente determinado pelo operador. É esse tipo de autonomia que estamos falando aqui na matéria, da máquina definir o que é um alvo válido ou não, e decidir entre engajar ou não.

      • Lucas Senna,

        A função do IFF é tão e somente proteger o aliado para evitar fogo amigo; e nada mais que isso… Evidente que vai se depender de outros sensores e de um trabalho de inteligência refinado para identificar alvos no chão que sejam ou não inimigos.

        Mesmo que o Tomahawk não decida quem é o alvo, o fato é que ele vai até o mesmo pelos seus próprios meios. Por tanto, pode ser considerado um princípio de arma autônoma…

        Um sistema muito interessante ( e que se aproxima muito desse conceito ) é o UAV israelense Harpy. Ele pode identificar e atacar sistemas de defesa anti-aérea. Caso o mesmo pare de emitir, ele pode abortar o ataque e retornar a sua órbita, mantendo-se até que a oportunidade apareça de novo…

      • Quanto ao IFF era exatamente isso que eu queria dizer. Ele evita fogo aliado, mas não impede baixas civis.
        Você está falando mais ou menos o que quero dizer e nem percebeu. Como você bem disse o Harpy detecta sistemas antiaéreos, que emitem uma série de ondas eletromagnéticas bem características, ou seja, é mais fácil saber com certeza do que se trata. O problema é que no texto os caras tão viajando, pensando em armas não autônomas, mas em sistemas de armas completamente independentes, verdadeiras IAs, formas de vida sintéticas. O que não passa de ficção científica. Até criarmos uma máquina consciente de si mesma, vai se levar séculos afio. Como já disse em outro post parecido, não sabemos definir nem o que é inteligência, como pretendemos criar uma? O povo tá achando que criar uma singularidade(no sentido computacional da coisa) é fácil, é mera questão de poder de processamento, típico pensamento de ignorantes.

      • Lucas Senna,

        Perfeito!

        Creio que chegamos a um ponto comum.

        Dos sistemas atuais para uma inteligência artificial seria um mundo de diferenças. E por mais que se elaborem teorias, fica dificil estabelecer o que seria uma inteligência artificial se mesmo o conceito de inteligência segue sem uma definição a contento…

        Concordo com sua argumentação acerca do Harpy. É muito mais fácil saber o que é o que quando se tem um padrão tão claro e definido como as ondas eletromagnéticas emitidas pelos sistemas que ele deve atacar…

Comentários não permitidos.