Cientistas e especialistas em tecnologia querem manter inteligência artificial fora da indústria de armas

Por Mike Murphy – Texto do Quartz

Tradução, adaptação e edição – Nicholle Murmel

Talvez devêssemos levar os avisos dados por RoboCop mais a sério. Cientistas famosos, engenheiros e empresários estão se unindo para organizar um movimento contra o desenvolvimento de armas autônomas.

Em carta aberta publicada na última segunda-feira (27) pelo instituto Future of Life – um grupo de pesquisa cuja grande preocipação é assegurar que a humanidade permaneça responsável pelo futuro da tecnologia – nomes como Stephen Hawking, Elon Musk e Steve Wozniak, junto com centenas de outros pesquisadores, assinaram embaixo do pressuposto de que “iniciar uma corrida armamentista com inteligência artificial é uma má ideia”.

A carta questiona a noção de pesquisar tecnologia que possa ser usada para matar seres humanos remotamente sen que ninguém dê o comando a essas armas para fazê-lo. Por mais que hoje tenhamos tecnologia aérea que nos permite matar alguém no Oriente Médio a partir de um container de navio na fronteira de Las Vegas, não é essa a preocupação do instituto. O documento aberto afirma que o foco não são “mísseis de cruzeiro ou drones pilotados remotamente e para os quais sereshumanos tomam todas as decisões relacionadas aos alvos”.

Em vez disso, a organização chama atenção para a tecnologia facilmente replicável que pode procurar e matar pessoas tomando por base “critérios pré-definidos”.
Segundo o texto:

 “Diferente das armas nucleares, [armamentos autônomos] não exigem matéria prima cara ou difícil de obter, então podem se tornar baratos e abundantes para produção em massa por parte de todas as potências militares. Será apenas questão de tempo até que apareçam no mercado negro e nas mãos de terroristas, ditadores buscando controlar melhor suas populações, senhores da guerra perpetrando limpezas étnicas, etc. Armas autônomas são ideais para tarefas como assassinatos, desestabilização de nações, opressão de poplações e extermínio seletivo de um grupo étnico particular”.

Ainda que a tecnologia de inteligência artificial de que dispomos no momento ainda esteja lutando para ficar em pé e aprender técnicas de direção defensiva, o instituto diz que tecnologias militares que poderiam levar a robôs matando pessoas podem ser “viáveis em questão de anos, não décadas”.

Três engenheiros famosos também assinaram uma carta aberta da organização em janeiro deste ano para assegurar que as pesquisas em inteligência artificial sejam rigidamente estruturadas de modo a evitar a criação de “exterminadores do futuro”. O documento lançado na segunda-feira vem logo antes da edição de 2015 da Conferência Conjunta Internacional de Inteligência Artificial, que começou também dia 27 em Buenos Aires.

Ao longo desta semana o físico Stephen Hawking também estará respondendo perguntas no Reddit, dentro do tópico principal “tornando o futuro da tecnologia mais humano”. Usuários do Reddit já enviaram perguntas desde ontem, e Hawkings começará a responder a partir de hoje (28). Sem dúvida, alguns desses questionamentos vão tocar no papel que robôs e inteligência artificial terão em nosso futuro.

ATUALIZADO 18:02 hs

Abaixo você confere na íntegra a carta aberta publicada no portal do instituto Future of Life:

Tradução – Nicholle Murmel

Armas Autônomas: uma Carta Aberta de Pesquisadores em Inteligência Artificial e Robótica

Armamentos autônomos selecionam e engajam alvos sem intervenção humana. Eles podem incluir, por exemplo, drones com quatro hélices capazes de buscar e eliminar pessoas segundo critérios pré-definidos, mas não incluem mísseis de cruzeiro oi drones remotamente pilotados, para os quais seres humanos tomam todas as decisões em relação aos alvos. A tecnologia de inteligência artificial (IA) chegou a um ponto em que o desenvolvimento de sistemas desse tipo é – praticamente, se não legalmente – viável em questão de anos, não décadas, e os riscos são grandes: armas autônomas foram descritas como a terceira revolução da guerra, depois da pólvora e dos armamentos nucleares.

Muitos argumentos foram travados a favor e contra essas armas autônomas, por exemplo, que substituir soldados humanos por máquinas é bom por reduzir o número de baixas para o operador, mas ao mesmo tempo ruim por reduzir o limiar de quando ir à guerra. A questão-chave para a humanidade hoje é começar uma corrida armamentista com IA ou evitar que ela aconteça. Se qualquer grande potência militar fpr adiante com o desenvolvimento de armamentos com inteligência artificial, uma corrida global é virtualmente inevitável, e a linha de chegada dessa trajetória tecnológica é óbvia: armas autônomas serão as Kalashnikovs de amanhã. Diferente das armas nucleares, [armamentos autônomos] não exigem matéria prima cara ou difícil de obter, então podem se tornar baratos e abundantes para produção em massa por parte de todas as potências militares. Será apenas questão de tempo até que apareçam no mercado negro e nas mãos de terroristas, ditadores buscando controlar melhor suas populações, senhores da guerra perpetrando limpezas étnicas, etc. Armas autônomas são ideais para tarefas como assassinatos, desestabilização de nações, opressão de poplações e extermínio seletivo de um grupo étnico particular sendo assim, nós acreditamos que uma corrida armamentista com IA não traria benefícios à humanidade. Há várias maneiras de a inteligência artificial tornar os campos de batalha mais seguros para seres humanos, espcialmente civis, sem criar novas ferramentas para matar pessoas.

Assim como a maioria dos químicos e biólogos não tem interesse em criar armas químicas ou biológicas, a maioria dos pesquisadores em inteligência artificial não tem interesse em criar armas com essa capacidade – e não querem que outros corrompam sua área fazendo isso, potencialmente gerando revolta do público contra a IA e comprometendo os futuros benefícios que ela pode trazer à sociedade. Na verdade, quimicos e biólogos vieram apoiando acordos internacionais que proibiram com sucesso armas químicas e biológicas, assim como a maioria dos físicos apoia tratados banindo armas nucleares orbitando no espaço e o desenvolvimento de armas laser.

Resumindo, acreditamos que a inteligêcia artificial tem grande potencial de beneficiar a humanidade de várias formas, e que o objetivo desse campo de estudo deveria ser exatamente esse. Começar uma corrida armamentista em torno da tecnologia de IA é uma má ideia, e deve ser evitada através de uma proibição dos armamentos autônomos que vão além de qualquer controle humano significativo.

Compartilhar:

Leia também

Inscreva-se na nossa newsletter