Meio Bit » Arquivo » Engenharia » Artista usa Assistente do Google para disparar arma e atiça debate inexistente

Artista usa Assistente do Google para disparar arma e atiça debate inexistente

Um artista criou um equipamento que controlado pelo Assistente do Google, dispara uma arma quando comandado. Muita gente está questionando as questões éticas envolvidas, mas sendo realista, não há nenhuma.

6 anos atrás

Em todas as áreas do conhecimento há uma separação entre quem é da área e quem é de fora, com percepções diferentes da realidade. A parte de inteligência artificial talvez seja a que mais gere uma percepção totalmente fora da realidade, com pessoas de fora achando que estamos a dois ou três updates do Chrome de criar a Skynet, e que robôs como o Atlas da Boston Dynamics estão prestes a quebrar seus grilhões e dominar o mundo.

Isso explica a reação geral a uma bobagem peça artística de Alexander Reben, um daqueles artistas modernos que diferem de acumuladores por de vez em quando se livrarem de parte de sua coleção por preços exorbitantes. Ele construiu uma trapizonga onde dá um comando de voz para o Assistente do Google, o equipamento reconhece o comando, aciona um solenóide, dispara uma arma de airsoft e mata uma maçã. Eis o vídeo:

Note que ele usou uma daquelas tomadas inteligentes e nem se preocupou em acionar momentaneamente o gatilho, depois do disparo o solenóide continua ativado, mas isso não importa.

O artista diz que usou peças que tinha jogadas pelo seu estúdio (não falei?) e que

"Parte da mensagem para mim inclui as consequências não-planejadas da tecnologia e a futilidade de considerar cada caso de uso"

Ele se apressou em explicar que usou uma arma mas o equipamento poderia perfeitamente acionar uma cadeira de massagem ou uma máquina de sorvete.

A discussão, nos comentários e em outros sites enveredou sobre quem seria responsável se a arma fosse de verdade e estivesse apontada para um humano. A rigor a culpa é óbvia, ele comandou o disparo, mas e se fosse algo aleatório, que a própria máquina decide?

O pessoal que faz campanha contra drones em geral não entende a tecnologia, acham que há autonomia ali, mas não reclamam de um avião convencional com um piloto. Na verdade os "drones" são aviões de controle-remoto glorificados, ao invés de um piloto estressado com medo de um talibã em seu dia de sorte com um míssil Igla, temos dois sujeitos num escritório refrigerado em Nevada, tomando refrigerante e selecionando os alvos com calma, sem stress.

Claro, de vez em quando eles se confundem e bombardeiam um casamento árabe mas quer saber? Nem dá pra culpar.

Drones no futuro terão autonomia? provavelmente, mas eu vou contar um segredo: Já era. Esse barco já partiu. Já temos máquinas que matam pra gente sem NENHUMA preocupação ética. O pesadelo dos luditas, máquinas assassinas que se rebelam e se tornam uma ameaça a todos os humanos foram criadas na China, no Século III provavelmente ou no X com mais certeza, foram as antepassadas dessas belezinhas aqui:

Minas terrestres continuam a matar décadas depois que os conflitos para os quais foram instaladas já foram esquecidos. Assim como foram as 73500 vítimas civis entre 1999 e 2009, gente de países pobres, crianças brincando ou indo pra escola, agricultores tentando tirar seu sustento da terra. Só no Vietnã a área interditada daria pra alimentar 12 mil famílias.

Aí vem um playboy de Internet dizer que medo mesmo tem de um robô com um software cheio de salvaguardas pra garantir que só acertará os caras maus?

Ah sim existe outra máquina que mata indiscriminadamente, sem intervenção humana: Arame farpado.

Em um mundo lindo e fofinho não precisaríamos matar ninguém, viveríamos em paz, de mãos dadas cantando Kumbaya, mas no mundo real todo mundo precisa se defender, e a tecnologia está cada vez mais eficiente. Ter medo dos avanços é crueldade, é dizer que você prefere mortes indiscriminadas. Hoje pulveriza-se um prédio enquanto as casas em volta no máximo perdem algumas janelas. Para conseguir os resultados do último grande ataque à Síria na Segunda Guerra seria preciso destruir a cidade inteira. Dessa vez foram 3 ou 4 prédios e zero vítimas civis.

Inteligência Artificial, sistemas especialistas, machine learning, têm se mostrado melhores do que humanos em um monte de tarefas, incluindo diagnosticar câncer de pele. Por quê o medo de usar a mesma tecnologia pra diferenciar amigos de inimigos? As chances de fogo amigo ou mortes de inocentes cairão bastante.

Exceto se a IA for desenvolvida pelas Indústrias Hammer.

A questão da responsabilidade? Isso foi decidido séculos atrás, se um escravo causa danos ou mata alguém, a responsabilidade é de seu dono, e as máquinas são (por enquanto) nossas escravas, vide a etimologia do termo "robô".

Quando e SE robôs se tornarem sencientes, quando e SE robôs ganharam status legal de indivíduos, de novo o problema estará resolvido, a responsabilidade será deles. Só que aí eles decidirão se querem participar de nossas guerras ou não.

Se eles forem feitos à imagem e semelhança de seus criadores, pode contar com isso.

Fonte: AA

Leia mais sobre: , , .

relacionados


Comentários