Meio Bit » Arquivo » Robótica e IA » MIT apresenta Norman, a primeira inteligência artificial "psicopata"

MIT apresenta Norman, a primeira inteligência artificial "psicopata"

Alimentada por uma grande quantidade de imagens perturbadoras do Reddit, a IA Norman demonstra comportamento psicopata e só enxerga violência nos testes de Rorschach; estudo demonstra o quão influenciável um sistema especialista pode ser, se os dados de entrada forem tendenciosos.

6 anos atrás

O Laboratório de Mídia do MIT (Massachusetts Institute of Technology) continua brincando com inteligências artificiais. Após desenvolver a Shelley, um sistema especialista voltada para escrever histórias de terror e a Deep Emphaty, capaz de criar empatia, os pesquisadores deram vida à Norman, uma IA com tendências psicopatas.

A escolha do nome não foi por acaso: o sistema foi batizado em homenagem a Norman Bates, personagem interpretado por Anthony Perkins em Psicose, a obra-prima de Alfred Hitchcock. Para tornar a rede neural tão pirada quanto o original, o time de pesquisadores do MIT a alimentou com uma grande quantidade de imagens perturbadoras, violentas e pesadas das profundezas do Reddit (o nome da fonte não foi revelado) e a treinou para criar legendas para imagens.

A seguir Norman foi submetido ao Teste de Rorschach, usado para detectar distúrbios psicológicos e comportamentais, e as respostas foram comparadas com de uma rede padrão de legenda de imagens. Como resultado, a IA treinada para ter um olho doentio só enxerga violência e assassinato em todas as manchas de tinta que lhe foi pedido a identificar.

O objetivo do estudo é descobrir o quão influenciável um sistema especialista pode ser, caso os dados de entrada sejam tendenciosos. Como uma IA fraca só é capaz de identificar padrões tendo como base as informações com as quais foi alimentada, dependendo da aplicação ela pode ser programada para favorecer ou prejudicar grupos de indivíduos injustamente, com os interessados protegidos pelo argumento "a culpa é do algoritmo". No entanto, sempre há humanos por trás do código.

E já existem iniciativas voltadas a evitar abusos nesse sentido: em 2017 um Projeto de Lei de Nova Iorque previa originalmente que todas as agências que baseiam suas informações em algoritmos fossem obrigadas a disponibilizar o código-fonte dos sistemas para consulta pública, assim os próprios cidadãos poderiam verificar se os métodos de avaliação e identificação são mesmo justos (as aplicações vão desde multas de trânsito a análise de crédito). No entanto, a versão final determina apenas a criação de uma força-tarefa para monitorar as IAs.

Com informações: MIT.

relacionados


Comentários