Meio Bit » Baú » Ciência » Pesquisadores desenvolvem modelo computacional capaz de ler caracteres diretamente no cérebro

Pesquisadores desenvolvem modelo computacional capaz de ler caracteres diretamente no cérebro

Nova pesquisa consegue fazer com que computador identifique padrões cerebrais e os traduza na forma de letras observadas pelos voluntários

22/08/2013 às 9:02

brains-003 Veja bem, não é uma leitura ao pé da letra, mas pesquisadores dos Países Baixos desenvolveram um interessante método utilizando ressonância magnética funcional e modelagem computacional para conseguir identificar caracteres através de modelos do cérebro de voluntários, enquanto estes a observam.

O estudo, ainda bem preliminar foi revelado por uma equipe da Radboud University Nijmegen. Para começar, o voluntário é induzido a observar uma letra. Enquanto isso, uma ressonância magnética funcional é realizada. De forma similar à ressonância tradicional, a funcional também gera imagens do cérebro, mas ela é capaz de analisar o fluxo sanguíneo do paciente e identificar as áreas com maior atividade cerebral.

As áreas mais ativas são as que consomem mais oxigênio e, por consequência, possuem mais ligações do gás à hemoglobina. A ressonância funcional é capaz de identificar essas diferenças e gerar uma imagem com as diferenças de atividade. A partir daí o cortex visual do voluntário foi seccionado (não literalmente, calma) em em uma matriz de 1.200 voxels, conhecidos como pixels em 3D. A reação dos voxels durante a observação de cada letra é anotada e o modelo computacional tenta interpretar, mas os resultados eram insatisfatórios: as letras eram praticamente indistintas umas das outras, como vemos abaixo:

brains-001

Para solucionar esse problema, o modelo computacional foi alimentado com um banco de imagens de como cada letra deveria parecer. Com isso o computador meio que aprendeu a identificar as letras, e consegue traduzir os padrões dos voxels de forma mais nítida. Ainda que soe como trapaça, não é muito diferente do que o cérebro humano faz - ele não escaneia cada letra ou palavra, mas observa e atribui um valor simbólico ao objeto observado.

brains-002

Ainda que a resolução seja muito baixa e identifique apenas letras individuais, os cientistas já estão trabalhando para utilizar uma matriz maior, analisando 15 mil voxels de uma vez. A esperança é saltar da capacidade de identificar letras para rostos. Mesmo estando nos estágios iniciais a premissa é interessante e pode ajudar em diversas áreas, ainda que vá demorar muito para chegar em algo remotamente próximo do que costumamos ver na ficção, então acalmem-se, não teremos nada como Minority Report por enquanto.

A versão preliminar do estudo foi publicado na revista NeuroImage.

Fonte: ET.

relacionados


Comentários