Pela Primeira Vez, Os Cientistas Extraíram Imagens De Pensamentos - Visão Alternativa

Índice:

Pela Primeira Vez, Os Cientistas Extraíram Imagens De Pensamentos - Visão Alternativa
Pela Primeira Vez, Os Cientistas Extraíram Imagens De Pensamentos - Visão Alternativa

Vídeo: Pela Primeira Vez, Os Cientistas Extraíram Imagens De Pensamentos - Visão Alternativa

Vídeo: Pela Primeira Vez, Os Cientistas Extraíram Imagens De Pensamentos - Visão Alternativa
Vídeo: Pensamentos e Imagens 2024, Pode
Anonim

Os neurocientistas recriaram imagens visuais dinâmicas que surgiram na cabeça enquanto assistiam a vídeos selecionados aleatoriamente. No futuro, essa tecnologia ajudará os médicos a assistir às alucinações dos pacientes na tela e aos excêntricos ricos - enviar seus sonhos para o YouTube

Um resultado fantástico foi obtido na Universidade da Califórnia em Berkeley: os sujeitos assistiram a vários vídeos do YouTube (fragmentos de filmes, trailers, etc.), enquanto um scanner de ressonância magnética registrava em detalhes a atividade de células em várias partes do córtex visual. Usando essas informações, os cientistas foram capazes de reconstruir os quadros vistos em cores e dinâmicas (veja o vídeo impressionante no final do material).

A qualidade desses clipes reconstruídos pode parecer sem importância para alguns, mas é incomparavelmente melhor e mais preciso do que o que foi obtido da cabeça de uma pessoa no primeiro experimento deste tipo.

Os cientistas, que criaram o novo programa de reconhecimento de imagens mentais, se revezavam atuando como sujeitos experimentais, já que tinham que passar muitas horas por vez dentro do tomógrafo.

Para começar, os pesquisadores registraram uma imagem da atividade cerebral enquanto assistiam a uma série de trailers de filmes de Hollywood. Os biólogos construíram um modelo de computador 3D do cérebro com grupos de células (voxels) e registraram como cada voxel responde às mudanças na forma e no movimento dos objetos na tela. Assim, foi possível obter uma correspondência aproximada entre a informação visual e o processo de seu processamento no córtex cerebral.

Para testar e ajustar o algoritmo, os cientistas o alimentaram com milhares de horas de milhões de vídeos tirados aleatoriamente do mesmo serviço do YouTube, recebendo o resultado oposto - uma atividade cerebral simulada que seria observada se uma pessoa assistisse a esses vídeos.

Quadros dos vídeos e à direita - são iguais, mas retirados da cabeça do observador

Image
Image

Vídeo promocional:

Image
Image
Image
Image

Finalmente, o algoritmo foi revertido novamente. Quando as pessoas assistiam a um vídeo de teste em um tomógrafo, o computador coletava 100 clipes da web, que provavelmente causavam essa imagem da atividade celular. Então, segundo a segundo, o programa misturou os frames desses clipes, obtendo um resultado borrado do filme, que coincidia bem com o que a pessoa observava na realidade.

(Detalhes do experimento podem ser encontrados em um artigo na Current Biology e em um comunicado de imprensa da universidade.)

“É assim que abrimos uma janela para o cinema que entra em nossas mentes”, diz o co-autor Jack Gallant. A propósito, Gallant é conhecido por nós por sua experiência com o reconhecimento por meio de escaneamento cerebral das fotografias vistas.

Os cientistas explicam por que o reconhecimento da mente por meio da tomografia magnética é difícil de implementar. Um dos problemas é que o scanner registra mudanças no fluxo sanguíneo através do córtex, e elas ocorrem muito mais lentamente do que a mudança dos sinais nervosos.

É por isso que anteriormente tal truque só podia ser executado com imagens estáticas. “Resolvemos esse problema criando um modelo de dois estágios que descreve as células nervosas e os sinais do fluxo sanguíneo separadamente”, diz Shinji Nishimoto, principal autor do estudo.

Pode levar uma década para que a nova tecnologia seja aplicada de forma prática. Mas, já nessa forma bruta, é capaz de ajudar os neurofisiologistas a entender melhor o que está acontecendo na cabeça humana.

Leonid Popov

Recomendado: