Ao Nos Tornarmos Ciborgues, Podemos Proteger Nossos Cérebros De Hackers? - Visão Alternativa

Ao Nos Tornarmos Ciborgues, Podemos Proteger Nossos Cérebros De Hackers? - Visão Alternativa
Ao Nos Tornarmos Ciborgues, Podemos Proteger Nossos Cérebros De Hackers? - Visão Alternativa

Vídeo: Ao Nos Tornarmos Ciborgues, Podemos Proteger Nossos Cérebros De Hackers? - Visão Alternativa

Vídeo: Ao Nos Tornarmos Ciborgues, Podemos Proteger Nossos Cérebros De Hackers? - Visão Alternativa
Vídeo: Antropologia Do Ciborgue, as vertigens do pós-humano. 2024, Pode
Anonim

O rápido desenvolvimento do campo das interfaces cérebro-máquina e da neuroprostética está gradualmente nos levando a uma revolução nos métodos de tratamento e suporte para pessoas com paralisia. Ao mesmo tempo, essas tecnologias no futuro podem ter uma aplicação mais universal e se tornar um ponto de partida para a evolução futura da humanidade e sua transição para uma nova espécie - os ciborgues. Mas antes de atingirmos tais alturas, precisamos ter certeza de que tais dispositivos neurais são completamente confiáveis, seguros e completamente protegidos de influências externas - ataques de hackers, para simplificar.

Com sonhos de nosso brilhante futuro cibernético, pesquisadores do Wyss Center for Bio and Neuroengineering na Suíça (Wyss Center for Bio and Neuroengineering) publicaram seu trabalho "Ajuda, esperança e exagero: dimensões éticas da neuroprostética" no portal da Ciência. A tarefa de seus autores não é apenas descrever as oportunidades que o campo da neurotecnologia abrirá diante de nós, mas também chamar a atenção do público para os perigos que podem estar à nossa espera no caminho para esse futuro de ultra-alta tecnologia. E é importante notar que os autores desenvolveram várias maneiras que irão mitigar problemas potenciais antes mesmo que eles surjam.

Image
Image

Sem mencionar que o rápido desenvolvimento da neurotecnologia está se tornando impossível hoje. Engenheiros e pesquisadores estão desenvolvendo e melhorando ativamente as interfaces cérebro-máquina que permitirão que pessoas paralisadas recuperem o controle sobre seus membros, amputados - para controlar efetivamente as próteses robóticas e pacientes com deficiência de fala para restaurar a capacidade devido à capacidade de transmitir seus pensamentos. Surpreendentemente, já há muito progresso nessa direção. Os cientistas criaram um exoesqueleto que permite a uma pessoa com os membros inferiores paralisados bater na bola. Um macaco de laboratório paralítico foi ensinado a controlar uma cadeira de rodas com seus pensamentos. A interface cérebro a cérebro em desenvolvimento permitiu que uma pessoa controlasse os movimentos dos membros de outras pessoas. Cada uma dessas inovações tecnológicas nos permite aprender um pouco mais sobre o cérebro e como ele funciona. Mas o mais importante é que todas essas tecnologias têm o potencial de restaurar a autonomia e a independência de pessoas amputadas e paralisadas.

É hora de dizer olá para o futuro: robôs controlados pelo cérebro humano, como na foto acima, já começam a entrar no nosso dia a dia
É hora de dizer olá para o futuro: robôs controlados pelo cérebro humano, como na foto acima, já começam a entrar no nosso dia a dia

É hora de dizer olá para o futuro: robôs controlados pelo cérebro humano, como na foto acima, já começam a entrar no nosso dia a dia.

Mas todas essas tecnologias, infelizmente, têm uma desvantagem. Como o diretor do Wyss Center, John Donoghue, aponta, sérias questões éticas estão começando a surgir em torno desta área, então é hora de começar a pensar sobre como a neuroprostética e o campo do desenvolvimento da interface cérebro-máquina podem enfrentar abusos no futuro, bem como como a partir disso proteja-se.

“Apesar de ainda não entendermos totalmente como o cérebro funciona, estamos nos aproximando do ponto em que podemos decodificar adequadamente certos sinais cerebrais. Portanto, devemos estar cientes do impacto que tudo isso pode ter na sociedade”, comenta Donoghue.

"Devemos considerar cuidadosamente as prováveis conseqüências de viver lado a lado com máquinas semi-inteligentes controladas pelo cérebro humano, e devemos ter mecanismos já desenvolvidos que podem nos convencer de sua segurança e conformidade com nossos padrões morais e éticos."

Vídeo promocional:

O Wyss Center está preocupado que, com a integração mais ampla desses neurodispositivos em nossa vida diária, as capacidades desses instrumentos se expandam. Eles se tornarão mais versáteis. Já as interfaces cérebro-máquina podem ser usadas para controlar um braço robótico para pegar uma xícara ou, olhando para a tela de um computador, selecionar uma palavra específica em um texto. Mas algum dia esses dispositivos, só que mais avançados, serão usados tanto por um trabalhador de emergência para eliminar um perigoso vazamento de gás quanto pela mãe de uma criança que não tem mãos extras suficientes para acalmar o choro do bebê.

Se algo der errado nesses casos, por exemplo, o braço robótico semiautomático do trabalhador gira o guindaste errado ou a mãe acidentalmente deixa cair seu filho dos braços robóticos, é importante se perguntar: onde começa e termina a área de responsabilidade e quem deve ser considerado culpado em tais casos ? O sistema jurídico do futuro terá que determinar se isso é responsabilidade do fabricante do produto robótico (um defeito ou erro de software foi encontrado no design) ou do usuário (uso indevido ou influência externa não autorizada na integridade do design do produto).

Para minimizar tais problemas potenciais, os autores do trabalho discutido hoje propõem que qualquer sistema semiautônomo seja equipado com uma função de bloqueio automático e, em caso de uso impróprio ou não planejado, seja ativado contornando o canal de comunicação direto cérebro-computador. Se um membro artificial começar a realizar ações que o usuário não pretendia realizar, essa "troca" poderá tomar a decisão de desativar instantaneamente o sistema, evitando possíveis problemas.

Outro aspecto que preocupa os pesquisadores é a segurança da privacidade do usuário e a necessidade de proteger as informações pessoais que seriam registradas por esses sistemas. É muito provável que sistemas baseados na interface cérebro-computador coletem uma grande variedade de informações sobre o estado neurológico do usuário, após o que serão transmitidas ao computador. Naturalmente, tal esquema não pode deixar de levantar algumas preocupações sobre a proteção de dados confidenciais. Segundo pesquisadores do Wyss Center, as informações coletadas podem ser roubadas e utilizadas de forma inadequada.

“Proteger informações neurológicas privadas sobre pessoas completamente paralisadas e usar interfaces cérebro-computador como o único meio possível de comunicação com o mundo exterior é especialmente importante”, diz Niels Bierbaumer, pesquisador sênior do Wiess Center.

“A calibração bem-sucedida dos sistemas cérebro-computador dependerá, entre outras coisas, de como seus cérebros respondem a questões pessoais sobre sua família, como nome, idade e estado civil dos filhos, e assim por diante. Para todas as pessoas envolvidas neste caso, deve ser fornecido um rígido sistema de proteção de dados pessoais, o qual será necessário para o correto funcionamento das funções do dispositivo. Estamos falando tanto de informações que serão esclarecidas com o auxílio de dúvidas pessoais, quanto de informações neurológicas do paciente”.

Ainda mais preocupados, os pesquisadores do Wyss Center são a possibilidade de hackeamento digital de um dispositivo conectado ao cérebro por hackers, o que poderia realmente colocar em risco a vida do usuário do dispositivo. Com a ajuda do chamado "hacking cerebral", podem ser realizadas manipulações maliciosas com implantes cerebrais. Os hackers serão capazes de obter controle sobre os movimentos de membros robóticos humanos.

Uma possível solução para este problema incluirá um maior nível de criptografia de informações, a criação de segurança de rede confiável e um canal de comunicação aberto entre o fabricante do produto e seu usuário. A maioria dessas medidas propostas será um desafio para implementar, apenas devido à provável falta de padrões universais que se apliquem aos sistemas de segurança. A partir disso, os especialistas do Wyss Center acreditam que é chegado o momento de começar a pensar nos caminhos que permitirão a todos coordenar e desenvolver padrões industriais universais para o desenvolvimento e integração das medidas de proteção necessárias.

“Alguns dos temores apontados pelos autores do artigo podem um dia se transformar em problemas reais. Portanto, concordo que o desenvolvimento de alguns padrões universais é necessário agora, para que mais tarde não nos encontremos em uma situação em que seja tarde demais”, comenta Adam Kuyper, pesquisador sênior do Centro de Estudos de Ética e Opinião Pública.

E ainda, Kuiper, que não participou da redação do trabalho discutido, é parcialmente cético sobre a opção em que alguém ainda deseja hackear a interface cérebro-computador de uma pessoa completamente paralisada ou a interface usada como um canal de feedback neural entre uma pessoa e os sistemas de treinamento., ou seja, programas que usam métodos não invasivos de varredura do cérebro, como máquinas de eletroencefalografia, sistemas para treinar seu comportamento, reduzir o estresse, meditação e assim por diante.

“Como um hacker pode se beneficiar de tal hack? Praticamente nenhum. Obviamente, as preocupações com a segurança e a proteção das informações pessoais podem se tornar um assunto importante no futuro. Mas me parece que esta é uma conversa prematura."

Kuiper acrescenta que os maiores temores em torno da introdução de interfaces cérebro-computador e robôs semiautônomos podem ser comparados ao nível de entusiasmo da sociedade sobre a robotização global, que promete ser o próximo passo no desenvolvimento de nossa vida social. E embora Kuiper concorde com alguns aspectos, em sua opinião, o problema geral, pelo menos por enquanto, parece mais rebuscado do que real.

“Os autores do trabalho acreditam que não devemos aumentar muito a alfabetização médica da população e sua consciência das peculiaridades de funcionamento dos sistemas neurofisiológicos que serão utilizados nesses tipos de próteses. Mas isso é um absurdo”, diz Kuiper.

Em sua opinião, é improvável que a própria sociedade mostre um grande interesse por tópicos altamente especializados. No entanto, o especialista admite que muitas vezes é muito difícil encontrar o momento certo para iniciar um diálogo público sobre questões éticas e sociais sobre a integração maciça de novas tecnologias em nossa vida diária.

“Sempre existe o risco de fazer tais afirmações muito cedo, quando nós próprios ainda não sabemos se realmente enfrentamos um problema sério. Já houve tais precedentes. Tomemos, por exemplo, a nanoética, cujos adeptos há uma década, sem realmente entender o assunto, levantaram alarido, dizendo que a nanotecnologia avançada apareceria quase instantaneamente, e até mesmo tentaram construir sobre isso uma disciplina acadêmica real. Mas no final descobriu-se que o desenvolvimento da nanotecnologia é um processo muito mais flexível e tranquilo."

“Acho que, desse ponto de vista, os autores da obra hoje discutida só podem ser elogiados. Elogios pelo fato de expressarem seus medos não com afirmações radicais, mas com explicações bastante calmas”, comenta Kuyper.

Claro, os pesquisadores do Wyss Center levantaram um tópico muito importante. Mais cedo ou mais tarde, as tecnologias hoje descritas entrarão no nosso dia-a-dia e servirão de suporte não só para pessoas com deficiência, mas também para pessoas completamente saudáveis.

No futuro, as interfaces cérebro-computador não invasivas podem ser usadas para criar uma espécie de conexão telecinética com o mundo exterior, na qual podemos controlar a iluminação da casa com nossos pensamentos ou, pelo menos, apenas mudar os canais de TV. Em outras palavras, um maior progresso será capaz de transformar essas tecnologias em uma forma tecnológica de telepatia. Já os pesquisadores do Wyss Center, sua mensagem principal é que estamos preparados para isso e podemos prevenir o uso de tais tecnologias para fins maliciosos.

NIKOLAY KHIZHNYAK

Recomendado: