Quando Os Robôs E A Inteligência Artificial Merecerão Os Direitos Humanos? - Visão Alternativa

Índice:

Quando Os Robôs E A Inteligência Artificial Merecerão Os Direitos Humanos? - Visão Alternativa
Quando Os Robôs E A Inteligência Artificial Merecerão Os Direitos Humanos? - Visão Alternativa

Vídeo: Quando Os Robôs E A Inteligência Artificial Merecerão Os Direitos Humanos? - Visão Alternativa

Vídeo: Quando Os Robôs E A Inteligência Artificial Merecerão Os Direitos Humanos? - Visão Alternativa
Vídeo: Robôs ja estão se unindo CONTRA NÓS, nova INTELIGÊNCIA ARTIFICIAL é ASSUSTADORA 2024, Pode
Anonim

Filmes e séries de televisão como Blade Runner, People e Westworld, onde nos mostram robôs de alta tecnologia que não têm direitos, não podem deixar de preocupar as pessoas com consciência. Afinal, eles não apenas mostram nossa atitude extremamente agressiva em relação aos robôs, mas também nos envergonham como espécie. Todos estamos acostumados a pensar que somos melhores que os personagens que vemos na tela, e quando chegar a hora, tiraremos as conclusões certas e nos comportaremos com máquinas inteligentes com muito respeito e dignidade.

A cada passo do progresso na robótica e no desenvolvimento da inteligência artificial, estamos nos aproximando do dia em que as máquinas se equiparão às capacidades humanas em todos os aspectos da inteligência, consciência e emoção. Quando isso acontecer, teremos que decidir - na nossa frente está um objeto do nível da geladeira ou uma pessoa. E devemos dar a eles direitos humanos, liberdades e proteções equivalentes.

Image
Image

Essa questão é muito extensa e não será possível resolvê-la de imediato, mesmo com toda a vontade. Terá de ser considerado e resolvido ao mesmo tempo de uma variedade de pontos de vista - ética, sociologia, direito, neurobiologia e teoria da IA. Mas, por alguma razão, já não parece que todas essas partes chegarão a uma conclusão comum que convém a todos.

Por que capacitar a IA?

Em primeiro lugar, devemos admitir que já estamos inclinados para a moralidade quando vemos robôs que são muito semelhantes a nós. Quanto mais as máquinas intelectualmente desenvolvidas e "vivas" parecem, mais queremos acreditar que elas são como nós, mesmo que não sejam.

Uma vez que as máquinas tenham capacidades humanas básicas, gostemos ou não, teremos que vê-las como socialmente iguais, e não apenas como uma coisa, como propriedade privada de alguém. A dificuldade residirá em nosso entendimento das características ou traços cognitivos, se quiserem, com os quais será possível avaliar a entidade que temos diante de nós do ponto de vista da moralidade e, portanto, considerar a questão dos direitos sociais dessa entidade. Filósofos e especialistas em ética têm lutado com esse problema há milhares de anos.

Vídeo promocional:

“Três dos limites éticos mais importantes podem ser identificados: a capacidade de sentir dor e empatia, autoconsciência e a capacidade de ver as coisas de um ponto de vista moral e tomar decisões apropriadas”, - diz o sociólogo, futurista e chefe do Instituto de Ética e Novas Tecnologias James Hughes.

“Em humanos, se você tiver sorte, todos os três desses aspectos absolutamente importantes se desenvolvem sequencial e gradualmente. Mas e se, do ponto de vista da inteligência da máquina, acreditar-se que um robô que não possui autoconsciência, não sente alegria ou dor, também tem o direito de ser chamado de cidadão? Precisamos descobrir se esse realmente será o caso."

É importante compreender que inteligência, sensibilidade (capacidade de perceber e sentir coisas), consciência e autoconsciência (consciência de si mesmo em oposição a outra) são coisas completamente diferentes. Máquinas ou algoritmos podem ser tão inteligentes (se não mais inteligentes) do que os humanos, mas carecem desses três ingredientes essenciais. Calculadoras, Siri, algoritmos de estoque - todos são certamente espertos, mas não são capazes de se realizar, não são capazes de sentir, mostrar emoções, sentir cores, saborear pipoca.

Segundo Hughes, a autoconsciência pode se manifestar junto com dotar a essência de direitos pessoais mínimos, como o direito de ser livre e não escravo, o direito aos próprios interesses na vida, o direito ao crescimento e ao autoaperfeiçoamento. Ao adquirir autoconsciência e fundamentos morais (a capacidade de distinguir "o que é bom e o que é mau" de acordo com os princípios morais da sociedade moderna), esta entidade deve ser dotada de direitos humanos plenos: o direito de entrar em acordos, o direito à propriedade, voto e assim por diante.

“Os valores fundamentais do Iluminismo nos obrigam a considerar essas características do ponto de vista da igualdade de todos diante de todos e a abandonar as visões radicalmente conservadoras que eram geralmente aceitas antes e davam direitos a, digamos, apenas pessoas de um determinado contexto social, de gênero ou territorial”, diz Hughes.

Obviamente, nossa civilização ainda não alcançou objetivos sociais elevados, uma vez que ainda não podemos entender nossos próprios direitos e ainda estamos tentando expandi-los.

Quem tem o direito de ser chamado de "pessoa"?

Todas as pessoas são indivíduos, mas nem todos os indivíduos são pessoas. Linda MacDonald-Schlenn, especialista em bioética da University of California, Monterey Bay e professora do Alden Martha Institute of Bioethics do Albany Medical Center, diz que já existem precedentes na lei em que sujeitos não humanos são tratados como sujeitos da lei. E isso, para ela, é uma conquista muito grande, pois criamos as bases para abrir a possibilidade de dotar a IA no futuro de direitos próprios, equivalentes aos direitos humanos.

“Nos Estados Unidos, todas as empresas têm personalidade jurídica. Em outros países, também existem precedentes nos quais eles tentam reconhecer a interconexão e a igualdade de todas as coisas vivas neste planeta. Por exemplo, na Nova Zelândia, todos os animais são considerados inteligentes por lei, e o governo está incentivando ativamente o desenvolvimento de códigos de bem-estar e conduta ética. A Suprema Corte indiana chamou os rios Ganges e Yamuna de "coisas vivas" e deu a eles o status de entidades legais separadas."

Além disso, nos Estados Unidos, como em vários outros países, certas espécies de animais, incluindo grandes símios, elefantes, baleias e golfinhos, estão sujeitas a direitos estendidos para proteção contra prisão, experimentação e abuso. Mas ao contrário dos dois primeiros casos, em que eles querem tomar corporações e rios sob a personalidade, a questão dos animais não parece ser uma tentativa de subjugar as normas legais de forma alguma. Os defensores dessas propostas defendem o apoio a uma personalidade real, ou seja, um indivíduo que pode ser caracterizado com base em certas habilidades cognitivas (mentais), como a autoconsciência.

MacDonald-Glenn diz que é importante em tais questões abandonar a visão conservadora e parar de considerar, se animais ou IA, criaturas e máquinas simples sem alma. As emoções não são um luxo, diz um especialista em bioética, mas parte integrante do pensamento racional e do comportamento social. São essas características, e não a capacidade de contar números, que devem desempenhar um papel decisivo na decisão sobre a questão de “quem” ou “o que” deve ter direito a uma avaliação moral.

Há evidências crescentes de predisposição emocional em animais na ciência. A observação de golfinhos e baleias mostra que eles são capazes de pelo menos mostrar tristeza, e a presença de células fusiformes (interneurônios conectando neurônios distantes e participando de processos complexos que ativam o comportamento social) pode indicar, entre outras coisas, que eles são capazes de Simpatize. Os cientistas também descrevem a manifestação de vários comportamentos emocionais em grandes macacos e elefantes. É possível que uma IA consciente também seja capaz de adquirir essas habilidades emocionais, o que, é claro, aumentará significativamente seu status moral.

“Limitar a disseminação do status moral apenas para aqueles que pensam racionalmente podem funcionar com IA, mas, ao mesmo tempo, essa ideia está indo contra a intuição moral. Afinal, nossa sociedade já protege quem não consegue pensar racionalmente: recém-nascido, pessoa em coma, gente com problemas físicos e mentais significativos. Recentemente, as leis de bem-estar animal foram ativamente promovidas”, diz MacDonald-Glenn.

Sobre a questão de quem deve receber status moral, MacDonald-Glenn concordou com o filósofo moral inglês do século 18 Jeremiah Bentham, que disse uma vez:

“A questão não é se eles podem raciocinar? Ou eles podem falar? Mas eles são capazes de sofrer?"

Uma máquina pode adquirir autoconsciência?

É claro que nem todos concordam que os direitos humanos se estendem a não humanos, mesmo que esses sujeitos sejam capazes de exibir habilidades como emoção ou comportamento autorreflexivo. Alguns pensadores argumentam que apenas as pessoas deveriam ter o direito de participar das relações sociais e o mundo inteiro gira diretamente em torno do Homo sapiens, e tudo o mais - seu console de videogame, geladeira, cachorro ou interlocutor android - é “tudo o mais”.

Um advogado, um escritor americano e um membro sênior do Instituto Wesley J. Smith para o Excepcionalismo Humano, acredita que nós ainda não recebemos os direitos humanos universais, e é ainda mais prematuro pensar em peças de ferro brilhantes e seus direitos.

“Nenhuma máquina deve ser considerada nem mesmo um potencial portador de quaisquer direitos”, diz Smith.

“Mesmo as máquinas mais avançadas ainda permanecem e sempre permanecerão máquinas. Este não é um ser vivo. Este não é um organismo vivo. Uma máquina será sempre apenas um conjunto de programas, um conjunto de códigos, seja ela criada por uma pessoa ou outro computador, ou mesmo programada independentemente."

Em sua opinião, apenas pessoas e recursos humanos devem ser considerados indivíduos.

“Temos responsabilidades para com os animais que sofrem injustamente, mas eles também nunca devem ser vistos como alguém”, observa Smith.

Aqui devemos fazer uma pequena observação e lembrar ao leitor de língua russa que no Ocidente os animais são considerados objetos inanimados. Portanto, muitas vezes é possível encontrar o pronome "isso" (ou seja, "isso"), e não "ela" ou "ele" (ou seja, "ela" ou "ele") quando se trata de um animal específico. Esta regra é geralmente ignorada apenas em relação a animais de estimação - cães, gatos e até papagaios - nos quais as famílias vêem membros completos e integrais de suas famílias. No entanto, Smith aponta que o conceito de um animal como uma "propriedade privada razoável" já é um identificador valioso, pois "nos torna responsáveis por usá-lo de uma forma que não o machuque. No final das contas, "chutar o cachorro" e "chutar a geladeira" são duas grandes diferenças ".

Um ponto obviamente controverso na análise de Smith é a suposição de que humanos ou organismos biológicos têm certas "características" que uma máquina nunca pode adquirir. Em eras anteriores, essas características esquecidas eram a alma, o espírito ou alguma força vital sobrenatural intangível. A teoria do vitalismo postula que os processos nos organismos biológicos dependem dessa força e não podem ser explicados em termos de física, química ou bioquímica. No entanto, ele rapidamente perdeu sua relevância sob a pressão de praticantes e lógicos, que não estão acostumados a conectar o trabalho de nosso cérebro com algumas forças sobrenaturais. No entanto, a crença de que uma máquina nunca pode pensar e sentir como os humanos ainda está firmemente arraigada nas mentes mesmo entre os cientistas, o que apenas mais uma vez reflete o fato de queque a compreensão dos fundamentos biológicos da autoconsciência nas pessoas ainda está longe do ideal e muito limitada.

Lori Marino, conferencista sênior em neurociência e biologia comportamental (etologia) no Emory Center for Ethics, diz que as máquinas provavelmente nunca terão quaisquer direitos, muito menos direitos de nível humano. A razão para isso são as descobertas de neurocientistas como Antonio Damasio, que acredita que a consciência será determinada apenas pelo fato de o sujeito ter um sistema nervoso com canais que transmitem íons excitados ou, como a própria Marino diz, íons carregados positivamente que passam pelas membranas celulares em seu interior. sistema nervoso.

“Esse tipo de transmissão neural é encontrado até nos organismos vivos mais simples - prostitutas e bactérias. E esse é o mesmo mecanismo que deu início ao desenvolvimento dos neurônios, depois do sistema nervoso e depois do cérebro”, diz Marino.

“Se falamos de robôs e IA, então pelo menos sua geração atual obedece ao movimento de íons carregados negativamente. Ou seja, estamos falando de dois mecanismos de ser completamente diferentes”.

Seguindo essa lógica, Marino quer dizer que até uma água-viva terá mais sentimentos do que qualquer um dos robôs mais complexos da história.

“Não sei se essa hipótese está correta ou não, mas é definitivamente uma questão a se considerar”, diz Marino.

“Além disso, a curiosidade apenas atua em mim, lutando para descobrir como exatamente um 'organismo vivo' pode diferir de uma máquina realmente complexa. Mas, ainda assim, acredito que a proteção legal deve antes de tudo ser concedida aos animais, e só então a probabilidade de fornecê-la para objetos, que, claro, robôs são, do meu ponto de vista, deve ser considerada.

David Chalmers, diretor do Centro para o Estudo da Mente, do Cérebro e da Consciência da Universidade de Nova York, diz que é muito difícil tirar conclusões precisas sobre toda essa teoria. Principalmente pelo fato de que no estado atual todas essas ideias ainda não estão difundidas e, portanto, vão muito além do âmbito das evidências.

“No momento, não há razão para acreditar que algum tipo especial de processamento de informações em canais iônicos deva determinar a presença ou ausência de consciência. Mesmo se esse tipo de processamento fosse essencial, não teríamos motivos para acreditar que ele requer alguma biologia especial, e não algum padrão comum de processamento de informações que conhecemos. E se for assim, então, neste caso, a simulação do processamento de informações por um computador pode ser considerada como consciência."

Outro cientista que acredita que a consciência não é um processo computacional é Stuart Hameroff, professor de anestesiologia e psicologia da Universidade do Arizona. Em sua opinião, a consciência é um fenômeno fundamental do Universo e é inerente a todos os seres vivos e inanimados. Mas, ao mesmo tempo, a consciência humana é muito superior à consciência dos animais, plantas e objetos inanimados. Hameroff é um defensor da teoria do papsiquismo, que considera a animação geral da natureza. Assim, seguindo seus pensamentos, o único cérebro que está sujeito a avaliações subjetivas reais e introspecção é aquele que consiste em matéria biológica.

A ideia de Hameroff parece interessante, mas também está fora da corrente principal da opinião científica. É verdade que ainda não sabemos como a consciência e a autoconsciência aparecem em nosso cérebro. Só sabemos que é assim. Portanto, é possível considerá-lo um processo sujeito às regras gerais da física? Talvez. De acordo com o mesmo Marino, a consciência não pode ser reproduzida em um fluxo de "zeros" e "uns", mas isso não significa que não possamos nos desviar do paradigma geralmente aceito conhecido como arquitetura de von Neumann e criar um sistema híbrido de IA em que a consciência artificial será criado com a participação de componentes biológicos.

Biopé do filme "Existência"
Biopé do filme "Existência"

Biopé do filme "Existência"

Ed Boyden, neurocientista do Synthetic Neurobiology Group e palestrante sênior do MIT Media Lab, diz que somos muito jovens como espécie para fazer tais perguntas.

“Não acho que tenhamos uma definição funcional de consciência que possa ser usada diretamente para medi-la ou criá-la artificialmente”, disse Boyden.

“Do ponto de vista técnico, nem dá para saber se estou consciente. Portanto, no momento é muito difícil até mesmo adivinhar se as máquinas serão capazes de encontrá-lo."

Boyden ainda não acredita que nunca seremos capazes de recriar a consciência em uma casca alternativa (por exemplo, em um computador), mas admite que no momento há divergências entre os cientistas sobre o que exatamente será importante para criar tal emulação de inteligência digital.

“Precisamos trabalhar muito mais para entender qual é exatamente o elo principal”, diz Boyden.

Chalmers, por sua vez, nos lembra que nem mesmo descobrimos como a consciência desperta em um cérebro vivo, então o que podemos dizer sobre as máquinas. Ao mesmo tempo, ele acredita que ainda não temos motivos para acreditar que as máquinas biológicas podem ter consciência, enquanto as sintéticas não.

“Depois de entendermos como a consciência surge no cérebro, podemos entender quantas máquinas serão capazes de possuir essa consciência”, comenta Chalmers.

Ben Herzel, chefe da Hanson Robotics e fundador da OpenCog Foundation, diz que já temos teorias e modelos interessantes de como a consciência se manifesta no cérebro, mas nenhum deles chega a um denominador comum e não revela todos os detalhes.

“Esta ainda é uma questão em aberto, cuja resposta se esconde atrás de apenas algumas opiniões diferentes. O problema também está relacionado ao fato de que muitos cientistas aderem a diferentes abordagens filosóficas para descrever a consciência, embora concordem com fatos científicos e teorias baseadas em observações científicas do trabalho do cérebro e dos computadores."

Como podemos determinar a consciência de uma máquina?

O surgimento da consciência em uma máquina é apenas uma questão. Não menos difícil é a questão de como exatamente podemos detectar a consciência em um robô ou IA. Cientistas como Alan Turing estudaram esse problema por décadas, chegando a fazer testes de linguagem para determinar se um respondente está consciente. Oh, se fosse tão simples. O resultado final é que os bots de bate-papo avançados (programas para se comunicar com as pessoas) já são capazes de circundar as pessoas que começam a acreditar que existe uma pessoa viva na frente delas, não uma máquina. Em outras palavras, precisamos de uma forma mais eficiente e convincente de verificação.

“A definição de individualidade na inteligência da máquina é complicada pelo problema do 'zumbi filosófico'. Em outras palavras, você pode criar uma máquina que será muito, muito boa em imitar a comunicação humana, mas ao mesmo tempo não terá sua própria identidade e consciência”, diz Hughes.

Os dois alto-falantes inteligentes do Google Home estão batendo papo
Os dois alto-falantes inteligentes do Google Home estão batendo papo

Os dois alto-falantes inteligentes do Google Home estão batendo papo

Recentemente, testemunhamos um ótimo exemplo disso, quando um par de alto-falantes inteligentes do Google Home se comunicava. Tudo isso foi filmado e transmitido ao vivo. Apesar de o nível de autoconsciência de ambos os locutores não ultrapassar um tijolo, a própria natureza da conversa, que se tornou cada vez mais intensa com o tempo, assemelhava-se à comunicação de dois seres humanoides. E isso, por sua vez, prova mais uma vez que a questão da diferença entre humanos e IA só se tornará mais complicada e aguda com o tempo.

Uma solução, segundo Hughes, não é apenas testar o comportamento de sistemas de IA em testes como o teste de Turing, mas também analisar toda a complexidade interna desse sistema, como sugere a teoria de Giulio Tononi. Nessa teoria, a consciência é entendida como informação integrada (F). Este, por sua vez, é definido como a quantidade de informações geradas por um complexo de elementos, que é maior que a soma das informações geradas por elementos individuais. Se a teoria de Tononi estiver correta, então podemos usar Ф não apenas para determinar o comportamento humano do sistema, mas também descobrir se ele é complexo o suficiente para termos nossa própria experiência consciente humana interna. Ao mesmo tempo, a teoria indica que mesmo com um comportamento diferente, não semelhante ao humano, bem como uma forma diferente de pensar,o sistema pode ser considerado consciente se o complexo de suas informações integradas for capaz de passar pelas verificações necessárias.

“Aceitar que tanto os sistemas de bolsa de valores quanto os sistemas de segurança computadorizados possam ter consciência seria um grande passo para longe do antropocentrismo, mesmo que esses sistemas não apresentem dor e autoconsciência. Isso realmente abrirá o caminho para que formemos e discutamos questões de normas éticas pós-humanas."

Outra solução possível poderia ser a descoberta de correlatos neurais da consciência nas máquinas. Ou seja, estamos falando sobre determinar as partes da máquina que são responsáveis pela formação da consciência. Se a máquina tiver essas peças e se comportar exatamente como esperado, poderemos realmente avaliar o nível de consciência.

Que direitos devemos dar às máquinas?

Um dia, o robô vai olhar uma pessoa no rosto e exigir os direitos humanos. Mas ele vai merecê-los? Como mencionado acima, na nossa frente neste momento pode estar um "zumbi" comum, se comportando como foi programado, e tentando nos enganar para conseguir alguns privilégios. Nesse ponto, precisamos ser extremamente cuidadosos para não cair no ardil e dar poder à máquina inconsciente. Depois de descobrirmos como medir a mente de uma máquina e aprendermos como avaliar os níveis de sua consciência e autoconsciência, só então podemos começar a falar sobre a possibilidade de considerar a questão de se o agente que está diante de nós merece certos direitos e proteção ou não.

Felizmente para nós, esse momento não chegará logo. Para começar, os desenvolvedores de IA precisam criar um "cérebro digital básico" completando a emulação do sistema nervoso de vermes, besouros, ratos, coelhos e assim por diante. Essas emulações de computador podem existir como avatares e robôs digitais no mundo real. Assim que isso acontecer, essas entidades inteligentes deixarão de ser objetos comuns de pesquisa e elevarão seu status a sujeitos com direito a avaliação moral. Mas isso não significa que essas emulações simples irão automaticamente merecer o equivalente aos direitos humanos. Em vez disso, a lei terá que defendê-los contra abusos e abusos (da mesma forma que os defensores dos direitos humanos protegem os animais de abusos em experimentos de laboratório).

Em última análise, seja por meio de modelagem real nos mínimos detalhes, ou pelo desejo de descobrir como nossos cérebros funcionam de um ponto de vista computacional e algorítmico, mas a ciência chegará a criar emulações de computador do cérebro humano. A essa altura, já devemos ser capazes de determinar a presença de consciência nas máquinas. Pelo menos alguém gostaria de ter essa esperança. Não quero nem pensar que podemos encontrar uma maneira de despertar uma centelha de consciência no carro, mas ao mesmo tempo nós mesmos não entenderemos o que fizemos. Será um verdadeiro pesadelo.

Assim que os robôs e a IA ganharem essas habilidades básicas, nosso protegido computadorizado terá que passar por testes de personalidade. Ainda não temos uma "receita" universal para a consciência, mas o conjunto usual de medidas, como regra, está associado à avaliação do nível mínimo de inteligência, autocontrole, um senso de passado e futuro, empatia e a capacidade de manifestar livre arbítrio.

“Se suas escolhas são predeterminadas para você, então você não pode atribuir valor moral a decisões que não são suas”, comenta MacDonald-Glenn.

Somente depois de atingir esse nível de dificuldade de avaliação, uma máquina será elegível para se tornar uma candidata aos direitos humanos. No entanto, é importante entender e aceitar o fato de que robôs e IA precisarão de pelo menos direitos básicos de proteção se passarem nos testes. Por exemplo, o cientista e futurista canadense George Dvorsky acredita que robôs e IA irão merecer o seguinte conjunto de direitos se puderem passar no teste de personalidade:

- O direito de não se desligar contra a vontade;

- O direito de acesso ilimitado e total ao seu próprio código digital;

- O direito de proteger seu código digital de influências externas contra sua vontade;

- O direito de copiar (ou não copiar) você mesmo;

- O direito à privacidade (nomeadamente, o direito de ocultar o estado psicológico atual).

Em alguns casos, pode ser que a máquina não seja capaz de fazer valer os seus direitos de forma independente, por isso é necessário prever a possibilidade de as pessoas (bem como outros cidadãos que não sejam pessoas) agirem como representantes desses candidatos para indivíduos. É importante entender que um robô ou IA não precisa ser intelectual e moralmente perfeito para ser capaz de passar por uma avaliação de personalidade e reivindicar o equivalente aos direitos humanos. É importante lembrar que nesses aspectos as pessoas também estão longe do ideal, portanto, as mesmas regras serão aplicadas de forma justa às máquinas inteligentes. Inteligência geralmente é uma coisa difícil. O comportamento humano é freqüentemente muito espontâneo, imprevisível, caótico, inconsistente e irracional. Nossos cérebros estão longe do ideal, então devemos levar isso em consideração ao tomar decisões sobre IA.

Ao mesmo tempo, uma máquina autoconsciente, como qualquer cidadão responsável e cumpridor da lei, deve respeitar as leis, normas e regras prescritas pela sociedade. Pelo menos se ela realmente quiser se tornar uma pessoa autônoma e completa e uma parte desta sociedade. Tomemos, por exemplo, crianças ou pessoas com deficiência mental. Eles têm direitos? Certamente. Mas somos responsáveis por suas ações. Deve ser o mesmo com robôs e IA. Dependendo de suas capacidades, eles devem ser responsáveis por si próprios ou ter um tutor que pode não apenas atuar como defensor de seus direitos, mas também assumir a responsabilidade por seus atos.

Se você ignorar esta questão

Uma vez que nossas máquinas atingem um certo nível de complexidade, não podemos mais ignorá-las do ponto de vista da sociedade, das instituições de poder e do direito. Não teremos nenhuma razão convincente para negar-lhes os direitos humanos. Caso contrário, equivaleria a discriminação e escravidão.

A criação de uma fronteira clara entre seres biológicos e máquinas parecerá uma expressão clara da superioridade humana e do chauvinismo ideológico - os biológicos são especiais e apenas a inteligência biológica importa.

“Se levarmos em consideração nosso desejo ou relutância em expandir os limites de nossa moralidade e a quintessência do conceito de individualidade, a pergunta importante soará assim: que tipo de pessoa queremos ser? Vamos seguir a “regra de ouro” neste assunto (fazer com o resto como você gostaria de ser tratado com você) ou vamos ignorar nossos valores morais?”MacDonald-Glenn pergunta.

O empoderamento da IA será um precedente importante na história humana. Se pudermos ver a IA como indivíduos socialmente iguais, então isso será um reflexo direto de nossa coesão social e um testemunho de nosso apoio a um senso de justiça. Nosso fracasso em abordar esta questão pode se transformar em um protesto social geral e, talvez, até mesmo um confronto entre IA e humanos. E dado o potencial superior da inteligência da máquina, isso poderia ser um verdadeiro desastre para o último.

Também é importante perceber que o respeito aos direitos dos robôs no futuro também pode beneficiar outros indivíduos: ciborgues, pessoas transgênicas com DNA estrangeiro, bem como pessoas com cérebros copiados, digitalizados e carregados em supercomputadores.

Ainda estamos muito longe de criar uma máquina que mereça direitos humanos. No entanto, quando você considera a complexidade da questão e o que exatamente está em jogo - tanto para a inteligência artificial quanto para os humanos - dificilmente se pode dizer que planejar com antecedência é desnecessário.

NIKOLAY KHIZHNYAK

Recomendado: