A Inteligência Artificial é Sempre Objetiva E Deseja Agradar A Uma Pessoa - Visão Alternativa

Índice:

A Inteligência Artificial é Sempre Objetiva E Deseja Agradar A Uma Pessoa - Visão Alternativa
A Inteligência Artificial é Sempre Objetiva E Deseja Agradar A Uma Pessoa - Visão Alternativa

Vídeo: A Inteligência Artificial é Sempre Objetiva E Deseja Agradar A Uma Pessoa - Visão Alternativa

Vídeo: A Inteligência Artificial é Sempre Objetiva E Deseja Agradar A Uma Pessoa - Visão Alternativa
Vídeo: I CONGRESSO DE DIREITOS INDUSTRIAIS 2024, Pode
Anonim

Como os computadores tomam decisões estranhas

A inteligência artificial está se desenvolvendo tão rapidamente que muitos estão começando a sentir ansiedade: se ela logo será capaz de sentir emoções e tomar suas próprias decisões. Seja um bot, um veículo autônomo ou um tomador de decisões em negócios e ciência: a inteligência artificial está penetrando todas as áreas de nossa vida e sociedade. Os cérebros das máquinas são considerados lógicos, sem emoção e imparciais, mas a prática mostra que eles nem sempre decidem tudo com a mente aberta.

Image
Image

A inteligência artificial é indispensável onde é importante reconhecer padrões em grandes quantidades de dados e tomar decisões com base neles. Mas, no futuro, os sistemas de inteligência artificial também poderão ser usados em áreas onde nosso bem-estar e até mesmo nossas vidas dependem diretamente de conclusões - na medicina, na seleção de empregos, na concessão de empréstimos e na justiça.

Quão objetiva e moralmente correta a inteligência artificial toma uma decisão? Podemos realmente confiar no cérebro da máquina para tomar essas decisões potencialmente importantes?

A inteligência artificial é usada em todas as áreas

Mesmo agora, algoritmos adaptativos são usados em muitas áreas de nossa vida diária. Existem assistentes digitais para entender comandos de voz e perguntas. Na Internet, os bots da web ajudam a manter e controlar sites de forma que sejam difíceis de distinguir dos humanos. Mesmo quando notícias falsas e manipulações de imagens são detectadas, sistemas de inteligência artificial estão envolvidos.

Vídeo promocional:

Image
Image

Os sistemas de IA também fazem seu trabalho na indústria, nos negócios e até no governo. Otimizam e controlam os processos de produção, regulam a logística de portos de contêineres e grandes armazéns ou mantêm registros contábeis. As seguradoras e os bancos já contam com os primeiros programas inteligentes para verificar as inscrições enviadas ou tomar decisões sobre pagamentos. Na Ikea, Deutsche Telekom e em muitas outras empresas, UNICEF ou bibliotecas, assistentes virtuais estão envolvidos no atendimento ao cliente.

Grande quantidade de dados processados para treinamento

Tudo isso é possível graças à capacidade dos sistemas de IA de analisar rapidamente grandes quantidades de dados, para identificar padrões e correlações. Por exemplo, o algoritmo aprende com inúmeras fotos de animais de estimação com nomes correspondentes. Após um período de treinamento, o sistema pode selecionar fotografias completamente novas das espécies desejadas. Ele reconhece as diferenças por conta própria.

Image
Image

Muitos outros sistemas de IA usam texto como base para o aprendizado. Eles avaliam o contexto em que uma palavra se encontra e estudam seu significado semântico, bem como as relações com palavras ou sinônimos semelhantes. Essas relações semânticas traduzem programas em expressões matemáticas e, assim, aprendem até mesmo contextos semânticos complexos.

É somente graças a essa capacidade que a inteligência artificial pode, por exemplo, avaliar dados médicos e registros médicos e inferir deles características de quadros clínicos. Com base nesses resultados, os sistemas de IA já estão sendo usados como auxiliares de diagnóstico, eles podem reconhecer vários tipos de câncer, sinais da doença de Alzheimer, condições suicidas e níveis perigosos de açúcar no diabetes.

Mas, por mais atraente que pareça, cada vez mais a IA tem uma grande desvantagem. Quanto mais a inteligência artificial penetra praticamente todas as esferas de nossa sociedade, maiores são as consequências potenciais de suas decisões. O futuro financeiro ou profissional de uma pessoa, ou mesmo sua vida, depende do seu julgamento.

Soluções de IA que podem custar vidas

Por exemplo, se um IA diagnosticar erroneamente na medicina sem ser questionado, o paciente pode se submeter ao tratamento errado ou até morrer. Os militares usam um sistema de armas autônomo que toma as decisões erradas. Por exemplo, a IA não consegue distinguir um amigo em fuga de um inimigo, o inocente morre.

Image
Image

Algoritmos de IA já estão sendo usados em tribunais nos Estados Unidos. Eles preveem a probabilidade de reincidência para os infratores no tribunal. Sua avaliação costuma influenciar a decisão do tribunal e, consequentemente, a sentença do condenado.

Se AI decidir sobre empréstimos

Da mesma forma, uma decisão em finanças e seguros pode afetar se uma pessoa obtém um empréstimo ou não. Esses sistemas geralmente são treinados em bancos de dados.

Image
Image

E aqui a IA está procurando padrões: quais pessoas geralmente pagam seus empréstimos e quais não? Ele desenvolve seus procedimentos de avaliação e toma as decisões apropriadas. Em particular, isso significa que as pessoas com o local de residência ou ocupação errada não receberão empréstimos, não importa quanto estejam dispostas a pagar, apesar dessas circunstâncias.

Com essa distribuição de responsabilidades com os computadores, uma pessoa será apenas um assistente para a execução das decisões dos cérebros cibernéticos. E isso já está acontecendo.

Quem é o responsável pelos erros?

Outro problema no desenvolvimento da IA: quanto mais complexos são os princípios de tomada de decisão, mais difícil é para os humanos entendê-los. Também levanta a questão de quem é responsável pelos erros.

Os casos de acidentes ao dirigir carros no piloto automático têm se tornado mais frequentes: quem é o culpado pelo fato de algumas situações não estarem armazenadas na memória ou a IA tirar conclusões erradas. Ou talvez ele tire suas próprias conclusões? Já existem esses exemplos.

Os bots de jogar desenvolveram suas próprias regras durante o jogo

Para este estudo, os pesquisadores permitiram que 100 robôs inteligentes interagissem entre si em um jogo de concessão. Cada um deles deve decidir se doa algo para alguém de sua equipe ou para um participante externo do jogo.

Image
Image

Surpreendentemente, com o tempo, os bots foram ficando cada vez mais excluídos de grupos externos e doam apenas para os membros de suas equipes.

Image
Image

A razão para isso: os robôs inteligentes adaptaram sua estratégia de jogo, copiando o comportamento dos companheiros que arrecadaram mais dinheiro e foram os mais bem-sucedidos. Assim, surgiram grupos de bots que se comportaram da mesma maneira e excluíram de forma consistente participantes não relacionados ao jogo. Criando constantemente algo que calcula, analisa e toma decisões mais rápido que isso, a humanidade um dia perderá o controle sobre sua criação, cujas ações não será capaz de acompanhar.

Segundo os cientistas, isso é óbvio: a inteligência artificial não precisa de dados artificiais para ser tendenciosa, basta ter outras máquinas ao seu redor. Porque mesmo isso pode criar uma mente de grupo que é conhecida nas comunidades humanas. Portanto, usando IA, as pessoas devem deixar a decisão para si mesmas.

Vasilik Svetlana

Recomendado: