Inteligência Artificial: Uma Espada De Dois Gumes? - Visão Alternativa

Inteligência Artificial: Uma Espada De Dois Gumes? - Visão Alternativa
Inteligência Artificial: Uma Espada De Dois Gumes? - Visão Alternativa

Vídeo: Inteligência Artificial: Uma Espada De Dois Gumes? - Visão Alternativa

Vídeo: Inteligência Artificial: Uma Espada De Dois Gumes? - Visão Alternativa
Vídeo: O Perigo da INTELIGÊNCIA ARTIFICIAL 2024, Pode
Anonim

Dizemos que os robôs vão subir. Isso vai dominar o mundo, assumir o controle de tudo. Há décadas que ouvimos esses avisos e hoje, no início do século 21, o número desses avisos só está crescendo. Há um medo crescente da inteligência artificial que acabará com nossa espécie.

Esses roteiros não são apenas adquiridos em Hollywood, mas também cada vez mais encontram adeptos no campo científico e filosófico. Por exemplo, Ray Kurzweil escreveu que o crescimento exponencial da inteligência artificial levará a uma singularidade tecnológica, o ponto em que a inteligência da máquina ultrapassará a inteligência humana. Alguns veem isso como o fim do mundo, outros veem apenas oportunidades. Nick Bostrom acredita que a superinteligência nos ajudaria a lidar com doenças, pobreza e destruição ambiental, além de nos melhorar.

Na terça-feira, o famoso cientista Stephen Hawking juntou-se às fileiras dos profetas da singularidade, mais precisamente, ao seu grupo pessimista, ao dizer à BBC que "o desenvolvimento de uma inteligência artificial plena pode significar o fim da raça humana". Ele acredita que os humanos não serão capazes de competir com a IA, que será capaz de se reprogramar e atingir um nível muito superior ao humano. No entanto, Hawking também acredita que não devemos tentar entrar em contato com alienígenas de forma alguma, uma vez que eles terão apenas um objetivo: nos subjugar ou nos destruir completamente.

O problema com esses cenários não é que eles estejam inevitavelmente errados - quem pode prever o futuro? - ou não acreditar em scripts de ficção científica. O último é inevitável se você quiser entender e avaliar as tecnologias modernas e seu impacto sobre nós no futuro. É importante colocar nossas questões filosóficas sobre a mesa em tais cenários e examinar nossos medos para descobrir o que é mais importante para nós.

O problema de focar exclusivamente na inteligência artificial no contexto do “dia do juízo final” e outros cenários fatais é que isso nos distrai de outras questões éticas e sociais mais urgentes e importantes que surgem em conexão com os desenvolvimentos tecnológicos nessas áreas. Por exemplo, existe um lugar para a privacidade no mundo das tecnologias de informação e comunicação? Google, Facebook e Apple estão ameaçando a liberdade no mundo da tecnologia? A automação adicional levará à perda de empregos? As novas tecnologias financeiras podem ameaçar a economia global? Como os dispositivos móveis afetam o meio ambiente? (Para crédito de Hawking, ele mencionou privacidade em entrevistas, mas ainda assim falou sobre o fim da era humana.)

Essas questões são muito menos atraentes do que a superinteligência ou o fim da humanidade. Eles também não levantam questões sobre inteligência ou robôs; tratam do tipo de sociedade de que necessitamos e de como queremos ver nossa vida.

Essas questões são antigas, surgiram desde o próprio surgimento da ciência e da filosofia, e as crescentes tecnologias da informação de hoje, que estão mudando nosso mundo, nos fazem pensar sobre elas novamente. Esperemos que as melhores mentes humanas de nosso tempo concentrem a maior parte de suas energias em encontrar respostas para as perguntas certas, em vez de na demagogia em torno de ameaças exageradas.

Ilya Khel

Vídeo promocional:

Recomendado: