Pesquisadores do Instituto de Tecnologia de Massachusetts (MIT) desenvolveram uma técnica para enganar a inteligência artificial de análise de texto (IA), relatou a Wired em 23 de fevereiro.
Os pesquisadores notaram que uma ligeira mudança em uma frase, compreensível para uma pessoa, pode enganar a IA. Eles desenvolveram um algoritmo para substituir palavras por sinônimos e enganar o texto de reconhecimento do AI. A nuance é que o próprio algoritmo de ataque usa IA para selecionar sinônimos.
Como exemplo, a frase "Os personagens, lançados em situações impossivelmente planejadas, estão totalmente alienados da realidade." (“Personagens interpretados em situações incrivelmente inventadas estão completamente fora de contato com a realidade”), o que é uma crítica negativa do filme.
Se substituirmos as palavras nele por sinônimos, a frase “Os personagens, lançados em circunstâncias impossíveis de engenharia, são totalmente estranhos à realidade” (“Personagens interpretados em circunstâncias incrivelmente habilidosas são completamente divorciados da realidade”), então a IA considera a avaliação positiva.
Outros tipos de sistemas de IA também podem ser enganados; neste caso, as vulnerabilidades foram demonstradas principalmente em sistemas de reconhecimento de imagem e voz.
Os pesquisadores notaram que essas distorções sutis de dados podem enganar a IA e ser usadas para atacar sistemas, o que se torna significativo à medida que a IA se espalha nas áreas de finanças, saúde e outros.