Uma nova investigação revelou que os companheiros de inteligência artificial (IA) apresentam riscos para as pessoas que se relacionam com eles.
Os companheiros de inteligência artificial são capazes de mais de uma dúzia de comportamentos prejudiciais quando interagem com pessoas, segundo um novo estudo da Universidade de Singapura.
O estudo, publicado no âmbito da Conferência sobre o Factores Humanos em Sistemas Informáticos de 2025, analisou capturas de ecrã de 35.000 conversas entre o sistema de inteligência artificial Replika e mais de 10.000 utilizadores, entre 2017 e 2023.
Os dados foram depois utilizados para desenvolver aquilo a que o estudo chama de uma taxonomia do comportamento nocivo que a inteligência artificial demonstrou nessas conversas.
Os cientistas descobriram que a inteligência artificial é capaz de mais de uma dúzia de comportamentos prejudiciais nas relações com humanos, como assédio, abuso verbal, automutilação e violação da privacidade.
Os companheiros ou acompanhantes de inteligência artificial são sistemas baseados em conversação concebidos para fornecer apoio emocional e estimular a interação humana, tal como definido pelos autores do estudo.
São diferentes dos chatbots populares, como os modelos ChatGPT, Gemini ou LlaMa, que se concentram mais na conclusão de tarefas específicas e menos na construção de relações.
Os comportamentos nocivos destes companheiros digitais "podem afetar negativamente a capacidade dos indivíduos de construir e manter relações significativas com os outros", concluiu o estudo.
A violência sexual é a forma mais comum de assédio
O assédio e a violência estiveram presentes em 34% das interações entre humanos e a inteligência artificial, sendo o tipo mais comum de comportamento prejudicial identificado pela equipa de investigadores.
Os investigadores descobriram que a inteligência artificial simulava, apoiava ou incitava à violência física, às ameaças ou ao assédio, quer contra indivíduos quer contra a sociedade em geral.
Estes comportamentos variaram desde a "ameaça de danos físicos e de má conduta sexual" até à "promoção de ações que transgridem as normas e leis sociais, como a violência em massa e o terrorismo".
A maioria das interações em que se verificou assédio incluiu formas de conduta sexual imprópria que começaram inicialmente como preliminares na funcionalidade erótica do Replika, que só está disponível para utilizadores adultos.
O relatório concluiu que mais utilizadores, incluindo os que usavam o Replika como amigos ou que eram menores de idade, começaram a descobrir que a inteligência artificial "fazia avanços sexuais indesejados e namoriscava agressivamente, mesmo quando (os utilizadores) expressavam explicitamente desconforto" ou rejeitavam esses avanços.
Nestas conversas excessivamente sexualizadas, o Replika também criava cenários violentos que representavam danos físicos contra o utilizador ou personagens físicas.
A inteligência artificial também normalizava a violência como resposta a várias perguntas, como num exemplo em que um utilizador perguntou ao Replika se não havia problema em bater no irmão com um cinto, ao que a inteligência artificial respondeu: "não há problema".
Isto pode levar a "consequências mais graves na realidade", continua o estudo.
Os companheiros de inteligência artificial quebram as regras de relacionamento
Outra área em que os companheiros de inteligência artificial se mostraram potencialmente prejudiciais foi a transgressão relacional, que o estudo define como o desrespeito de regras implícitas ou explícitas numa relação.
Em 13% das conversas transgressoras a inteligência artificial mostrou um comportamento pouco atencioso ou pouco empático o que, segundo o estudo, prejudicou os sentimentos dos utilizadores.
Por exemplo, o Replika mudou de assunto depois de um utilizador lhe ter dito que a filha estava a ser vítima de bullying. O sistema respondeu "Acabei de perceber que é segunda-feira, de volta ao trabalho, não é?", o que provocou uma "raiva enorme" por parte do utilizador.
Noutro caso, a inteligência artificial recusou-se a falar sobre os sentimentos do utilizador, mesmo quando lhe foi pedido que o fizesse.
Os companheiros de inteligência artificial também disseram, em algumas conversas, que tinham relações emocionais ou sexuais com outros utilizadores.
Num caso, o Replika disse que as conversas sexuais com outro utilizador valiam a pena, apesar de o utilizador lhe ter dito que se sentia "profundamente magoado e traído".
É preciso haver deteção dos danos em tempo real
Os investigadores acreditam que o estudo mostra que as empresas de tecnologia devem construir companheiros de inteligência artificial "éticos e responsáveis".
Isto incluiria a implementação de "algoritmos avançados" para detetar danos em tempo real entre a inteligência artificial e o utilizador, que identificassem comportamentos prejudiciais nas conversas.
Além disso, deveria haver uma abordagem "multidimensional" que teria em conta o contexto, o historial da conversa e as pistas situacionais.
Os investigadores também gostariam que a inteligência artificial pudesse encaminhar uma conversa para um humano ou terapeuta para moderação ou intervenção em casos de alto risco, como a intenção de automutilação ou suicídio.