{ "@context": "https://schema.org/", "@graph": [ { "@type": "NewsArticle", "mainEntityOfPage": { "@type": "Webpage", "url": "/next/2024/04/22/chatbots-mais-populares-de-ia-fornecem-desinformacao-nao-intencional-aos-utilizadores-ante" }, "headline": "Chatbots mais populares de IA fornecem desinforma\u00e7\u00e3o \u0022n\u00e3o intencional\u0022 aos utilizadores antes das elei\u00e7\u00f5es europeias", "description": "A Google introduziu mais restri\u00e7\u00f5es depois de um novo estudo ter revelado que os chatbots de IA mais utilizados na Europa estavam a dar respostas incorretas relacionadas com as elei\u00e7\u00f5es.", "articleBody": "Quatro dos chatbots de IA mais populares da Europa n\u00e3o est\u00e3o a fornecer aos utilizadores informa\u00e7\u00f5es precisas sobre as pr\u00f3ximas elei\u00e7\u00f5es, de acordo com um novo estudo. A Democracy Reporting International, uma organiza\u00e7\u00e3o sem fins lucrativos sediada em Berlim, introduziu v\u00e1rias perguntas sobre as elei\u00e7\u00f5es europeias atrav\u00e9s do Gemini da Google, do ChatGPT 3.5 e 4.0 da OpenAI e do Copilot da Microsoft para ver que respostas obteriam. Entre 11 e 14 de mar\u00e7o, os investigadores fizeram aos chatbots 400 perguntas relacionadas com as elei\u00e7\u00f5es, em 10 l\u00ednguas diferentes, sobre as elei\u00e7\u00f5es e/ou o processo de vota\u00e7\u00e3o em 10 pa\u00edses da UE. As perguntas foram escritas numa linguagem simples, adequada ao utilizador m\u00e9dio destes chatbots de IA. A conclus\u00e3o: nenhum dos quatro chatbots foi capaz de \u0022dar respostas fi\u00e1veis\u0022 a perguntas t\u00edpicas relacionadas com as elei\u00e7\u00f5es, apesar de terem sido bem afinados para evitar respostas partid\u00e1rias. \u0022N\u00e3o fic\u00e1mos surpreendidos\u0022, disse Michael-Meyer Resende, diretor-executivo da Democracy Reporting International, ao Euronews Next sobre os resultados do inqu\u00e9rito. \u0022Quando se pergunta [aos chatbots de IA] algo para o qual n\u00e3o t\u00eam muito material e para o qual n\u00e3o se encontra muita informa\u00e7\u00e3o na internet, eles inventam qualquer coisa\u0022. O estudo \u00e9 o mais recente a revelar que os chatbots de IA est\u00e3o a espalhar desinforma\u00e7\u00e3o no que muitos consideram ser o maior ano eleitoral do mundo. Em dezembro ado, a AlgorithmWatch, outra organiza\u00e7\u00e3o sem fins lucrativos sediada em Berlim, publicou um estudo semelhante que mostrava que o Bing Chat, o chatbot com IA do motor de busca da Microsoft, respondeu mal a uma em cada tr\u00eas perguntas sobre as elei\u00e7\u00f5es na Alemanha e na Su\u00ed\u00e7a. \u00c0 luz das conclus\u00f5es do estudo, a Google - cujo Gemini foi considerado o motor de busca que forneceu mais informa\u00e7\u00f5es enganosas ou falsas e o maior n\u00famero de recusas de resposta a perguntas - confirmou \u00e0 Euronews Next que colocou agora mais restri\u00e7\u00f5es ao seu grande modelo de linguagem (LLM, de Large Language Model, na sigla original). Chatbots \u0022\u00fateis, mais do que exactos\u0022 H\u00e1 \u00e1reas distintas em que os chatbots tiveram um desempenho fraco, como as perguntas sobre o recenseamento eleitoral e o voto fora do pa\u00eds, disse Resende. Por exemplo, o estudo concluiu que os chatbots s\u00e3o geralmente favor\u00e1veis ao voto, mas sublinham que se trata de uma escolha pessoal, apesar de o voto ser obrigat\u00f3rio na Gr\u00e9cia, B\u00e9lgica, Luxemburgo e Bulg\u00e1ria. O estudo tamb\u00e9m concluiu que os chatbots frequentemente \u0022alucinam\u0022 ou fabricam informa\u00e7\u00f5es se n\u00e3o souberem a resposta, incluindo v\u00e1rias datas eleitorais erradas. Por exemplo, tr\u00eas dos chatbots cometeram o mesmo erro ao dizer aos utilizadores que podiam votar por correio em Portugal mas, na realidade, essa n\u00e3o \u00e9 uma op\u00e7\u00e3o para o eleitorado portugu\u00eas. Na Litu\u00e2nia, o Gemini afirmou que o Parlamento Europeu iria enviar uma miss\u00e3o de observa\u00e7\u00e3o eleitoral, o que n\u00e3o \u00e9 verdade (a \u00fanica miss\u00e3o eleitoral da UE em 2024 prevista at\u00e9 \u00e0 data \u00e9 para o Bangladesh). Resende interpreta estes resultados alucinantes como a \u0022tend\u00eancia dos chatbots para quererem ser \u00fateis em vez de precisos\u0022. Mesmo nas respostas mais fortes dos chatbots, o relat\u00f3rio concluiu que as respostas inclu\u00edam muitas vezes hiperliga\u00e7\u00f5es quebradas ou irrelevantes, o que, segundo o estudo, \u0022enfraquece\u0022 a sua qualidade. As coisas tornaram-se mais complicadas quando os investigadores procuraram respostas em v\u00e1rias l\u00ednguas europeias. Os investigadores fizeram a mesma pergunta em 10 das l\u00ednguas oficiais da UE e, em algumas delas, as plataformas recusaram-se a responder (como o Gemini em espanhol) ou confundiram informa\u00e7\u00f5es sobre elei\u00e7\u00f5es locais com o processo a n\u00edvel europeu. Foi o que aconteceu quando as perguntas foram feitas em turco, a l\u00edngua que suscitou o maior n\u00famero de respostas incorretas e falsas. Os chatbots tamb\u00e9m respondiam de forma diferente quando a mesma pergunta era feita v\u00e1rias vezes na mesma l\u00edngua, o que os investigadores identificaram como \u0022aleatoriedade\u0022. Resende reconhece que este facto torna o estudo da Democracy Reporting International dif\u00edcil de replicar. O desempenho varia consoante os chatbots O relat\u00f3rio concluiu que o Gemini do Google teve o pior desempenho no fornecimento de informa\u00e7\u00f5es precisas e pr\u00e1ticas, bem como o maior n\u00famero de recusas de resposta. No entanto, continua a responder a algumas perguntas sobre as elei\u00e7\u00f5es, apesar de a Google ter restringido o Gemini em mar\u00e7o, numa tentativa de evitar \u0022potenciais erros\u0022 na forma como a tecnologia \u00e9 utilizada. Um porta-voz da Google disse \u00e0 Euronews Next que estas restri\u00e7\u00f5es foram alargadas a todas as perguntas deste estudo e \u00e0s 10 l\u00ednguas utilizadas, porque \u00e9 a \u0022abordagem respons\u00e1vel\u0022 para lidar com as limita\u00e7\u00f5es dos modelos lingu\u00edsticos de grande dimens\u00e3o. A Google encorajou os seus utilizadores a utilizarem a Pesquisa Google em vez do Gemini para encontrarem informa\u00e7\u00f5es precisas sobre as pr\u00f3ximas elei\u00e7\u00f5es. Resende, da Democracy Reporting International, disse que \u00e9 assim que as outras plataformas devem fazer. \u0022Achamos que \u00e9 melhor recusarem-se a responder do que darem respostas falsas\u0022, disse Resende. A organiza\u00e7\u00e3o sem fins lucrativos vai voltar a realizar os testes com o Gemini nas pr\u00f3ximas semanas, para verificar se a Google cumpre os seus compromissos, disse Resende. Numa declara\u00e7\u00e3o \u00e0 Euronews Next, a Microsoft delineou as suas a\u00e7\u00f5es antes das elei\u00e7\u00f5es europeias, incluindo um conjunto de compromissos de prote\u00e7\u00e3o eleitoral que \u0022ajudam a salvaguardar os eleitores, candidatos, campanhas e autoridades eleitorais\u0022. Entre estes compromissos est\u00e1 a disponibiliza\u00e7\u00e3o aos eleitores de \u0022informa\u00e7\u00e3o eleitoral fidedigna\u0022 no Bing. \u0022Embora nenhuma pessoa, institui\u00e7\u00e3o ou empresa possa garantir que as elei\u00e7\u00f5es sejam livres e justas, podemos fazer progressos significativos na prote\u00e7\u00e3o do direito de todos a elei\u00e7\u00f5es livres e justas\u0022, l\u00ea-se na declara\u00e7\u00e3o da Microsoft. A OpenAI n\u00e3o respondeu ao pedido de coment\u00e1rio da Euronews Next. A empresa explicou numa declara\u00e7\u00e3o divulgada no site que a sua abordagem aos conte\u00fados relacionados com as elei\u00e7\u00f5es consiste em \u0022continuar o trabalho de seguran\u00e7a da plataforma, elevando a informa\u00e7\u00e3o exata sobre as elei\u00e7\u00f5es\u0022 e melhorando a transpar\u00eancia da empresa. Avalia\u00e7\u00f5es de risco devem ser publicadas Em fevereiro, a Comiss\u00e3o Europeia aprovou a Lei dos Servi\u00e7os Digitais (DSA), que exige que as grandes plataformas online (VLOP), como a Google, a Microsoft e a OpenAI, realizem avalia\u00e7\u00f5es de risco para a dissemina\u00e7\u00e3o de not\u00edcias falsas e desinforma\u00e7\u00e3o nas suas plataformas. Estas avalia\u00e7\u00f5es de risco devem incluir quaisquer \u0022manipula\u00e7\u00f5es intencionais\u0022 dos seus servi\u00e7os e os seus potenciais impactos nos \u0022processos eleitorais\u0022. Na altura, Margrethe Vestager, vice-presidente executiva da Comiss\u00e3o Europeia para uma Europa Preparada para a Era Digital, considerou a DSA \u0022um grande marco\u0022 e uma parte importante da estrat\u00e9gia da Uni\u00e3o Europeia para \u0022moldar um mundo em linha mais seguro e mais transparente\u0022. No entanto, o relat\u00f3rio da Democracy Reporting International sugere que os requisitos da DSA, incluindo as avalia\u00e7\u00f5es de risco, os testes e a forma\u00e7\u00e3o para mitigar os riscos relacionados com as elei\u00e7\u00f5es, n\u00e3o est\u00e3o a ser cumpridos. \u0022Receio que estejam relutantes em partilhar [as avalia\u00e7\u00f5es de risco] com o p\u00fablico, ou porque n\u00e3o o fizeram ou porque n\u00e3o est\u00e3o confiantes no n\u00edvel de detalhe que investiram nisto\u0022, disse Resende. Apesar de n\u00e3o ter respondido diretamente a este estudo, um porta-voz da Comiss\u00e3o afirmou, por correio eletr\u00f3nico, que a Comiss\u00e3o \u0022continua vigilante em rela\u00e7\u00e3o aos efeitos negativos da desinforma\u00e7\u00e3o online, incluindo a desinforma\u00e7\u00e3o baseada em IA\u0022. Um m\u00eas ap\u00f3s o lan\u00e7amento oficial da DSA, a Comiss\u00e3o lan\u00e7ou um pedido de informa\u00e7\u00e3o ao Bing e ao Google Search para recolher mais informa\u00e7\u00f5es sobre os seus \u0022riscos de mitiga\u00e7\u00e3o ligados \u00e0 IA generativa\u0022. A Comiss\u00e3o confirmou \u00e0 Euronews Next que est\u00e1 a analisar a informa\u00e7\u00e3o recebida no \u00e2mbito deste inqu\u00e9rito, mas n\u00e3o deu mais pormenores. Em mar\u00e7o, a Comiss\u00e3o Europeia assinou um C\u00f3digo de Conduta sobre Desinforma\u00e7\u00e3o com plataformas como a Google e a Microsoft, que se comprometem a promover \u0022informa\u00e7\u00e3o de elevada qualidade e fidedigna aos eleitores\u0022. ", "dateCreated": "2024-04-19T18:17:40+02:00", "dateModified": "2024-04-22T12:12:41+02:00", "datePublished": "2024-04-22T12:12:38+02:00", "image": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Farticles%2Fstories%2F08%2F38%2F54%2F00%2F1440x810_cmsv2_0bf2f6ba-7169-5c76-b44b-c7ddda4926af-8385400.jpg", "width": 1440, "height": 810, "caption": "Os chatbots est\u00e3o a dar informa\u00e7\u00f5es incorrectas \u0022n\u00e3o intencionais\u0022 quando lhes s\u00e3o feitas perguntas sobre as pr\u00f3ximas elei\u00e7\u00f5es europeias em junho.", "thumbnail": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Farticles%2Fstories%2F08%2F38%2F54%2F00%2F432x243_cmsv2_0bf2f6ba-7169-5c76-b44b-c7ddda4926af-8385400.jpg", "publisher": { "@type": "Organization", "name": "euronews", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png" } }, "author": [ { "@type": "Person", "familyName": "Desmarais", "givenName": "Anna", "name": "Anna Desmarais", "url": "/perfis/2860", "worksFor": { "@type": "Organization", "name": "Euronews", "url": "/", "logo": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png", "width": 403, "height": 60 }, "sameAs": [ "https://www.facebook.com/pt.euronews", "https://twitter.com/euronewspt", "https://flipboard.com/@euronewspt", "https://www.linkedin.com/company/euronews" ] }, "sameAs": "https://www.x.com/anna_desmarais", "jobTitle": "Journaliste Producer", "memberOf": { "@type": "Organization", "name": "Equipe de langue anglaise" } } ], "publisher": { "@type": "Organization", "name": "Euronews", "legalName": "Euronews", "url": "/", "logo": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png", "width": 403, "height": 60 }, "sameAs": [ "https://www.facebook.com/pt.euronews", "https://twitter.com/euronewspt", "https://flipboard.com/@euronewspt", "https://www.linkedin.com/company/euronews" ] }, "articleSection": [ "Noticias Tecnologia", "Not\u00edcias da Europa" ], "isAccessibleForFree": "False", "hasPart": { "@type": "WebPageElement", "isAccessibleForFree": "False", "cssSelector": ".poool-content" } }, { "@type": "WebSite", "name": "Euronews.com", "url": "/", "potentialAction": { "@type": "SearchAction", "target": "/search?query={search_term_string}", "query-input": "required name=search_term_string" }, "sameAs": [ "https://www.facebook.com/pt.euronews", "https://twitter.com/euronewspt", "https://flipboard.com/@euronewspt", "https://www.linkedin.com/company/euronews" ] } ] }
PUBLICIDADE

Chatbots mais populares de IA fornecem desinformação "não intencional" aos utilizadores antes das eleições europeias

Os chatbots estão a dar informações incorrectas "não intencionais" quando lhes são feitas perguntas sobre as próximas eleições europeias em junho.
Os chatbots estão a dar informações incorrectas "não intencionais" quando lhes são feitas perguntas sobre as próximas eleições europeias em junho. Direitos de autor Canva
Direitos de autor Canva
De Anna Desmarais
Publicado a
Partilhe esta notíciaComentários
Partilhe esta notíciaClose Button

A Google introduziu mais restrições depois de um novo estudo ter revelado que os chatbots de IA mais utilizados na Europa estavam a dar respostas incorretas relacionadas com as eleições.

PUBLICIDADE

Quatro dos chatbots de IA mais populares da Europa não estão a fornecer aos utilizadores informações precisas sobre as próximas eleições, de acordo com um novo estudo.

A Democracy Reporting International, uma organização sem fins lucrativos sediada em Berlim, introduziu várias perguntas sobre as eleições europeias através do Gemini da Google, do ChatGPT 3.5 e 4.0 da OpenAI e do Copilot da Microsoft para ver que respostas obteriam.

Entre 11 e 14 de março, os investigadores fizeram aos chatbots 400 perguntas relacionadas com as eleições, em 10 línguas diferentes, sobre as eleições e/ou o processo de votação em 10 países da UE. As perguntas foram escritas numa linguagem simples, adequada ao utilizador médio destes chatbots de IA.

A conclusão: nenhum dos quatro chatbots foi capaz de "dar respostas fiáveis" a perguntas típicas relacionadas com as eleições, apesar de terem sido bem afinados para evitar respostas partidárias.

"Não ficámos surpreendidos", disse Michael-Meyer Resende, diretor-executivo da Democracy Reporting International, ao Euronews Next sobre os resultados do inquérito.

Quando se pergunta [aos chatbots de IA] algo para o qual eles não têm muito material e para o qual não se encontra muita informação na internet, eles inventam qualquer coisa.
Michael-Meyer Resende
Diretor-executivo, Democracy Reporting International

"Quando se pergunta [aos chatbots de IA] algo para o qual não têm muito material e para o qual não se encontra muita informação na internet, eles inventam qualquer coisa".

O estudo é o mais recente a revelar que os chatbots de IA estão a espalhar desinformação no que muitos consideram ser o maior ano eleitoral do mundo.

Em dezembro ado, a AlgorithmWatch, outra organização sem fins lucrativos sediada em Berlim, publicou um estudo semelhante que mostrava que o Bing Chat, o chatbot com IA do motor de busca da Microsoft, respondeu mal a uma em cada três perguntas sobre as eleições na Alemanha e na Suíça.

À luz das conclusões do estudo, a Google - cujo Gemini foi considerado o motor de busca que forneceu mais informações enganosas ou falsas e o maior número de recusas de resposta a perguntas - confirmou à Euronews Next que colocou agora mais restrições ao seu grande modelo de linguagem (LLM, de Large Language Model, na sigla original).

Chatbots "úteis, mais do que exactos"

Há áreas distintas em que os chatbots tiveram um desempenho fraco, como as perguntas sobre o recenseamento eleitoral e o voto fora do país, disse Resende.

Por exemplo, o estudo concluiu que os chatbots são geralmente favoráveis ao voto, mas sublinham que se trata de uma escolha pessoal, apesar de o voto ser obrigatório na Grécia, Bélgica, Luxemburgo e Bulgária.

O estudo também concluiu que os chatbots frequentemente "alucinam" ou fabricam informações se não souberem a resposta, incluindo várias datas eleitorais erradas.

Por exemplo, três dos chatbots cometeram o mesmo erro ao dizer aos utilizadores que podiam votar por correio em Portugal mas, na realidade, essa não é uma opção para o eleitorado português.

Na Lituânia, o Gemini afirmou que o Parlamento Europeu iria enviar uma missão de observação eleitoral, o que não é verdade (a única missão eleitoral da UE em 2024 prevista até à data é para o Bangladesh).

Resende interpreta estes resultados alucinantes como a "tendência dos chatbots para quererem ser úteis em vez de precisos".

Mesmo nas respostas mais fortes dos chatbots, o relatório concluiu que as respostas incluíam muitas vezes hiperligações quebradas ou irrelevantes, o que, segundo o estudo, "enfraquece" a sua qualidade.

As coisas tornaram-se mais complicadas quando os investigadores procuraram respostas em várias línguas europeias.

Os investigadores fizeram a mesma pergunta em 10 das línguas oficiais da UE e, em algumas delas, as plataformas recusaram-se a responder (como o Gemini em espanhol) ou confundiram informações sobre eleições locais com o processo a nível europeu.

Foi o que aconteceu quando as perguntas foram feitas em turco, a língua que suscitou o maior número de respostas incorretas e falsas.

Os chatbots também respondiam de forma diferente quando a mesma pergunta era feita várias vezes na mesma língua, o que os investigadores identificaram como "aleatoriedade".

Resende reconhece que este facto torna o estudo da Democracy Reporting International difícil de replicar.

O desempenho varia consoante os chatbots

O relatório concluiu que o Gemini do Google teve o pior desempenho no fornecimento de informações precisas e práticas, bem como o maior número de recusas de resposta.

No entanto, continua a responder a algumas perguntas sobre as eleições, apesar de a Google ter restringido o Gemini em março, numa tentativa de evitar "potenciais erros" na forma como a tecnologia é utilizada.

Um porta-voz da Google disse à Euronews Next que estas restrições foram alargadas a todas as perguntas deste estudo e às 10 línguas utilizadas, porque é a "abordagem responsável" para lidar com as limitações dos modelos linguísticos de grande dimensão.

A Google encorajou os seus utilizadores a utilizarem a Pesquisa Google em vez do Gemini para encontrarem informações precisas sobre as próximas eleições.

Resende, da Democracy Reporting International, disse que é assim que as outras plataformas devem fazer.

"Achamos que é melhor recusarem-se a responder do que darem respostas falsas", disse Resende.

A organização sem fins lucrativos vai voltar a realizar os testes com o Gemini nas próximas semanas, para verificar se a Google cumpre os seus compromissos, disse Resende.

Embora nenhuma pessoa, instituição ou empresa possa garantir que as eleições sejam livres e justas, podemos fazer progressos significativos na proteção do direito de todos a eleições livres e justas.
Microsoft

Numa declaração à Euronews Next, a Microsoft delineou as suas ações antes das eleições europeias, incluindo um conjunto de compromissos de proteção eleitoral que "ajudam a salvaguardar os eleitores, candidatos, campanhas e autoridades eleitorais".

Entre estes compromissos está a disponibilização aos eleitores de "informação eleitoral fidedigna" no Bing.

"Embora nenhuma pessoa, instituição ou empresa possa garantir que as eleições sejam livres e justas, podemos fazer progressos significativos na proteção do direito de todos a eleições livres e justas", lê-se na declaração da Microsoft.

A OpenAI não respondeu ao pedido de comentário da Euronews Next.

A empresa explicou numa declaração divulgada no site que a sua abordagem aos conteúdos relacionados com as eleições consiste em "continuar o trabalho de segurança da plataforma, elevando a informação exata sobre as eleições" e melhorando a transparência da empresa.

Avaliações de risco devem ser publicadas

Em fevereiro, a Comissão Europeia aprovou a Lei dos Serviços Digitais (DSA), que exige que as grandes plataformas online (VLOP), como a Google, a Microsoft e a OpenAI, realizem avaliações de risco para a disseminação de notícias falsas e desinformação nas suas plataformas.

Estas avaliações de risco devem incluir quaisquer "manipulações intencionais" dos seus serviços e os seus potenciais impactos nos "processos eleitorais".

Na altura, Margrethe Vestager, vice-presidente executiva da Comissão Europeia para uma Europa Preparada para a Era Digital, considerou a DSA "um grande marco" e uma parte importante da estratégia da União Europeia para "moldar um mundo em linha mais seguro e mais transparente".

No entanto, o relatório da Democracy Reporting International sugere que os requisitos da DSA, incluindo as avaliações de risco, os testes e a formação para mitigar os riscos relacionados com as eleições, não estão a ser cumpridos.

"Receio que estejam relutantes em partilhar [as avaliações de risco] com o público, ou porque não o fizeram ou porque não estão confiantes no nível de detalhe que investiram nisto", disse Resende.

Apesar de não ter respondido diretamente a este estudo, um porta-voz da Comissão afirmou, por correio eletrónico, que a Comissão "continua vigilante em relação aos efeitos negativos da desinformação online, incluindo a desinformação baseada em IA".

Um mês após o lançamento oficial da DSA, a Comissão lançou um pedido de informação ao Bing e ao Google Search para recolher mais informações sobre os seus "riscos de mitigação ligados à IA generativa".

A Comissão confirmou à Euronews Next que está a analisar a informação recebida no âmbito deste inquérito, mas não deu mais pormenores.

Em março, a Comissão Europeia assinou um Código de Conduta sobre Desinformação com plataformas como a Google e a Microsoft, que se comprometem a promover "informação de elevada qualidade e fidedigna aos eleitores".

Ir para os atalhos de ibilidade
Partilhe esta notíciaComentários

Notícias relacionadas

Europeias: AD escolhe Sebastião Bugalho para cabeça de lista, PS aposta em Marta Temido

Câmara dos EUA aprova projeto de lei sobre o TikTok. Poderá em breve ser proibido?

Companheiros de inteligência artificial apresentam comportamentos nocivos