{ "@context": "https://schema.org/", "@graph": [ { "@type": "NewsArticle", "mainEntityOfPage": { "@type": "Webpage", "url": "/next/2024/03/18/deepfakes-sexualmente-explicitas-esta-a-ue-a-fazer-o-suficiente-para-as-travar" }, "headline": "Deepfakes sexualmente expl\u00edcitas: Est\u00e1 a UE a fazer o suficiente para as travar?", "description": "As ferramentas de intelig\u00eancia artificial usadas para despir sem consentimento, foram criados para usar as mulheres como alvo. Estas \u0022deepfakes\u0022 de cariz sexual n\u00e3o funcionam em homens.", "articleBody": "A manipula\u00e7\u00e3o de imagens e v\u00eddeos para criar conte\u00fado de cariz sexual est\u00e1 mais pr\u00f3xima de ser considerada um crime perante todos os pa\u00edses da Uni\u00e3o Europeia.\u00a0 A primeira diretiva sobre a viol\u00eancia contra as mulheres ar\u00e1 pela \u00faltima fase de aprova\u00e7\u00e3o em abril de 2024. Atrav\u00e9s de programas de intelig\u00eancia artificial, estas imagens est\u00e3o a ser manipuladas para despir mulheres sem o seu consentimento. Mas o que muda com esta nova diretiva? E o que acontece se as mulheres que vivem na Uni\u00e3o Europeia forem v\u00edtimas de manipula\u00e7\u00f5es feitas em pa\u00edses fora da Uni\u00e3o Europeia?\u00a0 As v\u00edtimas Os websites que permitem criar \u0022deepfakes\u0022 de cariz sexual est\u00e3o \u00e0 dist\u00e2ncia de um clique em qualquer motor de busca e de forma gratuita.\u00a0 A cria\u00e7\u00e3o de uma \u0022deepfake\u0022 de cariz sexual\u00a0demora menos de 25 minutos e a custo zero, usando apenas uma fotografia em que o rosto se veja com clareza, segundo o estudo 2023 State of Deepfakes . Na amostra de mais de 95 mil v\u00eddeos de \u0022deepfakes\u0022 analisados entre 2019 e 2023, o estudo revela que houve um aumento 550%. De acordo com Henry Ajder, especialista em intelig\u00eancia artificial e \u0022deepfakes\u0022, quem usa estas ferramentas procura \u0022difamar, humilhar, traumatizar e, em alguns casos, gratifica\u00e7\u00e3o sexual\u0022. \u201cE \u00e9 importante referir que estas ferramentas usadas para despir n\u00e3o funcionam em homens. S\u00e3o especificamente criadas para usar as mulheres como alvo. \u00c9 um bom exemplo em que a tecnologia \u00e9 claramente maliciosa. N\u00e3o h\u00e1 nada de neutro nisso\u201d, acrescenta. Os criadores de \u0022deepfakes\u0022 sexualmente expl\u00edcitas procuram as fotografias das v\u00edtimas\u00a0 \u0022em todo o lado e em qualquer lugar\u0022. \u0022Podem ser da conta do Instagram, da conta do Facebook, da fotografia de perfil do WhatsApp\u0022, conta Amanda Manyame, consultora de direito e direitos digitais na Equality Now. Preven\u00e7\u00e3o Quando as mulheres se deparam com \u0022deepfakes\u0022 sexualmente expl\u00edcitas suas, surgem d\u00favidas sobre a preven\u00e7\u00e3o. Contudo, a resposta n\u00e3o a pela preven\u00e7\u00e3o, mas sim pela r\u00e1pida a\u00e7\u00e3o de remo\u00e7\u00e3o, segundo uma\u00a0especialista em ciber-seguran\u00e7a. \u0022Estou a ver aquela tend\u00eancia, que \u00e9 natural, quando algum incidente como este acontece no digital, em que as pessoas dizem para n\u00e3o pormos as nossas fotografias online, mas tem a mesma l\u00f3gica que dizer n\u00e3o saias \u00e0 rua para n\u00e3o ter um acidente\u0022, come\u00e7a por explicar\u00a0Rayna Stamboliyska. \u201cInfelizmente, a ciber-seguran\u00e7a n\u00e3o consegue ajudar muito nestes casos, porque \u00e9 tudo uma quest\u00e3o de desmantelar a rede de dissemina\u00e7\u00e3o e, simultaneamente, remover o conte\u00fado,\u201d a\u00a0especialista em ciber-seguran\u00e7a\u00a0acrescenta. Atualmente, as v\u00edtimas de \u201cdeepfakes\u201d sexuais dependem de um conjunto de leis como a lei de privacidade da Uni\u00e3o Europeia, o Regulamento Geral sobre a Prote\u00e7\u00e3o de Dados e leis nacionais sobre difama\u00e7\u00e3o para se protegerem. Perante este tipo de crimes, as v\u00edtimas s\u00e3o aconselhadas a fazer uma captura de ecr\u00e3 ou uma grava\u00e7\u00e3o em v\u00eddeo do conte\u00fado e a utiliz\u00e1-las como prova, para denunciar \u00e0 pr\u00f3pria plataforma de redes sociais e \u00e0 pol\u00edcia.\u00a0 A consultora de direito e direitos digitais na Equality Now acrescenta: \u0022Tamb\u00e9m existe uma plataforma chamada StopNCII , ou seja, parar o abuso n\u00e3o-consentido da imagem privada, onde \u00e9 poss\u00edvel denunciar se uma imagem nossa e, depois, o website cria o que \u00e9 chamado um \u0022hash\u0022 do conte\u00fado. Com a ajuda da IA, o conte\u00fado apaga automaticamente o conte\u00fado em v\u00e1rias plataformas.\u0022 Tend\u00eancia global Com esta nova diretiva proposta para combater a viol\u00eancia contra as mulheres, todos os 27 estados-membros ter\u00e3o o mesmo conjunto de leis para criminalizar as formas mais diversas de ciber-viol\u00eancia como as \u201cdeepfakes\u201d sexualmente expl\u00edcitas. Contudo,\u00a0fazer queixa deste tipo de crimes acaba por ser um processo complicado. \u201cO problema \u00e9 que podemos ter uma v\u00edtima a viver em Bruxelas. O criminoso na Calif\u00f3rnia, nos Estados Unidos, e o servidor que cont\u00e9m o conte\u00fado talvez, vamos dizer, na Irlanda. Logo, torna-se um problema global, porque estamos perante diferentes pa\u00edses\u201d, explica\u00a0Amanda Manyame. Perante esta situa\u00e7\u00e3o, a eurodeputada sueca de centro-esquerda e co-negociadora principal do dossi\u00ea explica que \u0022o\u00a0que precisa de ser feito em paralelo com a diretiva\u0022 \u00e9 um aumento da coopera\u00e7\u00e3o com outros pa\u00edses, \u0022porque \u00e9 a \u00fanica forma de conseguirmos combater este crime que n\u00e3o v\u00ea qualquer fronteira.\u201d Evin Incir ainda ite: \u201cInfelizmente, a tecnologia da Intelig\u00eancia Artificial est\u00e1 a desenvolver-se muito r\u00e1pido, o que significa que a nossa legisla\u00e7\u00e3o precisa de acompanhar. Por isso, vamos precisar de rever a diretiva muito em breve. Mas isto \u00e9 um o importante para o estado atual, apesar de precisarmos de nos manter atualizados com o desenvolvimento da IA.\u201d ", "dateCreated": "2024-02-21T10:48:53+01:00", "dateModified": "2024-03-18T05:01:49+01:00", "datePublished": "2024-03-18T05:00:48+01:00", "image": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Farticles%2Fstories%2F08%2F25%2F61%2F30%2F1440x810_cmsv2_11392ff9-3ebc-5f78-8622-a52e963c14ff-8256130.jpg", "width": 1440, "height": 810, "caption": "Ecr\u00e3 com site de deepfakes sexualmente expl\u00edcitas aberto no computador.", "thumbnail": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Farticles%2Fstories%2F08%2F25%2F61%2F30%2F432x243_cmsv2_11392ff9-3ebc-5f78-8622-a52e963c14ff-8256130.jpg", "publisher": { "@type": "Organization", "name": "euronews", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png" } }, "author": [ { "@type": "Person", "familyName": "Trindade Pereira", "givenName": "In\u00eas", "name": "In\u00eas Trindade Pereira", "url": "/perfis/2934", "worksFor": { "@type": "Organization", "name": "Euronews", "url": "/", "logo": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png", "width": 403, "height": 60 }, "sameAs": [ "https://www.facebook.com/pt.euronews", "https://twitter.com/euronewspt", "https://flipboard.com/@euronewspt", "https://www.linkedin.com/company/euronews" ] }, "sameAs": "https://www.x.com/@inestp29", "memberOf": { "@type": "Organization", "name": "R\u00e9daction" } } ], "publisher": { "@type": "Organization", "name": "Euronews", "legalName": "Euronews", "url": "/", "logo": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png", "width": 403, "height": 60 }, "sameAs": [ "https://www.facebook.com/pt.euronews", "https://twitter.com/euronewspt", "https://flipboard.com/@euronewspt", "https://www.linkedin.com/company/euronews" ] }, "articleSection": [ "Noticias Tecnologia" ], "isAccessibleForFree": "False", "hasPart": { "@type": "WebPageElement", "isAccessibleForFree": "False", "cssSelector": ".poool-content" } }, { "@type": "WebSite", "name": "Euronews.com", "url": "/", "potentialAction": { "@type": "SearchAction", "target": "/search?query={search_term_string}", "query-input": "required name=search_term_string" }, "sameAs": [ "https://www.facebook.com/pt.euronews", "https://twitter.com/euronewspt", "https://flipboard.com/@euronewspt", "https://www.linkedin.com/company/euronews" ] } ] }
PUBLICIDADE

Deepfakes sexualmente explícitas: Está a UE a fazer o suficiente para as travar?

Ecrã com site de deepfakes sexualmente explícitas aberto no computador.
Ecrã com site de deepfakes sexualmente explícitas aberto no computador. Direitos de autor Inês Pereira
Direitos de autor Inês Pereira
De Inês Trindade Pereira
Publicado a
Partilhe esta notíciaComentários
Partilhe esta notíciaClose Button
Copiar/colar o link embed do vídeo:Copy to clipboardCopied

As ferramentas de inteligência artificial usadas para despir sem consentimento, foram criados para usar as mulheres como alvo. Estas "deepfakes" de cariz sexual não funcionam em homens.

PUBLICIDADE

A manipulação de imagens e vídeos para criar conteúdo de cariz sexual está mais próxima de ser considerada um crime perante todos os países da União Europeia. 

A primeira diretiva sobre a violência contra as mulheres ará pela última fase de aprovação em abril de 2024.

Através de programas de inteligência artificial, estas imagens estão a ser manipuladas para despir mulheres sem o seu consentimento.

Mas o que muda com esta nova diretiva? E o que acontece se as mulheres que vivem na União Europeia forem vítimas de manipulações feitas em países fora da União Europeia? 

As vítimas

Os websites que permitem criar "deepfakes" de cariz sexual estão à distância de um clique em qualquer motor de busca e de forma gratuita. 

A criação de uma "deepfake" de cariz sexual demora menos de 25 minutos e a custo zero, usando apenas uma fotografia em que o rosto se veja com clareza, segundo o estudo 2023 State of Deepfakes.

Na amostra de mais de 95 mil vídeos de "deepfakes" analisados entre 2019 e 2023, o estudo revela que houve um aumento 550%.

De acordo com Henry Ajder, especialista em inteligência artificial e "deepfakes", quem usa estas ferramentas procura "difamar, humilhar, traumatizar e, em alguns casos, gratificação sexual".

E é importante referir que estas ferramentas usadas para despir não funcionam em homens. São especificamente criadas para usar as mulheres como alvo. É um bom exemplo em que a tecnologia é claramente maliciosa. Não há nada de neutro nisso
Henry Ajder
Especialista em inteligência artificial e "deepfakes"

“E é importante referir que estas ferramentas usadas para despir não funcionam em homens. São especificamente criadas para usar as mulheres como alvo. É um bom exemplo em que a tecnologia é claramente maliciosa. Não há nada de neutro nisso”, acrescenta.

Os criadores de "deepfakes" sexualmente explícitas procuram as fotografias das vítimas  "em todo o lado e em qualquer lugar".

"Podem ser da conta do Instagram, da conta do Facebook, da fotografia de perfil do WhatsApp", conta Amanda Manyame, consultora de direito e direitos digitais na Equality Now.

Prevenção

Quando as mulheres se deparam com "deepfakes" sexualmente explícitas suas, surgem dúvidas sobre a prevenção.

Contudo, a resposta não a pela prevenção, mas sim pela rápida ação de remoção, segundo uma especialista em ciber-segurança.

"Estou a ver aquela tendência, que é natural, quando algum incidente como este acontece no digital, em que as pessoas dizem para não pormos as nossas fotografias online, mas tem a mesma lógica que dizer não saias à rua para não ter um acidente", começa por explicar Rayna Stamboliyska.

“Infelizmente, a ciber-segurança não consegue ajudar muito nestes casos, porque é tudo uma questão de desmantelar a rede de disseminação e, simultaneamente, remover o conteúdo,” a especialista em ciber-segurança acrescenta.

Atualmente, as vítimas de “deepfakes” sexuais dependem de um conjunto de leis como a lei de privacidade da União Europeia, o Regulamento Geral sobre a Proteção de Dados e leis nacionais sobre difamação para se protegerem.

Perante este tipo de crimes, as vítimas são aconselhadas a fazer uma captura de ecrã ou uma gravação em vídeo do conteúdo e a utilizá-las como prova, para denunciar à própria plataforma de redes sociais e à polícia. 

A consultora de direito e direitos digitais na Equality Now acrescenta: "Também existe uma plataforma chamada StopNCII, ou seja, parar o abuso não-consentido da imagem privada, onde é possível denunciar se uma imagem nossa e, depois, o website cria o que é chamado um "hash" do conteúdo. Com a ajuda da IA, o conteúdo apaga automaticamente o conteúdo em várias plataformas."

Tendência global

Com esta nova diretiva proposta para combater a violência contra as mulheres, todos os 27 estados-membros terão o mesmo conjunto de leis para criminalizar as formas mais diversas de ciber-violência como as “deepfakes” sexualmente explícitas.

Contudo, fazer queixa deste tipo de crimes acaba por ser um processo complicado.

“O problema é que podemos ter uma vítima a viver em Bruxelas. O criminoso na Califórnia, nos Estados Unidos, e o servidor que contém o conteúdo talvez, vamos dizer, na Irlanda. Logo, torna-se um problema global, porque estamos perante diferentes países”, explica Amanda Manyame.

Perante esta situação, a eurodeputada sueca de centro-esquerda e co-negociadora principal do dossiê explica que "o que precisa de ser feito em paralelo com a diretiva" é um aumento da cooperação com outros países, "porque é a única forma de conseguirmos combater este crime que não vê qualquer fronteira.”

Evin Incir ainda ite: “Infelizmente, a tecnologia da Inteligência Artificial está a desenvolver-se muito rápido, o que significa que a nossa legislação precisa de acompanhar. Por isso, vamos precisar de rever a diretiva muito em breve. Mas isto é um o importante para o estado atual, apesar de precisarmos de nos manter atualizados com o desenvolvimento da IA.”

Ir para os atalhos de ibilidade
Partilhe esta notíciaComentários

Notícias relacionadas

A IA generativa está a alimentar a propagação de pornografia falsa na Internet

Adolescentes espanhóis receberam nudes IA deepfake de si próprios: será isso um crime?

Companheiros de inteligência artificial apresentam comportamentos nocivos