{ "@context": "https://schema.org/", "@graph": [ { "@type": "NewsArticle", "mainEntityOfPage": { "@type": "Webpage", "url": "/my-europe/2021/11/09/cinco-questoes-para-conhecer-a-futura-politica-da-ue-sobre-a-ia" }, "headline": "Cinco quest\u00f5es para conhecer a futura pol\u00edtica da UE sobre a IA", "description": "Reconhecimento facial ou evitar a propaga\u00e7\u00e3o de preconceitos atrav\u00e9s da Intelig\u00eancia Artificial... Quest\u00f5es em cima da mesa", "articleBody": "Reconhecimento facial e evitar preconceitos: cinco quest\u00f5es para conhecer a futura pol\u00edtica da UE sobre Intelig\u00eancia Artificial Obter uma recomenda\u00e7\u00e3o de um filme na sua plataforma de v\u00eddeo favorita, desbloquear o seu telefone com o seu rosto, usar o autocorretor ou conversar com um chatbot . Estes s\u00e3o alguns exemplos di\u00e1rios da utiliza\u00e7\u00e3o da Intelig\u00eancia Artificial (IA). Apesar de parecer futurista, a IA \u00e9 algo que os cidad\u00e3os europeus est\u00e3o a utilizar e a interagir no quotidiano. As oportunidades podem ser infinitas, mas os riscos est\u00e3o, tamb\u00e9m, em cima da mesa. \u0022O potencial de usar a IA de forma ben\u00e9fica \u00e9 enorme, menos polui\u00e7\u00e3o, melhores cuidados m\u00e9dicos, melhores oportunidades, melhor educa\u00e7\u00e3o e mais formas de permitir aos cidad\u00e3os de se envolverem com a sua sociedade\u0022, declara Margrethe Vestager, vice-presidente executiva da Comiss\u00e3o Europeia para uma Europa Apta para a Era Digital. As possibilidades podem ser alargadas a qualquer \u00e1rea da vida. \u0022Tamb\u00e9m para combater o terrorismo e a criminalidade e refor\u00e7ar a ciberseguran\u00e7a\u0022 , insistiu Vestager num debate na Comiss\u00e3o Especial de Intelig\u00eancia Artificial do Parlamento Europeu. E \u00e9 aqui que os riscos podem come\u00e7ar a surgir. Esta \u00e9 uma das raz\u00f5es pelas quais a Comiss\u00e3o Europeia foi o primeiro organismo a propor uma regulamenta\u00e7\u00e3o da IA a n\u00edvel mundial. Mas antes de mais, o que \u00e9 a Intelig\u00eancia Artificial e porque devemos preocupar-nos? A Intelig\u00eancia Artificial \u00e9 uma tecnologia que permite que as m\u00e1quinas percebam, analisem e aprendam com o ambiente. Gra\u00e7as a toda esta informa\u00e7\u00e3o, podem prever e tomar as pr\u00f3prias decis\u00f5es para alcan\u00e7ar objetivos espec\u00edficos. H\u00e1 muitas aplica\u00e7\u00f5es para a IA, por exemplo, ela pode ser utilizada para fins m\u00e9dicos como a identifica\u00e7\u00e3o do risco de ter Alzheimer , para a agricultura \u00a0ou para rastrear empregados enquanto trabalham remotamente . No entanto, como a Intelig\u00eancia Artificial recolhe enormes quantidades de dados e utiliza informa\u00e7\u00f5es que reproduzem alguns dos preconceitos que a sociedade j\u00e1 tem, ela tem muitos riscos. Por exemplo, pode p\u00f4r em perigo a privacidade, p\u00f4r em risco os direitos fundamentais ou aumentar a discrimina\u00e7\u00e3o contra as minorias. Qual \u00e9 a posi\u00e7\u00e3o atual da UE em rela\u00e7\u00e3o \u00e0 Intelig\u00eancia Artificial? \u0022Quanto maior o risco que um uso espec\u00edfico de IA pode causar \u00e0s nossas vidas, mais estrita \u00e9 a regra\u0022, foram estas as palavras usadas por Vestager, em abril, para definir a base da proposta da Comiss\u00e3o Europeia para a Intelig\u00eancia Artificial. O texto divide as diferentes IA em quatro categorias, com base no risco que elas podem representar para os cidad\u00e3os. Risco m\u00ednimo s\u00e3o as tecnologias que representam pouco ou nenhum risco para os cidad\u00e3os, portanto, ser\u00e3o livres de as utilizar e as novas regras n\u00e3o se lhes aplicar\u00e3o. Por exemplo, os filtros de spam. A categoria de risco limitado ter\u00e1 obriga\u00e7\u00f5es de transpar\u00eancia para que os cidad\u00e3os saibam que est\u00e3o a interagir com uma m\u00e1quina, permitindo-lhes assim tomar decis\u00f5es informadas. Um exemplo s\u00e3o os chatbots . O risco elevado \u00e9 onde a IA que usa o reconhecimento facial, procedimentos legais e aplica\u00e7\u00f5es de classifica\u00e7\u00e3o de CVs pode cair. \u00c9 controverso, pois pode ser potencialmente prejudicial ou ter implica\u00e7\u00f5es prejudiciais para os seus utilizadores. Por conseguinte, a Comiss\u00e3o espera que esses sistemas sejam \u0022cuidadosamente avaliados antes de serem colocados no mercado e ao longo do seu ciclo de vida\u0022. Inaceit\u00e1vel \u00e9 a \u00faltima categoria. \u00c9 aqui que a Comiss\u00e3o Europeia tra\u00e7ou a linha e deixa de fora todos os sistemas de IA que s\u00e3o \u0022uma clara amea\u00e7a \u00e0 seguran\u00e7a, subsist\u00eancia e direitos das pessoas\u0022. Um exemplo pode ser a pontua\u00e7\u00e3o social pelos Governos ou a utiliza\u00e7\u00e3o de t\u00e9cnicas subliminares. Para Sarah Chander, Conselheira Pol\u00edtica S\u00e9nior da European Digital Rights (EDRi), a proposta da Comiss\u00e3o Europeia \u0022corre o risco de permitir sistemas de vigil\u00e2ncia realmente invasivos e discriminat\u00f3rios de IA que, em vez disso, deveriam ser totalmente proibidos\u0022. Alguns dos seus exemplos incluem tecnologias para a instala\u00e7\u00e3o de drones nas fronteiras ou aplica\u00e7\u00f5es para avaliar os benef\u00edcios da seguran\u00e7a social. Entretanto, recentemente, o Parlamento Europeu votou contra a vigil\u00e2ncia em massa num relat\u00f3rio n\u00e3o vinculativo. \u0022Opomo-nos claramente ao policiamento preditivo baseado na utiliza\u00e7\u00e3o de IA, bem como a qualquer processamento de dados biom\u00e9tricos que conduza \u00e0 vigil\u00e2ncia em massa\u0022 , disse o eurodeputado Petar Vitanov, respons\u00e1vel pelo texto. Ser\u00e1 que o reconhecimento facial vai ser uma realidade na Uni\u00e3o Europeia? O reconhecimento facial para fins de seguran\u00e7a \u00e9 uma das quest\u00f5es quentes quando se lida com a regulamenta\u00e7\u00e3o da Intelig\u00eancia Artificial. Um estudo recente, encomendado pelos Verdes no Parlamento Europeu , mostra que dos 27 Estados-membros, 11 j\u00e1 utilizam a Intelig\u00eancia Artificial. Alemanha, Fran\u00e7a, Hungria, Holanda ou Finl\u00e2ndia s\u00e3o alguns dos exemplos.\u00a0 Para a Comiss\u00e3o \u00e9 uma utiliza\u00e7\u00e3o de alto risco, mas no Parlamento Europeu, as opini\u00f5es est\u00e3o divididas. Enquanto alguns pedem uma proibi\u00e7\u00e3o total, outros preferem uma tomada de posi\u00e7\u00e3o diferente. \u0022Pedimos uma morat\u00f3ria sobre a implanta\u00e7\u00e3o de sistemas de reconhecimento facial para fins de aplica\u00e7\u00e3o da lei, uma vez que a tecnologia provou ser ineficaz e conduz frequentemente a resultados discriminat\u00f3rios\u0022, disse Petar Vitanov em meados de outubro. Contudo, numa confer\u00eancia de imprensa, esta ter\u00e7a-feira, o eurodeputado Axel Voss, relator de outro texto sobre a IA, afirmou que \u0022mesmo para o reconhecimento facial \u00e9 poss\u00edvel estabelecer salvaguardas para que possa ser utilizado, mas n\u00e3o abusivamente utilizado\u0022. O reconhecimento facial n\u00e3o ser\u00e1 deixado de fora da legisla\u00e7\u00e3o. Sarah Chander, adverte que ao estabelecer regras, os confrontos podem n\u00e3o surgir n\u00edvel europeu, mas sim a n\u00edvel nacional. Embora ela pense que minist\u00e9rios como o da Inova\u00e7\u00e3o s\u00e3o \u0022muito positivos\u0022 em rela\u00e7\u00e3o \u00e0 \u0022necessidade de mais regulamenta\u00e7\u00e3o baseada nos Direitos Humanos\u0022 , a situa\u00e7\u00e3o n\u00e3o \u00e9 a mesma para os minist\u00e9rios do Interior. Estes est\u00e3o normalmente encarregados da pol\u00edcia, pelo que \u0022tendem a ser mais c\u00e9ticos contra as proibi\u00e7\u00f5es de reconhecimento facial e o policiamento preditivo\u0022 . Podem ser evitados os riscos de reprodu\u00e7\u00e3o de preconceitos? Com a sua proposta, o objetivo da Comiss\u00e3o Europeia \u00e9 que os sistemas de IA \u0022n\u00e3o criem ou reproduzam preconceitos\u0022 . Assim, os requisitos dos sistemas de IA de alto risco ter\u00e3o de ser \u0022robustos\u0022 para satisfazer as necessidades. Chander insiste que muitos sistemas de IA \u0022aumentar\u00e3o inerentemente a discrimina\u00e7\u00e3o devido \u00e0 pr\u00f3pria natureza do seu funcionamento\u0022. Como afirmou, ela utiliza \u0022dados e informa\u00e7\u00f5es do ado e tenta aplic\u00e1-los ao futuro\u0022 . Isto pode reproduzir preconceitos e discrimina\u00e7\u00f5es que j\u00e1 existem na sociedade. Em rela\u00e7\u00e3o aos danos que poderiam causar, Chander diz que a Comiss\u00e3o ignorou um problema chave: a falta de oportunidade para os cidad\u00e3os se queixarem. Ela pede uma forma de os cidad\u00e3os, potencialmente afetados, se dirigirem a uma autoridade para garantir que os seus direitos s\u00e3o respeitados. O que dizer da regulamenta\u00e7\u00e3o excessiva ou da desregulamenta\u00e7\u00e3o? Desde o desejo de estabelecer o padr\u00e3o mundial at\u00e9 ao risco de regulamenta\u00e7\u00e3o excessiva que quebra a oportunidade de a tecnologia avan\u00e7ar. A Uni\u00e3o Europeia est\u00e1 a enfrentar um grande desafio com a regulamenta\u00e7\u00e3o da Intelig\u00eancia Artificial. Bruxelas espera que estabele\u00e7a um padr\u00e3o global, tal como aconteceu com o Regulamento Geral sobre a Prote\u00e7\u00e3o de Dados (RGPD). Para Margrethe Vestager, os problemas podem surgir se a UE n\u00e3o for capaz de a tornar segura. \u0022A minha preocupa\u00e7\u00e3o \u00e9 que arriscamos que a tecnologia n\u00e3o seja desenvolvida e utilizada o mais amplamente poss\u00edvel se n\u00e3o formos bons a mitigar os riscos que lhe est\u00e3o ligados\u0022. Ao mesmo tempo, a UE deveria encontrar um equil\u00edbrio entre a utiliza\u00e7\u00e3o estatal da IA pela China e a abordagem dos Estados Unidos da Am\u00e9rica com diretrizes volunt\u00e1rias desenvolvidas em conjunto com as grandes empresas tecnol\u00f3gicas. ", "dateCreated": "2021-11-09T16:43:57+01:00", "dateModified": "2021-11-09T19:57:01+01:00", "datePublished": "2021-11-09T19:56:54+01:00", "image": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Farticles%2Fstories%2F06%2F21%2F50%2F20%2F1440x810_cmsv2_d9b192ab-a86a-512e-9006-59e960707049-6215020.jpg", "width": "1440px", "height": "810px", "caption": "Reconhecimento facial ou evitar a propaga\u00e7\u00e3o de preconceitos atrav\u00e9s da Intelig\u00eancia Artificial... Quest\u00f5es em cima da mesa", "thumbnail": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Farticles%2Fstories%2F06%2F21%2F50%2F20%2F432x243_cmsv2_d9b192ab-a86a-512e-9006-59e960707049-6215020.jpg", "publisher": { "@type": "Organization", "name": "euronews", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png" } }, "author": { "@type": "Organization", "name": "Euronews", "sameAs": [ "https://www.facebook.com/pt.euronews", "https://twitter.com/euronewspt", "https://flipboard.com/@euronewspt", "https://www.linkedin.com/company/euronews" ], "url": "/" }, "publisher": { "@type": "Organization", "name": "Euronews", "legalName": "Euronews", "url": "/", "logo": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png", "width": "403px", "height": "60px" }, "sameAs": [ "https://www.facebook.com/pt.euronews", "https://twitter.com/euronewspt", "https://flipboard.com/@euronewspt", "https://www.linkedin.com/company/euronews" ] }, "articleSection": [ "Decifrar a Europa", "Not\u00edcias da Europa" ], "isAccessibleForFree": "False", "hasPart": { "@type": "WebPageElement", "isAccessibleForFree": "False", "cssSelector": ".poool-content" } }, { "@type": "WebSite", "name": "Euronews.com", "url": "/", "potentialAction": { "@type": "SearchAction", "target": "/search?query={search_term_string}", "query-input": "required name=search_term_string" }, "sameAs": [ "https://www.facebook.com/pt.euronews", "https://twitter.com/euronewspt", "https://flipboard.com/@euronewspt", "https://www.linkedin.com/company/euronews" ] } ] }
PUBLICIDADE

Cinco questões para conhecer a futura política da UE sobre a IA

Cinco questões para conhecer a futura política da UE sobre a IA
Direitos de autor Martin Meissner/Copyright 2019 The Associated Press. All rights reserved.
Direitos de autor Martin Meissner/Copyright 2019 The Associated Press. All rights reserved.
De euronews
Publicado a
Partilhe esta notíciaComentários
Partilhe esta notíciaClose Button

Reconhecimento facial ou evitar a propagação de preconceitos através da Inteligência Artificial... Questões em cima da mesa

PUBLICIDADE

Reconhecimento facial e evitar preconceitos: cinco questões para conhecer a futura política da UE sobre Inteligência Artificial

Obter uma recomendação de um filme na sua plataforma de vídeo favorita, desbloquear o seu telefone com o seu rosto, usar o autocorretor ou conversar com um chatbot. Estes são alguns exemplos diários da utilização da Inteligência Artificial (IA). Apesar de parecer futurista, a IA é algo que os cidadãos europeus estão a utilizar e a interagir no quotidiano. As oportunidades podem ser infinitas, mas os riscos estão, também, em cima da mesa.

"O potencial de usar a IA de forma benéfica é enorme, menos poluição, melhores cuidados médicos, melhores oportunidades, melhor educação e mais formas de permitir aos cidadãos de se envolverem com a sua sociedade", declara Margrethe Vestager, vice-presidente executiva da Comissão Europeia para uma Europa Apta para a Era Digital.

As possibilidades podem ser alargadas a qualquer área da vida. "Também para combater o terrorismo e a criminalidade e reforçar a cibersegurança", insistiu Vestager num debate na Comissão Especial de Inteligência Artificial do Parlamento Europeu. E é aqui que os riscos podem começar a surgir. Esta é uma das razões pelas quais a Comissão Europeia foi o primeiro organismo a propor uma regulamentação da IA a nível mundial.

Mas antes de mais, o que é a Inteligência Artificial e porque devemos preocupar-nos?

A Inteligência Artificial é uma tecnologia que permite que as máquinas percebam, analisem e aprendam com o ambiente. Graças a toda esta informação, podem prever e tomar as próprias decisões para alcançar objetivos específicos. Há muitas aplicações para a IA, por exemplo, ela pode ser utilizada para fins médicos como a identificação do risco de ter Alzheimer, para a agricultura ou para rastrear empregados enquanto trabalham remotamente.

No entanto, como a Inteligência Artificial recolhe enormes quantidades de dados e utiliza informações que reproduzem alguns dos preconceitos que a sociedade já tem, ela tem muitos riscos. Por exemplo, pode pôr em perigo a privacidade, pôr em risco os direitos fundamentais ou aumentar a discriminação contra as minorias.

Qual é a posição atual da UE em relação à Inteligência Artificial?

"Quanto maior o risco que um uso específico de IA pode causar às nossas vidas, mais estrita é a regra", foram estas as palavras usadas por Vestager, em abril, para definir a base da proposta da Comissão Europeia para a Inteligência Artificial. O texto divide as diferentes IA em quatro categorias, com base no risco que elas podem representar para os cidadãos.

Risco mínimo são as tecnologias que representam pouco ou nenhum risco para os cidadãos, portanto, serão livres de as utilizar e as novas regras não se lhes aplicarão. Por exemplo, os filtros de spam.

A categoria de risco limitado terá obrigações de transparência para que os cidadãos saibam que estão a interagir com uma máquina, permitindo-lhes assim tomar decisões informadas. Um exemplo são os chatbots.

O risco elevado é onde a IA que usa o reconhecimento facial, procedimentos legais e aplicações de classificação de CVs pode cair. É controverso, pois pode ser potencialmente prejudicial ou ter implicações prejudiciais para os seus utilizadores. Por conseguinte, a Comissão espera que esses sistemas sejam "cuidadosamente avaliados antes de serem colocados no mercado e ao longo do seu ciclo de vida".

Inaceitável é a última categoria. É aqui que a Comissão Europeia traçou a linha e deixa de fora todos os sistemas de IA que são "uma clara ameaça à segurança, subsistência e direitos das pessoas". Um exemplo pode ser a pontuação social pelos Governos ou a utilização de técnicas subliminares.

Para Sarah Chander, Conselheira Política Sénior da European Digital Rights (EDRi), a proposta da Comissão Europeia "corre o risco de permitir sistemas de vigilância realmente invasivos e discriminatórios de IA que, em vez disso, deveriam ser totalmente proibidos". Alguns dos seus exemplos incluem tecnologias para a instalação de drones nas fronteiras ou aplicações para avaliar os benefícios da segurança social.

Entretanto, recentemente, o Parlamento Europeu votou contra a vigilância em massa num relatório não vinculativo. "Opomo-nos claramente ao policiamento preditivo baseado na utilização de IA, bem como a qualquer processamento de dados biométricos que conduza à vigilância em massa", disse o eurodeputado Petar Vitanov, responsável pelo texto.

Será que o reconhecimento facial vai ser uma realidade na União Europeia?

O reconhecimento facial para fins de segurança é uma das questões quentes quando se lida com a regulamentação da Inteligência Artificial. Um estudo recente, encomendado pelos Verdes no Parlamento Europeu, mostra que dos 27 Estados-membros, 11 já utilizam a Inteligência Artificial. Alemanha, França, Hungria, Holanda ou Finlândia são alguns dos exemplos. 

Para a Comissão é uma utilização de alto risco, mas no Parlamento Europeu, as opiniões estão divididas. Enquanto alguns pedem uma proibição total, outros preferem uma tomada de posição diferente.

"Pedimos uma moratória sobre a implantação de sistemas de reconhecimento facial para fins de aplicação da lei, uma vez que a tecnologia provou ser ineficaz e conduz frequentemente a resultados discriminatórios", disse Petar Vitanov em meados de outubro. Contudo, numa conferência de imprensa, esta terça-feira, o eurodeputado Axel Voss, relator de outro texto sobre a IA, afirmou que "mesmo para o reconhecimento facial é possível estabelecer salvaguardas para que possa ser utilizado, mas não abusivamente utilizado".

O reconhecimento facial não será deixado de fora da legislação. Sarah Chander, adverte que ao estabelecer regras, os confrontos podem não surgir nível europeu, mas sim a nível nacional. Embora ela pense que ministérios como o da Inovação são "muito positivos" em relação à "necessidade de mais regulamentação baseada nos Direitos Humanos", a situação não é a mesma para os ministérios do Interior. Estes estão normalmente encarregados da polícia, pelo que "tendem a ser mais céticos contra as proibições de reconhecimento facial e o policiamento preditivo".

Podem ser evitados os riscos de reprodução de preconceitos?

Com a sua proposta, o objetivo da Comissão Europeia é que os sistemas de IA "não criem ou reproduzam preconceitos". Assim, os requisitos dos sistemas de IA de alto risco terão de ser "robustos" para satisfazer as necessidades.

Chander insiste que muitos sistemas de IA "aumentarão inerentemente a discriminação devido à própria natureza do seu funcionamento". Como afirmou, ela utiliza "dados e informações do ado e tenta aplicá-los ao futuro". Isto pode reproduzir preconceitos e discriminações que já existem na sociedade.

Em relação aos danos que poderiam causar, Chander diz que a Comissão ignorou um problema chave: a falta de oportunidade para os cidadãos se queixarem. Ela pede uma forma de os cidadãos, potencialmente afetados, se dirigirem a uma autoridade para garantir que os seus direitos são respeitados.

O que dizer da regulamentação excessiva ou da desregulamentação?

Desde o desejo de estabelecer o padrão mundial até ao risco de regulamentação excessiva que quebra a oportunidade de a tecnologia avançar. A União Europeia está a enfrentar um grande desafio com a regulamentação da Inteligência Artificial. Bruxelas espera que estabeleça um padrão global, tal como aconteceu com o Regulamento Geral sobre a Proteção de Dados (RGPD).

Para Margrethe Vestager, os problemas podem surgir se a UE não for capaz de a tornar segura. "A minha preocupação é que arriscamos que a tecnologia não seja desenvolvida e utilizada o mais amplamente possível se não formos bons a mitigar os riscos que lhe estão ligados".

Ao mesmo tempo, a UE deveria encontrar um equilíbrio entre a utilização estatal da IA pela China e a abordagem dos Estados Unidos da América com diretrizes voluntárias desenvolvidas em conjunto com as grandes empresas tecnológicas.

Ir para os atalhos de ibilidade
Partilhe esta notíciaComentários

Notícias relacionadas

Porque é que as novas tensões com os vizinhos atrasaram o pedido de adesão da Macedónia do Norte à UE

Como é que a UE vai explorar os ativos da Rússia para angariar 35 mil milhões de euros para a Ucrânia?

Como será escrutinada a equipa de Comissários Europeus nomeada por von der Leyen?