{ "@context": "https://schema.org/", "@graph": [ { "@type": "NewsArticle", "mainEntityOfPage": { "@type": "Webpage", "url": "/next/2023/09/25/ha-seis-meses-especialistas-pediram-uma-pausa-nas-experiencias-de-ia-em-que-ponto-estamos-" }, "headline": "H\u00e1 seis meses, especialistas pediram uma pausa nas experi\u00eancias de IA. Em que ponto estamos agora?", "description": "L\u00edderes tecnol\u00f3gicos am uma carta aberta apelando a uma pausa nas experi\u00eancias de intelig\u00eancia artificial, mas ser\u00e1 que os seus avisos foram ouvidos?", "articleBody": "A Intelig\u00eancia Artificial (IA) representa um risco potencialmente existencial para a humanidade? Essa \u00e9 a opini\u00e3o do Future of Life Institute (FLI), que publicou uma carta aberta h\u00e1 seis meses, apelando a uma \u0022pausa imediata\u0022 nas grandes experi\u00eancias de IA. A carta surgiu no meio de uma vaga de interesse p\u00fablico pela IA generativa, uma vez que aplica\u00e7\u00f5es como o ChatGPT e Midjourney mostraram como a tecnologia est\u00e1 cada vez mais perto de replicar a capacidade humana na escrita e na arte. Para os signat\u00e1rios da carta - que inclu\u00edam o CEO da X, Tesla e SpaceX, Elon Musk, o cofundador da Apple, Steve Wozniak, e o autor Yuval Noah Harari - o aumento aparentemente repentino da IA generativa exige\u00a0 uma pausa . Empresas como a OpenAI, do ChatGPT, e a Google foram convidadas a considerar os \u0022riscos profundos para a sociedade e para a humanidade\u0022 que a sua tecnologia poder\u00e1 estar a criar. \u00c9 justo dizer que os principais atores n\u00e3o carregaram no bot\u00e3o de pausa. Em vez disso, mais empresas juntaram-se \u00e0 corrida da IA generativa com os seus pr\u00f3prios modelos de linguagem de grande dimens\u00e3o (LLM), com a Meta a lan\u00e7ar o Llama 2 e a Anthropic a apresentar o seu rival Claude 2 do ChatGPT. Independentemente de os avisos terem ou n\u00e3o sido ouvidos pelos gigantes da tecnologia, a carta do FLI constituiu uma esp\u00e9cie de marco no que se est\u00e1 a preparar para ser recordado como o ano da IA. Mark Brakel, diretor de pol\u00edtica do instituto, diz que n\u00e3o esperavam obter a resposta que a carta recebeu, com uma cobertura generalizada da imprensa e uma urg\u00eancia renovada dos governos em saber o que fazer com o r\u00e1pido progresso da IA. A carta foi citada numa audi\u00e7\u00e3o no Senado dos EUA e suscitou uma resposta formal do Parlamento Europeu. Brakel disse \u00e0 Euronews Next que a pr\u00f3xima cimeira mundial sobre a seguran\u00e7a da IA, que ter\u00e1 lugar em Bletchley Park, no Reino Unido, ser\u00e1 uma boa oportunidade para os governos se manifestarem quando as empresas se recusarem a travar. A palavra de ordem tem sido \u0022IA generativa\u0022, mas em breve poder\u00e1 ser \u0022IA ag\u00eantica\u0022, em que a IA pode, efetivamente, tomar decis\u00f5es e agir de forma aut\u00f3noma. \u0022Penso que essa \u00e9 talvez a linha de tend\u00eancia que estamos a ver - e tamb\u00e9m vemos como a OpenAI quase raspou toda a Internet de texto. Estamos a come\u00e7ar a ver a recolha de v\u00eddeos, podcasts e Spotify como fontes alternativas de dados, v\u00eddeo e voz\u0022, afirma. Rumo ao desastre? Brakel salienta que, embora \u0022nos tenhamos tornado um pouco como 'a organiza\u00e7\u00e3o das cartas'\u0022, o FLI foi fundado em 2014 e tem trabalhado em tr\u00eas grandes \u00e1reas de risco a n\u00edvel civil: intelig\u00eancia artificial, biotecnologia e armas nucleares. No seu website, o FLI tem um v\u00eddeo particularmente impressionante, um relato fict\u00edcio, produzido de forma dispendiosa, de uma cat\u00e1strofe global da intelig\u00eancia artificial no ano 2032. No meio das tens\u00f5es entre Taiwan e a China, a depend\u00eancia militar da IA para a tomada de decis\u00f5es conduz a uma guerra nuclear total, terminando o v\u00eddeo com o planeta iluminado por armas nucleares. Brakel acredita que nos aproxim\u00e1mos deste tipo de cen\u00e1rio. \u0022A integra\u00e7\u00e3o da intelig\u00eancia artificial no comando e controlo militar ainda est\u00e1 a progredir, especialmente nas grandes pot\u00eancias. No entanto, tamb\u00e9m vejo um maior desejo dos Estados de regulamentar, especialmente quando se olha para a autonomia dos sistemas de armas convencionais\u0022, afirmou. O pr\u00f3ximo ano tamb\u00e9m parece ser promissor para a regulamenta\u00e7\u00e3o da autonomia em sistemas como drones, submarinos e tanques, acrescentou. \u0022Espero que isso tamb\u00e9m permita que as grandes pot\u00eancias cheguem a acordos para evitar acidentes no comando e controlo nuclear, que \u00e9 um n\u00edvel mais sens\u00edvel do que as armas convencionais.\u0022 Regulamenta\u00e7\u00e3o a caminho Embora as principais empresas de intelig\u00eancia artificial n\u00e3o tenham feito uma pausa nas suas experi\u00eancias, os seus l\u00edderes reconheceram abertamente os riscos profundos que a IA e a automa\u00e7\u00e3o representam para a humanidade. O CEO da OpenAI, Sam Altman, apelou aos pol\u00edticos norte-americanos no in\u00edcio deste ano para estabelecerem uma regulamenta\u00e7\u00e3o governamental da IA, revelando que os seus \u0022piores receios s\u00e3o que n\u00f3s (...), a ind\u00fastria tecnol\u00f3gica, causemos danos significativos ao mundo\u0022. Isso poderia acontecer de \u0022muitas maneiras diferentes\u0022, acrescentou. Defendeu a cria\u00e7\u00e3o de uma ag\u00eancia norte-americana ou mundial que licencie os sistemas de IA mais potentes. A Europa pode, no entanto, vir a ser o l\u00edder na regulamenta\u00e7\u00e3o da IA, com a Lei da IA da Uni\u00e3o Europeia em prepara\u00e7\u00e3o. Os pormenores finais ainda est\u00e3o a ser trabalhados entre as institui\u00e7\u00f5es do bloco, tendo o Parlamento Europeu votado esmagadoramente com 499 votos a favor, 28 contra e 93 absten\u00e7\u00f5es. De acordo com a lei, os sistemas de intelig\u00eancia artificial ser\u00e3o classificados em diferentes n\u00edveis com base no grau de risco, sendo os tipos mais arriscados proibidos e os sistemas de risco limitado exigindo certos n\u00edveis de transpar\u00eancia e supervis\u00e3o. \u0022De um modo geral, estamos bastante satisfeitos com a lei\u0022, diz Brakel. \u0022Um aspeto que defendemos desde o in\u00edcio, quando a lei foi proposta pela Comiss\u00e3o, \u00e9 a necessidade de regulamentar os sistemas baseados em GPT. Na altura est\u00e1vamos a falar de GPT3 em vez de 4 [modelos de transformadores da OpenAI], mas o princ\u00edpio continua a ser o mesmo e enfrentamos muitos l\u00f3bis das grandes tecnologias contra isso. \u0022A narrativa \u00e9 a mesma nos EUA e na Uni\u00e3o Europeia (UE): s\u00f3 os utilizadores dos sistemas de IA, os respons\u00e1veis pela sua implementa\u00e7\u00e3o, sabem em que contexto est\u00e3o a ser implementados.\u0022 D\u00e1 o exemplo de um hospital que utiliza um chatbot para o o com os doentes. \u0022O hospital vai comprar o chatbot da OpenAI, n\u00e3o o vai construir. E se depois houver um erro pelo qual seja responsabilizado por ter dado um conselho m\u00e9dico que n\u00e3o devia, ent\u00e3o \u00e9 evidente que tem de compreender o tipo de produto que comprou. E parte dessa responsabilidade deve ser partilhada.\u0022 Enquanto a Europa aguarda a formula\u00e7\u00e3o final da Lei da IA da UE, a cimeira mundial sobre seguran\u00e7a da intelig\u00eancia artificial, a 1 de novembro, dever\u00e1 ser o pr\u00f3ximo evento a fornecer algumas informa\u00e7\u00f5es sobre a forma como os l\u00edderes mundiais ir\u00e3o abordar a regulamenta\u00e7\u00e3o da IA num futuro pr\u00f3ximo. ", "dateCreated": "2023-09-20T16:28:52+02:00", "dateModified": "2023-09-25T12:08:57+02:00", "datePublished": "2023-09-25T12:08:44+02:00", "image": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Farticles%2Fstories%2F07%2F90%2F90%2F60%2F1440x810_cmsv2_c00f0636-5430-50a5-9a2f-cfabcbd7ade0-7909060.jpg", "width": 1440, "height": 810, "caption": "As m\u00e1quinas e a IA representam um risco existencial para a humanidade?", "thumbnail": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Farticles%2Fstories%2F07%2F90%2F90%2F60%2F432x243_cmsv2_c00f0636-5430-50a5-9a2f-cfabcbd7ade0-7909060.jpg", "publisher": { "@type": "Organization", "name": "euronews", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png" } }, "author": [ { "@type": "Person", "familyName": "Hurst", "givenName": "Luke", "name": "Luke Hurst", "url": "/perfis/1742", "worksFor": { "@type": "Organization", "name": "Euronews", "url": "/", "logo": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png", "width": 403, "height": 60 }, "sameAs": [ "https://www.facebook.com/pt.euronews", "https://twitter.com/euronewspt", "https://flipboard.com/@euronewspt", "https://www.linkedin.com/company/euronews" ] }, "sameAs": "https://www.x.com/@lukekhurst", "jobTitle": "Journaliste Producer", "memberOf": { "@type": "Organization", "name": "Equipe de langue anglaise" } } ], "publisher": { "@type": "Organization", "name": "Euronews", "legalName": "Euronews", "url": "/", "logo": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png", "width": 403, "height": 60 }, "sameAs": [ "https://www.facebook.com/pt.euronews", "https://twitter.com/euronewspt", "https://flipboard.com/@euronewspt", "https://www.linkedin.com/company/euronews" ] }, "articleSection": [ "Noticias Tecnologia" ], "isAccessibleForFree": "False", "hasPart": { "@type": "WebPageElement", "isAccessibleForFree": "False", "cssSelector": ".poool-content" } }, { "@type": "WebSite", "name": "Euronews.com", "url": "/", "potentialAction": { "@type": "SearchAction", "target": "/search?query={search_term_string}", "query-input": "required name=search_term_string" }, "sameAs": [ "https://www.facebook.com/pt.euronews", "https://twitter.com/euronewspt", "https://flipboard.com/@euronewspt", "https://www.linkedin.com/company/euronews" ] } ] }
PUBLICIDADE

Há seis meses, especialistas pediram uma pausa nas experiências de IA. Em que ponto estamos agora?

As máquinas e a IA representam um risco existencial para a humanidade?
As máquinas e a IA representam um risco existencial para a humanidade? Direitos de autor Canva
Direitos de autor Canva
De Luke Hurst
Publicado a Últimas notícias
Partilhe esta notíciaComentários
Partilhe esta notíciaClose Button

Líderes tecnológicos am uma carta aberta apelando a uma pausa nas experiências de inteligência artificial, mas será que os seus avisos foram ouvidos?

PUBLICIDADE

A Inteligência Artificial (IA) representa um risco potencialmente existencial para a humanidade? Essa é a opinião do Future of Life Institute (FLI), que publicou uma carta aberta há seis meses, apelando a uma "pausa imediata" nas grandes experiências de IA.

A carta surgiu no meio de uma vaga de interesse público pela IA generativa, uma vez que aplicações como o ChatGPT e Midjourney mostraram como a tecnologia está cada vez mais perto de replicar a capacidade humana na escrita e na arte.

Para os signatários da carta - que incluíam o CEO da X, Tesla e SpaceX, Elon Musk, o cofundador da Apple, Steve Wozniak, e o autor Yuval Noah Harari - o aumento aparentemente repentino da IA generativa exige uma pausa. Empresas como a OpenAI, do ChatGPT, e a Google foram convidadas a considerar os "riscos profundos para a sociedade e para a humanidade" que a sua tecnologia poderá estar a criar.

É justo dizer que os principais atores não carregaram no botão de pausa.

Em vez disso, mais empresas juntaram-se à corrida da IA generativa com os seus próprios modelos de linguagem de grande dimensão (LLM), com a Meta a lançar o Llama 2 e a Anthropic a apresentar o seu rival Claude 2 do ChatGPT.

Independentemente de os avisos terem ou não sido ouvidos pelos gigantes da tecnologia, a carta do FLI constituiu uma espécie de marco no que se está a preparar para ser recordado como o ano da IA.

Mark Brakel, diretor de política do instituto, diz que não esperavam obter a resposta que a carta recebeu, com uma cobertura generalizada da imprensa e uma urgência renovada dos governos em saber o que fazer com o rápido progresso da IA.

A carta foi citada numa audição no Senado dos EUA e suscitou uma resposta formal do Parlamento Europeu.

Brakel disse à Euronews Next que a próxima cimeira mundial sobre a segurança da IA, que terá lugar em Bletchley Park, no Reino Unido, será uma boa oportunidade para os governos se manifestarem quando as empresas se recusarem a travar.

A palavra de ordem tem sido "IA generativa", mas em breve poderá ser "IA agêntica", em que a IA pode, efetivamente, tomar decisões e agir de forma autónoma.

"Penso que essa é talvez a linha de tendência que estamos a ver - e também vemos como a OpenAI quase raspou toda a Internet de texto. Estamos a começar a ver a recolha de vídeos, podcasts e Spotify como fontes alternativas de dados, vídeo e voz", afirma.

Rumo ao desastre?

Brakel salienta que, embora "nos tenhamos tornado um pouco como 'a organização das cartas'", o FLI foi fundado em 2014 e tem trabalhado em três grandes áreas de risco a nível civil: inteligência artificial, biotecnologia e armas nucleares.

No seu website, o FLI tem um vídeo particularmente impressionante, um relato fictício, produzido de forma dispendiosa, de uma catástrofe global da inteligência artificial no ano 2032. No meio das tensões entre Taiwan e a China, a dependência militar da IA para a tomada de decisões conduz a uma guerra nuclear total, terminando o vídeo com o planeta iluminado por armas nucleares.

Brakel acredita que nos aproximámos deste tipo de cenário.

"A integração da inteligência artificial no comando e controlo militar ainda está a progredir, especialmente nas grandes potências. No entanto, também vejo um maior desejo dos Estados de regulamentar, especialmente quando se olha para a autonomia dos sistemas de armas convencionais", afirmou.

O próximo ano também parece ser promissor para a regulamentação da autonomia em sistemas como drones, submarinos e tanques, acrescentou.

"Espero que isso também permita que as grandes potências cheguem a acordos para evitar acidentes no comando e controlo nuclear, que é um nível mais sensível do que as armas convencionais."

Regulamentação a caminho

Embora as principais empresas de inteligência artificial não tenham feito uma pausa nas suas experiências, os seus líderes reconheceram abertamente os riscos profundos que a IA e a automação representam para a humanidade.

O CEO da OpenAI, Sam Altman, apelou aos políticos norte-americanos no início deste ano para estabelecerem uma regulamentação governamental da IA, revelando que os seus "piores receios são que nós (...), a indústria tecnológica, causemos danos significativos ao mundo". Isso poderia acontecer de "muitas maneiras diferentes", acrescentou. Defendeu a criação de uma agência norte-americana ou mundial que licencie os sistemas de IA mais potentes.

A Europa pode, no entanto, vir a ser o líder na regulamentação da IA, com a Lei da IA da União Europeia em preparação.

Os pormenores finais ainda estão a ser trabalhados entre as instituições do bloco, tendo o Parlamento Europeu votado esmagadoramente com 499 votos a favor, 28 contra e 93 abstenções.

De acordo com a lei, os sistemas de inteligência artificial serão classificados em diferentes níveis com base no grau de risco, sendo os tipos mais arriscados proibidos e os sistemas de risco limitado exigindo certos níveis de transparência e supervisão.

"De um modo geral, estamos bastante satisfeitos com a lei", diz Brakel. "Um aspeto que defendemos desde o início, quando a lei foi proposta pela Comissão, é a necessidade de regulamentar os sistemas baseados em GPT. Na altura estávamos a falar de GPT3 em vez de 4 [modelos de transformadores da OpenAI], mas o princípio continua a ser o mesmo e enfrentamos muitos lóbis das grandes tecnologias contra isso.

"A narrativa é a mesma nos EUA e na União Europeia (UE): só os utilizadores dos sistemas de IA, os responsáveis pela sua implementação, sabem em que contexto estão a ser implementados."

Dá o exemplo de um hospital que utiliza um chatbot para o o com os doentes. "O hospital vai comprar o chatbot da OpenAI, não o vai construir. E se depois houver um erro pelo qual seja responsabilizado por ter dado um conselho médico que não devia, então é evidente que tem de compreender o tipo de produto que comprou. E parte dessa responsabilidade deve ser partilhada."

Enquanto a Europa aguarda a formulação final da Lei da IA da UE, a cimeira mundial sobre segurança da inteligência artificial, a 1 de novembro, deverá ser o próximo evento a fornecer algumas informações sobre a forma como os líderes mundiais irão abordar a regulamentação da IA num futuro próximo.

Ir para os atalhos de ibilidade
Partilhe esta notíciaComentários

Notícias relacionadas

Companheiros de inteligência artificial apresentam comportamentos nocivos

A IA não quer desligar-se. Explicar? Castigá-la? Privá-la de doces? Cabe ao humano

Que armas de longo alcance pode a Ucrânia começar a utilizar contra a Rússia?