{ "@context": "https://schema.org/", "@graph": [ { "@type": "NewsArticle", "mainEntityOfPage": { "@type": "Webpage", "url": "/next/2024/02/14/microsoft-afirma-que-os-rivais-dos-eua-estao-a-comecar-a-utilizar-a-ia-generativa-em-opera" }, "headline": "Microsoft afirma que os rivais dos EUA est\u00e3o a come\u00e7ar a utilizar a IA generativa em opera\u00e7\u00f5es cibern\u00e9ticas ofensivas", "description": "Os cr\u00edticos do lan\u00e7amento p\u00fablico do ChatGPT em novembro de 2022, e dos lan\u00e7amentos subsequentes pelos concorrentes, afirmam que foi irresponsavelmente precipitado, considerando que a seguran\u00e7a foi em grande parte uma reflex\u00e3o tardia no seu desenvolvimento.", "articleBody": "A Microsoft afirmou na quarta-feira que os advers\u00e1rios dos EUA, principalmente o Ir\u00e3o e a Coreia do Norte e, em menor escala, a R\u00fassia e a China, est\u00e3o a come\u00e7ar a utilizar a intelig\u00eancia artificial (IA) generativa para montar ou organizar opera\u00e7\u00f5es cibern\u00e9ticas ofensivas. O gigante da tecnologia disse que detetou e interrompeu, em colabora\u00e7\u00e3o com o parceiro de neg\u00f3cios OpenAI, amea\u00e7as que utilizavam ou tentavam explorar a tecnologia de IA que tinham desenvolvido. Numa publica\u00e7\u00e3o no seu blogue, a empresa de Redmond, Washington, afirmou que as t\u00e9cnicas estavam \u0022numa fase inicial\u0022 e n\u00e3o eram \u0022particularmente novas ou \u00fanicas\u0022, mas que era importante exp\u00f4-las publicamente, uma vez que os rivais dos EUA utilizam modelos de grande linguagem para expandir a sua capacidade de violar redes e conduzir opera\u00e7\u00f5es de influ\u00eancia. As empresas de ciberseguran\u00e7a h\u00e1 muito que utilizam a aprendizagem autom\u00e1tica na defesa, principalmente para detetar comportamentos an\u00f3malos nas redes. Mas os criminosos e os hackers ofensivos tamb\u00e9m a utilizam, e a introdu\u00e7\u00e3o de modelos de grande dimens\u00e3o lingu\u00edstica, liderados pelo ChatGPT da OpenAI, veio aumentar o jogo do gato e do rato. A Microsoft investiu milhares de milh\u00f5es de d\u00f3lares na OpenAI e o an\u00fancio de quarta-feira coincidiu com o lan\u00e7amento de um relat\u00f3rio que refere que a IA generativa dever\u00e1 melhorar a engenharia social maliciosa, conduzindo a deepfakes mais sofisticados e \u00e0 clonagem de voz, uma amea\u00e7a \u00e0 democracia num ano em que mais de 50 pa\u00edses v\u00e3o realizar elei\u00e7\u00f5es, ampliando a desinforma\u00e7\u00e3o. Eis alguns exemplos fornecidos pela Microsoft. Em cada caso, a Microsoft afirmou que todas as contas e ativos de IA generativa dos grupos nomeados foram desativados: O grupo de ciberespionagem norte-coreano conhecido como Kimsuky utilizou os modelos para pesquisar grupos de reflex\u00e3o estrangeiros que estudam o pa\u00eds e para gerar conte\u00fados suscept\u00edveis de serem utilizados em campanhas de hacking de spear-phishing. A Guarda Revolucion\u00e1ria do Ir\u00e3o utilizou modelos em grande escala para ajudar na engenharia social, na resolu\u00e7\u00e3o de erros de software e at\u00e9 para estudar a forma como os intrusos podem evitar a dete\u00e7\u00e3o numa rede comprometida. Isso inclui a gera\u00e7\u00e3o de e-mails de phishing \u0022incluindo um que finge vir de uma ag\u00eancia de desenvolvimento internacional e outro que tenta atrair feministas proeminentes para um site sobre feminismo criado por um atacante\u0022. A IA ajuda a acelerar e a impulsionar a produ\u00e7\u00e3o de correio eletr\u00f3nico. A unidade de intelig\u00eancia militar russa GRU, conhecida como Fancy Bear, utilizou os modelos para pesquisar tecnologias de sat\u00e9lite e radar que possam estar relacionadas com a guerra na Ucr\u00e2nia. O grupo chin\u00eas de ciberespionagem conhecido como Aquatic Panda - que tem como alvo uma vasta gama de ind\u00fastrias, ensino superior e governos, de Fran\u00e7a \u00e0 Mal\u00e1sia - interagiu com os modelos \u0022de formas que sugerem uma explora\u00e7\u00e3o limitada da forma como os LLM podem aumentar as suas opera\u00e7\u00f5es t\u00e9cnicas\u0022. O grupo chin\u00eas Maverick Panda, que h\u00e1 mais de uma d\u00e9cada tem como alvo, entre outros setores, os empreiteiros de defesa dos EUA, interagiu com modelos de grande dimens\u00e3o lingu\u00edstica, sugerindo que estava a avaliar a sua efic\u00e1cia como fonte de informa\u00e7\u00e3o \u0022sobre t\u00f3picos potencialmente sens\u00edveis, indiv\u00edduos de alto perfil, geopol\u00edtica regional, influ\u00eancia dos EUA e assuntos internos\u0022. Abriu-se a \u0022caixa de Pandora Num blogue separado publicado na quarta-feira, a OpenAI afirmou que o seu atual modelo de chatbot GPT-4 oferece \u0022apenas capacidades limitadas e incrementais para tarefas maliciosas de ciberseguran\u00e7a, para al\u00e9m do que j\u00e1 \u00e9 poss\u00edvel alcan\u00e7ar com ferramentas publicamente dispon\u00edveis, n\u00e3o alimentadas por IA\u0022. Os investigadores de ciberseguran\u00e7a esperam que isso mude. Em abril ado, a directora da Ag\u00eancia de Ciberseguran\u00e7a e Seguran\u00e7a de Infra-estruturas dos EUA, Jen Easterly, disse ao Congresso que \u0022h\u00e1 duas amea\u00e7as e desafios que definem uma \u00e9poca. Uma \u00e9 a China e a outra \u00e9 a intelig\u00eancia artificial\u0022. Na altura, Jen Easterly afirmou que os EUA t\u00eam de garantir que a IA \u00e9 constru\u00edda tendo em conta a seguran\u00e7a. Os cr\u00edticos do lan\u00e7amento p\u00fablico do ChatGPT em novembro de 2022 - e os lan\u00e7amentos subsequentes de concorrentes, incluindo Google e Meta - afirmam que foi irresponsavelmente precipitado, considerando que a seguran\u00e7a foi em grande parte uma reflex\u00e3o tardia em seu desenvolvimento. \u0022\u00c9 claro que os maus atores est\u00e3o usando modelos de linguagem grande - essa decis\u00e3o foi tomada quando a Caixa de Pandora foi aberta\u0022, disse Amit Yoran, CEO da empresa de seguran\u00e7a cibern\u00e9tica Tenable. Alguns profissionais de ciberseguran\u00e7a queixam-se do facto de a Microsoft ter criado e comercializado ferramentas para resolver as vulnerabilidades dos modelos de linguagem grande, quando poderia, de forma mais respons\u00e1vel, concentrar-se em torn\u00e1-los mais seguros. \u0022Porque n\u00e3o criar modelos de base LLM de caixa negra mais seguros em vez de vender ferramentas defensivas para um problema que est\u00e3o a ajudar a criar?\u0022, perguntou Gary McGraw, um veterano da seguran\u00e7a inform\u00e1tica e cofundador do Berryville Institute of Machine Learning. Edward Amoroso, professor da Universidade de Nova Iorque e antigo diretor de seguran\u00e7a da AT&T, afirmou que, embora a utiliza\u00e7\u00e3o de IA e de modelos de linguagem de grande dimens\u00e3o possa n\u00e3o representar uma amea\u00e7a imediatamente \u00f3bvia, \u0022acabar\u00e1 por se tornar uma das armas mais poderosas no ataque militar de qualquer Estado-na\u00e7\u00e3o\u0022. ", "dateCreated": "2024-02-14T16:46:04+01:00", "dateModified": "2024-02-14T17:51:07+01:00", "datePublished": "2024-02-14T17:51:05+01:00", "image": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Farticles%2Fstories%2F08%2F24%2F04%2F14%2F1440x810_cmsv2_97a30619-b795-59ee-860d-8d39295c9404-8240414.jpg", "width": "1440px", "height": "810px", "caption": "A Microsoft alerta para o facto de os pa\u00edses utilizarem a IA em opera\u00e7\u00f5es cibern\u00e9ticas ofensivas.", "thumbnail": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Farticles%2Fstories%2F08%2F24%2F04%2F14%2F432x243_cmsv2_97a30619-b795-59ee-860d-8d39295c9404-8240414.jpg", "publisher": { "@type": "Organization", "name": "euronews", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png" } }, "author": { "@type": "Organization", "name": "Euronews", "sameAs": [ "https://www.facebook.com/pt.euronews", "https://twitter.com/euronewspt", "https://flipboard.com/@euronewspt", "https://www.linkedin.com/company/euronews" ], "url": "/" }, "publisher": { "@type": "Organization", "name": "Euronews", "legalName": "Euronews", "url": "/", "logo": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png", "width": "403px", "height": "60px" }, "sameAs": [ "https://www.facebook.com/pt.euronews", "https://twitter.com/euronewspt", "https://flipboard.com/@euronewspt", "https://www.linkedin.com/company/euronews" ] }, "articleSection": [ "Noticias Tecnologia" ], "isAccessibleForFree": "False", "hasPart": { "@type": "WebPageElement", "isAccessibleForFree": "False", "cssSelector": ".poool-content" } }, { "@type": "WebSite", "name": "Euronews.com", "url": "/", "potentialAction": { "@type": "SearchAction", "target": "/search?query={search_term_string}", "query-input": "required name=search_term_string" }, "sameAs": [ "https://www.facebook.com/pt.euronews", "https://twitter.com/euronewspt", "https://flipboard.com/@euronewspt", "https://www.linkedin.com/company/euronews" ] } ] }
PUBLICIDADE

Microsoft afirma que os rivais dos EUA estão a começar a utilizar a IA generativa em operações cibernéticas ofensivas

A Microsoft alerta para o facto de os países utilizarem a IA em operações cibernéticas ofensivas.
A Microsoft alerta para o facto de os países utilizarem a IA em operações cibernéticas ofensivas. Direitos de autor Canva
Direitos de autor Canva
De Associated Press
Publicado a
Partilhe esta notíciaComentários
Partilhe esta notíciaClose Button

Os críticos do lançamento público do ChatGPT em novembro de 2022, e dos lançamentos subsequentes pelos concorrentes, afirmam que foi irresponsavelmente precipitado, considerando que a segurança foi em grande parte uma reflexão tardia no seu desenvolvimento.

PUBLICIDADE

A Microsoft afirmou na quarta-feira que os adversários dos EUA, principalmente o Irão e a Coreia do Norte e, em menor escala, a Rússia e a China, estão a começar a utilizar a inteligência artificial (IA) generativa para montar ou organizar operações cibernéticas ofensivas.

O gigante da tecnologia disse que detetou e interrompeu, em colaboração com o parceiro de negócios OpenAI, ameaças que utilizavam ou tentavam explorar a tecnologia de IA que tinham desenvolvido.

Numa publicação no seu blogue, a empresa de Redmond, Washington, afirmou que as técnicas estavam "numa fase inicial" e não eram "particularmente novas ou únicas", mas que era importante expô-las publicamente, uma vez que os rivais dos EUA utilizam modelos de grande linguagem para expandir a sua capacidade de violar redes e conduzir operações de influência.

As empresas de cibersegurança há muito que utilizam a aprendizagem automática na defesa, principalmente para detetar comportamentos anómalos nas redes. Mas os criminosos e os hackers ofensivos também a utilizam, e a introdução de modelos de grande dimensão linguística, liderados pelo ChatGPT da OpenAI, veio aumentar o jogo do gato e do rato.

A Microsoft investiu milhares de milhões de dólares na OpenAI e o anúncio de quarta-feira coincidiu com o lançamento de um relatório que refere que a IA generativa deverá melhorar a engenharia social maliciosa, conduzindo a deepfakes mais sofisticados e à clonagem de voz, uma ameaça à democracia num ano em que mais de 50 países vão realizar eleições, ampliando a desinformação.

Eis alguns exemplos fornecidos pela Microsoft. Em cada caso, a Microsoft afirmou que todas as contas e ativos de IA generativa dos grupos nomeados foram desativados:

  • O grupo de ciberespionagem norte-coreano conhecido como Kimsuky utilizou os modelos para pesquisar grupos de reflexão estrangeiros que estudam o país e para gerar conteúdos susceptíveis de serem utilizados em campanhas de hacking de spear-phishing.
  • A Guarda Revolucionária do Irão utilizou modelos em grande escala para ajudar na engenharia social, na resolução de erros de software e até para estudar a forma como os intrusos podem evitar a deteção numa rede comprometida. Isso inclui a geração de e-mails de phishing "incluindo um que finge vir de uma agência de desenvolvimento internacional e outro que tenta atrair feministas proeminentes para um site sobre feminismo criado por um atacante". A IA ajuda a acelerar e a impulsionar a produção de correio eletrónico.
  • A unidade de inteligência militar russa GRU, conhecida como Fancy Bear, utilizou os modelos para pesquisar tecnologias de satélite e radar que possam estar relacionadas com a guerra na Ucrânia.
  • O grupo chinês de ciberespionagem conhecido como Aquatic Panda - que tem como alvo uma vasta gama de indústrias, ensino superior e governos, de França à Malásia - interagiu com os modelos "de formas que sugerem uma exploração limitada da forma como os LLM podem aumentar as suas operações técnicas".
  • O grupo chinês Maverick Panda, que há mais de uma década tem como alvo, entre outros setores, os empreiteiros de defesa dos EUA, interagiu com modelos de grande dimensão linguística, sugerindo que estava a avaliar a sua eficácia como fonte de informação "sobre tópicos potencialmente sensíveis, indivíduos de alto perfil, geopolítica regional, influência dos EUA e assuntos internos".

Abriu-se a "caixa de Pandora

Num blogue separado publicado na quarta-feira, a OpenAI afirmou que o seu atual modelo de chatbot GPT-4 oferece "apenas capacidades limitadas e incrementais para tarefas maliciosas de cibersegurança, para além do que já é possível alcançar com ferramentas publicamente disponíveis, não alimentadas por IA".

Os investigadores de cibersegurança esperam que isso mude.

Em abril ado, a directora da Agência de Cibersegurança e Segurança de Infra-estruturas dos EUA, Jen Easterly, disse ao Congresso que "há duas ameaças e desafios que definem uma época. Uma é a China e a outra é a inteligência artificial".

Na altura, Jen Easterly afirmou que os EUA têm de garantir que a IA é construída tendo em conta a segurança.

Os críticos do lançamento público do ChatGPT em novembro de 2022 - e os lançamentos subsequentes de concorrentes, incluindo Google e Meta - afirmam que foi irresponsavelmente precipitado, considerando que a segurança foi em grande parte uma reflexão tardia em seu desenvolvimento.

"É claro que os maus atores estão usando modelos de linguagem grande - essa decisão foi tomada quando a Caixa de Pandora foi aberta", disse Amit Yoran, CEO da empresa de segurança cibernética Tenable.

Alguns profissionais de cibersegurança queixam-se do facto de a Microsoft ter criado e comercializado ferramentas para resolver as vulnerabilidades dos modelos de linguagem grande, quando poderia, de forma mais responsável, concentrar-se em torná-los mais seguros.

"Porque não criar modelos de base LLM de caixa negra mais seguros em vez de vender ferramentas defensivas para um problema que estão a ajudar a criar?", perguntou Gary McGraw, um veterano da segurança informática e cofundador do Berryville Institute of Machine Learning.

Edward Amoroso, professor da Universidade de Nova Iorque e antigo diretor de segurança da AT&T, afirmou que, embora a utilização de IA e de modelos de linguagem de grande dimensão possa não representar uma ameaça imediatamente óbvia, "acabará por se tornar uma das armas mais poderosas no ataque militar de qualquer Estado-nação".

Ir para os atalhos de ibilidade
Partilhe esta notíciaComentários

Notícias relacionadas

Microsoft e Vaticano criam gémeo digital 3D da Basílica de São Pedro

Microsoft viola regras antitrust com o Teams, diz Comissão Europeia

Microsoft compromete-se a investir 4,3 mil milhões de dólares em França