{ "@context": "https://schema.org/", "@graph": [ { "@type": "NewsArticle", "mainEntityOfPage": { "@type": "Webpage", "url": "/2023/05/08/que-questoes-levanta-o-uso-da-inteligencia-artificial-na-guerra" }, "headline": "Que quest\u00f5es levanta o uso da intelig\u00eancia artificial na guerra?", "description": "O uso de intelig\u00eancia artificial em cen\u00e1rios de guerra levanta uma s\u00e9rie de quest\u00f5es \u00e9ticas, legais e t\u00e9cnicas, abordadas nesta reportagem por dois especialistas.", "articleBody": "A Ucr\u00e2nia lan\u00e7a Brave 1, uma iniciativa ambiciosa para desenvolver tecnologia militar com a ajuda de especialistas de todo o mundo. Desde sistemas de defesa e seguran\u00e7a cibern\u00e9tica at\u00e9 \u00e0 cria\u00e7\u00e3o de armamentos n\u00e3o tradicionais, como armas automatizadas ou aut\u00f3nomas, que, gra\u00e7as \u00e0 intelig\u00eancia artificial, poderiam operar de forma independente e mudar para sempre as opera\u00e7\u00f5es militares. Mas a sua futura implementa\u00e7\u00e3o \u00e9 controversa. O grande debate \u00e9 qual ser\u00e1 o papel dos humanos? \u0022H\u00e1 constantemente miss\u00f5es abortadas por quest\u00f5es \u00e9ticas, legais, t\u00e9cnicas ou simplesmente pela pr\u00f3pria evolu\u00e7\u00e3o do combate\u0022, real\u00e7a\u00a0 Cesar Pintado, professor no CISDE (Campus Internacional de Seguran\u00e7a e Defesa, em Espanha).\u00a0 \u0022Isto tamb\u00e9m envolve uma perda de ag\u00eancia moral porque, com um operador humano, h\u00e1 sempre a possibilidade, em teoria, que um humano possa ter compaix\u00e3o, empatia e julgamento humano enquanto um sistema que \u00e9 treinado com base em dados e pr\u00e9-programado para fazer algo n\u00e3o tem essa op\u00e7\u00e3o\u0022, sublinha\u00a0 Anna Nadibaidze, que tem uma bolsa de doutoramento no Centro de Estudos de Guerra da Universidade da Dinamarca do Sul. C\u00e3es rob\u00f4s ou rob\u00f4s humanoides poder\u00e3o num futuro n\u00e3o muito distante participar em conflitos armados e evitar um grande n\u00famero de baixas. Mas h\u00e1 uma s\u00e9rie de riscos, ao usar a intelig\u00eancia artificial. Os modelos de dados que alimentam os algoritmos podem ter desvios, como erros de identifica\u00e7\u00e3o facial biom\u00e9trica ou inexist\u00eancia de uma avalia\u00e7\u00e3o profunda do seu ambiente. O especialista, Cesar Pintado, d\u00e1 um exemplo:\u00a0 \u0022Mas o que acontece se um ve\u00edculo blindado foi capturado pela sua pr\u00f3pria for\u00e7a ou ao contr\u00e1rio? E se esse modelo de tanque tamb\u00e9m estiver a ser usado por for\u00e7as aliadas ou se estiver momentaneamente pr\u00f3ximo de tropas aliadas ou contra zonas vedadas, como um templo ou uma escola?\u0022 \u0022Esta ideia de que os chamados rob\u00f4s assassinos quase adquirem a sua pr\u00f3pria consci\u00eancia e aparecem no campo de batalha, \u00e9 uma coisa futurista, da fic\u00e7\u00e3o cient\u00edfica e dos filmes, que n\u00e3o \u00e9 realmente no que o debate se deveria centrar\u0022, diz Anna Nadibaidze. Os cen\u00e1rios inexplorados da intelig\u00eancia artificial na guerra geram grande preocupa\u00e7\u00e3o na comunidade internacional. Ao n\u00edvel civil, especialistas em Intelig\u00eancia Artificial pediram uma suspens\u00e3o de seis meses do desenvolvimento desta tecnologia para estudar as suas poss\u00edveis consequ\u00eancias.\u00a0 Nadibaidze pede aos pa\u00edses que acelerem a sua regulamenta\u00e7\u00e3o. \u0022 Os governos de todo o mundo est\u00e3o muito interessados e visivelmente interessados em investir e continuar a investir muito dinheiro nestas tecnologias. H\u00e1 uma necessidade urgente de abordar isso com regras juridicamente vinculativas e enfrentar esses desafios, porque os regulamentos internacionais atuais e o direito humanit\u00e1rio internacional n\u00e3o s\u00e3o suficientes para enfrentar estes desafios\u0022, conclui.\u00a0 ", "dateCreated": "2023-05-04T16:11:51+02:00", "dateModified": "2023-05-08T07:01:52+02:00", "datePublished": "2023-05-08T07:00:46+02:00", "image": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Farticles%2Fstories%2F07%2F58%2F09%2F04%2F1440x810_cmsv2_80018434-cfd0-54e6-b1cf-6778d2f64a2f-7580904.jpg", "width": 1440, "height": 810, "caption": "O uso de drones tornou-se comum em cen\u00e1rios de guerra", "thumbnail": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Farticles%2Fstories%2F07%2F58%2F09%2F04%2F432x243_cmsv2_80018434-cfd0-54e6-b1cf-6778d2f64a2f-7580904.jpg", "publisher": { "@type": "Organization", "name": "euronews", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png" } }, "publisher": { "@type": "Organization", "name": "Euronews", "legalName": "Euronews", "url": "/", "logo": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png", "width": 403, "height": 60 }, "sameAs": [ "https://www.facebook.com/pt.euronews", "https://twitter.com/euronewspt", "https://flipboard.com/@euronewspt", "https://www.linkedin.com/company/euronews" ] }, "articleSection": [ "Mundo" ], "isAccessibleForFree": "False", "hasPart": { "@type": "WebPageElement", "isAccessibleForFree": "False", "cssSelector": ".poool-content" } }, { "@type": "WebSite", "name": "Euronews.com", "url": "/", "potentialAction": { "@type": "SearchAction", "target": "/search?query={search_term_string}", "query-input": "required name=search_term_string" }, "sameAs": [ "https://www.facebook.com/pt.euronews", "https://twitter.com/euronewspt", "https://flipboard.com/@euronewspt", "https://www.linkedin.com/company/euronews" ] } ] }
PUBLICIDADE

Que questões levanta o uso da inteligência artificial na guerra?

O uso de drones tornou-se comum em cenários de guerra
O uso de drones tornou-se comum em cenários de guerra Direitos de autor frame
Direitos de autor frame
De euronews
Publicado a
Partilhe esta notíciaComentários
Partilhe esta notíciaClose Button
Copiar/colar o link embed do vídeo:Copy to clipboardCopied

O uso de inteligência artificial em cenários de guerra levanta uma série de questões éticas, legais e técnicas, abordadas nesta reportagem por dois especialistas.

PUBLICIDADE

A Ucrânia lança Brave 1, uma iniciativa ambiciosa para desenvolver tecnologia militar com a ajuda de especialistas de todo o mundo.

Desde sistemas de defesa e segurança cibernética até à criação de armamentos não tradicionais, como armas automatizadas ou autónomas, que, graças à inteligência artificial, poderiam operar de forma independente e mudar para sempre as operações militares.

Mas a sua futura implementação é controversa. O grande debate é qual será o papel dos humanos?

"Há constantemente missões abortadas por questões éticas, legais, técnicas ou simplesmente pela própria evolução do combate", realça Cesar Pintado, professor no CISDE (Campus Internacional de Segurança e Defesa, em Espanha). 

"Isto também envolve uma perda de agência moral porque, com um operador humano, há sempre a possibilidade, em teoria, que um humano possa ter compaixão, empatia e julgamento humano enquanto um sistema que é treinado com base em dados e pré-programado para fazer algo não tem essa opção", sublinha Anna Nadibaidze, que tem uma bolsa de doutoramento no Centro de Estudos de Guerra da Universidade da Dinamarca do Sul.

Cães robôs ou robôs humanoides poderão num futuro não muito distante participar em conflitos armados e evitar um grande número de baixas.

Mas há uma série de riscos, ao usar a inteligência artificial. Os modelos de dados que alimentam os algoritmos podem ter desvios, como erros de identificação facial biométrica ou inexistência de uma avaliação profunda do seu ambiente.

O especialista, Cesar Pintado, dá um exemplo: "Mas o que acontece se um veículo blindado foi capturado pela sua própria força ou ao contrário? E se esse modelo de tanque também estiver a ser usado por forças aliadas ou se estiver momentaneamente próximo de tropas aliadas ou contra zonas vedadas, como um templo ou uma escola?"

"Esta ideia de que os chamados robôs assassinos quase adquirem a sua própria consciência e aparecem no campo de batalha, é uma coisa futurista, da ficção científica e dos filmes, que não é realmente no que o debate se deveria centrar", diz Anna Nadibaidze.

Os cenários inexplorados da inteligência artificial na guerra geram grande preocupação na comunidade internacional. Ao nível civil, especialistas em Inteligência Artificial pediram uma suspensão de seis meses do desenvolvimento desta tecnologia para estudar as suas possíveis consequências. 

Nadibaidze pede aos países que acelerem a sua regulamentação. "Os governos de todo o mundo estão muito interessados e visivelmente interessados em investir e continuar a investir muito dinheiro nestas tecnologias. Há uma necessidade urgente de abordar isso com regras juridicamente vinculativas e enfrentar esses desafios, porque os regulamentos internacionais atuais e o direito humanitário internacional não são suficientes para enfrentar estes desafios", conclui.

Ir para os atalhos de ibilidade
Partilhe esta notíciaComentários

Notícias relacionadas

Conselho de Segurança da ONU convoca sessão histórica para debater ameaça da IA à paz mundial

Bruxelas e Google desenvolvem pacto sobre a IA

Não é fácil uma empresa ocidental deixar a Rússia