{ "@context": "https://schema.org/", "@graph": [ { "@type": "NewsArticle", "mainEntityOfPage": { "@type": "Webpage", "url": "/2023/02/17/a-inteligencia-artificial-no-campo-de-batalha" }, "headline": "A intelig\u00eancia artificial aplicada no campo de batalha", "description": "Que aplica\u00e7\u00f5es de Intelig\u00eancia Artificial podemos ver j\u00e1 no campo de batalha? De acordo com Vincent Boulanin o aspeto mais conhecido \u00e9 o dos sistemas de combate aut\u00f3nomos, ou drones.", "articleBody": "A R\u00fassia est\u00e1 a recorrer intensivamente \u00e0s chamadas \u0022muni\u00e7\u00f5es Kamikaze\u0022 ou \u0022drones kamikaze\u0022 - contra a Ucr\u00e2nia. Em termos funcionais, trata-se de um cruzamento entre um drone \u0022comum\u0022 e um proj\u00e9ctil. Estas muni\u00e7\u00f5es podem, teoricamente, fazer bombardear uma determinada \u00e1rea, procurando e determinando o alvo de forma independente. S\u00e3o estes dispositivos que s\u00e3o, geralmente, descritos pela express\u00e3o \u0022intelig\u00eancia artificial\u0022 (IA). Mas na realidade, o \u0022 drone kamikaze\u0022 n\u00e3o \u00e9 assim t\u00e3o inteligente e o alcance da IA em mat\u00e9ria militar \u00e9 muito mais vasta. A intelig\u00eancia artificial apareceu recentemente? Nem por isso. O pr\u00f3prio termo \u0022intelig\u00eancia artificial\u0022 tem sido utilizado em rela\u00e7\u00e3o a software real desde os anos 50. O problema \u00e9 que n\u00e3o existe uma defini\u00e7\u00e3o clara. No s\u00e9culo ado, \u0022intelig\u00eancia artificial\u0022 era o nome dado \u00e0s funcionalidades que qualquer smartphone tem hoje em dia. As armas \u0022inteligentes\u0022 tamb\u00e9m apareceram no s\u00e9culo ado. Na altura existiam, por exemplo, sistemas de orienta\u00e7\u00e3o para m\u00edsseis e muni\u00e7\u00f5es, que tornavam poss\u00edvel selecionar e definir prioridades \u0022independentemente\u0022 de um alvo, entre v\u00e1rios, sem interven\u00e7\u00e3o humana;\u00a0ou os sistemas de defesa a\u00e9rea e de defesa antim\u00edsseis dos navios que, em caso de falta de tempo para uma tomada de decis\u00e3o por parte de uma pessoa poderiam, eles pr\u00f3prios, disparar contra o que considerassem ser um m\u00edssil que amea\u00e7asse o navio;\u00a0ou, por exemplo, a semi-m\u00edtica \u0022m\u00e3o morta\u0022, um sistema que pode dar um comando para um ataque nuclear retaliat\u00f3rio, se considerar que as pessoas que o controlam j\u00e1 morreram. Mas desde o in\u00edcio deste s\u00e9culo, a evolu\u00e7\u00e3o da IA tem vindo a avan\u00e7ar a um ritmo acelerado, como todas as outras \u00e1reas da IT (Tecnologia da Informa\u00e7\u00e3o). Segundo as Na\u00e7\u00f5es Unidas, o primeiro caso, registado, de um sistema aut\u00f3nomo a matar uma pessoa sem a participa\u00e7\u00e3o de um operador, ocorreu na primavera de 2020 na L\u00edbia. A seguir, as tropas do Governo de Acordo Nacional utilizaram drones aut\u00f3nomos, de fabrico turco, contra soldados que apoiaram o Marechal Khalifa Haftar. Como \u00e9 que os militares utilizam a IA? De acordo com o Instituto de Investiga\u00e7\u00e3o da Paz de Estocolmo, n\u00e3o existem, praticamente, \u00e1reas de atividade militares em que a IA n\u00e3o possa ser utilizada. Os drones s\u00e3o apenas um caso espec\u00edfico. Segundo os analistas, at\u00e9 2028 o volume de mercado no campo militar, associado \u00e0 IA, ultraar\u00e1 os 13,7 mil milh\u00f5es de d\u00f3lares americanos.\u00a0Ao mesmo tempo, diferentes pa\u00edses t\u00eam diversos n\u00edveis de satura\u00e7\u00e3o com estes sistemas.\u00a0 Mas que aplica\u00e7\u00f5es de IA podemos ver j\u00e1 no campo de batalha? De acordo com Vincent Boulanin o\u00a0aspeto mais conhecido \u00e9 o dos sistemas de combate aut\u00f3nomos, ou drones. Podem ser ve\u00edculos voadores, como o Bayraktar turco, ve\u00edculos terrestres, sob a forma de um pequeno tanque ou porta-contentores blindados, e ve\u00edculos mar\u00edtimos. Estes dispositivos podem \u0022ca\u00e7ar\u0022 equipamento inimigo e soldados de forma independente numa determinada zona podem detetar alvos, independentemente, e escolher o mais importante de entre eles. O reconhecimento facial ou de alvos e o futuro da IA A forma mais comum de utiliza\u00e7\u00e3o da IA, no setor militar e civil, \u00e9 a mesma: a an\u00e1lise de enormes bases de dados, substituindo as pessoas em atividades por vezes enfadonhas e mon\u00f3tonas, quando, por exemplo, \u00e9 necess\u00e1rio procurar num grande n\u00famero de fotografias a\u00e9reas para encontrar o objeto certo. S\u00e3o utilizados os mesmos esquemas, por exemplo, nos sistemas de reconhecimento facial nas ruas. A dete\u00e7\u00e3o e an\u00e1lise de poss\u00edveis amea\u00e7as ser\u00e1 o caminho a seguir na evolu\u00e7\u00e3o da IA, em termos militares. Poder\u00e3o vir a fazer-se recomenda\u00e7\u00f5es, com base em dados, muito mais rapidamente do que um humano. Al\u00e9m disso, a IA, em teoria, \u00e9 desprovida do \u0022preconceito\u0022 inerente aos comandantes humanos, e n\u00e3o tem problemas inerentes \u00e0 vis\u00e3o o que \u00e9, particularmente, importante em combate. A IA \u00e9 capaz, n\u00e3o s\u00f3 de avaliar a situa\u00e7\u00e3o no campo de batalha, mas tamb\u00e9m, dentro de certos limites, de \u0022prever o futuro\u0022 com base na experi\u00eancia das a\u00e7\u00f5es do inimigo. A IA pode controlar uma batalha como num jogo de computador? A IA pode \u0022simular\u0022 o funcionamento de novos equipamentos militares, novos dispositivos e mesmo novos conceitos t\u00e1ticos, o que reduz o custo e o tempo para organizar testes reais. Mas n\u00e3o o que pode fazer, em termos militares, \u00e9 ainda residual.\u00a0Todos os programas, que podem ser classificados como IA para aplica\u00e7\u00f5es militares, executam uma gama muito limitada de tarefas. Alguns analisam a situa\u00e7\u00e3o, outros controlam os drones aut\u00f3nomos, outros podem, de facto, fazer previs\u00f5es e dar \u0022conselhos\u0022 aos comandantes. Em algumas condi\u00e7\u00f5es - sobretudo quando \u00e9 preciso agir rapidamente - a IA pode \u0022tomar uma decis\u00e3o\u0022 por si pr\u00f3pria. Mas ligar tudo isto a um \u00fanico plano de batalha \u00e9 ainda uma tarefa humana. Nem os militares nem os civis confiam o suficiente na IA para lhe permitir \u0022lutar independentemente\u0022 Numa guerra ou mesmo Numa \u00fanica batalha. Por detr\u00e1s da \u0022consola mais importante\u0022, h\u00e1 sempre um ser humano. Os riscos da aplica\u00e7\u00e3o da IA ao setor militar De acordo com Vincent Boulanin existem tr\u00eas n\u00edveis de risco associados \u00e0 IA e ao seu uso em assuntos militares. O primeiro \u00e9 tecnol\u00f3gico. A IA \u00e9 concebida de forma a que mesmo os pr\u00f3prios criadores nem sempre possam rastrear as liga\u00e7\u00f5es l\u00f3gicas e compreender porque \u00e9 que o rob\u00f4 \u0022tomou\u0022 esta ou aquela decis\u00e3o. A isto chama-se o \u0022problema da caixa negra\u0022. Por conseguinte, nem os civis nem os militares podem, estritamente falando, confiar plenamente nas decis\u00f5es da IA. Devido a isso, h\u00e1 sempre pelo menos um risco te\u00f3rico de que o rob\u00f4 tome uma medida que n\u00e3o se esperava dele.\u00a0Isto pode ser evitado atrav\u00e9s de um desenvolvimento mais cuidadoso dos algoritmos. Existem algoritmos completamente \u0022transparentes\u0022, mas nem sempre s\u00e3o aplic\u00e1veis. O segundo n\u00edvel \u00e9 como a IA pode mudar a maneira como organizamos guerras e conflitos. Ser\u00e1 que pode ser mais f\u00e1cil para os humanos dar ordens para matar se sentirem que n\u00e3o \u00e9 uma amea\u00e7a \u00e0 vida, visto que existem apenas ou principalmente rob\u00f4s no campo de batalha? Isto levanta problemas humanit\u00e1rios de grande escala. Os civis estar\u00e3o na linha de fogo. Em primeiro lugar, distinguir um civil de um militante ainda \u00e9 extremamente dif\u00edcil. Em segundo lugar, o risco de cat\u00e1strofes humanit\u00e1rias aumentar\u00e1 porque crescer\u00e1 o risco de novos conflitos, j\u00e1 que come\u00e7ar uma \u201cguerra de rob\u00f4s\u201d em termos morais pode ser muito mais f\u00e1cil. Segundo Boulanin, \u00e9 preciso ensinar os militares a n\u00e3o confiarem demais na IA, a n\u00e3o pensarem que este \u00e9 um \u201crob\u00f4 que nunca erra\u201d, mas um sistema comum feito pelo homem que tem as suas limita\u00e7\u00f5es e as suas desvantagens. Afinal, um rob\u00f4, como um humano, toma decis\u00f5es com base em determinados dados, que podem revelar-se incompletos, errados ou deliberadamente distorcidos. \u0022H\u00e1 coisas que os pr\u00f3prios militares podem fazer em termos de tomar medidas para reduzir os riscos, em termos de treinar as pessoas que v\u00e3o usar esses sistemas ou decidir n\u00e3o adotar um determinado sistema, porque o risco de acidente pode ser muito alto, ou seja, estamos a falar de autoconten\u00e7\u00e3o e avalia\u00e7\u00f5es de risco\u201d\u0022, afirma Boulanin.\u00a0 O terceiro n\u00edvel \u00e9 a possibilidade de distribui\u00e7\u00e3o mais ampla de tais sistemas. A IA \u00e9, de facto, uma \u0022tecnologia de uso duplo\u0022. \u00c9 amplamente utilizada na esfera civil, sendo muito f\u00e1cil para os especialistas adaptar os c\u00f3digos p\u00fablicos para uso militar. \u0022N\u00e3o \u00e9 como a tecnologia nuclear, voc\u00ea n\u00e3o pode simplesmente comprar uma arma nuclear na esquina. E \u00e9 muito f\u00e1cil desenvolver aplica\u00e7\u00f5es de IA. Os dados j\u00e1 est\u00e3o l\u00e1. Os m\u00e9todos est\u00e3o l\u00e1. Existem engenheiros qualificados em todo o mundo. Ent\u00e3o, o risco potencial \u00e9 que, para desenvolver a IA militar, seja necess\u00e1rio muito pouco, ou seja, os malfeitores podem facilmente obter o a essa tecnologia.\u0022 Reduzir esse risco \u00e9 muito dif\u00edcil, pois exigir\u00e1 certos acordos restritivos a n\u00edvel internacional. E estes, em primeiro lugar, podem entrar em conflito com a liberdade de dissemina\u00e7\u00e3o de informa\u00e7\u00f5es, quando se trata de IA \u0022pac\u00edfica\u0022; e, em segundo lugar, para os invasores n\u00e3o importam este tipo de documentos. Ser\u00e1 que os rob\u00f4s v\u00e3o substituir os soldados? At\u00e9 agora, n\u00e3o h\u00e1 qualquer rob\u00f4 que possa substituir um atirador com uma metralhadora. Mas em muitos outros aspetos, a IA j\u00e1 pode ser aplicada de forma mais ampla. Em \u00faltima an\u00e1lise, a resposta final a esta quest\u00e3o \u00e9 \u00e9tica. Os pol\u00edticos e os comandantes militares congratulam-se com a implementa\u00e7\u00e3o da IA ou est\u00e3o preocupados? \u201cAlgumas pessoas s\u00e3o pragm\u00e1ticas. Se a IA pode teoricamente ajudar a reduzir as baixas civis, por que n\u00e3o as usar? Para outras n\u00e3o\u00a0\u00e9 normal automatizar tais decis\u00f5es, mesmo que isso possa ser eficaz nalguns aspetos. N\u00e3o v\u00e3o querer fazer isso, porque t\u00eam esse princ\u00edpio \u00e9tico.\u0022 O conceito de tomada de decis\u00e3o por parte dos comandantes j\u00e1 est\u00e1 a mudar. Em primeiro lugar, essas decis\u00f5es ser\u00e3o tomadas muito mais rapidamente e, em geral, isso pode acelerar o curso dos conflitos armados. Os comandantes confiar\u00e3o mais nos \u0022conselhos\u0022 da IA, e isso acarreta os riscos j\u00e1 mencionados anteriormente. Qual \u00e9 o ponto de vista legal em rela\u00e7\u00e3o \u00e0 IA? Do ponto de vista do direito internacional,\u00a0 as \u201cleis e costumes da guerra\u201d,\u00a0 a IA n\u00e3o se destaca em nada. Um drone controlado por IA n\u00e3o \u00e9 diferente de um m\u00edssil com um sistema de orienta\u00e7\u00e3o \u0022normal\u0022 ou de uma bomba n\u00e3o guiada. Se estivermos a falar, por exemplo, de crimes de guerra, as pessoas ainda ser\u00e3o respons\u00e1veis por eles, mesmo que a \u201cdecis\u00e3o tenha sido tomada\u201d pelo drone. ", "dateCreated": "2023-02-15T15:32:06+01:00", "dateModified": "2023-02-17T16:09:55+01:00", "datePublished": "2023-02-17T15:56:13+01:00", "image": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Farticles%2Fstories%2F07%2F40%2F43%2F10%2F1440x810_cmsv2_d7c9cf4d-c467-5834-a610-543405fc8410-7404310.jpg", "width": "1440px", "height": "810px", "caption": "Os drones s\u00e3o cada vez mais utilizados em cen\u00e1rios de guerra", "thumbnail": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Farticles%2Fstories%2F07%2F40%2F43%2F10%2F432x243_cmsv2_d7c9cf4d-c467-5834-a610-543405fc8410-7404310.jpg", "publisher": { "@type": "Organization", "name": "euronews", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png" } }, "author": { "@type": "Organization", "name": "Euronews", "sameAs": [ "https://www.facebook.com/pt.euronews", "https://twitter.com/euronewspt", "https://flipboard.com/@euronewspt", "https://www.linkedin.com/company/euronews" ], "url": "/" }, "publisher": { "@type": "Organization", "name": "Euronews", "legalName": "Euronews", "url": "/", "logo": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png", "width": "403px", "height": "60px" }, "sameAs": [ "https://www.facebook.com/pt.euronews", "https://twitter.com/euronewspt", "https://flipboard.com/@euronewspt", "https://www.linkedin.com/company/euronews" ] }, "articleSection": [ "Mundo" ], "isAccessibleForFree": "False", "hasPart": { "@type": "WebPageElement", "isAccessibleForFree": "False", "cssSelector": ".poool-content" } }, { "@type": "WebSite", "name": "Euronews.com", "url": "/", "potentialAction": { "@type": "SearchAction", "target": "/search?query={search_term_string}", "query-input": "required name=search_term_string" }, "sameAs": [ "https://www.facebook.com/pt.euronews", "https://twitter.com/euronewspt", "https://flipboard.com/@euronewspt", "https://www.linkedin.com/company/euronews" ] } ] }
PUBLICIDADE

A inteligência artificial aplicada no campo de batalha

Os drones são cada vez mais utilizados em cenários de guerra
Os drones são cada vez mais utilizados em cenários de guerra Direitos de autor AP/AP
Direitos de autor AP/AP
De euronews
Publicado a Últimas notícias
Partilhe esta notíciaComentários
Partilhe esta notíciaClose Button

Que aplicações de Inteligência Artificial podemos ver já no campo de batalha? De acordo com Vincent Boulanin o aspeto mais conhecido é o dos sistemas de combate autónomos, ou drones.

PUBLICIDADE

A Rússia está a recorrer intensivamente às chamadas "munições Kamikaze" ou "drones kamikaze" - contra a Ucrânia. Em termos funcionais, trata-se de um cruzamento entre um drone "comum" e um projéctil. Estas munições podem, teoricamente, fazer bombardear uma determinada área, procurando e determinando o alvo de forma independente.

São estes dispositivos que são, geralmente, descritos pela expressão "inteligência artificial" (IA). Mas na realidade, o " drone kamikaze" não é assim tão inteligente e o alcance da IA em matéria militar é muito mais vasta.

A inteligência artificial apareceu recentemente?

Nem por isso. O próprio termo "inteligência artificial" tem sido utilizado em relação a software real desde os anos 50. O problema é que não existe uma definição clara. No século ado, "inteligência artificial" era o nome dado às funcionalidades que qualquer smartphone tem hoje em dia.

As armas "inteligentes" também apareceram no século ado. Na altura existiam, por exemplo, sistemas de orientação para mísseis e munições, que tornavam possível selecionar e definir prioridades "independentemente" de um alvo, entre vários, sem intervenção humana; ou os sistemas de defesa aérea e de defesa antimísseis dos navios que, em caso de falta de tempo para uma tomada de decisão por parte de uma pessoa poderiam, eles próprios, disparar contra o que considerassem ser um míssil que ameaçasse o navio; ou, por exemplo, a semi-mítica "mão morta", um sistema que pode dar um comando para um ataque nuclear retaliatório, se considerar que as pessoas que o controlam já morreram.

Mas desde o início deste século, a evolução da IA tem vindo a avançar a um ritmo acelerado, como todas as outras áreas da IT (Tecnologia da Informação).

Segundo as Nações Unidas, o primeiro caso, registado, de um sistema autónomo a matar uma pessoa sem a participação de um operador, ocorreu na primavera de 2020 na Líbia. A seguir, as tropas do Governo de Acordo Nacional utilizaram drones autónomos, de fabrico turco, contra soldados que apoiaram o Marechal Khalifa Haftar.

"Não é uma tecnologia única, mas uma ferramenta facilitadora. É como falar de eletricidade. Da mesma forma que a eletricidade tem diferentes aplicações a IA permite acrescentar algumas tecnologias de forma a torná-las, potencialmente, mais eficientes, mais baratas, mais compactas, mais autónomas".
Vincent Boulanin
Membro Sénior do SIPRI

Como é que os militares utilizam a IA?

De acordo com o Instituto de Investigação da Paz de Estocolmo, não existem, praticamente, áreas de atividade militares em que a IA não possa ser utilizada. Os drones são apenas um caso específico.

Segundo os analistas, até 2028 o volume de mercado no campo militar, associado à IA, ultraará os 13,7 mil milhões de dólares americanos. Ao mesmo tempo, diferentes países têm diversos níveis de saturação com estes sistemas. 

Mas que aplicações de IA podemos ver já no campo de batalha? De acordo com Vincent Boulanin o aspeto mais conhecido é o dos sistemas de combate autónomos, ou drones. Podem ser veículos voadores, como o Bayraktar turco, veículos terrestres, sob a forma de um pequeno tanque ou porta-contentores blindados, e veículos marítimos.

Estes dispositivos podem "caçar" equipamento inimigo e soldados de forma independente numa determinada zona podem detetar alvos, independentemente, e escolher o mais importante de entre eles.

O reconhecimento facial ou de alvos e o futuro da IA

A forma mais comum de utilização da IA, no setor militar e civil, é a mesma: a análise de enormes bases de dados, substituindo as pessoas em atividades por vezes enfadonhas e monótonas, quando, por exemplo, é necessário procurar num grande número de fotografias aéreas para encontrar o objeto certo. São utilizados os mesmos esquemas, por exemplo, nos sistemas de reconhecimento facial nas ruas.

A deteção e análise de possíveis ameaças será o caminho a seguir na evolução da IA, em termos militares. Poderão vir a fazer-se recomendações, com base em dados, muito mais rapidamente do que um humano. Além disso, a IA, em teoria, é desprovida do "preconceito" inerente aos comandantes humanos, e não tem problemas inerentes à visão o que é, particularmente, importante em combate.

A IA é capaz, não só de avaliar a situação no campo de batalha, mas também, dentro de certos limites, de "prever o futuro" com base na experiência das ações do inimigo.

A IA pode controlar uma batalha como num jogo de computador?

A IA pode "simular" o funcionamento de novos equipamentos militares, novos dispositivos e mesmo novos conceitos táticos, o que reduz o custo e o tempo para organizar testes reais. Mas não o que pode fazer, em termos militares, é ainda residual. Todos os programas, que podem ser classificados como IA para aplicações militares, executam uma gama muito limitada de tarefas. Alguns analisam a situação, outros controlam os drones autónomos, outros podem, de facto, fazer previsões e dar "conselhos" aos comandantes. Em algumas condições - sobretudo quando é preciso agir rapidamente - a IA pode "tomar uma decisão" por si própria.

Mas ligar tudo isto a um único plano de batalha é ainda uma tarefa humana. Nem os militares nem os civis confiam o suficiente na IA para lhe permitir "lutar independentemente" Numa guerra ou mesmo Numa única batalha. Por detrás da "consola mais importante", há sempre um ser humano.

Os riscos da aplicação da IA ao setor militar

De acordo com Vincent Boulanin existem três níveis de risco associados à IA e ao seu uso em assuntos militares. O primeiro é tecnológico. A IA é concebida de forma a que mesmo os próprios criadores nem sempre possam rastrear as ligações lógicas e compreender porque é que o robô "tomou" esta ou aquela decisão. A isto chama-se o "problema da caixa negra". Por conseguinte, nem os civis nem os militares podem, estritamente falando, confiar plenamente nas decisões da IA. Devido a isso, há sempre pelo menos um risco teórico de que o robô tome uma medida que não se esperava dele. Isto pode ser evitado através de um desenvolvimento mais cuidadoso dos algoritmos. Existem algoritmos completamente "transparentes", mas nem sempre são aplicáveis.

O segundo nível é como a IA pode mudar a maneira como organizamos guerras e conflitos. Será que pode ser mais fácil para os humanos dar ordens para matar se sentirem que não é uma ameaça à vida, visto que existem apenas ou principalmente robôs no campo de batalha?

Isto levanta problemas humanitários de grande escala. Os civis estarão na linha de fogo. Em primeiro lugar, distinguir um civil de um militante ainda é extremamente difícil. Em segundo lugar, o risco de catástrofes humanitárias aumentará porque crescerá o risco de novos conflitos, já que começar uma “guerra de robôs” em termos morais pode ser muito mais fácil.

Segundo Boulanin, é preciso ensinar os militares a não confiarem demais na IA, a não pensarem que este é um “robô que nunca erra”, mas um sistema comum feito pelo homem que tem as suas limitações e as suas desvantagens. Afinal, um robô, como um humano, toma decisões com base em determinados dados, que podem revelar-se incompletos, errados ou deliberadamente distorcidos.

"Há coisas que os próprios militares podem fazer em termos de tomar medidas para reduzir os riscos, em termos de treinar as pessoas que vão usar esses sistemas ou decidir não adotar um determinado sistema, porque o risco de acidente pode ser muito alto, ou seja, estamos a falar de autocontenção e avaliações de risco”", afirma Boulanin. 

O terceiro nível é a possibilidade de distribuição mais ampla de tais sistemas. A IA é, de facto, uma "tecnologia de uso duplo". É amplamente utilizada na esfera civil, sendo muito fácil para os especialistas adaptar os códigos públicos para uso militar.

"Não é como a tecnologia nuclear, você não pode simplesmente comprar uma arma nuclear na esquina. E é muito fácil desenvolver aplicações de IA. Os dados já estão lá. Os métodos estão lá. Existem engenheiros qualificados em todo o mundo. Então, o risco potencial é que, para desenvolver a IA militar, seja necessário muito pouco, ou seja, os malfeitores podem facilmente obter o a essa tecnologia."

Reduzir esse risco é muito difícil, pois exigirá certos acordos restritivos a nível internacional. E estes, em primeiro lugar, podem entrar em conflito com a liberdade de disseminação de informações, quando se trata de IA "pacífica"; e, em segundo lugar, para os invasores não importam este tipo de documentos.

Será que os robôs vão substituir os soldados?

Até agora, não há qualquer robô que possa substituir um atirador com uma metralhadora. Mas em muitos outros aspetos, a IA já pode ser aplicada de forma mais ampla. Em última análise, a resposta final a esta questão é ética.

Os políticos e os comandantes militares congratulam-se com a implementação da IA ou estão preocupados?

“Algumas pessoas são pragmáticas. Se a IA pode teoricamente ajudar a reduzir as baixas civis, por que não as usar? Para outras não é normal automatizar tais decisões, mesmo que isso possa ser eficaz nalguns aspetos. Não vão querer fazer isso, porque têm esse princípio ético."

O conceito de tomada de decisão por parte dos comandantes já está a mudar. Em primeiro lugar, essas decisões serão tomadas muito mais rapidamente e, em geral, isso pode acelerar o curso dos conflitos armados. Os comandantes confiarão mais nos "conselhos" da IA, e isso acarreta os riscos já mencionados anteriormente.

Qual é o ponto de vista legal em relação à IA?

Do ponto de vista do direito internacional,  as “leis e costumes da guerra”,  a IA não se destaca em nada. Um drone controlado por IA não é diferente de um míssil com um sistema de orientação "normal" ou de uma bomba não guiada. Se estivermos a falar, por exemplo, de crimes de guerra, as pessoas ainda serão responsáveis por eles, mesmo que a “decisão tenha sido tomada” pelo drone.

Ir para os atalhos de ibilidade
Partilhe esta notíciaComentários

Notícias relacionadas

Rápido desenvolvimento da IA provoca apelos a uma regulamentação urgente

França quer Inteligência Artificial nas câmaras de vídeovigilância

Europa e os desafios éticos da inteligência artificial