{ "@context": "https://schema.org/", "@graph": [ { "@type": "NewsArticle", "mainEntityOfPage": { "@type": "Webpage", "url": "/2015/07/28/ia-stephen-hawking-e-elon-musk-contra-o-desenvolvimento-de-armas-inteligentes" }, "headline": "IA: Stephen Hawking e Elon Musk contra o desenvolvimento de armas inteligentes", "description": "A Intelig\u00eancia Artificial sempre foi um dos maiores fasc\u00ednios e, ao mesmo tempo, medos do homem. H\u00e1 s\u00e9culos que os cientistas tentam criar uma", "articleBody": "A Intelig\u00eancia Artificial sempre foi um dos maiores fasc\u00ednios e, ao mesmo tempo, medos do homem. H\u00e1 s\u00e9culos que os cientistas tentam criar uma m\u00e1quina com intelig\u00eancia aut\u00f3noma mas n\u00e3o s\u00e3o raros os avisos de que esse projeto pode tornar-se fatal para o criador. No cinema n\u00e3o faltam exemplos de como uma m\u00e1quina com intelig\u00eancia aut\u00f3noma pode tentar terminar com a vida do criador (ex: \u201cExterminador Implac\u00e1vel\u201d ou \u201cEu, Rob\u00f4\u201d). Movidos por esse receio, v\u00e1rios cientistas mundiais, que se dedicam ao desenvolvimento da rob\u00f3tica, lan\u00e7aram um apelo para que sejam banidas todas as armas aut\u00f3nomas. A carta aberta, publicada pelo instituto norte-americano \u201cFuture of Life\u201d \u00e9 assinada por Stephen Hawking, Elon Musk, Noam Chomsky, Steve Mozniak, entre outros. Pode ler a carta aqui (em ingl\u00eas) Os signat\u00e1rios escrevem: \u201choje, a quest\u00e3o-chave para a humanidade \u00e9 se deve come\u00e7ar uma corrida global para a cria\u00e7\u00e3o de armas inteligentes ou se deve impedir que comece.\u201d Na carta lan\u00e7am um aviso sobre as armas que n\u00e3o necessitam de qualquer a\u00e7\u00e3o humana para despoletar ataques: \u201cA tecnologia de Intelig\u00eancia Artificial (IA) chegou a um ponto que a implanta\u00e7\u00e3o [de armas aut\u00f3nomas] \u00e9 poss\u00edvel e vi\u00e1vel dentro de anos e n\u00e3o d\u00e9cadas. Os riscos s\u00e3o elevados: as armas aut\u00f3nomas t\u00eam sido descritas como a terceira revolu\u00e7\u00e3o na guerra, depois da p\u00f3lvora e das armas nucleares \u201c. No documento, elaboraram uma lista de algumas das vantagens de armas dotadas de IA (ex: menos perdas humanas) e uma lista, maior, de inconvenientes e consequ\u00eancias perigosas, caso essas armas se tornassem realidade (ex: produ\u00e7\u00e3o em massa, relativamente, barata, poderiam, facilmente, ser comercializadas no mercado negro ou acabar nas m\u00e3os de ditadores, terroristas, senhores da guerra etc). Advertem ainda que caso nada seja feito, \u201cas armas aut\u00f3nomas podem tornar-se nas Kalashnikovs de amanh\u00e3\u201d. Os signat\u00e1rios, na sua maioria cientistas na \u00e1rea da rob\u00f3tica, n\u00e3o rejeitam a ci\u00eancia: \u201ch\u00e1 muitas maneiras para que a IA possa tornar mais seguros os campos de batalha para os seres humanos, especialmente os civis, sem criar novas ferramentas para matar pessoas.\u201d Contudo, nem todos os cientistas concordam com esta vis\u00e3o catastrofista. Num blogue, em 2014, um investigador australiano, Rodney Brooks, defendia que a Intelig\u00eancia Artificial \u00e9 uma ferramenta e n\u00e3o uma amea\u00e7a. Consulte aqui o blogue (ingl\u00eas) Brooks, que fundou a empresa de rob\u00f3tica RethinkRobotics afirma que considera \u201cum erro estarmos a preocupar-nos sobre desenvolvermos uma IA mal\u00e9vola, nos pr\u00f3ximos cem anos. O cientista afirma que essa \u201reocupa\u00e7\u00e3o decorre de um erro fundamental em n\u00e3o distinguir a diferen\u00e7a entre os recentes avan\u00e7os, num aspeto particular da Intelig\u00eancia Artificial, e a enorme complexidade de constru\u00e7\u00e3o de intelig\u00eancia volitiva consciente \u201c. O investigador n\u00e3o vislumbra a chegada de um apocalipse com armas inteligentes: \u201ara que haja uma IA, com vontade, sucedida, especialmente uma que possa ser mal\u00e9vola, necessitaria de uma compreens\u00e3o direta do mundo, de ter m\u00e3os h\u00e1beis ou outras ferramentas de modo a poder manipular as pessoas e precisaria ter um profundo conhecimento dos humanos de modo a conseguir ludibriar-nos. Ser\u00e1 necess\u00e1ria uma profunda reflex\u00e3o e o trabalho \u00e1rduo de milhares de cientistas e engenheiros. E, mais provavelmente, demorar\u00e1 s\u00e9culos \u201c. Brooks conclui: \u201reocupar-se com o facto de que a IA pode ser intencionalmente m\u00e1 para n\u00f3s \u00e9 puro medo e uma imensa perda de tempo. Continuemos a inventar uma cada vez melhor Intelig\u00eancia Artificial.\u201d", "dateCreated": "2015-07-28T14:50:01+02:00", "dateModified": "2015-07-28T14:50:01+02:00", "datePublished": "2015-07-28T14:50:01+02:00", "image": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Farticles%2F310800%2F1440x810_310800.jpg", "width": "1440px", "height": "810px", "caption": "A Intelig\u00eancia Artificial sempre foi um dos maiores fasc\u00ednios e, ao mesmo tempo, medos do homem. H\u00e1 s\u00e9culos que os cientistas tentam criar uma", "thumbnail": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Farticles%2F310800%2F432x243_310800.jpg", "publisher": { "@type": "Organization", "name": "euronews", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png" } }, "author": { "@type": "Organization", "name": "Euronews", "sameAs": [ "https://www.facebook.com/pt.euronews", "https://twitter.com/euronewspt", "https://flipboard.com/@euronewspt", "https://www.linkedin.com/company/euronews" ], "url": "/" }, "publisher": { "@type": "Organization", "name": "Euronews", "legalName": "Euronews", "url": "/", "logo": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png", "width": "403px", "height": "60px" }, "sameAs": [ "https://www.facebook.com/pt.euronews", "https://twitter.com/euronewspt", "https://flipboard.com/@euronewspt", "https://www.linkedin.com/company/euronews" ] }, "articleSection": [ "Mundo" ], "isAccessibleForFree": "False", "hasPart": { "@type": "WebPageElement", "isAccessibleForFree": "False", "cssSelector": ".poool-content" } }, { "@type": "WebSite", "name": "Euronews.com", "url": "/", "potentialAction": { "@type": "SearchAction", "target": "/search?query={search_term_string}", "query-input": "required name=search_term_string" }, "sameAs": [ "https://www.facebook.com/pt.euronews", "https://twitter.com/euronewspt", "https://flipboard.com/@euronewspt", "https://www.linkedin.com/company/euronews" ] } ] }
PUBLICIDADE

IA: Stephen Hawking e Elon Musk contra o desenvolvimento de armas inteligentes

IA: Stephen Hawking e Elon Musk contra o desenvolvimento de armas inteligentes
Direitos de autor 
De Euronews
Publicado a
Partilhe esta notíciaComentários
Partilhe esta notíciaClose Button

A Inteligência Artificial sempre foi um dos maiores fascínios e, ao mesmo tempo, medos do homem. Há séculos que os cientistas tentam criar uma

PUBLICIDADE

A Inteligência Artificial sempre foi um dos maiores fascínios e, ao mesmo tempo, medos do homem. Há séculos que os cientistas tentam criar uma máquina com inteligência autónoma mas não são raros os avisos de que esse projeto pode tornar-se fatal para o criador. No cinema não faltam exemplos de como uma máquina com inteligência autónoma pode tentar terminar com a vida do criador (ex: “Exterminador Implacável” ou “Eu, Robô”).

Movidos por esse receio, vários cientistas mundiais, que se dedicam ao desenvolvimento da robótica, lançaram um apelo para que sejam banidas todas as armas autónomas. A carta aberta, publicada pelo instituto norte-americano “Future of Life” é assinada por Stephen Hawking, Elon Musk, Noam Chomsky, Steve Mozniak, entre outros.

Pode ler a carta aqui (em inglês)

Os signatários escrevem: “hoje, a questão-chave para a humanidade é se deve começar uma corrida global para a criação de armas inteligentes ou se deve impedir que comece.”

Na carta lançam um aviso sobre as armas que não necessitam de qualquer ação humana para despoletar ataques: “A tecnologia de Inteligência Artificial (IA) chegou a um ponto que a implantação [de armas autónomas] é possível e viável dentro de anos e não décadas. Os riscos são elevados: as armas autónomas têm sido descritas como a terceira revolução na guerra, depois da pólvora e das armas nucleares “.

No documento, elaboraram uma lista de algumas das vantagens de armas dotadas de IA (ex: menos perdas humanas) e uma lista, maior, de inconvenientes e consequências perigosas, caso essas armas se tornassem realidade (ex: produção em massa, relativamente, barata, poderiam, facilmente, ser comercializadas no mercado negro ou acabar nas mãos de ditadores, terroristas, senhores da guerra etc). Advertem ainda que caso nada seja feito, “as armas autónomas podem tornar-se nas Kalashnikovs de amanhã”.

Os signatários, na sua maioria cientistas na área da robótica, não rejeitam a ciência: “há muitas maneiras para que a IA possa tornar mais seguros os campos de batalha para os seres humanos, especialmente os civis, sem criar novas ferramentas para matar pessoas.”

Contudo, nem todos os cientistas concordam com esta visão catastrofista. Num blogue, em 2014, um investigador australiano, Rodney Brooks, defendia que a Inteligência Artificial é uma ferramenta e não uma ameaça.

Consulte aqui o blogue (inglês)

Brooks, que fundou a empresa de robótica RethinkRobotics afirma que considera “um erro estarmos a preocupar-nos sobre desenvolvermos uma IA malévola, nos próximos cem anos. O cientista afirma que essa “preocupação decorre de um erro fundamental em não distinguir a diferença entre os recentes avanços, num aspeto particular da Inteligência Artificial, e a enorme complexidade de construção de inteligência volitiva consciente “.

O investigador não vislumbra a chegada de um apocalipse com armas inteligentes: “para que haja uma IA, com vontade, sucedida, especialmente uma que possa ser malévola, necessitaria de uma compreensão direta do mundo, de ter mãos hábeis ou outras ferramentas de modo a poder manipular as pessoas e precisaria ter um profundo conhecimento dos humanos de modo a conseguir ludibriar-nos. Será necessária uma profunda reflexão e o trabalho árduo de milhares de cientistas e engenheiros. E, mais provavelmente, demorará séculos “.

Brooks conclui: “Preocupar-se com o facto de que a IA pode ser intencionalmente má para nós é puro medo e uma imensa perda de tempo. Continuemos a inventar uma cada vez melhor Inteligência Artificial.”

Ir para os atalhos de ibilidade
Partilhe esta notíciaComentários

Notícias relacionadas

Uma breve história de... Stephen Hawking (1942 - 2018, 76 anos)

Estratega de IA vence rivais no primeiro torneio de robôs humanoides

Robôs humanoides preparam-se para estreia no boxe em Hangzhou