{ "@context": "https://schema.org/", "@graph": [ { "@type": "NewsArticle", "mainEntityOfPage": { "@type": "Webpage", "url": "/next/2021/04/01/loubna-bouarfa-nao-vamos-fazer-maquinas-para-substituir-os-medicos-mas-para-lhes-dar-poder" }, "headline": "Loubna Bouarfa: \u0022N\u00e3o vamos fazer m\u00e1quinas para substituir os m\u00e9dicos, mas para lhes dar poder\u0022", "description": "A especialista em Intelig\u00eancia Artificial (IA), Loubna Bouarfa, falou com a Euronews sobre o futuro da sa\u00fade e os desafios na adapta\u00e7\u00e3o da IA \u00e0 pr\u00e1tica m\u00e9dica.", "articleBody": "A Intelig\u00eancia Artificial (IA) j\u00e1 faz parte da nossa vida quotidiana, mas estamos apenas a come\u00e7ar. Para compreender todo o seu potencial, Loubna Bouarfa, cientista, pioneira da tecnologia e diretora-executiva, est\u00e1 a levar mais al\u00e9m os limites do nosso conhecimento, num percurso que tem por certo que a IA \u00e9 um ponto de viragem, quando aplicada a quest\u00f5es de sa\u00fade, podendo n\u00e3o s\u00f3 poupar tempo e dinheiro, como tamb\u00e9m salvar vidas. As restri\u00e7\u00f5es \u00e0s viagens por causa da covid-19 impediram que esta entrevista fosse feita presencialmente, mas a tecnologia e a criatividade vieram em nosso aux\u00edlio. Isabelle Kumar, Euronews: Em termos muito simples, o que \u00e9 intelig\u00eancia artificial? Loubna Bouarfa : A intelig\u00eancia artificial s\u00e3o sistemas que podem aprender com as observa\u00e7\u00f5es e armazenar essas observa\u00e7\u00f5es na mem\u00f3ria, aproveitando-a para nos ajudar a criar uma maior consciencializa\u00e7\u00e3o nos ambientes. Mimetiza a forma como aprendemos enquanto seres humanos, observando, adaptando e aprendendo com o ambiente que nos rodeia. I.K.: A intelig\u00eancia artificial aprende com o nosso ambiente e por isso, em alguns aspetos, \u00e9 bastante pessoal, apesar de muitas pessoas acreditarem que a intelig\u00eancia artificial \u00e9 o oposto. No seu caso, o que \u00e9 que a liga \u00e0 IA? L.B.: Diversos aspetos ligam-me \u00e0 IA. Mas a liga\u00e7\u00e3o mais pessoal, para mim, est\u00e1 a crescer no seio familiar. Um dos meus irm\u00e3os \u00e9 severamente autista. Ao crescer com ele, aprendi desde tenra idade que as regras e as normas que a sociedade nos imp\u00f5e s\u00e3o apenas perce\u00e7\u00f5es gen\u00e9ricas, n\u00e3o representam o espectro completo da vida e o meu fasc\u00ednio pela IA vem da\u00ed. N\u00e3o h\u00e1 regras, ou normas. Aprendi que se pode ser muitas coisas e ser autista \u00e9 uma delas. A exist\u00eancia de sistemas que podem impor regras, seja em engenharia, ou noutros campos, quase coloca pessoas e diferen\u00e7as numa caixa. No entanto, ter esta tecnologia, que pode aprender e adaptar-se, ajuda-nos, enquanto seres humanos, a ser mais abertos ea aprender com o ambiente e a abra\u00e7ar muito mais a incerteza. Para mim, essa \u00e9 uma forma de vida muito honesta e uma boa filosofia. I.K.: \u00c9 algo que partilhamos, porque, como sabe, o meu filho tamb\u00e9m tem autismo. Mas como \u00e9 que entrou nessa viagem? Como \u00e9 que se decidiu dedicar \u00e0 intelig\u00eancia artificial? L.B.: Come\u00e7ou h\u00e1 20 anos, quando comecei a minha licenciatura em engenharia. Eu adorava ci\u00eancia e matem\u00e1tica. Mas o que eu n\u00e3o gostava, na altura, na engenharia, era do seu lado fixo, baseado em regras. Era tudo programa\u00e7\u00e3o baseada em regras, t\u00ednhamos de definir as regras de qualquer projeto que estiv\u00e9ssemos a fazer, at\u00e9 me deparar com a IA e a aprendizagem mec\u00e2nica, onde n\u00e3o estamos a impor novas regras, mas vamos aprender com padr\u00f5es e treinar m\u00e1quinas para aprender e adaptarem-se. Depois embarquei num projeto de doutoramento h\u00e1 13 anos para construir um cockpit para os blocos operat\u00f3rios. Ou seja, um sistema de IA que possa observar o cirurgi\u00e3o, aprender com diferentes sinais no bloco operat\u00f3rio, inferir o que ele est\u00e1 a fazer e se h\u00e1 algum desvio do protocolo. I.K.: \u00c9 fascinante o que est\u00e1 a dizer. Mas o que \u00e9 que isso significa na pr\u00e1tica? Porque parece bastante te\u00f3rico. Se estiver doente e for ao m\u00e9dico, como \u00e9 que a IA pode mudar a minha experi\u00eancia? L.B.: De diferentes maneiras. Imagine que, num cen\u00e1rio ideal, os dados desde o nascimento est\u00e3o a ser recolhidos, bem como os dados de muitos outros pacientes. A IA pode comparar semelhan\u00e7as, observando muitos pacientes, semelhantes a si, ou a outras pessoas. Pense nisto como um sem\u00e1foro. Se pudermos, em tempo real, ser capazes de medir os diferentes riscos para todos os doentes, quando houver um sinal vermelho, o sistema de IA pode desencadear uma resposta e enviar-lhe uma carta para fazer mais testes. Desta forma, aproveitamos os seus dados e de pacientes semelhantes a si para lhe poder dizer qual \u00e9 o melhor procedimento. E mais, para lhe dizer quais s\u00e3o os melhores tratamentos que funcionar\u00e3o para si, como uma pessoa \u00fanica, aprendendo com todos os pacientes semelhantes a si. Estes algoritmos n\u00e3o param. Continuam a processar dados e a sugerir o que se pode fazer. Por isso, \u00e9 quase desnecess\u00e1rio esperar que as pessoas adoe\u00e7am. Os nossos sistemas de sa\u00fade com Intelig\u00eancia Artificial poderiam tornar-se mais proativos e aproveitar estes dados para aconselhar os pacientes e mant\u00ea-los saud\u00e1veis. I.K.: Um m\u00e9dico que usasse a IA seria capaz, ao olhar para esses dados, de prever os potenciais resultados e trat\u00e1-los, antes de se desenvolverem. Era isso que ia acontecer? L.B.: Sim, o papel do m\u00e9dico iria consistir em receber todas as informa\u00e7\u00f5es e n\u00e3o apenas basear a sua decis\u00e3o nos 15 minutos que tem para v\u00ea-la, quando vai a uma consulta. Teria todos os dados a seu respeito, a sua hist\u00f3ria familiar e de pacientes semelhantes. Seria uma vantagem para calcular os riscos de diferentes doen\u00e7as. N\u00e3o vamos fazer m\u00e1quinas para substituir os m\u00e9dicos, vamos fazer m\u00e1quinas para lhes dar poder. Penso que essa \u00e9 tamb\u00e9m a revolu\u00e7\u00e3o que est\u00e1 a acontecer nos cuidados de sa\u00fade, o papel do m\u00e9dico vai mudar, [ando] do trabalho num todo para o foco na parte importante no paciente. I.K.: Houve alguma mudan\u00e7a de mentalidade na comunidade m\u00e9dica para aceitar isso? Ou existe um sentimento de desconfian\u00e7a quando se trata de aliar a intelig\u00eancia artificial ao seu trabalho? L.B.: Estou muito otimista. Nos \u00faltimos 10 anos, vi muitas mudan\u00e7as na ado\u00e7\u00e3o [da intelig\u00eancia artificial]. H\u00e1 barreiras, sem d\u00favida. Entre elas, resumidamente, a primeira \u00e9 a falta de dados para podemos treinar esses algoritmos de IA. Os dados que temos no espa\u00e7o da sa\u00fade, especialmente na Europa, n\u00e3o s\u00e3o recolhidos para construir sistemas de IA, ou para trazer provas. S\u00e3o recolhidos para fins transacionais, como reclama\u00e7\u00f5es, ou pagamentos de medicamentos. A segunda \u00e9 a vis\u00e3o em t\u00fanel. Os doentes querem melhorar, os m\u00e9dicos querem tratar os doentes, quem paga quer reembolsar os medicamentos que s\u00e3o rent\u00e1veis e os reguladores querem fazer as regras que assegurem a sua consist\u00eancia. Mas depois todos se esquecem que o objetivo \u00e9 um s\u00f3. O objetivo \u00e9 tratar estes pacientes o mais rapidamente poss\u00edvel. \u00c9 uma injusti\u00e7a, quando, como paciente, existe um medicamento e n\u00e3o tem o a ele, porque pode n\u00e3o estar aprovado no seu pa\u00eds, ou porque o seu m\u00e9dico talvez n\u00e3o saiba que esse medicamento ser\u00e1 o melhor para si. E acaba por se perder nesta confus\u00e3o. I.K: Vou pedir-lhe que avance no tempo, digamos, 30, 40 anos. Descreva brevemente e em termos muito simples como a experi\u00eancia de um paciente quando vai ao m\u00e9dico. Ser\u00e1 que ainda vamos ver um m\u00e9dico cara a cara? Ou isso ter\u00e1 mudado completamente? L.B.: Imaginemos que estamos em 2050 e nasce algu\u00e9m. Assim que este beb\u00e9 nascer, ser\u00e3o realizadas an\u00e1lises de rotina. Faz-se um rastreio gen\u00e9tico e imagine que h\u00e1 uma muta\u00e7\u00e3o em genes importantes. Assim que isso \u00e9 detetado, os alarmes disparam. Os pais s\u00e3o informados sobre o processo a seguir e os cuidados que ter\u00e3o de providenciar ao seu filho. Imagine que esta crian\u00e7a cresce bem e o algoritmo de IA, que tem estado a monitorizar os seus estados, [assinala] tudo verde, verde, verde, n\u00e3o havendo um risco para muitas doen\u00e7as. Mas, a certa altura, aparece um laranja, ou uma luz, ou uma luz vermelha a indicar que h\u00e1 um risco de cancro do pulm\u00e3o. A pessoa vai receber uma carta a dizer que precisa de ir fazer um rastreamento LDCT. E assim que o exame LDCT for realizado, outros algoritmos de IA ir\u00e3o analisar se \u00e9 positivo, ou negativo. Se o teste der positivo, ent\u00e3o entra em cena o humano, o m\u00e9dico, porque n\u00e3o vamos querer um algoritmo a dizer aos doentes que t\u00eam cancro. \u00c9 preciso um ser humano para transferir esses valores morais. Enquanto os m\u00e9dicos realizam este trabalho, os algoritmos de IA v\u00e3o paralelamente estar a calcular qual \u00e9 o melhor tratamento para estes pacientes. Ap\u00f3s os tratamentos, ainda vamos ter algoritmos em execu\u00e7\u00e3o para prever alguma reca\u00edda e automatizar todo o processo. I.K.: Mas isso n\u00e3o levanta toda uma s\u00e9rie de quest\u00f5es \u00e9ticas, especialmente quando se est\u00e1 a falar sobre dados e a sa\u00fade das pessoas, da previs\u00e3o de doen\u00e7as? O que \u00e9 que tem de ser posto em pr\u00e1tica para garantir que n\u00e3o haja abusos? L.B.: H\u00e1 diferentes formas de nos certificarmos de que os dados n\u00e3o s\u00e3o usados de forma abusiva. Uma maneira \u00e9 n\u00e3o utilizar dados pessoais na forma\u00e7\u00e3o de algoritmos de IA. Para excluir todos os dados pessoais, os sistemas de IA s\u00e3o, na sua maioria, treinados com um dado n\u00e3o identific\u00e1vel, an\u00f3nimo. Atrav\u00e9s do Grupo de Peritos de Alto N\u00edvel, onde estive como uma dos 52 peritos para aconselhar a Comiss\u00e3o Europeia sobre as Diretrizes \u00c9ticas para a IA, garantimos que a privacidade dos dados \u00e9 salvaguardada, est\u00e1 em torno da robustez do sistema de IA, que tem de ser preciso, antes de o instalarmos num ambiente, especialmente na \u00e1rea da sa\u00fade. Isso \u00e9 fundamental para garantir a sua imparcialidade em rela\u00e7\u00e3o a diferentes grupos de doentes, a diferentes g\u00e9neros, ou \u00e1reas de doen\u00e7as espec\u00edficas, certificando-se de que a IA \u00e9 explic\u00e1vel, especialmente nos cuidados de sa\u00fade. Isso \u00e9 importante. I.K.: Relativamente \u00e0 intelig\u00eancia artificial na Europa, qu\u00e3o desenvolvido est\u00e1 esse espa\u00e7o de dados e em que medida est\u00e1 a dificultar a inova\u00e7\u00e3o? L.B.: \u00c9 verdade que os dados na Europa representam uma das grandes limita\u00e7\u00f5es. Faltam-nos dados. O Espa\u00e7o Europeu de Dados de Sa\u00fade \u00e9 uma iniciativa em que um alguns Estados-membros est\u00e3o a trabalhar para mapear estes dados em conjunto. Mas estamos numa fase muito precoce e, em compara\u00e7\u00e3o a outros pa\u00edses onde os dados est\u00e3o mais dispon\u00edveis, como nos EUA, podemos ver que muitas decis\u00f5es, a tomada de decis\u00e3o est\u00e1 a acontecer, mas porque estamos a utilizar dados dos EUA. N\u00e3o dispomos de muitos dados europeus, adaptados \u00e0 nossa popula\u00e7\u00e3o de doentes, que nos possam ajudar a individualizar a medicina aqui na Europa. E penso que esse \u00e9 o pr\u00f3ximo o importante que precisa de acontecer, antes de podermos dimensionar o uso de IA nos sistemas de sa\u00fade na Europa. I.K.: Ouvimos falar frequentemente de preconceitos, quando se trata de algoritmos, de enviesamento de dados. Como \u00e9 que isso afeta a intelig\u00eancia artificial, no campo da sa\u00fade? L.B. : O preconceito faz parte das nossas vidas e a parcialidade acontece todos os dias, nos cuidados de sa\u00fade, quando se vai ao m\u00e9dico, ele \u00e9 um ser humano, por mais que tente ser o mais objetivo poss\u00edvel, ele tamb\u00e9m julga o doente que est\u00e1 \u00e0 sua frente. Portanto, isso n\u00e3o \u00e9 algo que possamos excluir completamente. Como os sistemas de IA n\u00e3o s\u00e3o baseados em regras, eles aprendem a partir das observa\u00e7\u00f5es. Se forem treinados com dados hist\u00f3ricos, eles v\u00e3o receber o enviesamento do ado. Mas a vantagem \u00e9 que agora podemos ver esse preconceito. Com a IA podemos agora detetar este preconceito e adaptar os sistemas para exclu\u00ed-lo. I.K.: Disse que a IA pode retificar problemas de diversidade, em termos de algoritmos. Olhando para a sua empresa, a Okra, parece ser muito importante para si ter uma equipa muito diversificada de colegas a trabalhar consigo. Porque \u00e9 que isso \u00e9 importante? L.B.: Ao ter uma equipa diversificada a construir um sistema de IA, j\u00e1 se reduz o enviesamento na conce\u00e7\u00e3o. Portanto, a forma como vemos o que \u00e9 preciso ser articulado ao utilizador, como os dados precisam de ser processados, mas a partir de \u00e2ngulos diferentes, n\u00e3o ter apenas engenheiros, mas tamb\u00e9m desenhadores e especialistas em \u00e9tica, a desenvolver esse enquadramento, leva o sistema a ser menos tendencioso. Outro elemento importante \u00e9 conceber um sistema inclusivo para todos. A experi\u00eancia do utilizador ser agrad\u00e1vel, tanto para homens como para mulheres, para as pessoas com mais conhecimentos t\u00e9cnicos e as pessoas com menos. Ter uma equipa diversificada torna o sistema de IA mais inclusivo para todos. I.K.: O seu percurso na IA come\u00e7ou com uma hist\u00f3ria muito pessoal, a do seu irm\u00e3o. O que diria a um jovem que quisesse trabalhar em intelig\u00eancia artificial? L.B.: Penso uma pessoa que queira embarcar na IA n\u00e3o se deve focar num aspeto da IA, como a programa\u00e7\u00e3o, ou a engenharia. A IA \u00e9 um espectro de coisas. H\u00e1 muitos aspetos da IA al\u00e9m da parte da programa\u00e7\u00e3o. H\u00e1 o design, a criatividade. H\u00e1 tamb\u00e9m a \u00e9tica na conce\u00e7\u00e3o desses sistemas, a interface do utilizador. Por isso, \u00e9 um dom\u00ednio multicultural. Por onde quer que comece, se seguir a sua paix\u00e3o, pode ter um percurso profissional na \u00e1rea da IA, porque precisamos de todo o g\u00e9nio e dos peritos para acrescentar valor e tornar a IA mais inclusiva e mais bela. ", "dateCreated": "2021-02-25T15:58:58+01:00", "dateModified": "2021-04-01T16:31:32+02:00", "datePublished": "2021-04-01T16:30:19+02:00", "image": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Farticles%2Fstories%2F05%2F41%2F08%2F90%2F1440x810_cmsv2_32a19abb-3f98-5b22-ba66-f7c6e023bee8-5410890.jpg", "width": "1440px", "height": "810px", "caption": "Loubna Bouarfa", "thumbnail": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Farticles%2Fstories%2F05%2F41%2F08%2F90%2F432x243_cmsv2_32a19abb-3f98-5b22-ba66-f7c6e023bee8-5410890.jpg", "publisher": { "@type": "Organization", "name": "euronews", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png" } }, "author": { "@type": "Person", "familyName": "Kumar", "givenName": "Isabelle", "name": "Isabelle Kumar", "url": "/perfis/62", "worksFor": { "@type": "Organization", "name": "Euronews", "url": "/", "logo": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png", "width": "403px", "height": "60px" }, "sameAs": [ "https://www.facebook.com/pt.euronews", "https://twitter.com/euronewspt", "https://flipboard.com/@euronewspt", "https://www.linkedin.com/company/euronews" ] }, "sameAs": "https://www.x.com/@Isabelle_kumar", "memberOf": { "@type": "Organization", "name": "Producers Magazine" } }, "publisher": { "@type": "Organization", "name": "Euronews", "legalName": "Euronews", "url": "/", "logo": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png", "width": "403px", "height": "60px" }, "sameAs": [ "https://www.facebook.com/pt.euronews", "https://twitter.com/euronewspt", "https://flipboard.com/@euronewspt", "https://www.linkedin.com/company/euronews" ] }, "articleSection": [ "S\u00e9ries" ] }, { "@type": "WebSite", "name": "Euronews.com", "url": "/", "potentialAction": { "@type": "SearchAction", "target": "/search?query={search_term_string}", "query-input": "required name=search_term_string" }, "sameAs": [ "https://www.facebook.com/pt.euronews", "https://twitter.com/euronewspt", "https://flipboard.com/@euronewspt", "https://www.linkedin.com/company/euronews" ] } ] }
PUBLICIDADE

Loubna Bouarfa: "Não vamos fazer máquinas para substituir os médicos, mas para lhes dar poder"

Em parceria com
Loubna Bouarfa
Loubna Bouarfa Direitos de autor euronews
Direitos de autor euronews
De Isabelle KumarEuronews
Publicado a
Partilhe esta notícia
Partilhe esta notíciaClose Button
Copiar/colar o link embed do vídeo:Copy to clipboardCopied

A especialista em Inteligência Artificial (IA), Loubna Bouarfa, falou com a Euronews sobre o futuro da saúde e os desafios na adaptação da IA à prática médica.

PUBLICIDADE

A Inteligência Artificial (IA) já faz parte da nossa vida quotidiana, mas estamos apenas a começar. Para compreender todo o seu potencial, Loubna Bouarfa, cientista, pioneira da tecnologia e diretora-executiva, está a levar mais além os limites do nosso conhecimento, num percurso que tem por certo que a IA é um ponto de viragem, quando aplicada a questões de saúde, podendo não só poupar tempo e dinheiro, como também salvar vidas.

As restrições às viagens por causa da covid-19 impediram que esta entrevista fosse feita presencialmente, mas a tecnologia e a criatividade vieram em nosso auxílio.

Isabelle Kumar, Euronews: Em termos muito simples, o que é inteligência artificial?

Loubna Bouarfa: A inteligência artificial são sistemas que podem aprender com as observações

e armazenar essas observações na memória, aproveitando-a para nos ajudar a criar uma maior consciencialização nos ambientes. Mimetiza a forma como aprendemos enquanto seres humanos, observando, adaptando e aprendendo com o ambiente que nos rodeia.

DISRUPTED/EURONEWS
Loubna Bouarfa numa entrevista à distância com Isabelle KumarDISRUPTED/EURONEWS

I.K.: A inteligência artificial aprende com o nosso ambiente e por isso, em alguns aspetos, é bastante pessoal, apesar de muitas pessoas acreditarem que a inteligência artificial é o oposto. No seu caso, o que é que a liga à IA?

L.B.: Diversos aspetos ligam-me à IA. Mas a ligação mais pessoal, para mim, está a crescer no seio familiar. Um dos meus irmãos é severamente autista. Ao crescer com ele, aprendi desde tenra idade que as regras e as normas que a sociedade nos impõe são apenas perceções genéricas, não representam o espectro completo da vida e o meu fascínio pela IA vem daí.

Não há regras, ou normas. Aprendi que se pode ser muitas coisas e ser autista é uma delas. A existência de sistemas que podem impor regras, seja em engenharia, ou noutros campos, quase coloca pessoas e diferenças numa caixa. No entanto, ter esta tecnologia, que pode aprender e adaptar-se, ajuda-nos, enquanto seres humanos, a ser mais abertos ea aprender com o ambiente e a abraçar muito mais a incerteza.

Para mim, essa é uma forma de vida muito honesta e uma boa filosofia.

I.K.: É algo que partilhamos, porque, como sabe, o meu filho também tem autismo. Mas como é que entrou nessa viagem? Como é que se decidiu dedicar à inteligência artificial?

L.B.: Começou há 20 anos, quando comecei a minha licenciatura em engenharia. Eu adorava ciência e matemática. Mas o que eu não gostava, na altura, na engenharia, era do seu lado fixo, baseado em regras. Era tudo programação baseada em regras, tínhamos de definir as regras de qualquer projeto que estivéssemos a fazer, até me deparar com a IA e a aprendizagem mecânica, onde não estamos a impor novas regras, mas vamos aprender com padrões e treinar máquinas para aprender e adaptarem-se.

Depois embarquei num projeto de doutoramento há 13 anos para construir um cockpit para os blocos operatórios. Ou seja, um sistema de IA que possa observar o cirurgião, aprender com diferentes sinais no bloco operatório, inferir o que ele está a fazer e se há algum desvio do protocolo.

Estes algoritmos não param. Continuam a processar dados e a sugerir o que se pode fazer. Por isso, é quase desnecessário esperar que as pessoas adoeçam. Os nossos sistemas de saúde com Inteligência Artifical poderiam tornar-se mais proativos
Loubna Bouarfa
Especialista em inteligência artificial

I.K.: É fascinante o que está a dizer. Mas o que é que isso significa na prática? Porque parece bastante teórico.Se estiver doente e for ao médico, como é que a IA pode mudar a minha experiência?

L.B.: De diferentes maneiras. Imagine que, num cenário ideal, os dados desde o nascimento estão a ser recolhidos, bem como os dados de muitos outros pacientes. A IA pode comparar semelhanças, observando muitos pacientes, semelhantes a si, ou a outras pessoas.

Pense nisto como um semáforo. Se pudermos, em tempo real, ser capazes de medir os diferentes riscos para todos os doentes, quando houver um sinal vermelho, o sistema de IA pode desencadear uma resposta e enviar-lhe uma carta para fazer mais testes.

Desta forma, aproveitamos os seus dados e de pacientes semelhantes a si para lhe poder dizer qual é o melhor procedimento. E mais, para lhe dizer quais são os melhores tratamentos que funcionarão para si, como uma pessoa única, aprendendo com todos os pacientes semelhantes a si.

Estes algoritmos não param. Continuam a processar dados e a sugerir o que se pode fazer. Por isso, é quase desnecessário esperar que as pessoas adoeçam. Os nossos sistemas de saúde com Inteligência Artificial poderiam tornar-se mais proativos e aproveitar estes dados para aconselhar os pacientes e mantê-los saudáveis.

I.K.: Um médico que usasse a IA seria capaz, ao olhar para esses dados, de prever os potenciais resultados e tratá-los, antes de se desenvolverem. Era isso que ia acontecer?

L.B.: Sim, o papel do médico iria consistir em receber todas as informações e não apenas basear a sua decisão nos 15 minutos que tem para vê-la, quando vai a uma consulta. Teria todos os dados a seu respeito, a sua história familiar e de pacientes semelhantes. Seria uma vantagem para calcular os riscos de diferentes doenças.

Não vamos fazer máquinas para substituir os médicos, vamos fazer máquinas para lhes dar poder. Penso que essa é também a revolução que está a acontecer nos cuidados de saúde, o papel do médico vai mudar, [ando] do trabalho num todo para o foco na parte importante no paciente.

É preciso um ser humano para transferir [os] valores morais
Loubna Bouarfa
Especialista em inteligência artificial

I.K.: Houve alguma mudança de mentalidade na comunidade médica para aceitar isso? Ou existe um sentimento de desconfiança quando se trata de aliar a inteligência artificial ao seu trabalho?

L.B.: Estou muito otimista. Nos últimos 10 anos, vi muitas mudanças na adoção [da inteligência artificial]. Há barreiras, sem dúvida. Entre elas, resumidamente, a primeira é a falta de dados para podemos treinar esses algoritmos de IA.

Os dados que temos no espaço da saúde, especialmente na Europa, não são recolhidos para construir sistemas de IA, ou para trazer provas. São recolhidos para fins transacionais, como reclamações, ou pagamentos de medicamentos.

A segunda é a visão em túnel. Os doentes querem melhorar, os médicos querem tratar os doentes, quem paga quer reembolsar os medicamentos que são rentáveis e os reguladores querem fazer as regras que assegurem a sua consistência.

Mas depois todos se esquecem que o objetivo é um só. O objetivo é tratar estes pacientes o mais rapidamente possível.

É uma injustiça, quando, como paciente, existe um medicamento e não tem o a ele,

porque pode não estar aprovado no seu país, ou porque o seu médico talvez não saiba que esse medicamento será o melhor para si. E acaba por se perder nesta confusão.

DISRUPTED/EURONEWS
Loubna Bouarfa é entrevistada por Isabelle KumarDISRUPTED/EURONEWS

I.K: Vou pedir-lhe que avance no tempo, digamos, 30, 40 anos. Descreva brevemente e em termos muito simples como a experiência de um paciente quando vai ao médico. Será que ainda vamos ver um médico cara a cara? Ou isso terá mudado completamente?

L.B.: Imaginemos que estamos em 2050 e nasce alguém. Assim que este bebé nascer, serão realizadas análises de rotina. Faz-se um rastreio genético e imagine que há uma mutação em genes importantes. Assim que isso é detetado, os alarmes disparam. Os pais são informados sobre o processo a seguir e os cuidados que terão de providenciar ao seu filho. Imagine que esta criança cresce bem e o algoritmo de IA, que tem estado a monitorizar os seus estados, [assinala] tudo verde, verde, verde, não havendo um risco para muitas doenças.

Mas, a certa altura, aparece um laranja, ou uma luz, ou uma luz vermelha a indicar que há um risco de cancro do pulmão. A pessoa vai receber uma carta a dizer que precisa de ir fazer um rastreamento LDCT. E assim que o exame LDCT for realizado, outros algoritmos de IA irão analisar se é positivo, ou negativo.

Se o teste der positivo, então entra em cena o humano, o médico, porque não vamos querer um algoritmo a dizer aos doentes que têm cancro. É preciso um ser humano para transferir esses valores morais.

Enquanto os médicos realizam este trabalho, os algoritmos de IA vão paralelamente estar a calcular qual é o melhor tratamento para estes pacientes. Após os tratamentos, ainda vamos ter algoritmos em execução para prever alguma recaída e automatizar todo o processo.

I.K.: Mas isso não levanta toda uma série de questões éticas, especialmente quando se está a falar sobre dados e a saúde das pessoas, da previsão de doenças? O que é que tem de ser posto em prática para garantir que não haja abusos?

L.B.: Há diferentes formas de nos certificarmos de que os dados não são usados de forma abusiva.

Uma maneira é não utilizar dados pessoais na formação de algoritmos de IA. Para excluir todos os dados pessoais, os sistemas de IA são, na sua maioria, treinados com um dado não identificável, anónimo.

Através do Grupo de Peritos de Alto Nível, onde estive como uma dos 52 peritos para aconselhar a Comissão Europeia sobre as Diretrizes Éticas para a IA, garantimos que a privacidade dos dados é salvaguardada, está em torno da robustez do sistema de IA, que tem de ser preciso, antes de o instalarmos num ambiente, especialmente na área da saúde.

Isso é fundamental para garantir a sua imparcialidade em relação a diferentes grupos de doentes, a diferentes géneros, ou áreas de doenças específicas, certificando-se de que a IA é explicável, especialmente nos cuidados de saúde. Isso é importante.

O preconceito faz parte das nossas vidas e a parcialidade acontece todos os dias, nos cuidados de saúde, quando se vai ao médico. (...) Portanto, isso não é algo que possamos excluir completamente.
Loubna Bouarfa
Especialista em inteligência artificial

I.K.: Relativamente à inteligência artificial na Europa, quão desenvolvido está esse espaço de dados e em que medida está a dificultar a inovação?

L.B.: É verdade que os dados na Europa representam uma das grandes limitações. Faltam-nos dados.

O Espaço Europeu de Dados de Saúde é uma iniciativa em que um alguns Estados-membros estão a trabalhar para mapear estes dados em conjunto.

Mas estamos numa fase muito precoce e, em comparação a outros países onde os dados estão mais disponíveis, como nos EUA, podemos ver que muitas decisões, a tomada de decisão está a acontecer, mas porque estamos a utilizar dados dos EUA.

Não dispomos de muitos dados europeus, adaptados à nossa população de doentes, que nos possam ajudar a individualizar a medicina aqui na Europa. E penso que esse é o próximo o importante que precisa de acontecer, antes de podermos dimensionar o uso de IA nos sistemas de saúde na Europa.

I.K.: Ouvimos falar frequentemente de preconceitos, quando se trata de algoritmos, de enviesamento de dados. Como é que isso afeta a inteligência artificial, no campo da saúde?

L.B.: O preconceito faz parte das nossas vidas e a parcialidade acontece todos os dias, nos cuidados de saúde, quando se vai ao médico, ele é um ser humano, por mais que tente ser o mais objetivo possível, ele também julga o doente que está à sua frente.

Portanto, isso não é algo que possamos excluir completamente. Como os sistemas de IA não são baseados em regras, eles aprendem a partir das observações. Se forem treinados com dados históricos, eles vão receber o enviesamento do ado.

Mas a vantagem é que agora podemos ver esse preconceito. Com a IA podemos agora detetar este preconceito e adaptar os sistemas para excluí-lo.

I.K.: Disse que a IA pode retificar problemas de diversidade, em termos de algoritmos. Olhando para a sua empresa, a Okra, parece ser muito importante para si ter uma equipa muito diversificada de colegas a trabalhar consigo. Porque é que isso é importante?

L.B.: Ao ter uma equipa diversificada a construir um sistema de IA, já se reduz o enviesamento na conceção. Portanto, a forma como vemos o que é preciso ser articulado ao utilizador, como os dados precisam de ser processados, mas a partir de ângulos diferentes, não ter apenas engenheiros, mas também desenhadores e especialistas em ética, a desenvolver esse enquadramento, leva o sistema a ser menos tendencioso.

Outro elemento importante é conceber um sistema inclusivo para todos. A experiência do utilizador ser agradável, tanto para homens como para mulheres, para as pessoas com mais conhecimentos técnicos e as pessoas com menos.

Ter uma equipa diversificada torna o sistema de IA mais inclusivo para todos.

I.K.: O seu percurso na IA começou com uma história muito pessoal, a do seu irmão. O que diria a um jovem que quisesse trabalhar em inteligência artificial?

L.B.: Penso uma pessoa que queira embarcar na IA não se deve focar num aspeto da IA, como a programação, ou a engenharia. A IA é um espectro de coisas. Há muitos aspetos da IA além da parte da programação. Há o design, a criatividade. Há também a ética na conceção desses sistemas, a interface do utilizador. Por isso, é um domínio multicultural.

Por onde quer que comece, se seguir a sua paixão, pode ter um percurso profissional na área da IA, porque precisamos de todo o génio e dos peritos para acrescentar valor e tornar a IA mais inclusiva e mais bela.

Ir para os atalhos de ibilidade
Partilhe esta notícia