...

Ética e Inteligência Artificial na área da Saúde: desafios e perspectivas

COMPARTILHE COM SEU TIME

Share on facebook
Share on linkedin
Share on twitter
Share on whatsapp
Share on telegram
Share on email

Por Giovani Saavedra

 

A Organização Social da Saúde (OMS) publicou, em 19 de outubro, diretrizes para a regulação da Inteligência Artificial (IA) na área da saúde. O objetivo principal do documento é guiar governos e agências reguladoras na criação ou atualização de políticas públicas direcionadas à regulação em âmbito estadual e em âmbito federal. O documento é resultado das atividades do Grupo de Trabalho sobre Considerações Regulatórias dessa organização, que é formado por todos os stakeholders da área da saúde, desde autoridades regulatórias, políticos, acadêmicos, representantes da indústria etc.

O documento tem uma abordagem fortemente baseada em riscos. E, de fato, o uso da IA tem um potencial comprovado de geração de risco, sendo que um dos grandes riscos é o chamado uso “duplo” (dual-use) da inteligência artificial. Muitas vezes, um risco muito grave para a saúde pública pode emergir da mais bem intencionada das iniciativas. Em outras palavras, o simples fato de um sistema de IA ter sido criado com a intenção de gerar um bem incrível à humanidade, não significa que ele não possa ser, facilmente, torcido num pesadelo tão nefasto, que poderia fazer inveja a obras literárias ficcionais como I Robot de Isaac Asimov ou mesmo filmes ficcionais do imaginário hollywoodiano recente, ao ponto de quase fazê-las parecer mais com livros de história do que de ficção.

Talvez o exemplo mais rumoroso da área da saúde, e, ao que tudo indica, será até documentado em uma série da Netflix, é o caso da equipe liderada por Sean Ekins na área de pesquisa de fármacos. Pesquisador que tive inclusive a oportunidade de conhecer pessoalmente e com quem pude debater sobre os riscos de IA no referido evento. Ele e equipe relatam os detalhes da descoberta do duplo uso de sua pesquisa com IA num artigo da Revista Nature (Fabio Urbina, Filippa Lentzos, Cédric Invernizzi, and Sean Ekins, “Dual-Use Of Artificial-Intelligence-Powered Drug Discovery,” Nature, March 2022). E os relatos são alarmantes. De maneira resumida, a ideia inicial consistia em criar um sistema de IA que buscaria encontrar novos compostos moleculares que poderiam potencialmente abrir caminho para remédios curativos para doenças não resolvidas e outros males até o momento. Nem todos os compostos moleculares selecionados terão, naturalmente, a capacidade de curar doenças. Então, o sistema de IA analisa milhares de possibilidades. Para os seres humanos examinarem laboriosamente milhares e milhares de moléculas é demorado e não é particularmente prático. Mas megavolumes de pesquisa não são problema para a IA de hoje, especialmente, quando se usa Machine Learning (ML) e Deep Learning (DL).

A abordagem usada pelos cientistas foi essencialmente carregar o ML/DL com milhões de moléculas identificadas, juntamente com seus dados de bioatividade associados. Estes podem ser retirados de várias bases de dados disponíveis publicamente. A noção geral é usar a IA para examinar compostos moleculares existentes, encontrar padrões computacionalmente identificáveis e, em seguida, extrapolar esses padrões para propor novos compostos moleculares de um resultado benéfico. Em suma, o objetivo da pesquisa era encontrar os compostos moleculares que têm a maior promessa e, ao mesmo tempo, conseguem oferecer a menor toxicidade.

Suponhamos que essa mesma IA, em vez de minimizar a toxicidade como critério central, seja utilizada na direção oposta, ou seja, para maximizar a toxicidade. Não é difícil enxergar onde isso vai parar, não é verdade? Rapidamente, os pesquisadores perceberam que a pesquisa feita com dados públicos, facilmente acessíveis, poderia ser utilizada por qualquer um para criação de armas químicas.

Como se pode ver, o documento da Organização Mundial da Saúde acerta, quando coloca como uma das orientações principais para os reguladores adotar as metodologias de avaliação de risco e o chamado “artificial intelligence systems development lifecycle approach”, que preconiza ser necessária uma abordagem de análise de riscos durante todo o “ciclo de vida” do sistema de IA. Na prática, são usados aqui conceitos conhecidos da área de compliance e fica evidente que há uma tendência internacional de promoção de políticas públicas que foquem no dever das organizações de criar sistemas de gestão de compliance para o gerenciamento dos vários riscos típicos da contemporaneidade: sejam riscos de vazamento de dados, riscos ambientais, climáticos, de mau uso da IA etc.

As propostas de regulação da IA que estão no Congresso Nacional têm considerado abordagens baseadas em risco, porém, a forma como o tema tem sido tratado vem recebendo muitas críticas. O documento da OMS indica, porém, que o caminho adotado parece, de maneira geral, acertado. Cabe agora aos players e organizações da área da saúde levarem o olhar do setor para os legisladores considerarem as especificidades da área da saúde na sua análise, porque, não há dúvida, esse é um tema que deve, impreterivelmente, integrar as diretrizes de políticas públicas brasileiras.

 

Giovani Saavedra é professor de direito na Universidade Mackenzie – SP (graduação, mestrado e doutorado), doutor em direito e filosofia pela Johann Wolfgang Goethe – Universidade de Frankfurt, mestre e graduado em direito pela PUCRS e sócio fundador do Saavedra & Gottschefsky – Sociedade de Advogados.

 

* A opinião manifestada é de responsabilidade do autor e não é, necessariamente, a opinião do IES

5 2 votos
Classificar Artigo
Se inscrever
Notificar de
1 Comentário
mais antigo
O mais novo mais votado
Feedbacks Inline
Ver todos os comentários
Daniella Almeida
9 de novembro de 2023 15:00

Importantíssimo o tema e regulação, pois a utilização dos dados e da IA sempre tem que ter o olhar da ética