...

Organização Mundial da Saúde (OMS) destaca a importância de garantir o uso seguro e ético da inteligência artificial (IA) na área da saúde

ChatGPT

COMPARTILHE COM SEU TIME

Share on facebook
Share on linkedin
Share on twitter
Share on whatsapp
Share on telegram
Share on email

Por Marcos Tadeu Machado

 

A Organização Mundial da Saúde (OMS) tem chamado a atenção para a importância de garantir o uso seguro e ético da inteligência artificial (IA), na área da saúde. A rápida expansão de modelos de linguagem gerados por IA (LLMs), como ChatGPT, Co-Pilot, Bard e outras, tem despertado entusiasmo em relação ao seu potencial para apoiar as necessidades de saúde das pessoas.

É fundamental que os riscos sejam cuidadosamente examinados ao utilizar LLMs para melhorar o acesso à informação de saúde, auxiliar na tomada de decisões ou aprimorar o diagnóstico em locais com recursos limitados, com o objetivo de proteger a saúde e reduzir a desigualdade.

A OMS reconhece a importância de tecnologias, incluindo LLMs, para apoiar profissionais de saúde, pacientes, pesquisadores e cientistas. No entanto, há preocupações de que a cautela adequada, geralmente exercida ao lidar com novas tecnologias, não esteja sendo aplicada consistentemente aos LLMs. Isso inclui a adesão a valores-chave como transparência, inclusão, envolvimento público, supervisão especializada e avaliação rigorosa.

A adoção precipitada de sistemas de IA não testados pode levar a erros por parte dos profissionais de saúde, causar danos aos pacientes e minar a confiança na IA. Portanto, é necessário um rigoroso controle e supervisão para garantir o uso seguro, eficaz e ético dessas tecnologias. Alguns dos principais pontos a serem observados incluem:

– Os dados utilizados para treinar a IA podem ser tendenciosos, gerando informações enganosas ou imprecisas que representam riscos para a saúde, equidade e inclusão;

– Os LLMs geram respostas que parecem confiáveis e plausíveis para os usuários, mas que podem estar totalmente incorretas ou conter erros graves, especialmente em questões relacionadas à saúde;

– Os LLMs podem ser treinados com dados para os quais o consentimento adequado não tenha sido obtido e não oferecem proteção suficiente para dados confidenciais, como informações de saúde, fornecidas pelos usuários durante a geração de respostas;

– Os LLMs podem ser utilizados indevidamente para gerar e disseminar desinformação altamente convincente, seja por meio de texto, áudio ou vídeo, tornando difícil para o público distinguir informações confiáveis de saúde.

É essencial que sejam estabelecidos rigorosos protocolos e regulamentações para garantir que essas ferramentas sejam utilizadas de maneira segura, ética e eficaz, protegendo o bem-estar humano, a segurança e a autonomia, além de preservar a saúde pública.

 

Marcos Tadeu Machado é membro do Conselho de Administração do Instituto Ética Saúde e um dos seus fundadores.

 

* A opinião manifestada é de responsabilidade do autor e não é, necessariamente, a opinião do IES

 

0 0 votos
Classificar Artigo
Se inscrever
Notificar de
0 Comentários
mais antigo
O mais novo mais votado
Feedbacks Inline
Ver todos os comentários