Portal Saúde no Ar

 

OMS aponta três riscos do uso da inteligência artificial na saúde

Comunicação da Organização Mundial da Saúde (OMS) pede cautela no uso dos dispositivos, destacando a necessidade de examinar os riscos e os usos apropriados das tecnologias.

De acordo com a OMS, a inteligência artificial aplicada na saúde pode gerar orientações incorretas, violação de dados pessoais e disseminar desinformação. Assim, a entidade pede cautela com plataformas como ChatGPT, Bard, Bert e diversas outras que imitam a compreensão, o processamento e a produção da comunicação humana.

Segundo a OMS, as chamadas ferramentas de modelo de linguagem, LLMs, geradas por inteligência artificial podem representar riscos para o bem-estar humano e para a saúde pública. Os especialistas da agência consideram que a rápida e ampla difusão das LLMs e o crescente uso experimental para fins relacionados à saúde não está sendo acompanhado por mecanismos de controle.

A organização ressalta que isso inclui adesão das plataformas de inteligência artificial a valores como transparência, inclusão, engajamento público, supervisão especializada e avaliação rigorosa. Contudo, apesar do alerta, a OMS, reconhece que o uso apropriado de tecnologias, incluindo LLMs, pode contribuir para apoiar profissionais de saúde, pacientes, pesquisadores e cientistas.

Mas a entidade ressalta que os riscos associados ao uso dessas ferramentas para melhorar o acesso a informações de saúde precisam de melhor avaliação. A adoção precipitada de sistemas não testados pode levar a erros por parte dos profissionais de saúde, causar danos aos pacientes e minar a confiança na inteligência artificial e em tecnologias futuras. Assim, os dados usados ​​para treinar a inteligência artificial podem ser tendenciosos, gerando informações enganosas ou imprecisas que podem representar riscos à saúde, à equidade e à inclusão.

Preocupações da OMS

• LLMs geram respostas que podem parecer confiáveis ​​e plausíveis para um usuário final. No entanto, essas respostas podem estar completamente incorretas ou conter erros graves, especialmente para temas relacionados à saúde.

• LLMs podem ser treinados em dados para os quais o consentimento pode não ter sido fornecido anteriormente. Além disso, essas ferramentas não necessariamente protegem dados confidenciais, incluindo de saúde, que um usuário fornece para gerar uma resposta.

• LLMs ter uso para gerar e disseminar desinformação altamente convincente na forma de texto, áudio ou vídeo, tornando difícil para o público diferenciar conteúdo falso de conteúdo confiável.

Dessa forma, a OMS propõe que essas preocupações sejam abordadas com base em evidências. Uma análise de riscos e benefícios deve preceder o uso generalizado em cuidados de saúde e medicina de rotina, seja por indivíduos, prestadores de serviços e formuladores de políticas.

Com informação da Agência ONU

 

Campanha Vidas Importam

O jornalismo independente e imparcial com informações contextualizadas tem um lugar importante na construção de uma sociedade , saudável, próspera e sustentável. Ajude-nos na missão de difundir informações baseadas em evidências. Apoie e compartilhe