Orientações da OMS sobre Ética e Governança da Inteligência Artificial
Conteúdo do artigo principal
Resumo
Contextualização: A inteligência artificial abre um mundo de possibilidades para a saúde pública e a medicina. Algoritmos "treinados" em dados assumem tarefas automatizadas, sem a necessidade de programação manual. A OMS reconhece esse potencial, mas também adverte sobre os desafios éticos que a IA impõe aos Sistemas de Saúde, profissionais e pacientes. Problema: A Inteligência Artificialpode revolucionar a saúde, mas é preciso verificar em que medida a sua implementação deve considerar os seguintes desafios: o viés algorítmico; a privacidade e segurança de dados; a transparência e explicabilidade; a desigualdade digital; os custos elevados; a integração com sistemas existentes e a adequação da legislação. Objetivos: apresentar problemas e questões relacionados à IA, com a avaliação do impacto na sociedade, bem como apresentar possíveis diretrizes para mitigar os riscos da IA. Métodos: ancorado nas recomendações da OMS fez-se revisão crítico-narrativa. Resultados: A OMS propõe um conjunto de princípios éticos para nortear o uso da IA na saúde. O objetivo é garantir que essa tecnologia seja utilizada de forma responsável, justa e transparente, beneficiando a todos. A capacidade da IA para beneficiar pacientes e comunidades depende de um esforço conjunto não só quanto a sua implementação, mas também quanto a criação de normas que assegurem que o desenvolvimento de tecnologias de IA respeitem os direitos humanos. A IA tem o poder de revolucionar a saúde, desde a melhoria do atendimento ao paciente até o combate a pandemias, mas exige preparo e conhecimento. É fundamental investir em educação e treinamento para profissionais de saúde. Os sistemas de saúde precisam ser adaptados para integrar a IA com segurança e eficiência. A IA pode empoderar pacientes e comunidades a assumir o controle da própria saúde, compreender melhor suas necessidades em constante mudança, detectar riscos à saúde de forma eficaz e manter as pessoas no centro das decisões sobre sua saúde. Conclusões: Princípios éticos para IA na Saúde objetivam estabelecer a base para um futuro responsável, considerando o bem-estar de todas as pessoas, sem discriminação ou viés. È preciso assegurar justiça e equidade na acessibilidade, independentemente de renda, localização ou status social; transparência e explicabilidade para os indivíduos e as comunidades das decisões tomadas pela IA; assegurar a responsabilidade dos desenvolvedores, usuários e governos quanto às consequências do uso da IA; a privacidade e segurança de dados sempre devem ser protegidas; é necessário promover a participação e a inclusão da sociedade civil e das partes interessadas, dando voz a elas na definição e no uso da IA na saúde.
##plugins.themes.bootstrap3.displayStats.downloads##
Detalhes do artigo
Seção

Este trabalho está licenciado sob uma licença Creative Commons Attribution 4.0 International License.