Regulamentação da Inteligência Artificial na União Europeia estrutura ética, classificação de riscos e possíveis reflexos na medicina

Conteúdo do artigo principal

Alexandre Rocha Almeida de Moraes
Andressa Felix Lisboa

Resumo

Contextualização: A regulamentação da inteligência artificial pela União Europeia busca estabelecer um quadro claro para a classificação de riscos associados a esses sistemas, abrangendo categorias de risco mínimo, limitado, alto e inaceitável. Problema: O problema central reside na necessidade de garantir que esses sistemas não comprometam a segurança e os direitos fundamentais das pessoas. Por outro lado, o excesso de regulação, além de inviabilizar para parte do Ocidente o desenvolvimento tecnológico em áreas como a medicina, pode se tornar ineficaz frente à competitividade das grandes potências mundiais. Objetivos: Este estudo visa descrever a metodologia de classificação de riscos e os princípios éticos que orientam a implementação de um modelo de inteligência artificial confiável. Métodos: Utilizou-se uma revisão narrativa documental do regulamento europeu, com análise qualitativa para identificar e categorizar os requisitos específicos de cada nível de risco da Inteligência Artificial, confrontando as vantagens e desvantagens da revolução tecnológica à medicina. Resultados: Os sistemas de Inteligência Artificial classificados como de risco mínimo, como filtros de spam, são considerados seguros e não exigem supervisão rigorosa. Já os sistemas de alto risco, como Inteligência Artificial para diagnóstico médico, requerem conformidade rigorosa com padrões éticos e de segurança, devido ao potencial de impacto sobre a vida humana. De qualquer sorte, frente aos potenciais avanços da tecnológica para a medicina e para a saúde das pessoas, coloca-se a questão ética de se aferir quanto a regulação jurídica pode atrasar novas descobertas para a saúde individual e coletiva. Considerações Finais: As considerações finais indicam que a proposta regulamentar contribui significativamente para a construção de um modelo de segurança, mas enquanto essa regulação não for global, pode ser inócua ou até mesmo obstar o desenvolvimento científico de áreas como a medicina.

##plugins.themes.bootstrap3.displayStats.downloads##

##plugins.themes.bootstrap3.displayStats.noStats##

Detalhes do artigo

Seção

Artigos

Biografia do Autor

Alexandre Rocha Almeida de Moraes, Universidade Santa Cecília

Promotor de Justiça do Ministério Público do Estado de São Paulo. Mestre e Doutor em Direito pela Pontifícia Universidade Católica de São Paulo. É professor da Graduação e Pós-Graduação da PUC/SP e da UNISANTA. Professor do Mestrado em Direito da Saúde (UNISANTA), professor de diversos cursos de pós-graduação, dentre os quais a Escola Superior do Ministério Público de São Paulo e da Escola Paulista da Magistratura. Autor de obras jurídicas, dentre as quais, Direito Penal: Parte Geral (Fórum), Direito Penal do Inimigo e Direito Penal Racional (Editora Juruá) e Criminologia (Juspodvum).

Andressa Felix Lisboa, Universidade Santa Cecília

Advogada, especialista em seguridade social. Mestranda em Direito da Saúde pela UNISANTA. Bolsista CAPES. Atua como professora em cursos de extensão sobre previdência social pela ESA/SP. Professora convidada em direito do trabalho para cursos de extensão EAD - UNISANTA. Responsável pela área previdenciária do escritório Lamy & Oliveira sociedade de advogados. Membra efetiva da comissão de estágio e exame de ordem OAB/SP.

Como Citar

MORAES, Alexandre Rocha Almeida de; LISBOA, Andressa Felix. Regulamentação da Inteligência Artificial na União Europeia: estrutura ética, classificação de riscos e possíveis reflexos na medicina. Unisanta Law and Social Science, Santos, v. 13, n. 2, p. 16–29, 2024. DOI: 10.66221/v13n2p16. Disponível em: https://periodicosunisanta.ojsbr.com/LSS/article/view/2473. Acesso em: 17 mar. 2026.