06/04/2026 07h01 - Atualizado 06/04/2026 07h46

Consentimento do paciente na era digital à luz da Resolução CFM nº 2.454/2026

Por Terezinha
para IARGS

O consentimento esclarecido (ou consentimento informado, consentimento consciente, entre outras denominações), entendido como o “reconhecimento da autonomia do paciente em se submeter ou não a técnicas médicas de pesquisa, prevenção, diagnóstico e tratamento, respeitadas suas crenças e valores morais”, trata-se de: “decisão livre, voluntária, refletida, autônoma, não induzida, tomada após um processo informativo e deliberativo sobre o procedimento ou procedimentos biomédicos a serem adotados nos termos informados” (Schaefer, 2012) e ganha novos contornos na era digital.

A crescente incorporação de tecnologias digitais na assistência à saúde projeta novos desafios para o próprio significado do consentimento esclarecido e a utilização de sistemas de inteligência artificial (IA), capazes de influenciar diagnósticos, prognósticos e condutas terapêuticas, levanta a seguinte questão: até que ponto o consentimento do paciente permanece válido quando ele desconhece que a decisão médica foi construída, em maior ou menor grau, com o apoio de sistemas algorítmicos?

A transparência acerca do uso da IA pode ser analisada por ao menos dois prismas. De um lado, o uso das tecnologias como meio de colher ou aprimorar o processo de consentimento, aproximando médico e paciente por meio de ferramentas digitais. De outro, o uso das tecnologias como objeto do próprio consentimento, especialmente quando sistemas de IA passam a influenciar diagnósticos e decisões clínicas. É nesse segundo prisma que se concentra o principal desafio contemporâneo.

O primeiro prisma, que trata do digital como meio de obtenção do consentimento, apresenta desafios, mas também oportunidades interessantes. Assinaturas eletrônicas, registros auditáveis e até soluções como blockchain podem oferecer agilidade e segurança. Contudo, consentir é compreender, e essa compreensão depende de linguagem acessível, de canais de diálogo e da verificação da real capacidade de consentir e, principalmente, do uso de signos e símbolos que possam ser compreendidos pelo usuário. Assim, se o processo se reduzir, por exemplo, a um clique, corre-se o risco de se perder a essência do processo de consentimento e, neste ponto, ferramentas de legal design ou design da informação podem contribuir para transformar termos técnicos e burocráticos em informações mais claras e interativas, promovendo maior compreensão do seu conteúdo (Bortolini, Garcia, Faleiros Júnior, 2023).

Deve-se lembrar que, em um país marcado pela desigualdade digital e pelo baixo letramento, inclusive em saúde, confiar apenas em interfaces eletrônicas pode acentuar exclusões, deixando de fora justamente os pacientes que mais precisam de informação qualificada. Por isso, o digital pode ser visto como um aliado na formação e obtenção do consentimento, mas jamais substituir a mediação humana, que deve estar no centro da relação médico-paciente.

O segundo prisma de análise projeta o maior desafio dos próximos tempos: o digital como próprio objeto do consentimento. Trata-se de refletir sobre a necessidade de informar ao paciente que a tomada de decisão médica não resulta apenas do julgamento humano, tendo sido construída, em maior ou menor grau, com o apoio de sistemas algorítmicos. Já não basta, portanto, o consentimento sobre os riscos, benefícios e alternativas tradicionais, tornando-se indispensável revelar ao paciente que a recomendação médica foi construída, em maior ou menor grau, com o apoio de sistemas algorítmicos.

No Brasil, esse debate ganhou parâmetros mais concretos com a recente publicação da Resolução CFM nº 2.454/2026, que passou a estabelecer diretrizes éticas para o desenvolvimento e uso de sistemas de IA na prática médica (sem prejuízo de reflexões quanto aos limites da competência regulatória do Conselho sobre o desenvolvimento dessas tecnologias). Entre seus princípios está a transparência quanto ao uso da IA no cuidado ao paciente. Nos termos do art. 5º, parágrafo 1º, a resolução estabelece que o paciente tem o direito de ser informado, de forma clara e acessível, quando sistemas de IA forem “utilizados como apoio relevante em seu cuidado, diagnóstico ou tratamento”. Em reforço, o art. 11 determina que “qualquer utilização de IA deve ser comunicada e explicada aos pacientes”. Trata-se, portanto, do reconhecimento normativo de que a transparência quanto ao uso da IA integra o conteúdo do dever de informação que fundamenta o consentimento esclarecido. A positivação desses deveres, contudo, não elimina as dificuldades práticas de sua concretização no contexto de sistemas cada vez mais complexos e difusos.

Glenn Cohen (2020), professor da Harvard Law School, já sustentava que a validade do consentimento se torna questionável quando o paciente não sabe que a sugestão do médico foi orientada por algoritmos. O autor apresenta o seguinte exemplo: imagine um paciente com câncer de próstata que, após ouvir sobre os riscos e benefícios de uma cirurgia, aceita realizá-la. Se não lhe foi dito que a indicação do procedimento surgiu da análise de um sistema de IA, Cohen entende ter havido vício no consentimento do paciente, que não foi informado sobre as influências algorítmicas na tomada da decisão médica.

Para reforçar esse ponto, Glenn Cohen (2020) recorre a precedentes da jurisprudência norte-americana sobre outros temas, mas que podem ser aplicados por analogia. Ele lembra, por exemplo, os casos de ghost surgery, que ocorrem quando o paciente consente com a cirurgia a ser realizada por determinado médico, mas outro acaba assumindo o bisturi. A Justiça americana entende que, nestes casos, o consentimento não foi válido, tendo havido omissão de uma informação essencial. Outro exemplo oferecido pelo autor vem dos casos sobre qualificação profissional. Em Johnson v. Kokemoor, o tribunal responsabilizou um cirurgião por não revelar sua inexperiência em um tipo específico de operação, considerando que a falta de informação comprometeu a autonomia do paciente. Se ocultar a inexperiência do profissional médico já tem o condão, para a jurisprudência americana, de invalidar o consentimento, seria válido aquele fornecido sem conhecimento de que a decisão clínica foi influenciada por uma IA cujos critérios nem sempre são transparentes?

Há ainda os conflitos de interesse não revelados, como no caso Moore v. Regents of California, em que o médico ocultou que pretendia lucrar com células extraídas do paciente, e a Suprema Corte da Califórnia reconheceu a violação do dever de informar (Cohen, 2020). Assim, se interesses econômicos ocultos são suficientes para macular o consentimento do paciente, não seria igualmente grave deixar de informar a ele que determinada ferramenta de IA está sendo usada por razões de custos, conveniência ou pesquisa, e não apenas por critérios clínicos?

Esses exemplos demonstram que a lógica do entendimento dos tribunais converge para uma mesma conclusão: ocultar elementos decisivos da prática clínica pode invalidar o consentimento. No contexto atual, diante da publicação da Resolução CFM nº 2.454/2026, mais do que nunca a omissão sobre o papel dos algoritmos em um determinado caso pode não ser um mero detalhe, mas configurar verdadeira quebra do dever de informação.

Esses dilemas se intensificam quando se consideram os riscos associados à IA, como a opacidade dos sistemas (a chamada “caixa-preta”) e os vieses algorítmicos. Diferentemente de um erro técnico ocasional, os vieses decorrem da própria forma como os sistemas são treinados, por exemplo, com dados incompletos, insuficientes, geograficamente deslocados ou carregados de preconceitos que acabam sendo replicados e amplificados pelo sistema. Isso significa que a decisão clínica orientada por IA pode ser não apenas opaca, mas também estruturalmente tendenciosa.

Pesquisas já identificaram, por exemplo, algoritmos de triagem que podem subestimar a gravidade de pacientes negros em relação a pacientes brancos, ou sistemas que interpretam sintomas femininos com menor acurácia por terem sido treinados majoritariamente com dados de homens (Bortolini, 2024). Sob este aspecto, ocultar do paciente que a indicação terapêutica foi moldada por uma IA não apenas retira informação essencial, mas também o priva da possibilidade de avaliar se aceita correr os riscos de uma decisão enviesada.

A operacionalização do dever de transparência, contudo, não é isenta de dificuldades. Em muitos contextos, a IA está incorporada de forma difusa em softwares médicos, de sistemas de imagem e plataformas digitais, nem sempre sendo plenamente perceptível ao próprio profissional de saúde. Surge, então, um desafio adicional: delimitar quando efetivamente há “uso de IA” na decisão clínica. Essa dificuldade revela que a transparência algorítmica não se reduz a um dever formal de informação, mas exige a construção de critérios capazes de tornar visível ao paciente a participação de sistemas automatizados em processos decisórios que podem operar de maneira invisível.

O consentimento não é uma mera autorização, integrando o direito fundamental à autodeterminação do paciente, conferindo legitimidade ao ato médico. Mais do que uma formalidade, ele se apoia em princípios como veracidade, confidencialidade, fidelidade e transparência, que funcionam como cláusulas gerais da relação médico-paciente (Schaefer, 2012). Na era digital, o consentimento sofre uma transformação: se antes se voltava predominantemente aos procedimentos médicos, passa agora a incidir também sobre os processos decisórios que os fundamentam. Isso implica reconhecer que o paciente deve saber não apenas o que lhe será feito, mas também como a decisão médica foi construída, inclusive se contou com a participação ou foi significativamente influenciada por sistemas de IA.

O futuro da saúde digital não será definido apenas pela adoção de novas tecnologias ou pela digitalização de processos, mas pela capacidade de preservar a transparência, a autonomia e a centralidade do cuidado humano. A Resolução CFM nº 2.454/2026 representa um avanço nesse sentido, ao reconhecer expressamente a necessidade de informação clara ao paciente. Ainda assim, o desafio permanece no sentido de transformar essas diretrizes normativas em práticas efetivas.

REFERÊNCIAS

BORTOLINI, Vanessa Schmidt; GARCIA, Alexandre de Souza; FALEIROS JUNIOR, José Luiz de Moura. Legal Design como instrumento para redução da assimetria informacional na relação médico-paciente. In: Tecnologias disruptivas, direito e proteção de dados, 2023, Franca – SP. GIOLO JÚNIOR, Cildo; GOMES, Fábio Cantizani; OLIVEIRA, Maria Cláudia Santana de (Org.). Anais do I Congresso Internacional de Direito, Políticas Públicas, Tecnologia e Internet [recurso eletrônico]. Franca: Faculdade de Direito de Franca, 2023. v. 9. p. 96-103.

BORTOLINI, Vanessa Schmidt. Inteligência artificial na medicina: uma proposta de regulação ética. 1. ed. Curitiba: Editora Consultor Editorial, 2024.

COHEN, I. Glenn. Informed Consent and Medical Artificial Intelligence: What to Tell the Patient? The Georgetown Law Journal, v. 108, p. 1425-1467, 2020. Disponível em: https://ssrn.com/abstract=3529576. Acesso em: 1 ago. 2025.

SCHAEFER, Fernanda. A nova concepção do consentimento esclarecido. Revista do Instituto do Direito Brasileiro, Ano 1 (2012), nº 10.

Vanessa Schmidt Bortolini

Associada do IARGS, Procuradora Sênior do CRM-RS, Doutoranda e Mestra em Direito (UNISINOS), Especialista em Direito Médico e da Saúde (PUC-PR)

 

 

Faça seu comentário

Você pode usar essas tags HTML:
<a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>