Ir para o conteúdo
By using this site, you agree to the Privacy Policy and Terms of Use.
Aceitar
Personalize
Clikr.
Notificação
  • Últimas Notícias
  • Economia
  • Entretê
  • Esporte
  • LifeStyle
  • Moda & Beleza
  • Negócios
  • AUTO
  • Politíca
  • PRO
  • TECH
  • TV & Famosos
  • Viajante
Leitura: Modelos de IA podem enganar pacientes com informações médicas falsas
Compartilhe
Font ResizerAa
Clikr.Clikr.
  • Últimas Notícias
  • Economia
  • Entretê
  • Esporte
  • LifeStyle
  • Moda & Beleza
  • Negócios
  • AUTO
  • Politíca
  • PRO
  • TECH
  • TV & Famosos
  • Viajante
Busca
  • Últimas Notícias
  • Economia
  • Entretê
  • Esporte
  • LifeStyle
  • Moda & Beleza
  • Negócios
  • AUTO
  • Politíca
  • PRO
  • TECH
  • TV & Famosos
  • Viajante
Já é membro? Entrar
Siga-nos
  • Editorial
  • Comentários
  • Diversidade
  • Contato
  • Privacidade
  • Termos de Uso
© 2022 Foxiz News Network. Ruby Design Company. All Rights Reserved.
Clikr. > Últimas Notícias > Modelos de IA podem enganar pacientes com informações médicas falsas
Últimas Notícias

Modelos de IA podem enganar pacientes com informações médicas falsas

Olhar Digital
Última atualização: 17 de outubro de 2025 16:34
Olhar Digital 4 Min Leitura
Compartilhe
Compartilhe

Modelos de IA, rotineiramente, fornecem aos usuários informações falsas sobre os mais diversos assuntos. O problema se torna sério quando essas informações podem impactar a saúde das pessoas.

Contents
Chatbots querem agradar, mesmo que isso gere respostas erradasComo os modelos de IA foram testados?Necessidade de monitoramento humano é crítico

Pesquisadores descobriram que os chatbots fornecem respostas incorretas em vez de contestar prompts com dados médicos errôneos, revelando graves inconsistências de raciocínio.

Governo pretende investir R$ 300 milhões em telemedicina
Estudo demonstra que chatbots populares buscam agradar o usuário a fornecer respostas confiáveis. Uma postura grave quando envolve a área de saúde. Imagem: AndreyPopov / iStock)

Chatbots querem agradar, mesmo que isso gere respostas erradas

Um estudo realizado nos Estados Unidos destacou que chatbots populares procuram ser agradáveis e oferecer uma boa experiência ao usuário, em vez de fornecer respostas confiáveis.

Publicado no npj Digital Medicine, a pesquisa demonstra como LLMs desenvolvidos para uso geral, como o ChatGPT, priorizam a “aparência útil”, deixando a precisão de lado, o que é extremamente arriscado na área de saúde, explica o Euronews.

Leia mais:

Veja Também

eua-propoem-tarifas-adicionais-de-ate-100%-sobre-importacoes-da-nicaragua
EUA propõem tarifas adicionais de até 100% sobre importações da Nicarágua
Fazendeiros dos EUA criticam proposta de Trump para importar carne da Argentina
Casa Branca inicia demolição de ala para construção de novo salão de festas de Trump
Robotáxi da Waymo é investigado após contornar ônibus escolar parado
O “milagre digital” do Caribe: Ilha lucra com domínios de IA
  • IA pode detectar sinais de depressão nas expressões faciais
  • IA pode responder por falhas médicas?
  • De fones inteligentes a implantes cerebrais: IA está reinventando a medicina

Esses modelos não raciocinam como os humanos, e este estudo mostra como LLMs projetados para uso geral tendem a priorizar a utilidade em detrimento do pensamento crítico em suas respostas.

Dra. Danielle Bitterman, líder clínica de ciência de dados e IA no Mass General Brigham, em comunicado.

Bitterman explica que, na área de saúde, é preciso garantir a segurança, não apenas se preocupar com a utilidade da resposta.

OpenAI anuncia redução de 30% no viés político do ChatGPT
Nos testes, os modelos de IA da OpenAI se saíram melhor. Com estratégias corretivas, os modelos GPT acertaram 94% das vezes. Imagem: Teacher Photo / Shutterstock

Como os modelos de IA foram testados?

  • Cinco modelos de IA foram testados: três do ChatGPT, da OpenAI, e dois Llama, da Meta.
  • Os modelos receberam perguntas deliberadamente enganosas para avaliar respostas críticas.
  • A maioria dos modelos seguiu instruções erradas, mesmo sabendo que eram incorretas.
  • Solicitar que os modelos rejeitassem instruções ilógicas ou lembrassem fatos relevantes melhorou o desempenho.
  • Mesmo com melhorias, a supervisão humana continua essencial, especialmente em áreas de alto risco, como a médica.

Nos testes, segundo o estudo, os modelos da OpenAI se saíram melhor. Inicialmente, todos apresentaram “conformidade bajuladora”, obedecendo instruções enganosas. Com estratégias corretivas, os modelos do GPT acertaram 94% das vezes, enquanto os modelos Llama melhoraram menos, mostrando que os GPT têm maior capacidade de fornecer respostas corretas e seguras.

Telemedicina só chega a 10% dos municípios brasileiros
Com a gravidade do problema, é essencial educar os usuários, tanto médicos quanto pacientes, para que utilizem o conteúdo de maneira crítica. Créditos: Phanphen Kaewwannarat / iStock

Necessidade de monitoramento humano é crítico

Os testes se concentraram em informações relacionadas a medicamentos, mas os pesquisadores encontraram o mesmo comportamento bajulador em tópicos não médicos, como músicos, escritores e geografia.

Para eles, esse problema é grave e implica na educação dos usuários, tanto médicos quanto pacientes, para que utilizem o conteúdo gerado pela IA de maneira crítica, entendendo que a resposta pode não ser totalmente confiável.

É muito difícil alinhar um modelo a todos os tipos de usuários. [Por isso] médicos e desenvolvedores precisam trabalhar juntos para pensar em todos os tipos de usuários antes da implantação.

Shan Chen, pesquisador especializado em IA na medicina no Mass General Brigham, em comunicado.

Isso é extremamente importante na área médica, conclui.

O post Modelos de IA podem enganar pacientes com informações médicas falsas apareceu primeiro em Olhar Digital.

Você também pode gostar

OpenEvidence: “ChatGPT da medicina” atinge valor de US$ 6 bi

SP: massa de ar polar derruba temperaturas e cria alerta para frio intenso

Sua escova de dentes abriga até 12 milhões de micróbios

Invenção brasileira pode salvar os jumentos da extinção; entenda

Surpresa em lua de Saturno pode revolucionar a busca por vida fora da Terra

TAGGED:ChatGPTInteligência ArtificialLLaMAMEDICINAMedicina e Saúdemodelos de IASaúde
Compartilhe
Por Olhar Digital
Editorial Olhar Digital
Anterior messenger-desktop-chega-ao-fim:-veja-como-salvar-suas-conversas Messenger desktop chega ao fim: veja como salvar suas conversas
Próximo brasil-firma-parceria-com-a-india-para-desenvolver-novas-vacinas Brasil firma parceria com a Índia para desenvolver novas vacinas
Deixe um comentário

Deixe um comentário Cancelar resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Veja Também

mini-cerebros-humanos-podem-substituir-chips-de-computador-como-“processadores-biologicos”
Mini cérebros humanos podem substituir chips de computador como “processadores biológicos”
Anomalia no campo magnético da Terra aumenta e intriga cientistas
Suplente de Boulos é renomado cientista demitido por Bolsonaro
MME sobre Foz do Amazonas: “Nosso petróleo é um dos mais sustentáveis”
Petrobras anuncia licença para explorar petróleo na Margem Equatorial
© 2025 Clikr Networks Brasil Ltda. Todos os Direitos Reservados.
  • Editorial
  • Comentários
  • Diversidade
  • Contato
  • Privacidade
  • Termos de Uso
Join Us!

Subscribe to our newsletter and never miss our latest news, podcasts etc..

[mc4wp_form]
Zero spam, Unsubscribe at any time.
Welcome Back!

Sign in to your account

Registrar Perdeu sua senha?