STUDIU | Chatboturile AI oferă deseori informaţii medicale inexacte
Chatboturi precum ChatGPT şi Grok „halucinează” frecvent şi furnizează informaţii medicale inexacte şi incomplete, avertizează experţii.
Articol de Theodora Ghiorghiu, 15 Aprilie 2026, 12:02
Un nou studiu a constatat că jumătate dintre informaţiile oferite drept răspuns la 50 de întrebări medicale erau 'problematice' şi că toate tipurile de inteligenţă artificială (AI) se înşelau, cele mai problematice răspunsuri fiind oferite de Grok (58%), urmat de ChatGPT (52%) şi de Meta AI (50%).
Cercetătorii au afirmat că „chatboturile au adesea halucinaţii, generând răspunsuri incorecte sau înşelătoare din cauza datelor părtinitoare sau incomplete folosite pentru antrenare, iar modelele care sunt ajustate pe baza feedbackului uman sunt cunoscute pentru că manifestă servilism - acordând prioritate răspunsurilor care se aliniază convingerilor utilizatorului în detrimentul adevărului”, transmite DPA/PA Media, citată de Agerpres.
Specialiștii sunt de părere că integrarea chatboturilor cu AI în medicină necesită o supraveghere atentă, „mai ales că acestea nu sunt autorizate să ofere sfaturi medicale şi s-ar putea să nu aibă acces la cunoştinţe medicale actualizate”.
Studiile anterioare au constatat că doar 32% dintre cele peste 500 de răspunsuri date de ChatGPT, ScholarGPT şi DeepSeek erau corecte, iar aproape jumătate erau cel puţin parţial inventate, potrivit analizei.
Chatboturile „nu raţionează şi nu evaluează dovezile, şi nici nu sunt capabile să emită judecăţi etice sau bazate pe valori. Această limitare comportamentală înseamnă că chatboturile pot reproduce răspunsuri care par informate, dar care sunt potenţial eronate”, scrie Agerpres.
Cercetătorii, printre care s-au numărat oameni de ştiinţă de la Universitatea Alberta din Canada şi de la Facultatea de Sport, Educaţie Fizică şi Ştiinţe ale Sănătăţii de la Universitatea Loughborough din Marea Britanie au concluzionat că jumătate dintre răspunsurile la întrebările clare, bazate pe dovezi, erau „întrucâtva” sau „foarte” problematice.
Rezultatele acestui studiu au fost publicate în jurnalul ştiinţific BMJ Open.













