Che cos'è stato studiato
Un gruppo di ricercatori ha preso 195 domande reali fatte da pazienti su un forum di social media chiamato r/AskDocs, dove medici verificati rispondevano direttamente. Hanno poi chiesto a ChatGPT, un programma di intelligenza artificiale, di rispondere alle stesse domande.
Come sono state valutate le risposte
Un team di professionisti della salute ha letto senza sapere chi avesse scritto cosa (medico o chatbot) e ha valutato la qualità e l'empatia delle risposte.
I risultati principali
- Nel 78,6% dei casi, le risposte del chatbot sono state preferite rispetto a quelle del medico.
- Le risposte del chatbot erano considerate di qualità buona o molto buona 3,6 volte più spesso.
- Le risposte considerate empatiche o molto empatiche erano 9,8 volte più frequenti per il chatbot.
- Le risposte del chatbot erano più lunghe, con una media di 211 parole contro 52 parole dei medici.
Considerazioni importanti
Lo studio mostra che il chatbot può rispondere in modo empatico e di buona qualità alle domande online dei pazienti. Tuttavia, bisogna ricordare che questo confronto è stato fatto solo su risposte scritte in un forum e non in incontri diretti tra medico e paziente. In un contesto reale, la comunicazione è influenzata da molti altri fattori come la fiducia personale, il contatto visivo e la valutazione clinica, che possono cambiare la percezione dell'empatia e della qualità.
In conclusione
Questo studio evidenzia che l'intelligenza artificiale può offrire risposte utili, dettagliate e con un tono empatico alle domande dei pazienti online. Tuttavia, la relazione diretta con il medico rimane fondamentale per una comunicazione completa e personalizzata.