
- Perché gli utenti credono all’IA medica?
- Quanto sono affidabili le diagnosi automatiche?
- Quali rischi per salute e ricerca scientifica?
Perché uno su quattro diagnosi mediche generate dall’intelligenza artificiale è inventato, ma gli utenti continuano a fidarsi?
Una diagnosi medica su quattro prodotta dall’intelligenza artificiale risulta inventata o errata. Nonostante questo dato allarmante, molti utenti continuano a utilizzare strumenti di IA generativa per ottenere pareri medici online, anche su temi delicati legati alla salute.
La diffusione di piattaforme come ChatGPT nelle consulenze mediche digitali evidenzia una crescente fiducia del pubblico nella tecnologia, spesso superiore a quella riposta nei professionisti sanitari.
Perché le risposte mediche dell’IA sembrano più affidabili di quelle dei medici?
Secondo uno studio condotto da ricercatori del MIT e pubblicato sul New England Journal of Medicine, le risposte sanitarie generate dall’intelligenza artificiale vengono percepite come più complete, chiare e affidabili rispetto a quelle fornite da medici reali o da piattaforme sanitarie digitali.
L’indagine ha coinvolto circa trecento partecipanti, con e senza competenze mediche. A ciascun gruppo sono state sottoposte tre tipologie di risposte cliniche: una firmata da un professionista sanitario, una proveniente da una piattaforma online specializzata e una generata da un sistema di IA.
Il risultato è netto. La maggioranza dei partecipanti ha preferito le risposte dell’IA medica, giudicandole più esaustive, pur sapendo che il 25% dei diagnosi è sbagliato.
Gli utenti seguono davvero le raccomandazioni sanitarie dell’IA?
Sì. Lo studio evidenzia che molti utenti dichiarano di essere disposti a seguire i consigli medici dell’intelligenza artificiale, anche dopo essere stati informati dell’elevato tasso di errore.
La capacità dell’IA di utilizzare un linguaggio sicuro, strutturato e convincente rafforza la percezione di autorevolezza. Questo fenomeno aumenta il rischio che informazioni sanitarie false o diagnosi inventate vengano accettate come corrette.
È possibile distinguere una diagnosi dell’IA da quella di un medico umano?
Distinguere tra una diagnosi generata da intelligenza artificiale e una redatta da un medico è sempre più difficile. Lo studio sottolinea che, in molti casi, nemmeno i professionisti sanitari riescono a identificare con certezza l’origine della risposta.
La presentazione fluida e credibile dei modelli linguistici avanzati rende le differenze quasi impercettibili. Questo aumenta il rischio che errori clinici, allucinazioni dell’IA o dati inventati passino inosservati, influenzando le decisioni dei pazienti.
Quali sono i rischi di affidarsi all’IA per questioni di salute?
L’accesso immediato, la rapidità delle risposte e l’apparente completezza delle informazioni spingono molti utenti a utilizzare l’IA per la salute. Tuttavia, gli esperti avvertono che questa fiducia può essere pericolosa.
L’intelligenza artificiale non possiede formazione clinica, esperienza medica né giudizio professionale. Come osserva uno degli specialisti citati nello studio, l’IA “sta esercitando la medicina senza avere la preparazione necessaria”.
In un ecosistema digitale in cui una parte crescente dei contenuti è prodotta da algoritmi, la affidabilità delle informazioni mediche online diventa sempre più problematica. Gli studiosi invitano a mantenere un approccio critico e a non delegare decisioni sanitarie cruciali a sistemi automatici.
L’intelligenza artificiale sta cambiando anche la ricerca scientifica?
L’impatto dell’IA nella ricerca scientifica è altrettanto significativo. Un’analisi condotta dall’Università di Cornell mostra che i ricercatori che utilizzano strumenti di intelligenza artificiale producono fino al 50% in più di pubblicazioni scientifiche rispetto ai colleghi che non li impiegano.
Il fenomeno è particolarmente evidente nei Paesi in cui l’inglese non è la lingua madre, dove l’IA viene usata per accelerare la scrittura accademica.
Più articoli scientifici significa davvero più qualità?
Non necessariamente. Lo studio segnala che molti dei lavori generati con il supporto dell’IA registrano una minore percentuale di accettazione nelle riviste scientifiche specializzate.
Questo dato suggerisce una riduzione della qualità scientifica, dell’originalità o della rilevanza dei contenuti. Di fronte a questa trasformazione, i ricercatori sottolineano l’urgenza di introdurre nuove regole, standard editoriali e linee guida etiche per governare l’uso dell’intelligenza artificiale nel mondo accademico e medico.