Non ha il camice bianco, non ha mai messo piede in un ambulatorio e non ha nemmeno un corpo: eppure sempre più persone si rivolgono a lui — anzi, a lui, lei, esso — per una diagnosi, un parere, magari una dieta o una scheda di allenamento personalizzata. Il medico di famiglia ha un nuovo concorrente, e non si tratta di un giovane rampante laureato in medicina, bensì di un’entità digitale: ChatGPT. Certo, lo si sa (o lo si dovrebbe sapere): l’intelligenza artificiale non è un medico, non può prescrivere terapie, né interpretare analisi cliniche in modo affidabile. Ma nonostante gli avvertimenti, cresce il numero di utenti che caricano referti, descrivono sintomi, chiedono consigli su integratori e attività fisica come se stessero chiacchierando con il proprio dottore di fiducia. Dopo l‘applicazione dell’AI nei lavori domestici, benvenuti nell’ambulatorio del futuro: aperto h24, senza sala d’attesa, ma con qualche serio effetto collaterale.
Quando il referto lo legge l’algoritmo
Che si tratti di un emocromo, di una risonanza magnetica o del valore del colesterolo, sono sempre più frequenti i casi in cui le persone affidano la lettura dei propri esami medici a un modello di intelligenza artificiale. Basta un copia e incolla e in pochi secondi arriva la risposta: spiegazioni, interpretazioni, a volte persino rassicurazioni. Peccato che manchi un dettaglio fondamentale: la competenza clinica. ChatGPT può descrivere cosa sia un valore elevato di creatinina, ma non sa se quella creatinina è preoccupante per te, oggi, con la tua storia clinica. Il rischio? Sottovalutare segnali importanti o, peggio ancora, allarmarsi inutilmente. E tutto per aver scelto di curarsi con ChatGPT.
L’illusione del Dottore Perfetto
L’intelligenza artificiale, va detto, ha un dono notevole: la sicurezza. Non balbetta, non prende tempo, non dice mai “non so” (se non programmata per farlo). Questa apparente infallibilità genera fiducia, anche quando non dovrebbe. E così, chi chiede consiglio per un integratore contro l’affaticamento si sente dire che la rodiola potrebbe aiutare, o che il magnesio va benissimo per l’irritabilità. Ma nessuno ricorda di verificare le interazioni con farmaci, o che l’affaticamento potrebbe nascondere patologie ben più serie. Il problema non è l’errore clamoroso, ma la sottile convinzione che un algoritmo generativo possa sostituire anni di studio, esperienza clinica e sensibilità diagnostica.
Il personal trainer digitale (che non vede i tuoi legamenti)
Altri usi sorprendenti (e inquietanti) dell’AI riguardano il fitness. C’è chi chiede a ChatGPT di stilare schede di allenamento personalizzate, chi lo usa per calcolare il fabbisogno calorico, chi pretende che gli organizzi la settimana tra palestra, yoga e massaggi drenanti. Nulla di male, in teoria. Ma nessun chatbot può sapere se il tuo ginocchio ha subito una distorsione sei mesi fa, o se la tua ernia al disco è compatibile con lo squat. Il rischio di affidarsi a questi suggerimenti, senza filtro critico e senza confronto medico, è passare dalla palestra al pronto soccorso in meno tempo di quanto l’AI impieghi a generare una tabella.
Diagnosi fai-da-te: il fascino tossico del medico immaginario
C’è poi l’aspetto più delicato: quello della diagnosi. “Ho tosse da tre giorni, febbricola e dolori muscolari: cosa potrei avere?” — e giù la diagnosi automatica. Da un lato, l’utente curioso trova in ChatGPT un’enciclopedia aggiornata e rapida. Dall’altro, il rischio di autodiagnosi errate, o di interpretazioni catastrofiche, è elevatissimo. Perché il modello, per quanto allenato, non ha accesso a una visita obiettiva, non può toccarti il polso, né vedere il colorito della tua pelle. L’AI può descrivere decine di patologie, ma non può distinguere tra un’influenza e una polmonite. E soprattutto, non può — non deve — dirti cosa fare della tua salute. Ma il fascino di curarsi con ChatGPT è proprio lì: nella finzione di un controllo totale, senza mediazioni.
Un nuovo rapporto tra uomo e tecnologia
Affidarsi a ChatGPT per orientarsi, informarsi, comprendere meglio il linguaggio medico è sensato e utile. Farne il proprio medico personale è un errore pericoloso. L’intelligenza artificiale non è nata per sostituire il rapporto medico-paziente, ma per arricchirlo, supportarlo, renderlo più efficiente. L’illusione di avere in tasca un dottore onnisciente, sempre disponibile e privo di limiti, ci allontana dalla complessità del corpo umano e dalla responsabilità delle cure. Perché la medicina, come la fiducia, richiede tempo, esperienza, empatia — e queste qualità, per ora, nessun algoritmo le sa simulare con onestà. Chi sceglie di curarsi con ChatGPT spesso cerca scorciatoie dove servirebbe invece consapevolezza.
