“I chatbot non possono sostituire il giudizio la responsabilità deve restare umana”
La sfida educativa è immensa: «Imparare a pensare con l’Ai, non attraverso l’Ai», dice il fisico Alessandro Vespignani, professore alla Northeastern University di Boston e presidente di Isi Foundation, istituto per l’interscambio scientifico con sede a Torino, co-fondato da Fondazione Crt. «Rischiamo la scorciatoia del pensiero binario. Ci salverà o ci distruggerà? Dobbiamo abbracciarla o fermarla? Le domande importanti non si risolvono con sì o no».
L’Ai danneggia il pensiero?
«Se consideriamo l’Ai un oracolo, perdiamo l’allenamento alla verifica, alla costruzione di argomentazioni. In un mondo complesso, la competenza decisiva non è avere risposte rapide: è distinguere tra il plausibile e il vero, tra semplice correlazione e causalità, tra suggerimento e decisione. L’Ai tende a proporre ciò che è più probabile in base al passato, ovvero ciò che ha imparato durante la fase di addestramento. Per questo serve una nuova alfabetizzazione: sapere quando usarla e come verificarla, e quando è necessario assumersi lo sforzo cognitivo diretto».
Ai da governare quindi?
«La soluzione non è rifiutare l’Ai, ma governarla attraverso sistemi aperti e trasparenti sugli obiettivi e sugli incentivi. C’è una regola semplice: delegare una parte del lavoro può essere utile; delegare significato e responsabilità è il modo più rapido per alienarsi. Gli effetti dell’Ai sulla salute non sono un’ipotesi astratta: stanno già emergendo lungo due direttrici. La prima è psicosociale. Sistemi di raccomandazione e piattaforme ottimizzate per l’engagement possono amplificare vulnerabilità (dall’ansia ai disturbi alimentari), mentre strumenti di sorveglianza e riconoscimento facciale possono aumentare stress e senso di controllo».
Può aiutare in medicina?
«Sì: supporto diagnostico, individuazione precoce di segnali clinici rilevanti e interventi preventivi personalizzati su larga scala. In altre parole: la stessa tecnologia può ridurre o aumentare il carico di malattia, a seconda di come viene progettata e usata. In questo contesto delicato alcune aziende spingono ora per ruoli come Chief AI Health Officer. L’idea ha senso solo se non è marketing: un ruolo reale di valutazione dell’efficacia e dei rischi prima del rilascio e l’assunzione di responsabilità quando qualcosa va storto. Così è utile».
Esiste la regola perfetta?
«È ingenuo pensare di definire “algoritmi etici”. La risposta è semplice: non esistono. L’etica non è una funzione da ottimizzare. E non possiamo nemmeno immaginare un’etica “assoluta”, codificata una volta per tutte: valori e priorità cambiano tra culture, epoche e contesti. Ciò non significa relativismo: alcuni principi non sono negoziabili: dignità umana, il consenso informato e la trasparenza nelle decisioni che incidono sulla vita delle persone».
Come si può intervenire?
«L’etica dell’Ai non è solo una lista di divieti: l’Ai, in interazione con gli individui e la società, è un sistema complesso nel quale si generano conseguenze spesso non lineari e difficilmente prevedibili. Il punto decisivo è la responsabilità. Quando sono in gioco diritti e valori fondamentali, l’Ai non può sostituire il giudizio umano. La responsabilità ultima deve restare umana, identificabile e verificabile. Può non piacere a chi vorrebbe un algoritmo “definitivo”, ma in un sistema complesso garantire l’etica non ha una formula: è un esercizio continuo ed imperfetto che coinvolge istituzioni, incentivi e norme sociali, fino alle scelte quotidiane di ciascuno. Il 2026 non sarà l’anno in cui “risolveremo” il nostro vivere con l’intelligenza artificiale, tracciando una volta per tutte il confine tra l’uso buono e quello cattivo, tra l’etico e il disumano. Occorre investire seriamente nella ricerca e nell’alfabetizzazione tecnologica. La scienza non può eliminare il rischio; ma lo rende misurabile, lo individua, insegna a conviverci e adattarsi in caso di conseguenze inattese».
Come ottimizzare l’Ai?
«Sempre più spesso vedo persone che, di fronte a un compito, chiedono a Claude o a ChatGpt la soluzione completa. Non per costruire un approccio, ma per arrivare direttamente al risultato: per saltare lo sforzo del pensare. In gergo si parla di cognitive offloading, ossia lo spostamento di funzioni cognitive su strumenti esterni. Non esistono né l’algoritmo né la regolamentazione perfetti. Possiamo costruire conoscenza: dati e metodi per capire quando un sistema decide, su quali basi, con quali limiti e chi ne risponde per le conseguenze. La risoluzione è usare l’Ai come acceleratore di possibilità senza perdere la bussola tra i molti futuri possibili». —
Intervista a cura di Giacomo Galeazzi per La Stampa

