L’Autorità senza colpa e il sonno della ragione
Siamo tutti preoccupati che l’Intelligenza Artificiale possa mentirci. Leggiamo articoli su come i Large Language Models (LLM) soffrano di “allucinazioni”, fornendo risposte tecnicamente errate con la stessa granitica certezza con cui enunciano la legge di gravità. Si parla di “Autorità senza Responsabilità”: la macchina emette un verdetto formattato alla perfezione, ma quando quel verdetto causa un disastro, non c’è nessuna coscienza a pagarne il prezzo.
È un problema reale? Assolutamente sì, specialmente in ambiti tecnici dove una riga di codice sbagliata può compromettere un sistema. Ma fermarsi qui significa guardare il dito e non la luna.
Il vero pericolo non risiede nel silicio, ma nella biologia. Il rischio esistenziale non è l’AI che sbaglia, ma l’essere umano che smette di verificare.
La trappola dell’avarizia cognitiva
Il cervello umano è una macchina progettata per risparmiare energia. Se esiste una scorciatoia, l’istinto è prenderla. L’AI, in questo scenario, si presenta come la scorciatoia definitiva: un oracolo sempre disponibile che elimina la fatica del dubbio.
Quando l’AI ci serve la “pappa pronta”, il nostro spirito critico tende ad abbassare le difese. Accettiamo l’output non perché sia vero, ma perché è facile. È qui che nasce il vero bug del sistema: non nell’algoritmo che genera l’errore, ma nell’utente che lo accetta passivamente per pigrizia mentale.
La “Passivizzazione” dell’uomo
Questa letargia non nasce dal nulla. È il frutto di un addestramento comportamentale che dura da anni. Siamo immersi in un ecosistema digitale — fatto di Reels, Shorts e feed infiniti — progettato per trasformarci in spettatori passivi.

Questi formati non chiedono attenzione, la rapiscono. Non richiedono ragionamento, offrono solo stimoli rapidi. Ci stiamo abituando a subire i contenuti invece di cercarli, a seguire percorsi guidati dagli algoritmi invece di tracciare la nostra strada.
In questo contesto, l’AI diventa l’ultimo tassello della “passivizzazione”:
I social scelgono cosa dobbiamo guardare.
L’AI sceglie cosa dobbiamo sapere.
Noi smettiamo di scegliere.
L’evoluzione è restare svegli
Se c’è una sfida evolutiva per i prossimi anni, non sarà tecnologica, ma intellettuale. L’errore dell’AI, paradossalmente, è un dono. Finché la macchina sbaglia, siamo costretti a restare vigili. Il momento più pericoloso arriverà quando l’AI diventerà così affidabile da rendere la verifica apparentemente superflua.
Il professionista, il creativo, l’essere umano “sveglio” è colui che usa la tecnologia come un esoscheletro per potenziare le proprie capacità, non come una protesi per sostituire il proprio cervello. È colui che applica lo scetticismo come metodo di lavoro e accetta che l’opera non sia mai finita, che manchino sempre dei pezzi.
Perché è proprio nello sforzo di trovare quei pezzi mancanti, nel rifiuto della risposta preconfezionata, che risiede la nostra intelligenza. Tutto il resto è solo elaborazione dati.