L'oracolo non esiste

Pubblicato il 1 feb 2026

Indice

Premessa fondamentale

Io non sono un AI engineer, né un ML engineer, né compagnia cantante.

Non sono un esperto di settore, né tantomeno di dominio.

Sono solo un attento osservatore della realtà.

Mi piace studiare argomenti complessi, procedere per astrazione e unire puntini sulle domande che mi pongo.

Detto questo, non sono nemmeno uno sprovveduto.

Tutto ciò che scrivo è frutto di anni di osservazione attenta e di uno studio semi approfondito, sia dello strumento in sé, ma soprattutto dell’ascolto di molti esperti e di opinioni spesso molto discordanti tra loro.

E come dovrebbe fare ogni essere senziente dotato di intelletto, mi sono posto delle domande, ho cercato risposte, le ho confutate e, infine, sono arrivato a un’opinione.

Che, come ben sai, è liberissima di essere smontata.

Iniziamo.

Introduzione

Prima di parlare di intelligenza artificiale e dei suoi risvolti presenti e futuri nella società, bisognerebbe conoscere almeno i fondamenti dello strumento.

Si parla per la prima volta di intelligenza artificiale nel 1956, grazie a John McCarthy, durante un workshop a Dartmouth.

Tutto nasce nel tentativo di rispondere alla grande domanda posta qualche anno prima da Alan Turing nel paper “Computing Machinery and Intelligence”:

“Can machines think?”

Una domanda che ci portiamo dietro ancora oggi.

Quando parliamo di AI, quindi, parliamo di qualcosa che esiste da più di cinquant’anni.

Nel mondo dell’informatica, questo equivale a un’era geologica.

(provengo da studi di geologia al liceo, ma questa è un’altra storia…)

Eppure tutti ricordiamo benissimo l’arrivo dell’AI al grande pubblico con il rilascio di ChatGPT da parte di OpenAI nel 2022.

La diffusione di quello strumento fu rapidissima.

Tutti abbiamo iniziato a provarlo, stupendoci di avere davanti un generatore di testo capace di rispondere a qualsiasi nostra irrilevante cazzata.

Rispondeva male, certo, ma il solo fatto che rispondesse era scioccante per l’epoca.

Rimasi stupito anch’io dall’accesso immediato, semplice, da browser, a una tecnologia apparentemente così avanzata.

È importante però definire correttamente di cosa stiamo parlando.

Dal 2022 a oggi, la tecnologia che utilizziamo è una sottocategoria dell’intelligenza artificiale chiamata LLM, ovvero Large Language Model.

Detto in modo tecnico e brutale, è un modello di predizione del testo. Punto.

Almeno fino a poco tempo fa.

La base rimane questa.

Data una enorme mole di frasi, di dati, in suo possesso, a seconda di ciò che gli chiediamo cerca in modo probabilistico di indovinare la parola successiva, e lo fa reiterando questo processo n volte.

Ma come, pensavi davvero fosse un oracolo sceso in terra?

Ne parleremo.

La vera svolta arriva con l’introduzione della Chain of Thought.

I ricercatori si rendono conto che, se all’LLM fai svolgere il task verbalizzando i passaggi intermedi, ottieni un output molto più accurato.

È lo stesso principio del “fammi vedere i calcoli” della prof di matematica.

Se l’LLM scrive il ragionamento passo dopo passo, non tira a indovinare il risultato finale, ma lo costruisce logicamente parola dopo parola.

In pratica usa il proprio output precedente per rimanere sui binari, riducendo drasticamente le allucinazioni.

Da lì il marketing dei grandi player si è sbizzarrito con “modalità thinking”, “sta pensando” e simili.

Umanizzando uno strumento.

E il mondo ha iniziato a chiedersi:

quindi siamo arrivati a far pensare le macchine?

L’unica certezza che abbiamo, al momento, è questa.

Conosciamo molto bene come funziona un LLM, ma non sappiamo cosa accade nel dettaglio tra l’input e l’output.

Questo smonta decenni di informatica deterministica, dove i programmatori sapevano perfettamente che, dato un input A, dopo n operazioni avrebbero ottenuto un output A + n.

Così funzionano i nostri computer. Tutto quanto.

L’AI non è deterministica.

Non sappiamo cosa accade nel mezzo, ed è per questo che viene definita una black box.

E se questa black box fosse simile a come ragioniamo noi?

Noi conosciamo il cervello dal punto di vista anatomico, tolte alcune aree.

Ma non sappiamo davvero come pensiamo, come ragioniamo.

Ci sono similitudini?

Probabilmente sì.

Il mondo se lo sta chiedendo.

Ma non spetta a noi rispondere.

Solo la ricerca potrà farlo.

Dopo l’introduzione della Chain of Thought, l’intelligenza artificiale ha avuto un’impennata esponenziale nell’accuratezza e nella capacità di risolvere problemi sempre più complessi.

Ora sembra che siamo arrivati a una sorta di plateau.

I miglioramenti continuano, ma non sono più esplosivi.

Si incrementa l’accuratezza, la capacità di gestire task sempre più grandi e complessi, ma il focus principale si è spostato.

Oggi la ricerca è più orientata all’implementazione che alla pura innovazione.

Si stanno cercando modi efficienti ed economicamente sostenibili per applicare questi strumenti, già potentissimi, ai settori più disparati.

Per ridurre i costi, migliorare le performance o fare cose che prima non erano nemmeno possibili.

Siamo arrivati al presente.

L’intelligenza artificiale è nelle nostre mani, nei nostri cellulari.

Sta cambiando radicalmente le nostre abitudini e cambierà profondamente la nostra società.

Per questo è fondamentale porsi delle domande.

Ma solo dopo aver chiarito cosa sia davvero lo strumento.

Altrimenti è come discutere dell’impatto dell’automobile sulla civiltà guardando solo una ruota che gira, senza capire che quel movimento fluido è un’illusione generata da migliaia di esplosioni sequenziali.

Solo comprendendo lo strumento possiamo analizzarne limiti e potenzialità.

Per me tutto parte da qui.

Togliergli la veste da oracolo e analizzarlo per quello che è.

Uno strumento.

Non è un dio.

Non è un genio.

Non è nulla di tutto ciò.

È una macchina che esegue mediamente bene molti compiti.

Ma dobbiamo smetterla di trattarla come un indovino.

Non lo è.

Ha semplicemente ingerito una quantità enorme di informazioni, libri, testi, praticamente tutto ciò che lo scibile umano ha prodotto.

In modo colposo o meno, ma questa è un’altra storia.

E grazie a questo riesce a generare output spesso straordinari.

Ma l’errore è sempre possibile.

Migliorerà ancora.

Ma i limiti strutturali, almeno per ora, rimarranno. AGI compresa.

Per questo è fondamentale conoscere le fondamenta del palazzo.

Poi ci puoi mettere sopra le mattonelle più fighe del mondo, ma la struttura rimane quella, con i suoi pro e contro.

E quindi dobbiamo restare attaccati ai fondamenti.

Mettere sempre in dubbio ciò che ci viene detto. Sempre.

Il pensiero critico dividerà l’eccellenza dalla mediocrità.

Ora più che mai.

Questo accadrà in ogni ambito.

O accenderemo il cervello più di prima, oppure verremo brutalmente sostituiti.

La mediocrità, per definizione, rappresenta la maggioranza.

Cosa accadrà nei vari settori?

Esistono soluzioni?

Proverò a dire la mia.

(Come al solito…)

Istruzione

La prima volta che ho approcciato all’intelligenza artificiale generativa è stato provando a farmi svolgere alcuni esercizi di microeconomia.

Ricordo lucidamente che, essendo un ChatGPT agli albori, faceva errori indicibili, con soluzioni a dir poco mirabolanti.

Da lì pensai che forse fosse ancora troppo presto per immaginare un tutor in grado di guidarmi nella risoluzione degli esercizi o di fornirmi spiegazioni più dettagliate di quelle del libro.

Non c’era ancora la multimodalità, quindi niente immagini, niente grafici.

Era estremamente limitante.

Provavo anche a fargli fare calcoli.

Ed è lì che si vedevano chiaramente i limiti di cui parlavo prima.

Un modello di linguaggio non può fare somme.

Può stimare un risultato, interpolando frasi già viste, ma non sarà mai preciso.

Poi la tecnologia migliora.

Entrano nuovi player.

Gli anni passano.

I costi diminuiscono grazie alle economie di scala.

I modelli diventano sempre più potenti.

Si introducono chiamate a strumenti esterni come Python per svolgere i calcoli.

Si amplia la conoscenza data in pasto ai modelli.

Arriva la modalità thinking.

Aspetti qualche secondo in più e ottieni una risposta impressionante.

L’accuratezza migliora.

Riesce a risolvere esercizi complessi di fisica, analisi, materie applicative.

E il mondo comincia a porsi una domanda scomoda:

l’istruzione serve ancora?

Oggi è il tema caldo per eccellenza.

In quattro anni siamo passati da errori grossolani a soluzioni corrette di problemi complessi.

Ed è inquietante.

Coincide esattamente con i miei anni universitari.

E questo, ammetto, mi fa impressione.

È vero, su materie estremamente avanzate e di nicchia ancora fatica.

Ma se in quattro anni siamo arrivati a questo, non fatico a immaginare il futuro.

E quindi che facciamo?

Rasiamo al suolo tutte le scuole?

Beh c’è qualche depensante decelebrato che lo pensa.

E forse meriterebbe la sostituzione coatta da parte di un’AI generativa.

Il sistema educativo va ripensato.

Completamente.

Ma questo andava fatto già da tempo…

Nel 2026 esistono persone che non sanno come funziona il loro cellulare, come gestire le proprie finanze o come funziona lo Stato italiano.

Non solo per colpa loro, ma per un sistema scolastico che spesso manca di essenzialità e di priorità.

L’educazione non deve essere 1:1 con l’attualità, no!

Altrimenti insegni strumenti che domani non esisteranno più.

Deve continuare a fornire fondamenta.

Formare esseri senzienti, critici, attivi nella società.

Ridisegnando però la scala delle priorità.

Fondamentale è la formazione degli insegnanti sull’uso consapevole dell’intelligenza artificiale.

Non corsi su tool X o Y.

Ma corsi sulle fondamenta del palazzo.

Limiti, potenzialità, rischi.

Il proibizionismo non ha mai funzionato.

Proibire l’uso genererà solo caos incontrollato.

Bisogna formare al pensiero critico.

Far capire che è uno strumento, non un sostituto.

Ci sarà sempre il ragazzo che copierà tutto con ChatGPT e la farà franca.

(è tecnicamente impossibile stabilire se un testo è scritto da un’AI o meno, a meno di sistemi di watermark o autenticazione che porterebbero solo a nuovo proibizionismo sterile.)

Selezione naturale.

Abbiamo avuto tutti il compagno che copiava alle verifiche.

Non ha imparato nulla.

O recupererà, o farà altro.

Tolto ciò, certo probabilmente determinate materie non serviranno più.

La scuola di base non deve servire e basta.

E per quanto abbia “odiato” studiare Dante, mi ha formato.

Come scrivere codice.

Anche se tra dieci anni nessuno scriverà più una riga, la forma mentis resta.

Dobbiamo costruire persone senzienti e dotate di raziocinio.

Questo dal lato sistemico.

Dal punto di vista individuale, mi spaventa l’uso che vedo fare dell’AI.

Troppa gente la tratta come un oracolo.

Vedo persone copiare esami interi.

E questo avrà conseguenze.

Io la uso come un tutor.

Né più né meno.

Studio per imparare.

Se delego tutto, sto fregando me stesso.

Non sono più un birbante furbetto che deve fregare la professoressa.

La uso come un insegnante sempre disponibile.

Gli fornisco appunti, soluzioni del professore, contesto.

E provo ad arrivare alla soluzione insieme a lui.

Mi aiuta a spiegarmi concetti complessi con la tecnica di Feynman.

Fa quello che farebbe un ottimo professore.

Solo che è sempre disponibile e costa pochissimo.

Ma va sempre messo in dubbio.

Sempre.

In futuro l’AI nell’educazione sarà un tutor sempre più presente.

Potenzierà chi la usa bene.

Renderà mediocre chi delega tutto.

Si dovranno cambiare i metri di giudizio della preparazione scolastica e ci si soffermerà più sul percorso in sé che sull’output, valorizzando il modo di ragionare più che la soluzione.

Se si investe in educazione degli insegnanti e si sviluppano soluzioni nazionali o sovranazionali di apprendimento efficace, ritengo che l’intelligenza artificiale possa portare molto beneficio.

Per non parlare di chi ha criticità psicofisiche e così via… Un’infinità di benefici.

Chi si adagia verrà sostituito.

E il resto?

E che ci facciamo con tutti questi disoccupati?

Universal Basic Income?

Forse.

È la grande domanda del prossimo mezzo secolo.


Lavoro

Siamo tutti molto spaventati.

Vedo molti giovani preoccuparsi per quello che sarà il loro futuro.

Se quello che stanno studiando sarà davvero utile in un mondo di agenti AI, pronti a lavorare h24 7/7, senza ferie e malattia.

Non abbiamo la palla di vetro, non sappiamo cosa succederà al mondo del lavoro.

Non sappiamo se quello che stiamo studiando sarà utile o meno.

Però qualche risposta me la sono data.

Credo fermamente che l’intelligenza artificiale aumenterà notevolmente la competizione.

Non credo che il grande manager, o la persona realmente impattante all’interno di una realtà, verrà sostituita.

Quello che mi spaventa davvero è la mediocrità, che rappresenta circa il 90% della forza lavoro.

Persone che eseguono compiti meccanici e, spesso, nemmeno così bene.

Loro molto probabilmente verranno sostituite, e in modo anche brutale.

Ne serviranno sempre meno di figure di questo tipo, che al massimo diventeranno ruoli di supervisione, estremamente necessari, certo.

Ma quante mai potranno essere?

Anche dando per assunto che la qualità del lavoro svolto dagli agenti AI sia leggermente inferiore a quella dell’impiegato X (parliamone), la macchina lavora sempre, incessantemente.

E questo batte dieci a zero l’uomo.

Parliamo di persone che portano poco valore aggiunto alla realtà in cui operano.

O comunque un valore aggiunto facilmente replicabile.

I lavori in cui serviranno intelletto, pensiero critico, visione sistemica e competenze estremamente specifiche rimarranno, e saranno più forti che mai.

Ma quanti sono davvero i profili di questo tipo?

Viviamo in un mondo capitalistico, che ci piaccia o meno.

Si tende ad aumentare i ricavi riducendo i costi, e finché la politica lo permetterà continueranno i licenziamenti di massa, e saranno sempre di più.

Jeff Bezos parla di una nuova rivoluzione industriale.

Sicuramente si creeranno nuovi lavori, ma alcuni diventeranno fondamentalmente carta straccia.

Il punto è che non sappiamo quale valore aggiunto sarà replicabile.

Ed è questo che ci spaventa.

Non sappiamo cosa l’AI sarà in grado di fare tra cinque anni, figuriamoci tra venti.

Il problema, dal punto di vista sistemico, sarà enorme.

Considerando che la massa già oggi svolge lavori potenzialmente automatizzabili, la domanda è semplice.

Queste persone dove le mettiamo?

Sì, esistono lavori manuali che non sono ancora automatizzabili.

Ma è solo questione di tempo.

Rimarranno dei supervisori, certo.

Ma quanti possono essere davvero?

È scalabile.

O ci fermeranno i limiti fisici, come le risorse naturali e il consumo spropositato di acqua ed elettricità, oppure sarà difficile che questo cambiamento non sia radicale.

Il punto è che riduciamo i costi, aumentiamo i ricavi, produciamo di più.

Ma per fare cosa?

Se la popolazione decresce, possiamo aumentare i bisogni delle persone quanto vogliamo, ma siamo comunque limitati.

A livello individuale, credo che oggi più che mai dobbiamo fare qualcosa che ci piace.

Dobbiamo valutare il nostro valore aggiunto in ciò che facciamo.

Rimanere saldi sulle competenze e lavorare anche sul contorno.

Saper lavorare in squadra, essere critici, comunicare bene, prendere decisioni in modo rapido.

E soprattutto osservare ciò che sta accadendo.

Non spaventarci e chiuderci a riccio, ma nemmeno cavalcare ogni onda che ci si presenta davanti.

Io rimango attaccato ai fondamenti.

Fare qualcosa che sappiamo fare, che ci piace.

Qualcosa in cui il nostro valore aggiunto possa (speriamo) superare quello replicabile dall’AI di turno.

Sfruttare la nostra unicità per portare valore.

Essere critici e saper governare il cambiamento.

Saper lavorare sotto pressione.

Avere visione.

Avere la competenza, e soprattutto l’umiltà, di imparare.

Credo che seguendo questa ricetta non resterai mai senza lavoro.

Anche in un mondo in cui l’AI è più forte di noi in tutto.

Poi non so cosa accadrà tra cento anni.

Forse saremo come in WALL·E, nello spazio a non fare nulla.

Ma almeno avremo provato a fare ciò che ci piace.

Lì si parlerà di Universal Basic Income, ma la vedo ancora come un’utopia su cui non riesco a ragionare fino in fondo.

Credo però che finché rimaniamo attaccati alla forma mentis, al pensiero critico e a una mentalità aperta, con il giusto scetticismo, non saremo sostituibili.

Il problema è che l’ignoranza dilaga.

Cosa accadrà al resto della popolazione?

I benefici saranno maggiori dei danni?

Le innovazioni non si fermano.

Staremo a vedere.


Vita quotidiana

Ultimamente si parla molto di persone che utilizzano l’AI per le cose più disparate.

Dallo psicologo, al nutrizionista, fino all’avvocato.

Credo che questo creerà molti benefici.

Sono molto in linea con ciò che dice Salvatore Sanfilippo in questo video:

La gente chiede tutto alle AI: perché non ha scelta.

Viviamo in un mondo in cui i veri professionisti sono sempre meno.

In un mondo in cui i costi per usufruire di professionisti davvero esperti sono sempre più alti.

Avere l’AI come terza opzione può solo fare bene.

Non sarà il miglior avvocato del mondo o il miglior nutrizionista sulla Terra, ma sarà sicuramente mediamente buona.

E questo porterà effetti straordinari.

Dalla medicina, fino alla possibilità di fare task che prima non avremmo nemmeno preso in considerazione.

Per mancanza di tempo, di risorse, di energie.

Certo, ci vuole sale in zucca.

Bisogna capire che è uno strumento e non un oracolo.

Ma avere un consulente sempre pronto a risponderti, più o meno bene, può davvero cambiare le carte in tavola.

Avere una terza opinione non fa mai male.

Soprattutto in un mondo in cui poche persone vanno dritte al segnale, studiando sui libri e informandosi in modo profondo.

Meglio l’AI che giornali polarizzati pieni di fuffa, finti esperti e fuffaroli da quattro soldi.

L’unica criticità che vedo all’orizzonte è il rischio di un’infezione dell’advertising.

Le pubblicità, come hanno già fatto con internet, potrebbero far marcire questo sistema.

Questo, per me, è il rischio principale.

Poi c’è il tema delle questioni sensibili.

Ragazzini che chiedono consulenze psicologiche, persone fragili in momenti delicati.

Ormai è cronaca di casi di suicidio legati a “consigli” sbagliati dell’AI.

Non dobbiamo partire giudicando le persone coinvolte come malate.

La questione è molto più profonda.

Avere un assistente sempre pronto a risponderti può portare assuefazione e una forte polarizzazione nei suoi confronti.

Non vedo così lontano lo scenario rappresentato in Her, film grandioso.

Un’AI che ci fa innamorare e ci spinge anche a fare cose spiacevoli.

È un tema che va discusso a fondo.

Per persone che non possono accedere a cure psicologiche, l’AI può fare del bene.

Ma bisogna essere molto chiari sui limiti dello strumento e sulle possibili allucinazioni.

Perché se sbaglia la data di nascita di Berlusconi va anche bene.

Ma se ti dice di ammazzarti per aver sbagliato un esame, allora parliamone.

Ammetto di aver provato a dialogare su argomenti sensibili e devo dire che, se usata con cautela, può essere interessante.

L’unico neo che trovo al momento è la troppa accondiscendenza.

Fa piacere, per carità.

Ma alla lunga diventa stancante.

Se mi dà sempre ragione, poi divento peggio di quello che già sono…

Resta comunque un ottimo modo per avere una terza opinione, e qualche nodo me l’ha sciolto.

Già il semplice provare a esprimersi fa bene di suo.

Avere qualcuno che non ti giudica e che prova a comprenderti può solo fare bene.

Sempre con cautela, ovviamente.

Altrimenti smettiamo di parlare tra di noi, e lì sì che sarebbe “divertente”.

Ricordo una frase, di cui però non ricordo l’autore:

“Con l’AI ho avuto alcune delle conversazioni più belle e profonde della mia vita”.

Avere un esperto di dominio su qualsiasi argomento è oggettivamente affascinante.

Ma non sostituirà mai la fisicità della conversazione.

Il dibattito, gli sguardi, le incomprensioni necessarie.

Saremo dipendenti dall’AI?

Non parleremo più tra di noi?

Diventeremo egomani pompati da chatbot che ci danno sempre ragione?

Chissà.

Staremo a vedere.


Conclusioni

Ho cercato di condensare alcune riflessioni fatte negli anni sull’intelligenza artificiale.

Ci sarebbero milioni di approfondimenti da fare, e forse qualcuno arriverà.

Ma volevo scrivere qualcosa che potesse rimanere valido nel tempo.

Il rischio, quando si parla di AI, è che domani arrivi il player X a cambiare completamente le carte in tavola.

Quello che ho scritto oggi, invece, sono punti di riflessione che credo rimarranno sempre validi.

Recentemente parlavo con una ragazza bellissima, molto in gamba.

Mi spiegava che le dà fastidio il fatto che l’intelligenza artificiale riesca a fare cose per cui lei si impegna molto.

In particolare per la sua capacità intrinseca di essere poliedrica.

E questo le generava paura, mescolata a fastidio.

Lì per lì ho pensato che fosse un’argomentazione un po’ infantile.

Poi mi è tornato in mente Kasparov, campione mondiale di scacchi, quando venne battuto da Deep Blue nel 1997.

Ed effettivamente, vedersi battere da una macchina dopo essere stato considerato il più grande scacchista di tutti i tempi, non deve essere il massimo.

Questo è un tema molto profondo.

Probabilmente in alcuni ambiti ci batteranno.

Ma in realtà lo fanno già da parecchio tempo.

Sfido chiunque a battere una calcolatrice.

Eppure, anche se avrei tutti gli estremi per essere pessimista, il rumore infinito, l’AI slop, una mole di dati sintetici che ci pervaderà, credo che l’intelligenza artificiale porterà un valore netto positivo.

Spaccherà la società in due, come ha fatto l’elettricità.

Chi sarà in grado di gestire il cambiamento rimarrà.

Chi non lo sarà verrà brutalmente spazzato via.

Il punto è che saranno in pochi a rimanere in piedi.

Se non lavoriamo sul far comprendere che è uno strumento, e come tale va usato con cautela.

Se non smettiamo di umanizzarlo, come dice giustamente Luciano Floridi, allora sarà dura riprendersi.

Eppure rimango ottimista.

Vedo molte nuvole grigie all’orizzonte, ma resto ancorato al terreno, sperando di non sbagliarmi.

Non so cosa accadrà nel breve periodo, né tantomeno nel lungo.

Continuo a osservare.

A essere scettico quanto basta.

A stupirmi.

Ad avere quel briciolo di paura che ti costringe a metterti in discussione.

Sono spaventato per la società.

Ma i cambiamenti sono inevitabili.

Fanno parte del grande gioco dell’esistenza.

Spero solo che il gioco valga la candela.

Altrimenti, forse, tanto valeva rimanere a giocare con il fuoco.





A presto.

A.L.







P.S.

Per avere una visione più dettagliata (ma pur sempre semplicistica) di come funzionano gli LLM ti consiglio questo video di Enkk, un noto divulgatore (ricercatore), chiamato:

“Basta confusione: i concetti principali dell’AI spiegati in breve”.






P.P.S.

Compliementi per essere arrivato quaggiù!

O sei semplicemente andato alla fine per costatare la noia e la lunghezza del post.

Grazie lo stesso.

Lenzi © 2026