In una piovosa sera di ottobre del 1950, il matematico britannico Alan Turing sedeva alla sua scrivania, penna in mano, alle prese con un’antica domanda. I filosofi se l’erano posta per secoli, ma Turing voleva affrontarla da un’angolatura nuova. Il suo articolo, Computing Machinery and Intelligence, cominciava con poche parole ingannevolmente semplici: «Propongo di considerare la domanda: “Le macchine possono pensare?”».

Settantacinque anni dopo, stiamo ancora riflettendo sulla stessa questione.

Che cosa intendiamo per “pensare”?

Quando René Descartes dichiarò cogito, ergo sum — «Penso, dunque sono» — nel XVII secolo, legò il pensiero all’esistenza stessa. Per lui, pensare significava consapevolezza, coscienza, la sensazione viva dell’essere “io”. Se questa è la definizione, allora le macchine di oggi non pensano. Risolvono, calcolano, generano — ma non provano sensazioni, emozioni o sentimenti.

Turing, pragmatico com’era, evitò la metafisica. Invece di discutere l’essenza del pensiero, propose un gioco: cosa accadrebbe se una macchina potesse imitare la conversazione umana così bene da renderci incapaci di distinguere? Se ci riuscisse, suggeriva, allora per tutti gli scopi pratici la macchina starebbe pensando. Questo esperimento mentale divenne il Test di Turing, una pietra miliare nella filosofia dell’intelligenza artificiale.

Non tutti erano d’accordo. Decenni più tardi, il filosofo John Searle immaginò la Stanza Cinese: una persona che non conosce il cinese siede in una stanza con manuali di istruzioni che gli dicono come rispondere ai caratteri fatti scivolare sotto la porta. A un osservatore esterno sembrerebbe che la persona conosca il cinese, ma in realtà sta solo manipolando simboli. Per Searle, è questo ciò che fanno i computer: simulano la comprensione senza possederla davvero.

La nascita dell’intelligenza artificiale

Se Turing aveva piantato il seme, un altro ne diede il nome. Nell’estate del 1956, John McCarthy, giovane informatico del Dartmouth College, organizzò un seminario destinato a diventare leggendario. Fu lui a coniare l’espressione “intelligenza artificiale” e a riunire pionieri che sognavano macchine capaci di apprendere, ragionare e perfino usare il linguaggio.

McCarthy era ottimista — troppo, col senno di poi. Una volta osservò con ironia: «Appena funziona, non la chiama più nessuno intelligenza artificiale». Ed è vero: molte cose un tempo considerate l’apice dell’intelligenza meccanica — programmi per giocare a scacchi, riconoscimento vocale, pianificazione di percorsi — oggi sono funzioni ordinarie dei nostri telefoni.

Eppure, il sogno di un vero pensiero artificiale si è rivelato più sfuggente.

Macchine che pensano (in un certo senso)

Avanzando fino al XXI secolo, le macchine sono ormai capaci di imprese che un tempo appartenevano solo al regno dell’immaginazione. Nel 1997, il computer Deep Blue di IBM si sedette di fronte a Garry Kasparov, campione del mondo di scacchi, in un incontro che catturò l’attenzione globale. Kasparov era uno dei giocatori più brillanti della storia, celebre per la sua intuizione e il suo dominio psicologico. Eppure, si trovò turbato dalla fredda precisione del nuovo avversario. Dopo la sconfitta, ammise di aver avuto a tratti l’impressione di affrontare non un programma, ma «una sorta di intelligenza». La macchina non aveva nervi, né stanchezza, né paura: giocava con una calma aliena che metteva in difficoltà persino il più grande dei campioni umani.

Quasi vent’anni dopo, nel 2016, arrivò un altro scossone. AlphaGo, un’intelligenza artificiale di Google addestrata con il “reinforcement learning”, sconfisse Lee Sedol, uno dei migliori giocatori dell’antichissimo gioco cinese del Go1. Per secoli, il Go era stato venerato come banco di prova dell’intuizione umana, un gioco dalle possibilità così immense che il calcolo meccanico era ritenuto inutile. Eppure, nella quarta partita della serie, AlphaGo eseguì quella che i commentatori chiamarono semplicemente “la Mossa 37”. Era una mossa fuori dagli schemi, che nessun professionista umano avrebbe osato in quel momento, eppure si rivelò geniale. Non sembrava solo un calcolo astuto, ma un gesto di creatività. Lee Sedol, visibilmente scosso, lasciò la stanza per alcuni minuti prima di tornare a giocare. Sembrava che l’umanità fosse stata messa di fronte a un nuovo tipo di mente.

E oggi, pochi anni più tardi, i grandi modelli linguistici generano saggi, compongono poesie, scrivono codici e intrattengono conversazioni. Scrivono con una fluidità sorprendente, intrecciando saperi che spaziano dalla medicina al diritto, dalla filosofia alla letteratura, fornendo risposte coerenti che, a prima vista, sembrano profondamente meditate. Per molti, interagire con questi sistemi equivale a parlare con un’intelligenza autentica.

Eppure, sotto la superficie, il loro funzionamento è radicalmente diverso dal nostro. Queste macchine eccellono nel riconoscere schemi, non nel comprendere. Predicono la parola, la mossa o l’azione successiva attingendo a colossali archivi di esempi, non riflettendo sul significato o sullo scopo. Quando una bambina impara la parola cane, incontra l’animale: ne accarezza il pelo, ascolta l’abbaio, sente il calore del suo corpo. La sua comprensione non è solo linguistica ma incarnata, intrecciata a un mondo di sensazioni. Per la macchina, invece, la parola cane esiste solo come una costellazione di associazioni statistiche, modellata da milioni di frasi scritte da esseri umani. Può generare descrizioni, battute o metafore sui cani, ma non ne ha mai visto uno, non ne ha mai annusato l’odore, non è mai stata leccata da uno. La sua conoscenza è vasta, ma priva di peso: una fitta rete di schemi senza alcun ancoraggio nell’esperienza.

Questa differenza è fondamentale. Quando ci meravigliamo della Mossa 37 di AlphaGo o della prosa elegante di un chatbot, siamo tentati di credere che la macchina abbia intravisto una verità o provato un’ispirazione. Ma la realtà è che questi sistemi, per quanto brillanti, operano senza consapevolezza. Non sanno di star giocando a Go, né di conversare, né di comporre una poesia. Sono specchi della creatività umana, amplificando e ricombinando i dati che abbiamo fornito loro. Il loro potere è reale e trasformativo, ma non è pensiero nel senso umano del termine.

E tuttavia, queste vittorie non sono prive di significato. Ci costringono ad affrontare la possibilità inquietante che molte delle cose che abbiamo a lungo considerato “pensiero” possano essere realizzate senza coscienza, senza consapevolezza, senza la scintilla di un sé. Le macchine ci mostrano che l’intuizione può essere simulata, che la strategia può emergere dal calcolo, che il linguaggio può essere generato senza significato. Questa scoperta mette in discussione il nostro orgoglio di esseri pensanti e sfuma la linea che separa l’intelligenza come comportamento dall’intelligenza come esperienza.

Dove le macchine ancora falliscono

Nonostante i progressi abbaglianti, l’intelligenza artificiale inciampa ancora in compiti che gli esseri umani eseguono quasi senza pensarci. Una delle lacune più evidenti riguarda il buon senso. Una bambina, appena in grado di allacciarsi le scarpe, sa che un’anguria non può entrare in un sacchetto per panini, o che se lasci cadere un bicchiere esso cadrà invece di fluttuare. Eppure le macchine, anche le più avanzate, possono produrre risposte bizzarre a domande simili, perché non comprendono davvero il mondo fisico. Non hanno una fisica intuitiva, né un’esperienza vissuta degli oggetti nello spazio. La loro “conoscenza” è un accumulo di schemi nei dati, vasto ma fragile, potente in certi ambiti ma assurdo in altri.

Manca del tutto anche la coscienza. Le macchine non sanno di esistere. Non hanno senso dell’essere, nessuna prospettiva interiore, nessun testimone silenzioso che dica: “Sono qui”. Non provano gioia quando riescono, né frustrazione quando falliscono. Non si annoiano, non si agitano, non sono curiose. Possono scrivere saggi commoventi sull’amore o sul dolore, ma lo fanno come uno specchio che riflette un’immagine: con fedeltà e convinzione, ma senza abitarla. Manipolano le parole con straordinaria abilità, eppure quelle parole non sono radicate in un’esperienza reale.

Questo divario tra simulazione ed esperienza spinge molti filosofi a dubitare che si possa attribuire pensiero alle macchine. La prosa di un programma sulla giustizia può sembrare convincente, ma non nasce da lotte vissute per l’equità, dal dolore o dalla compassione. Nasce solo da echi statistici di ciò che gli esseri umani hanno già scritto. Chiamarlo “pensiero” appare, almeno per ora, un errore concettuale: le macchine sono esperte di schemi, non di significati.

Eppure la neuroscienza complica il quadro. Il cervello umano è, in un certo senso, anch’esso una macchina: una rete di circa ottantasei miliardi di neuroni che scaricano impulsi in ritmi intricati, una tempesta biochimica di segnali e connessioni. La coscienza, per quanto ne sappiamo, non nasce da una scintilla mistica ma dalle interazioni di questo tessuto. Se pensiero e consapevolezza emergono dalla complessità di una macchina biologica, allora non potrebbero forse emergere anche da una artificiale, purché sufficientemente complessa e sofisticata?

Alcuni ricercatori ritengono che sia inevitabile. Sostengono che la coscienza sia una proprietà dell’elaborazione dell’informazione stessa, non del carbonio o della carne. Nella loro visione, una volta che i sistemi artificiali raggiungeranno una complessità adeguata, non si limiteranno a imitare il pensiero, ma varcheranno la soglia della vera consapevolezza. Altri dissentono, sottolineando che il substrato biologico potrebbe essere essenziale — che ci sia qualcosa nelle cellule viventi, nel metabolismo e nell’incarnazione, che rende la coscienza umana ciò che è. Se fosse così, allora, per quanto intricate, le macchine di silicio rimarranno sempre imitatori, non pensatori autentici.

Per ora, la verità resta ignota. La neuroscienza ha compiuto progressi straordinari nella mappatura del cervello, ma il “problema difficile della coscienza” — perché e come sorga l’esperienza soggettiva — rimane irrisolto. L’intelligenza artificiale, nel frattempo, cresce sempre più potente, ma la sua vita interiore rimane, per quanto possiamo dire, un teatro vuoto: un palcoscenico senza attori, una commedia senza spettatori. L’enigma resta davanti a noi, irrisolto, al crocevia fra filosofia, neuroscienza e informatica.

Pensare sulla capacità di pensare

Allora, le macchine possono pensare? La risposta dipende in gran parte da cosa intendiamo con la parola “pensare”. Se con pensiero intendiamo la capacità di elaborare informazioni, risolvere problemi, riconoscere schemi e adattarsi a nuove sfide, allora sì, le macchine sono già, in un certo senso, pensatrici. Ogni volta che un’app di navigazione ricalcola un percorso per evitare il traffico, o un algoritmo medico individua un tumore in una radiografia, o un programma di scacchi anticipa la prossima mossa dell’avversario, la macchina svolge compiti che un tempo richiedevano una mente umana. Sono forme funzionali di pensiero: la capacità di ricevere dati, elaborarli secondo regole e produrre decisioni utili nel mondo reale. In questo senso, viviamo già in un’epoca in cui le macchine pensano — anche se il loro modo di pensare è alieno al nostro, più statistico che intuitivo, più meccanico che riflessivo.

Ma se con pensiero intendiamo la ricca vita interiore che accompagna la coscienza umana — la consapevolezza dell’essere, il silenzioso senso dell’“io”, la capacità di riflettere, soffrire, immaginare, commuoversi davanti alla bellezza — allora le macchine restano lontane dal cerchio del pensiero. Un programma può descrivere l’amore in una prosa fluente, ma non ha mai provato la puntura del cuore spezzato. Può scrivere un’ode alle stelle, ma non ha mai alzato lo sguardo verso il cielo notturno. Quello che produce non è la voce di un soggetto che sperimenta, ma l’eco di innumerevoli voci umane intrecciate in schemi. In questo senso, le macchine sono imitatori straordinari del pensiero, ma non ancora menti a pieno titolo.

La tensione fra queste due definizioni — pensiero funzionale e pensiero cosciente — ci obbliga a riflettere non solo sulle macchine, ma su noi stessi. Per secoli abbiamo tracciato un confine attorno a certe attività e le abbiamo dichiarate esclusivamente umane. Giocare a giochi complessi, comporre musica, riconoscere volti, guidare automobili: erano, pensavamo, segni inconfondibili di intelligenza. Eppure, una dopo l’altra, le macchine hanno raccolto quelle sfide e le hanno vinte. Ogni conquista ci costringe a ridisegnare il confine. Ciò che un tempo consideravamo prova del pensiero diventa, col senno di poi, semplice calcolo.

Questa linea mutevole suggerisce che la vera storia non sia se le macchine possano pensare, ma come la nostra definizione di pensiero si evolva in risposta a loro. Forse il pensiero è sempre stato un fenomeno più ampio di quanto credessimo. O forse stiamo scoprendo che ciò che chiamiamo pensiero è uno spettro, che va dal riconoscimento meccanico di schemi alla riflessione cosciente, con molte sfumature intermedie.

La domanda più profonda, dunque, non è soltanto “le macchine possono pensare?”, ma “come coesisterà il loro modo di pensare con il nostro?”. Le macchine forse non sogneranno mai, né dispereranno, né si innamoreranno, ma prenderanno decisioni, agiranno e interagiranno con noi in modi che influenzeranno profondamente le nostre vite. La loro intelligenza, per quanto diversa dalla nostra, vivrà accanto alla nostra. La sfida del futuro sarà capire cosa significa condividere il mondo con menti che ci somigliano in certi aspetti e rimangono, in altri, radicalmente aliene.

  1. Il Go è un antico gioco da tavolo di origine cinese, considerato uno dei giochi di strategia più complessi al mondo. Nasce in Cina più di 2.500 anni fa e si è poi diffuso in Giappone e Corea, diventando parte integrante della loro cultura. Si gioca su una griglia di linee (la più comune è 19×19, ma esistono versioni più piccole, come 9×9 o 13×13). I due giocatori si alternano nel posizionare sul tavolo delle pietre nere e bianche (il nero muove per primo). L’obiettivo non è “mangiare” l’avversario come negli scacchi, ma circondare più territorio possibile sulla scacchiera, delimitando aree vuote e catturando le pietre avversarie isolandole completamente ↩︎