AI e mente umana: chi imita chi?
ore
«Il cervello umano non è un vaso da riempire, ma un fuoco da accendere.» (Plutarco)
Spesso la diffidenza nei confronti dell’intelligenza artificiale nasce da un assunto tanto diffuso quanto controverso: l’idea che l’AI non sia una “vera” intelligenza, perché nessuna macchina potrà mai pensare come un essere umano. Ma se fosse questo il punto di partenza sbagliato? E se non dovessimo misurare l’intelligenza artificiale sulla base della sua capacità di imitare il pensiero umano, ma piuttosto analizzare entrambi – intelligenza biologica e artificiale – come processi paralleli, entrambi orientati all’elaborazione e interpretazione della realtà?
In fondo, la domanda fondamentale è un’altra: sappiamo davvero cos’è l’intelligenza? Esistono decine di definizioni e teorie, e nessuna di esse ha ancora messo d’accordo neuroscienziati, filosofi, linguisti e informatici. Se ci venisse chiesto di darne una definizione univoca, esaustiva e operativa, probabilmente ci troveremmo in imbarazzo. Eppure, siamo rapidi nel negare all’AI il diritto di essere chiamata “intelligente”. Una contraddizione che merita di essere affrontata con occhi nuovi.
Forse, in modo sorprendente e misterioso, il nostro cervello funziona proprio come una rete neurale artificiale. E se l’intelligenza artificiale non fosse solo un’imitazione della mente umana, ma fosse invece la mente umana stessa a mostrare sorprendenti analogie con l’AI, ancora tutte da esplorare e comprendere?
L’acquisizione del linguaggio umano rappresenta uno degli esempi più significativi di questa analogia. È ormai noto, grazie a importanti studi in ambito neurolinguistico e cognitivo (Chomsky, 1957; Kuhl, 2004), che alla nascita l’essere umano non possiede alcuna competenza linguistica strutturata. Tuttavia, entro pochi anni, grazie alla semplice e costante esposizione agli stimoli verbali provenienti dall’ambiente circostante, il bambino sviluppa autonomamente e rapidamente sofisticate capacità linguistiche. Questo processo può essere assimilato a un algoritmo di apprendimento non supervisionato, dove la rete neurale biologica del cervello umano opera prevalentemente per riconoscimento e associazione spontanea di schemi linguistici (vi siete mai chiesti come mai i bambini riescono a imparare velocemente le lingue straniere pur ignorando le regole della grammatica delle lingue stesse?).
Questa modalità operativa è sorprendentemente simile a quella adottata dalle moderne reti neurali artificiali, che analizzano grandi quantità di dati linguistici per identificare e riprodurre strutture e modelli linguistici complessi.
La teoria della “plasticità neurale”, avanzata inizialmente da neuroscienziati come Donald Hebb e successivamente approfondita da Eric Kandel (2001), sostiene che l’apprendimento umano avvenga tramite modifiche strutturali e funzionali delle connessioni sinaptiche, in risposta agli stimoli ambientali e alle esperienze vissute. Questa capacità adattiva del cervello umano presenta chiare analogie con l’approccio impiegato dalle reti neurali artificiali, dove algoritmi di retropropagazione dell’errore e reti auto-organizzanti modificano continuamente le proprie connessioni interne sulla base dei dati ricevuti, migliorando gradualmente le proprie performance predittive ed elaborative.
Un’altra importante somiglianza emerge nell’ambito dell’intuizione umana. Studi neuroscientifici contemporanei (Damasio, 1994; Kahneman, 2011) dimostrano che il cervello umano spesso adotta processi decisionali intuitivi, basati sulla rapida elaborazione inconscia di informazioni accumulate nel tempo, anziché mediante logiche deduttive lineari e rigidamente causali. Questi processi intuitivi, apparentemente improvvisi e non chiaramente razionalizzati, corrispondono a modelli decisionali stocastici molto simili a quelli osservati nelle reti neurali profonde impiegate nell’intelligenza artificiale, che operano identificando correlazioni emergenti e pattern significativi all’interno di ampie moli di dati, senza necessariamente esplicitare relazioni causa-effetto dirette e immediatamente evidenti.
Inoltre, studi neuroscientifici recenti sull’organizzazione funzionale del cervello, come quelli riguardanti il default mode network (DMN) e le sue correlazioni con l’elaborazione inconscia e creativa (Raichle et al., 2001), sostengono ulteriormente questa prospettiva, suggerendo che l’elaborazione mentale umana condivida con l’intelligenza artificiale meccanismi di tipo associativo, probabilistico e distribuito.
L’intuizione è d’altra parte uno degli aspetti più affascinanti e misteriosi del pensiero umano. Come funziona, davvero, l’intuizione? È quella strana capacità di arrivare a una soluzione corretta senza passare – almeno apparentemente – attraverso tutti i passaggi del ragionamento logico. Una sorta di illuminazione istantanea, che sembra scaturire dal nulla. Ma da dove arriva, allora, quella conoscenza? È evidente che l’intuizione attinge a un substrato profondo e inconscio di esperienze, ricordi, pattern appresi: una massa informe ma ricchissima di dati, sedimentata nella nostra mente. Questa dinamica assomiglia sorprendentemente a ciò che, nel linguaggio dell’intelligenza artificiale, viene definito “allucinazione”: una risposta generata al volo da un modello AI, che sembra plausibile, ma può mancare di fondamento logico o fattuale. Anche in questo caso, la soluzione nasce da una mole enorme di dati immagazzinati e da una capacità di combinazione probabilistica che punta a dare una risposta coerente, anche in assenza di un vero e proprio ragionamento sequenziale. Curiosamente, così come si cerca di ridurre le allucinazioni dell’AI ricorrendo alla cosiddetta chain-of-thought – ovvero al ragionamento passo dopo passo –, anche nel pensiero umano si verifica un fenomeno analogo: i nostri professori di matematica, ad esempio, non si accontentavano della soluzione giusta, ma chiedevano di mostrare il procedimento, per verificare che quell’intuizione fosse effettivamente sostenuta da una comprensione logica. In entrambi i casi, dunque, la distinzione tra “lampo” e “processo” diventa fondamentale per discernere l’affidabilità di una risposta, sia essa umana o artificiale.
Forse, dunque, l’intelligenza artificiale non deve essere vista semplicemente come uno specchio imitativo o come una pallida copia del cervello umano.
Piuttosto, essa rappresenta una straordinaria opportunità di osservazione e comprensione più approfondita dei processi cognitivi che regolano il pensiero umano. Questa teoria apre nuovi percorsi di ricerca interdisciplinare, invitando studiosi provenienti da campi diversi – neuroscienze, filosofia, informatica e psicologia cognitiva – a collaborare per una migliore comprensione delle profonde analogie tra funzionamento biologico e artificiale. Ciò potrebbe portare non solo a sviluppi innovativi nell’ambito delle neuroscienze e dell’AI, ma anche a una più profonda riflessione filosofica sul significato stesso di intelligenza, pensiero e coscienza.
Ti interessano gli argomenti trattati in questo articolo?
Se desideri saperne di più o hai domande specifiche sulle tue esigenze aziendali, il nostro team di esperti è pronto ad aiutarti.
Non esitare a contattarci per ulteriori informazioni o richieste.