Fin dagli anni Sessanta lo sviluppo dell'intelligenza artificiale ha conosciuto periodi di grande entusiasmo, seguiti però da cocenti delusioni. Sin dall'inizio, si pensava che le macchine avrebbero potuto superare l'intelligenza umana in tempi brevi. Dalle prime promesse legate a programmi in grado di giocare o tradurre testi, ai cosiddetti "sistemi esperti" degli anni Ottanta, ogni passo avanti sembrava il segno che l’umanità fosse vicina alla creazione di una macchina con intelligenza propria. Ogni volta però la realtà si è rivelata ben diversa. Bastava un piccolo scostamento dalle regole su cui il programma era basato e subito questa mostrava tutti i suoi limiti e la sua incapacità di adattarsi.
Oggi però le macchine sembrano aver fatto davvero un balzo in avanti: scrivono poesie, conducono auto e prevedono anche la nostra prossima seriet tv preferita. Cos’è cambiato? A rendere diversa l’intelligenza artificiale di oggi rispetto a quella di qualche decennio fa è stata l’introduzione del Machine Learning, o apprendimento automatico. Invece di programmare la logica linea per linea, come facevano i sistemi tradizionali, i moderni sistemi di intelligenza artificiale apprendono direttamente dai dati. Passano attraverso milioni di esempi e imparano a riconoscere correlazioni e pattern. Per esempio, se un modello vede abbastanza foto di gatti etichettate come “gatto”, sarà in grado di riconoscere un gatto anche in un’immagine che non ha mai visto. Ed è proprio qui che nasce il malinteso. Per un sistema di intelligenza artificiale imparare, infatti, non significa capire. Il modello non ragiona, imita. L'illusione di intelligenza nasce perché, in contesti molto specifici e ben delimitati, questi sistemi sono bravissimi nel replicare schemi conosciuti, così tanto bravi da sembrare davvero intelligenti. Ma il loro apprendimento è puramente associativo, non concettuale. Il modello vede solo numeri, correlazioni e schemi statistici. Se i dati cambiano leggermente, se una situazione non è perfettamente conforme a quanto "imparato" fino a quel momento, o se la realtà diventa più ambigua e sfumata, beh, questi modelli falliscono clamorosamente. La vera intelligenza, infatti, non si basa sulla capacità di ripetere il passato, ma sull’abilità di interpretare l'ignoto, di adattarsi a situazioni nuove e impreviste, e di ragionare su concetti astratti. Ed è proprio su questo terreno che l'intelligenza artificiale mostra ancora tutti i suoi limiti, rivelando di essere proprio smart until it's dumb, cioè intelligente fino a quando questa sua profonda mancanza di comprensione non viene fuori.
L’esempio citato da Maggiori è emblematico per capire meglio questa differenza. Un sistema creato per valutare la sicurezza dei pedoni ha messo in relazione l'altezza di una persona con il suo numero di telefono. Il risultato? Previsioni che sembravano corrette e funzionanti, ma che in realtà non avevano alcun senso. L'intelligenza artificiale, infatti, non aveva capito che un numero di telefono e la statura di una persona non influenzano in alcun modo la sua sicurezza stradale. Questo esempio dimostra come l'intelligenza artificiale si limiti ancora a trovare schemi e coincidenze nei dati, senza valutare la logica sottostante o il significato nel mondo reale.