I saggi pubblicati su Tangram

Da Turing a Eliza

Tangram, anno IV n° 10 (maggio 2005)

Alan Matheson Turing. Matematico e logico inglese, morto suicida nel 1954 a soli quarantadue anni. Il suo ritratto campeggia sulla scrivania del dottor Sivasubramanian Chandrasegarampillai, professore di informatica all'università dell'Illinois a Urbana, assieme a quello di John von Neumann. O almeno così ci dice Arthur Clarke nel suo "2010: odissea due", seguito non solo ideale del più famoso "2001: odissea nello spazio". Il dottor Chandra è il principale artefice di HAL 9000, il "computer algoritmico programmato euristicamente" che è uno dei protagonisti di "2001". Chi ha visto l'indimenticabile film di Kubrik ricorderà il modo in cui HAL dialoga tranquillamente con i membri dell'equipaggio della Discovery, l'astronave in viaggio verso Giove di cui egli è supervisore assoluto. Il computer si esprime a voce in linguaggio naturale, ed è in grado di ascoltare e comprendere le risposte dei suoi colleghi umani Frank Poole e David Bowman. Secondo Clarke, HAL parla addirittura in un "perfetto inglese idiomatico imparato durante le fuggevoli settimane della sua fanciullezza elettronica".

Clarke, presentandoci HAL, ci dice subito che sarebbe facilmente riuscito a superare il Test di Turing. Oggi vedremo in cosa consiste questo test, il quale nasce nientemeno che da un gioco, e parleremo delle conseguenze del grave problema da cui esso è nato: "può una macchina pensare?". Diciamo subito che cinquant'anni fa questo era un profondo e sentitamente dibattuto interrogativo filosofico, che proprio l'opera di Turing contribuì in qualche modo a risolvere; vent'anni fa era diventato un problema ingegneristico di cui si pensava fosse prossima la soluzione; oggi invece la meta sembra assai più lontana di quanto non si ritenesse in passato, anche se i computer che "parlano" sono in circolazione da tempo. In attesa dunque che qualcuno costruisca un computer realmente in grado di comprendere il linguaggio umano (o dimostri che ciò non si può fare…) non ci rimane che affrontare il tema in chiave ludica: faremo così conoscenza con alcuni programmi passati alla storia in quanto apparentemente capaci di dialogare col proprio interlocutore. Anche i ricercatori di intelligenza artificiale amano giocare, evidentemente: tant'è che in quasi tutti i casi che vedremo c'era sotto il trucco…

Intelligenza e linguaggio

Noi umani diamo grande importanza al linguaggio, inteso come capacità di esprimersi mediante parole combinate in frasi possibilmente di senso compiuto. In effetti abbiamo stabilito inconsciamente una stretta connessione tra capacità linguistica ed intelligenza, impostando l'equazione assiomatica secondo la quale "tutto ciò che parla è intelligente". Qual'è infatti il massimo complimento che dispensiamo ad un cane particolarmente espressivo? "Gli manca la parola!".

Fino a circa un secolo fa, l'unica creatura al mondo in grado di emettere parole era l'uomo: e ciò, secondo il senso comune, era sufficiente a dimostrare inequivocabilmente come la nostra razza fosse l'unica intelligente del creato. Poi un bel giorno arrivò Edison col suo fonografo a cilindro: e la prima riproduzione di "Mary had a little lamb", oltre che far prendere un colpo al falegname che aveva costruito l'aggeggio (e far vincere ad Edison una scommessa di due dollari contro un barile di mele che quel coso avrebbe parlato…), dimostrò piuttosto chiaramente che il solo atto di parlare non era necessariamente sinonimo di intelligenza. D'altronde i pappagalli erano stati inventati molto tempo prima, e nessuno si era mai sognato di considerarli più intelligenti del resto degli animali!

Scherzi a parte, da allora molte altre volte è successo che le macchine siano riuscite a fare cose che secondo l'uomo erano intelligenti quali, ad esempio, giocare a scacchi. Ogni volta che questo succede, l'uomo ritocca il suo concetto di intelligenza e giunge alla conclusione, tanto per rimanere nello stesso esempio, che se una macchina gioca (e vince) a scacchi non vuol dire che sia intelligente: significa piuttosto che per giocare a scacchi non serve l'intelligenza.

Il Test di Turing

Turing cominciò a riflettere su questi problemi verso la fine degli anni '40 del secolo scorso. Era il momento in cui, abbandonato il segreto militare imposto durante la seconda guerra mondiale, i primi calcolatori cominciavano a fare parlare di sé e subivano il primo dei numerosi boom che avrebbero avuto in seguito. Le sue idee vennero esposte in un articolo intitolato "Computing machinery and intelligence" pubblicato nel numero di ottobre 1950 della rivista inglese di filosofia "Mind". Solo un anno prima, ad un congresso che si teneva a New York, il giovanissimo ingegnere elettronico Claude Shannon aveva presentato una rivoluzionaria relazione intitolata "Programming a computer for playing Chess" nella quale, per la prima volta, si esaminava in dettaglio il modo in cui si sarebbe potuto programmare un computer per giocare a scacchi.

Nel suo innovativo articolo Turing affrontava il problema se una macchina potesse pensare, concludendo tuttavia che la domanda posta in questi termini fosse troppo vaga e soprattutto troppo permeata da considerazioni di carattere emotivo. Per renderla accettabile sarebbe stato prima necessario definire il significato di "pensare", cosa peraltro non molto semplice. Turing cercò allora di spostare la questione su un piano meno astratto e più operativo, ricercando invece una definizione tecnica di "comportamento intelligente", o almeno di "comportamento che sembri intelligente". Formulò dunque il problema in questi termini: se fosse possibile dialogare in qualche modo con una macchina, e questa si comportasse in modo indistinguibile da un essere umano, allora sarebbe ragionevolmente possibile dire che quella macchina "pensa", qualunque sia il significato filosoficamente attribuibile a questo termine.

Per fare ciò Turing immaginò dunque una variante di un noto gioco di società, detto "gioco dell'imitazione", in cui uno dei concorrenti fosse una macchina. Il gioco nella sua forma originaria consiste in questo: un soggetto (l'interrogatore) pone per iscritto delle domande ad una persona nascosta, e ne riceve risposte sempre per iscritto. Il suo scopo è quello di indovinare il sesso del suo interlocutore. Questi ovviamente non può mentire né ingannare, ma può eludere domande dirette; egli deve soprattutto cercare di non tradirsi, facendo in modo di non far capire se sia maschio o femmina. In una versione alternativa del gioco le persone nascoste sono due, un uomo ed una donna, non in contatto tra loro: entrambe ricevono le domande scritte dell'interrogatore e gli rispondono separatamente e per iscritto. Questa volta ognuna di esse deve convincere l'interrogatore di essere, ad esempio, l'uomo. L'interrogatore, in base alle risposte che riceve, deve riuscire a stabilire chi dei due è veramente l'uomo: se vi riesce vince, altrimenti perde.

Nella versione immaginata da Turing, e da allora in poi denominata in suo onore "Test di Turing", uno dei concorrenti è una macchina programmata in modo da sostenere una conversazione per iscritto (Turing immaginava che il colloqui avvenisse per mezzo di una specie di telescrivente) tale da non far capire di essere una macchina. L'altro concorrente è invece una persona in carne ed ossa, e anch'esso è collegato all'interrogatore per mezzo di una telescrivente. Sia la persona che la macchina devono convincere l'interrogatore di essere l'umano. In questa variante, rifletteva Turing, è possibile che un interrogatore medio non riesca a scoprire quale sia l'uomo e quale la macchina? E se ciò avvenisse, ossia se una macchina vincesse il gioco ingannando l'interrogatore e dunque spacciandosi perfettamente per un essere umano, non potremmo ragionevolmente definirla "intelligente"?

Turing morì quattro anni dopo l'uscita del suo articolo e non poté quindi assistere alla bagarre di polemiche da esso suscitato. Molti furono infatti i filosofi ed i logici che si scagliarono contro le sue tesi. La critica più comune consistette nel non accettare l'identità sottintesa da Turing fra essere intelligenti e sembrarlo soltanto. Il fatto che un calcolatore possa imitare i processi mentali di un uomo, si diceva, non prova che il calcolatore sia effettivamente in grado di pensare, così come un calcolatore in grado di parlare non proverebbe nulla oltre il fatto che sia possibile ad un calcolatore imitare un dialogo. Ma d'altronde, ribattevano altri, come facciamo ad essere sicuri che effettivamente anche gli esseri umani pensino?…

A Turing va dunque riconosciuto il grande merito di essere riuscito a trasformare una profonda domanda filosofica ("possono le macchine pensare?") in un freddo problema ingegneristico privo di risvolti emotivi ("possiamo costruire macchine in grado di superare il Test di Turing?"). Naturalmente a questo punto va stabilito il significato di "superare il Test". Ad esempio quanto è (o deve essere) intelligente l'interrogatore? Quanto tempo può andare avanti il test? Perciò la valutazione del successo non può naturalmente essere rigida (del tipo "sì o no"), ma tipicamente sarà probabilistica. Turing stesso emise delle stime prudenziali: secondo lui entro l'anno 2000 i calcolatori sarebbero stati così sofisticati da poter ingannare al gioco dell'imitazione un "interrogatore medio" per il 30% delle volte, a patto che il dialogo durasse meno di 5 minuti. Il calcolatore HAL 9000, entrato in funzione il 2 gennaio 1997, in effetti faceva di meglio: secondo Clarke avrebbe potuto superare con facilità il Test di Turing, e pertanto pensava, in base ad ogni ragionevole definizione di questo termine. Gli astronauti della Discovery infatti non si pongono neppure il problema: considerano HAL un membro dell'equipaggio e lo trattano con naturalezza.

Purtroppo (o per fortuna…) queste previsioni formulate molti decenni fa si sono rivelate, alla prova dei fatti, esageratamente ottimistiche: nel "nostro" 2005, infatti, computer in grado di superare il Test di Turing ancora non se ne sono visti, ed anzi la loro realizzazione non sembra neppure tanto vicina. Dopo un ventennio di eccitazione fra gli anni '70 ed '80 dello scorso secolo, quando l'intelligenza artificiale sembrava essere sul punto di farcela, oggi l'idea di una macchina realmente pensante sembra sempre più irrealizzabile. Ma cosa era successo in quel periodo per dare questa sensazione di essere ad un passo dal sogno di Turing?

SHRDLU ed i programmi "pensanti"

Clarke scriveva il suo romanzo negli anni fra il 1964 ed il 1968, per cui non poteva sapere che da lì a poco Terry Winograd, uno dei primi ricercatori di intelligenza artificiale, avrebbe scritto un programma piuttosto sconvolgente in grado di "capire" in qualche misura le cose e di "avere coscienza" del proprio mondo. SHRDLU (il suo strano nome altro non è che la successione di lettere della seconda fila di tasti di una linotype) era in grado di discutere con cognizione di causa di un universo fatto di blocchi solidi multicolori. L'operatore poteva porgli semplici domande in inglese del tipo "dov'è il cubo blu?" ed il programma rispondeva con frasi precise come "è appoggiato sul cubo rosso che sta dietro la piramide verde". SHRDLU in effetti era anche capace di comprendere complessi rapporti causali fra operazioni ed oggetti, rispondendo a comandi del tipo "prendi il solido che sta sul cubo verde ed appoggialo dietro alla piramide più piccola"; ed in caso di ambiguità nella formulazione del comando era persino in grado di porre al suo interlocutore una domanda precisa che gli permettesse di discriminare l'alternativa corretta fra tutte quelle possibili.

Dal punto di vista del Test di Turing, SHRDLU è intelligente: la sua conversazione non solo sembra sensata, ma lo è veramente. SHRDLU in effetti capisce ciò che gli viene detto e reagisce di conseguenza. Il fatto è che il dominio delle sue conoscenze è estremamente limitato: SHRDLU era in grado di comprendere solo il suo limitato mondo di solidi, e non poteva discutere di filosofia o dire se gli piacesse la musica rock. Però nel suo ambito ristretto non vi è dubbio che le sue risposte fossero sempre corrette e ragionevoli: esse descrivevano la realtà così come la "immaginava" il programma. Come si può facilmente intuire, SHRDLU è stato una pietra miliare nel delicato campo dell'intelligenza artificiale: per diverso tempo si credette anzi che i suoi elementari "schemi mentali" potessero essere la base sulla quale costruire gli HAL del futuro.

Un'altro programma apparentemente in grado di "ragionare" davvero si chiamava STUDENT. Scritto da D. G. Bobrow come tesi di laurea al MIT, ottenne una notorietà inferiore a quella di SHRDLU in quanto le operazioni che compieva erano meno appariscenti, ma le sue capacità erano ugualmente interessanti. In pratica STUDENT era in grado di ricevere problemi algebrici descritti verbalmente ed in modo informale, estraendo dalle frasi il contenuto matematico e risolvendo infine il problema. Un tipico esempio poteva essere simile a questo: "Anna ha il doppio degli anni che aveva Maria quando Anna aveva l'età che ora ha Maria. Anna ha 20 anni. Quanti anni ha Maria?". STUDENT era in grado di analizzare il contenuto semantico del discorso traducendolo nell'equivalente equazione A=2*(M-(A-M)), da cui per semplice sostituzione del dato noto ricavava la risposta "Maria ha 15 anni".

STUDENT era un interessante esperimento, ma anche in questo caso i suoi meccanismi cognitivi non potevano essere generalizzati ed estesi all'infuori del suo ristretto mondo di "equazioni verbali". Solo rimanendo vincolato in questo specifico ambito avrebbe forse potuto ingannare un interlocutore umano, e per giunta solo per poco tempo. Certamente non avrebbe superato un Test di Turing di tipo generale.

Eliza, Parry e Racter

Quasi contemporaneamente a questi studi decisamente seri, rivolti a determinare il modo di fornire reali strutture cognitive ad una macchina, vennero realizzati programmi dalla filosofia completamente opposta, ossia costruiti non per "capire" ciò che veniva detto quanto per simulare, anche a costo di barare, una conversazione dall'aspetto ragionevole. Il capostipite di questa vasta famiglia si chiamava Eliza, e venne scritto al MIT da Joseph Weizenbaum verso il 1966. (Il suo autore lo chiamò in questo modo in onore del personaggio di Eliza Doolittle, protagonista del Pigmalione di Shaw). Eliza era un programma "da baraccone", il cui unico obiettivo era quello di sostenere una plausibile conversazione con un interlocutore umano su un tema scelto fra i diversi "copioni" di cui era dotato. Il più efficace si dimostrò quello, denominato DOCTOR, in cui il programma impersonava uno psicoterapeuta di scuola Rogersiana. La verosimiglianza raggiunta da questo copione era tale che Eliza divenne presto famoso come "psichiatra elettronico", suscitando un enorme quanto mal indirizzato interesse verso le applicazioni psicoterapeutiche dei calcolatori! Lo stesso Weizenbaum tentò di intervenire nella questione, spiegando che gli scopi che si era prefisso quando aveva realizzato Eliza erano ben diversi, ma la polemica proseguì con furore.

Eliza compiva il suo lavoro in modo piuttosto furbo, manipolando le frasi impostate dal suo interlocutore in modo da simulare un'effettiva comprensione del contenuto. In realtà non capiva assolutamente nulla di ciò che gli si diceva, ma generava comunque un'illusione piuttosto efficace. Il "trucco" consisteva nell'usare astutamente alcune delle tecniche ben note a chi, ad esempio, non è affatto interessato ad una conversazione ma simula attenzione per non mostrarsi scortese col suo interlocutore. Eliza applicava dunque tutta una serie di accorgimenti sintattici tesi proprio a dare l'impressione che il programma seguisse la conversazione con interesse e comprensione. Un esempio banale può essere questo: se l'interlocutore avesse detto "Mi sento ***" Eliza avrebbe potuto rispondere con "Da quanto tempo ti senti *** ?", oppure con "Sei venuto da me perché ti senti *** ?" o magari con "Dimmi di più sul fatto che ti senti ***.". Come si vede, non ha nessuna importanza cosa sia in realtà "***": il programma adopera nella sua replica il medesimo segmento di frase per fornire l'impressione di comprensione del contesto. Mediante altri accorgimenti Eliza poteva girare intere frasi, sostituendo il pronome personale "mi" con "ti" e cambiando i verbi di conseguenza. Ad esempio la frase "Mia moglie mi tradisce" poteva innescare la risposta "Cosa pensi del fatto che tua moglie ti tradisce?". Naturalmente questo genere di giochi sintattici riesce particolarmente bene in inglese, per via della povertà grammaticale della maggior parte dei costrutti e della semplicità delle forme verbali.

Sulla scia di Eliza, molti altri autori si sono cimentati nello scrivere programmi di colloquio. Uno di quelli di maggior successo si chiamava PARRY e venne scritto da Kenneth Colby, professore di psichiatria all'Università di California a Los Angeles ed uno di quelli che avevano preso sul serio l'esperimento di Weizembaum ed avevano proposto di installare sistemi Eliza nelle cliniche per malattie mentali al fine di curare i pazienti. Il programma di Colby era un "paranoide artificiale": simulava infatti i dialoghi di un paziente affetto da schizofrenia paranoica, e l'idea era proprio quella di usarlo per il tirocinio degli apprendisti psichiatri! In effetti Colby sottopose la sua creatura ad una specie di Test di Turing, fornendo ad un gruppo di suoi colleghi due resoconti dattiloscritti di colloqui avuti rispettivamente con PARRY e con uno schizoide umano e chiedendo loro di identificare quale fosse la seduta con la macchina. Il risultato fu che il 51% degli intervistati indovinò la risposta corretta, tanti quanti ci si sarebbe aspettato se la scelta fosse stata compiuta a caso. PARRY dunque era probabilmente il primo esemplare di "stupidità artificiale"!

Dopo di lui, sulla scena sono apparsi diversi altri stupidi elettronici. Uno degli ultimi si chiamava RACTER (abbreviazione di "racconteur") ed ebbe una certa notorietà verso la metà degli anni '80 a causa di un libro di cui sembrava essere stato "autore". Il libro, intitolato "The Policeman's Beard is Half Constructed" ("La barba del poliziotto è costruita per metà"), venne effettivamente pubblicato dalla Warner Books di New York e venduto in discreta quantità. L'autore del programma, tal William Chamberlain, nell'introduzione al volume sosteneva che tutto il testo era opera di RACTER ed era stato riportato letteralmente e senza alcuna correzione. RACTER in effetti sembrava essere stato realizzato proprio per generare prosa nonsense basata sulla manipolazione di schemi sintattici tipici del discorso umano. Tutta l'operazione tuttavia si rivelò ben presto una bufala: una versione commerciale di RACTER, messa in vendita successivamente, non era in grado di produrre prosa neppure lontanamente paragonabile come qualità a quella del libro, e l'autore dal canto suo non spiegò mai come quest'ultimo era stato realizzato. L'ipotesi più ottimistica è che egli abbia pesantemente rimaneggiato tracce di discorsi prodotti in modo pseudocasuale dal computer, ma c'è chi pensa che tutto il testo sia frutto della fantasia di Chamberlain e che la macchina non abbia proprio preso parte alla sua stesura. Si tratterebbe in questo caso della beffa più grande al povero Turing: un uomo che è riuscito a convincere un pubblico vastissimo di essere una macchina! Con buona pace del Turco del barone Von Kempelen, famosissimo uomo-macchina del passato, che però almeno a scacchi ci sapeva giocare davvero…

Saggio pubblicato su Tangram, rivista di cultura ludica, anno IV n° 10 (maggio 2005)
Copyright © 2005, Corrado Giustozzi. Tutti i diritti riservati.

Ultima modifica: 10 gennaio 2011
Visitatori dal 23 ottobre 2005: 97,273

Torna alla Pagina dei saggi pubblicati su Tangram
Vai alla Pagina dei Commenti

Copyright © 1995-2012 Corrado Giustozzi