Testi vari

I falsi parallelismi fra modello della mente e modello della macchina

Cervello e computer, Lithos 1997

Nota: il testo che segue è la trascrizione pressoché letterale di due lezioni svolte nel 1996 agli studenti dell'ultimo anno del Corso di Laurea in Filosofia dell'Università di Roma "La Sapienza", presso la cattedra di Filosofia della Scienza. Nella revisione per la pubblicazione si è deciso di non snaturarlo e quindi di mantenere lo stile tipico dell'esposizione orale, ivi comprese quelle disinvolture sintattiche che solitamente sono patrimonio esclusivo della lingua parlata.

Ciò che sta dietro al parallelismo tra mente e macchina è essenzialmente il problema mente-corpo. Il problema in sé è antichissimo e dibattutissimo, e pertanto mi guarderò bene dall'affrontarlo direttamente. Quello che vorrei invece fare, per la mia parte, è vedere come questo problema si è in qualche modo modificato dopo l'introduzione dei computer, quindi dagli anni Quaranta in poi.

Il problema è infatti cambiato sostanzialmente perché, se per duemila anni ci si è interrogati sul problema del rapporto tra mente e corpo in modo però astratto, cioè tutto sommato puramente speculativo, quello che è successo dagli anni Quaranta in poi è che è stato messo a disposizione non solo dei filosofi ma anche degli psicologi e dei ricercatori cognitivi (e questo ha forse fatto nascere il problema...) un laboratorio di misura, di analisi, che ha permesso di fare esperimenti in senso proprio, galileiano, ossia esperimenti quantitativi e non solo qualitativi, disponendo di un oggetto che sembrava comportarsi come una mente.

Questo oggetto è ovviamente il computer, il quale ha in qualche modo gettato nuova luce sul problema, ha fornito nuovi strumenti di indagine, ma ha fornito ovviamente un sacco di nuovi problemi: da qui in poi sono nati tutti quanti i dibattiti sull'intelligenza artificiale e le varie correnti di pensiero nell'ambito dell'intelligenza artificiale (intelligenza artificiale cosiddetta "forte" e "debole"). Comunque il dibattito si è arricchito, sono state introdotte nuove variabili alcune soprattutto con un carattere di oggettività, per cui per la prima volta si è potuto dire: sperimentiamo, andiamo a vedere che cosa succede in una sorta di laboratorio.

È chiaro che il dualismo mente-corpo è stato percepito da sempre, e non vorrei richiamare Aristotele piuttosto che Cartesio che forse ne fa la formalizzazione più elegante e formalmente più astratta. Di fatto però non abbiamo mai potuto avere fra le mani una mente separata da un corpo, e quindi andare a vedere quali erano quantitativamente i rapporti tra di essi, finché non sono arrivati i computer che hanno invece una separazione molto netta fra la loro "mente" e il loro "corpo", quelli che comunemente si chiamano il software e l'hardware. Nei computer la distinzione è nettissima: non è come in un organismo biologico in cui è molto sfumato il confine tra ciò che è fisico-biologico e quello che è mentale, psicologico e via dicendo. In un computer è palese che il "corpo" è un ammasso di ferraglia che senza corrente è veramente un pezzo di ferro e silicio che non fa nulla, e invece la "mente" è quel qualcosa che lo fa funzionare, secondo certi dettami. E questo è un modello molto chiaro, molto netto, che porta a vedere meglio quali sono le cose di pertinenza della mente e quali no, e quindi ci permette di disporre di una "mente sperimentale" su cui fare studi.

Ciò ovviamente è piaciuto a molti sperimentatori e ha dato il via a una serie di ricerche, alcune delle quali hanno anche probabilmente travalicato quelli che sono i limiti insiti in questo modello. Infatti non a caso abbiamo deciso di chiamare questo intervento I falsi parallelismi fra modello della mente e modello della macchina: è molto facile farsi allettare dal modello della macchina come modello della mente, ma occorre fare attenzione: questo è vero per certe cose ma non è vero sempre, ed il problema è che spesso si vuole credere che valga sempre.

Vorrei dunque cominciare a discutere tirando sul tappeto un intervento fatto da Alan Turing nei primi anni Cinquanta, un intervento molto importante perché per la prima volta pone l'accento sulla possibilità di stabilire dei criteri operativi per valutare una domanda che l'uomo si era posto da sempre, anche se in forme diverse, e che però era sempre stata trattata con connotazioni appunto molto poco operative. La domanda è: "possono le macchine pensare?" o, in generale, "può esistere una mente intelligente non umana?". Problema drammatico, che sotto varie forme esiste da sempre; ricordo ad esempio che l'immaginario mitologico è ricco di creature intelligenti non umane, se volete anche più o meno artificiali. Un esempio famoso: il dio Vulcano, che era tra l'altro il meccanico degli dei, nella sua officina che stava nelle viscere della terra era aiutato da aiutanti meccanici, creature metalliche che aveva creato lui stesso e che lo aiutavano a costruire tra l'altro i fulmini per Giove. Un aiutante meccanico del genere oggi lo chiameremmo robot. Ecco dunque che il problema di che cos'è questo ente, che cosa prova, che tipo di intelligenza ha, ovviamente era sempre stato discusso, ma in termini necessariamente molto qualitativi.

Turing, che peraltro era un matematico ed è stato uno dei primi ad aver avuto a che fare con i calcolatori nella seconda metà degli anni Quaranta, (essenzialmente per scopi militari, ma poi ha fatto ricerca e ha stabilito dei principi molto importanti che lo fanno ricordare oggi come uno dei padri dell'informatica dal punto di vista concettuale), Turing, dicevo, si pose nel saggio Macchine calcolatrici e intelligenza l'intendimento di commentare la domanda: "le macchine possono pensare?". Nella sua riflessione egli ha avuto l'enorme intuizione di trasformare questa domanda, che espressa così direttamente è abbastanza ambigua nella sua formulazione ed ha connotazioni soprattutto emotive, e quindi con tante implicazioni che non sono affatto operative, riuscendo a formularla in un altro modo, levandole tutte le implicazioni emotive e psicologiche e lasciando solo una connotazione essenzialmente pratica, operativa. Di fatto quello che ha detto Turing è: lasciamo perdere il dibattito su che cosa sia l'intelligenza, cosa vuol dire pensare eccetera, perché ne abbiamo parlato per duemila anni e ancora non siamo d'accordo. Più o meno sappiamo tutti che cosa si intende essere intelligenti, ad un livello epidermico; e dunque non facciamo più di tante questioni sui termini. Cerchiamo invece di capire se ora o in futuro è possibile costruire un oggetto che si comporta come un essere che noi riteniamo pensante. E questo è un problema non più filosofico ma operativo: riusciamo a farlo, sì o no? Se sì, come? Se no, perché? Comunque parliamone.

Quindi ha inventato un esperimento mentale che adesso si chiama "Test di Turing" in suo onore, ma che lui chiamò "gioco dell'imitazione", che essenzialmente consiste in questo. C'è un vecchio gioco di società che consiste nell'avere due persone, un uomo e una donna, messe in due stanze separate, e una terza persona definita "interrogante" che può porre domande all'uomo e alla donna che chiamiamo A e B. L'interrogante non sa qual è l'uomo e qual è la donna; può porre loro domande per iscritto, diciamo che abbia una telescrivente che lo collega con A e B, e ovviamente anche A e B gli rispondono sempre per iscritto. Scopo dell'interrogante è capire qual è l'uomo e qual è la donna, scopo di A e B è non far capire qual è l'uomo e qual è la donna, per esempio possono far credere tutte e due di essere la donna. Chiaramente possono mentire a domande dirette e in funzione del contesto, ad esempio se l'interrogante chiedesse all'uomo "sei tu l'uomo?", lui dovrà necessariamente mentire. Dopo un certo numero di domande è possibile che l'interrogante capisca qual è l'uomo e qual è la donna oppure no. Per vincere a questo gioco servono abilità che si riconducono in ultima analisi all'abilità di saper condurre la conversazione in un certo modo, di impersonare un'altra personalità (se per esempio è l'uomo che deve impersonare la donna, deve essere credibile nella sua finzione di donna) e così via.

Turing allora si pone questo problema: facciamo una versione modificata di questo gioco, mettendo in una stanza una macchina e in un'altra un essere umano. L'interrogante con le sue domande deve capire qual è la macchina, la macchina deve ingannare l'interrogante facendogli credere di essere l'umano. L'idea di fondo è: siamo tutti d'accordo che se una macchina riesce ad ingannare per un tempo ragionevolmente lungo un interrogante medio, a tutti gli effetti si comporta in modo indistinguibile dal comportamento di un umano? E questa è una cosa esclusivamente pratica. Senza sapere cosa fa o cosa non fa la macchina, se sta "realmente" pensando o no, come si sente, eccetera, che sono tutte cose che non ci interessano, chiediamoci una sola cosa: se siamo in grado oggi di costruire una macchina che superi questo test, che vinca a questo gioco, oppure no.

Turing dunque ci dice: non voglio sapere che cosa significa pensare, non voglio sapere se una macchina del genere penserebbe; intanto voglio sapere se è possibile costruirla. Questa possibilità è già una base per discriminare una serie di comportamenti. Bene, non era possibile costruire una macchina del genere al tempo di Turing e non lo è ancora adesso. In realtà oggi siamo in grado di costruire solo macchine che potrebbero superare una versione molto limitata del test di Turing, e limitata non solo nel tempo ma soprattutto ad un ambito ben specifico. Cioè è possibile fare computer che compongono della buona musica, oppure computer o programmi (userò anche in seguito i due termini in modo equivalente) che giocano bene a scacchi, oppure programmi che sono in grado di sostenere una breve conversazione plausibile su un tema specifico, oppure programmi che sono in grado di fare il riassunto di un testo scritto. Tutti questi ci sono, ma non esiste ancora una macchina che è in grado di fare tutte queste cose insieme, per cui non esiste ora una macchina che potrebbe superare il gioco dell'imitazione così come descritto da Turing.

La domanda interessante è: sarà mai possibile costruire una macchina del genere?

Vedete dunque che la domanda iniziale è diventata adesso una domanda ingegneristica, senza più nessuna connotazione epistemologica su che cosa stia facendo in quel momento la macchina e se abbia coscienza di stare facendo una cosa oppure no.

Da questo saggio di Turing del Cinquanta circa (un paio di anni dopo Turing si suicidò) si è scatenato un dibattito enorme. Turing tutto sommato pensava di fare chiarezza, di mettere un freno a tutti i dibattiti filosofici che c'erano stati sulla domanda: "possono le macchine pensare?" e cose del genere. In realtà ha scatenato un dibattito ancora più grande, ma almeno da allora in poi si è fatta chiarezza sul distinguere gli aspetti filosofici, psicologici, emotivi connessi all'eventuale capacità di pensare attribuita ad un'eventuale macchina da quelli pratici, operativi e di ricerca. E questo ha dato anche un impulso a tutta una serie di ricerche tese a definire modelli di mente di una macchina, ma sempre da allora in poi modelli operativi: ossia, vediamo se è possibile costruire un qualcosa che si comporta almeno in certi ambiti così come si comporterebbe un uomo, dando per scontato che un uomo medio si comporti in modo intelligente.

Il passo successivo è stato: se riusciamo a costruire oggetti che si comportano in modo intelligente, allora forse ci possono aiutare a capire che cosa vuol dire comportarsi in modo intelligente, che cos'è l'intelligenza, che cos'è la mente, e quindi aiutarci a capire forse il modello della mente umana che siamo ben lungi dall'aver costruito e meno ancora dall'aver capito. Ecco il punto del nostro discorso sui modelli.

Un primo problema di fondo è che per come siamo fatti, per le nostre categorie, noi riusciamo a concepire solo modelli di intelligenza umana, e quindi tutto quanto è in qualche modo viziato dal voler cercare di replicare nelle macchine il modo che abbiamo noi di comportarci e di pensare. Io ho preso alcuni appunti durante gli interventi di ieri, frasi che si sono dette. Lo psicologo ha definito il pensiero come "un'organizzazione relazionale e relazionante dell'organismo psico-fisico umano". Purtroppo questo è il solo tipo di pensiero che conosciamo! Non conosciamo alcun tipo di pensiero che sia non umano, che non sia legato a un substrato psico-fisico umano. Se dunque la domanda è: "è possibile realizzare qualche cosa di simile al pensiero in una macchina?" La risposta è: "non si sa"! C'è chi pensa di sì, c'è chi pensa di no. Le due correnti che si scontrano sono proprio quella dei riduzionisti, che pensano che alla fine il pensiero e quindi l'attività mentale non sia nulla di più che la somma delle sue parti di basso livello, delle sue componenti fisiche, e sono quelli che stanno cercando di costruire menti artificiali; e quella degli olisti, i quali pensano che ciò non sia possibile, e che se anche replicassimo il cervello neurone per neurone, il risultato non sarebbe un cervello pensante ma sarebbe una altra cosa.

Bene, avere una macchina programmabile, ossia un computer, ci permette di avere un laboratorio sul quale possiamo sperimentare modelli di attività intellettuale, costruire modelli di pensiero. Le cose che si sono fatte sinora tuttavia sono da un certo punto di vista molto interessanti ma da un altro punto di vista deludenti, perché non fanno altro che spostare sempre più un confine che appare tanto netto all'inizio ma che poi non lo è, cioè proprio il definire che cosa sia un comportamento intelligente.

Una cosa della quale mi sono occupato per parecchio tempo è stata per esempio l'abilità dei computer nel giocare a scacchi. La considero un banco di prova molto interessante, non tanto per valutare quanto siamo bravi nel costruire computer che giocano a scacchi, quanto per capire bene dei meccanismi mentali che non sono ben chiari neppure a noi, neppure a chi gioca a scacchi. Da questo punto di vista considero il calcolatore una sorta di "macchina a raggi X" che ci permette di vedere meglio la struttura di certe attività che altrimenti sarebbero molto confuse. Vediamo perché.

Prima che esistessero macchine che giocavano a scacchi era conoscenza comune, implicita, che giocare a scacchi fosse un'attività che richiedesse intelligenza. Un uomo gioca a scacchi, un cane no: l'uomo è intelligente e il cane no. E' chiaro che saper giocare a scacchi è un discriminante netto. Nel momento però in cui abbiamo costruito macchine che giocano molto bene a scacchi, e per "molto bene" intendo che vincono facilmente sulla maggior parte degli scacchisti umani e hanno problemi solo con il campione del mondo, a questo punto ci manca qualche cosa sotto i piedi. Io non mi sentirei mai di definire intelligente il computer che gioca contro Kasparov e ogni tanto lo vince, perché non è intelligente sotto nessun punto di giudizio umano; a pelle però svolge di fatto un'attività che fino a poco tempo fa tutti consideravamo molto intelligente, e che comunque la maggior parte degli uomini non è in grado di svolgere altrettanto bene. Allora se lui non è intelligente, ma gioca bene a scacchi, che cosa vuol dire? Vuol dire forse che per giocare a scacchi non serve intelligenza!... Vedete come si spostano i termini del problema? Il computer dunque ci permette di vedere meglio un certo tipo di attività e di analizzarla in un contesto che poi è non solo pratico ma anche mentale.

La cosa interessante per esempio è che il computer gioca sì a scacchi, ma lo fa in un modo molto diverso da come un uomo gioca a scacchi. Però questa diversità si riflette poi in una affinità di risultati.

Essenzialmente il computer gioca a scacchi per forza bruta, cioè riesce a costruire rapidissimamente tutta una serie di possibilità fra le quali scegliere. Più o meno quando giochiamo a scacchi noi diciamo: se io muovo qui, lui cosa farà? Lui forse farà questo, allora se lui fa così, io faccio così..., e poi però dopo un po' ci fermiamo perché non siamo in grado di andare più giù ad analizzare questo albero di situazioni. Un computer in realtà fa esattamente questo: costruisce rapidissimamente tutte le possibilità che si possono presentare. Beh non proprio tutte, che sarebbero veramente troppe; ma con sistemi sempre del tutto stupidi scarta tutte le strade che non sembrano promettenti e va comunque molto avanti, "prevedendo" un gran numero di mosse. E con l'aumentare della potenza di calcolo dei computer questa profondità di previsione aumenta, e quindi il computer gioca meglio. In realtà un giocatore molto bravo non fa affatto questa cosa, cioè non è vero che Kasparov gioca meglio di me perché prevede molte più mosse. Certo, prevede anche più mosse, ma non quanto un computer e comunque non le analizza tutte.

In realtà cosa fa Kasparov quando gioca a scacchi non lo sa realmente nemmeno lui! Ci sono saggi molto famosi sulla psicologia dei giocatori di scacchi, ad esempio quello di Fine, da dove risulta che non si sa che cosa fanno, non lo sanno nemmeno loro. Viene sicuramente attivata una serie di meccanismi a livello inconscio che si basano su un riconoscimento di configurazioni, per cui automaticamente una certa situazione sulla scacchiera innesca un riconoscimento che fa proporre diciamo per intuizione, per intuito, (dovremmo poi discutere su cosa è l'intuito!), comunque fa "vedere" al giocatore qual è la mossa più promettente o la linea di condotta più vantaggiosa fra le decine e decine che si presentano. E questo è un processo assolutamente diverso dal processo a forza bruta, a basso livello, che fa la macchina.

Ma nonostante questa diversità di fondo fra le "strutture mentali" adoperate, il risultato è però che la macchina gioca molto bene, vincendo statisticamente un numero significativo di partite contro giocatori di ottimo livello.

A questo punto, alcuni anni fa, ho messo in piedi quello che scherzosamente ho definito un "Test di Turing scacchistico": quello che volevo vedere era non solo se quantitativamente la macchina giocava bene a scacchi, cioè era in grado di vincere sugli scacchisti (e questo si vede), ma volevo anche capire come era qualitativamente il gioco della macchina. Siccome non sono un eccellente scacchista sono andato da un amico che invece è un eccellente scacchista (è stato tra l'altro varie volte campione italiano nel gioco "lampo") e peraltro è psichiatra, quindi ha una visione molto interessante del gioco degli scacchi, molto psicologica; in più non sa niente di computer, e questa è un'altra cosa molto positiva perché è chiaro che sapendo qualche cosa su cosa c'è dietro le quinte, si parte già in qualche modo condizionati sul giudizio di una partita.

Per uno scacchista a un certo livello, chiaramente una partita di scacchi è come una partitura di musica per un musicista: ha uno stile, un'estetica, non è solo una sequenza meccanica di mosse razionali. Gli scacchi sono un gioco razionale, ovviamente, ma il gran numero di alternative per ogni mossa conduce a scelte che spesso sono stilistiche o comunque psicologiche, non solo razionali. E quindi quello che mi interessava vedere era se c'era, in una partita giocata da una macchina, qualche connotazione che una persona umana all'oscuro del fatto che quella partita fosse stata giocata da una macchina avrebbe riconosciuto come psicologiche o come stilistiche. Così ho coinvolto più volte questo amico, Carlo D'Amore, in una serie di test "tipo Turing". A volte per esempio gli ho fatto vedere le trascrizioni di alcune partite senza dirgli chi erano i giocatori (e questi erano di solito un uomo e una macchina), chiedendogli semplicemente di darmi dei giudizi stilistici sul gioco. Altre volte gli ho detto che si trattava di partite giocate da un uomo e da una macchina ma non gli dicevo chi aveva i bianchi e chi i neri, e gli chiedevo dunque di riconoscere dallo stile di gioco qual era l'uomo e quale era la macchina.

Quello che è venuto fuori è a mio giudizio molto interessante: molte volte Carlo non era in grado di distinguere il giocatore umano da quello artificiale. Certo, parliamo delle partite giocate dal miglior computer di scacchi al mondo e dal miglior giocatore di scacchi al mondo: è chiaro che il programma da cinquantamila lire che trovate dal giornalaio gioca male, e quindi si vede che è una macchina perché fa delle scelte ingenue. Ma il miglior computer al mondo per il gioco degli scacchi fa delle cose che sono uguali a quelle che farebbe il miglior giocatore umano di scacchi del mondo, cioè delle scelte stilistiche.

Alla fine in qualche caso Carlo mi ha perfino detto: "questa partita è bella". Attenzione: non è solo "corretta", è "bella"! Cioè denota qualche cosa che noi fino adesso attribuiamo soltanto alle persone: una certa intenzionalità, una scelta di una soluzione anche bella rispetto ad una solo efficace. Ora che questo sia un fatto connaturato nella natura, ossia che le cose giuste siano anche belle, questo i matematici lo sanno da sempre. Einstein ad esempio diceva che di fronte a due teorie o a due equazioni che dovrebbero descrivere uno stesso fenomeno naturale, a parità di altre valutazioni teoriche quella giusta è sicuramente quella più bella, mentre quella brutta è certamente sbagliata. Certo, qui entriamo in un pandemonio di valutazioni su che cosa significhi "bello", per cui non andrò troppo oltre. Però sappiamo tutti che c'è una certa sorta di eleganza nelle strutture naturali. Bene, in questo caso dal gioco di una macchina che è meccanico, stupido, di forza bruta, vengono fuori delle configurazioni che una persona esperta, ignara di tutto ciò, definisce belle. E quindi problemi a non finire...

Per analizzare questi risultati mi sono dunque messo a valutare il rapporto fra strategia e tattica nel gioco umano ed in quello artificiale. Nel gioco degli scacchi ovviamente c'è un aspetto strategico ed un aspetto tattico. Una vecchia battuta dei militari dice che la strategia è quello che c'è da fare quando non c'è niente da fare, mentre la tattica è quello che c'è da fare quando c'è qualche cosa da fare. Diciamo meglio che la tattica consiste nell'operare a basso livello sia nella configurazione che nel tempo, cioè fare delle mosse che servono "qui e ora" per risolvere un certo problema immediato, mentre la strategia consiste nell'impostare una linea di condotta a un livello superiore, e quindi comprende un tempo maggiore e uno spazio maggiore; per cui una volta impostate le linee strategiche ci si muove poi per via tattica nell'implementare, cioè nell'adottare, nel mettere in pratica, queste linee strategiche. A scacchi un uomo gioca un gioco essenzialmente strategico, cioè decide a priori una linea di condotta: vede ad esempio una debolezza in quel punto e quindi cerca di sfruttarla, pertanto muoverà i pedoni in un certo modo, i cavalli in modo che li difendano, e via dicendo; insomma costruirà una situazione per cui riuscirà a implementare la sua strategia. Un computer invece non sa niente di strategie: lui gioca solo un gioco tattico, vede quale è la mossa migliore "qui e ora" e la fa, oppure vede una sequenza di mosse ognuna delle quali è però la migliore "qui e ora" in funzione di quella scelta. E dunque anche sotto questo punto di vista il gioco del computer è assolutamente agli antipodi rispetto a quello umano. Però alla fine il gioco di un computer, che ha una fortissima tattica ma nessuna strategia, viene giudicato "bello", viene giudicato "umano".

La conclusione cui sono giunto è forse un po' provocatoria ma non manco di proporla come tema di riflessione e dibattito: non potrebbe essere che la strategia altro non sia che la tattica spinta all'infinito? Cioè se io prevedo non una mossa o due o tre, ma mille mosse, per cui potenzio enormemente la mia tattica, non può darsi che questa diventi alla fine una strategia? Questi due concetti che a noi appaiono così diversi potrebbero in fondo essere la stessa cosa, e ciò che chiamiamo strategia potrebbe non essere altro che una tattica più forte dal punto di vista meccanico. Ecco, dal punto di vista concettuale questa è una presa di coscienza drammatica, poiché noi siamo soliti associare alla strategia attività volitive che non ci sono nella tattica: la strategia per noi umani prevede un'intenzionalità, un giudizio, anche delle motivazioni psicologiche. Certamente un generale, così come uno scacchista, adottano una strategia piuttosto che un'altra non soltanto in base a motivazioni razionali ma anche in base a motivazioni psicologiche.

Ovviamente non conosco la soluzione di questi problemi, mi sono accorto però che questi problemi esistono e sono messi in luce molto chiaramente da questa macchina a raggi X che è il gioco degli scacchi al computer.

Per inciso, il gioco degli scacchi nello studio dell'intelligenza artificiale è stato privilegiato storicamente rispetto ad altri perché appunto è stato considerato un gioco estremamente razionale. In esso non entrano a far parte elementi casuali, per esempio lanci di dadi, e non ci sono elementi nascosti come nei giochi di carte, dove i dorsi tutti uguali servono proprio a mascherare all'avversario informazioni sulle carte che si hanno. Il gioco di scacchi è appunto un gioco "certo", come si dice nella Teoria dei Giochi, e "a informazioni completa", per cui ogni giocatore conosce tutto dei suoi pezzi e di quelli dell'avversario. Inoltre è abbastanza complesso da non avere strategie banali e analisi semplici, quindi è sempre stato visto come un ottimo banco di prova in tante cose. In questo caso si dimostra appunto un banco di prova molto valido, anche se molto problematico perché lungi dall'aver dato risposte ad alcuni problemi ne ha creati di nuovi.

Ma lasciamo gli scacchi e passiamo a dare una descrizione funzionale del comportamento di un computer, per vedere infine perché viene in mente di fare parallelismi anche molto arditi fra la mente e la macchina. Il computer è dotato di capacità di prendere decisioni elementari, di comunicare all'esterno i risultati delle sue elaborazioni e di ricevere dall'esterno degli stimoli, e quindi a grosse linee ha un funzionamento tale e quale al cervello in quanto ha degli input, elabora delle cose e tira fuori degli output. Il problema è che cosa avviene dentro.

Se consideriamo come black box (scatola nera) la macchina, il che per certe cose va anche bene, questo livello di descrizione è abbastanza sufficiente. Nel momento in cui invece entriamo dentro e cerchiamo di capire come funzionano le cose, nascono i problemi. Quello che deve essere chiaro è che a certi livelli l'indagine può prescindere dalla comprensione di come è fatta dentro una macchina. Torniamo al discorso di Turing per esempio, che ci dice: non voglio sapere come è fatta questa scatola nera né come sarà fatta in futuro, mi interessa solo vedere se si comporta in un certo modo. Dall'altro lato, chi poi deve costruire queste cose deve necessariamente sapere come è fatta dentro e che tipo di struttura darle, nella speranza che sia la struttura giusta per consentire alla macchina di fare quelle cose che le si vogliono far fare.

Uno dei problemi che si sono avuti fino adesso è stato il cercare di ricalcare, nella architettura delle macchine, la struttura del cervello, ovviamente semplificata al massimo perché non è che ne sappiamo poi molto di come funziona... Questo gran parlare di reti neurali e cose del genere è venuto fuori ultimamente, proprio dopo il fallimento di quelle tecniche di intelligenza artificiale che cercavano di ricostruire le strutture cognitive di alto livello della mente. Fra la fine degli anni Sessanta e i primi anni Settanta, quando si parlava ancora di cibernetica, queste tecniche ebbero dei buoni successi e fecero intravedere ai ricercatori dell'epoca, Wiener ed altri, la possibilità di fare macchine intelligenti da subito. Allora si pensava a macchine che facessero traduzioni automatiche, macchine che facessero verifiche di teoremi matematici automaticamente, sistemi esperti e via dicendo, fatti imitando in software le strutture cognitive della mente.

Si è visto in seguito che ciò non era possibile perché sarebbe stato un compito troppo complesso imitare tutte le strutture cognitive, che peraltro non conosciamo neanche oggi. Da questo fallimento è venuta fuori un'altra scuola di pensiero: anziché cercare di imitare le strutture di alto livello, le strutture elaborative della mente, cerchiamo piuttosto di imitare le strutture del cervello, fisiche, biologiche, perché se riusciamo ad imitare piuttosto bene un cervello dal punto di vista costruttivo alla fine esso si comporterà come un cervello pensante. Ecco quindi tutta la ricerca sulle reti neurali e simili.

Anche qui dopo un entusiasmo iniziale le idee si sono raffreddate molto. Le cose non funzionano bene, e non si sa in pratica come farle: le reti neurali funzionano bene per compiti molto specifici e tutto sommato molto semplici, mentre non servono più a molto quando il livello di complessità cresce anche di poco. Comunque anche questa esperienza è servita.

Una cosa interessante delle reti neurali, che non c'era nella struttura software dei sistemi esperti precedenti, è la capacità di apprendere dall'esperienza. Questa è una cosa intrinseca nella rete neurale ma è invece aggiunta come feedback in modo del tutto artificioso nel software "tradizionale" che apprende dall'esperienza. Per questo all'inizio si era pensato che le reti neurali potessero imitare bene le strutture del pensiero, proprio in quanto una capacità ovviamente riconosciuta come essenziale della mente umana è quella di apprendere dalla propria esperienza, non solo dagli errori ma dall'esperienza in genere, e dunque di modificarsi continuamente nel suo funzionamento. Questo un programma normale, anche un programma che gioca a scacchi, non è in grado di farlo se non in modo del tutto artificioso e limitato; invece una rete neurale lo fa proprio come struttura intrinseca della sua costruzione.

Il problema è che il meglio che riusciamo a fare sono le reti neurali con qualche decina di neuroni artificiali al massimo; è impensabile anche per il futuro fare cose molto più complesse, quindi anche questa strada è destinata a fallire perché il cervello, che ha qualche decina di miliardi di neuroni connessi nelle maniere più complicate, non può assolutamente essere modellato da una struttura miliardi di volte meno complessa. La cosa non è in grado di funzionare ai livelli che ci si aspetta.

È chiaro che anche qui si sono ottenuti dei risultati, spesso interessanti. La cosa importantissima è però non confondere questi risultati e quindi questi modelli, o meglio non confondere i livelli ai quali si sono ottenuti questi modelli e i relativi risultati. Cioè, per il solo fatto che un computer gioca a scacchi bene quanto un uomo non è detto che il modello degli scacchi rappresentato sul computer sia direttamente applicabile all'uomo. Anzi, in questo caso sappiamo esattamente che non lo è.

Purtroppo la tendenza che hanno gli scienziati pratici (fisici, ingegneri, ...) è che, dopo aver costruito un modello di qualcosa, lo usano per predire come funzionerà l'originale. Questo non è un problema nelle scienze naturali ma lo diventa nelle scienze della mente.

Nella fisica, nell'ingegneria, il modello di un qualcosa è essenziale non tanto per aiutarci a capire come funziona quel qualcosa, ma soprattutto per consentirci di predire come funzionerà: i modelli anzi ci permettono di non capire cosa c'è dentro al qualcosa che stiamo modellando, a patto che ci facciano prevedere come funzionerà. Le leggi della fisica sono splendidi modelli di cose che non capiamo a fondo, però costituiscono una descrizione adeguata dei fenomeni naturali e soprattutto ci consentono di prevedere come funzionerà un certo sistema, anche se non lo comprendiamo. Siamo andati avanti per un secolo e mezzo usando l'elettricità senza capire che cos'era, però l'abbiamo ugualmente usata per scopi pratici perché le leggi che avevamo, che descrivevano il comportamento dell'elettricità, erano sufficienti per permetterci di costruire cose che andavano ad elettricità.

Bene, con la mente siamo più o meno in questo stato: riusciamo a costruire modelli parziali di alcune strutture cognitive senza capire come funzionano davvero, però riusciamo a descriverle correttamente in ambiti limitati e prevedere certe conseguenze. Ora, la tentazione che si ha quando si è raggiunta la descrizione molto completa di un fenomeno fisico è quella di dire: "d'accordo, adesso ho capito questo fenomeno fisico"; e se ho due modelli che in qualche modo funzionano in parallelo e mi dicono le stesse cose, allora vuol dire che i due fenomeni da essi descritti sono lo stesso fenomeno o sono intrinsecamente uguali. Questo però è un salto logico che non sempre è possibile e spesso è pericoloso, ed è pericoloso soprattutto quando confrontiamo modelli cognitivi della mente e modelli operativi, ancorché per certi versi "cognitivi", di un computer. Non è vero a priori che se fanno la stessa cosa, se producono lo stesso risultato, allora rappresentano una uguale struttura al loro interno, sottendono lo stesso sistema, rappresentano la stessa struttura.

Purtroppo il grande pericolo nell'attuale ricerca sull'intelligenza artificiale è che, secondo me, molti ricercatori sono un po' partiti per la tangente e studiano troppo le macchine nel tentativo di capire la mente umana, confidando troppo nelle possibilità di quel "laboratorio" che è il computer. Credo che difficilmente i risultati cognitivi ottenuti sui computer siano applicabili direttamente allo studio ed alla comprensione della mente dell'uomo. A mio avviso è fallace voler studiare i modelli di pensiero artificiale come se fossero anche modelli del pensiero umano; trarre conclusioni da analogie del genere è sbagliato ed è anche molto pericoloso.

Saggio pubblicato su "Cervello e computer" di Anna Ludovico, Lithos 1997
Copyright © 1997, Corrado Giustozzi. Tutti i diritti riservati.

Ultima modifica: 1 settembre 2007
Visitatori dal 6 maggio 2003: 72,828

Torna alla Pagina degli articoli e saggi vari
Vai alla Pagina dei Commenti

Copyright © 1995-2012 Corrado Giustozzi