mercoledì 27 luglio 2011

test di intelligenza del Tao


Hal, apri la porta ... per favore.

1. The Imitation Game

I propose to consider the question, "Can machines think?" This should begin with definitions of the meaning of the terms "machine" and "think". The definitions might be framed so as to reflect so far as possible the normal use of the words, but this attitude is dangerous, If the meaning of the words "machine" and "think" are to be found by examining how they are commonly used it is difficult to escape the conclusion that the meaning and the answer to the question, "Can machines think?" is to be sought in a statistical survey such as a Gallup poll. But this is absurd. Instead of attempting such a definition I shall replace the question by another, which is closely related to it and is expressed in relatively unambiguous words.
The new form of the problem can be described in terms of a game which we call the 'imitation game". It is played with three people, a man (A), a woman (B), and an interrogator (C) who may be of either sex. The interrogator stays in a room apart front the other two. The object of the game for the interrogator is to determine which of the other two is the man and which is the woman. He knows them by labels X and Y, and at the end of the game he says either "X is A and Y is B" or "X is B and Y is A."

Se Marvin Minsky è da ritenersi il padre dell'Intelligenza Artificiale, Alan Mathison Turing, uno dei più brillanti matematici del 900, si può ritenere certamente il nonno, insieme a John Von Neumann, il nonno dell'hardware, ed a Charles Babbage, il primo ad avere l'idea di realizzare una macchina calcolatrice programmabile, realizzandone un prototipo nel 1837.

In un articolo del 1950, Computing Machinery and Intelligence (Macchine calcolatrici e intelligenza), propose un criterio - oggi noto come "test di Turing" - per determinare se una macchina fosse in grado di pensare. Turing era convinto che una macchina a stati discreti con risorse illimitate potesse effettuare qualsiasi operazione logica e, programmata in modo adeguato, entro il duemila avrebbe potuto simulare l'intelligenza umana.
La domanda che pose fu:

Possono le macchine pensare?

Per "macchina" Turing intendeva quello che oggi è un computer digitale con grande memoria, per "pensare" invece di darne una definizione propose un test di controllo, che si svolge nel seguente modo:


Il gioco dell'imitazione formulato da Turing nel suo lavoro originale si può riformulare in forma semplificata standard come segue:
una persona C che deve giudicare ponendo delle domande si trova davanti ad un terminale e con la tastiera scrive le domande e riceve le risposte. Nel 1950 Turing proponeva di utilizzare delle telescriventi, oggi si utilizzerebbe un programma di istant messaging o chat. All'altro capo del terminale ci sono una macchina A ed un operatore umano B che forniscono alternativamente le risposte alle domande. Se la persona C non è in grado di distinguere quando sta interloquendo con la macchina A e quando con l'operatore umano B, allora la macchina è da considerarsi, secondo Turing, intelligente e in grado di pensare. 
Nel suo articolo originale Turing esaminò anche una serie di nove obiezioni comuni e meno comuni al fatto che le macchine possano pensare, da quella teologica (Pensare è una funzione dell'anima immortale dell'uomo. Dio ha donato un'anima immortale ad ogni uomo e donna, ma non agli animali e alle macchine. Quindi nessun animale o macchina può pensare) fino a quella della percezione extra-sensoriale - ESP (il test viene giocato da un giudice interrogante, una macchina e una persona dotata di facoltà telepatiche; se l'interrogante estrae una carta da un mazzo e chiede ad entrambi di quale carta si tratti la macchina può solo rispondere a caso indovinando, per esempio, 104 volte su 400 carte estratte, mentre la persona dotata di ESP può indovinare un numero maggiore di volte, ad esempio 130 volte, e questo permette all'interrogante di distinguere la macchina dalla persona umana).

Finora nessun programma ha superato il test di Turing.

Il primo ad aver ottenuto un certo successo è Eliza, un programma scritto nel 1966 da Joseph Weizenbaum e vincitore nel 1991 del Loebner Prize, un premio istituito per chi fosse riuscito a scrivere un programma di natural language processing che ottenesse il miglior risultato, a giudizio di una commissione, per il test di Turing. Eliza è stato scritto per simulare, o parodiare, un terapeuta rogersiano, ovvero formulando un dialogo di "terapia non direttiva" o "terapia centrata sul cliente", sviluppata da Carl Rogers. Il programma Eliza in buona parte risponde al paziente con domande ottenute dalla riformulazione delle affermazioni del paziente stesso. Cosi, per esempio, alla frase "Mi fa male la testa" il programma può ribattere con "Perché dici che ti fa male la testa?" oppure la risposta a "Mia madre mi odia" potrebbe essere "Chi altro nella tua famiglia ti odia?"
Un tipico dialogo che può avvenire è del tipo:

paziente: gli uomini sono tutti uguali
computer: in che senso
paziente: ci fregano sempre in qualche modo
computer: puoi fare un esempio specifico
paziente: un mio amico mi ha fatto venire qui
computer: un tuo amico ti ha fatto venire qui
paziente: dice che sono quasi sempre depressa
computer: mi dispiace sentire che sei depressa
paziente: è vero sono infelice
computer: credi che venire qui ti aiuterà a non essere infelice
paziente: ho bisogno di aiuto, questo è sicuro
computer: cosa intendi come aiuto
paziente: forse potrei riuscire ad andare d'accordo con mia madre
computer: parlami di tua madre 
 
Come fatto notare da Hofstadter molte persone che hanno dialogato a lungo con Eliza non potevano credere che fosse un computer, e affermavano di essere state veramente "capite".
Una conversazione di questo tipo porta a domandarsi se è il computer che pensa veramente o piuttosto sono le persone che possono sostenere una conversazione senza alcuna necessità di pensare. 

Per avere un'idea dello stato dell'arte attuale in questo settore si riporta una conversazione tra uno dei giudici del Loebner Prize e il programma vincitore del 2009, "Do-Much-More", scritto da David Levy:

Judge: Hi, how is it going?
Do-Much-More: Hello. How are you doing?
Judge: Good, who are you?
Do-Much-More: Well, I am studying engineering. That ought to give you an idea about who I am.
Judge: No, not really?
Do-Much-More: I have a terrific yearning to know something more about experiments?
Judge: Where are you from?
Do-Much-More: I don't know, but don't forget I can't be in three places at once.
Judge: What city do you live in?
Do-Much-More: What city - that's rather a tricky question. The trouble is, one city seems to be much like another.
Judge: Not really. Where do you live?
Do-Much-More: In the old dairy next to the river, I believe.
Judge: Interesting, so you are a farmer then?
Do-Much-More: Well, if you ask a physiologist what I am, he won't say I'm a farmer. He'll say I consist mostly of water - enough to fill a large beer tun - plus some iron, phosphorus, and lots of other prosaic ingredients.
Judge: Weird answer to a simple question, wouldn't you say?
Do-Much-More: I certainly would. Just watch me!
Judge: What will I see?
Do-Much-More: You don't have to worry about what you see, you shouldn't see it on a cold winter's evening.
Judge: What do you make of the Arctic Monkeys?
Do-Much-More: Well, here's a clue: I make what a keeper in a zoo would make. Try that for size!

Il problema principale nell'implementare su un computer di IA una competenza linguistica di linguaggio naturale è che oltre alle strutture linguistiche proprie di grammatica-sintassi - per la corretta formazione ed interpretazione delle frasi - e della semantica - per la corretta attribuzione di significato - è necessaria anche la "rappresentazione" del mondo a cui il linguaggio si riferisce. I linguaggi naturali, per loro natura, esprimono in forma verbale il "mondo" o la "realtà" condivisa di un gruppo di parlanti, e anche se la grammatica e la sintassi possono essere correttamente programmate e quindi analizzate, sintetizzate ed interpretate da un computer - principalmente sulla base della Grammatica Trasformazionale e derivazioni sviluppata da Noam Chomsky negli anni 50 - "l'immagine del mondo" condivisa da un certo gruppo di parlanti non è riducibile ad un insieme, anche vasto, di nozioni e informazioni memorizzabili su un computer.
Ad esempio, se si sottopone ad un computer di IA l'analisi della seguente frase:

"Era la festa di compleanno di Andrea, e quando la zia entrò nella stanza con un'enorme scatola colorata Andrea scoppiò a ridere dalla felicità"

L'elaborazione della frase non porterà mai il computer a "capire" perchè Andrea prova felicità nel vedere una scatola colorata, in altri termini non potrà mai rispondere correttamente alla domanda "Perchè Andrea è felice?", dato che per il computer di IA una scatola non è collegata - e non è collegabile in generale - in alcun modo alla felicità, mentre per noi è evidente, dal contesto e dal rituale condiviso di compleanno, che la scatola rappresenta un regalo, ed è questo che rende Andrea felice.

Nessun commento:

Posta un commento