Teasing Test Passed

Image1Circa una settimana fa il web si saturava di articoli che sbandieravano titoli come: “SOFTWARE SUPERA IL TEST DI TURING PER LA PRIMA VOLTA NELLA STORIA.” oppure “TEST DI TURING PASSATO: SUPERCOMPUTER INGANNA IL 30% DEI GIUDICI”. Per una strana coincidenza tale evento epocale stava accadendo proprio l’anno del sessantesimo anniversario dalla morte di Alan Turing, anno che avrebbe visto l’uscita al cinema di un film su un personaggio di cui, fino a poco fa, pochi conoscevano l’esistenza.

Per correttezza bisogna dire che gli articoli italiani in questione, nella maggior parte traduzioni o riassunti di più autorevoli pubblicazioni anglosassoni, non hanno fatto altro che riportare quello che il discutibile comunicato stampa del dipartimento di ricerca di Princeton aveva dichiarato. Secondo il redattore di tale comunicato, un certo Kevin Warwick,  nel corso di alcune brevi conversazioni i 4 giudici della competizione annuale tra chatbot organizzata dall’università avevano scambiato circa il 30% delle volte un software per una persona vera. Tanto gli articoli quanto il comunicato specificavano inoltre quello che non avrebbero mai dovuto specificare se avessero voluto far sembrare un minimo credibili i titoli sensazionalistici, e cioè che il software, di nome Eugene Goostman, simulava un ragazzo ucraino di 13 anni con problemi di lingua. Quando ho letto questo minuscolo dettaglio mi sono fatto una grassa risata e ho commentato così la notizia:

Imagead

Riflettendo retrospettivamente sul mio commento posso dire di essere stato fin troppo buono. Paolo Attivissimo in un eccellente e tempestivo articolo che è poi stato citato moltissime volte definisce apertamente la questione una bufala, e dopo aver letto quel che ha da dire è difficile dargli torto. Utilizzare l’illustre nome di Turing per dare risonanza mediatica ad un evento ordinario come un furbo chatbot che riesce a gabbare qualche esaminatore è un’operazione abbastanza irrispettosa. Se è vero che Alan Turing non ci ha lasciato un disegno sperimentale preciso per il suo test e più volte si è riferito ad esso in termini contraddittori, il suo pensiero a tale riguardo è sempre stato cristallino: egli pensava che sarebbe arrivato un giorno in cui i computer sarebbero stati in grado di compiere azioni così genuinamente intelligenti che, nel caso avessimo avuto una conversazione con uno di loro, avremmo avuto difficoltà a distinguerlo da un essere umano. Per cui, ribaltando la situazione, ha immaginato di testare l’intelligenza delle macchine proponendo un esame in cui una di esse avrebbe chiacchierato con una persona che cercava di capire se di fronte aveva oppure no un’IA.

Purtroppo i chatbot di basso livello non si comportano affatto in modo realmente intelligente: essi sono solo simulatori di conversazioni che accorpano le perifrasi nel proprio database in modo da adattarsi alle domande, agganciandosi a parole chiave soprattutto. Non vi sono contenuti  sotto il coperchio di un chatbot, ricordi, humor, dubbi… ma solo calcoli probabilistici che assegnano punti a possibili configurazioni di espressioni. E questo si nota nella bassa varietà delle risposte, nelle continue gaffe, nell’incapacità di seguire il discorso e adattarsi al contesto. Al contrario un chatbot di ordine superiore saprebbe interpretare le allusioni, le intenzioni, i doppi sensi, i giochi di parole e l’umore del proprio interlocutore, e avrebbe le capacità per utilizzare il proprio database di conoscenze in maniera flessibile e diversificata. Un chatbot del genere passerebbe il test Turing non perché una volta è riuscito a ingannare qualcuno ma piuttosto perché si sarebbe avvicinato moltissimo all’idea che Turing aveva di macchina intelligente: una macchina in grado di interagire a livello umano, non solo capace di fingerlo.

Eugene Goostman non è così. Esso fatica a riproporre quello che i chatbot già fanno benissimo da 40 anni, cioè fingere di essere persone capricciose, smemorate e permalose, incapaci di seguire il filo del discorso e, a differenza del tipo di programma, rigidamente centrate su sè stesse o sul proprio interlocutore. Questo atteggiamento potrebbe ingannare un conversatore distratto e poco preparato, non un esperto a conoscenza delle domande chiave e capace di prestare attenzione alle cose più importanti. Sono 50 anni che al MIT informatici, scienziati cognitivi, psicologi e filosofi cercano di trovare il modo per insegnare il senso comune a dei programmi di computer, fallendo miseramente nella maggior parte dei casi. Sembra che i robot facciano enormemente fatica a capire (non memorizzare, si badi) che ad esempio i calzini vanno sotto le scarpe e non viceversa. Non è un caso che il grande Marvin Minsky abbia commentato il risultato di Eugene e il successivo bombardamento mediatico causticamente: “Nothing is learned from poorly designed ‘experiments’. Ask the program if you can push a car with a string. And, if not, then, why not?” Direi che questa affermazione chiude il discorso.

Annunci

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione /  Modifica )

Google+ photo

Stai commentando usando il tuo account Google+. Chiudi sessione /  Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione /  Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione /  Modifica )

Connessione a %s...