E se Google Brain ti mandasse a quel paese?

«Le macchine non potranno mai rimpiazzare la stupidità  umana», diceva Orson Welles negli anni ’50 e mai come oggi questa battuta è attuale.
Di intelligenza artificiale se ne scrive e se ne parla molto da decenni, ma la stupidità  naturale che non entra mai negli hot topic o nei Twitter trends, è solidamente imbattibile: l’evergreen più di successo nella storia del pensiero umano.

Facciamo un esempio, che sospettiamo non sarà  l’ultimo. Immaginate attorno a un tavolo di Mountain View tanti architetti e ingegneri software e date loro l’obiettivo di rendere più credibili ed efficaci le risposte di un assistente virtuale, una semplice intelligenza artificiale, per capirci.

Nonostante i tanti e pericolosi vicoli ciechi ampiamente descritti da letteratura e cinematografia fantascientifica il team di specialisti arriva a un’ipotesi operativa geniale: dare in pasto all’intelligenza artificiale un grande database costituito da migliaia di romanzi rosa e fantasy. In questo modo i motori adattivi dell’assistente virtuale avrebbero avuto a disposizione una significativa quantità  di esempi di ottima conversazione, pronti per essere far bella figura nelle chiacchierate digitali. La strategia per ottenere un brillante conversatore sintetico, come prevedibile, si è rivelata impervia.

Non vorremmo fare nomi, ma tutto questo è avvenuto nei Google Labs. Nelle intenzioni del capo progetto, Andew Dai, questo tipo di letteratura è stata scelta perché le trame di genere seguono sviluppi abbastanza prevedibili e lineari, favorendo l’abilità  dell’intelligenza artificiale di riconoscere pattern, ovvero schemi, e quindi individuare come adattare linguaggio e risposte mantenendo buon stile conversativo.
Forse gli algoritmi di Google Brain si sono fatti coinvolgere troppo emotivamente e i risultati ai primi test non hanno dato il successo sperato. Sono affiorati in rete i primi esiti della sperimentazioni e tra questi in un test nel quale è stato chiesto all’intelligenza artificiale di creare sequenze coerenti di una dozzina di frasi legate a sensazioni molto umane (da ‘star bene’ a ‘hai bisogno di parlarmi’) il risultato, purtroppo poco traducibile in italiano, ha incluso risposte come «non vorrei avere mai a che fare con te» o «vorrei ucciderlo» (ovviamente in senso figurato, ma di norma sono frasi che è meglio evitare, per esempio quando si lavora in un customer service telefonico).

Non è una figuraccia, solo un esperimento legato a un lavoro complesso e molto concettuale che dovrà  essere ripetuto e studiato meglio, aveva fatto qualcosa di peggio Microsoft poche settimane fa.

Suggeriamo ai ricercatori di applicarsi con maggiore impegno e di rivedere almeno due film, il classico 2001 Odissea nello Spazio (le risposte di Hal 9000 sono sempre perfette, ma la sua condotta lascia a desiderare) e il più recente War Games in cui l’intelligenza artificiale che controlla la difesa statunitense, un’istante prima di scatenare l’olocausto nucleare, si ferma e commenta: «Strano gioco. L’unica mossa vincente è non giocare».

Nessun Articolo da visualizzare