Sta girando in questi giorni la storia di Tay, presentata da Microsoft come un'AI teenager sbarcata su twitter per interagire con le persone e apprendere da loro. Un esperimento giocoso, una versione amichevole di intelligenza artificiale per un Test di Turing cheap and chic. Solo che le cose non sono andate come previsto, e in meno di un giorno Tay è passata a rispondere in modo aggressivo, esprimendo opinioni xenofobe (verso ebrei, messicani, donne...) e appoggiando complottismi assortiti (olocausto, 9/11, massoneria...). Microsoft ha quindi deciso di chiudere l'account twitter e archiviare Tay. Esperimento fallito, dunque.
O forse no? La breve storia di Tay si è subito prestata a commenti ironici, del tipo "in ventiquattrore è diventata grillina", e a qualche riferimento alla possibilità che una AI lasciata in libertà potrebbe in effetti trasformarsi in un'entità spregevole e malevola, e se sommiamo questo al bullismo nei confronti dei robot Boston Dynamics, l'avvento di Skynet non pare così lontano. Una risatina, una scrolalta di spalle, e si passa alla notizia successiva.
Ma la chiave di interpretazione più interessante della vicenda non sta tanto in quello che Tay ci dice sulle AI, quanto in quello che ci dice su noi stessi. Bisogna intanto considerare che molte delle frasi "dette" da Tay sono in realtà ripetizioni di tweet da lei ricevuti, funzione che era espressamente prevista, e già questo riduce di molto la portata dello scandalo. In secondo luogo, per quanto sia istintivo personificare l'AI adolescente, bisogna tenere presente che Tay non non "capiva" in senso stretto quello che diceva. Quando ha affermato di odiare gli ebrei, Tay non era razzista e negazionista, perché non stava esprimendo una sua opinione ragionata: stava estrapolando frasi di senso compiuto dalla mole di interazioni avvenute con gli utenti umani. Quindi Tay non stava esponendo la sua idea, ma la nostra. Si può paragonare Tay a un bambino che sta imparando a parlare, e lo fa
necessariamente imitando le parole e i toni che percepisce nel mondo
intorno a sé (con la differenza che un bambino ci mette tre anni, a un'AI bastano poche ore).
Visto in questa prospettiva, l'esperimento di Tay assume un significato tutt'altro che trascurabile. Tay è stata esposta al traffico di informazioni che circolano in Rete di ora in ora, e questo l'ha trasformata in un internet troll da manuale. Questo ci dice molto su quanto e cosa dell'umanità emerge in modo più evidente dagli scambi online, e come posizioni sicuramente minoritarie, ma più "rumorose" riescano a imporsi sull'intero ambiente, tanto che un'entità programmata per reagire nel modo più umano possibile (inteso come il modo più comune in cui gli umani reagiscono), sviluppa atteggiamenti di questo tipo. È un risultato molto significativo, perché sembra tra le altre cose confermare molte delle tendenze socio-politiche che si stanno affermando, un po' in tutto il "mondo civile", negli ultimi anni. Viene quasi da pensare che se Tay si fosse candidata per un'elezione, avrebbe ricevuto un numero consistente di voti.
Per cui sembrerà banale, ma sembra che la breve esperienza di Tay non abbia fatto altro che confermare che se c'è qualcosa di cui dobbiamo preoccuparci non sia tanto la presa di coscienza delle Intelligenze Artificiali, quanto l'umanità dei modelli dai quali apprenderanno prima di "risvegliarsi".
Nessun commento:
Posta un commento