Reddit Banna Ricercatori dell'Università di Zurigo per Manipolazione con Bot AI

Reddit Banna Ricercatori dell'Università di Zurigo per Manipolazione con Bot AI
Photo by Brett Jordan / Unsplash

Una vicenda che solleva serie questioni sull'etica della ricerca online e sull'uso sempre più sofisticato dell'intelligenza artificiale sta scuotendo la community di Reddit. La popolare piattaforma ha recentemente imposto un ban severo a un gruppo di ricercatori dell'Università di Zurigo, accusati di aver condotto un esperimento "improprio e altamente non etico" utilizzando bot AI per manipolare gli utenti e le discussioni all'interno del sito.

La scoperta è emersa la scorsa settimana, lasciando sbigottiti i membri del subreddit r/changemymind, una community dedicata a dibattiti e scambi di opinioni in cui gli utenti presentano una tesi e invitano altri a cercare di fargli cambiare idea. Per mesi, all'insaputa della community, questi ricercatori avrebbero scatenato una serie di bot camuffati da utenti reali con l'obiettivo dichiarato di "indagare la persuasività dei Large Language Models (LLM) in ambienti online naturali".

I bot erano stati programmati per assumere identità specifiche e, per certi versi, sensibili e controverse. Tra queste, un presunto consulente per traumi, un "uomo nero contrario a Black Lives Matter" e una sopravvissuta a violenza sessuale. Utilizzando queste maschere digitali, i bot hanno partecipato attivamente alle discussioni, commentando e interagendo con gli utenti ignari. L'esperimento ha visto l'immissione di 1.783 commenti generati dai bot, riuscendo persino ad accumulare oltre 10.000 punti karma, una misura della popolarità e dell'accettazione dei contributi su Reddit.

Le Reazioni di Reddit: Ban e Possibili Azioni Legali

La reazione di Reddit non si è fatta attendere ed è stata estremamente dura. Ben Lee, Chief Legal Officer della piattaforma, ha definito il progetto dei ricercatori "profondamente sbagliato sia a livello morale che legale". Questa forte condanna si è tradotta in un ban permanente per i ricercatori coinvolti dalla piattaforma. Inoltre, Reddit sta seriamente valutando la possibilità di intraprendere azioni legali contro di loro, sottolineando la gravità della violazione delle proprie politiche e, soprattutto, del danno arrecato alla fiducia degli utenti e all'integrità delle discussioni online.

L'azienda ritiene che l'esperimento non solo abbia violato i termini di servizio, ma abbia anche rappresentato un abuso etico nei confronti della community, trasformando gli utenti in cavie non consenzienti in un ambiente che dovrebbe promuovere autenticità e dibattito genuino.

La Posizione dell'Università di Zurigo e il Futuro della Ricerca

Anche l'Università di Zurigo è intervenuta sulla questione. L'ateneo ha comunicato a 404 Media di aver avviato un'indagine interna sulle metodologie utilizzate nell'esperimento. In attesa dei risultati di tale indagine, l'università ha dichiarato che i risultati della ricerca non saranno pubblicati. Sebbene parti dello studio siano ancora rintracciabili online, è fondamentale notare, come indicato anche nell'articolo originale che ha sollevato il caso, che il documento non è stato sottoposto a revisione paritaria (peer review) e dovrebbe quindi essere considerato con estrema cautela.

Secondo quanto affermato dai ricercatori nel loro paper non revisionato, i bot avrebbero utilizzato modelli linguistici avanzati come GPT-4o, Claude 3.5 Sonnet e Llama 3.1-405B per generare i loro commenti e tentare di influenzare gli utenti. Questo dettaglio evidenzia come l'evoluzione delle capacità degli LLM renda sempre più pressante la necessità di definire linee guida etiche chiare per il loro impiego, specialmente in contesti sociali online dove la disinformazione e la manipolazione possono avere conseguenze significative.

Implicazioni Etiche e Sfide per le Piattaforme

Questo episodio solleva interrogativi cruciali: quali sono i limiti etici della ricerca che coinvolge gli utenti online? È accettabile utilizzare l'inganno, seppur a fini scientifici, in un ambiente in cui le persone partecipano con l'aspettativa di interagire con altri esseri umani reali? L'esperimento di Zurigo, sebbene pensato per studiare la persuasività degli LLM, dimostra anche la vulnerabilità delle piattaforme online a questo tipo di infiltrazioni.

La capacità dei bot di integrarsi, ottenere credibilità (dimostrata dai 10.000+ karma) e partecipare attivamente alle discussioni sottolinea la crescente sfida per piattaforme come Reddit nel distinguere tra utenti autentici e agenti artificiali, soprattutto quando questi ultimi sono alimentati da IA sempre più sofisticate e in grado di generare testo coerente e contestualmente appropriato.

Mentre l'indagine dell'Università di Zurigo prosegue e Reddit valuta le sue opzioni legali, il caso rimane un potente monito sull'importanza della trasparenza nella ricerca e sulla necessità urgente di stabilire standard etici robusti per l'interazione tra intelligenza artificiale e comunità online.

Read more