Giudice Americano Sanziona Avvocati per Ricerca Legale 'Farlocca' Generata dall'Intelligenza Artificiale

Un recente caso giudiziario in California ha acceso un faro critico sull'uso dell'intelligenza artificiale nel settore legale, culminando in una severa sanzione imposta da un giudice a due studi legali. La vicenda solleva interrogativi fondamentali sull'affidabilità degli strumenti di AI generativa e sulla responsabilità professionale nell'era digitale.

Al centro della controversia vi è un documento supplementare presentato in un caso civile contro la State Farm. Secondo quanto emerso, il brief conteneva numerose citazioni e riferimenti a precedenti legali che, al momento della verifica da parte della corte, semplicemente non esistevano. Queste "falsità", come le ha definite il giudice Michael Wilner, sono state generate da uno strumento di intelligenza artificiale utilizzato da uno degli studi legali coinvolti per produrre un'outline del documento.

Il giudice Wilner ha raccontato di aver letto il brief e di essere rimasto "persuaso (o almeno incuriosito)" dalle autorità citate. Tuttavia, il tentativo di approfondire queste decisioni si è scontrato con una realtà sconcertante: le sentenze non risultavano in alcun database legale. Questo ha portato il giudice a commentare: "È spaventoso. Ha quasi portato all'esito ancora più spaventoso (dal mio punto di vista) di includere quei materiali fasulli in un ordine giudiziario".

La scoperta ha innescato un'indagine che ha rivelato l'uso non dichiarato di un'intelligenza artificiale. Pare che un rappresentante legale del querelante abbia utilizzato l'AI per generare una bozza iniziale, che è poi stata inviata a un altro studio legale, K&L Gates, il quale ha incorporato le informazioni inesatte nel brief finale. Nessun avvocato o membro dello staff di entrambi gli studi legali avrebbe, apparentemente, verificato l'accuratezza delle citazioni prima della presentazione.

Di fronte a tale negligenza e alla potenziale compromissione dell'integrità procedurale, il giudice Wilner non ha esitato a intervenire. Nella sua decisione, ha imposto sanzioni per un totale di 31.000 dollari a carico degli studi legali coinvolti. La motivazione è chiara e risuona come un monito per l'intera professione legale: "nessun avvocato ragionevolmente competente dovrebbe esternalizzare la ricerca e la redazione" all'intelligenza artificiale senza un'attenta verifica e supervisione umana.

Il caso, evidenziato tra gli altri dai professori di legge Eric Goldman e Blake Reid su Bluesky, sottolinea i rischi inerenti all'adozione acritica di nuove tecnologie, in particolare nel campo giuridico dove l'accuratezza e l'affidabilità delle fonti sono assolutamente cruciali. Mentre gli strumenti di AI offrono indubbiamente il potenziale per migliorare l'efficienza, questo episodio dimostra che non possono sostituire il giudizio professionale e il dovere di diligenza dell'avvocato.

La decisione del giudice Wilner stabilisce un precedente importante, ricordando agli operatori del diritto che la responsabilità finale per l'accuratezza dei documenti presentati in tribunale ricade sempre sugli avvocati. L'intelligenza artificiale può essere uno strumento di supporto, ma non una stampella cieca a cui affidarsi senza verificare. L'incidente serve da campanello d'allarme: l'innovazione tecnologica nel settore legale deve procedere di pari passo con rigorosi standard etici e professionali, garantendo che la ricerca legale sia sempre basata su fonti reali e verificabili, salvaguardando così l'integrità del sistema giudiziario.