L’intelligenza artificiale sta rivoluzionando anche il mondo della ricerca giuridica, ma come gestire i risultati generati in parte o interamente da questi strumenti? È una domanda che assume sempre maggiore rilevanza man mano che le capacità dell’AI evolvono rapidamente. Le modalità con cui utilizziamo l’assistenza dell’AI nella stesura di saggi e articoli accademici sono destinate a cambiare nel tempo, ma oggi è fondamentale affrontare il tema con consapevolezza.

Per questo motivo, ho deciso di condividere una riflessione su come presentare correttamente i risultati di ricerche giuridiche che includono contributi generati dall’AI. Lo farò in due articoli distinti: in questo primo testo, spiegherò perché ho deciso di avvalermi di questi strumenti per risolvere un problema di ricerca; nel prossimo, affronterò invece il tema di come utilizzare i risultati prodotti dall’AI e quali siano le implicazioni etiche e metodologiche.

Per contestualizzare la discussione, partiamo da un caso concreto. Alcuni anni fa, ho pubblicato un articolo sulla Harvard Law Review dal titolo Decryption Originalism: The Lessons of Burr, in cui analizzavo il significato originale del Quinto Emendamento e la sua possibile applicazione alla decrittazione di smartphone. L’articolo si basava su un documento storico straordinario: il resoconto stenografico del processo a Aaron Burr del 1807, redatto da un avvocato presente in aula, Mr. Robertson.

Robertson affermava di aver trascritto fedelmente ogni argomento, ogni fonte giuridica e persino tutte le citazioni secondarie presenti nel dibattimento. La sua ricostruzione dettagliata mi aveva permesso di analizzare come i giuristi dell’epoca interpretavano il privilegio contro l’autoincriminazione, offrendo spunti preziosi per comprendere la mentalità dei Padri Fondatori. L’articolo, pubblicato nel 2021, rappresentava quindi una ricostruzione accurata di un momento chiave della giurisprudenza americana.

Tuttavia, solo recentemente ho scoperto che esisteva un secondo resoconto stenografico, indipendente e altrettanto dettagliato, redatto da un altro avvocato presente al processo, Mr. Carpenter. Anche Carpenter affermava di aver trascritto integralmente il dibattimento, incluse le fonti giuridiche e le citazioni. Entrambi i resoconti erano stati pubblicati come libri poco dopo la conclusione del processo. Il resoconto di Robertson, però, era quello più noto e citato sia nelle ricostruzioni storiche del caso Burr sia nei precedenti giurisprudenziali del XIX secolo. Era quindi quello su cui avevo basato la mia ricerca.

La scoperta del resoconto di Carpenter ha sollevato un problema metodologico: come conciliare due versioni apparentemente identiche ma potenzialmente divergenti di uno stesso evento? Se Robertson e Carpenter affermavano entrambi di aver trascritto fedelmente il processo, quale delle due versioni era più attendibile? E soprattutto, come avrebbe dovuto influenzare la mia ricerca la consapevolezza che esistevano due resoconti diversi?

Questa situazione mi ha portato a riflettere sull’affidabilità delle fonti storiche e, più in generale, sulla necessità di verificare criticamente i dati utilizzati nella ricerca giuridica. L’intelligenza artificiale può essere uno strumento prezioso per analizzare grandi quantità di informazioni, ma non può sostituire il giudizio critico e la verifica umana. Nel prossimo articolo, affronterò il tema di come utilizzare i risultati generati dall’AI in modo responsabile, garantendo trasparenza e rigore metodologico.

Fonte: Reason