Sicurezza e Giustizia

GIUSTIZIA PREDITTIVA: ALGORITMI E DEEP LEARNING

Facebooktwitterredditpinterestlinkedinmail 6 ' di lettura

di Francesco Rundo, A. Luigi Di Stallo


Recenti statistiche hanno confermato che Il problema legato al cattivo funzionamento della giustizia in Italia, è tra i temi piu’ dibattuti, tanto da essere quotidianamente menzionato sulla stampa nazionale. La lungaggine dei processi sia in sede civile che penale è certamente, tra tutti, il problema che maggiormente penalizza (e paralizza) il sistema giuridico italiano. Numerose riforme di legge, negli anni passati, hanno tentato di ridurre questo “gap”, senza però produrre sostanziali miglioramenti nel timing dei tempi medi che oggi un cittadino deve attendere prima di vedere un procedimento giudiziario che lo riguarda, giungere a conclusione. Peraltro le (lunghissime) attese lungi dal ridursi si replicano invece nell’ambito di ciascun grado di giudizio! L’articolo che gli autori intendono proporre in questa sede si pone l’ambizioso quanto arduo obiettivo di ipotizzare una possibile soluzione per migliorare il sistema processuale italiano, nello specifico, la durata media di un procedimento giudiziario. Segnatamente, gli autori rappresenteranno i potenziali effetti sul sistema giustizia di un motore di Deep Learning (Intelligenza artificiale) addestrato ad analizzare il testo delle sentenze emesse da uno specifico Tribunale in riferimento ad un determinato argomento. Si anticipa sin d’ora che il motore algoritmico sarà – quale esito finale – in grado di fornire una stima predittiva ex-ante di probabile vittoria/soccombenza in giudizio, ogni qual volta un suo fruitore vorrà valutare preliminarmente l’esigenza di istruire una causa in un determinato foro ed in riferimento ad una specifica materia. In particolare, gli autori intendono illustrare – quale esempio qualificato – una applicazione pratica di questi motori algoritmici al settore del contenzioso bancario-finanziario.
pdf-icon

 

1. Introduzione

Da tempo si dibatte sul tema della “giustizia predittiva” tramite l’uso di algoritmi di Deep Learning o intelligenza artificiale. Per “giustizia predittiva” deve intendersi nell’accezione utilizzata dagli autori la possibilità di prevedere l’esito di un giudizio tramite algoritmi matematici, ovvero di prevedere le chance di soccombenza/vittoria relativa ad una specifica questione di fatto e/o di diritto controversa. In molti altri ambiti delle scienze l’utilizzo dell’intelligenza artificiale è già una realtà, dunque è corretto domandarsi se in ambito processuale la “giustizia predittiva”, alla luce delle nuove possibilità tecniche, possa ancora considerarsi una ipotesi futuristica, quanto piuttosto ad un argomento attuale. Punto fermo di ogni ragionamento sulla “giustizia predittiva” è certamente il principio del giusto processo (art.111 Cost. ; art. 6 CEDU) che applicato all’ambito di cui si discute, dovrebbe suggerire l’adozione di algoritmi che siano in grado di riprodurre autonomamente tutti gli elementi che contribuiscono a rendere un procedimento giudiziario equo e giusto, come ad esempio, l’indispensabile diritto al “contraddittorio”. La giurisprudenza italiana, in rare pronunce e seppur indirettamente, ha affrontato il problema dell’utilizzo dell’intelligenza artificiale nel processo giudiziario. Ci riferiamo alla nota sentenza del Consiglio di Stato (la prima si ritiene) che ha affrontato la questione del diritto di “accesso” delle parti interessate all’algoritmo (Consiglio di Stato, sez. VI, sentenza 8 aprile 2019, n. 2270). In estrema sintesi, i giudici hanno affermato che il collegio giudicante può indagare sulla “…correttezza del processo automatizzato in tutte le sue componenti”. Come anticipato in premessa, la questione dei “tempi della giustizia” è presenti nel dibattito politico/parlamentare, praticamente senza soluzione di continuità. Tutti concordano sulla inadeguatezza dei tempi di risposta rispetto alla domanda di giustizia, richiamando a vario titolo una pacifica violazione del richiamato articolo 111 della Costituzione e dell’articolo 6 Convenzione Europea dei Diritti dell’Uomo (CEDU). Un criterio oggettivo spesso utilizzato per misurare la lungaggine dei processi giudiziari in Italia (sia in ambito civile che penale ed amministrativo) è quello del tasso di resistenza/istruttoria riferito agli altri gradi di giudizio, rispetto al primo. Va detto tuttavia che nonostante la rilevata percentuale di conferma e/o di resistenza di una decisione nei successivi gradi di giudizio, molti procedimenti potrebbero essere del tutto evitati, con notevole beneficio per il sistema giudiziario, nell’ipotesi in cui si riuscisse ad avere a disposizione strumenti tecnici affidabili atti a rendere prevedibili le concrete chance di successo/soccombenza, ovvero nell’ipotesi di gravami di conferma o meno della sentenza.

In questo specifico quadro di riferimento va inquadrato ai nostri fini il concetto della “prevedibilità della sentenza”. Il sistema giudiziario italiano può contare su una rilevante quantità di banche dati giurisprudenziali. Si cita, a titolo di esempio, il Centro elettronico di documentazione (CED) della Corte Suprema di Cassazione che contiene archivi, mediante i quali è possibile effettuare un’ampia ed esaustiva ricerca, oltre che giurisprudenziale, anche legislativa e dottrinale. A questa si associano le numerose banche dati software che consentono di ottenere in formato elettronico, le sentenze emesse nelle corti di merito raggruppate per foro, per giudice, per settore, etc.. Dalla consultazione delle banche dati relative alla giurisprudenza di merito e di legittimità, sarà quindi possibile ricavare informazioni sui processi motivazionali/decisionali. Sarà inoltre possibile avere altre informazioni, ad esempio, sull’attività del singolo giudice, sul livello di resistenza e accoglimento dei relativi provvedimenti, più in generale sulla eventuale omogeneità/non omogeneità degli orientamenti giurisprudenziali del tribunale e/o di quella determinata sezione specializzata ed infine –tema centrale di questo articolo- dati per caratterizzare un modello algoritmico in grado di fornire all’utente elementi utili a valutare la probabilità di accoglimento della questione giudiziaria che si sta istruendo.

E’ indubbio, almeno in tesi, che la possibilità di avvalersi da parte degli operatori di giustizia (in primo luogo per gli avvocati) dell’ausilio di strumenti predittivi affidabili, può contribuire all’utilizzo/suggerimento di strategie alternative da consigliare agli utenti finali che alla giustizia intendono rivolgersi, con un potenziale effetto positivo sull’economia processuale dell’intero sistema giudiziario. A livello europeo, altre nazioni si stanno già adoperando nel settore della “giustizia predittiva”. Ad esempio, in Francia è stata creata la piattaforma Predictice, la quale consente di stimare il probabile esito giudiziario di un contenzioso [1]. Il relativo modello statistico-inferenziale è incentrato su una base-dati costituita da sentenze ottenute in diversi gradi di giudizio. In altri paesi si parla addirittura del c.d. “giudice robot” in grado di velocizzare, uniformare e automatizzare le decisioni giudiziarie in ambito civile. In Italia, alla luce del riferito contesto, appare utile ipotizzare la progettazione ed implementazione di una “piattaforma intelligente” che , in piena armonia con i principi etico-normativi richiamati, sia in grado di suggerire al cittadino che intende istruire un procedimento giudiziario, piuttosto che all’avvocato, se possa o meno risultare utile dirimere una determinata questione mediante ricorso al processo. A tal fine gli autori propongono l’utilizzo una pipeline di c.d. text-processing and mining, basata su un motore NLP (Natural Language Processing), implementato con dei sistemi basati su Deep Learning, precisamente mediante reti LSTM (Long Short Term Memory) con un layer neuronale di classificazione [2]-[3]. Il sistema proposto, partendo dall’analisi automatica del testo delle sentenze emesse da un determinato foro e in riferimento ad una specifica tematica, classificherà opportunamente l’esito della sentenza, generando una percentuale di soccombenza in relazione alle questioni oggetto della domanda giudiziaria.

2. Il sistema NLP per l’analisi automatica delle sentenza e la stima del rischio soccombenza

Generalizzando il concetto (non distingueremo per semplificare tra giudizio di merito e di legittimità), una sentenza può dirsi costituita da un testo contenente il personale convincimento del giudice/collegio giudicante in relazione all’oggetto del contendere, quest’ultimo basato sulla narrazione (e contestuale produzione di prove) dei fatti ad opera delle parti e sulla esposizione delle questioni di diritto richiamate. In tale contesto, un sistema di giustizia predittiva dovrà basarsi sull’analisi semantica del testo di numerose sentenze, opportunamente classificate per argomento e giudice/foro, cercando di estrarre le informazioni che caratterizzano il convincimento del/dei giudicanti sulla questione di fatto e/o di diritto trattata e, da questa base informativa, dovrà essere in grado di stimare le probabilità di soccombenza/vittoria in riferimento ad una specifica domanda che si intende (eventualmente) incardinare in quel determinato foro. Dunque, ai fini dell’analisi, oltre alla predisposizione di un algoritmo, risulta fondamentale la scelta di un data-set che sia statisticamente significativo. Per tale scopo, nell’ambito del deep learning sono stati studiati I c.d. “motori NLP”. Si tenterà ora di rappresentare sinteticamente l’iter logico-analitico che seguono questi algoritmi e poi il data-set di riferimento, utile a proporre la pipeline di giustizia predittiva ivi descritta. I dati di un qualsiasi testo, sono naturalmente sequenziali. Un testo può essere rappresentato come una sequenza di parole, che potrebbero avere o meno una dipendenza. Per rilevare le (eventuali) dipendenze presenti in un testo e per classificare i dati testuali in sequenza, si propone l’utilizzo di reti LSTM, che avendo una struttura neurale ricorrente, sono in grado di apprendere dipendenze a lungo termine.

Preliminarmente, sarà eseguita una conversione dei dati di testo in sequenze numeriche [3]. È possibile ottenere ciò utilizzando una codifica (encoding) di parole che associano le frasi a sequenze di indici numerici opportunamente determinati. Per risultati migliori, è necessario creare un “dizionario” di vettori numerici, anziché di indici scalari al fine di apprendere dettagli semantici delle parole, in modo tale da generare vettori numerici simili per testi che hanno parole differenti ma significati simili. Per mostrare “le abilità” del metodo proposto, abbiamo eseguito dei test analizzando il testo di sentenze emesse da alcuni tribunali del territorio nazionale, che per ragioni di ovvia riservatezza, non saranno palesate nel presente documento. Gli autori hanno analizzato sentenze di primo grado, riferite alla materia del contenzioso bancario. Nello specifico, trattasi di sentenze riferite a contratti bancari (conti correnti, mutui ipotecari e fondiari, prestiti chirografari, aperture di credito in conto corrente, etc…). Per questo genere di contenziosi, i profili giuridici posti alla base della domanda sono prevalentemente i seguenti:

Anatocismo. Detta pratica implica, in estrema sintesi per la sua verifica, il calcolo dell’ammontare degli interessi via via maturati su un montante composto dal capitale prestato e dagli interessi già pagati sino a quel momento. In ambito finanziario, ciò si traduce nell’applicare un regime di interesse composto che è regolamentato da precise norme di legge (art. 1283 c.c. ; D.lgvo 385/93 (Testo Unico Bancario) e dalla delibera CICR del 09.02.2000 s.m.i. oltre che dalle direttive emesse dall’organo di vigilanza (Banca di Italia) agli intermediari bancari e finanziari). Ebbene, sul tale tema, esistono moltissime pronunce fortemente discordanti;
Determinatezza e determinabilità delle clausole contrattuali in un contratto bancario. La legge prescrive precise norme circa l’univoca e uniforme determinatezza /determinabilità dei parametri che caratterizzano i contratti bancari onerosi (si veda ad esempio l’ex art. 1284, 1346 c.c.; ex art. 117 comma 4-6 TUB in relazione al tasso di interesse). Su questo tema, esistono numerose pronunce giudiziarie divergenti delle varie corti di merito ingenerando, anche in questo caso, una forte disomogeneità;
Usura bancaria. Su questo tema, probabilmente, si concentra la maggior parte del dibattito giuridico italiano relativo al contenzioso bancario con sentenze spesso in aperto contrasto , generando ulteriore confusione in un quadro già particolarmente “caotico”. La normativa di riferimento è, almeno in apparenza, piuttosto chiara (L. 108/96 ; L. 24/2011; ex art. 1815 c.c.; ex art. 644 cp) mentre l’esecuzione analitica del calcolo del tasso di interesse complessivo del rapporto bancario da raffrontare con il tasso massimo consentito dalla legge è – sovente- oggetto di dibattiti (anche piuttosto animati) tra tecnici, matematici ed economisti specificamente, ad esempio, agli oneri finanziari da includere o meno nel calcolo del tasso, sul modello da adottare, sulla modalita’ di risoluzione analitica del modello matematico, etc…
Derivati impliciti. Anche su questo tema, sebbene con minor intensità, vige un discreto dibattito giurisprudenziale. Nello specifico, si dibatte se configurare o meno come “derivato implicito” la presenza o meno di certe clausole sui contratti bancari (clausole CAP, FLOOR etc..).

Ebbene, per ciascuno dei profili sopra citati, prima di istruire un contenzioso bancario in un determinato foro, potrebbe essere valutata l’opportunità di comprendere in anticipo quali sono le chance di vittoria (e dunque di soccombenza), determinabili dallo studio delle precedenti pronunce emesse dal foro di riferimento, sui medesimi profili. La figura che segue mostra la pipeline proposta nel presente contributo:

SeG_III_MMXIX_RUNDO

 

Le seguenti equazioni caratterizzano la singola cella della rete LSTM utilizzata nel nostro motore NLP:


Gli autori propongono l’adozione del framework software/hardware STM32 con supporto AI [4] per la realizzazione di un sistema embedded portatile in dotazione ad ogni operatore di settore, tale da consentire in ogni momento di accedere alle banche dati giuridiche e di analizzare, in tempi ridotti, l’orientamento di un determinato giudice/tribunale su un determinato argomento. Per l’apprendimento del sistema, gli autori hanno selezionato alcuni dei fori dove statisticamente si istruiscono più contenziosi nel settore bancario e finanziario. Sono state recuperate le sentenze mediante una banca dati (GiustUp) [5]. Per ciascun tribunale, si sono esaminate le principali sentenze emesse negli ultimi anni ed in relazione al settore bancario. Circa il 70 % di queste sono state usate per il Learning del sistema, mentre il restante 30 % per la validazione. Ebbene, con una accuratezza media del 91,25 % circa, la pipeline prodotta è stata in grado di definire correttamente le chance di soccombenza per ciascuna pretesa avanzata in via giudiziaria.

3. Conclusioni

La pipeline algoritimica descritta nel presente lavoro dimostra le potenzialità derivanti dall’applicazione del deep learning nell’ambito delle scienze giuridiche e, segnatamente nel fornire soluzioni utili a prevedere gli esiti giudiziari e dunque in generale potenzialmente in grado di migliorare il sistema giudiziario nazionale. Tuttavia, il tema della giustizia predittiva richiede certamente ulteriori approfondimenti, sia in relazione alle questioni etico-normative che in riferimento alle questioni tecnico-implementative. ©

 

BIBLIOGRAFIA
1 https://predictice.com/
2 Sepp Hochreiter; Jürgen Schmidhuber (1997). “Long short-term memory”. Neural Computation. 9 (8): 1735–1780.
3 Graves, A.; Liwicki, M.; Fernandez, S.; Bertolami, R.; Bunke, H.; Schmidhuber, J. (2009). “A Novel Connectionist System for Improved Unconstrained Handwriting Recognition” (PDF). IEEE Transactions PAMI. 31 (5): 855–868. CiteSeerX 10.1.1.139.4502.
4 https://www.st.com/content/st_com/en/about/innovation—technology/artificial-intelligence.html
5 http://www.giustup.it/

 

 

 


Altri articoli di Francesco Rundo

DEEP LEARNING E TEORIA DEI GIOCHI: UN FRAMEWORK INTERDISCIPLINARE INNOVATIVO PER LA SOLUZIONE OTTIMALE DELLE CONTROVERSIE NEL SETTORE DEL DIRITTO DEL LAVORO
di Francesco Rundo, A. Luigi Di Stallo, Francesco Andronico (N. II_MMXIX)
Un nutrito numero di controversie giudiziali e stragiudiziali, che investono a vario titolo le sezioni specializzate dei tribunali italiani, è alimentato da contestazioni relative ai criteri di inquadramento professionale dei dipendenti. Troviamo spesso contrapposte: i) richieste (legittime o meno) del lavoratore; ii) richieste dei sindacati; iii) criteri stabiliti dall’eventuale contratto collettivo di categoria; iiii) limiti imposti dalla normativa vigente; iiiii) e last but not least, gli interessi aziendali di cui è portatore il datore di lavoro. Ovviamente ciascuna parte tende a massimizzare il proprio obiettivo rendendo spesso difficile – per non dire impossibile – l’individuzione di un punto di equilibrio. Gli autori nel presente contributo, descriveranno il funzionamento di un algoritmo innovativo di deep learning e Teoria dei Giochi, che ha permesso la soluzione di una problematica critica analoga a quella sopra descritta. In particolare, gli autori riporteranno gli esiti di un caso-studio dove risulta essere stato applicato con successo un algoritmo di deep learning ed una strategia di Teoria dei Giochi, per la ricerca di una soluzione univoca ed oggettiva nella risoluzione di una potenziale controversia relativa alla gestione di tematiche inerenti l’inquadramento dei lavoratori in una società per azioni. Anticipiamo sin d’ora che l’algoritmo realizzato è stato in grado di proporre alle parti coinvolte una soluzione di equilibrio, in tesi omogeneamente condivisibile, dimostrando concretamente come anche nel settore del Diritto del Lavoro, l’intelligenza artificiale può essere considerata un valido ausilio.
iPREDMED: UN FRAMEWORK DI INTELLIGENZA ARTIFICIALE E RADIOMICS PER LA CORRETTA VALUTAZIONE DELLA RESPONSABILITA’ MEDICO-LEGALE
di Francesco Rundo, Rosalba Parenti, Giovanna Calabrese, A. Luigi Di Stallo e Sabrina Conoci (N. I_MMXIX)
Nel 2017 è entrata in vigore la Legge 24/2017, meglio nota come legge Gelli-Bianco, recante “Disposizioni in materia di sicurezza delle cure e della persona assistita, nonché in materia di responsabilità professionale degli esercenti le professioni sanitarie”. Senza alcuna pretesa di completezza giuridica, atteso il carattere prettamente tecnico scientifico del presente contributo, va sinteticamente premesso che la legge in commento affronta l’annosa e spinosa questione della regolamentazione delle questioni attinenti la responsabilità professionale degli operatori del settore medico-sanitario, nel tentativo di fornire strumenti di valutazione oggettiva dell’operato del professionista. Di specifico rilievo all’interno del nuovo contesto normativo i concetti di “Linee guida” e “Buone Pratiche”, da adottare da parte degli operatori sanitari, allo scopo di documentare la correttezza del proprio operato. Nel riferito contesto, gli autori propongono l’utilizzo di un innovativo sistema predittivo, denominato iPredMed, che si pone l’obiettivo di coniugare le potenzialità delle nuove tecniche di Radiomics e di Intelligenza Artificiale, ai nuovi strumenti legislativi forniti dalla recente riforma normativa.
CORPORATE ALERT-ADVISOR SYSTEM (ICAS): UN NUOVO PARADIGMA TECNOLOGICO PER LA VALUTAZIONE DEL RISCHIO DI IMPRESA
di Francesco Rundo e A. Luigi Di Stallo (N. IV_MMXVIII)
Il presente articolo esamina le possibili interazioni tra il sistema di Alert introdotto dalla recente riforma della crisi di impresa e l’applicazione di sistemi basati sulla c.d. Intelligenza Artificiale, con particolare riferimento agli strumenti intesi a potenziare le performance del modello predittivo estimativo del rischio di insolvenza delle imprese italiane. Con un approccio squisitamente ibrido scientifico-giuridico, viene descritta nel presente contributo la pipeline iCorporate Alert-advisor System (iCAS), sviluppata interamente dagli autori. iCAS è essenzialmente un prototipo di sistema cui affidare la valutazione del rischio di impresa ovvero la predisposizione di sistemi correttivi idonei al recovery del rischio, finalità target della recente riforma della crisi di impresa e dell’insolvenza.
LAWTECH: UN NUOVO PARADIGMA PER IL SETTORE LEGALE
di Francesco Rundo, Sabrina Conoci e A. Luigi Di Stallo (N. III_MMXVIII)
Il termine “LawTech” è oggi sinonimo di una vera e propria rivoluzione tecnologica in atto nel settore legale-forense, a causa del tentativo di progressivo utilizzo delle nuove metodologie di Intelligenza Artificiale (Machine Learning e/o Deep Learning) nell’ambito delle attività giuridiche. Con il termine “LawTech” gli autori intendono riferirsi, pertanto, alle applicazioni pratiche derivanti dall’integrazione multi-disciplinare tra diritto e matematica, tra diritto ed informatica, tra norme e metodologie innovative di Intelligenza Artificiale(IA). Infatti, proprio grazie a nuovi investimenti di ricerca e sviluppo nell’area “LawTech” si sta sempre piu’ delineando, tra molteplici ostacoli culturali, tecnici e normativi, questo nuovo “paradigma” del settore legale-forense, e disegnando un futuro che lascia intravedere, come mai prima d’ora, una stretta integrazione tra materie giuridiche e scientifiche. Il presente contributo si articola in due parti. La prima parte illustra l’attuale panorama nazionale del “LawTech”. La seconda parte è dedicata all’analisi dei vantaggi e svantaggi del “LawTech”, con la descrizione di un caso-studio elaborato dagli scriventi quale esempio di applicazione delle nuove metodologie.
FINANCIAL DEEP LEARNING SYSTEM: UNA METODOLOGIA INNOVATIVA PER L’INDAGINE BANCARIA E FINANZIARIA
di Francesco Rundo e A. Luigi Di Stallo (N. II_MMXVIII)
Le recenti notizie provenienti dal settore bancario e finanziario insieme alle ricorrenti perplessità in merito all’utilizzo poco accorto degli strumenti derivati ad opera di enti pubblici, confermano al di là di ogni dubbio, che gli operatori professionali operanti nel settore bancario e finanziario devono necessariamente dotarsi di una metodologia di indagine bancaria e finanziaria capace di segnalare tempestivamente degli “alert(s)” alle istituzioni preposte alla vigilanza del sistema finanziario nazionale. Una metodologia efficiente ed accurata di analisi prospettica degli strumenti finanziari, può certamente contribuire alla definizione di una valida politica di risk management in ambito bancario e finanziario. In tale contesto, gli autori propongono una innovativa metodologia di indagine bancaria e finanziaria basata su algoritmi di Deep Learning.
ANALISI VIBRAZIONALE AVANZATA (AVA): UN ALGORITMO INNOVATIVO PER L’ESECUZIONE DI INTERCETTAZIONI AMBIENTALI
di Francesco Rundo, Sebastiano Battiato, Sabrina Conoci e A. Luigi Di Stallo (N. I_MMXVIII)
Decreto legislativo 29 dicembre 2017, n. 216. Con decorrenza Gennaio 2018, entra in vigore la riforma della disciplina delle intercettazioni attuata con il decreto legislativo 29 dicembre 2017, n. 216: “Disposizioni in materia di intercettazioni di conversazioni o comunicazioni, in attuazione della delega di cui all’articolo 1, commi 82, 83 e 84, lettere a), b), c), d) ed e), della legge 23 giugno 2017, n. 103”. La riforma rafforza il ruolo delle intercettazioni come indispensabile strumento di indagine ed investigazione forense. Nell’ambito di questa riforma, gli autori intendono illustrare nel presente articolo, una innovativa pipeline di elaborazione dati che consente, sotto opportune ipotesi, la ricostruzione delle conversazioni tra due o piu’ soggetti, dal solo filmato video (a risoluzione e frame-rate tipici di uno dispositivo di acquisizione video di ultima generazione) senza avere accesso alla relativa traccia audio associata.
PROPOSTA DI UNA PIATTAFORMA AVANZATA PER IL MONITORAGGIO E LA STIMA PROSPETTICA DI INQUINAMENTO NEI CENTRI URBANI
di Francesco Rundo e Sabrina Conoci (N. IV_MMXVII)
Negli ultimi anni, il problema dell’inquinamento ambientale ha avuto un ruolo sempre piu’ da protagonista nella “scena sociale”, in quanto rappresenta un fattore di degrado per l’ambiente e di serio pericolo per la salute dei cittadini. Con pochissime eccezioni dovute alle rarissime cause di inquinamento naturale, ad inquinare l’ambiente è prevalentemente l’azione colposa e talvolta dolosa dell’uomo e della criminalità organizzata, talvolta nota come “ecomafia”. I processi industriali, il traffico dei rifiuti, le centrali per la produzione di energia elettrica basata sull’uso di carbone o di petrolio, le raffinerie petrolifere, la lavorazione della plastica e dei derivati, l’utilizzo di fertilizzanti chimici, la produzione di scorie nucleari, oltre al traffico stradale e al riscaldamento globale, sono le principali fonti di inquinamento ambientale. Gli autori, nel presente contributo, descriveranno una piattaforma avanzata per il monitoraggio dei livelli di inquinamento prodotto dai suddetti fattori e per la contemporanea stima prospettica delle concentrazioni delle sostanze inquinanti monitorate, al fine di prevenirne il debordo dei limiti di legge. La piattaforma proposta, integrando informazioni visive e di motion, permettera’ attraverso algoritimi “intelligenti” in esecuzione in potenti microcontrollori, di identificare le possibili cause dell’inquinamento rilevato (o prospettico) trasmettendo tali dati alle autorita’ competenti per le opportune azioni di contenimento.
TECNOLOGIA “BLOCKCHAIN”: DAGLI SMART CONTRACTS ALLO SMART DRIVING
di Francesco Rundo e Sabrina Conoci (N. III_MMXVII)
La rivoluzione digitale ha cambiato radicalmente la società moderna introducendo nuovi ed efficienti paradigmi che si pongono l’obiettivo di migliorare sensibilmente lo stile di vita delle persone sia in ambito sociale che lavorativo. In tale contesto sta riscuotendo grande interesse, dal punto di vista industriale e giuridico, una nuova piattaforma digitale denominata “blockchain” e le cui potenzialità innovative si stanno estendendo progressivamente, partendo dalle originarie applicazioni alle criptovalute (blockchain è il sottostante informatico della famosa criptovaluta digitale “Bitcoin”) estendosi sino ad applicazioni in ambito legale con specifico riferimento al diritto contrattuale (c.d. smart contracts) al diritto bancario, finanziario, assicurativo ed informatico ovvero alle applicazioni in ambito industriale con riferimento al settore dell’Internet of Things (IoT) oppure al settore dell’Automotive (dalla guida autonoma, all’auto iper-connessa, al programma smart driving).
DECRETO “SICUREZZA DELLE CITTÀ”: UN ESEMPIO CONCRETO DI SICUREZZA INTEGRATA DEI CENTRI URBANI
di Francesco Rundo, Sabrina Conoci , Salvatore Petralia (N. II_MMXVII)
Illustrazione di un sistema di riconoscimento automatico dell’attenzione e della sobrietà del guidatore basato su sistemi integrati di sensori ed analisi dati, che hanno la capacità di comprendere automaticamente lo stato di attenzione di chi guida ed il suo livello di sobrietà (rispetto all’abuso di sostanze alcoliche e/o stupefacenti), in possibile dotazione agli autoveicoli di ultima generazione o estendibili alle auto più datate.
SISTEMI “POINT OF CARE” PER LE INDAGINI GENETICHE IN AMBITO FORENSE
di Sabrina Conoci , Salvatore Petralia, Francesco Rundo, Sebastiano Battiato (N. I_MMXVII)
Un’attenta disamina dei processi penali più recenti (alcuni dei quali divenuti “mediatici”) ha evidenziato il ruolo dirompente dell’analisi genetica e bio-molecolare nelle indagini investigative eseguite dagli inquirenti. Quando viene richiesta la repertazione di campioni biologici, le procedure adottate per il campionamento e successiva analisi delle tracce, devono rispettare standard di altissimo rigore scientifico grazie ai quali è poi possibile garantire l’accuratezza, la ripetibilità e l’assenza di contaminazione dovuta ad una non conforme procedura di repertazione o ad una errata catena di custodia del reperto. Nell’articolo che segue, gli autori illustreranno le potenzialità dei sistemi c.d. “Point of Care”(PoC) genetici” sia in riferimento all’indagine genetica in ambito forense che, in generale, come strumento per l’analisi in loco di reperti biologici rinvenuti nella scena di un crimine. Il “PoC genetico” può essere definito come sistema in grado di eseguire il processo diagnostico sample-in-answer-out senza intervento di un complesso laboratorio analitico. Esso è costituito in concreto dalla combinazione tra un sistema di detezione per il riconoscimento della composizione genetica e bio-molecolare del campione, da un sistema di trasduzione ottica od elettrica del segnale e da un sistema di post-processing dei dati, che si avvale di algortimi di interpretazione “immediata” delle rilevazioni acquisite, le quali produrrano in concreto report sulla profilazione del DNA campionato.
ANALISI GIURIMETRICA DEI CONTRATTI BANCARI: PROFILI DI ILLEGITTIMITÀ IN AMBITO CIVILE E PENALE
di Francesco Rundo e Stefano Maugeri (N. III_MMXVI)
La «Giurimetria», termine recentemente ripreso in ambito giuridico, nella sua originaria formulazione (Lee Loevinger, 1949) prevedeva l’applicazione dell’informatica e degli elaboratori elettronici al diritto. Nel tempo, alcuni studiosi (Hans Baade, 1960) hanno esteso ulteriormente il campo di applicazione di questa scienza, prevedendo, tra l’altro, l’utilizzo di modelli logico-matematici per dirimere contenziosi e questioni proprie di diritto nonchè, l’implementazione di sofisticati modelli statistici per la previsione del più probabile esito di una sentenza. Nel settore bancario e finanziario, attraverso l’analisi giurimetrica è possibile caratterizzare un rapporto bancario o uno strumento finanziario, valutandone l’effettiva evoluzione temporale, giusta la quale è successivamente esperibile una verifica di compatibilità normativa. Il presente articolo presenterà una overview dei vantaggi che l’analisi giurimetrica comporta nei contenziosi tecnici di natura bancaria e finanziaria.
MEDICAL IMAGE ENHANCEMENT NEI PROCEDIMENTI GIUDIZIARI MEDICO-LEGALI IN AMBITO ONCOLOGICO
di Francesco Rundo, Edoardo Tusa, Sebastiano Battiato (N. I_MMXVI)
La professione medica e sanitaria riveste un ruolo cruciale nel tessuto sociale ed economico del nostro Paese, attese peraltro le numerose vicende giudiziarie che hanno costretto, non da ultimo, il legislatore ad innovare nuovamente il quadro normativo che regolamenta e disciplina le azioni giudiziarie per errore medico. In questo quadro piuttosto complesso in cui si contrappongono gli interessi dei pazienti a quelli della professione medico-sanitaria è certamente attuale la figura del consulente tecnico (sia di parte che d’ufficio) che nei contenziosi medico-legali ha l’arduo compito di valutare con giudizio e rigore scientifico l’operato del professionista medico chiamato a rispondere del proprio operato. L’obiettivo del consulente tecnico è, dunque, quello di indirizzare opportunamente l’adito giudicante al fine di discriminare con ragionevole certezza l’errore volontario, doloso o colposo commesso dal professionista per imperizia, negligenza, superficialità ovvero per mancata adesione alle linee guida adottate dalla comunita scientifica, dagli scenari in cui nonostante il risultato avverso per il paziente questo non sia imputabile al professionista medico che ha , dunque, esercitato la sua professione al meglio delle proprie possibilità difettando, in concreto, il c.d. nesso eziologico. Nell’articolo proposto si mostreranno, attraverso la presentazione di un caso-studio in ambito oncologico, gli enormi vantaggi che la costituzione di un team di consulenza multi-disciplinare composto oltre che da medici, anche da ingegneri e matematici, può apportare nei contenziosi medico-legali sia in ambito civile che penale. Nello specifico, il team multi-disciplinare costituito dagli autori (medico-legale, ingegnere, informatico, matematico) attraverso un’analisi rigorosa delle immagini mediche riferite al caso presentato, messe peraltro in relazione con le linee guida adottate dalla comunita medica, ha sensibilmente elevato il livello di accuratezza scientifica della valutazione medico-legale del caso esaminato con l’ovvia conseguenza in relazione al peso probatorio che una tale analisi avrà in sede giudiziaria qualora il paziente decida di adire le vie legali.

Altri articoli di A. Luigi Di Stallo

DEEP LEARNING E TEORIA DEI GIOCHI: UN FRAMEWORK INTERDISCIPLINARE INNOVATIVO PER LA SOLUZIONE OTTIMALE DELLE CONTROVERSIE NEL SETTORE DEL DIRITTO DEL LAVORO
di Francesco Rundo, A. Luigi Di Stallo, Francesco Andronico (N. II_MMXIX)
Un nutrito numero di controversie giudiziali e stragiudiziali, che investono a vario titolo le sezioni specializzate dei tribunali italiani, è alimentato da contestazioni relative ai criteri di inquadramento professionale dei dipendenti. Troviamo spesso contrapposte: i) richieste (legittime o meno) del lavoratore; ii) richieste dei sindacati; iii) criteri stabiliti dall’eventuale contratto collettivo di categoria; iiii) limiti imposti dalla normativa vigente; iiiii) e last but not least, gli interessi aziendali di cui è portatore il datore di lavoro. Ovviamente ciascuna parte tende a massimizzare il proprio obiettivo rendendo spesso difficile – per non dire impossibile – l’individuzione di un punto di equilibrio. Gli autori nel presente contributo, descriveranno il funzionamento di un algoritmo innovativo di deep learning e Teoria dei Giochi, che ha permesso la soluzione di una problematica critica analoga a quella sopra descritta. In particolare, gli autori riporteranno gli esiti di un caso-studio dove risulta essere stato applicato con successo un algoritmo di deep learning ed una strategia di Teoria dei Giochi, per la ricerca di una soluzione univoca ed oggettiva nella risoluzione di una potenziale controversia relativa alla gestione di tematiche inerenti l’inquadramento dei lavoratori in una società per azioni. Anticipiamo sin d’ora che l’algoritmo realizzato è stato in grado di proporre alle parti coinvolte una soluzione di equilibrio, in tesi omogeneamente condivisibile, dimostrando concretamente come anche nel settore del Diritto del Lavoro, l’intelligenza artificiale può essere considerata un valido ausilio.
iPREDMED: UN FRAMEWORK DI INTELLIGENZA ARTIFICIALE E RADIOMICS PER LA CORRETTA VALUTAZIONE DELLA RESPONSABILITA’ MEDICO-LEGALE
di Francesco Rundo, Rosalba Parenti, Giovanna Calabrese, A. Luigi Di Stallo e Sabrina Conoci (N. I_MMXIX)
Nel 2017 è entrata in vigore la Legge 24/2017, meglio nota come legge Gelli-Bianco, recante “Disposizioni in materia di sicurezza delle cure e della persona assistita, nonché in materia di responsabilità professionale degli esercenti le professioni sanitarie”. Senza alcuna pretesa di completezza giuridica, atteso il carattere prettamente tecnico scientifico del presente contributo, va sinteticamente premesso che la legge in commento affronta l’annosa e spinosa questione della regolamentazione delle questioni attinenti la responsabilità professionale degli operatori del settore medico-sanitario, nel tentativo di fornire strumenti di valutazione oggettiva dell’operato del professionista. Di specifico rilievo all’interno del nuovo contesto normativo i concetti di “Linee guida” e “Buone Pratiche”, da adottare da parte degli operatori sanitari, allo scopo di documentare la correttezza del proprio operato. Nel riferito contesto, gli autori propongono l’utilizzo di un innovativo sistema predittivo, denominato iPredMed, che si pone l’obiettivo di coniugare le potenzialità delle nuove tecniche di Radiomics e di Intelligenza Artificiale, ai nuovi strumenti legislativi forniti dalla recente riforma normativa.
CORPORATE ALERT-ADVISOR SYSTEM (ICAS): UN NUOVO PARADIGMA TECNOLOGICO PER LA VALUTAZIONE DEL RISCHIO DI IMPRESA
di Francesco Rundo e A. Luigi Di Stallo (N. IV_MMXVIII)
Il presente articolo esamina le possibili interazioni tra il sistema di Alert introdotto dalla recente riforma della crisi di impresa e l’applicazione di sistemi basati sulla c.d. Intelligenza Artificiale, con particolare riferimento agli strumenti intesi a potenziare le performance del modello predittivo estimativo del rischio di insolvenza delle imprese italiane. Con un approccio squisitamente ibrido scientifico-giuridico, viene descritta nel presente contributo la pipeline iCorporate Alert-advisor System (iCAS), sviluppata interamente dagli autori. iCAS è essenzialmente un prototipo di sistema cui affidare la valutazione del rischio di impresa ovvero la predisposizione di sistemi correttivi idonei al recovery del rischio, finalità target della recente riforma della crisi di impresa e dell’insolvenza.
LAWTECH: UN NUOVO PARADIGMA PER IL SETTORE LEGALE
di Francesco Rundo, Sabrina Conoci e A. Luigi Di Stallo (N. III_MMXVIII)
Il termine “LawTech” è oggi sinonimo di una vera e propria rivoluzione tecnologica in atto nel settore legale-forense, a causa del tentativo di progressivo utilizzo delle nuove metodologie di Intelligenza Artificiale (Machine Learning e/o Deep Learning) nell’ambito delle attività giuridiche. Con il termine “LawTech” gli autori intendono riferirsi, pertanto, alle applicazioni pratiche derivanti dall’integrazione multi-disciplinare tra diritto e matematica, tra diritto ed informatica, tra norme e metodologie innovative di Intelligenza Artificiale(IA). Infatti, proprio grazie a nuovi investimenti di ricerca e sviluppo nell’area “LawTech” si sta sempre piu’ delineando, tra molteplici ostacoli culturali, tecnici e normativi, questo nuovo “paradigma” del settore legale-forense, e disegnando un futuro che lascia intravedere, come mai prima d’ora, una stretta integrazione tra materie giuridiche e scientifiche. Il presente contributo si articola in due parti. La prima parte illustra l’attuale panorama nazionale del “LawTech”. La seconda parte è dedicata all’analisi dei vantaggi e svantaggi del “LawTech”, con la descrizione di un caso-studio elaborato dagli scriventi quale esempio di applicazione delle nuove metodologie.
FINANCIAL DEEP LEARNING SYSTEM: UNA METODOLOGIA INNOVATIVA PER L’INDAGINE BANCARIA E FINANZIARIA
di Francesco Rundo e A. Luigi Di Stallo (N. II_MMXVIII)
Le recenti notizie provenienti dal settore bancario e finanziario insieme alle ricorrenti perplessità in merito all’utilizzo poco accorto degli strumenti derivati ad opera di enti pubblici, confermano al di là di ogni dubbio, che gli operatori professionali operanti nel settore bancario e finanziario devono necessariamente dotarsi di una metodologia di indagine bancaria e finanziaria capace di segnalare tempestivamente degli “alert(s)” alle istituzioni preposte alla vigilanza del sistema finanziario nazionale. Una metodologia efficiente ed accurata di analisi prospettica degli strumenti finanziari, può certamente contribuire alla definizione di una valida politica di risk management in ambito bancario e finanziario. In tale contesto, gli autori propongono una innovativa metodologia di indagine bancaria e finanziaria basata su algoritmi di Deep Learning.
ANALISI VIBRAZIONALE AVANZATA (AVA): UN ALGORITMO INNOVATIVO PER L’ESECUZIONE DI INTERCETTAZIONI AMBIENTALI
di Francesco Rundo, Sebastiano Battiato, Sabrina Conoci e A. Luigi Di Stallo (N. I_MMXVIII)
Decreto legislativo 29 dicembre 2017, n. 216. Con decorrenza Gennaio 2018, entra in vigore la riforma della disciplina delle intercettazioni attuata con il decreto legislativo 29 dicembre 2017, n. 216: “Disposizioni in materia di intercettazioni di conversazioni o comunicazioni, in attuazione della delega di cui all’articolo 1, commi 82, 83 e 84, lettere a), b), c), d) ed e), della legge 23 giugno 2017, n. 103”. La riforma rafforza il ruolo delle intercettazioni come indispensabile strumento di indagine ed investigazione forense. Nell’ambito di questa riforma, gli autori intendono illustrare nel presente articolo, una innovativa pipeline di elaborazione dati che consente, sotto opportune ipotesi, la ricostruzione delle conversazioni tra due o piu’ soggetti, dal solo filmato video (a risoluzione e frame-rate tipici di uno dispositivo di acquisizione video di ultima generazione) senza avere accesso alla relativa traccia audio associata.