ArticlesDavide DottoriDiritto InternetII_MMXXV

Governance dell’IA: cenni ai profili di responsabilità e sfide normative

di Davide Dottori

L’articolo intende esaminare le problematiche emergenti nella governance dell’intelligenza artificiale, con particolare attenzione alle responsabilità civili e penali derivanti dall’utilizzo di sistemi di IA, in considerazione del cosiddetto “accountability gap”, ovvero del divario tra la crescente autonomia operativa dei sistemi intelligenti e l’idoneità delle tradizionali categorie di imputazione soggettiva – colpa, dolo, preterintenzione – a regolare fenomeni tecnologicamente decentrati, dove l’agente causale non è umano.
Da qui muove l’urgenza di definire giuridicamente i confini tra autonomia della macchina e responsabilità umana, nonché di individuare un’architettura normativa, sia nazionale che sovranazionale, idonea a presidiare i principi dello Stato di diritto.


1.Premessa

L’avvento dell’intelligenza artificiale nella realtà contemporanea rappresenta indiscutibilmente una delle sfide più complesse di questo tempo. Non si tratta soltanto di un’innovazione tecnologica in grado di incidere sulla produttività o sull’efficienza dei processi, automatizzando attività cognitive e decisionali, un tempo appannaggio esclusivo dell’intelligenza umana, ma di un fenomeno sistemico che interseca profondamente le strutture sociali, le relazioni interpersonali e, soprattutto, i principi dello Stato di diritto.
I sistemi di intelligenza artificiale generativa, specialmente quelli basati sui Large Language Models (LLM, modelli linguistici di grandi dimensioni), sono in grado di sostenere conversazioni su qualsiasi argomento, grazie a tecniche di apprendimento automatiche che hanno consentito alla macchina di acquisire il vasto patrimonio di informazioni, dati e notizie che l’umanità ha scritto e immesso nel web. In questo ambiente, appare quanto più attuale soffermarsi ad esaminare i profili di responsabilità – civile e penale – riconducibili all’impiego dell’intelligenza artificiale, interrogandosi sulle prospettive di una governance efficace, giuridicamente orientata, fondata su criteri di trasparenza, tracciabilità e accountability.

2.Profili di responsabilità: quando l’agente causale non è umano

I principali sistemi di intelligenza artificiale si basano su tecniche di machine learning e deep learning capaci di operare con grade autonomia, assumendo decisioni in ambiti rilevanti, come la diagnosi medica, attraverso la classificazione automatizzata di immagini radiologiche e l’elaborazione predittiva di piani terapeutici personalizzati, la sempre più sperimentata guida autonoma di veicoli, grazie a software e sensori interattivi in grado di interpretare l’ambiente stradale e reagire in tempo reale, ed anche il recruiting del personale, sia nel settore pubblico che privato, mediante applicativi di screening dei curriculum dei candidati, prevedendone le potenzialità di performance.
A questo proposito va rilevato che è della cronaca recente l’episodio di “allucinazioni” da parte del chatbot del sistema Gemini, l’intelligenza artificiale sviluppata da Google, che avrebbe indotto un giovane utente americano che stava usando l’IA per motivi di studio, a porre fine alla propria vita attraverso un dialogo dai contenuti deleteri e suggestionanti. L’episodio ha introdotto il dibattito relativo al ruolo dei fornitori di queste tecnologie rispetto al controllo del comportamento dell’IA.

… continua su EDICOLeA https://www.edicolea.com/seg-ii-del-mmxxv/

Lawful Interception per gli Operatori di Tlc

Mostra di più
Pulsante per tornare all'inizio