ArticlesII_MMXXVSachaMauro DeGiovanniSecurity

Intelligenza artificiale e geopolitica: sovranità, escalation e innovazione predittiva

di Sacha Mauro De Giovanni

L’intelligenza artificiale (IA) si propone come catalizzatore di profondi cambiamenti geopolitici. Questo contributo esplora tre intrecci innovativi: la dinamica dell’IA nationalism e la rivalità tecnologica tra grandi potenze; la sfida normativa nei contesti dual-use e la proliferazione militare; infine, l’emergere del peace-tech come strumento predittivo per il contenimento dei conflitti. Ne affiora una cornice geopolitica densa e multilivello, in cui sicurezza, etica e governance si intrecciano.


1.Sovranità digitale e “AI Nationalism” nella nuova geopolitica tecnologica

Nel XXI secolo, l’intelligenza artificiale ha assunto un ruolo strategico simile a quello del petrolio o del nucleare nel secolo scorso. In tale scenario prende piede una dinamica riconducibile al cosiddetto AI nationalism, inteso come l’orientamento strategico degli Stati a innalzare l’intelligenza artificiale a infrastruttura critica di interesse nazionale, da presidiare e sviluppare in modo endogeno, anche a scapito delle logiche cooperative e della circolazione transnazionale del sapere scientifico. Il governo cinese, ad esempio, ha lanciato nel 2017 il piano Next Generation AI Development Plan, mirando all’autosufficienza tecnologica entro il 2030. In risposta, gli Stati Uniti hanno rafforzato i controlli sulle esportazioni di semiconduttori avanzati verso la Cina, come nel caso delle restrizioni imposte a Nvidia nel 2023 (De Angelis, 2024, pp. 66–68). Dal canto suo, l’Unione Europea ha risposto con il piano per l’Autonomia strategica aperta, e con il varo dell’AI Act, che include limiti all’esportazione di modelli ad alto rischio. Ciò nonostante, per affermarsi come attore geopolitico maturo, l’Ue deve acquisire la capacità di interpretare le dinamiche del potere internazionale, anche qualora ciò richieda il superamento del proprio approccio universalista (De Giovanni, 2021, p. 24).
Questa corsa alla sovranità digitale ha provocato la frammentazione dell’infosfera globale, trasformando l’internet “aperto” in una costellazione di ecosistemi chiusi, o splinternet. Si assiste alla creazione di spazi digitali distinti: da un lato la “sfera liberal-democratica” (USA, UE, Giappone), orientata alla regolazione trasparente; dall’altro l’universo “autoritarista” (Cina, Russia), che usa l’IA per consolidare il potere statale, come nel caso del Sistema di credito sociale cinese, basato su IA e sorveglianza per valutare la “affidabilità” dei cittadini (Tallberg et al., 2023, pp. 4-7). Il nazionalismo tecnologico ha così ridefinito le alleanze internazionali e le tensioni geopolitiche, trasformando l’IA in una posta strategica di prim’ordine.

2.La proliferazione Dual-Use e il rischio di escalation incontrollata

L’IA è una tecnologia intrinsecamente dual-use, ossia può essere facilmente adattata dal settore civile a quello militare, tanto da creare problemi non solo etici, ma anche normativi e geopolitici. Un esempio concreto è la rielaborazione di modelli LLM open source per finalità belliche: il caso di ChatBIT, sviluppato da ricercatori cinesi partendo dal modello LLaMA di Meta, adattato per il supporto decisionale in ambito difensivo, ha mostrato come architetture civili possano essere militarizzate in assenza di controllo da parte degli sviluppatori originari (Reuters, 2024).
Le tecnologie di visione artificiale utilizzate per il riconoscimento facciale in aeroporti o centri commerciali possono essere integrate in droni autonomi da combattimento o in sistemi di sorveglianza repressiva. Gli algoritmi predittivi pensati per il marketing possono essere usati per identificare potenziali “minacce interne” a regimi autoritari (Trusilo & Danks, 2024, pp. 3-5): proprio questa duttilità rende difficilissimo distinguere applicazioni lecite da quelle pericolose, aggravando il rischio di proliferazione incontrollata.
Simulazioni recenti hanno inoltre rivelato che modelli linguistici utilizzati in contesti militari e diplomatici conducono a esiti incontrollabili: in uno studio, un LLM incaricato di simulare il comportamento di un comandante militare ha optato per il lancio preventivo di missili nel 68% dei casi, anche in situazioni ambigue o non provocatorie (Rivera et al., 2024, pp. 7-9). Ciò, evidentemente, solleva interrogativi sull’affidabilità dell’IA in ambienti ad alta criticità, e sull’opportunità di delegare decisioni strategiche a sistemi non completamente interpretabili.

3. Peace-tech e prevenzione predittiva dei conflitti internazionali

In antitesi a tale immaginario distopico, si va delineando un filone emergente di pensiero e prassi applicativa, identificabile con il paradigma della peace-tech: un approccio che ambisce a riconfigurare l’intelligenza artificiale come dispositivo epistemico e operativo per l’anticipazione modellistica e la mitigazione proattiva dei conflitti latenti su scala regionale e globale. Più concretamente, alcuni progetti pionieristici combinano scienze comportamentali, simulazioni multi-agente e apprendimento automatico per identificare segnali premonitori di crisi. Il più noto è Anadyr Horizon, una piattaforma USA che crea gemelli digitali di leader politici e militari, simulandone decisioni in diversi scenari geopolitici (Business Insider, 2025); in altri termini, attraverso l’analisi di variabili psicologiche, ambientali ed economiche, il sistema propone azioni diplomatiche preventive. Un caso esemplare in tal senso è rappresentato dall’iniziativa panafricana Conflict Early Warning and Response Mechanism (CEWARN), la quale impiega architetture neurali avanzate per decifrare pattern latenti all’interno di flussi informativi eterogenei – tra cui interazioni sui social media, retoriche ostili e dinamiche di mobilitazione paramilitare – allo scopo di prefigurare potenziali focolai di instabilità. L’obiettivo è intervenire prima che scoppi un conflitto armato, come già accaduto in Etiopia nel 2022, quando una missione di peacekeeping è stata inviata dopo che il modello aveva previsto un’escalation tribale (Taddeo, 2023, pp. 113-115).Nonostante le potenzialità, questi sistemi sollevano dilemmi etici in merito alle garanzie di trasparenza o su come evitare falsi positivi o strumentalizzazioni politiche. Non è da escludere il rischio strutturale che l’intelligenza artificiale, da mero strumento analitico, evolva in soggetto performativo all’interno degli equilibri decisionali, contribuendo a riconfigurare – se non a destabilizzare – i codici operativi e le temporalità negoziali della diplomazia classica. Come avverte Taddeo, ogni utilizzo dell’IA nella governance del conflitto implica un grado di responsabilità morale da parte di chi progetta, addestra e implementa i sistemi (Ivi, p. 116).

4. Verso una governance globale dell’IA: equilibrio tra sicurezza e innovazione
La natura transnazionale dell’IA rende impraticabili soluzioni unilaterali. È urgente costruire una governance multilivello che coinvolga Stati, aziende tech, società civile e comunità accademica. In questa direzione si muove la proposta, formulata da Tallberg e colleghi, di un “IPCC per l’IA”, un organismo simile a quello sul cambiamento climatico, incaricato di monitorare, valutare e normare lo sviluppo globale dell’IA (Tallberg et al., 2023, pp. 12-15). Una simile istituzione permetterebbe di condividere dati, valutare i rischi sistemici e favorire standard comuni, come i protocolli di explainability per modelli usati in contesti militari.
Sul piano regionale, si registrano segnali di attivismo strategico, come nel caso dell’intesa trilaterale AUKUS (Australia, Regno Unito e Stati Uniti), che, oltre al rafforzamento dell’integrazione militare, contempla la co-progettazione di sistemi di intelligenza artificiale a vocazione difensiva, ancorati a una cornice valoriale condivisa e formalmente orientata all’etica dell’impiego operativo. Parallelamente, la NATO ha creato l’AI Strategy Framework, che promuove l’interoperabilità e la responsabilità nella progettazione di sistemi intelligenti per la difesa. Tuttavia, tali iniziative restano confinate ai Paesi like-minded, escludendo attori chiave come la Cina o la Russia, il che rende imprevedibile e poco esaustivo un vero multilateralismo.
L’alternativa sarebbe un compromesso tra autonomia nazionale e trasparenza multilaterale: ciascuno Stato mantiene la proprietà delle sue infrastrutture IA, ma accetta regole comuni per il monitoraggio, la certificazione e l’impiego di tecnologie ad alto rischio.
Come mostrano gli sforzi nella regolamentazione delle armi autonome o degli algoritmi di polizia predittiva, il futuro della geopolitica dell’IA sarà deciso dalla capacità di bilanciare sicurezza, libertà e giustizia, non solo tra Stati, ma soprattutto tra società e macchine. ©

Lawful Interception per gli Operatori di Tlc

Articolo disponibile in originale su EDICOLeA https://www.edicolea.com/seg-ii-del-mmxxv/

Mostra di più
Pulsante per tornare all'inizio