L’intelligenza artificiale si è imposta, nell’arco di pochi decenni, come uno dei vettori più incisivi di trasformazione del sistema internazionale. Da tecnologia inizialmente confinata agli ambiti sperimentali della ricerca scientifica e militare, essa si è progressivamente affermata come infrastruttura strategica del potere, incidendo simultaneamente sulla sicurezza, sull’economia, sulla governance, sulla dimensione cognitiva del conflitto e sulla stessa nozione di sovranità. In termini weberiani, l’IA non si limita a modificare gli strumenti del potere, ma ne riconfigura le forme di legittimazione e gli spazi di esercizio. Essa non opera più ai margini dei processi geopolitici in quanto ne costituisce oggi uno degli assi portanti.
Nel secolo in corso, la distribuzione del potere internazionale non è più determinata esclusivamente dal controllo territoriale, dall’accesso alle risorse naturali o dalla superiorità militare convenzionale. Come già intuiva Carl Schmitt nel definire il potere come capacità di decisione sullo stato d’eccezione, oggi tale capacità si esercita sempre più attraverso il controllo dei dati, degli algoritmi, delle infrastrutture digitali e delle competenze tecnologiche avanzate. L’intelligenza artificiale si configura così come una vera e propria architettura del potere globale, capace di incidere simultaneamente sulle dimensioni hard e soft della potenza, secondo la nota distinzione di Joseph Nye. L’IA non rappresenta più soltanto uno strumento tecnologico, ma un fattore strutturale della competizione geopolitica, in grado di ridefinire i rapporti di forza, trasformare le catene globali del valore, riconfigurare la deterrenza e modificare l’equilibrio tra libertà, sicurezza e sovranità.
Le origini geopolitiche dell’intelligenza artificiale affondano nel contesto della Seconda guerra mondiale, con lo sviluppo dei primi sistemi di calcolo automatico impiegati per la crittografia, la decrittazione e la pianificazione delle operazioni militari. Durante la Guerra fredda, Stati Uniti e Unione Sovietica investirono massicciamente in automazione, simulazione e sistemi di supporto decisionale per la deterrenza nucleare, coerentemente con la logica della stabilità strategica fondata sull’equilibrio del terrore. In questa fase, l’IA nacque già come tecnologia del potere, inscritta nella razionalità tecnico-strategica che Hannah Arendt riconosce come una delle cifre della modernità politica.
Negli anni Novanta, la digitalizzazione globale e l’espansione di Internet crearono le condizioni infrastrutturali per l’IA moderna. Dopo l’11 settembre 2001, l’intelligenza artificiale assunse un ruolo centrale nei dispositivi di sorveglianza di massa, nel controterrorismo e nella cybersecurity, diventando uno strumento decisivo nella gestione algoritmica del rischio. Nell’ultimo decennio, con l’esplosione dei big data, del machine learning e del deep learning, l’IA è entrata pienamente nel cuore della competizione strategica tra le grandi potenze, trasformandosi in uno dei principali moltiplicatori di potenza sistemica. Secondo Lucas Kello, la competizione nel dominio digitale ha ormai superato le categorie classiche della guerra e della pace, collocandosi in una zona grigia permanente di conflitto.
Oggi l’intelligenza artificiale costituisce una nuova dimensione autonoma del potere geopolitico. Il suo valore strategico si fonda su cinque pilastri essenziali: il controllo degli algoritmi, la sovranità sui dati, la supremazia nella produzione dei semiconduttori, la disponibilità di infrastrutture digitali avanzate e la presenza di capitale umano altamente qualificato. Su questi pilastri si gioca la competizione tra Stati Uniti, Cina e Unione Europea, una competizione che assume sempre più i tratti di una guerra algoritmica permanente, nella quale la superiorità tecnologica si traduce direttamente in influenza politica, economica e militare. In questo contesto, la sovranità tecnologica diviene una componente imprescindibile della sovranità statuale, secondo una logica che richiama, in forma aggiornata, la concezione di Carl Schmitt, dell’ordine politico come capacità di controllo dell’eccezione.
Nel dominio della sicurezza e della difesa, l’IA sta modificando in profondità la natura stessa del conflitto. Sistemi d’arma autonomi, piattaforme di sorveglianza algoritmica, architetture di comando e controllo in tempo reale, cyber-attacchi automatizzati e strumenti di guerra cognitiva basati su disinformazione e deepfake ridefiniscono le modalità operative della violenza organizzata. La sicurezza diventa sempre più predittiva, automatizzata e algoritmica, generando problemi inediti di controllo umano delle decisioni letali, responsabilità giuridica ed escalation non intenzionale. Il cyberspazio si è ormai consolidato come un dominio permanente di confronto strategico, nel quale, come sottolinea Kello, la soglia del conflitto viene costantemente attraversata senza una formale dichiarazione di guerra.
Sul piano economico, l’IA rappresenta uno dei principali motori della crescita contemporanea. Essa incrementa la produttività, genera nuovi settori industriali, ristruttura profondamente i mercati del lavoro e accelera la concentrazione tecnologica e finanziaria. Tuttavia, in linea con le dinamiche già individuate da Max Weber nella razionalizzazione dell’economia moderna, l’automazione algoritmica intensifica anche le disuguaglianze strutturali. Si amplia il divario tra Stati tecnologicamente avanzati e Stati tecnologicamente dipendenti, producendo nuove forme di vulnerabilità economica e di dipendenza strategica. La competizione economica globale tende così a configurarsi sempre più come una competizione per l’accesso e il controllo delle tecnologie critiche.
Nel settore diplomatico e nell’analisi strategica, l’IA è oggi impiegata nella previsione delle crisi, nell’analisi geopolitica predittiva, nella traduzione automatica e nel supporto alle decisioni politiche. Parallelamente, essa alimenta una nuova dimensione della competizione strategica fondata sulla manipolazione dell’informazione, dei processi percettivi e delle dinamiche di consenso. In questa prospettiva, l’intelligenza artificiale diviene uno strumento essenziale del soft power, secondo le categorie di Joseph Nye, ma anche un potente vettore di destabilizzazione sistemica attraverso la disinformazione algoritmica e la manipolazione cognitiva su larga scala. Il confine tra diplomazia, comunicazione strategica e conflitto tende così a dissolversi, mettendo in crisi le categorie tradizionali delle relazioni internazionali e ridefinendo le modalità stesse dell’esercizio del potere nel sistema globale.
L’intelligenza artificiale agisce inoltre come una forza culturale globale. Essa produce una cultura della sorveglianza, nella quale il controllo digitale diviene una forma ordinaria di governo delle popolazioni, una cultura del dato, che trasforma l’informazione nella principale risorsa strategica, una cultura dell’automazione, che ridefinisce il lavoro e lo statuto stesso dell’agire umano, una cultura dell’innovazione, alimentata dalla corsa globale alla supremazia tecnologica e infine, una cultura della regolazione, in cui si tenta di costruire architetture normative capaci di governare una tecnologia che, per sua natura, tende a oltrepassare i confini statuali. In questa dinamica si coglie pienamente quella che Luciano Floridi ha definito la “quarta rivoluzione”, in cui l’essere umano è ricollocato all’interno dell’infosfera come nodo di reti algoritmiche sempre più pervasive.
Accanto ai rischi, l’IA offre benefici geopolitici rilevanti in quanto migliora i processi decisionali, rafforza la sicurezza nazionale, alimenta la crescita economica, consente una gestione più efficiente delle crisi e contribuisce, in alcuni ambiti, alla sostenibilità ambientale. Tuttavia, tali benefici si accompagnano a una frattura intergenerazionale sempre più marcata: da un lato la “Generazione dell’IA”, dall’altro società future interamente digitalizzate, mentre le generazioni passate vengono reinterpretate attraverso l’analisi algoritmica dei dati storici. Come osserva Yuval Noah Harari, il rischio non è soltanto tecnologico, ma antropologico ovvero, la possibilità che il potere di decisione si trasferisca progressivamente dagli esseri umani agli algoritmi.
Le principali criticità riguardano la sorveglianza di massa, l’erosione della privacy, la discriminazione algoritmica, le armi autonome letali e l’uso politico dei dati. La tutela della persona umana si colloca così al centro di una tensione strutturale tra sicurezza e libertà, richiamando la riflessione di Arendt sul rapporto tra potere, tecnica e responsabilità. In questo quadro, la protezione dei dati diviene un pilastro della sovranità digitale e richiede quadri normativi solidi, pratiche sicure di gestione delle informazioni e un’ampia alfabetizzazione digitale.
La regolazione dell’intelligenza artificiale è chiamata a conciliare innovazione, gestione del rischio e tutela dei diritti fondamentali. Una governance efficace dell’IA può oggi esistere soltanto attraverso la cooperazione internazionale, la trasparenza dei processi decisionali e adeguati meccanismi di accountability. Parallelamente, l’alfabetizzazione all’IA si configura come una vera priorità strategica nazionale in quanto, senza capitale umano qualificato non vi può essere sovranità tecnologica. Data la natura intrinsecamente globale dell’IA, la cooperazione internazionale rimane condizione indispensabile per prevenire conflitti tecnologici e ridurre le asimmetrie sistemiche tra Stati.
Sul piano ambientale, l’IA presenta una natura profondamente ambivalente. Essa contribuisce alla sostenibilità attraverso strumenti avanzati di monitoraggio climatico e di gestione delle risorse, ma comporta al tempo stesso elevati costi energetici, un forte impatto infrastrutturale e crescenti problemi legati ai rifiuti elettronici. In questa tensione tra progresso tecnologico e limiti ecologici riaffiora, in forma nuova, la questione dei limiti della razionalità strumentale già analizzata dalla teoria critica della Scuola di Francoforte.
Alla luce di queste dinamiche, emergono alcune raccomandazioni strategiche fondamentali ovvero, rafforzare l’alfabetizzazione all’IA, promuovere etica e trasparenza, adottare modelli di regolazione adattiva, sviluppare una governance multilivello, incrementare gli investimenti in ricerca e sviluppo, proteggere le infrastrutture critiche, rafforzare la cooperazione internazionale. La competizione per la supremazia algoritmica è destinata a intensificarsi, così come l’automazione del conflitto, la trasformazione dei mercati del lavoro e la centralità delle questioni etico-regolative.
Stiamo dunque entrando in un nuovo ordine geopolitico fondato sulla sovranità digitale, sui conflitti cognitivi e sulla competizione normativa tra modelli di governance. L’intelligenza artificiale rappresenta oggi uno dei principali fattori di ridefinizione della geopolitica globale. Il suo impatto dipenderà in ultima istanza dalle scelte politiche e normative degli Stati. Governare l’IA significa governare il futuro dell’ordine internazionale. La posta in gioco non è soltanto tecnologica, ma profondamente politica, civile e antropologica.
Pasquale Preziosa
Membro esperto Comitato scientifico Eurispes
Partner Associato ISN
