Premetto che molti spunti dei relatori Sergio Bellucci, Giovanna Borrello, Vincenzo Vita, Francesco Perrillo, Aniello Cimitile, sono stati per me illuminanti ed ho apprezzato lo sforzo di domandare e praticare anche il “Che fare?”, ovvero rispondere alla domanda, in che direzione orientare l’iniziativa politica.
Chi scrive è un fisico la cui attività di ricerca, fino al 2022 è stata la teoria della Superconduttività, la Fisica Quantistica e i nuovi Materiali. Ho assistito allo sviluppo della tecnologia dagli anni ’70 del secolo scorso ad oggi, che siamo all’inizio della realizzazione di dispositivi quantistici per la “Quantum Information”.
Non ho alcuna esperienza di Intelligenza Artificiale propriamente detta, e, pur nella mia ignoranza, cerco qui di riflettere e descrivere la fenomenologia che ha portato lo sviluppo delle reti informatiche a compiere il grande passo da strumento di servizio, a soggetto che interloquisce con noi e plasma la nostra società e procura un cambio di paradigma nel lavoro e nella nostra vita.


Trovo inevitabile che si parta dal concetto marxiano di lavoro vivo e lavoro morto, una ricerca che negli anni ’70 partiva da Uomini e Macchine, la filosofia degli automi di Vittorio Somenzi [1]. La macchina era ancora un utensile e la catena di montaggio era ancora comandata da personale sempre più esperto, casomai appollaiato dietro un vetro. Ho vissuto l’epoca della nascita della cibernetica a Napoli e nel mondo con Norbert Wiener ed Edoardo Caianiello[2]. E’ significativo che, nonostante la cibernetica sia stata oltremodo feconda ed abbia aperto vasti campi applicativi nello studio delle interazioni tra sistemi naturali o artificiali, oggi è scomparsa. Ma da essa sono nate, per citarne alcune: la Robotica e Bionica, la Teoria dell‘Informazione, la Teoria dei segnali e dei controlli automatici, la Bioinformatica, la Bioingegneria e Neuroscienze cognitive, e, nel settore della Informatica, prende il suo posto l’Intelligenza Artificiale.

A Napoli la ricerca ebbe immediata evoluzione nella direzione dello studio delle reti artificiali ad imitazione delle reti neurali e da subito l’apprendimento della macchina diventava un valore. Penso alla macchina “Educanda” purtroppo oggi perduta: 80 neuroni artificiali realizzati con valvole e relè elettromeccanici interconnessi attraverso resistenze variabili tramite dei potenziometri. Emulando il linguaggio dei neuroni fisici, diciamo che in una rete neurale artificiale si pensava di far convergere ad una sinapsi input provenienti da altri neuroni antecedenti in una struttura ad albero. Questi input venivano pesati (dove “pesare un impulso” significa determinare se supera una soglia fissata dal peso che gli compete) e la collazione di tutti i segnali di ingresso così pesati determinava se la sinapsi avrebbe trasmesso a sua volta un impulso in uscita che continuava il processo. Tecniche di feedback provenienti da nodi successivi potevano ridefinire i pesi da dare ad ogni ingresso. Una simile rete si qualifica subito come non dedicata ad uno scopo definito e quindi di natura del tutto generale. Idealmente la scelta dei pesi iniziali costituisce una parvenza di algoritmo che orienta l’evoluzione del sistema verso un determinato obiettivo del calcolo, ma la ridefinizione dei pesi è un processo autonomo della macchina che ne costituisce l’apprendimento. Questo schema si riproduce ancor oggi in forma definitivamente digitale. Tutta l’elettronica più affidabile attuale è digitale. Trasmettere informazione e operare su di essa significa trasmettere numeri e questi sono forniti da dispositivi dicotomici, ovvero acceso (1) o spento (0), controllati da gate logici (AND, OR, NOT tra i più comuni).

La prima rete interconnessa di computer, a scopo militare e accademico è ARPANET (1969) del DARPA (Dipartimento della Difesa USA) che rimase appannaggio delle università, della telefonia AT&T e della vita civile dal 1983, quando se ne separarono i militari che costituirono una loro rete propriamente militare MILNET. Dalla fine degli anni 80 grandi aziende come IBM, DEC, Sun, Apple e Microsoft creano reti locali (LAN) private, ma si affidano a canali pubblici (che già usano la fibra ottica) per i collegamenti geografici. Alla metà degli anni ’90, aziende Internet provider (ISP) come UUNet, PSINet, Level 3 costruiscono collegamenti (“backbone”) internazionali, ma, già dagli anni 2000, Google, Facebook, Microsoft, Amazon iniziano a costruire propri cavi sottomarini e terrestri, per controllare costi, sicurezza e prestazioni.
In un mondo che circola ormai sui Big Data, i Data Center incominciano a diventare ipertrofici. Nasce il fenomeno degli “hyperscaler”[3]: aziende cloud che possiedono enormi infrastrutture fisiche di accumulo e processamento di dati. Al momento il più grosso sembra essere il China Telecom-Inner Mongolia Information Park locato in Hohhot, Cina, in un’area di quasi un milione di m2, con una capacità di potenza di circa 150 MW ed un costo approssimato di 3 miliardi di dollari. Offre servizi alle compagnie major Alibaba, Tencent e Baidu. Google ha il suo enorme Data Center dal 2009 nel campus di Council Bluffs, Iowa (3 milioni di m2). Circa 6 miliardi di dollari di investimento ancora espandibile dal 2023. Il Mesa Data Center della Apple in Arizona ha circa 1 milione di m2 e 50 MW di potenza garantiti da sole fonti rinnovabili. Tra i pù grossi Data Center europei lo NTT Data Center di Frankfurt in Germania, con una potenza di 60 MW, in via di definitiva acquisizione dalla società privata giapponese NTT. Cavi sottomarini transoceanici, storicamente di proprietà dei consorzi di compagnie telefoniche internazionali, sono o di proprietà mista (es. consorzi con Google, Microsoft, Telefónica, Orange,
Vodafone…) o interamente privati come il cavo Dunant (USA-Europa) di Google, o il cavo 2Africa, (Africa-Europa) di Meta, o il cavo MAREA (USA-Spagna) di Microsoft e Meta. Si evolve verso reti e servizi cloud che ormai sono privatizzati e messi a disposizione di privati e governi.

Tutte queste mega strutture memorizzano, processano e trasmettono innumerevoli dati e sono dedicate, in amb
ito commerciale a tracciare comportamenti e gusti dei consumatori a cui far seguire raccomandazioni iper-personalizzate indirizzate a ciascuno. La tecnica di machine learning, detta di regressione lineare, è alla base di tutti i servizi streaming on demand (tra quelli video, Netflix, Prime Video, Disney+, NOW e Chili; tra quelli musicali Spotify, Apple Music, Amazon Music, You Tube Music ecc.), e punta ad individuare e compiacere l’utente individuale e, infiltrandosi nella rete dei social (facebook, Instagram ecc.) anche a manipolare le coscienze. In ambito securitario lo scopo è di acquisire una banca-dati di controllo. Sono in piena evoluzione reti per modelli di previsione in econofisica che applica metodi della fisica statistica allo studio dei mercati finanziari e dei fenomeni economici attingendo alle informazioni in rete su mercati. Ad esempio, modelli relativi al moto browniano e, oggi, modelli di complessità che originano dalla teoria dei vetri di spin di Giorgio Parisi. I processi elaborati sono adattativi e assoggettabili a quello che si chiama il “fine-tuning”. Tra le altre cose, l’AI rivoluziona i metodi di previsione metereologica e di monitoraggio dell’ambiente sul pianeta. Con sofisticate analisi dell’enorme quantità di dati epidemiologici individuali, prende corpo la cosiddetta “medicina di precisione”. La rete mette in luce correlazioni che consentano l’individuazione rischi per la salute pubblica, e contribuisce alla definizione di Linee Guida terapeutiche e di buona pratica clinica. Quest’ambito di applicazione, in particolare, pone il problema serio della protezione dei dati del singolo cittadino. L’Unione Europea si appesta a rilasciare l’ “Artificial Intelligence Act” per garantire un uso sicuro dell’AI, rispettoso dei diritti fondamentali individuali e collettivi, ma è chiaro che quando questo documento verrà reso pubblico sarà già vecchio, nel senso che il sistema dell’AI dinamicamente si evolve ad un ritmo impetuoso ed inarrestabile.

L’ AI rivoluzionerà il mondo della produzione e del lavoro. La Robotic Process Automation (RPA) è considerata finita. Il robot governa flussi di lavoro emulando il lavoro umano per processi ripetitivi, ma è sottoposto a sorveglianza umana, perché incapace di adattarsi a variazioni improvvise o al sopravvenire di dati che non siano strutturati al modo previsto. Questa robotica è destinata a scomparire. Almeno quattro fattori cooperano alla trasformazione radicale del processo produttivo: l’automazione con AI generativa, la stampante 3D, i nuovi materiali, la cosiddetta “customizzazione” della produzione.
I nuovi materiali, con le loro proprietà meccaniche, elettriche variamente plasmabili (ad esempio leghe di rame come GRCop-42 e GRX-810 ad alta resistenza e conducibilità termica) offrono oggi possibilità di riprodurre interi sofisticati pezzi unici grazie alle stampanti 3D. Un solo esempio: con stampanti 3D si producono camere di combustione per turbine tutte d’un pezzo (monolitiche) anche per i razzi, senza bisogno di assemblare componenti multiple. La stampa 3D è a suo agio con le geometrie complesse richieste dai canali interni di raffreddamento che possono essere integrati direttamente nel disegno. I materiali spesso sono matrici metalliche composite che combinano alluminio (per la leggerezza) e ceramiche resistenti alle alte temperature. Essi vengono sviluppati e prodotti da società apposite come Elementum3D.
Per oggetti leggeri e consumabili, il materiale più comune usato in stampanti 3D è un acido polilattico (PLA). E’ un materiale plastico biodegradabile ideale per la sua bassa temperatura di fusione, ottenuto da rinnovabili come l’amido di mais. Anche il grafene, isolato per la prima volta nel 2004, viene usato in stampanti 3D sotto forma di filamenti termoplastici fusi che vengono depositati strato su strato per produrre oggetti 3D. FDM è una marca della società Stratasys, una tra le varie FFF (Fused Filament Fabrication) che producono con filamenti fusi. Il grafene offre ottime qualità di durezza, conducibilità elettrica e termica, stabilità elettrochimica che lo rende ideale per sensori ed elettronica. La automazione intelligente è lo stadio superiore rispetto alla RPA. Essa è integrata alla progettazione, la quale tende ad essere definitivamente delocalizzata fuori dalla fabbrica. La progettazione è a sua volta integrata con la commercializzazione che è orientata a pezzi unici personalizzati (“customized”) per l’acquirente.

Provocatoriamente può dirsi che la rete stessa è il mercato che è tutto fuorché libero e la merce è solo un bene d’uso. La rete è un mercato dove non si compra ma si è comprati. Il plusvalore va ridefinito come concetto base del processo di produzione perché, se così si può dire, viene aggiunto lontano dalla fabbrica. Accanto al progressivo scomparire del lavoro tradizionale, cresce il lavoro nei servizi ed il lavoro schiavistico ai gradini più bassi della catena produttore-cliente. La dignità del lavoro propugnata dai referendum abrogativi di inizio giugno 2025 in Italia non viene riconosciuta come un valore nemmeno dagli stessi lavoratori.

Se si vuole per forza arrischiare un volo pindarico ed interpretare il ciclo indotto dall’ AI,
chiedendosi come esso si contrapponga
ai cicli produttivi storicamente determinatisi secondo l’analisi marxiana, ovvero il ciclo merce-denaro-merce, rimpiazzato nel capitalismo dal ciclo denaro-merce-denaro, occorre riconoscere che oggi l’informazione è direttamente denaro. L’ ipotesi su cui mi muovo nel seguito è che il motore della crescita attuale sia il ciclo informazione-decisione-informazione.
Quando parlo di decisione, mi riferisco a decisione della macchina. E’ un processo svolto in modo autonomo dalla macchina. Tra gli esempi più evidenti quello della ricerca di un dato in un catalogo o della fattorizzazione di un numero grande in numeri primi, procedura fondamentale questa per la crittografia RSA delle nostre operazioni bancarie online. In ambito militare si è passati dalle “bombe intelligenti” della guerra del golfo degli anni ‘90 ad esempi di gran lunga più sconvolgenti come i sistemi “Habsora” e “Gospel” per determinare con AI gli obiettivi che l’aviazione israeliana bombarda nella striscia di Gaza. Per non parlare del sistema “Lavender “che utilizza l’ AI per valutare, dall’osservazione di coloro che entrano ed escono dagli edifici, un cumulo di indizi e decidere probabilisticamente se vi siano o no individui combattenti appartenenti ad Hamas in quell’edificio e comandare quindi, al di fuori di ogni controllo umano, la rasa al suolo dell’edificio. Le Lethal Autonomous weapons (LAWS)[4] sono armi che identificano, selezionano e colpiscono obiettivi fuori dal controllo umano. Nelle guerre moderne in cui i tempi di reazione debbono essere brevissimi, l’affidarsi ciecamente alla macchina è il sistema più efficace. Altro esempio è il Battle Lab di Torino, uno dei fiori all’occhiello dell’industria Leonardo, dove si usano simulatori per stabilire innovazioni e strategie di battaglia. In questo modo viene meno la frontiera etica tra simulazione e azione reale.

Come nel passato, la creatività intellettuale di singoli studiosi, soprattutto di cultura matematica [5], si trasforma in innovazione reale che accresce la prensilità delle reti di AI generativa. E’ ingegnera di Facebook, Ruchi Sanghvi, che applica la teoria dei grafi ad accrescere la pervasività dei social network. Ma è la rete stessa a creare i suoi architetti, spesso privi di formazione accademica. Da hacker a crittografo, Moxie Marlinspike perfeziona il protocollo di privacy di Whatsapp. In Spotify, il giovane Matthew Ogle sviluppa il suo proprio motore per raccomandare musica adatta ai gusti dei clienti, con tecniche di machine learning. Il dialogo tra ricerca fondamentale e applicazioni dove la prima suggerisce e le seconde esercitano una retroazione sulla prima, dialogo che è stato centrale nello sviluppo economico-scientifico dei due secoli scorsi, viene qui meno ed i due ambiti sono sempre più distanti. Con questa distanza viene meno anche il controllo etico-giuridico.

I social network con il loro indirizzamento sempre più personalizzato hanno come effetto più grave sulle masse di segmentare la popolazione: ciascun segmento vive nella sua bolla di realtà artificiale dalla quale le altre sono escluse. Così si possono ad esempio ignorare altri che non appartengano alla propria bolla, salvo poi inciampare in uno di questi, al bordo della strada nel mondo reale.
Il ciclo informazione-decisione-informazione rimanda alla smaterializzazione dei contenuti che accrescono il valore. Acquisire l’informazione non è importante per sé, perché essa sarà gestita dalla stessa rete in autonomia, ma controllarla è la vera fonte del potere e questo controllo si concentra sempre più in poche mani in un mondo sempre meno aperto alla mobilità sociale. L’informazione che la rete elabora in modo indipendente con la AI generativa richiede enormi risorse di energia e una concentrazione dei centri di memoria e di elaborazione dei dati ottenibile solo al prezzo di centinaia di miliardi di dollari. Attribuisco a questo il senso della dizione “neo feudalesimo tecno-digitale” [6]: emergono soggetti privati che tracimano dalla loro dimensione societaria e iniziano a occupare spazi del reale. Da essi i singoli, i governi e gli stati nazionali dipendono: una forma di globalizazione sovranazionale ma privatistica, molto diversa da quella immaginata finora. Questa porta alla fine dello stato di diritto.

Arturo Tagliacozzo




Ringrazio Paolo Mastroserio (INFN) per il suo aiuto nella redazione di questo scritto e gli amici di Infiniti Mondi per avermi invitato.

[1] La filosofia degli automi, a cura di Vittorio Somenzi con Roberto Cordeschi, Torino, Boringhieri, 1986 (prima edizione, a cura del solo Somenzi, Boringhieri, 1965)

[2] Guglielmo Tamburrini, “Dal Gruppo di Cibernetica al corso di laurea in Informatica”,
in “la rete dei saperi”: università napoletane da Federico II al duemila, a cura di Cesare De Seta 2015, artem s.r.l.

[3] https://brightlio.com/largest-data-centers-in-the-world/

[4] https://www.isodarco.it/63rd-isodarco-course/

[5] Anil Ananthaswamy “Perché le macchine imparano: l’eleganza della matematica dietro all’ AI”, Apogeo, Feltrinelli 2024


[6] Andrea Venanzoni “Neofeudalesimo digitale: Internet e l’emersione degli Stati privati”,
https://www.medialaws.eu/wp-content/uploads/2020/12/RDM-3-2020-Venanzoni-178-195.pdf


Vuoi ricevere un avviso sulle novità del nostro sito web?
Iscriviti alla nostra newsletter!

Termini e Condizioni

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *