dal Blog https://krisis.info/
di Giuseppe Sperti26 Novembre 2025
Note di redazione ( Il punto è la finalizzazione di questo uso della tecnologia, poichè richiede sempre più ampi investimenti, ma chi la finanzia lo fa unicamente per profitto, quindi non direi di agitarsi per allegria difronte a certe scoperte.) Oggi energia e tecnologia sono sinonimo non di sviluppo sociale, anzi la tecnologia che sposta gli interessi dal silicio alla “fotonica” è un “dettaglio” che non da vantaggi a chi sta nella società come milioni di persone, senza possibilità decisionale, mentre l’ambiente inteso complessivamente uomo-flora-fauna può solo avere danni
Dopo decenni di dominio del silicio, la fotonica segna il punto di svolta: chip che sfruttano la luce promettono prestazioni più elevate e minori consumi, aprendo una nuova fase della corsa al calcolo. La Cina vede in questa tecnologia l’occasione per ridurre la dipendenza dal silicio americano e spostare gli equilibri nella competizione con gli Stati Uniti sull’intelligenza artificiale. Prima puntata dell’inchiesta di Krisis sulle nuove scoperte che stanno aprendo scenari inediti nella competizione tecnologica globale.
Fine monopolio silicio La fotonica, utilizzando la luce anziché gli elettroni, segna il superamento dei limiti fisici del silicio, promettendo chip con prestazioni più elevate e minori consumi per il calcolo.
Nuova corsa all’Ia Chip fotonici aprono una nuova fase nella competizione tecnologica globale. La Cina li vede come un’opportunità per ridurre la dipendenza dal silicio americano nell’ambito dell’Ia.
Limite termico La miniaturizzazione dei transistor è bloccata da problemi quantistici e, soprattutto, dall’enorme costo energetico e termico richiesto dai modelli di Intelligenza artificiale attuali.
Calcolo ibrido La fotonica non sostituisce il silicio, ma lo affianca. Il calcolo avviene sfruttando l’interferenza della luce dentro minuscole guide d’onda, riducendo così drasticamente il calore.
Integrazioni future Il futuro è nell’integrazione fisica di circuiti ottici ed elettronici (co-packaging). Questa evoluzione è un passaggio di soglia che influenzerà l’architettura dei computer e gli equilibri geopolitici.
Quando il South China Morning Post ha raccontato del nuovo chip fotonico, premiato alla World Internet Conference e presentato come capace di accelerare certi calcoli di oltre 1.000 volte, molti sono rimasti stupefatti. L’annuncio sembrava arrivare da un futuro improvviso: un chip «quantistico-fotonico», già integrato in processi industriali, sviluppato su una piattaforma che non assomiglia più al silicio tradizionale.
Eppure, al di là della retorica da social e dei toni sensazionalistici che si sono immediatamente sollevati alla notizia, non ci troviamo di fronte a uno scarto improvviso, né a una rivoluzione nata dal nulla. È piuttosto il segnale visibile di una trasformazione molto più lunga, iniziata quasi 80 anni fa con l’invenzione che ha aperto l’era dell’informatica: il transistor.
Per capire perché oggi parliamo di fotonica integrata (la miniaturizzazione dei componenti ottici per inserirli sui chip di silicio, ndr), di co-packaging tra luce ed elettronica (la tecnica di integrazione fisica di circuiti ottici ed elettronici sullo stesso modulo, ndr) e di beyond Cmos (acronimo di Complementary Metal-Oxide-Semiconductor, la tecnologia alla base dei transistor moderni, ndr), bisogna tornare al 1947.
Nei laboratori Bell, i tre scienziati John Bardeen, Walter Brattain e William Shockley stavano lavorando da mesi a un’idea apparentemente folle: controllare il flusso degli elettroni dentro un cristallo. Purificando il germanio e ricostruendo la geometria giusta, cercavano di capire come ottenere un contatto stabile. Fu la somma di errori corretti, tentativi ostinati e ingegno che diedero vita al primo transistor funzionante – un oggetto minuscolo che condensava dentro di sé anni di fatica invisibile. Quell’oggetto minuscolo, silenzioso, fu la scintilla da cui partì tutto.
Prima del transistor, l’elaborazione dell’informazione era ancora ingombrante, calda, fragile, fatta di valvole termoioniche che si rompevano spesso e consumavano enormi quantità di energia. Erano dispositivi tanto ingegnosi quanto problematici. Per funzionare, richiedevano filamenti incandescenti, un vuoto quasi perfetto e una quantità di energia che oggi appare inconcepibile. I primi calcolatori basati su quelle tecnologie occupavano stanze intere, pesavano tonnellate e richiedevano centinaia di kilowatt per operare. Ogni ora, qualche valvola si bruciava e andava sostituita. L’idea stessa di portare la computazione fuori dai laboratori militari o universitari sembrava impossibile.
È in questo contesto che il transistor apparve come un miracolo: freddo, piccolo, stabile, riproducibile. Il transistor portò la promessa di un mondo nuovo: la logica digitale poteva diventare piccola, efficiente, scalabile. Da quel momento in avanti, la nostra storia tecnologica si allineò a una traiettoria precisa e definita: miniaturizzare per avanzare.

Fu Gordon Moore, nel 1965, a intuire che la densità dei transistor sui chip sarebbe raddoppiata con sorprendente regolarità. Per decenni questa osservazione empirica, trasformata poi in profezia autoavverante, alimentò l’intera economia dell’informatica. Ogni generazione di chip diventava più veloce, più compatta, più affamata di nuovi orizzonti. Il mondo si digitalizzava a gran velocità perché il silicio teneva il passo, come un motore che non sembra mai stancarsi.
Muro invisibile
Ma, come accade a tutte le storie di crescita esponenziale, arriva un punto in cui la curva si appiattisce. All’inizio degli anni Duemila, gli ingegneri cominciarono a percepire che qualcosa stava cambiando: i transistor iniziarono a comportarsi in modi difficili da controllare perché erano ormai diventati così piccoli da essere comparabili con la scala atomica. A quella scala infinitesimale, infatti, accadono fenomeni (apparentemente bizzarri) come il famoso effetto tunnelquantistico a causa del quale gli elettroni attraversano barriere che invece dovrebbero essere in grado di fermarli.
Anche le variazioni termiche o le imperfezioni nel processo produttivo diventano catastrofiche: basta un difetto grande quanto un singolo atomo per alterare il comportamento di milioni di transistor. In breve, la miniaturizzazione aveva ormai raggiunto un punto in cui non era più un lavoro di ingegnerizzazione, ma un braccio di ferro con la natura. È qui che la legge di Moore smise di essere una traiettoria naturale e divenne uno sforzo titanico e costoso per mantenere un ritmo ormai innaturale.

È questo il momento in cui si cominciò a parlare, con una certa inquietudine, della «fine del silicio classico». Non nel senso che il silicio sarebbe sparito – anzi, sarebbe stato centrale per anni – ma nel senso che non poteva più essere il pilastro unico su cui far poggiare tutto il progresso computazionale.
Contemporaneamente, un altro fenomeno iniziava a espandersi senza controllo: il costo energetico del calcolo. La computazione moderna non consuma elettricità solo perché i processori sono affamati di corrente. Consuma energia perché ogni operazione logica, per quanto piccola, produce calore; perché ogni spostamento di elettroni dentro un conduttore incontra resistenze; perché ogni bit memorizzato deve essere mantenuto, rinfrescato, ritrasmesso. Gli effetti termici si manifestano in ogni millimetro di un data center e iniziano a far sentire il proprio peso.
Oggi questo limite si amplifica in modo vertiginoso con l’intelligenza artificiale. Ogni inferenza è un viaggio di elettroni attraverso milioni di connessioni, un’onda termica compressa negli strati di un chip. Un singolo modello di intelligenza artificiale richiede trilioni di operazioni al secondo. Intere batterie di Gpu funzionano notte e giorno per addestrare reti sempre più grandi. Alcuni data center consumano quanto un aeroporto, e altri quanto città di medie dimensioni.
Non è una metafora: è un vincolo reale. La quantità di energia necessaria per alimentare la proliferazione dei modelli di linguaggio, delle simulazioni, delle applicazioni generative, cresce più velocemente della capacità di produrla e distribuirla. E così il limite non è più solo la dimensione del transistor: è il mondo fisico che circonda il calcolo.
La risposta tradizionale – più chip, più macchine, più data center – non è più sostenibile. Accumulare transistor non elimina il problema, lo amplifica. Scalare orizzontalmente richiede nuove linee elettriche, nuove centrali, nuovi sistemi di raffreddamento. In alcune regioni del mondo, si discute di collegare data center direttamente a impianti idroelettrici o nucleari per poter funzionare.

Quando gli scienziati parlano di «limiti fisici della computazione» stanno dicendo che abbiamo spremuto il silicio al punto da fare emergere tutti i suoi difetti strutturali. Non possiamo più chiedergli di fare quello che da solo non può fare. È come se per decenni avessimo corso su una strada perfettamente liscia, e ora ci trovassimo davanti a una parete che non si lascia più aggirare. È da questo muro invisibile – una miscela di termodinamica, geometria, energia e densità – che nasce la necessità di guardare oltre, e di immaginare un hardware che non imiti il silicio, ma lo completi. È proprio in questo contesto che sulla scena compare un nuovo attore: la fotonica.
Dai semafori ai fiumi di luce
Immaginate un processore tradizionale in silicio come una città piena di semafori. Ogni semaforo è un transistor: si apre (1), si chiude (0) e così facendo decide chi passa e chi no. È una città enorme, con miliardi di semafori che si accendono e spengono velocemente. Funziona bene, ma a un certo punto la città diventa troppo calda, troppo affollata, troppo lenta rispetto alla quantità di traffico.
Un chip fotonico, invece, non usa semafori. Usa fiumi di luce. In un chip fotonico la luce scorre dentro minuscole «stradine» chiamate guide d’onda, scolpite nel silicio come fossero canali.
Questa luce può essere divisa, fatta riflettere, fatta incontrare di nuovo. Quando due fasci di luce si incontrano, non si «scontrano». Nel gergo tecnico si dice che «interferiscono». L’interferenza è un fenomeno potentissimo: sovrapponi due onde e ottieni un risultato che dipende da quanto e come le onde si sono incontrate. Questo si ottiene senza aver acceso o spento niente e, fattore fondamentale, senza dissipare calore.
Un circuito fotonico non calcola nel senso tradizionale del termine: non «somma» o «moltiplica» tramite istruzioni discrete, ma sfrutta le proprietà della propagazione della luce. Molti acceleratori ottici utilizzano matrici di interferometri Mach-Zehnder per eseguire trasformazioni lineari – operazioni come moltiplicazioni tra matrici e vettori – che sono tra i mattoni fondamentali dell’intelligenza artificiale. In pratica, la geometria del percorso ottico determina il risultato: la luce entra, si divide, si ricombina, e l’intensità all’uscita rappresenta il calcolo. Tutto avviene in un unico passaggio fisico, senza cicli di clock, senza conversioni elettriche intermedie e con un calore quasi nullo. È un modo completamente diverso di elaborare informazione, più vicino a un fenomeno naturale che a un algoritmo.
Ma la fotonica pura, da sola, non basta. Per diventare utile deve convivere con l’elettronica, integrarsi fisicamente con essa, condividere lo stesso spazio, gli stessi canali, gli stessi controlli. È questa fusione – delicata, complicata, ma cruciale – che oggi chiamiamo «co-packaging fotoni-elettronica».

Il chip premiato in Cina appartiene a questa famiglia ibrida: componenti ottici integrati su un wafer, accoppiati direttamente con circuiti elettronici. Non è un computer «di luce», come qualcuno sui social vorrebbe far credere, ma un segnale chiaro di dove sta andando la computazione. La luce non sostituisce l’elettronica: la affianca, la potenzia, la libera (parzialmente) dai limiti termici e di scalabilità che la affliggono.
Il silicio non finisce. Perde semplicemente il monopolio. Il nuovo hardware non annulla quello vecchio: gli si accovaccia accanto, come il transistor fece con le valvole un secolo fa, proprio nel momento in cui anche allora l’informatica sembrava aver raggiunto un limite insuperabile.
Strumentalizzare un articolo come quello del South China Morning Post con la retorica del «sorpasso» o della «rivoluzione istantanea» vuol dire non cogliere l’onda lunga di un percorso storico. Un percorso che va dall’elettronica degli esordi alla luce che entra nei chip, passando per un secolo di tentativi di dominare la fisica per trasformarla in informazione. Oggi ci troviamo esattamente nel punto in cui la storia del transistor si interseca con una nuova frontiera. È un passaggio di soglia, non un punto di rottura.
A questo punto nasce la domanda decisiva: se questi acceleratori fotonici riuscissero a scalare, quali conseguenze avrebbero sull’architettura dei computer, sul fabbisogno energetico dell’Intelligenza artificiale e sugli equilibri geopolitici globali? Ne parleremo nel prossimo articolo.
L’ARTISTA DELL’OPERA IN COPERTINA
Yvonne Andreini (Roma, 1985) è un’artista, curatrice e promotrice culturale italo-tedesca, residente a Berlino. Ha studiato Pittura alla Kunsthochschule Berlin-Weißensee, completando gli studi come Meisterschülerin nel 2010. La sua pratica artistica unisce arti visive, performance e musica. Ha fondato spazi come Lynar 4 (2007) e pianoalto (2015). Nel 2017 ha ideato IN/SU/LA, un festival d’arte biennale sull’isola di Ventotene. Dal 2022, collabora con l’Off-Off Theatre di Roma per installazioni site-specific. Le sue opere sono state esposte in numerose personali e collettive internazionali.
Licenza Creative Commons CC BY-NC-ND Ver. 4.0 Internazionale
Autore
Giuseppe SpertiCompleta i suoi studi di Ingegneria elettronica presso il Politecnico di Torino e il Kungliga Tekniska Högskolan di Stoccolma. Inizia a lavorare nel settore delle infrastrutture digitali. Nei primi anni Duemila partecipa a importanti progetti di sviluppo per uno dei più grossi operatori europei. Nel 2007 si trasferisce in Medio Oriente, contribuendo al lancio della filiale saudita di un’importante impresa di telecomunicazioni italiana. Dal 2008 riveste il ruolo di Senior Sales Engineer, fornendo consulenza tecnico-commerciale ad aziende americane ed europee. Nel 2012 ha frequentato la Business school del Politecnico di Milano, dove ha conseguito un Executive MBA. Oggi si occupa di cybersecurity nel settore privato, pubblico e della Difesa.