Nel panorama dell’intelligenza artificiale (IA), uno degli ostacoli più difficili da superare è rappresentato dalla velocità di calcolo, limitata dalle capacità degli hardware tradizionali come le GPU. Tuttavia, una rivoluzionaria architettura ottica chiamata POMMM (Parallel Optical Matrix-Matrix Multiplication) promette di trasformare questo scenario, consentendo elaborazioni di deep learning a velocità e con efficienza energetica finora impensabili.
La sfida del calcolo nei modelli IA
Alla base di ogni modello di deep learning si trovano i tensori, matrici di pesi numerici che il sistema deve leggere e aggiornare costantemente durante l’addestramento e l’inferenza. Tradizionalmente, questa mole di calcoli viene gestita da processori grafici che, pur potenti, sono vincolati da limiti fisici e consumi energetici significativi. Il trasferimento continuo di dati tra memoria e processori rappresenta un collo di bottiglia critico, che rallenta l’evoluzione dei modelli più complessi.

L’informatica ottica appare come una soluzione naturale, poiché sfrutta la luce, la quale viaggia alla massima velocità fisica e consuma pochissima energia. Tuttavia, fino a oggi i sistemi ottici non sono riusciti a eseguire operazioni in parallelo con la stessa efficacia delle GPU, limitandone l’applicabilità pratica.
Il paradigma POMMM: un salto quantico per il calcolo ottico
Pubblicato su Nature Photonics, il paradigma POMMM introduce, per l’IA e non solo, una metodologia innovativa che codifica le matrici da moltiplicare direttamente nelle proprietà fisiche della luce — ampiezza e fase delle onde luminose — e sfrutta la propagazione coerente di un singolo impulso laser per effettuare contemporaneamente tutti i prodotti scalari necessari alla moltiplicazione matrice-matrice (MMM).
Questo processo elimina la necessità di passaggi elettronici intermedi, riduce drasticamente i consumi e consente un livello di parallelismo mai visto prima, addirittura superiore a quello ottenibile con centinaia di GPU sincronizzate. Il risultato finale è la matrice prodotto che emerge fisicamente dalla distribuzione del campo luminoso, acquisita con fotocamere ad alta risoluzione.
Applicazioni avanzate e prospettive future
I ricercatori hanno dimostrato che questa tecnologia può eseguire l’intera pipeline di reti neurali convoluzionali (CNN) e modelli di ultima generazione come i Vision Transformer in modalità ottica, replicando fedelmente i risultati delle GPU con consumi energetici ridotti di ordini di grandezza. La capacità di implementare operazioni complesse come la self-attention dei Transformer tramite calcolo ottico fa di POMMM una piattaforma universale e scalabile.
Inoltre, il paradigma può essere esteso mediante tecniche di multi-wavelength multiplexing, che permettono di eseguire simultaneamente più moltiplicazioni matrice–matrice sfruttando diverse lunghezze d’onda della luce, aumentando ulteriormente la capacità computazionale senza incrementare i tempi.
Questa innovazione apre la strada a un futuro in cui l’elaborazione neurale sarà dominata dalla luce, abbattendo i vincoli energetici degli attuali data center e accelerando lo sviluppo di sistemi di intelligenza artificiale più potenti e accessibili, con nuovi orizzonti per la ricerca sull’IA e l’industria tecnologica.






