Sommario
Un team di ricercatori guidati da Daniel Lidar della USC, in collaborazione con Johns Hopkins, ha ottenuto un risultato storico per il settore del quantum computing: la prima dimostrazione sperimentale di un vantaggio esponenziale e incondizionato di un algoritmo quantistico rispetto a qualunque algoritmo classico conosciuto. Lo studio, pubblicato su Physical Review X, utilizza due processori IBM Quantum Eagle da 127 qubit accessibili via cloud e affronta una variante del cosiddetto Simon’s problem, considerato l’antenato dell’algoritmo di Shor per la fattorizzazione.
Quantum speedup: che cosa significa vantaggio esponenziale
Finora erano stati osservati solo vantaggi “modesti” o polinomiali (ad esempio un algoritmo quantistico più veloce di uno classico di qualche ordine di grandezza). Il traguardo annunciato consiste invece in uno scaling esponenziale: quando la complessità del problema cresce, la differenza di velocità tra algoritmo quantistico e classico raddoppia per ogni nuova variabile. Si parla di “incondizionato” perché il risultato non dipende da ipotesi teoriche o limiti degli algoritmi classici: la superiorità sperimentale del calcolo quantistico emerge per definizione e in modo dimostrabile.
Simon’s problem, l’algoritmo e l’impatto pratico
Il problema scelto dai ricercatori – una variante del Simon’s problem – consiste nel trovare una struttura nascosta in una funzione matematica, una sfida che i computer classici non possono risolvere efficientemente e che è alla base delle applicazioni future nella crittografia e nell’analisi dati. L’approccio usato riprende la logica dell’“oracle”, una sorta di gioco di indovinelli dove solo la strategia quantistica permette di vincere rapidamente, mentre quella classica fallisce in modo sistematico al crescere delle variabili.
Innovazioni tecniche: riduzione errori, decoupling dinamico e correzione delle misure
Il successo della dimostrazione sperimentale è stato reso possibile da quattro innovazioni tecniche:
- Limitazione dei dati: restrizione del set di “numeri segreti” per ridurre la lunghezza dei circuiti e la probabilità di errori;
- Transpilazione: compressione delle operazioni quantistiche per minimizzare i passaggi necessari;
- Dynamical decoupling: sequenze di impulsi che “isolano” i qubit dal rumore ambientale, mantenendo la coerenza durante l’elaborazione;
- Measurement error mitigation: correzione degli errori di lettura finale tramite tecniche di mitigazione specifiche.
L’uso combinato di queste strategie ha consentito di superare le limitazioni hardware attuali, portando il quantum speedup dal piano teorico a quello sperimentale e inaugurando una nuova fase della ricerca.
Prospettive e limiti: ancora lontani dalle applicazioni “reali”
Gli autori sottolineano che il vantaggio dimostrato riguarda una classe specifica di problemi matematici e non ha ancora applicazioni pratiche immediate, se non “vincere giochi d’indovinelli” computazionali. Servirà sviluppare algoritmi efficaci anche per scenari reali senza “oracoli” e migliorare ulteriormente la gestione del rumore e della decoerenza su macchine quantistiche sempre più grandi. Tuttavia, il salto concettuale è storico: il quantum speedup esponenziale è ora una realtà misurabile.