Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
QSVM (Quantum Support Vector Machine) per compiti di classificazione, con un kernel
• quantistico calcolato via dispositivi NISQ;
QNN (Quantum Neural Networks), reti neurali parametriche dove i pesi sono gate
• quantistici variational, addestrati tramite un ottimizzatore classico;
QGAN (Quantum Generative Adversarial Networks), in cui generatore e discriminatore
• sono parzialmente o totalmente implementati su un processore quantistico.
In tutti questi casi, i risultati preliminari mostrano promesse, ma anche evidenziano la
necessità di ridurre l’errore hardware per eseguire circuiti più lunghi e gestire dataset più
grandi.
2.1.5 Aspetti di data embedding e overhead computazionale nel QML
Uno dei temi centrali nel QML riguarda l’embedding dei dati classici in stati quantistici.
Per poter sfruttare l’elaborazione quantistica, occorre infatti mappare un vettore x∈Rd in un
∣ψ(x)⟩.
opportuno stato Questa fase, talvolta chiamata Quantum Feature Map, può
24
richiedere un numero di porte (e di qubit) considerevole, rischiando di annullare i vantaggi
offerti dalla sovrapposizione.
Esistono vari schemi di embedding, come l’amplitude encoding (dove le componenti
di x sono usate come ampiezze di probabilità) o il basis encoding (dove ogni feature è
associata a un qubit specifico). Ciascun metodo ha pro e contro in termini di risorse
necessarie e robustezza al rumore. Inoltre, il data embedding incide sulle performance
finali: una mappa quantistica progettata male non genererà alcun vantaggio concreto,
mentre una mappa accurata può ampliare lo spazio delle feature in modo potente.
Tuttavia, codificare un dataset di grandi dimensioni in un sistema quantistico può essere
costoso, poiché servono numerosi qubit (o gate) e, nei dispositivi attuali, ogni ulteriore gate
introduce ulteriore rumore. Questa limitazione riflette la principale sfida del QML: il
overhead computazionale di input può pesare più del guadagno di calcolo parallelo. Ecco
perché gli approcci ibridi tendono a usare embedding ridotti e dataset relativamente piccoli,
con la speranza di mantenere un circuito abbastanza corto da non distruggere le proprietà
quantistiche prima della misura.
Il Quantum Machine Learning si pone dunque come un campo di ricerca in rapida
evoluzione, nato dall’idea di coniugare le tecniche di machine learning con la potenza
potenziale offerta dalla computazione quantistica. Se da un lato i prototipi odierni (NISQ)
risultano ancora rumorosi e limitati, dall’altro essi consentono già di eseguire esperimenti
che mostrano possibili accelerazioni o miglioramenti di accuratezza in compiti di
classificazione, regressione e generazione di dati. La strategia oggi più seguita è quella di
costruire approcci ibridi, in cui la parte quantistica affronta il “nucleo difficile” del
problema, lasciando il resto dell’ottimizzazione a un processore classico.
In questo capitolo si è visto come la storia del QML prenda le mosse dai successi degli
algoritmi quantistici (Grover, Shor) e dal desiderio di applicare i principi di sovrapposizione
ed entanglement ai modelli di machine learning. La differenza cruciale rispetto al ML
25
tradizionale sta nella possibilità di esplorare e correlare stati con dimensioni esponenziali, a
patto di disporre di un hardware sufficientemente stabile. L’embedding dei dati, la
gestione del rumore e la correzione degli errori rimangono sfide aperte, così come la ricerca
di architetture sempre più efficaci (QSVM, QNN, QGAN).
Figura 4. Confronto tra uno schema di machine learning classico (a sinistra) e uno quantistico (a
destra), dove nel secondo caso i dati vengono elaborati mediante qubit ed entanglement. (Fonte:
[26]) 26
Capitolo 3: Algoritmi di Quantum Machine Learning
Principali Algoritmi di Quantum Machine Learning
Avendo trattato i dettagli teorici della computazione quantistica e le nozioni di Quantum
Machine Learning, in questo capitolo ci si occuperà degli esempi software dei seguenti
principali algoritmi e approcci di QML:
• Quantum Support Vector Machines (QSVM)
• Quantum Neural Networks (QNN)
• Quantum Generative Adversarial Networks (QGAN)
• Quantum Principal Component Analysis (QPCA)
• Quantum Clustering
Ognuna di queste pratiche è una versione rivisitata di metodi classici del machine learning o
addirittura una tecnica basata su metodi classici. In ogni caso, i principi della computazione
quantistica permettono di sfruttare la superposizione degli stati quantistici, l’unione
quantistica di variabili e altre regole della meccanica quantistica per ottenere un vantaggio
computazionale o anche una migliore capacità di generalizzazione. Bisogna però
27
sottolineare che questi approcci sono fortemente vincolati dai limiti dei dispositivi
quantistici accessibili, in quanto gli attuali computer e processori quantistici, comunemente
chiamati dispositivi NISQ (Noisy Intermediate-Scale Quantum), operano con un numero
limitato di qubit e una probabilità significativa di errore.
3.1 Quantum Support Vector Machines (QSVM)
Le Quantum Support Vector Machines (QSVM) rappresentano l'adattamento quantistico
delle macchine a vettori di supporto classiche, molto note per i problemi di classificazione e
regressione. L’idea fondamentale è sfruttare uno spazio di caratteristiche
quantistico (ossia lo spazio di Hilbert dei qubit) in cui mappare i dati, in modo analogo a
ciò che succede quando si impiega un kernel in una SVM classica.
1. Mappatura dei dati ∣ψ(x)⟩
I dati classici x∈R^n vengono codificati in stati quantistici tramite un circuito di
embedding (o feature map quantistica). Questa codifica può richiedere molte porte logiche,
a seconda della dimensionalità dei dati e del tipo di trasformazione desiderata.
2. Calcolo del kernel
In una SVM classica, il kernel K(x,y) valuta la similarità tra i punti x e y. In QSVM, il
kernel è definito come prodotto interno tra due stati quantistici:
K(x,y) = |⟨ψ(x) | ψ(y)⟩|²
Il vantaggio potenziale sta nella capacità di rappresentare implicitamente spazi di
dimensione esponenziale, grazie alla sovrapposizione di qubit.
3. Fase di addestramento ibrida
Di solito, la fase di ottimizzazione (trovare l’iperpiano ottimale) avviene su un computer
classico, che riceve come input le valutazioni del kernel quantistico. Questo approccio
ibrido consente di delegare il “lavoro” più intensivo sul calcolo dei kernel a un processore
28
quantistico, riducendo i tempi se paragonato a un kernel di altissima dimensione in un
contesto classico.
Tale approccio risulta promettente per gestire dataset ad alta dimensionalità, ma si scontra
con il rumore e la decoerenza dei dispositivi NISQ, oltre all’overhead di data embedding,
che possono attenuare i vantaggi teorici.
Figura 5. Schema di un circuito QSVM per il calcolo del kernel quantistico, con fasi di
∣ψ(x)⟩ ∣ψ(y)⟩,
preparazione degli stati e stima di fase (Phase Estimation) e misurazione finale.
(Fonte: [27])
Nel diagramma si distinguono due registri principali, dove vengono codificati i
∣ψ(x)⟩ ∣ψ(y)⟩,
dati e nonché uno o più registri ancillari impiegati per eseguire la stima di
fase o il confronto tra stati. In particolare, l’etichetta UPE si riferisce a un operatore
di Phase Estimation, che consente di “marcare” la differenza di fase tra due stati in modo
da misurare indirettamente la loro sovrapposizione. Durante la prima parte del circuito,
ciascun registro viene preparato con la feature map corrispondente (Ox, Oy o circuiti
equivalenti), che mappa i campioni classici x e y nei rispettivi stati quantistici. Dopodiché si
applicano le routine di stima di fase UPE (e la sua inversa UPE^−1), spesso in
concomitanza con un SWAP test o procedure analoghe, allo scopo di calcolare
⟨ψ(x)∣ψ(y)⟩.
l’overlap Il circuito R1 (o altre porte parametriche) può rappresentare piccole
correzioni o rotazioni su un qubit ancilla che codificano la misura dell’angolo di fase
29
accumulato. In chiusura, una misurazione dell’ancilla (e/o dei registri principali) fornisce il
valore del kernel quantistico K(x,y), utilizzabile poi nel training della SVM. In sostanza,
∣ψ(x)⟩ ∣ψ(y)⟩
l’obiettivo del circuito è “tradurre” la somiglianza dei dati e in un’uscita
misurabile, sfruttando la sovrapposizione e l’entanglement per calcolare in modo compatto
l’overlap tra stati. Tale procedimento costituisce il cuore dell’approccio QSVM, poiché
permette di lavorare in spazi di feature ad altissima dimensione (potenzialmente
esponenziale) attraverso un calcolo parallelo tipicamente non realizzabile nei metodi
classici.
3.1.1 Quantum Neural Networks (QNN)
Le Quantum Neural Networks (QNN) rappresentano l'evoluzione quantistica delle reti
neurali classiche, con l'obiettivo di sfruttare le proprietà uniche della meccanica quantistica
per migliorare l'addestramento e l'accuratezza dei modelli. L’idea di base è rimpiazzare i
neuroni e i pesi classici con qubit e porte quantistiche parametriche, permettendo in
linea teorica di esplorare spazi di configurazione molto ampi grazie alla superposizione.
3.1.2 Struttura di una QNN
In genere, i dati (feature numeriche o immagini codificate) vengono trasformati in stati
quantistici iniziali, da cui parte la computazione. Ogni layer quantistico è un circuito
composto da porte unitarie (Pauli-X, Y, Z, Hadamard) in parte rese parametriche (rotational
gates), e alcune di esse creano entanglement tra qubit, sostituendo il concetto di
connessione sinaptica. Alla fine del circuito, la misurazione riconverte lo stato in un output
classico (ad esempio 0/1 o una distribuzione di probabilità).
3.1.3 Addestramento delle QNN
L’addestramento si fonda su un algoritmo di ottimizzazione (Gradient Descent o varianti),
che calcola il gradiente dei parametri quantistici. Poiché la funzione di costo non è
30
direttamente accessibile come nelle reti neurali convenzionali, si utilizzano tecniche come
il Parameter Shift Rule o il Quantum Gradient Descent. Un problema tipico è la comparsa
di barren plateaus, regioni con gradiente prossimo allo zero, che ostacolano
l’apprendimento in circuiti profondi o con molti qubit. Per mitigare tali fenomeni, si
preferiscono architetture “shallow” e strategie di inizializzazione più raffinate.
3.1.4 Applicazioni e prospettive
Le QNN mostrano buone prospettive in riconoscimento di pattern complessi (immagini,
segnali), nell’NLP (Natural Language Processing) e nella simulazione di sistemi fisici,
dove una rappresentazione quantistica si int