Anteprima
Vedrai una selezione di 13 pagine su 58
Quantum Machine Learning: Challenges and Opportunities Pag. 1 Quantum Machine Learning: Challenges and Opportunities Pag. 2
Anteprima di 13 pagg. su 58.
Scarica il documento per vederlo tutto.
Quantum Machine Learning: Challenges and Opportunities Pag. 6
Anteprima di 13 pagg. su 58.
Scarica il documento per vederlo tutto.
Quantum Machine Learning: Challenges and Opportunities Pag. 11
Anteprima di 13 pagg. su 58.
Scarica il documento per vederlo tutto.
Quantum Machine Learning: Challenges and Opportunities Pag. 16
Anteprima di 13 pagg. su 58.
Scarica il documento per vederlo tutto.
Quantum Machine Learning: Challenges and Opportunities Pag. 21
Anteprima di 13 pagg. su 58.
Scarica il documento per vederlo tutto.
Quantum Machine Learning: Challenges and Opportunities Pag. 26
Anteprima di 13 pagg. su 58.
Scarica il documento per vederlo tutto.
Quantum Machine Learning: Challenges and Opportunities Pag. 31
Anteprima di 13 pagg. su 58.
Scarica il documento per vederlo tutto.
Quantum Machine Learning: Challenges and Opportunities Pag. 36
Anteprima di 13 pagg. su 58.
Scarica il documento per vederlo tutto.
Quantum Machine Learning: Challenges and Opportunities Pag. 41
Anteprima di 13 pagg. su 58.
Scarica il documento per vederlo tutto.
Quantum Machine Learning: Challenges and Opportunities Pag. 46
Anteprima di 13 pagg. su 58.
Scarica il documento per vederlo tutto.
Quantum Machine Learning: Challenges and Opportunities Pag. 51
Anteprima di 13 pagg. su 58.
Scarica il documento per vederlo tutto.
Quantum Machine Learning: Challenges and Opportunities Pag. 56
1 su 58
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

QSVM (Quantum Support Vector Machine) per compiti di classificazione, con un kernel

• quantistico calcolato via dispositivi NISQ;

QNN (Quantum Neural Networks), reti neurali parametriche dove i pesi sono gate

• quantistici variational, addestrati tramite un ottimizzatore classico;

QGAN (Quantum Generative Adversarial Networks), in cui generatore e discriminatore

• sono parzialmente o totalmente implementati su un processore quantistico.

In tutti questi casi, i risultati preliminari mostrano promesse, ma anche evidenziano la

necessità di ridurre l’errore hardware per eseguire circuiti più lunghi e gestire dataset più

grandi.

2.1.5 Aspetti di data embedding e overhead computazionale nel QML

Uno dei temi centrali nel QML riguarda l’embedding dei dati classici in stati quantistici.

Per poter sfruttare l’elaborazione quantistica, occorre infatti mappare un vettore x∈Rd in un

∣ψ(x)⟩.

opportuno stato Questa fase, talvolta chiamata Quantum Feature Map, può

24

richiedere un numero di porte (e di qubit) considerevole, rischiando di annullare i vantaggi

offerti dalla sovrapposizione.

Esistono vari schemi di embedding, come l’amplitude encoding (dove le componenti

di x sono usate come ampiezze di probabilità) o il basis encoding (dove ogni feature è

associata a un qubit specifico). Ciascun metodo ha pro e contro in termini di risorse

necessarie e robustezza al rumore. Inoltre, il data embedding incide sulle performance

finali: una mappa quantistica progettata male non genererà alcun vantaggio concreto,

mentre una mappa accurata può ampliare lo spazio delle feature in modo potente.

Tuttavia, codificare un dataset di grandi dimensioni in un sistema quantistico può essere

costoso, poiché servono numerosi qubit (o gate) e, nei dispositivi attuali, ogni ulteriore gate

introduce ulteriore rumore. Questa limitazione riflette la principale sfida del QML: il

overhead computazionale di input può pesare più del guadagno di calcolo parallelo. Ecco

perché gli approcci ibridi tendono a usare embedding ridotti e dataset relativamente piccoli,

con la speranza di mantenere un circuito abbastanza corto da non distruggere le proprietà

quantistiche prima della misura.

Il Quantum Machine Learning si pone dunque come un campo di ricerca in rapida

evoluzione, nato dall’idea di coniugare le tecniche di machine learning con la potenza

potenziale offerta dalla computazione quantistica. Se da un lato i prototipi odierni (NISQ)

risultano ancora rumorosi e limitati, dall’altro essi consentono già di eseguire esperimenti

che mostrano possibili accelerazioni o miglioramenti di accuratezza in compiti di

classificazione, regressione e generazione di dati. La strategia oggi più seguita è quella di

costruire approcci ibridi, in cui la parte quantistica affronta il “nucleo difficile” del

problema, lasciando il resto dell’ottimizzazione a un processore classico.

In questo capitolo si è visto come la storia del QML prenda le mosse dai successi degli

algoritmi quantistici (Grover, Shor) e dal desiderio di applicare i principi di sovrapposizione

ed entanglement ai modelli di machine learning. La differenza cruciale rispetto al ML

25

tradizionale sta nella possibilità di esplorare e correlare stati con dimensioni esponenziali, a

patto di disporre di un hardware sufficientemente stabile. L’embedding dei dati, la

gestione del rumore e la correzione degli errori rimangono sfide aperte, così come la ricerca

di architetture sempre più efficaci (QSVM, QNN, QGAN).

Figura 4. Confronto tra uno schema di machine learning classico (a sinistra) e uno quantistico (a

destra), dove nel secondo caso i dati vengono elaborati mediante qubit ed entanglement. (Fonte:

[26]) 26

Capitolo 3: Algoritmi di Quantum Machine Learning

Principali Algoritmi di Quantum Machine Learning

Avendo trattato i dettagli teorici della computazione quantistica e le nozioni di Quantum

Machine Learning, in questo capitolo ci si occuperà degli esempi software dei seguenti

principali algoritmi e approcci di QML:

• Quantum Support Vector Machines (QSVM)

• Quantum Neural Networks (QNN)

• Quantum Generative Adversarial Networks (QGAN)

• Quantum Principal Component Analysis (QPCA)

• Quantum Clustering

Ognuna di queste pratiche è una versione rivisitata di metodi classici del machine learning o

addirittura una tecnica basata su metodi classici. In ogni caso, i principi della computazione

quantistica permettono di sfruttare la superposizione degli stati quantistici, l’unione

quantistica di variabili e altre regole della meccanica quantistica per ottenere un vantaggio

computazionale o anche una migliore capacità di generalizzazione. Bisogna però

27

sottolineare che questi approcci sono fortemente vincolati dai limiti dei dispositivi

quantistici accessibili, in quanto gli attuali computer e processori quantistici, comunemente

chiamati dispositivi NISQ (Noisy Intermediate-Scale Quantum), operano con un numero

limitato di qubit e una probabilità significativa di errore.

3.1 Quantum Support Vector Machines (QSVM)

Le Quantum Support Vector Machines (QSVM) rappresentano l'adattamento quantistico

delle macchine a vettori di supporto classiche, molto note per i problemi di classificazione e

regressione. L’idea fondamentale è sfruttare uno spazio di caratteristiche

quantistico (ossia lo spazio di Hilbert dei qubit) in cui mappare i dati, in modo analogo a

ciò che succede quando si impiega un kernel in una SVM classica.

1. Mappatura dei dati ∣ψ(x)⟩

I dati classici x∈R^n vengono codificati in stati quantistici tramite un circuito di

embedding (o feature map quantistica). Questa codifica può richiedere molte porte logiche,

a seconda della dimensionalità dei dati e del tipo di trasformazione desiderata.

2. Calcolo del kernel

In una SVM classica, il kernel K(x,y) valuta la similarità tra i punti x e y. In QSVM, il

kernel è definito come prodotto interno tra due stati quantistici:

K(x,y) = |⟨ψ(x) | ψ(y)⟩|²

Il vantaggio potenziale sta nella capacità di rappresentare implicitamente spazi di

dimensione esponenziale, grazie alla sovrapposizione di qubit.

3. Fase di addestramento ibrida

Di solito, la fase di ottimizzazione (trovare l’iperpiano ottimale) avviene su un computer

classico, che riceve come input le valutazioni del kernel quantistico. Questo approccio

ibrido consente di delegare il “lavoro” più intensivo sul calcolo dei kernel a un processore

28

quantistico, riducendo i tempi se paragonato a un kernel di altissima dimensione in un

contesto classico.

Tale approccio risulta promettente per gestire dataset ad alta dimensionalità, ma si scontra

con il rumore e la decoerenza dei dispositivi NISQ, oltre all’overhead di data embedding,

che possono attenuare i vantaggi teorici.

Figura 5. Schema di un circuito QSVM per il calcolo del kernel quantistico, con fasi di

∣ψ(x)⟩ ∣ψ(y)⟩,

preparazione degli stati e stima di fase (Phase Estimation) e misurazione finale.

(Fonte: [27])

Nel diagramma si distinguono due registri principali, dove vengono codificati i

∣ψ(x)⟩ ∣ψ(y)⟩,

dati e nonché uno o più registri ancillari impiegati per eseguire la stima di

fase o il confronto tra stati. In particolare, l’etichetta UPE si riferisce a un operatore

di Phase Estimation, che consente di “marcare” la differenza di fase tra due stati in modo

da misurare indirettamente la loro sovrapposizione. Durante la prima parte del circuito,

ciascun registro viene preparato con la feature map corrispondente (Ox, Oy o circuiti

equivalenti), che mappa i campioni classici x e y nei rispettivi stati quantistici. Dopodiché si

applicano le routine di stima di fase UPE (e la sua inversa UPE^−1), spesso in

concomitanza con un SWAP test o procedure analoghe, allo scopo di calcolare

⟨ψ(x)∣ψ(y)⟩.

l’overlap Il circuito R1 (o altre porte parametriche) può rappresentare piccole

correzioni o rotazioni su un qubit ancilla che codificano la misura dell’angolo di fase

29

accumulato. In chiusura, una misurazione dell’ancilla (e/o dei registri principali) fornisce il

valore del kernel quantistico K(x,y), utilizzabile poi nel training della SVM. In sostanza,

∣ψ(x)⟩ ∣ψ(y)⟩

l’obiettivo del circuito è “tradurre” la somiglianza dei dati e in un’uscita

misurabile, sfruttando la sovrapposizione e l’entanglement per calcolare in modo compatto

l’overlap tra stati. Tale procedimento costituisce il cuore dell’approccio QSVM, poiché

permette di lavorare in spazi di feature ad altissima dimensione (potenzialmente

esponenziale) attraverso un calcolo parallelo tipicamente non realizzabile nei metodi

classici.

3.1.1 Quantum Neural Networks (QNN)

Le Quantum Neural Networks (QNN) rappresentano l'evoluzione quantistica delle reti

neurali classiche, con l'obiettivo di sfruttare le proprietà uniche della meccanica quantistica

per migliorare l'addestramento e l'accuratezza dei modelli. L’idea di base è rimpiazzare i

neuroni e i pesi classici con qubit e porte quantistiche parametriche, permettendo in

linea teorica di esplorare spazi di configurazione molto ampi grazie alla superposizione.

3.1.2 Struttura di una QNN

In genere, i dati (feature numeriche o immagini codificate) vengono trasformati in stati

quantistici iniziali, da cui parte la computazione. Ogni layer quantistico è un circuito

composto da porte unitarie (Pauli-X, Y, Z, Hadamard) in parte rese parametriche (rotational

gates), e alcune di esse creano entanglement tra qubit, sostituendo il concetto di

connessione sinaptica. Alla fine del circuito, la misurazione riconverte lo stato in un output

classico (ad esempio 0/1 o una distribuzione di probabilità).

3.1.3 Addestramento delle QNN

L’addestramento si fonda su un algoritmo di ottimizzazione (Gradient Descent o varianti),

che calcola il gradiente dei parametri quantistici. Poiché la funzione di costo non è

30

direttamente accessibile come nelle reti neurali convenzionali, si utilizzano tecniche come

il Parameter Shift Rule o il Quantum Gradient Descent. Un problema tipico è la comparsa

di barren plateaus, regioni con gradiente prossimo allo zero, che ostacolano

l’apprendimento in circuiti profondi o con molti qubit. Per mitigare tali fenomeni, si

preferiscono architetture “shallow” e strategie di inizializzazione più raffinate.

3.1.4 Applicazioni e prospettive

Le QNN mostrano buone prospettive in riconoscimento di pattern complessi (immagini,

segnali), nell’NLP (Natural Language Processing) e nella simulazione di sistemi fisici,

dove una rappresentazione quantistica si int

Dettagli
Publisher
A.A. 2024-2025
58 pagine
SSD Scienze matematiche e informatiche INF/01 Informatica

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher mimmo941 di informazioni apprese con la frequenza delle lezioni di Intelligenza Artificiale e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli studi di Napoli Federico II o del prof Sperlì Giancarlo.