Klassieke neurale netwerken (CNN's) en kwantumneurale netwerken (QNN's) vertegenwoordigen twee verschillende paradigma's in computationele modellering, elk gebaseerd op fundamenteel verschillende fysieke substraten en wiskundige frameworks. Om hun verschillen te begrijpen, is een verkenning nodig van hun architectuur, computationele principes, leermechanismen, datarepresentaties en de implicaties voor de implementatie van neurale netwerklagen, met name met betrekking tot frameworks zoals TensorFlow Quantum (TFQ).
1. Fysiek substraat en computermodel
Klassieke neurale netwerken worden geïmplementeerd op conventionele digitale computers en maken gebruik van bits (binaire 0 en 1) als basiseenheid van informatie. Hun berekeningen omvatten deterministische of stochastische manipulaties van deze bits, meestal via matrixvermenigvuldigingen en niet-lineaire activeringsfuncties. De onderliggende hardware verwerkt informatie sequentieel of parallel met behulp van transistoren en klassieke logische poorten.
In schril contrast hiermee maken kwantumneurale netwerken gebruik van de principes van de kwantummechanica: superpositie, verstrengeling en kwantuminterferentie. De basiseenheid van kwantuminformatie is de qubit, die, in tegenstelling tot de klassieke bit, kan bestaan in een superpositie van 0 en 1 toestanden. QNN's werken op kwantumcomputers, waar berekeningen worden uitgevoerd via kwantumcircuits die bestaan uit unitaire bewerkingen (kwantumpoorten) die inwerken op kwantumtoestanden. Dit fundamentele onderscheid stelt QNN's in staat om informatie op intrinsiek verschillende manieren te verwerken en in sommige gevallen gebruik te maken van kwantumparallellisme dat niet beschikbaar is voor klassieke systemen.
2. Gegevensrepresentatie en codering
Klassieke neurale netwerken accepteren reële of discrete data, wat standaard compatibel is met conventionele hardware. Elke invoerfunctie wordt doorgaans weergegeven als een vector met getallen, die direct toegankelijk is voor de netwerklagen.
Kwantumneurale netwerken daarentegen moeten klassieke data coderen in kwantumtoestanden – een proces dat bekend staat als kwantumdatacodering of kwantumkenmerkmapping. Er bestaan verschillende coderingsschema's, zoals basiscodering, amplitudecodering en hoekcodering. Bij hoekcodering bijvoorbeeld, moet een klassieke kenmerk
kan in een qubittoestand worden ingebed door een rotatiepoort toe te passen
naar de qubit. De keuze van de coderingsstrategie heeft belangrijke gevolgen voor de expressiviteit en efficiëntie van QNN's, aangezien de Hilbertruimte exponentieel groeit met het aantal qubits, wat een enorme bron biedt voor hoogdimensionale datarepresentatie.
3. Netwerkarchitectuur en laaggewijs leren
Klassieke neurale netwerken zijn opgebouwd uit lagen bestaande uit neuronen die met elkaar verbonden zijn via gewogen randen. Elk neuron berekent een gewogen som van zijn input, past een niet-lineaire activeringsfunctie toe en propageert het resultaat naar voren. Laagsgewijs leren in klassieke netwerken omvat het bijwerken van de parameters (gewichten en biases) van elke laag met behulp van optimalisatiealgoritmen zoals stochastische gradiëntafdaling, aangestuurd door het backpropagation-algoritme.
Kwantumneurale netwerken, met name in de context van hybride kwantum-klassieke modellen zoals geïmplementeerd in TensorFlow Quantum, zijn opgebouwd uit geparametriseerde kwantumcircuits (PQC's). Elke "laag" correspondeert met een set kwantumpoorten met instelbare parameters (bijv. rotatiehoeken). Deze lagen kunnen worden gestapeld, analoog aan klassieke lagen, maar de bewerkingen die ze uitvoeren zijn fundamenteel anders: lagen passen unitaire transformaties toe op kwantumtoestanden, waardoor mogelijk meerdere qubits met elkaar verstrengeld raken. Laagsgewijs leren in QNN's omvat het bijwerken van de parameters van kwantumpoorten om een verliesfunctie te minimaliseren, die doorgaans wordt geëvalueerd door het meten van verwachtingswaarden van observables op het kwantumapparaat. Dit proces vereist vaak hybride optimalisatie, waarbij een klassieke optimizer parameters bijwerkt op basis van de uitkomsten van kwantummetingen.
4. Voorwaartse en achterwaartse voortplanting
In klassieke neurale netwerken behelst voorwaartse propagatie het berekenen van de activaties voor elke laag, terwijl achterwaartse propagatie de gradiënten van het verlies berekent ten opzichte van de netwerkparameters met behulp van de ketenregel van de calculus (automatische differentiatie). De wiskundige bewerkingen zijn goed gedefinieerd en efficiënt dankzij het deterministische karakter van klassieke berekeningen.
De forward pass van kwantumneurale netwerken past het geparametriseerde kwantumcircuit toe op een begintoestand, gevolgd door metingen om verwachtingswaarden te extraheren die als uitvoer van het netwerk dienen. Backpropagatie in QNN's is genuanceerder, aangezien directe differentiatie via kwantumcircuits niet triviaal is vanwege de probabilistische aard van kwantummeting en de unitariteit van kwantumevolutie. Technieken zoals de parameterverschuivingsregel of eindige-verschilmethoden worden gebruikt om gradiënten met betrekking tot circuitparameters te schatten. TensorFlow Quantum biedt abstracties om dit proces te vergemakkelijken, waardoor de integratie van kwantumlagen in klassieke computationele grafieken mogelijk wordt.
5. Niet-lineariteit en activeringsfuncties
Klassieke neurale netwerken maken gebruik van expliciete, puntsgewijs niet-lineaire activeringsfuncties (bijv. ReLU, sigmoïd, tanh) om complexiteit te introduceren en de modellering van niet-lineaire relaties mogelijk te maken. Deze functies worden toegepast na lineaire transformaties, zoals matrixvermenigvuldigingen in volledig verbonden of convolutionele lagen.
Kwantumbewerkingen zijn fundamenteel lineair vanwege de unitaire aard van kwantumpoorten; de evolutie van een kwantumtoestand in een kwantumcircuit wordt beschreven door een lineaire transformatie in de Hilbertruimte. Niet-lineariteit in kwantumneurale netwerken ontstaat pas na meting, aangezien de meting de kwantumtoestand probabilistisch doet instorten. Er zijn enkele quantumneurale netwerkarchitecturen voorgesteld die klassieke niet-lineariteiten nabootsen door middel van slim circuitontwerp of door de probabilistische uitkomsten van metingen te benutten. De aard en implementatie van niet-lineariteit in kwantumnetwerken blijven echter een actief onderzoeksgebied.
6. Expressiviteit en computationele complexiteit
Klassieke neurale netwerken hebben opmerkelijk empirisch succes laten zien in een breed scala aan taken, toegeschreven aan hun vermogen om willekeurige functies te benaderen bij voldoende diepte en breedte – een eigenschap die geformaliseerd is door de universele benaderingsstelling. Hun expressiviteit wordt echter uiteindelijk beperkt door het aantal parameters en de beschikbare rekenkracht.
Kwantumneurale netwerken kunnen in principe gebruikmaken van de exponentiële schaal van de Hilbertruimte om bepaalde functies of kansverdelingen te representeren die onhandelbaar zijn voor klassieke netwerken. Zo kunnen kwantumneurale netwerken (QNN's) efficiënt kwantumsystemen of problemen modelleren waarvan men denkt dat ze klassiek moeilijk zijn, zoals het simuleren van moleculaire energieën of bepaalde klassen van optimalisatie- en bemonsteringsproblemen. De precieze grenzen van kwantumvoordeel blijven onderwerp van voortdurend theoretisch en experimenteel onderzoek.
7. Trainingsgegevens en schaalbaarheid
Klassieke neurale netwerken kunnen efficiënt worden getraind op grote datasets met behulp van mini-batchoptimalisatie en parallelle verwerking op gespecialiseerde hardware (zoals GPU's en TPU's). De schaalbaarheid van klassieke netwerken is goed begrepen, met volwassen softwareframeworks en hardwareversnellers die breed beschikbaar zijn.
Kwantumneurale netwerken, met name in het NISQ-tijdperk (Noisy Intermediate-Scale Quantum), staan voor aanzienlijke uitdagingen op het gebied van schaalbaarheid. Kwantumhardware wordt momenteel beperkt door het aantal beschikbare, high-fidelity qubits en de gevoeligheid voor ruis en decoherentie. Het trainen van QNN's vereist herhaalde kwantumcircuituitvoeringen (shots) om verwachtingswaarden te schatten, wat tijdrovend en statistisch ruisachtig kan zijn. Hybride architecturen, zoals mogelijk gemaakt door TensorFlow Quantum, proberen deze beperkingen te beperken door zoveel mogelijk rekenwerk over te dragen aan klassieke coprocessoren en kwantumcircuits te reserveren voor subroutines waarvan wordt aangenomen dat ze een kwantumvoordeel bieden.
8. Fout, ruis en robuustheid
Klassieke neurale netwerken kunnen worden geregulariseerd en robuust gemaakt tegen ruis in data met behulp van gevestigde technieken zoals dropout, batchnormalisatie en data-augmentatie. Klassieke berekeningen zijn zeer betrouwbaar, met verwaarloosbare foutpercentages op hardwareniveau.
Quantumhardware is inherent ruisachtig, met fouten die voortkomen uit imperfecte poortbewerkingen, qubitdecoherentie en onnauwkeurige metingen. Het beperken van fouten en corrigeren van quantumfouten zijn actieve onderzoeksgebieden, maar blijven een uitdaging gezien de huidige hardwarebeperkingen. Algoritmen en modellen die voor quantumcomputing zijn ontworpen, moeten bestand zijn tegen dergelijke fouten, en praktische QNN-implementaties moeten rekening houden met ruis in zowel de trainings- als de inferentiefase.
9. Interpretabiliteit
De interpretatie van klassieke neurale netwerken is weliswaar nog steeds een uitdaging, maar wordt ondersteund door een reeks technieken zoals kenmerkbelang, saillantiekaarten en laaggewijze relevantiepropagatie. De gevestigde wiskundige basis maakt een zekere mate van modelintrospectie mogelijk.
Kwantumneurale netwerken zijn, vanwege hun afhankelijkheid van hoogdimensionale complexe vectorruimten, minder geschikt voor traditionele interpreteerbaarheidstechnieken. De probabilistische aard van kwantummeting en de abstractie van de evolutie van kwantumtoestanden compliceren de pogingen om te begrijpen en visualiseren wat kwantumneurale netwerken "leren". Onderzoek naar de interpreteerbaarheid van kwantummodellen staat nog in de kinderschoenen en er zijn nieuwe tools nodig om inzicht te bieden in kwantumrepresentaties.
10. Voorbeeld: Laaggewijs leren in TensorFlow Quantum
TensorFlow Quantum (TFQ) is ontworpen om de constructie en training van hybride kwantum-klassieke modellen binnen het vertrouwde TensorFlow-ecosysteem mogelijk te maken. In dit raamwerk worden kwantumlagen gedefinieerd als geparametriseerde kwantumcircuits, en kunnen klassieke lagen vóór of na kwantumlagen worden gebruikt om data en output te verwerken.
Beschouw een hybride model voor binaire classificatie:
- Klassieke pre-processinglaag: Er wordt een standaard dichte laag of feature-transformatie toegepast op de invoergegevens om de features voor te bereiden op kwantumcodering.
- Quantum Data Encoding Laag: De verwerkte kenmerken worden gecodeerd in een kwantumcircuit met behulp van bijvoorbeeld een reeks rotatiepoorten (bijvoorbeeld
) toegepast op individuele qubits.
- Geparameteriseerd kwantumcircuit (kwantumlaag): Lagen van verstrengelingspoorten en single-qubitrotaties worden geparametriseerd door trainbare variabelen. Deze vormen de kern van het QNN, waarbij elke laag overeenkomt met een andere set kwantumpoorten.
- Meetlaag: Kwantummetingen worden uitgevoerd om verwachtingswaarden van specifieke waarnemingen te extraheren (bijvoorbeeld Pauli-Z-operatoren op elke qubit), wat resulteert in een klassieke vector van waarden.
- Klassieke nabewerkingslaag: De meetresultaten worden in verdere, dichtere lagen of activeringsfuncties ingevoerd om de uiteindelijke voorspelling te produceren.
Tijdens de training worden gradiënten berekend met betrekking tot de parameters van zowel klassieke als kwantumlagen. Voor de parameters van het kwantumcircuit gebruikt TFQ technieken zoals de parameterverschuivingsregel om de gradiënten te schatten die nodig zijn voor optimalisatie. De parameters van elke kwantumlaag worden laagsgewijs bijgewerkt, vergelijkbaar met klassieke netwerken, maar de onderliggende bewerkingen zijn kwantummechanisch.
11. Case Study: Variationele kwantumclassificator
Een praktisch voorbeeld is de variationele kwantumclassificator (VQC), die een QNN implementeert voor gesuperviseerde leertaken. De VQC bestaat uit:
- Functiekaart: Een kwantumcircuit dat klassieke invoervectoren codeert in kwantumtoestanden.
- Variatiecircuit: Een geparameteriseerd kwantumcircuit dat inwerkt op de gecodeerde toestanden.
- Meting: De uitkomst van het meten van een bepaalde waarneembare grootheid, zoals de Pauli-Z-operator op een gegeven qubit, wordt geïnterpreteerd als het klasselabel.
Het trainingsproces is gericht op het minimaliseren van een verliesfunctie (bijvoorbeeld kruisentropie) door de circuitparameters iteratief bij te werken met behulp van klassieke optimalisatieroutines. Deze aanpak behelst laagsgewijs leren, waarbij elke laag (d.w.z. een set kwantumpoorten) wordt aangepast op basis van de invloed die deze uitoefent op het verlies, vergelijkbaar met het aanpassen van gewichten in klassieke netwerken. Het optimalisatielandschap in QNN's kan echter unieke kenmerken vertonen, zoals kale plateaus – gebieden waar gradiënten exponentieel verdwijnen – die nieuwe uitdagingen met zich meebrengen die verschillen van die in klassieke netwerken.
12. Theoretische en praktische beperkingen
Hoewel klassieke neurale netwerken beperkt zijn door polynomiale schaalbaarheid in zowel geheugen als berekeningen, worden ze ondersteund door decennia aan hardware- en algoritmische optimalisaties. Hun beperkingen zijn goed gekarakteriseerd en hun empirische prestaties zijn robuust in meerdere domeinen.
Kwantumneurale netwerken hebben het theoretische potentieel om klassieke netwerken te overtreffen in specifieke toepassingen, met name waar kwantumeffecten kunnen worden benut voor rekensnelheid of verbeterde expressiviteit. Hun praktische toepassing wordt echter beperkt door de huidige hardwarebeperkingen, ruis en de behoefte aan gespecialiseerde expertise in kwantumprogrammering en -fysica. De volwassenheid van softwareframeworks zoals TensorFlow Quantum neemt toe, maar het vakgebied bevindt zich nog in een fase van snelle ontwikkeling.
13. Samenvattingstabel: Belangrijkste verschillen
| Aspect | Klassieke neurale netwerken | Quantum neurale netwerken |
|---|---|---|
| Data weergave | Reële vectoren, tensoren | Kwantumtoestanden (qubits) |
| Informatieverwerking | Deterministisch/stochastisch, bits | Probabilistisch, qubits, superpositie |
| Laagfunctionaliteit | Gewogen som + activeringsfunctie | Geparametriseerde kwantumpoorten (unitaire operaties) |
| Niet-lineariteit | Expliciete activeringsfuncties | Impliciet via meting |
| Training | Backpropagation, gradiëntafdaling | Parameterverschuivingsregel, hybride optimalisatie |
| Schaalbaarheid | Grootschalige, efficiënte hardware | Beperkt door het aantal qubits en apparaten met veel ruis |
| Foutrobuustheid | Hoge, volwassen foutverwerking | Gevoelig voor ruis, foutcorrectie in de kinderschoenen |
| Interpreteerbaarheid | Ondersteund door verschillende technieken | Grotendeels onontgonnen |
| Implementatie (bijv. TFQ) | Directe, volwassen raamwerken | Hybride kwantum-klassieke modellen |
14. Toekomstige toepassingen
Klassieke neurale netwerken domineren een breed scala aan praktische toepassingen, waaronder computer vision, natuurlijke taalverwerking en reinforcement learning. Hun veelzijdigheid en schaalbaarheid hebben geleid tot brede acceptatie in de industrie en de academische wereld.
Kwantumneurale netwerken worden onderzocht voor taken zoals kwantumchemische simulatie, het oplossen van combinatorische optimalisatieproblemen en kwantumverbeterd machinaal leren. QNN's kunnen bijvoorbeeld voordelen bieden bij het leren en weergeven van kansverdelingen die van nature kwantum zijn of te complex voor klassieke netwerken. Hybride kwantum-klassieke modellen, met name binnen TensorFlow Quantum, stellen onderzoekers in staat om dergelijke toepassingen te prototypen en te testen, wat de weg vrijmaakt voor toekomstige ontwikkelingen naarmate de kwantumhardware zich verder ontwikkelt.
15. Slotopmerkingen
De belangrijkste verschillen tussen klassieke en kwantumneurale netwerken gaan verder dan louter implementatiedetails en weerspiegelen grote verschillen in hoe informatie wordt weergegeven, verwerkt en geleerd. Terwijl klassieke neurale netwerken opereren binnen het goed begrepen domein van klassieke berekeningen, dagen kwantumneurale netwerken conventionele paradigma's uit en openen ze nieuwe mogelijkheden voor onderzoek en toepassing van machine learning, vooral naarmate kwantumtechnologieën zich blijven ontwikkelen.
Andere recente vragen en antwoorden over EITC/AI/TFQML TensorFlow Quantum Machine Learning:
- Welk probleem werd er precies opgelost met de prestatie van kwantumsuprematie?
- Wat zijn de gevolgen van het bereiken van kwantumsuprematie?
- Wat zijn de voordelen van het gebruik van het Rotosolve-algoritme ten opzichte van andere optimalisatiemethoden zoals SPSA in de context van VQE, met name wat betreft de soepelheid en efficiëntie van convergentie?
- Hoe optimaliseert het Rotosolve-algoritme de parameters ( θ ) in VQE, en wat zijn de belangrijkste stappen bij dit optimalisatieproces?
- Wat is de betekenis van geparametriseerde rotatiepoorten ( U(θ) ) in VQE, en hoe worden ze doorgaans uitgedrukt in termen van trigonometrische functies en generatoren?
- Hoe wordt de verwachtingswaarde van een operator (A) in een kwantumtoestand beschreven door (ρ) berekend, en waarom is deze formulering belangrijk voor VQE?
- Wat is de rol van de dichtheidsmatrix ( ρ ) in de context van kwantumtoestanden, en hoe verschilt deze voor zuivere en gemengde toestanden?
- Wat zijn de belangrijkste stappen bij het construeren van een kwantumcircuit voor een Hamiltoniaan van twee qubit in TensorFlow Quantum, en hoe zorgen deze stappen voor een nauwkeurige simulatie van het kwantumsysteem?
- Hoe worden de metingen omgezet in de Z-basis voor verschillende Pauli-termen, en waarom is deze transformatie nodig in de context van VQE?
- Welke rol speelt de klassieke optimizer in het VQE-algoritme, en welke specifieke optimizer wordt gebruikt in de beschreven TensorFlow Quantum-implementatie?
Bekijk meer vragen en antwoorden in EITC/AI/TFQML TensorFlow Quantum Machine Learning

