Zur Kurzanzeige

dc.identifier.uri http://dx.doi.org/10.15488/11896
dc.identifier.uri https://www.repo.uni-hannover.de/handle/123456789/11991
dc.contributor.author Beer, Kerstin eng
dc.date.accessioned 2022-03-21T09:27:31Z
dc.date.available 2022-03-21T09:27:31Z
dc.date.issued 2022
dc.identifier.citation Beer, Kerstin: Quantum neural networks. Hannover : Gottfried Wilhelm Leibniz Universität, Diss., 2022, IX, 179 S., DOI: https://doi.org/10.15488/11896 eng
dc.description.abstract Quantum computing is one of the most exciting research areas of the last decades. At the same time, methods of machine learning have started to dominate science, industry and our everyday life. In this thesis we combine these two essential research topics of the 21st century and introduce dissipative quantum neural networks (DQNNs), which are designed for fully quantum learning tasks, are capable of universal quantum computation and have low memory requirements while training. We start the discussion of this interdisciplinary topic by introducing artificial neural networks, which are a very common tool in classical machine learning. Next, we give an overview on quantum information. Here we focus on quantum algorithms and circuits, which are used to implement quantum neural networks. Moreover, we explain the opportunities and challenges arising with today's quantum computers. The discussion of the architecture and training algorithm of the DQNNs forms the core of this work. These networks are optimised with training data pairs in form of input and desired output states and therefore can be used for characterising unknown or untrusted quantum devices. We not only demonstrate the generalisation behaviour of these quantum neural networks using classical simulations, but also implement them successfully on actual quantum computers. To understand the ultimate limits for such quantum machine learning methods, we discuss the quantum no free lunch theorem, which describes a bound on the probability that a quantum device, which can be modelled as a unitary process and is optimised with quantum examples, gives an incorrect output for a random input. This gives us a tool to review the learning behaviour of quantum neural networks in general and the DQNNs in particular. Moreover we expand the area of applications of DQNNs in two directions. In the first case, we include additional information beyond just the training data pairs: since quantum devices are always structured, the resulting data is always structured as well. We modify the DQNN's training algorithm such that knowledge about the graph-structure of the training data pairs is included in the training process and show that this can lead to better generalisation behaviour. Both the original DQNN and the DQNN including graph structure are trained with data pairs in order to characterise an underlying relation. However, in the second extension of the algorithm we aim to learn characteristics of a set of quantum states in order to extend it to quantum states which have similar properties. Therefore we build a generative adversarial model where two DQNNs, called the generator and discriminator, are trained in a competitive way. Overall, we observe that DQNNs can not only be trained efficiently but also, similar to their classical counterparts, modified to suit different applications. eng
dc.description.abstract Quantencomputer bilden eines der spannendsten Forschungsgebiete der letzten Jahrzehnte. Zur gleichen Zeit haben Methoden des maschinellen Lernens begonnen die Wissenschaft, Industrie und unseren Alltag zu dominieren. In dieser Arbeit kombinieren wir diese beiden wichtigen Forschungsthemen des 21. Jahrhunderts und stellen dissipative quantenneuronale Netze (DQNNs) vor, die für Quantenlernaufgaben konzipiert sind, universelle Quantenberechnungen durchführen können und wenig Speicherbedarf beim Training benötigen. Wir beginnen die Diskussion dieses interdisziplinären Themas mit der Einführung künstlicher neuronaler Netze, die beim klassischen maschinellen Lernen weit verbreitet sind. Dann geben wir einen Überblick über die Quanteninformationstheorie. Hier fokussieren wir uns auf die zur Implementierung von quantenneuronalen Netzen nötigen Quantenalgorithmen und -schaltungen. Außerdem erläutern wir die Chancen und Herausforderungen der heutigen Quantencomputer. Die Diskussion der Architektur und des Trainingsalgorithmus der DQNNs bildet den Mittelpunkt dieser Arbeit. Diese Netzwerke werden mit Trainingsdatenpaaren in Form von Eingangs- und gewünschten Ausgangszuständen optimiert und können daher zur Charakterisierung unbekannter oder nicht vertrauenswürdiger Quantenbauelemente verwendet werden. Wir demonstrieren nicht nur das Generalisierungsverhalten dieser Netze anhand klassischer Simulationen, sondern konstruieren auch eine erfolgreiche Implementierung für Quantencomputer. Um die ultimativen Grenzen solcher Methoden zum maschinellen Lernen von Quantendaten zu verstehen, führen wir das quantum no free lunch-Theorem ein, welches eine Begrenzung für die Wahrscheinlichkeit beschreibt, dass ein als unitärer Prozess modellierbares und mit Quantendaten optimiertes Quantenbauelement eine falsche Ausgabe für eine zufällige Eingabe herausgibt. Das Theorem gibt uns ein Werkzeug, um das Lernverhalten von quantenneuronalen Netzwerken im Allgemeinen und der DQNNs im Besonderen zu überprüfen. Darüber hinaus erweitern wir den Anwendungsbereich von DQNNs auf zwei Weisen. Im ersten Fall beziehen wir Informationen zusätzlich zu den Trainingsdaten mit ein: Da Quantenbauelemente immer eine gewisse Struktur haben, sind auch die resultierenden Daten strukturiert. Wir modifizieren den Trainingsalgorithmus der DQNNs so, dass Kenntnisse über die Struktur genutzt werden können und zeigen, dass dies zu einem besseren Trainingsergebnis führen kann. Sowohl das ursprüngliche DQNN als auch das Graphen-DQNN wird mit Datenpaaren trainiert, um eine zugrunde liegende Relation zu charakterisieren. Als zweite Erweiterung wollen wir jedoch die Eigenschaften einer Menge einzelner Quantenzustände untersuchen, um sie mit Quantenzuständen ähnlicher Eigenschaften zu erweitern. Daher konstruieren wir ein Modell, bei dem zwei DQNNs, Generator und Diskriminator genannt, kompetitiv trainiert werden. Zusammenfassend stellen wir fest, dass DQNNs nicht nur effizient trainiert, sondern auch, ähnlich wie ihre klassischen Gegenstücke, an unterschiedliche Anwendungen angepasst werden können. eng
dc.language.iso eng eng
dc.publisher Hannover : Institutionelles Repositorium der Leibniz Universität Hannover
dc.rights CC BY 3.0 DE eng
dc.rights.uri http://creativecommons.org/licenses/by/3.0/de/ eng
dc.subject quantum computing eng
dc.subject neural network eng
dc.subject machine learning eng
dc.subject Quantencomputer ger
dc.subject Neuronales Netz ger
dc.subject Maschinelles Lernen ger
dc.subject.ddc 530 | Physik eng
dc.title Quantum neural networks eng
dc.type DoctoralThesis eng
dc.type Text eng
dcterms.extent IX, 179 S.
dc.description.version publishedVersion eng
tib.accessRights frei zug�nglich eng


Die Publikation erscheint in Sammlung(en):

Zur Kurzanzeige

 

Suche im Repositorium


Durchblättern

Mein Nutzer/innenkonto

Nutzungsstatistiken