Wird ein weiteres Versprechen der Wissenschaft schon bald Realität? – Wie steht es um den Quantencomputer?

Ein Begriff, der den meisten Menschen so unheimlich-bizarr wie aufregend-futuristisch vorkommt, drängt immer mehr in die Sphäre der öffentlichen Aufmerksamkeit. In ihm kombiniert sich die scheinbare technologische Allmacht des digitalen Rechnens mit der ehrfurchteinflössenden Abstraktheit der bedeutendsten physikalischen Theorie des 20. Jahrhunderts. Die Rede ist vom „Quantencomputer”. Dahinter verbergen sich keine esoterische Träume von Wunderheilungen und Seelenreinigungen („Quantenheilung”), spirituellen Wohnungseinrichtungen („Quanten-Feng-Shui”), universell-perfekten Liebesbeziehungen („Quanten-Resonanz”) oder sonstiger Unsinn, den Esoteriker gerne mit „Quanten” assoziieren, und auch nicht in betrügerischer Absicht operierende Finanzhandelsplattformen wie die kürzlich fälschlicherweise mit Elon Musk in Verbindung gebrachte QuantumAITrade, sondern eine sich real anbahnende technologische Revolution, die das 21. Jahrhundert ähnlich bedeutend prägen könnte, wie die Entwicklung digitaler Schaltkreise, Laser und Atomenergie das 20. Jahrhundert geformt hat.

Da die Elemente herkömmlicher Chips unterdessen nahezu auf atomaren Grössenordnungen operieren, zeichnet sich mit dem Auslaufen der Gültigkeit des Moore‘schen Gesetzes in Bezug auf Rechengeschwindigkeit, Problemlösungskapazität und Effizienz in der Informationsverarbeitung für klassische Computer allmählich das Ende der Fahnenstange an. Doch bahnt sich eine womöglich ganz neue Möglichkeit an, noch weitaus schnellere, ja sogar millionen- und milliardenfach leistungsfähigere Computer als die schnellsten heutigen Computer zu bauen, eben jene Quantencomputer. Mit ihrer Hilfe liessen sich Probleme lösen, die für die heute in Physik, Biologie, Wetterforschung und anderswo eingesetzten „Supercomputer” noch bei weitem zu komplex sind.

Doch beruhen nicht bereits die Bausteine herkömmlicher Computer massgeblich auf quantenmechanischen Gesetzmässigkeiten, wie beispielsweise auf dem Transistoreffekt? Tatsächlich wäre die digitale Revolution des 20. Jahrhunderts ohne die Quantenphysik gar nicht möglich gewesen. Nichtsdestotrotz sind Aufbau und Funktionalität konventioneller Computer, die so genannte „Von-Neumann-Architektur”, prinzipiell auch ohne quantenphysikalische Effekte möglich. Und tatsächlich bestanden die ersten Computer in den 1940er Jahren noch aus makroskopischen Röhren, Dioden und Kondensatoren. Erst für ihre extreme Miniaturisierung wurde Quantenphysik benötigt, was zuletzt ihre enorme Leistungsfähigkeit ermöglichte. Während Quanteneffekte bei herkömmlichen („klassischen”) Chips oft störend wirken, beruhen Quantencomputer bereits in ihrem Kern auf den bizarren Eigenschaften der Quantentheorie und kommen daher mit einer grundlegend anderen Architektur und Funktionsweise als klassische Computer. In ihnen dienen für Informationsverarbeitung und -speicherung nicht mehr die Ströme vieler Elektronen wie in klassischen Computer, vielmehr kontrollieren und steuern sie zur Datenspeicherung und –verarbeitung einzelne Quantenteilchen und nutzen deren Quanteneigenschaften direkt aus. Dies ermöglicht Quantencomputern potentiell eine im Vergleich zu gängigen Computern unvorstellbar höhere Rechengeschwindigkeit und könnte sie Komplexitäten beherrschen lassen, die uns aufgrund derer Unvorhersagbarkeit und Unkontrollierbarkeit heute noch ehrfürchtig erschaudern lassen.

Sechs Felder, deren Probleme heutige Computer – und seien sie noch so gross – überfordern, sollen konkret aufzeigen, welche fantastischen Möglichkeiten sich mit Quantencomputern eröffnen:

  1. Kryptographie: Heute gängige Verschlüsselungen beruhen auf der Re-Faktorisierung der Produkte zweier sehr grosser Primzahlen. Ab einer bestimmten Zahlengrösse ist diese Aufgabe für einen klassischen Computer nicht mehr zu lösen. Der Informatiker Peter Shor entwickelte 1994 einen Algorithmus, mit dessen Hilfe ein Quantencomputer die grössten Produkte heute verwendeter Primzahlen innerhalb von Minuten in ihre Teiler faktorisieren könnte. So könnte ein Quanten-Computer ohne weiteres herkömmliche Verschlüsselungsmethoden für digitale Daten knacken, womit sie die gesamte globale Datensicherheit bedrohen, was sie nicht nur für das Militär interessant und bedrohlich zugleich sein lässt.
  2. Lösung komplexer Optimierungsaufgaben: Die Aufgabe, aus vielen Varianten die optimale Lösung zu finden, gilt unter Mathematikern als besonders knifflig. Solche Probleme treten in so verschiedenen Bereichen wie der industriellen Logistik, im Design von Mikrochips oder der Optimierung von Verkehrsflüssen auf. Bereits bei einer geringen Zahl von Varianten steigen klassische Computer bei der Berechnung optimaler Lösungen aus. Quantencomputer könnten dagegen größere Optimierungsprobleme in vergleichsweise kurzer Zeit lösen.
  3. Bedeutende Anwendungen könnten auf dem Gebiet der Künstlichen Intelligenz liegen: Die dort verwendeten „tiefen neuronale Netze” sind mit harten kombinatorischen Optimierungsprobleme verbunden, die von Quantencomputern weitaus schneller und besser gelöst werden könnten als von klassischen Computern. Das könnte Maschinen noch einmal um ein Vielfaches schlauer machen.
  4. Suche in grossen Datenbanken: Beim Durchsuchen unsortierter Datenmengen muss ein klassischer Computer jeden Datenpunkt einzeln betrachten. Die Suchdauer steigt daher linear mit der Anzahl der Datenpunkte und wird damit bei umfassenderen Datenmengen für einen klassischen Computer schnell zu gross. Im Jahr 1996 veröffentlichte der Informatiker Lov Grover einen Quantencomputer-Algorithmus, für den die Anzahl der notwendigen Rechenschritte nur noch mit der Wurzel der Anzahl von Datenpunkten anwächst. Anstatt bei einer Milliarde Dateneinträgen tausendmal so lange zu brauchen wie bei einer Million, würde dies mit einem Quantencomputer und dem „Grove-Algorithmus” nur noch etwas mehr als 30-mal so lang dauern – im Falle sehr grosser Zahlen eine atemberaubende Verbesserung.
  5. Auffinden neuer chemischer Verbindungen: Auch bei der Simulation von Quantensystemen kommen immer wieder komplexe Optimierungsprobleme vor, bei denen es darum geht, aus vielen Alternativen die bestmögliche, d.h. energetisch günstigste Konfiguration der Elektronen in komplexen Molekülen oder Atomverbänden zu finden. Mit solchen Problem schlagen sich theoretische Physiker und Chemiker seit Jahrzehnten herum, mit eher beschränktem Erfolg. Für herkömmliche Computer sind die entsprechenden Quantengleichungen einfach zu schwierig zu lösen. Quantencomputer könnten das Verhalten der beteiligten Elektronen dagegen direkt abbilden, da sie sich selber wie ein Quantensystem verhalten. Mit dem damit möglichen besseren Verständnis von Molekülen und den Details ihrer chemischen Reaktionsdynamik liessen sich beispielsweise komplexe Proteinstrukturen simulieren, neue Medikamente finden oder auch beispielsweise das Haber-Bosch-Verfahrens zur Herstellung von Düngemitteln optimieren.
  6. Aufklärung der Elektronenstruktur in Kristallen, was Festkörperphysik und Materialforschung bedeutend voranbringen würde. Neue Erkenntnisse auf diesen Feldern würden gerade der Nanotechnologie einen ungeheuren Schub geben – beispielsweise ließe sich das Verhalten möglicher neuer Energiespeicher oder Komponenten einer molekularen Elektronik quasi über Nacht exakt berechnen was weit effizientere Batterietechnologien ermöglichen würde. Eine weitere Applikation von höchster Relevanz wäre die Suche nach neuen Hochtemperatur-Supraleitern.

Einige Physiker glauben sogar, mit einem Quantencomputer jegliche Problemstellungen in der Natur berechnen zu können, vom Verhalten schwarzer Löcher, der Entwicklung des ganz frühen Universums, der Kollisionen hochenergetischer Elementartteilchen bis hin zum Phänomen der Supraleitung und der Modellierung der 100 Milliarden Neuronen und mit ihren noch einmal tausend Mal grösseren Anzahl ihrer Verbindungen (Synapsen) in unserem Gehirn. Allerdings ist all dies bis jetzt rein theoretischer Natur, denn noch existiert kein funktionierender universeller Quantencomputer.

Wie genau funktioniert eigentlich ein Quantencomputer? Klassische Computer verwenden als kleinstmögliche Informationseinheiten die „Bits”, die entweder den Zustand 1 oder 0 haben (also zwei Werte annehmen können, daher der Begriff „digital”). In ihnen werden die Rechenschritte auf der Basis der digitalen Informationstheorie sequentiell, also Bit für Bit abgearbeitet. Quantencomputer unterliegen dagegen einer völlig anderen Informationstheorie und -verarbeitung. Das einfachste System in der Quantenmechanik ist das so genannten „Quantenbit”, kurz „Qubit”. Und diese haben es in sich: Qubit können verschiedene Zustände, also 0 und 1, simultan annehmen, sowie alle Werte dazwischen (und noch mehr, da sich ihre Werte in der komplexen Zahlenebene befinden). Sie können also sozusagen „halb 1” und „halb 0” sein. Das liegt an den Möglichkeiten von Quantenzuständen, in so genannten „Superpositionen” zu existieren. Dies sind Überlagerungen sich klassisch gegenseitig ausschliessender Zustände. Diese bizarre Eigenschaft von Quantenteilchen war einst unter den Vätern der Quantenphysik Auslöser hitziger Diskussionen, die ihren Ausdruck zuletzt in dem bekannten Gedankenexperiment der Schrödinger‘schen Katze fanden. Dazu kommt, dass sich verschiedene Quantenteilchen in so genannte verschränke Zustände bringen lassen. Auch das ist eine Eigenschaft, die wir in unserer klassischen Welt nicht kennen (und um dies es innerhalb der ersten Generation von Quantenphysikern nicht weniger heftige Diskussionen gab). Es ist, als ob die Qubits mit einer unsichtbaren Feder aneinandergekoppelt sind. Sie stehen dann allesamt direkt und ohne jede Kraftweinwirkung zwischen ihnen in Kontakt miteinander. Jedes Quantenbit „weiss” sofort, was die anderen gerade treiben. Albert Einstein hielt Verschränkung für physikalisch unmöglich und nannte sie spöttisch „spukhafte Fernbeziehung”.

Verschränkte Qubits liegen also in einer Superposition unendlich vieler verschiedener Zustände zugleich vor, die dazu noch durch ein unsichtbares und unmessbares Band miteinander verbunden sind. Salopp gesagt: das Vielteilchensystem nimmt alle seiner möglichen Zustände zugleich ein. Einzelne physikalische Werte  werden (mit einer jeweiligen Wahrscheinlichkeit) erst bei einer Messung realisiert. Vorher sind sie objektiv unbestimmt – auch das ist wieder so eine merkwürdige Eigenschaft in der Quantenwelt. Mit Hilfe eines entsprechenden Algorithmus lassen sich nun verschränkte Qubits allesamt gleichzeitig verarbeiten. Und in dieser Parallelverarbeitung liegt die Potenz des Quantencomputers. Denn je mehr Qubits miteinander verschränkt sind, desto mehr Zustände können parallel verarbeitet werden. Anders als in herkömmlichen Computern, deren Rechenleistung linear mit der Anzahl der Rechenbausteine steigt, erhöht sich damit die Leistung eines Quantencomputers exponentiell mit der Anzahl der eingesetzten Qubits. Die Leistung eines Quantencomputers verdoppelt sich also nicht erst, wenn zu 100 Qubits weitere 100 Qubits hinzugeschaltet werden, sondern bereits, wenn nur ein einziges Qubit zu den 100 Qubits hinzugefügt wird. Kommen 10 dazu, vertausendfacht (genauer 1024-facht) sich seine Leistung, bei 20 neuen Qubits ist der Quantencomputer bereits eine Millionen Mal so schnell, bei 50 neuen Qubits eine Millionen Milliarden Mal. Und bei 100 neuen Informationsträgern, wenn sich die Leistungsfähigkeit eines klassischen Computers gerade mal verdoppelt hat, lässt sich die Erhöhung der Leistungsfähigkeit eines Quantencomputers kaum mehr in Zahlen benennen.

Es erscheint merkwürdig, dass Quantencomputer nicht schon längst realisiert wurden. Schließlich war die Quantentheorie zum Zeitpunkt der Entstehung des modernen Computers längst etabliert. Trotzdem verstrichen Jahrzehnte, bevor die Physiker sich der Möglichkeiten der Quanteninformationsverarbeitung annahmen. Einer der Gründe hierfür liegt auf der Hand: Lange Zeit wussten weder Physiker noch Informatiker konkret etwas mit Phänomenen der Superposition und Verschränkung anzufangen. Doch es gibt noch einen zweiten Grund: In den 1940er Jahren begründete der US-amerikanische Mathematiker Claude Shannon die klassische Informationstheorie, die auf der Verwendung von Bits beruht. Sein Aufsatz A Mathematical Theory of Communication (Mathematische Grundlagen in der Informationstheorie) gilt bis heute als die Bibel des Informationszeitalters und zählt zu den einflussreichsten wissenschaftlichen Arbeiten des 20. Jahrhunderts. Shannon behauptete, dass das Prinzip der Bits für jede Form der Informationsverarbeitung gilt und lange Zeit folgten die Informatiker dieser Auffassung. Zudem sollte gemäß der (erweiterten) „Church-Turing-These” des amerikanischen Mathematiker Alonzo Church und des britischen Logikers Alan Turing jedes physikalische System effektiv auf einem klassischen Computer simuliert werden können. Erst in den 1980er Jahren erkannten die Informatiker, dass es Informationskonzepte und physikalische Simulationen jenseits der digitalen Bits gibt, die sich nicht ohne weiteres auf klassischen Rechnern behandeln lassen, sondern erst auf Basis von Qubits effizient berechenbar sind. Dazu braucht es aber ein völlig neues theoretisches Fundament, eines, in dem es explizit um Superposition und Verschränkung von Quantenzuständen geht. Eine solche neue Informationstheorie und Algorithmik wurde erst ab Ende der Neunzigerjahre durch die gemeinsamen Anstrengungen von Physikern und Informationstheoretikern geschaffen.

Noch sind bei der Konstruktion von Quantencomputern gewaltige Probleme zu lösen. Das größte davon ist: Verschränkte Quantenzustände zerfallen unter dem allgegenwärtigen Einfluss von Wärme und Strahlung sehr schnell – oft zu schnell, um die gewünschten Operationen fehlerfrei durchzuführen. Die Physiker sprechen in diesem Zusammenhang von „Dekohärenz” der Quantenzustände. Mit Qubits zu arbeiten erscheint fast so, als wolle man nicht auf einem Blatt Papier schreiben, sondern auf einer Wasseroberfläche. Während das Papier Jahrhunderte überdauern kann, ist das auf Wasser Geschriebene schon nach Sekundenbruchteilen verschwunden. Es kommt also darauf an, eine wahnwitzige Geschwindigkeit zu beherrschen. Um diese Hürde zu überwinden, verfolgen die Quanteningenieure eine doppelte Strategie: Einerseits versuchen sie, sie die Lebensdauer der Qubits zu verlängern, d.h. ihre Fehleranfälligkeit zu reduzieren, andererseits entwickeln sie Algorithmen, die die auftretenden Fehler beheben. Der Dekohärenz vermögen die Physiker mit Hilfe von ultrakalten Kühlschränken einen gewissen Einhalt zu gebieten. Für die Behandlung von durch die Dekohärenz verursachten Fehlern in einzelnen Qubits wiederum entwickeln sie immer bessere Methoden (sogenannte Quantenfehlerkorrektur), mit denen die Verlässlichkeit von Quantencomputern erhöht werden kann.

Die Konzepte von Qubits und Quantencomputern waren viele Jahre weitestgehend von theoretischer Natur. Doch haben die Quanteningenieure in den letzten Jahren in ihrem Bemühen, diese in konkrete Anwendungen umzusetzen, beachtliche Fortschritte gemacht. So gibt es heute zahlreiche verschiedene viel versprechende Ansätze, Qubits konkret herzustellen und sie miteinander zu verschränken. Im Prinzip geht es dabei immer darum, einzelne Quantensysteme, wie beispielweise Atome oder Elektronen, mit einigen Tricks „einzufangen”, miteinander zu verschränken und sie dann entsprechend zu manipulieren. Hier einige Beispiele, wie das funktionieren kann:

  • Ionen (elektrisch geladene Atome) werden mittels elektrischer und magnetischer Felder festgehalten und kontrolliert hin- und hergeschwungen und dabei als Qubits miteinander verkoppelt.
  • Die Spins von Atomen, die wie in der Kernspinresonanz-Technologie durch äußere Magnetfelder ausgerichtet werden, werden miteinander verschränkt.
  • Qubits lassen sich auch mithilfe sogenannter Quantenpunkte realisieren. Das sind spezielle Stellen in einem Festkörper, an denen die Beweglichkeit der Elektronen in allen Richtungen stark eingeschränkt ist, und die daher nach den Gesetzen der Quantenphysik Energie nicht mehr kontinuierlich, sondern nur noch in diskreten Werten abgeben oder aufnehmen können. Sie verhalten sich daher wie riesige künstliche Atome.
  • Elektronen, die in kreisförmigen Supraleitern auf eine Endlosschleife geschickt werden, wobei diese Schleife von sehr dünnen Isolatorschichten unterbrochen wird (sogenannte SQUIDs – superconducting quantum interference devices, supraleitende Quanteninterferenzeinheiten), sind vielversprechende Kandidaten für Qubits. Hier liegt zur Zeit ein besonderer Fokus von Firmen wie Google, Microsoft, IBM und Intel. Die Forscher nutzen dabei den sogenannten Josephson-Effekt aus: die Cooper-Elektronenpaare des Supraleiters können durch die isolierende Barriere hindurchtunneln. Dabei können sich die Ladungsträger in unterschiedlichen Quantenzuständen befinden – sie fließen dann gleichzeitig sowohl im als auch gegen den Uhrzeigersinn. Solche Superpositionen lassen sich als Qubits verwenden und miteinander verschränken.
  • Auch spezielle chemische Verbindungen könnten sich als Qubits eignen. Ein Beispiel ist ein Komplex aus einem Vanadium-Ion, das von organischen Schwefelverbindungen umhüllt wird. Die Hülle schirmt den Spin des Ions im Inneren so gut ab, dass sein Zustand (und damit mögliche Verschränkungen) lange erhalten bleiben.
  • Ein noch rein theoretisches Konzept ist der sogenannte topologische Quantencomputer. Das Konzept dahinter stammt ursprünglich aus der Mathematik, und es ist noch nicht ganz klar, ob und wie es sich physikalisch umsetzen lässt. Es beruht auf sogenannten Anyonen (nicht zu verwechseln mit den Anionen aus wässrigen Lösungen). Dies sind Zustände mit Partikel-Eigenschaften im zweidimensionalen Raum und werden daher auch als „Quasi-Teilchen” bezeichnet. Anyonen treten beispielsweise an den Grenzflächen von Isolatoren auf. Solche topologischen Qubits sollten relativ stabile Geflechte bilden und wären gegen Störungen weit besser gesichert als bei anderen Konzepten.
  • Eine eher neue Methode ist, Qubits mit einzelnen Photonen zu kodieren, die entlang von photonischen Wellenleitern aus Silizium wandern und dann mit Hilfe von Netzwerken aus optischen Komponenten (Spiegel, Strahlenteiler und Phasenschieber) verschränkt werden.
  • Es gibt aber noch ein anderes Konzept eines Quantencomputers: Die  so genannte „adiabatische Quantenberechnung” (auch als „quantum annealing” bezeichnet) stützt sich auf das adiabatische Verhalten von Quantensystem, um Berechnungen vorzunehmen („adiabatisch” bedeutet in der Physik, dass sich ein gesamtes System verändert, ohne sich mit seiner Umgebung energetisch auszutauschen). Dabei wird ein einfaches Quantensystem in seinen Grundzustand (Zustand niedrigster Energie) versetzt und dann langsam und kontinuierlich in ein komplizierteres Quantensystem transformiert, dessen Grundzustand die Lösung des betreffenden Problems darstellt. Das Adiabatentheorem in der theoretischen Physik besagt, dass, wenn diese Transformation langsam genug verläuft, das sich entwickelnde System während des gesamten Prozesses in seinem Grundzustand bleibt. Einen Computer, der auf diesem Prinzip beruht, hat schon im Jahre 2007 die Firma D-Wave Systems entwickelt. Seine Ergebnisse sind allerdings bis heute umstritten.

Unterdessen gibt es noch ein Dutzend andere physikalische Realisierungsversuche, um verschränkte Qubits zu generieren, die dann als Rechner operieren können. Die meisten davon stecken trotz schneller Fortschritte auf diesem Gebiet noch in den Kinderschuhen. Bis jetzt haben die Bemühungen der Quantenphysiker keine zuverlässig funktionsfähigen (und universellen) Quantencomputer hervorgebracht. Doch haben Firmen wie IBM, Google, Microsoft oder Intel unlängst angekündigt, Quantenprozessoren gebaut zu haben oder solche schon bald zu bauen, die aus 50 oder mehr Qubits bestehen. Bei dieser Grösse könnten diese – zumindest für einige sehr spezielle Rechenprobleme – wohl die Rechenkapazität eines jeden heutigen (klassischen) Superrechners übertreffen. Google nennt dies „Quantum Supremacy” (Quanten-Überlegenheit) und hat im Oktober 2019 angekündigt, dass seinen Ingenieuren die Konstruktion eines Quantencomputers gelungen sei, der zum ersten Mal ein Problem lösen kann (wenn auch ein sehr exotisches), an dem sich jeder herkömmliche Computer die Zähne ausbeisst. Konkret hatte ihr Computer-Chip Sycamore für diese spezielle Rechenaufgabe, für die der weltbeste Supercomputer 10 000 Jahre benötigen würde, gerade einmal 200 Sekunden gebraucht. Googles Konkurrent IBM bezweifelt jedoch diese Ergebnisse und behauptet, Googles Rechnung enthalte einen Fehler.

Seitdem hat man von den grossen US-Techfirmen nicht mehr viel über mögliche Fortschritte beim Bau von Quantenprozessoren gehört. Ist dies vielleicht die Ruhe vor dem Sturm? Ende 2018 unterzeichnete der US Kongress den National Quantum Initiative Act, der in den nächsten 10 Jahren mehr als 1,2 Milliarden Dollar in die Quantencomputer-Technologie investieren soll. China investiert noch stärker in dieses Feld: Die Regierung von Xi Jinping stellt 10 Milliarden Dollar für das National Laboratory for Quantum Information Sciences in Hefei zur Verfügung. So haben chinesische Forscher unterdessen auch Fortschritte beim Bau von Quantencomputern bekannt gegeben. Das  Team um den in Deutschland und Österreich ausgebildeten und vielfach ausgezeichneten Forscher Jian-Wei Pan vom National Laboratory for Quantum Information Sciences an der University of Science and Technology of China in Hefei berichtete im Dezember 2020, dass ihr Quantencomputer mit dem Namen Jiŭzhāng 10 Milliarden Mal schneller ist als der von Google, zumindest bei der Berechnungen eines sehr spezifischen Problems, dem so genannten „Gauss’sches Bosonensampling” (für das der Quantencomputer exklusiv gebaut wurde). Die Qubits in Jiŭzhāng werden als Photonen realisiert.

Noch sind Quantencomputer keine universelle Rechenmaschinen, die E-Mails verschicken, Dateien speichern bzw. verarbeiten oder jegliche Rechnungen sehr schnell durchführen können, sondern so genannte „special purpose computers”, die bisher jeweils nur ein einziges, sehr exotisches Problem lösen können, um so das allgemeine Potenzial des Quantencomputers zu demonstrieren. Jian-Wei Pan vergleicht jedoch die Geschwindigkeit zwischen den Quantencomputern und den traditionellen Computern schon mit dem Unterschied zwischen „Atomwaffen und Maschinengewehren bzw. Artilleriegranaten”.

2 Kommentare. Hinterlasse eine Antwort

Schreibe einen Kommentar zu Georg Kell Antworten abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Bitte füllen Sie dieses Feld aus.
Bitte füllen Sie dieses Feld aus.
Bitte gib eine gültige E-Mail-Adresse ein.
Sie müssen den Bedingungen zustimmen, um fortzufahren.