- Anzeigen -


Sie sind hier: Home » Markt » Hintergrund

Mit einem Quantenprozessor experimentieren


Physiker entwickeln Methode, mit der Quantencomputer 72 Mal schneller starten können als bisher
Ein Quantencomputer kann ähnlich wie ein Musikinstrument auf kleinste Unterschiede in der Umgebung reagieren

(18.07.14) - Theoretische Physiker der Universität des Saarlandes haben eine Methode entwickelt, mit der ein Quantencomputer in fünf Minuten eingestellt und stabil ist. Bisher dauerte das im Experiment sechs Stunden. Die Wissenschaftler haben sich dabei mathematischer Modelle aus dem Ingenieurwesen bedient. Für die Quantenphysik bedeuten diese Erkenntnisse eine ganz neue Qualität für Experimente: Blieb bislang nur eine kurze Zeit, um mit einem Quantenprozessor zu experimentieren, bevor die empfindlichen Einstellungen wieder stundenlang nachjustiert werden mussten, können Forscher künftig viel schneller ein Experiment vorbereiten und viel länger experimentieren. Die Arbeit wurde in der Fachzeitschrift Physical Review Letters veröffentlicht. In derselben Ausgabe haben Experimentalphysiker der University of California in Santa Barbara einen Aufsatz veröffentlicht, der die Methode der Saarbrücker Physiker erfolgreich im Experiment bestätigt.

Startknopf drücken, Monitor anschalten, Kaffee holen, los geht’s: Übliche Computer sind in Windeseile hochgefahren und betriebsbereit. Bei einem Quantencomputer sieht das ganz anders aus. Um einen Chip mit fünf Quantenbits, dem quantenphysikalischen Äquivalent der Bits in normalen Rechnern, so einzustellen, dass man damit arbeiten und experimentieren kann, musste bisher ein Wissenschaftler stundenlang Dutzende Einstellungen aufs Feinste kalibrieren. Lag er nur wenig daneben, lief der Chip nicht.

Denn das Problem ist, dass Quantencomputer ähnlich wie ein Musikinstrument auf kleinste Unterschiede in der Umgebung reagieren. Ist es beispielsweise nur ein wenig wärmer oder kälter, ist der Luftdruck höher oder niedriger als am Vortag, funktioniert das komplexe Geflecht der Quantenbits nicht mehr, der Quantencomputer ist sozusagen "verstimmt" und muss neu eingestellt werden. "Bisher haben sich Quantenphysiker also jeden Tag aufs Neue hingesetzt und geschaut, was anders ist als am Vortag. Sie haben jeden Parameter gemessen und den Chip immer wieder mühsam neu kalibriert", erklärt Frank Wilhelm-Mauch, Professor für Quanten- und Festkörpertheorie an der Universität des Saarlandes. Die Fehlerquote beim Messen der Umgebungsbedingungen darf nur sehr gering sein, etwa im Bereich unter 0,1 Prozent. "Das bedeutet, dass nur bei einer von 1000 Messungen ein Fehler passieren darf. Sind nur zwei von 1000 Messungen fehlerhaft, kann die Software das nicht mehr korrigieren und der Quantencomputer läuft fehlerhaft", erklärt Frank Wilhelm-Mauch die Empfindlichkeit. Bedenkt man, dass rund 50 verschiedene Parameter in die Kalibrierung mit einfließen, erhält man eine Vorstellung von dem Aufwand, mit dem sie betrieben werden muss.

Gemeinsam mit seinem Doktoranden Daniel Egger hat er überlegt, was man grundsätzlich anders machen kann. "Wir haben uns gefragt, warum man jeden Tag aufs Neue verstehen muss, was anders ist als am Vortag? Also haben wir uns irgendwann gesagt: Das müssen wir gar nicht. Entscheidend ist, dass die Einstellung am Ende funktioniert. Warum sie funktioniert, ist nicht so wichtig." Mit diesem pragmatischen Ansatz gingen Wilhelm-Mauch und Egger an die Arbeit. "Wir haben für die Kalibrierung einen Algorithmus aus der Ingenieurmathematik, genauer gesagt, aus dem Bauingenieurwesen, verwendet. Denn auch dort sind Versuche teuer", sagt Physiker Wilhelm-Mauch.

Mithilfe dieses Kniffs gelang es den Theoretikern, die Fehlerquote beim Kalibrieren auf unter die benötigten 0,1 Prozent zu drücken und gleichzeitig die Geschwindigkeit des Einstellverfahrens von sechs Stunden auf fünf Minuten zu reduzieren. Das haben Experimentalphysiker der University of California in Santa Barbara gezeigt, die die Saarbrücker Methode, welche von den Physikern auf den Namen "Ad-HOC” (Adaptive Hybride Optimale Kontrolle) getauft wurde, erstmals auf Herz und Nieren testeten. Das Experiment ist in derselben Ausgabe der Physical Review Letters veröffentlicht wie der Saarbrücker Aufsatz.

Für weitere Experimente bei der Erforschung von Quantencomputern ist dieser Fortschritt ungemein wichtig. Nun müssen in den Laboren der Physiker nicht mehr jeden Tag stundenlange Vorarbeiten gemacht werden, um eine kurze Zeit lang zu experimentieren. "Denn während der langen Kalibrierungsphase haben sich viele Parameter wie Temperatur, Licht und Luftdruck ja bereits wieder leicht verändert, so dass die Zeitspanne, in der der Chip fehlerfrei läuft und man damit experimentieren kann, immer kürzer wird", sagt Wilhelm-Mauch, der hinzufügt, dass seine Überlegungen skalierbar seien. Sind bisher also aus rein technischen Gründen Experimente mit einem Chip möglich, auf dem fünf Quantenbits die Rechenoperationen durchführen, sind in Zukunft der Größe des Chips mit dieser Methode kaum Grenzen gesetzt, er ist beliebig vergrößerbar.

Zudem gibt es einen Clou an der Methode, auf den Frank Wilhelm-Mauch mit einer Portion Humor hinweist: "Unsere Methode ist im Gegensatz zu der bisherigen Kalibrierung von Hand vollautomatisch. Der Wissenschaftler drückt also tatsächlich nur einen Knopf wie bei einem herkömmlichen Computer und geht Kaffee holen, bis der Quantencomputer einsatzbereit ist." Im Alltag ein nicht zu vernachlässigender Gewinn.

Hintergrund Quantentechnologie:
Zugrundeliegendes Prinzip der Quantentechnologie ist, dass ein Teilchen (z.B. ein Atom, Elektron, Lichtteilchen) zwei Zustände gleichzeitig einnehmen kann. Diese Zustände nennt man auch Überlagerungszustände. Auf die Computertechnologie übertragen bedeutet das, dass die Bits, aus denen eine Information auf einem normalen Computer besteht, die Zustände 1 oder 0 haben können, auf einem Quantencomputer hingegen die Zustände 1 und 0 gleichzeitig, in jeder beliebigen Kombination. Solche Quantenbits oder Qubits sind die Grundlage eines Quantencomputers. Rechnen kann man beispielsweise mithilfe von Atomen als Speichereinheit, indem man sie mit Laserlicht anregt und ihren Quantenzustand gezielt manipuliert. Eine Rechenoperation kann nun auf beiden Anteilen des Überlagerungszustandes (1 und 0) gleichzeitig oder parallel stattfinden.

Ein Quantencomputer kann in derselben Zeit, in der ein herkömmlicher 32-Bit-Rechner einen seiner 232 möglichen Zustände verarbeitet, parallel alle diese Zustände verarbeiten. Der Quantencomputer rechnet also um ein Vielfaches schneller als ein normaler Computer. Diese hohe Rechenleistung lässt sich allerdings nur für spezielle Probleme ausnutzen, für die Rechenvorschriften (Algorithmen) entwickelt wurden.

Bei vielen der Überlagerungszustände befinden sich die Quantenbits in einem "verschränkten Zustand", d.h. sie lassen sich als Ganzes, nicht aber mehr als unabhängige Teilchen beschreiben. Sowohl verschränkte Zustände als auch Überlagerungszustände sind allerdings sehr empfindlich auf jede Wechselwirkung mit ihrer Umgebung und verlieren schnell ihren Quantencharakter. Für einen Quantencomputer bedeutet dies, dass man großen Aufwand für die Abschirmung von Umwelteinflüssen treiben muss – ein anderes Gebiet der Quantentechnologien nutzt aber genau diese Tatsache aus: in der Quantenkommunikation können geheime Nachrichten in verschränkten oder Überlagerungszuständen kodiert werden. Versucht ein Spion Kenntnis der Nachricht zu erhalten, zerstört er den Quantenzustand und der Abhörversuch fliegt auf. (Uni Saarland: IT Saarland: ra)


Meldungen: Hintergrund

  • Zunahme von Angriffen mit JavaScript-Skimmern

    Im Jahr 2020 könnten es - laut Vorhersagen von Kaspersky - finanziell motivierte Cyberkriminelle vermehrt auf Apps zur Geldanlage, Systeme zur Verarbeitung von Finanzdaten online und aufstrebende Krypto-Währungen abgesehen haben. Zudem werden sich voraussichtlich der Handel mit Zugängen zur Infrastruktur von Banken und die Entwicklung neuer Varianten mobiler Malware basierend auf Sourcecode-Leaks etablieren. Neben den Bedrohungen im Finanzbereich hat Kaspersky im Rahmen ihres "Security Bulletins 2019/2020" auch mögliche Gefahren für andere Branchen prognostiziert.

  • Prognosen zur Anwendungssicherheit für 2020

    Veracode veröffentlichte vor kurzem die zehnte Ausgabe ihres jährlich erscheinenden "State of the Software Security" (SoSS)-Reports. In diesem beschreibt die Anwendungssicherheitsspezialistin, wie sich die Sicherheit von Software und Applikationen im Laufe der letzten Jahre entwickelt hat und stellt eine Bilanz zum aktuellen Ist-Stand auf. Doch welche Trends zeichnen sich für die kommenden Jahre ab und auf welche Weise sollten Unternehmen auf die Veränderungen reagieren? Codes, auf denen Software und Applikationen aufbauen, werden stetig umgeschrieben oder erweitert, da Unternehmen ihre Angebote an die Bedürfnisse ihrer Kunden anpassen müssen. Jede neue Veränderung bedeutet aber auch, dass die Applikationen dadurch angreifbar werden. Somit steigt das Risiko, dass sich Fehler und Bugs einschleichen und damit die Sicherheit der jeweiligen Anwendung - oder sogar des Unternehmens - gefährden.

  • So (un)sicher wird 2020 für industrielle Netzwerke

    Die Bedrohungslage für OT-Systeme, kritische Infrastrukturen und industrielle Steuerungsanlagen wird sich auch 2020 im Vergleich zu 2019 kontinuierlich weiterentwickeln. Da diese Systeme dem öffentlichen Internet immer stärker ausgesetzt sind, wird es für Hacker immer einfacher, sie anzugreifen. Dies gilt nicht nur für staatlich unterstützte bzw. beauftragte Angreifer, sondern auch für Cyberkriminelle, die in erster Linie finanziell motiviert handeln. Es ist zu befürchten, dass gerade staatlich gesteuerte Angreifer ihre Ziele genauer auswählen und ihre Spuren besser verwischen werden. Die Fälle, von denen in den Medien berichtet wird, dürften nur die Spitze des Eisberges darstellen. Aufgrund der kleinen Stichprobe (2019 gab es lediglich 12 hochkarätige Angriffe weltweit) ist es unmöglich, ein genaues Bild über die tatsächliche Bedrohungslage zu erhalten.

  • Cyberangriff auf wichtige Pfeiler der Gesellschaft

    Am Ende jedes Jahres setzen wir bei Forescout uns zusammen und erörtern, welche Trends sich unserer Meinung nach in den nächsten zwölf Monaten beschleunigen und welche neu entstehen werden. Als wir dieses Jahr mehr als 50 Prognosen auf letztendlich sechs eingrenzten, fiel uns einmal mehr auf, wie schnell sich der Cybersicherheitssektor doch verändert. Die Bedrohungen und Angreifer werden immer raffinierter und richten weiter verheerende Schäden in Unternehmen aller Größen und Branchen an, und eine Trendwende ist nicht in Sicht. Für Unternehmen bedeutet dies, dass sie strategischer denn je vorgehen müssen, wenn sie ihren Sicherheitsstatus verbessern wollen. Es bedeutet auch, dass sie sich mit vielversprechenden neuen Technologien auseinandersetzen müssen - einige davon erwähnen wir im Folgenden -, noch bevor diese sich allgemein etabliert haben. Dies umfasst sowohl die Einführung neuer Technologien als auch den Schutz neuer Geräte. Und schließlich bedeutet es, einige der Auswirkungen zu bedenken, die ein Cyberangriff auf wichtige Pfeiler unserer Gesellschaft haben könnte.

  • Cyberbedrohungen und Trends für 2020

    Von Passwort-Katastrophen bis hin zum verstärkten Krypto-Mining von Monero: Welche Cyberbedrohungen werden im Jahr 2020 auf uns zukommen? Instabilität der Darknet-Märkte: Die englischsprachigen Darknet-Märkte haben ein schwieriges Jahr hinter sich mit zahlreichen Takedowns, Exit-Scams, Verhaftungen, ungewöhnlichen Aktivitäten, bei denen Märkte an- und ausgeschaltet wurden, sowie anhaltenden DDOS-Angriffen. Diese Instabilität hat den Ruf der Darknet-Märkte geschädigt, und das wird 2020 beträchtliche Paranoia bei Cyberkriminellen auslösen, die sich wahrscheinlich nur langsam beruhigen wird. Diese Unvorhersehbarkeiten haben vielleicht keine nennenswerten sichtbaren Auswirkungen auf Endbenutzer und Unternehmen, können jedoch dazu führen, dass Märkte anderswo entstehen und die Lieferketten von Cyberkriminellen insbesondere im englischsprachigen Raum sehr durcheinanderbringen.