Eine Gruppe von Forschern entwickelt eine Formel, um Quantencomputing mit konventionellen Systemen durchzuführen | Technologie

Eine Gruppe von Forschern entwickelt eine Formel, um Quantencomputing mit konventionellen Systemen durchzuführen | Technologie
Eine Gruppe von Forschern entwickelt eine Formel, um Quantencomputing mit konventionellen Systemen durchzuführen | Technologie
-

Ein 100 % funktionsfähiger Quantencomputer ist noch nicht verfügbar, obwohl er immer näher rückt. Das Potenzial der auf dieser Physik basierenden Datenverarbeitung, die in der Lage ist, die dunkle Materie der Mikroben (das genetische Material von Mikroorganismen, die noch enthüllt werden muss), zu entschlüsseln, neue medizinische Moleküle zu entdecken, jeden Baustein eines Genoms zu identifizieren oder einen komplexen finanziellen oder industriellen Prozess zu optimieren, ist jedoch groß Es ist dringend erforderlich, Abkürzungen zu finden. BBVA-Forscher, die über ein auf diese Disziplin spezialisiertes Team mit öffentlicher und privater Beteiligung verfügen, haben eine verteilte Quantensimulation mit klassischen Servern und Open-Source-Programmierung erreicht, die von jeder Institution reproduziert werden kann, ohne dass ein Supercomputer oder ein empfindlicher Computer mit exotischen Merkmalen erforderlich ist aus der subatomaren Welt. Das heißt, eine Möglichkeit, Quantencomputing mit aktueller Technologie durchzuführen, die für jedermann verfügbar und erreichbar ist.

Die physische Welt, die wir wahrnehmen, ist ein Trompe-l’oeil, die Schatten von Platons Höhle auf die Spitze getrieben. Wenn wir uns auf eine subatomare Größe bringen könnten, würden wir eine Dimension wahrnehmen, in der wir uns gleichzeitig in zwei Zuständen befinden können (Superposition), es gibt Teleportation, Energie wird verlustfrei geleitet (Supraleitung), es gibt reibungslose Flüsse ( Superfluidität) und eine seltsame Choreographie markiert die Interaktion der Teilchen (topologische Ordnung).

Die Entschlüsselung dieses gesamten Universums würde es uns ermöglichen, so grundlegende Fragen wie „Was wir sind und woher wir kommen“ zu beantworten, aber auch seine Eigenschaften für praktische Anwendungen wie das Quantencomputing zu nutzen, dessen Fähigkeiten mit klassischem Computing nicht zu erreichen wären. Der Computer, der die fehlerfreie Ausführung von Quantenalgorithmen ermöglicht, hat den optimistischsten Prognosen zufolge noch ein Jahrzehnt Zeit. Seine größten Herausforderungen sind Rauschen (eine einfache Mikrowellen- oder Temperaturänderung kann den Prozess ruinieren) und Kohärenzzeit, die Mikrosekunden, während derer die Überlagerung von Zuständen aufrechterhalten wird, was die Rechenkapazität exponentiell erhöht.

Es gibt jedoch eine Abkürzung, und zwar die Entdeckung der BBVA-Forscher. „Es ist uns gelungen, die Ausführung von Quantenalgorithmen mit klassischen Maschinen zu simulieren und auf eine Gesamtrechenleistung von 38 Qubits zu skalieren.“ [bits cuánticos] und mit dem erwarteten Ergebnis in einem idealen Quantencomputer“, fasst Javier Recuenco, Leiter des Bereichs Technische Architekturinnovation bei BBVA CIB, zusammen.

„Durch die Simulation mit klassischen Computern haben wir das Problem der Kohärenzzeit und des Rauschens vermieden. Jetzt kann ich die Simulation stundenlang laufen lassen“, erklärt er und fügt ein weiteres grundlegendes Element hinzu: „Der Algorithmus wächst mit der Anzahl der Qubits und ich brauche mehr Leistung.“ All dies muss im Speicher verteilt werden und wir benötigen eine Menge davon, damit dies funktioniert. Der Einsatz eines verteilten Quantensimulators wird notwendig.“

Ziel des neuen Systems ist es nicht, die Fähigkeiten eines vollständig fehlertoleranten Quantencomputers zu übertreffen, sofern dies tatsächlich der Fall ist, sondern vielmehr die Vorteile des Quantencomputings mit den jetzt verfügbaren Werkzeugen trotz der Einschränkungen zu nutzen. „Es ist mit sehr hohen Kosten verbunden“, gibt Recuenco zu und verweist auf die Ressourcen, die für den Proof of Concept, die Demonstration der vorgeschlagenen Methode in der Cloud, verwendet wurden, die diesmal von Amazon Web Service stammten. Sie sind bei 38 Qubits geblieben, glauben aber, dass es skalierbar ist.

Ein klassischer Computer mit 38 Bit könnte nur so viele verschiedene Zustände darstellen. Allerdings kann die gleiche Anzahl von Qubits gleichzeitig 2³⁸ darstellen und manipulieren, dank der Eigenschaft der Überlagerung, die es einem Qubit ermöglicht, sich gleichzeitig in einem Zustand 0, einem Zustand 1 oder einer beliebigen Kombination aus beiden zu befinden. Daher kann eine 38-Qubit-Quantenberechnung ungefähr 274 Milliarden verschiedene Zustände gleichzeitig darstellen.

Eine erste Anwendung findet die verteilte Quantensimulation in der Portfoliooptimierung, der Risikoberechnung und der Suche nach dem kürzesten Pfad in Graphen, einem klassischen Problem, bei dem der optimale Pfad zwischen Eckpunkten oder Knoten gesucht wird. „Aber es kann in jedem Bereich anwendbar sein. Die Universitäten müssen großes Interesse haben und die chemische oder pharmazeutische Industrie. Oder um neue Batteriekomponenten zu finden“, erklärt der Forscher.

Einer seiner großen Vorteile besteht darin, dass kein Supercomputer oder ein Netzwerk von Quantengeräten erforderlich ist. Laut Diego García Vaquero, Architekturdirektor und Mitforscher des Systems, begannen sie mit Geräten mit nur acht Gigabyte RAM und erreichten maximal ein Terabit. Ein herkömmliches Netzwerk, das bereits in der Cloud vorhanden ist, reicht aus. „Und mit Open Source“, präzisiert er. Diese Prämisse ist von grundlegender Bedeutung, um die Verwendung der entwickelten Simulation zu erleichtern, die in einem detaillierten technischen Dokument veröffentlicht wird, damit sie replizierbar ist, wie von den Forschern angekündigt.

Ein weiterer Vorteil der erzielten Simulation besteht darin, dass sie, da sie nicht von instabilen Systemen abhängig ist, in Phasen ausgeführt werden kann und im Prozess sogenannte „Flags oder Zwischenkontrollpunkte“ etabliert werden kann, um zu sehen, wie der Algorithmus voranschreitet, und um die Qubits zu verflechten ohne die topologischen Einschränkungen, die echte Quantencomputer mit sich bringen.

200-mal schneller

Diese Linie der Quantensimulationsforschung wird von Unternehmen wie Fujitsu entwickelt, das diese Entwicklungen durch die weltweit größten Supercomputer und Quantencomputer ergänzt. Im vergangenen Februar kündigte das Unternehmen die Entwicklung einer neuartigen, ebenfalls auf Verteilung basierenden Simulationstechnik an, die hybride (quantenklassische) Algorithmen beschleunigt und eine 200-mal schnellere Berechnungsgeschwindigkeit als bisherige Simulationen erreicht.

Im Fall von Quantenschaltungsberechnungen mit Hybridalgorithmen erfordern größere Probleme viele Qubits und eine tagelange Verarbeitung. Simulationen in den Bereichen Material- und Arzneimittelforschung können sogar mehrere hundert Tage dauern.

Die Technologie von Fujitsu ermöglicht die gleichzeitige Verarbeitung einer großen Anzahl wiederholt ausgeführter Quantenschaltungsberechnungen, die über mehrere Gruppen verteilt sind. Fujitsu hat außerdem eine Möglichkeit entwickelt, mithilfe eines der Quantensimulatoren groß angelegte Probleme mit weniger Präzisionsverlust zu vereinfachen. An einem einzigen Tag werden Berechnungen durchgeführt, die mit herkömmlichen Methoden mehr als ein halbes Jahr dauern würden.

Fujitsu ist davon überzeugt, dass diese Modelle die Forschung zur praktischen Anwendung von Quantencomputern in verschiedenen Bereichen beschleunigen und auf echte Quantencomputer anwendbar sind.

Du kannst Folgen EL PAÍS-Technologie In Facebook Und X oder melden Sie sich hier an, um unsere zu erhalten wöchentlicher Newsletter.

-

PREV Dies ist das Mobiltelefon mit dem besten Qualitätspreis des Jahres 2024, das die Verkäufe in die Höhe treibt
NEXT Neue Teleskopbilder zeigen die geisterhafte „Hand Gottes“ in der Milchstraße, die den Kosmos durchquert