Rozwój obliczeń kwantowych postępuje w zawrotnym tempie, a wielu globalnych graczy — od instytucji po korporacje — bada sposoby osiągnięcia tak zwanej kwantowej supremacji. Ma to być moment, w którym problemy nierozwiązywalne za pomocą tradycyjnych obliczeń mogą być rozwiązane za pomocą obliczeń kwantowych. W branży brakowało jednak odpowiedniego sposobu na zmierzenie kwantowej wydajności poszczególnych systemów i byliśmy zdani  jedynie na przechwałki ich twórców. Teraz zespół z Quantum Economic Development Consortium (QED-C) opublikował pierwszy wstępny krok w kierunku ogólnobranżowego miernika wydajności, który nazwano Application-Oriented Performance Benchmarks for Quantum Computing.

Benchmark dla komputerów kwantowych

Benchmark dla komputerów kwantowych

Istnieje wiele podejść do obliczeń kwantowych, które są obecnie badane. Przykładami mogą tu być krzemowe kropki kwantowe, topologiczne nadprzewodniki czy uwięzione jony. Jednak do dopiero początek długiej listy. Fakt, że dziedzina ta jest w powijakach, oznacza, że kilka podejść będzie realizowanych do czasu, aż jedno lub kilka z nich okaże się najbardziej efektywne. Jednakże, bez możliwości porównania rzeczywistej wydajności, obliczenia kwantowe zostały pozostawione dość dyskusyjnymi świadectwami wydajności. Zaliczają się do nich takie kwestie jak liczba qubitów i objętość kwantowa, czyli liczba aktywnych qubitów w systemie, z uwzględnieniem poziomów błędów.

Zobacz też: Pierwszy trailer Uncharted – zapowiedź filmu na podstawie kultowej gry

Metryki te służyły do tej pory jako sposób na porównanie ewolucji różnych systemów kwantowych. Jednak, jak wiemy w świecie komputerów, teoretyczna przewaga zasobów nie zawsze przekłada się na wydajność. Liczy się jeszcze to, co się z tymi zasobami robi i jak one ze sobą współpracują. Dlatego też twórcy tego benchmarku mają nadzieję, że narracja dotycząca wydajności obliczeń kwantowych zmieni się z liczby qubitów na jakość qubitów.

Jakość qubitów

Warto tu podkreślić, że qubit qubitowi nierówny. Jak ujął to Dominik Andrzejczuk z Atmos Venturese:

Im niższy poziom błędów, tym mniej fizycznych qubitów jest faktycznie potrzebnych. […] urządzenie ze 100 fizycznymi qubitami i stopą błędu 0,1% może rozwiązać więcej problemów niż urządzenie z milionem fizycznych qubitów i stopą błędu 1%.

Główne ograniczenie wydajności dla obliczeń kwantowych nie leży w możliwości skalowania liczby qubitów — ale w niezwykle wrażliwym sposobie, w jaki systemy te reagują na zewnętrzne i wewnętrzne nierównowagi powodujące błędy obliczeniowe. Te bowiem zmuszają badaczy do wyrzucania wyników i kosztownego czasu obliczeń do śmieci. Nowy test bierze więc pod uwagę głównie czas obliczeń, jak i wierność wyników. Warto tu dodać, że po pierwszych testach okazuje się, że najdokładniejsze wydają się systemy oparte na uwięzionych jonach.

Źródło: Tomshardware

Google News
Obserwuj ANDROID.COM.PL w Google News i bądź zawsze na bieżąco!
Obserwuj

Paweł Maretycz

Sceptyczny fan nowych technologii. Uwielbia małe urządzenia, nawet jego komputer to mini ITX.