Notowania

pc
26.10.2016 12:10

Komputer kwantowy, czyli przekroczyć ograniczenia fizycznego świata

Teoria kwantów opisuje tę część fizycznego świata, co do której zasady fizyki klasycznej nie znajdują zastosowania - chodzi o relacje między najbardziej elementarnymi budulcami naszej rzeczywistości. W blisko 90 lat po położeniu fundamentów pod tę dziedzinę nauki, nadal pozostaje wiele kwestii wymagających wyjaśnienia. Nie przeszkadza to jednak wiodącym organizacjom na świecie wykorzystywać niesamowite zalety fizyki kwantowej, a koronnym projektem realizowanym przez zespoły badawcze z całego świata jest komputer kwantowy.

Podziel się
Dodaj komentarz
(StartupStockPhotos, Pixabay)

Teoria kwantów opisuje tę część fizycznego świata, co do której zasady fizyki klasycznej nie znajdują zastosowania - chodzi o relacje między najbardziej elementarnymi budulcami naszej rzeczywistości. Blisko 90 lat po położeniu fundamentów pod tę dziedzinę nauki nadal pozostaje wiele kwestii wymagających wyjaśnienia. Nie przeszkadza to jednak wiodącym organizacjom na świecie wykorzystywać niesamowite zalety fizyki kwantowej, a koronnym projektem realizowanym przez zespoły badawcze z całego świata jest komputer kwantowy.

Moc obliczeniową współczesnych komputerów można zobrazować uproszczoną analogią: czasem, jakiego jeden procesor potrzebowałby do przeczytania wszystkich książek w dużej bibliotece. Może to robić bardzo szybko, ale z pewnym, niemożliwym do przekroczenia, ograniczeniem - czytając jedną książkę naraz. Komputer kwantowy, postawiony przed powyższym zadaniem, rozwiązałby sprawę inaczej - otóż zdolny byłby przeczytać wszystkie książki naraz, w tym samym czasie.

Taka jest podstawowa różnica między klasycznym komputerem a tym, który w przyszłości go zastąpi. Bity w dzisiejszych pecetach mogą przyjąć jeden z dwóch stanów: 1 lub 0. Bity w urządzeniach kwantowych (tzw. kubity) mogą przyjąć obydwie pozycje jednocześnie (osiągają wtedy stan superpozycji), dzięki czemu można je wykorzystać do wykonywania równoległych obliczeń i w efekcie uzyskać ogromną moc.

Prace nad komputerami kwantowymi powoli przestają być kwestią wyboru, a stają się koniecznością. Istnieje bowiem granica wielkości pojedynczego tranzystora (rzędu pojedynczego atomu), poniżej której nie można zejść, a to z kolei oznacza koniec dalszej miniaturyzacji sprzętu. Zwielokrotnienie mocy obliczeniowej możliwe jest więc tylko dzięki zastosowaniu kubitów. I choć pierwsze komputery nowej generacji już powstały, operują na maksymalnie kilkudziesięciu, kilkuset kubitach - o znaczącej różnicy w prędkości obliczeń będzie można mówić dopiero w momencie zastosowania kilku tysięcy "kwantowych bitów” (rekord wykorzystania 512 kubitów w czipie pozwolił firmie D-Wave Systems na dokonanie więcej niż 1038 obliczeń naraz, co zajęłoby przeciętnemu PC miliony lat).

Komputery kwantowe dają perspektywę zmierzenia się z wieloma złożonymi problemami, dla których dotychczas nie znaleziono rozwiązania. Wśród nich znajdują się między innymi skomplikowane analizy finansowe prowadzone na szeroką skalę i prace nad efektywnym rozwojem leków. Wśród firm, które zaangażowały się w rozwój informatyki kwantowej, jest Intel.

We wrześniu 2015 roku firma nawiązała współpracę z Uniwersytetem Technicznym w Delft oraz TNO – holenderską organizacją działającą w obszarze badań stosowanych. Celem dziesięcioletniej współpracy jest przyspieszenie postępu w dziedzinie komputerów kwantowych. Intel przeznaczy na ten cel 50 milionów dolarów, a oprócz tego udostępnia obu organizacjom zarówno zespół inżynierów, jak również wsparcie techniczne.

„Jesteśmy wciąż przynajmniej kilkanaście lat przed stworzeniem w pełni funkcjonalnego komputera kwantowego. Teoretyczne i praktyczne prace badawcze prowadzone w ramach współpracy będą jednak stanowić kamień milowy na drodze do realizacji tego celu” – mówi Mike Mayberry, wiceprezes Intela i dyrektor zarządzający Intel Labs. „Warunkiem koniecznym do rozwoju informatyki kwantowej jest połączenie doświadczenia w zakresie elektroniki z zaawansowaną fizyką” – dodaje.

Aby zrozumieć zasadę działania kwantowych komputerów, należy przybliżyć zjawisko splątania oraz tunelowania, dzięki którym mówimy o rewolucyjnej technologii.

Splątanie kwantowe, czyli dlaczego Einstein się pomylił

Splątanie zostało zaobserwowane w wyniku eksperymentu Alberta Einsteina, Borysa Podolskiego i Nathana Rosena, którzy, kierując się zasadami fizyki klasycznej, w dobrej wierze nie dopuszczali możliwości przekazywania informacji z prędkością szybszą niż ta, z którą porusza się światło. Choć genialny naukowiec, autor teorii względności, stworzył podwaliny fizyki kwantowej, do śmierci nie chciał jej zaakceptować, zaś splątanie nazywał "upiornym oddziaływaniem na odległość" - teoria zbudowana przez niego i jego zespół miała pokazać, że fizyka kwantowa to "dziurawa" dziedzina wiedzy.

Na szczęście dla nas (i niestety dla Einsteina), okazało się, że splątana para cząstek (na przykład dwa fotony) jest od siebie zależna - to znaczy, że po określeniu stanu jednej z nich, natychmiast uzyskujemy informację na temat drugiej, bez konieczności jej badania. Można to przyrównać do sytuacji, w której zaciskamy w jednej pięści monetę, a w drugiej nie mamy nic - wystarczy, że otworzymy jedną z nich, by przekonać się o zawartości drugiej. Udowodnienie istnienia splątania doprowadziło do określenia fizyki kwantowej teorią "nielokalną", wbrew przewidywaniom Einsteina.

Istotne jest bowiem to, że odległość między dwoma splątanymi cząstkami nie ma znaczenia - mogą znajdować się na dwóch przeciwległych krańcach galaktyki, a i tak będą na siebie oddziaływać, natychmiast przyjmując przeciwny (lub ten sam) stan wobec tego, który został u jednej z nich zaobserwowany.

Ale wspominana na początku cecha kubitów, a więc ich możliwość przyjmowania równolegle dwóch stanów, jest także pewnym problemem, które próbuje się rozwiązać za pomocą efektu splątania; w fizyce kwantowej proces odczytu wartości stanu niszczy superpozycję (czyli "zmusza” kubit do wybrania którejś opcji, 1 lub 0), a więc i wynik obliczeń. Splątanie cząstki, czyli wykonanie dokładnej - lub odwrotnej - kopii, zawierającej te same - lub dokładnie przeciwne - informacje, sprawia, że odczytanie ich nie spowoduje załamania się stanu superpozycji "oryginalnej” cząstki, a pozwoli dowiedzieć się, w jakim jest "nastroju”.

Dzięki splątaniu, stoimy przed możliwością stworzenia bardzo wydajnych algorytmów i niemożliwych do złamania protokołów komunikacyjnych, a ponadto możemy "plątać” ze sobą już splątane kubity (i łączyć je w większe jednostki, dzięki czemu kwantowe procesory będą mogły wykonywać jeszcze więcej operacji równocześnie).

Tunelowanie kwantowe jest mechanizmem, dzięki któremu, w sposób losowy, od czasu do czasu cząstka przekracza tzw. barierę potencjału (a więc barierę uniemożliwiającą przejście przez np. inne ciało). W fizyce klasycznej dana cząstka musi posiadać odpowiednio wysoką energię, aby tego dokonać, ale dzięki efektom kwantowym, możliwe jest, mówiąc obrazowo, "przejście przez ścianę” cząstki o niższej energii. Pojęcie jest niezwykle skomplikowane matematycznie i niemożliwe do wyjaśnienia w akapicie, ale wystarczy pamiętać, że dzięki tunelowaniu możemy osiągnąć niespotykaną dotąd prędkość przekazywania informacji przy jednocześnie optymalnym zużyciu energii.

Dzisiejsze komputery kwantowe wykorzystywane są m.in. przez NASA, Google czy Lockheed Martin. Choć dzisiaj jeszcze maszyny te do złudzenia przypominają potężne szafy, którymi niegdyś były klasyczne komputery, zajmując powierzchnie całych laboratoriów, w perspektywie 10-15 lat możemy spodziewać się ich dalszego rozwoju i miniaturyzacji.

Typowe dla współczesnych komputerów problemy wiążą się głównie z koniecznością wykonywania ciągu operacji - jedna po drugiej. Dlatego też moc centrów bazodanowych można określić na przykład liczbą procesorów. Gdy komputery kwantowe zaczną wypierać standardowe urządzenia obliczeniowe, staniemy przed możliwością uzyskania odpowiedzi na pytania, które do tej pory pozostawały poza fizycznym zasięgiem. Będzie to jednak niemożliwe, jeśli koncerny będą pracować niezależnie i w tajemnicy - w obliczu tego rewolucyjnego wyzwania potrzeba współpracy wielu ośrodków badawczych, dużych budżetów i liderów rozumiejących przesunięcie technologicznego paradygmatu.

Materiał przygotowany we współpracy z firmą Intel

Szukasz porady? Skontaktuj się z ekspertem z Asseco: +48 22 574 88 23; e-mail: piotr.fabjaniak@assecods.pl

Tagi: pc, intel
Źródło:
money.pl
komentarze
+1
+1
ważne
smutne
ciekawe
irytujące
Napisz komentarz