Quantum supremacy är förmågan hos kvantdatorenheter att lösa problem som klassiska datorer praktiskt taget inte kan lösa. Kvantfördelen är förmågan att lösa problem snabbare. Ur beräkningskomplexitetsteoris synvinkel innebär detta vanligtvis att man tillhandahåller en superpolynomisk hastighet jämfört med den mest kända eller möjliga klassiska algoritmen [1] . Termen populariserades av John Preskill , men konceptet med kvantberäkningsfördelar, särskilt vid simulering av kvantsystem, går tillbaka till kvantberäkningsförslaget från Yuri Manin (1980) [2] ochRichard Feynman (1981) [3] .
Shors algoritm för heltalsfaktorisering, som körs i polynomtid på en kvantdator, ger en sådan superpolynomisk hastighet jämfört med den mest kända klassiska algoritmen [4] . Även om det ännu inte har bevisats anses faktorisering vara en utmaning när man använder klassiska resurser. Svårigheten att bevisa vad som inte kan göras med klassisk beräkning är ett vanligt problem för att definitivt demonstrera kvantöverlägsenhet. Det påverkar också Aaronsons och Arkhipovs bosonsamplingsförslag , D-Waves specialiserade problem med frustrerade klusterslingor och utgångssampling för slumpmässiga kvantkretsar .
Liksom heltalsfaktorisering anses problemet med att sampla utgångsfördelningarna från slumpmässiga kvantkretsar vara svårt för klassiska datorer baserat på rimliga antaganden om komplexiteten.
Google tillkännagav tidigare planer på att demonstrera kvantöverlägsenhet i slutet av 2017 med en uppsättning av 49 supraledande kvantbitar [5] . Men i början av januari 2018 är det bara Intel som har annonserat sådan hårdvara [6] .
I oktober 2017 demonstrerade IBM en simulering av 56 qubits på en konventionell superdator, vilket ökade antalet qubits som behövs för kvantöverhöghet [7] .
I november 2018 tillkännagav Google ett partnerskap med NASA där NASA kommer att "analysera resultaten från kvantkretsar som körs på Googles kvantprocessorer och... överlägsenhet" [8] .
En teoretisk artikel från 2018 antyder att kvantöverlägsenhet kan uppnås på "en tvådimensionell array på 7 × 7 qubits och cirka 40 klockcykler", men om felfrekvensen är tillräckligt låg [9] .
Den 21 juni 2019 föreslog Scientific American att, enligt Nevens lag , kommer kvantöverhöghet att uppnås 2019 [10] .
Den 20 september 2019 rapporterade Financial Times att "Google påstår sig ha uppnått kvantöverlägsenhet på en uppsättning av 54 qubits, varav 53 var funktionella och användes för att utföra beräkningar på 200 sekunder, vilket skulle ta cirka 10 000 år för en konventionell superdator " [11] . Inledningsvis dök en rapport om detta upp på NASA:s webbplats, men raderades kort efter publiceringen [12] . Senare, den 23 oktober, tillkännagavs kvantöverhöghet officiellt [13] . Experter från IBM, efter att ha analyserat de presenterade uppgifterna, indikerade dock att vissa ögonblick inte är optimala och att en sådan beräkning på en klassisk superdator faktiskt bara tar 2,5 dagar istället för de deklarerade 10 000 åren. [14] [15] [16]
Den 3 december 2020 rapporterade kinesiska forskare att deras Jiuzhang kvantdator , som drivs av intrasslade fotoner, hade uppnått kvantöverlägsenhet. På 200 sekunder beräknade de framgångsrikt ett problem som skulle ta världens snabbaste klassiska dator mer än en halv miljard år att lösa [17] .
Frågan om komplexitet hänvisar till hur mängden resurser som krävs för att lösa ett problem skalar med storleken på insatsen. Som en förlängning av den klassiska beräkningskomplexitetsteorin beskriver kvantkomplexitetsteorin driften av en universell kvantdator utan att ta hänsyn till komplexiteten i dess skapelse eller eliminering av effekterna av dekoherens och brus [18] . Eftersom kvantinformation är en generalisering av klassisk information , kan en kvantdator simulera vilken klassisk algoritm som helst .
Komplexitetsklassen för quantum polynomial time bounded error (BQP) problem är en klass av beslutsproblem som kan lösas i polynomtid av en universell kvantdator . BPQ-klassen är relaterad till de klassiska komplexitetsklasserna genom en hierarki [19] . Det är fortfarande en öppen fråga om någon av dessa inbäddningar är strikta.
Till skillnad från beslutsproblem som kräver ett ja eller nej svar, kräver provtagningsproblem sampling från sannolikhetsfördelningar [20] . Om det finns en klassisk algoritm som kan sampla utdata från en godtycklig kvantkrets , kommer polynomhierarkin att flyttas till den tredje nivån, vilket anses vara mycket osannolikt. BosonSampling är ett mer specifikt förslag vars klassiska komplexitet beror på olösbarheten av problemet med att beräkna permanenten för en stor matris med komplexa element, vilket är ett P#-komplett problem. Argumenten som används för att härleda detta påstående har också tillämpats på IQP-sampling [21] , där endast hypotesen behövs att den genomsnittliga och värsta fallets komplexitet för problemet är densamma.
Följande algoritmer ger superpolynomisk hastighet jämfört med de mest kända klassiska algoritmerna [22] :
Denna algoritm hittar primfaktoriseringen av ett n -bitars heltal i tid [4] , den mest kända klassiska algoritmen tar tid och den bästa övre gränsen för komplexiteten i detta problem . Det kan också ge en snabbare för alla problem som kokar ner till heltalsfaktorisering , inklusive problemet om matrisgrupper tillhör fält av udda ordning.
För kvantberäkning är denna algoritm viktig både praktiskt och historiskt. Det blev den första polynomkvantalgoritmen som föreslagits för ett problem som anses vara svårt för klassiska datorer [4] . Förtroendet för denna komplexitet är så starkt att säkerheten för det vanligaste krypteringsprotokollet RSA idag baseras på faktoriseringsalgoritmen [23] . En kvantdator som framgångsrikt och reproducerbart kör denna algoritm kan bryta detta krypteringssystem [24] . Denna hackerisk kallas Y2K-problemet, liknande Y2K- problemet, Y2K-problemet .
Detta beräkningsparadigm är baserat på identiska fotoner som skickas genom ett linjärt optiskt nätverk och kan lösa vissa provtagnings- och sökproblem som, om man antar flera hypoteser, är olösliga för klassiska datorer [25] . Ändå visades det att bosonsampling i ett system med tillräckligt stora förluster och buller effektivt kan simuleras [26] .
Den största experimentella implementeringen av bosonsampling hittills har 6 lägen och kan därför behandla upp till 6 fotoner samtidigt [27] . Den bästa klassiska algoritmen för modellering av bosonsampling körs i ordningstid för ett system med n fotoner och m utgångslägen [28] . BosonSampling är en öppen källkod R - implementering av algoritmen . Algoritmen ger en uppskattning av 50 fotoner , vilket är nödvändigt för att demonstrera kvantöverlägsenhet med hjälp av bosonsampling.
Den mest kända algoritmen för att simulera en godtycklig slumpmässig kvantkrets kräver tid som skalar exponentiellt med antalet kvantbitar , baserat på vilket en grupp forskare uppskattar att cirka 50 kvantbitar kan vara tillräckligt för att visa kvantöverlägsenhet [9] . Google har meddelat sin avsikt att demonstrera kvantöverlägsenhet i slutet av 2017 genom att skapa och lansera ett 49 -qubit- chip som kan sampla distributioner inom rimlig tid som är otillgängliga för alla moderna klassiska datorer [5] . Men den största simuleringen av kvantkretsar som framgångsrikt utförts på en superdator har 56 qubits . Därför kan det vara nödvändigt att öka antalet qubits som krävs för att visa kvantöverlägsenhet [7] .
Kvantdatorer är mycket mer felbenägna än klassiska datorer på grund av dekoherens och brus. Tröskelsatsen säger att en brusig kvantdator kan använda felkorrigerande kvantkoder [29] [30] för att simulera en icke-brusig kvantdator, förutsatt att felet som introduceras i varje datorcykel är mindre än ett visst antal. Numeriska simuleringar visar att denna siffra kan nå 3 % [31] .
Det är dock inte känt hur de resurser som krävs för felkorrigering kommer att skalas med antalet qubits . Skeptiker[ vad? ] indikerar att brusets beteende är okänt i skalbara kvantsystem som potentiella hinder för framgångsrik implementering av kvantberäkning och demonstration av kvantöverhöghet.