Behovet av att separera datoruppgifter och utföra dem samtidigt (parallellt) uppstod långt före tillkomsten av de första datorerna .
I slutet av 1700-talet i Frankrike, under ledning av Gaspard de Prony , påbörjades arbetet med att förfina logaritmiska och trigonometriska tabeller i samband med övergången till det metriska systemet [1] . För dess genomförande krävdes en enorm mängd beräkningar vid den tiden. Projektutförare var indelade i tre nivåer:
Arbetet avslutades inte på grund av de revolutionära händelserna 1799 , men de Pronys idéer ledde till att Charles Babbage skapade den analytiska motorn .
Lösningen för den amerikanska atombombmodellen erhölls av ett team av vetenskapsmän som använde datorer.
År 1962 föreslog E. V. Evreinov (vinnare av Leninpriset, 1957), tillsammans med Yu. G. Kosarev vid Institute of Mathematics of the Siberian Branch of Russian Academy of Sciences, en modell av kollektiva datorer och underbyggde möjligheten att bygga superdatorer på principerna för parallellt utförande av operationer, en variabel logisk struktur och konstruktiv homogenitet. [2]
1973 skrev John Schoch och John Hupp från Kaliforniens Xerox PARC forskningscenter ett program som kördes på PARC LAN på natten och tvingade löpande datorer att utföra beräkningar [3] .
1977, i NSTU (Novosibirsk), vid Institutionen för datateknik, under ledning av V. I. Zhiratkov, utvecklades ett distribuerat datorsystem från tre datorer "Minsk-32" med original hårdvara och mjukvara som stöder protokoll för den fysiska kanalen och nätverksnivåer, och tillhandahåller utförande av parallella uppgifter. En maskin var vid Computing Center vid Novosibirsk State Technical University, och de andra två var vid Computing Center vid Institute of Mathematics av den sibiriska grenen av den ryska vetenskapsakademin. Kommunikation mellan NSTU och Mathematics Institute of the Siberian Branch of Russian Academy of Sciences tillhandahölls via en radiokanal med hjälp av riktade antenner. Systemet testades samtidigt som det löste optimeringsproblem inom det ekonomiska området med hjälp av parallellisering med stora block.
1978 arbetade den sovjetiske matematikern V. M. Glushkov med problemet med makro -pipeline- distribuerad datoranvändning. Han föreslog ett antal principer för fördelningen av arbetet mellan processorer [4] . Baserat på dessa principer utvecklade han ES-2701- datorn .
1988 skrev Arjen Lenstra och Mark Menes ett program för att faktorisera långa tal. För att påskynda processen kunde programmet köras på flera maskiner som var och en bearbetade sitt eget lilla fragment. Nya block av uppgifter skickades till deltagarnas datorer från projektets centrala server via e-post . Det tog denna gemenskap två år och flera hundra persondatorer att framgångsrikt faktorisera ett hundrasiffrigt nummer [3] .
Med tillkomsten och den snabba utvecklingen av Internet har idén om frivillig användning för distribuerad beräkning av datorer för vanliga användare anslutna via Internet blivit allt mer populär .
I januari 1996 startade GIMPS-projektet för att hitta Mersenne-primtal , med användning av vanliga användares datorer som ett frivilligt datornätverk .
Den 28 januari 1997 lanserades RSA Data Security-tävlingen för att lösa problemet med hackning genom att helt enkelt räkna upp en 56-bitars RC5 informationskrypteringsnyckel . Tack vare goda tekniska och organisatoriska förberedelser blev projektet, organiserat av den ideella communityn distributed.net , snabbt allmänt känt [3] .
Den 17 maj 1999, på basis av BOINC-plattformen , lanserades SETI@home- projektet , som är engagerat i sökandet efter utomjordisk intelligens genom att analysera data från radioteleskop med hjälp av ett frivilligt Grid - baserat datornätverk .
Sådana distribuerade datorprojekt på Internet som SETI@Home och Folding@Home har inte mindre datorkraft än de modernaste superdatorerna . Den integrerade produktiviteten för projekt på BOINC-plattformen den 16 maj 2010 är 5,2 peta flops [5] . Prestanda för Bitcoin -nätverket nådde 17 000 petafloppar den 6 oktober 2013 [6] . Som jämförelse är toppprestanda för den mest kraftfulla superdatorn (" K-dator ", Japan) 8,16 petaflops [7] . Fram till mitten av 2011 var den mest kraftfulla superdatorn Tianhe-1A med en prestanda på "bara" 2,57 petaflops [8] . Projektet är noterat i Guinness rekordbok som den största beräkningen [9] .
Hittills har många programvarusystem skapats , både kommersiella och gratis, för att förenkla processen att organisera och hantera distribuerad datoranvändning.