Hybrid datorsystem

Den aktuella versionen av sidan har ännu inte granskats av erfarna bidragsgivare och kan skilja sig väsentligt från versionen som granskades den 13 juni 2018; kontroller kräver 7 redigeringar .

Ett hybridberäkningssystem är ett system med en heterogen hårdvaruberäkningsstruktur. En kombination av alla datorenheter eller enheter, till exempel datoranvändning med CPU och GPU tillsammans. [1] [2]

Historik

Vanligtvis är den huvudsakliga beräkningskomponenten i högpresterande datorsystem, inklusive kluster , den centrala bearbetningsenheten . Men redan från och med Intel486DX- processorerna dök ett sådant element som en samprocessor upp i datorer , vilket kan betraktas som hybridisering på hårdvarunivå.

I mitten av 2000-talet började grafikprocessorer (GPU) användas för datorändamål . [ett]

Huvudproblemet är att hitta sätt att utföra beräkningsuppgifter med en GPU. När NVIDIA insåg efterfrågan på sådan datoranvändning introducerade CUDA hårdvaru- och mjukvaruplattformen 2007, som låter dig köra godtycklig kod på GPU:n. Före tillkomsten av CUDA var programmerare tvungna att bygga hybridsystem från konventionella grafikkort och programmera dem med hjälp av komplexa grafiska API :er .

ATI har utvecklat sina egna CUDA- motsvarigheter för GPGPU-applikationer. Dessa är teknikerna ATI Stream och Close to Metal .

Den nya Intel Larrabee - arkitekturen förväntades stödja GPGPU - teknologier . Men, faktiskt släppt som en del av Intel MIC- produktlinjen, stödde Xeon Phi endast generell datoranvändning (kompatibel med x86_64), efter att ha förlorat grafikprocessorns kapacitet. Efterföljande varianter av Xeon Phi implementerades inte bara i form av PCI Express-expansionskort, utan också i form av en enda central processor.

Tekniska funktioner

GPU

Den höga datorkraften hos GPU:n beror på arkitekturens egenheter. Om moderna processorer innehåller flera kärnor (på de flesta moderna system från 2 till 8x, 2018, på de norra kan det vara maximalt 64x), skapades GPU:n ursprungligen som en flerkärnig struktur där antalet kärnor mäts i hundratals (exempel - Nvidia 1070 har 1920 kärnor). Skillnaden i arkitektur bestämmer skillnaden i funktionsprinciperna. Om processorns arkitektur förutsätter sekventiell bearbetning av information, var GPU:n historiskt avsedd för bearbetning av datorgrafik, därför är den designad för massiv parallell beräkning. [3]

Var och en av dessa två arkitekturer har sina egna fördelar. CPU:n fungerar bättre med sekventiella uppgifter. Med en stor mängd information som bearbetas har GPU:n en uppenbar fördel. Det finns bara ett villkor - uppgiften måste ha parallellitet.

GPU:er har redan nått den punkt där många verkliga applikationer kan köras på dem med lätthet och snabbare än på system med flera kärnor. Framtida datorarkitekturer kommer att bli hybridsystem med GPU:er som består av parallella kärnor och som arbetar tillsammans med flerkärniga processorer. [fyra]

Originaltext  (engelska)[ visaDölj] GPU:er har utvecklats till en punkt där många verkliga applikationer enkelt implementeras på dem och körs betydligt snabbare än på flerkärniga system. Framtida datorarkitekturer kommer att vara hybridsystem med parallellkärniga GPU:er som arbetar tillsammans med flerkärniga processorer. [5]

Professor Jack Dongarra
Direktör för Innovative Computing Laboratory
Tennessee State University

cell

IBM Cell- processorerna som används i Sony PlayStation 3 -spelkonsolerna innehöll två typer av kärnor: en PPE, en allmän kärna och en uppsättning av 8 SPE-samprocessorer.

Tillämpningar i distribuerad datoranvändning

BOINC GRID Computing Software stöder möjligheten att använda GPU:n för att utföra datoruppgifter. [6]

Se även

Litteratur

Länkar

Anteckningar

  1. 1 2 GPU-baserade hybriddatorsystem . Hämtad 13 september 2011. Arkiverad från originalet 22 juni 2015.
  2. [1] Arkiverad 5 oktober 2011 på Wayback Machine // Bull.com
  3. NVIDIA Tesla GPU-baserade hybriddatorsystem arkiverade 8 september 2011 på Wayback Machine
  4. GPU-beräkning . Hämtad 13 september 2011. Arkiverad från originalet 31 maj 2012.
  5. Vad är GPU Computing?  (engelska) . Hämtad 13 september 2011. Arkiverad från originalet 31 maj 2012.
  6. BOINC. Använd din GPU för vetenskaplig beräkning . Hämtad 13 september 2011. Arkiverad från originalet 2 september 2011.