Femte generationens datorer

Den aktuella versionen av sidan har ännu inte granskats av erfarna bidragsgivare och kan skilja sig väsentligt från versionen som granskades den 15 juli 2022; kontroller kräver 3 redigeringar .

Femte generationens datorer ( Jap. 第五世代コンピュータ) - i enlighet med ideologin för datorteknologisk utveckling, efter den fjärde generationen, byggd på mycket stora integrerade kretsar, förväntades det skapa nästa generation fokuserad på distribuerad datoranvändning, samtidigt gång trodde man att den femte generationen skulle bli grunden för att skapa enheter som kunde imitera tänkande.

Ett storskaligt statligt program i Japan för att utveckla datorindustrin och artificiell intelligens genomfördes på 1980 -talet . Målet med programmet var att skapa en "epokgörande dator" med superdatorprestanda och kraftfulla funktioner för artificiell intelligens [1] . Utvecklingsstart - 1982 , utvecklingsslut - 1992 , utvecklingskostnad - 57 miljarder ¥ (cirka 500 miljoner USD ) . Programmet slutade i ett misslyckande, eftersom det inte förlitade sig på tydliga vetenskapliga metoder, dessutom visade sig även dess delmål vara tekniskt ouppnåeliga.

För tillfället är termen "femte generationen" vag och används på många sätt, till exempel när man beskriver molnsystem.

Definition av termen

I enlighet med den allmänt accepterade metoden för att bedöma utvecklingen av datorteknik ansågs rördatorer vara den första generationen, transistordatorer den andra , integrerade kretsdatorer den tredje och mikroprocessorer den fjärde . Medan tidigare generationer förbättrades genom att öka antalet element per ytenhet (miniatyrisering), var femte generationens datorer tänkt att vara nästa steg, och för att uppnå superprestanda, för att implementera interaktionen av en obegränsad uppsättning mikroprocessorer.

Japanskt femte generationens datorprojekt

När projektet startade var Japan inte en ledande utvecklare och leverantör av lösningar inom datateknikområdet, även om man redan nått stora framgångar med att implementera ett brett utbud av datateknik, inklusive de som bygger på dess egen unika utveckling. Japans ministerium för internationell handel och industri (MITI) beslutade att tvinga Japans genombrott i täten, och från slutet av 70 -talet initierade utvecklingen av prognoser om framtiden för datorteknik. Detta arbete tilldelades Japan Information Processing Development Center (JIPDEC), som skulle peka ut några av de mest lovande riktningarna för framtida utveckling, och 1979 erbjöds ett treårigt kontrakt för mer djupgående forskning som involverade industri och akademi. . Vid det här laget började de använda termen "femte generationens datorer" , eftersom det länge har diskuterats flitigt av det internationella expertsamfundet.

Användningen av denna term var att betona att Japan planerar att göra ett nytt kvalitativt steg i utvecklingen av datorteknik.

De huvudsakliga forskningsområdena var följande:

Det handlade om en dator med parallella processorer som arbetade med data lagrade i en stor databas snarare än ett filsystem . Samtidigt måste dataåtkomst ske med hjälp av ett logiskt programmeringsspråk. Det antogs att prototypmaskinen kommer att ha en prestanda mellan 100 miljoner och 1 miljard LIPS, där LIPS är en logisk slutledning per sekund. Vid den tiden hade typiska arbetsstationer kapacitet för cirka 100 000 LIPS.

Utvecklingsförloppet presenterades på ett sådant sätt att datorintelligens, som får makt, börjar förändra sig själv, och målet var att skapa en sådan datormiljö som själv skulle börja producera nästa, och de principer som den slutliga datorn bygger på. skulle byggas var okända i förväg, dessa principer måste utvecklas under driften av primära datorer.

Vidare, för en kraftig ökning av produktiviteten, föreslogs det att gradvis ersätta mjukvarulösningar med hårdvarulösningar, så det fanns ingen skarp åtskillnad mellan uppgifterna för mjukvaran och hårdvarubasen.

Det förväntades uppnå ett betydande genombrott inom området för att lösa tillämpade problem med artificiell intelligens. I synnerhet måste följande uppgifter lösas:

Superdatorer förväntades effektivt lösa massiva simuleringsproblem, främst inom aero- och hydrodynamik.

Detta program var tänkt att implementeras om 11 år, tre år för inledande forskning och utveckling, fyra år för att bygga enskilda delsystem och de senaste fyra åren för att färdigställa hela prototypsystemet. 1982 beslöt den japanska regeringen att ytterligare stödja projektet och grundade Institutet för ny generation datorteknik (ICOT), som samlade investeringar från olika japanska datorföretag.

Internationell resonans

Tron på framtiden för parallell datoranvändning var så djup vid den tiden att "femte generationens"-projektet togs på största allvar i datorvärlden. Efter att Japan steg i framkanten av hemelektronik på 1970-talet och blev ledande inom bilindustrin på 1980 -talet, fick japanerna ett rykte om att vara oövervinnerliga. Projekt inom området parallell databehandling började omedelbart utvecklas i USA  - i Corporation for Microelectronics and Computer Technology (MCC), i Storbritannien  - i företaget Alvey (Alvey) och i Europa som en del av European Strategic Forskningsprogram i informationsteknologi (ESPRIT) . [2]

Parallell superdator MARS i USSR

I Sovjetunionen påbörjades också forskning om parallella programmeringsarkitekturer, för detta skapades VNTK START 1985 , som lyckades skapa Kronos -processorn och prototypen för flerprocessordatorn MARS på tre år .

Till skillnad från japanerna var uppgiften att integrera ett stort antal processorer och implementera distribuerade kunskapsbaser baserade på språk som Prolog inte inställd, det handlade om en arkitektur som stöder ett högnivåspråk som Modula-2 och parallell beräkning. Därför kan projektet inte kallas den femte generationen i japansk terminologi.

1988 slutfördes projektet framgångsrikt, men efterfrågades inte och fortsatte inte på grund av omstrukturering och det ogynnsamma marknadsläget för den inhemska datorindustrin. Framgången var i den partiella implementeringen av prototyparkitekturen (främst hårdvara), men ett sådant japanskt "stort språng" inom området programmering, databaser och artificiell intelligens planerades inte ens inom detta projekt.

Svårigheter i implementeringen

Under de följande tio åren började "femte generationens dator"-projektet uppleva ett antal svårigheter av olika slag.

Det första problemet var att det Prolog- språk som valts som grund för projektet inte stödde parallell beräkning, och det var nödvändigt att utveckla ett eget språk som kunde fungera i en multiprocessormiljö. Detta visade sig vara svårt – flera språk föreslogs, alla med sina egna begränsningar. [3]

Ett annat problem uppstod med processorernas prestanda. Det visade sig att 80-talets teknik snabbt hoppade över de barriärer som ansågs "uppenbara" och oöverstigliga före projektets början. Och parallelliseringen av många processorer orsakade inte det förväntade kraftiga prestandahoppet (se Amdahls lag ). Det hände så att de arbetsstationer som skapades som en del av projektet framgångsrikt nådde och till och med översteg den erforderliga kapaciteten, men vid det här laget dök det upp kommersiella datorer som var ännu kraftfullare.

Dessutom visade sig Fifth Generation Computer-projektet vara felaktigt när det gäller mjukvaruproduktionsteknik. Redan innan utvecklingen av detta projekt utvecklade Xerox ett experimentellt grafiskt gränssnitt ( GUI ). Och senare dök Internet upp , och ett nytt koncept för datadistribution och lagring uppstod, medan sökmotorer ledde till en ny kvalitet på lagring och tillgång till heterogen information. Förhoppningar om utvecklingen av logisk programmering, matade i Fifth Generation Computers-projektet, visade sig vara illusoriska, främst på grund av begränsade resurser och opålitlig teknologi.

Idén om självutveckling av systemet, enligt vilken systemet själv måste ändra sina interna regler och parametrar, visade sig vara improduktiv - systemet, som passerade genom en viss punkt, halkade in i ett tillstånd av förlust av tillförlitlighet och förlust av integritet, skarpt "dum" och blev otillräcklig.

Idén om en storskalig ersättning av mjukvara med hårdvara visade sig vara tidig; i framtiden gick utvecklingen av datorindustrin i motsatt riktning och förbättrade mjukvara med enklare men standard hårdvara. Projektet var begränsat till 1970 -talets tankekategorier och misslyckades med att göra en tydlig åtskillnad mellan funktionerna hos programvara och hårdvara.

Projektutvärdering

Ur vilken synvinkel som helst kan projektet betraktas som ett absolut misslyckande. Över 50 miljarder ¥ spenderades på utveckling på tio år, och programmet avslutades utan att nå sitt mål. Arbetsstationerna kom aldrig in på marknaden eftersom andra företags system med en processor var överlägsna i parametrar, mjukvarusystemen fungerade aldrig, tillkomsten av Internet gjorde alla idéer i projektet hopplöst föråldrade.

Projektets misslyckanden förklaras av en kombination av ett antal objektiva och subjektiva faktorer: [4]

Anteckningar

  1. Kazuhiro Fuchi, Revisiting Original Philosophy of Fifth Generation Computer Systems Project, FGCS 1984, s. 1-2
  2. av Peter Bishop, Fifth Generation Computers , New York, 1986, Tohru Moto-Oka, Masaru Kitsuregawa, The Fith Generation Computer: The Japanese Challenge , New York, 1985.
  3. 1 2 Carl Hewitt Mellanhistoria av logisk programmering: upplösning, planerare, prolog och det japanska femte generationens projekt
  4. Kan femte generationens datorsystem lösa oljeutsläppskrisen i Mexikanska golfen?
  5. Att undvika en annan AI-vinter Arkiverad 12 februari 2012 på Wayback Machine , James Hendler, IEEE Intelligent Systems (mars/april 2008 (vol. 23, nr 2) s. 2-4

Litteratur

Länkar

webbarkiv