Den artificiella intelligensens vinter är en period i forskningen om artificiell intelligens förknippad med minskade anslag och ett allmänt minskat intresse för frågor [1] . Termen introducerades i analogi med termen " kärnvapenvinter " [2] . Området artificiell intelligens gick igenom flera cykler, åtföljt av ökad hype, följt av "vintrar" - besvikelse, kritik och efterföljande minskning av finansieringen, och sedan förnyat intresse några år eller decennier senare [3] .
Termen nämndes första gången 1984 vid årsmötet för AAAI (American Association for Artificial Intelligence): vid en av diskussionerna varnade Roger Shank och Marvin Minsky - två ledande forskare inom artificiell intelligens - verksamheten gemenskap att entusiasmen för riktningen var utom kontroll, och att besvikelse skulle följa, illustrerades av riktningens "första vinter" som upplevdes på 1970-talet. Efter denna diskussion följde en kedjereaktion, åtföljd av pessimism bland forskare, som även spreds i media och i slutändan ledde till minskade anslag och ett stopp för stora arbeten [2] ; tre år senare slogs industrin för artificiell intelligens för miljarder dollar praktiskt taget ner [2] .
Som med all hype som åtföljer lovande teknologier och kännetecknas av efterföljande nedgångar ( järnvägsmani , dot-com-bubbla ), innebar "AI-vintrar" i första hand en kollaps i uppfattningen hos dem som fattar beslut om finansiering - statliga tjänstemän, investerare, riskkapitalister , organisationschefer . Samtidigt, trots uppgången och nedgången för den artificiella intelligensens rykte, genomfördes forskning inom detta område kontinuerligt, och efter nedgångarna återupptog investerarnas intresse som nästa resultat. Sålunda, 2005, noterade Ray Kurzweil att "AI-vintern" inte avbröt arbetet i detta område, och i mitten av 2000-talet är "många tusentals artificiell intelligenstillämpningar djupt inbäddade i infrastrukturen för varje bransch" [4] .
Två långa "vintrar" hänförs till perioderna 1974-1980 och 1987-1993 [5] [6] . Dessutom fanns det flera mindre betydande episoder som bidrog till att intresset för riktningen minskade, till exempel misslyckandet med maskinöversättningsprojekt 1966 och misslyckandet med begreppet konnektionism 1970. Andra perioder med minskad ränta:
Under det kalla kriget var den amerikanska regeringen särskilt intresserad av automatisk, omedelbar översättning av ryska dokument och vetenskapliga rapporter. Sedan 1954 har den amerikanska regeringen lagt mycket kraft på utvecklingen av maskinöversättning. Tidigt var forskarna optimistiska: Noam Chomskys nya arbete om grammatik förenklade översättningsprocessen, och det fanns "många förutsägelser om ett kommande genombrott" [7] .
Men forskare har underskattat svårigheten att lösa lexikal polysemi . För att kunna översätta en mening utan fel, var maskinen tvungen att ha en uppfattning om vad meningen handlade om. Enligt myten [8] förvandlades frasen "anden är villig men köttet är svagt" (stark ande, men köttet är svagt) när den översatts till ryska och sedan tillbaka till engelska till "vodkan är god men köttet är ruttet” (vodka bra, men köttet är ruttet) [9] , och ”out of sight, out of mind” (out of sight, out of mind) - i ”blind idiot” (blind idiot). Senare forskare skulle kalla detta sunt förnuft
1964 slog US National Research Council (NRC) larm om bristen på framsteg och bildade den rådgivande kommittén för automatisk språkbehandling för att undersöka problemet. I sin rapport från 1966 drog kommittén slutsatsen att maskinöversättning visade sig vara dyrare, mindre exakt och långsammare än mänsklig översättning. Efter att ha spenderat omkring 20 miljoner dollar, inskränkte NRC all utveckling. Stenbrotten förstördes och forskningen stoppades [10] [7] .
Under 2000-talet förblir maskinöversättning ett öppet problem, även om det har lösts med viss framgång ( Google Translate , Yahoo Babel Fish ).
Vissa tidiga AI-arbeten använde nätverk eller kretsar av anslutna block för att simulera intelligent beteende. Exempel på detta tillvägagångssätt, som kallas för connectionism , är Walter Pitts och Warren McCullochs första beskrivning av ett artificiellt neuralt nätverk och Marvin Minskys arbete med SNARCI slutet av 1950-talet övergavs de flesta av dessa tillvägagångssätt när forskare började utforska symboliskt resonemang (symboliskt resonemang som basen för intelligens efter framgången med program som Logic Theorist och General Problem Solver 11]
Arbetet inom en gren av sambandismen fortsatte dock - studien av perceptronen , föreslagen av Frank Rosenblatt , som lyckades stödja forskning inom detta område på grund av sina förmågor som "säljare" och styrkan i hans personlighet [12] . Han förutspådde optimistiskt att perceptronen "med tiden kommer att kunna lära sig, fatta beslut och översätta språk" [13] . Mainstream perceptronforskning kom till ett abrupt stopp 1969 med publiceringen av Perceptrons av Marvin Minsky och Seymour Papert , som beskrev gränserna för perceptroner.
Konnektivismen glömdes bort under de närmaste decennierna. Även om en del viktigt arbete i denna riktning fortsatte, till exempel föreslogs backpropagation , var det svårt att hitta tillräcklig finansiering för kopplingsprojekt under 1970-talet och början av 1980-talet [14] . "Vintern" av konnektionistisk forskning slutade i mitten av 1980-talet, när John Hopfields , David Rumelharts och andras arbete återupplivade storskaligt intresse för neurala nätverk [15] . Rosenblatt väntade inte på detta, han dog i en olycka kort efter publiceringen av boken "Perceptrons" [13] .
1973 gav det brittiska parlamentet professor Sir James Lighthill i uppdrag att bedöma läget för forskningen om artificiell intelligens i Storbritannien. Hans rapport, känd som Lighthill-rapporten , kritiserade AI:s övergripande misslyckande med att uppnå sina "stora mål". Han kom fram till att allt som AI kan göra också kan göras av andra vetenskaper. Han pekade särskilt ut problemen med " kombinatorisk explosion " och " omtränglighet ", som visade att de flesta av de mest framgångsrika AI-algoritmerna endast är lämpliga för att lösa "leksaksproblem", och de fungerar inte på verkliga praktiska problem [16] .
Rapporten ifrågasattes i en debatt som sändes i BBC:s "Controversy"-program 1973. I debatten "Universal Robot is a Mirage" argumenterade Lighthill, som representerade Royal Institution, mot ett team av Donald Johnoch Richard Gregory17McCarthy skrev senare att "det kombinatoriska explosionsproblemet kändes igen i AI från allra första början" [18] .
Lighthill-rapporten ledde till att det mesta av AI-forskningen i Storbritannien upphörde [16] . Forskningen fortsatte endast vid ett fåtal andra klassens universitet ( Edinburgh , Essex och Sussex ). James Hendler skriver: "Detta skapade en ringeffekt som ledde till en minskning av finansieringen för AI-utveckling i hela Europa" [19] . Storskalig forskning återupptogs inte förrän 1983, när det brittiska - projektet svar på det japanska femte generationens datorprojekt , började finansiera 350 miljoner pund i AI från militärbudgeten. Alvey hade ett antal krav som endast gällde Storbritannien, vilket inte passade internationella partners, särskilt amerikanska, och blev orsaken till att finansieringen för andra etappen avslutades.
Under 1960 -talet tillhandahöll Defense Advanced Research Projects Agency (då känd som "ARPA", nu "DARPA") miljontals dollar för forskning om artificiell intelligens med små eller inga krav. Direktören för DARPA under dessa år, Joseph Licklider , trodde på att "finansiera människor, inte projekt" [13] och tillät AI-industriledare (som Marvin Minsky , John McCarthy, Herbert A. Simon och Allen Newell ) att spendera det på nästan vilket syfte som helst.
Detta förändrades med passagen av Mansfield-tillägget 1969, vilket krävde att DARPA "skulle finansiera "riktad forskning, inte allmän oriktad forskning. Från och med nu övervägdes förslagen från forskare inom artificiell intelligens enligt mycket strikta normer. Situationen har blivit ännu mer komplicerad efter släppet av Lighthill-rapporten och DARPA (American Study Group) egen studie, som visade att det mesta av artificiell intelligens forskning sannolikt inte kommer att ge någon fördel inom överskådlig framtid. Som ett resultat av detta riktades DARPA-pengar till projekt med tydligare mål, såsom autonoma stridsvagnar och stridsledningssystem. År 1974 var det svårt att hitta finansiering för artificiell intelligensprojekt [20] .
AI-forskaren Hans Moravec skyllde krisen på sina kollegors orealistiska prognoser: "Många forskare har hamnat i ett nät av ökande överdrift. De första löftena han gav till DARPA var för optimistiska. Naturligtvis skilde sig det de utvecklade som ett resultat avsevärt från löftena. Men de trodde att nästa gång kunde de inte lova mindre än den första, så de lovade ännu mer” [13] . Som ett resultat har DARPA-personal tappat tålamodet med AI-forskning, hävdar Moravec. Moravec berättade för Daniel Crevier att "DARPA sa bokstavligen att några av dessa människor borde få en läxa genom att minska sina kontrakt på två miljoner dollar per år till nära [13] .
Även om det autonoma stridsvagnsprojektet misslyckades, var stridsledningssystemet (Dynamic Analysis and Replanning Tool, DART) extremt framgångsrikt och sparade miljarder dollar under det första Gulfkriget , vilket kompenserade alla DARPA-investeringar i AI [21] och motiverade därmed en pragmatisk politik DARPA [22] .
DARPA var djupt besviken över forskare vid Carnegie Mellon University som arbetade med ett taligenkänningsprogram. DARPA förväntade sig att få, och trodde att de lovade att tillhandahålla, ett röststyrningssystem för piloter. SUR-teamet utvecklade ett system som kunde känna igen talad engelska, men bara om orden talades i en viss ordning. DARPA kände att de hade blivit lurade, och 1974 avbröt de anslaget på 3 miljoner dollar per år [23] .
Många år senare skulle framgångsrika kommersiella taligenkänningssystem använda teknologier utvecklade av Carnegie Mellon-teamet (som Hidden Markov Models ), och 2001 skulle marknaden för taligenkänningssystem nå 4 miljarder dollar [24] .
På 1980-talet antog företag runt om i världen expertsystem (en form av artificiell intelligens). Det första kommersiella expertsystemet var XCON , utvecklat vid Carnegie Mellon University för Digital Equipment Corporation . En stor framgång hjälpte Digital Equipment att spara uppskattningsvis 40 miljoner USD under sex års drift. Företag runt om i världen började utveckla och implementera expertsystem, och 1985 spenderade de över en miljard dollar på AI, varav det mesta gick till interna avdelningar för artificiell intelligens. inklusive mjukvaruutvecklare som Teknowledge och ) hårdvarutillverkare som Symbolics Lisp De skapade dedikerade AI-datorer, Lisp-maskiner , optimerade för att bearbeta Lisp- programmeringsspråket , på den tiden det föredragna språket i AI-utveckling [13] .
1987, tre år efter Minsky och Schanks förutsägelse, kraschade Lisp-maskinmarknaden. Arbetsstationer från företag som Sun Microsystems erbjöd ett kraftfullt alternativ till Lisp-maskiner, och företag som Lucid Inc. , erbjöd ett LISP-ramverk för denna nya klass av arbetsstationer. Prestanda för allmänna arbetsstationer blev en allt svårare utmaning för Lisp-maskiner. Företag som Lucid Inc. och Franz Inc , erbjöd allt kraftfullare versioner av LISP. Benchmarkresultat har visat att arbetsstationer överträffar Lisp-maskiner [25] . Senare skulle Apple och IBM stationära datorer också erbjuda en enklare och mer populär arkitektur för att köra LISP-applikationer. År 1987 var de kraftfullare än de dyrare Lisp-maskinerna. Regelbaserade motorer som CLIPS [26] var tillgängliga på stationära datorer . Dessa alternativ lämnade ingen anledning för konsumenterna att köpa dyra Lisp-maskiner. Hela en halv miljard dollar Lisp maskinindustrin försvann på ett år [13] .
Ur kommersiell synvinkel gick många Lisp-företag i konkurs, som Symbolics, Lisp Machines Inc., Lucid Inc. Andra företag, som Texas Instruments och Xerox , har lämnat branschen. Ett antal kundföretag fortsatte dock att använda och underhålla system skrivna i Lisp och utvecklade på Lisp-maskiner.
I början av 1990-talet visade sig tidiga framgångsrika expertsystem som XCON vara för dyra att underhålla. De var svåra att uppdatera, de kunde inte lära sig, de var "spröda" (gör fåniga misstag när de ges ovanliga input). offer för problem (som kvalifikationsproblemet som hittades i studien av icke-monotonisk logik Expertsystem har visat sig effektiva i endast ett fåtal specifika sammanhang [1] . Ett annat problem gällde beräkningskomplexiteten hos sanningsupprätthållandeproblemet i förhållande till allmän kunskap. KEE använde en antagandebaserad strategi (se NASA, TEXSYS [27] ) som stödde flera världsscenarier [27] som var svåra att förstå och tillämpa.
Det lilla antalet företag som fanns kvar inom expertsystemområdet tvingades så småningom minska personalstyrkan och leta efter nya marknader och programvaruparadigm som fallbaserade resonemang eller universell databasåtkomst . Utvecklingen av Common Lisp har räddat många system, såsom ICAD , som har kommit till användning inom kunskapsbaserad teknik. Andra system, som KEE Intellicorp, flyttade från Lisp till C++ på PC:n och hjälpte till att etablera objektorienterade teknologier (inklusive stora bidrag till utvecklingen av UML ).
1981 tilldelade det japanska internationell handel och industri 850 miljoner dollar till femte generationens datorprojekt Hans uppgift var att skapa program och maskiner som kunde föra en konversation, översätta språk, förstå bilder och tänka som människor. År 1991 hade den imponerande listan över mål som upprättades 1981 inte uppnåtts, och några av dem nåddes inte vare sig 2001 eller 2011. Som med andra AI-projekt var förväntningarna mycket större än förmågan att förverkliga dem [13] .
1983 förnyade DARPA, som svar på femte generationens projekt, finansieringen av forskning om artificiell intelligens genom att lansera Strategic Computing Initiative. Projektet var tänkt att starta med praktiska, uppnåeliga mål, varav ett var artificiell intelligens på lång sikt. Programmet administrerades av Information Processing Technology Office och fokuserade även på superdatorer och mikroelektronik . År 1985 hade 100 miljoner dollar spenderats på programmet, och 92 projekt hade lanserats på 60 institutioner, hälften av dem inom industrin, den andra hälften på universitet och statliga laboratorier. Forskning om artificiell intelligens har generöst finansierats av SCI [11] .
1987 tog Jack Schwartz över IPTO och avfärdade expertsystem som "skicklig programmering" och skar ner AI-finansieringen "djupt och hårt", vilket berövar SCI innehåll. Schwartz ansåg inte AI som en "ny våg" och ville fokusera DARPA-finansiering endast på de mest lovande teknikerna, enligt honom borde DARPA "surfa", inte "simma som en hund". Dessutom rapporterade programpersonalen problem i kommunikation, organisation och integration. Endast ett fåtal projekt överlevde nedskärningarna i finansieringen: assistentpiloten, det obemannade markfordonet (aldrig byggt) och DART-stridsledningssystemet (som, som noterats ovan, blev framgångsrikt) [11] .
En granskning av rapporter från mitten av 2000-talet tyder på att AI:s rykte fortfarande inte var utan sina brister:
Många forskare i mitten av 2000-talet undvek medvetet termen AI och använde andra namn för sin verksamhet, såsom datavetenskap , maskininlärning , analys, kunskapsbaserade system , affärsregelhanteringssystem , kognitiva system , intelligenta system , intelligenta system agenter , beräkningsintelligens , för att betona tillämpningen av specifika verktyg eller för att visa fokus på en specifik uppgift på lägre nivå. Medan forskare kanske anser att deras område är fundamentalt annorlunda än AI, hjälpte de nya titlarna att säkra finansieringen eftersom de tog bort stigmat av brutna löften i samband med "artificiell intelligens" [30] .
Ray Kurzweil skrev 2005: "Många experter tror fortfarande att AI-vintern var slutet på branschen och AI har inte riktigt kommit till stånd sedan dess, men redan idag finns det tusentals AI-applikationer i alla branscher och de är djupt invävda i deras infrastruktur” [31] . I slutet av 1990-talet och början av 2000-talet användes AI-teknik i stor utsträckning som en del av olika system [32] [31] , även om deras framgång nästan aldrig tillskrevs AI. År 2006 förklarade Nick Bostrom att "många banbrytande AI-tekniker har kommit till allmän användning, ofta utan att AI nämns alls, för när något väl blir användbart eller tillräckligt utbrett, slutar det att kallas AI." Rodney Brooks sa ungefär samtidigt, "det finns den här dumma myten att AI inte har levt upp till förväntningarna, men AI finns runt omkring dig varje sekund" [33] .
AI-teknologier har nått kommersiell framgång inom områden som maskinöversättning, datautvinning , industriell robotik , logistik [21] , taligenkänning, bankmjukvara, medicinsk diagnostik och Googles sökmotor [34] .
Fuzzy logic- styrenheter har utvecklats för automatiska växellådor i bilar. 2006 är Audi TT, VW Touareg och VW Caravell utrustade med en DSP-växellåda som använder flummig logik. Ett antal Skoda- modeller ( Skoda Fabia ) använder fuzzy logic controllers. Fuzzy logic används ofta i kamerasensorer för fokusering.
Heuristisk sökning och dataanalys har utvecklats från evolutionär modellering och maskininlärning inom ramen för artificiell intelligens . Återigen har dessa teknologier nått betydande kommersiell framgång i ett brett utbud av verkliga tillämpningar. Till exempel användes heuristisk sökning för att skapa butiksscheman och arbetsschemaplanering för 20 000 ingenjörer. Dataanalys, tillsammans med automatiserade algoritmer för generering av klassificerare utvecklade på 1990-talet av övervakade forskare inom maskininlärning (t.ex. TDIDT, Support Vector Machines, Neural Nets, IBL), används nu i stor utsträckning för inriktning på marknadsföringsundersökningar, trender och funktionsdetektering (funktioner) i dataset.
Forskare och ekonomer utvärderar läget inom AI, främst utifrån vilka AI-projekt som finansieras, av vem och i vilka belopp. Finansieringstrender sätts ofta av stora finansinstitut i den utvecklade världen. För närvarande tillhandahåller DARPA och EU-FP7 :s civila finansieringsprogram en betydande del av finansieringen för AI-forskning i USA och Europeiska unionen .
För 2007 övervägde DARPA förslag från AI-forskare under ett antal program, inklusive The Grand Challenge Program , Cognitive Technology Threat Warning System (CT2WS), "Human Assisted Neural Devices (SN07-43)", "Autonomous Real-Time Ground Ubiquitous Surveillance-Imaging System (ARGUS-IS)" och "Urban Reasoning and Geospatial Technology Exploitation (URGENT)".
Förmodligen den mest kända är DARPA:s "The Grand Challenge Program" [35] , som utvecklade helautomatiska vägfordon med förmåga att autonomt framgångsrikt korsa verklig terräng [36] .
DARPA stöder även program på den semantiska webben , med stort fokus på intelligent innehållshantering och automatiserad förståelse. James Hendler , DARPA , uttryckte dock frustration över regeringens förmåga att göra snabba förändringar och gick över till att samarbeta med Wide Web-konsortiet för att överföra teknik till den privata sektorn.
Finansieringsprogrammet för EU-FP7 ger stöd till EU:s forskare. Under 2007-2008 finansierade det AI-forskningsprogram: Cognitive Systems: Interaction and Robotics (193 miljoner euro), Digital Libraries and Digital Content (203 miljoner euro), FET (185 miljoner euro) [37] .
Det finns vissa farhågor om att en ny AI-vinter kan utlösas av alltför ambitiösa eller orealistiska löften från etablerade AI-forskare eller överlöften från kommersiella leverantörer. Till exempel, i början av 1990-talet, fruktade forskare att AI-vintern skulle drivas av en utbredd publicitet om Cogs på att skapa intelligens på samma nivå som ett tvåårigt
James Hendler noterade 2008 att AI-finansiering, både i EU och USA, har omdirigerats mer till tillämpade områden och tvärvetenskaplig forskning med traditionella vetenskaper som bioinformatik [26] . Denna övergång från grundforskning kommer eftersom det finns en trend mot praktiska tillämpningar som den semantiska webben till exempel . Med hänvisning till löpande bandargumentet (se skäl) såg Handler en parallell med vintern på 1980-talet och varnade för den kommande AI-vintern 2010.
Det har varit ständiga rapporter tidigare om att ännu en vår med AI är nära förestående eller redan här:
För närvarande har en markant ökning av AI-finansiering, utveckling, adoption och kommersiell användning lett till att AI-vintern sedan länge är över [39] .
Flera förklaringar till AI-vintrar har föreslagits. Den vanligaste orsaken till vintrarna är hajpen, men andra faktorer var också på väg, som listas nedan. Men med förskjutningen av AI-finansiering från regeringar till kommersiella organisationer har en ny dynamik kommit till spel.
AI-vintern kan ses som en krasch på grund av överdrivna förväntningar, jämförbara med ekonomiska bubblor på aktiemarknaden, som järnvägsmanin eller dot-com-bubblan . I en gemensam modell för utveckling av ny teknik (känd som hypecykeln ) skapar varje händelse, såsom ett tekniskt genombrott, initialt ett utbrett allmänintresse, som livnär sig och skapar en "topp av överdrivna förväntningar". Det följs av "besvikelse", med andra ord kollaps, eftersom forskare och ingenjörers ansträngningar inte hänger med de överhettade förväntningarna hos investerare och andra intressenter. AI-teknik har bekräftat denna utvecklingsmodell.
En annan faktor var AI:s plats i organisationen av universitet. AI-forskning tar ofta formen tvärvetenskaplig forskning kan involvera experter från områden som sträcker sig från filosofi till ingenjörsvetenskap . Med tanke på detta är AI föremål för typiska sjukdomar inom tvärvetenskaplig forskning. Således, med minskningen av finansieringen, kommer fakulteterna att skära ner icke-kärnområden, som inkluderar tvärvetenskapliga och ovanliga forskningsprojekt, det vill säga AI.
Under ekonomiska nedgångar skär regeringar ner universitetsbudgetar och den organisatoriska orsaken intensifieras ytterligare. Investerare i kristider väljer mindre riskfyllda projekt för investeringar än AI. Tillsammans förvandlar detta den ekonomiska krisen till en AI-vinter. Lighthills rapport kom vid en tid av ekonomisk kris i Storbritannien [40] när universiteten var tvungna att välja vilka projekt som skulle läggas under kniven.
Potentialen hos neurala nätverk var välkänd, men realiserades aldrig på grund av det inledande skedet av utvecklingen av datorteknik. Även med dagens standarder kräver ganska enkla nätverk mycket datorkraft.
Kopplingen mellan grundforskning och teknik presenteras ofta som en pipeline. Framsteg inom grundforskning ger upphov till framsteg inom tillämpad forskning, vilket i sin tur leder till nya kommersiella tillämpningar. Därför leder bristen på grundforskning till en minskning av teknikmarknaden om några år i framtiden. Denna synpunkt fördes fram av James Hendler 2008 [26] , som föreslog att expertsystemens misslyckande i slutet av 1980-talet inte orsakades av deras inneboende opålitlighet, utan av minskningen av finansieringen för grundforskning på 1970-talet. Expertsystem dök upp på 1980-talet tack vare tillämpad forskning, men i slutet av decenniet var pipelinen tom, så bristerna i expertsystemen kunde inte elimineras, så det var omöjligt att säkra ytterligare finansiering.
Kollapsen av LISP-maskinmarknaden och misslyckandet med femte generationens datorer är exempel på att dyra avancerade produkter förlorar mot enklare, billigare konkurrenter. Denna situation faller under definitionen av billig disruptiv innovation , eftersom LISP-maskintillverkare har åsidosatts. Expertsystem överlevde maskinbytet, de överfördes till nya stationära datorer till exempel med hjälp av CLIPS , vilket gör det tydligt att kollapsen av LISP-maskinmarknaden och kollapsen av expertsystemen är två olika händelser. Oförmågan att anpassa sig till en sådan förändring på datormarknaden anses vara en av anledningarna till vintern på 1980 -talet [26] .
Filosofer, kognitivister , datavetare spekulerar om var AI har misslyckats och vad som kommer att hända med det i framtiden. Hubert Dreyfus har betonat felaktigheten AI-forskningsantaganden tidigare och förutspådde korrekt redan 1966 att den första vågen av AI-forskning skulle misslyckas med att uppfylla de mycket offentliga löften den gav. Andra kritiker, som Noam Chomsky, har hävdat att AI rör sig i fel riktning, delvis på grund av dess stora beroende av statistiska metoder [41] . Chomskys kommentarer passar in i en större diskussion med Peter Norvig om statistiska metoders roll i AI. Tvisten mellan forskare började med kommentarer av Chomsky vid ett symposium vid Massachusetts Institute of Technology [42] , till vilka Norvig skrev ett svar [43] .