Machine Intelligence Research Institute | |
---|---|
Administrativt centrum |
|
Organisations typ | icke vinstdrivande organisation |
Bas | |
Stiftelsedatum | 2000 |
Hemsida | intelligence.org _ |
Machine Intelligence Research Institute (MIRI; tidigare Singularity Institute och Singularity Institute for Artificial Intelligence ) är en ideell organisation vars huvudmål är att skapa säker artificiell intelligens , samt att studera de potentiella faror och möjligheter som kan uppstå när man skapar AI. Organisationen stöder de idéer som ursprungligen lades fram av Irving Goode och Vernor Vinge angående den "intellektuella explosionen" eller singulariteten , och idéerna från Eliezer Yudkowskyom att skapa vänlig AI. Yudkowsky forskar vid Singularity Institute i USA om problemen med global risk som en framtida övermänsklig AI kan skapa om den inte är programmerad att vara människovänlig [ 1] .
Från 2007 till 2010 var uppfinnaren och futuristen Ray Kurzweil en av organisationens direktörer . Organisationens rådgivande personal inkluderar Oxford-filosofen Nick Bostrom , gerontologen Aubrey de Gray , PayPals medgrundare Peter Thiel och Foresight Nanotech Institute grundare Christina Paterson.
Organisationen har kontor i USA och Kanada.
Det första projektet av SIAI (Singularity Institute for Artificial Intelligence) var det "annotativa programmeringsspråket" (annotativt programmeringsspråk) Flare [2] , vars utveckling började i juli 2001. Språket designades för att skapa fröet till AI med det. Projektet avslutades på mindre än ett år.
2002 publicerade SIAI-webbplatsen ett förtryck av kapitlet "Levels of Organization of General Intelligence" [3] från boken Real AI: New Approaches to Artificial General Intelligence (redigerad av Ben Herzel och Cassio Pennachin). Senare samma år publicerade SIAI två stora introduktionskapitel, "What is the Singularity" [4] och "Why Work on the Singularity Approximation" [5] .
2003 gjorde representanten för organisationen Michael Anissimov en presentation vid den internationella konferensen Transvision 2003, som hölls vid Yale University .
2004 skapade SIAI AsimovLaws.com [6] för att diskutera AI-etiken i samband med de frågor som tas upp i filmen I, Robot , som släpptes bara två dagar senare. Tidigt nästa år flyttar institutets huvudkontor från Atlanta till Silicon Valley .
I februari 2006 bildar institutet en fond på 200 tusen dollar [7] . Huvuddelen av fonden ($100 000) kom från Paypals medgrundare Peter Thiel. I maj 2006, vid Stanford Singularity Summit, fattades ett beslut om att utöka institutets personal.
Institutet, tillsammans med KurzweilAI.net och Center for Language and Information Studies, sponsrar Stanford Singularity Summit. Direktören för institutet, Peter Thiel, fungerar som moderator för toppmötet [8] . Toppmötet samlade cirka 1 300 specialister. Summitdeltagare inkluderade Ray Kurzweil , Nick Bostrom , Corey Doctorow , Eric Drexler , Douglas Hofstadter , Steve BillMax , Sebastian Thrun och Eliezer Yudkowsky
2007 hölls ett liknande toppmöte på Palace of the Arts Theatre i San Francisco. Det tredje Singularity Summit ägde rum den 5 oktober 2008 i San Jose.
Institutet finansierar projektet Open Cognition Framework ( OpenCog ), som syftar till att ge "programvaruforskare och -utvecklare en gemensam plattform för att bygga AI-program."
2013 bytte organisationen namn till Machine Intelligence Research Institute [9] .
Machine Intelligence Research Institute studerar strategiska frågor relaterade till AI, såsom: Vad kan (och kan inte) vi förutsäga om framtiden för AI-teknik? Hur kan vi förbättra vår prognostiseringsförmåga? Vilka insatser som finns tillgängliga idag verkar vara de mest användbara, med tanke på det lilla vi vet? [tio]
Sedan 2014 har MIRI finansierat prognosarbete genom det oberoende projektet AI Impacts. AI Impacts studerar historiska exempel på diskontinuerlig teknisk förändring och har utvecklat nya mått på den relativa processorkraften hos människor och datorhårdvara. [11] [12]
MIRI-forskarnas intresse för diskontinuerlig AI härrör från I.J. Goods argument att tillräckligt avancerade AI-system så småningom kommer att överträffa människor i mjukvaruutvecklingsuppgifter, vilket leder till en återkopplingsslinga av alltmer kapabla AI-system:
Låt en ultraintelligent maskin definieras som en maskin som vida kan överträffa alla intellektuella aktiviteter hos någon människa, så långt det är möjligt. Eftersom maskindesign är en av dessa intelligenta uppgifter, skulle en ultraintelligent maskin kunna designa ännu bättre maskiner; Då skulle det utan tvekan ha skett en " intelligensexplosion " (ursprung: "intelligensexplosion"), och det mänskliga sinnet skulle ha lämnats långt bakom. Således är den första ultraintelligenta maskinen den sista uppfinningen som människan någonsin skulle göra, förutsatt att maskinen är tillräckligt lydig för att tala om för oss hur vi ska hålla den under kontroll. [13]
Författare som Bostrom använder termen superintelligens istället för Goodes ultraintellektuella. Efter Vernor Vinge blev Goodes idé om en intelligensexplosion kopplad till idén om en "teknologisk singularitet". Bostrom och forskare vid MIRI har uttryckt skepsis mot synpunkterna från singularitetsförespråkare som Ray Kurzweil , att superintelligens är "runt hörnet". MIRI-forskare förespråkar tidigt säkerhetsarbete som en försiktighetsåtgärd, och hävdar att tidigare förutsägelser om AI-framsteg inte har varit tillförlitliga. [fjorton]
Forskningsprioriteringsdokumentet Future of Life Institute (FLI) säger:
Matematiska verktyg som formell logik, sannolikhet och beslutsteori har gett betydande insikter i grunderna för resonemang och beslutsfattande. Men det finns fortfarande många öppna problem i hjärtat av resonemang och beslut. Lösningar på dessa problem kan göra beteendet hos mycket kapabla system mycket mer tillförlitligt och förutsägbart. Exempel på forskning inom detta område inkluderar resonemang och beslut, inom begränsade beräkningsresurser à la Horvitz och Russell, hur man redogör för korrelationer mellan beteendet hos AI-system och beteendet i deras omgivning, agenter som agenter inbyggda i sin miljö, eller annan deterministisk beräkningar. Dessa ämnen kan dra nytta av att övervägas tillsammans eftersom de verkar vara djupt relaterade.
Standardbeslutsprocedurerna är inte väldefinierade (till exempel med avseende på kontrafakta) för att formaliseras som algoritmer. Machine Intelligence Research Institute-forskaren Benja Pallenstein och dåvarande forskaren Nate Soares skriver att kausal beslutsteori är "reflekterande instabil" i den meningen att en rationell agent som följer kausal beslutsteori "korrekt identifierar att agenten måste ändra sig själv för att sluta använda orsaksteorin och verkställa beslut för beslutsfattande.” Forskare identifierar "logiska beslutsteorier" som alternativ som presterar bättre på allmänna beslutsuppgifter.
Om ett AI-system väljer de åtgärder som bäst gör det möjligt för det att slutföra en uppgift, så är det ett naturligt delmål att undvika förhållanden som hindrar systemet från att fortsätta att slutföra uppgiften (och omvänt är det ibland en användbar heuristik att hitta ovillkorliga situationer). Detta kan dock bli problematiskt om vi vill omfördela systemet, avaktivera det eller väsentligt förändra beslutsprocessen; Ett sådant system skulle rationellt undvika dessa förändringar. System som inte uppvisar detta beteende kallas korrigerande system, och teoretiskt och praktiskt arbete inom detta område verkar vara acceptabelt och användbart.
Machine Intelligence Research Institutes prioriteringar inom dessa områden sammanfattas i 2015 års tekniska program .
![]() |
---|
transhumanism | ||
---|---|---|
Grunderna | ||
strömmar | ||
Organisationer | ||
människor |