Judkovskij, Eliezer

Eliezer Judkovsky
engelsk  Eliezer Yudkowsky

Eliezer Yudkowsky vid Stanford Singularity Summit 2006.
Namn vid födseln engelsk  Eliezer Shlomo Yudkowsky
Födelsedatum 11 september 1979( 1979-09-11 ) [1] (43 år)
Födelseort
Land
Vetenskaplig sfär Artificiell intelligens
Arbetsplats Machine Intelligence Research Institute
Känd som Författare till Harry Potter and the Methods of Rationality
Hemsida yudkowsky.net
 Mediafiler på Wikimedia Commons

Eliezer Shlomo Yudkowsky ( engelsk  Eliezer S. Yudkowsky , 11 september 1979) är en amerikansk specialist på artificiell intelligens som studerar problemen med teknisk singularitet och förespråkar skapandet av vänlig AI [2] [3] . En nyckelperson i den rationalistiska gemenskapen .

Biografi

Eliezer Yudkowsky föddes den 11 september 1979 i en ortodox judisk familj [4] .

Vetenskapliga intressen

Yudkowsky är medgrundare och fellow vid Singularity Institute for Artificial Intelligence (SIAI) [5] . Han är författare till boken "Creating Friendly AI" [6] , artiklarna "Levels of Organization of Universal Intelligence" [7] , "Coherent Extrapolated Will" [8] och "Timeless Decision Theory" [9] [10] . Hans senaste vetenskapliga publikationer är två artiklar i samlingen "Risks of Global Catastrophe" (2008) redigerad av Nick Bostrom , nämligen "Artificial Intelligence as a positive and negative factor in global risk" och "Cognitive biases in the assessment of global risks" [ 11] [12] [13] . Yudkovsky studerade inte vid universitet och är autodidakt utan formell utbildning inom området AI [14] .

Yudkowsky utforskar de AI-konstruktioner som är kapabla till självförståelse, självmodifiering och rekursiv självförbättring ( Seed AI ), såväl som de AI-arkitekturer som kommer att ha en stabil och positiv motivationsstruktur ( Friendly Artificial Intelligence ). Förutom forskningsarbete är Yudkowsky känd för sina förklaringar av komplexa modeller i icke-akademiskt språk som är tillgängliga för ett brett spektrum av läsare, se till exempel hans artikel "Intuitiv förklaring av Bayes' sats" [15] [16] .

Yudkowsky var, tillsammans med Robin Hanson , en av huvudförfattarna till bloggen Overcoming Bias (att övervinna fördomar). I början av 2009 var han med och grundade bloggen LessWrong , som syftar till att "utveckla mänsklig rationalitet och övervinna kognitiva fördomar." Efter det blev Overcoming Bias Hansons personliga blogg. Materialet som presenterades på dessa bloggar var organiserat i trådar av inlägg som kunde locka tusentals läsare - se till exempel tråden "underhållningsteori" [17] .

Yudkowsky är författare till flera science fiction-berättelser där han illustrerar några av teman relaterade till kognitiv vetenskap och rationalitet. I icke-akademiska kretsar är han mer känd som författaren till fanfiktionen Harry Potter and the Methods of Rationality i regi av Less Wrong [18] .

Kompositioner

Artiklar på ryska

Anteckningar

  1. http://www.nndb.com/lists/517/000063328/
  2. Russell, Stuart. Artificiell intelligens: A Modern Approach / Stuart Russell, Peter Norvig . - Prentice Hall, 2009. - ISBN 978-0-13-604259-4 .
  3. Leighton, Jonathan. The Battle for Compassion: Ethics in an Apathetic Universe. - Algora, 2011. - ISBN 978-0-87586-870-7 .
  4. Undvika din tros verkliga svaga punkter . Mindre fel . Tillträdesdatum: 31 maj 2021.
  5. Ray Kurzweil . Singulariteten är nära  (neopr.) . - New York, USA: Viking Penguin , 2005. - S. 599. - ISBN 0-670-03384-7 .
  6. Skapa vänlig AI , 2001
  7. Nivåer av organisation inom allmän intelligens , 2002
  8. Coherent Extrapolated Volition , 2004
  9. Timeless Decision Theory , 2010
  10. Eliezer Yudkowsky-profil (nedlänk) . Accelererande framtid. Hämtad 15 november 2010. Arkiverad från originalet 4 december 2010. 
  11. Artificiell intelligens som en positiv och negativ faktor i global risk (länk ej tillgänglig) . Singularity Institute for Artificiell Intelligens. Hämtad 28 juli 2009. Arkiverad från originalet 2 mars 2013. 
  12. Kognitiva fördomar som potentiellt påverkar bedömningen av globala risker (länk ej tillgänglig) . Singularity Institute for Artificiell Intelligens. Hämtad 29 oktober 2018. Arkiverad från originalet 7 maj 2015. 
  13. Globala katastrofala risker  / Bostrom, Nick . - Oxford, Storbritannien: Oxford University Press , 2008. - P.  91-119 , 308-345. — ISBN 978-0-19-857050-9 .
  14. GDay World #238: Eliezer Yudkowsky . Podcastnätverket. Datum för åtkomst: 26 juli 2009. Arkiverad från originalet 17 juli 2007.
  15. "En intuitiv förklaring av Bayes sats"
  16. översättning
  17. Sekvenser - Lesswrongwiki
  18. Yudkowsky - Skönlitteratur

Länkar