Iudkovski, Eliezer

Eliezer Iudkovski
Engleză  Eliezer Yudkowsky

Eliezer Yudkowsky la Stanford Singularity Summit în 2006.
Numele la naștere Engleză  Eliezer Shlomo Yudkowsky
Data nașterii 11 septembrie 1979( 11.09.1979 ) [1] (43 de ani)
Locul nașterii
Țară
Sfera științifică Inteligenţă artificială
Loc de munca Institutul de Cercetare a Inteligenței Mașinilor
Cunoscut ca Autorul cărții Harry Potter și metodele raționalității
Site-ul web yudkowsky.net
 Fișiere media la Wikimedia Commons

Eliezer Shlomo Yudkowsky ( engleză  Eliezer S. Yudkowsky , 11 septembrie 1979) este un specialist american în inteligență artificială care studiază problemele singularității tehnologice și pledează pentru crearea unei IA prietenoase [2] [3] . O figură cheie în comunitatea raționalistă .

Biografie

Eliezer Yudkowsky s-a născut pe 11 septembrie 1979 într-o familie de evrei ortodocși [4] .

Interese științifice

Yudkowsky este co-fondator și coleg la Institutul Singularity pentru Inteligență Artificială (SIAI) [5] . Este autorul cărții „Creating Friendly AI” [6] , al articolelor „Levels of Organisation of Universal Intelligence” [7] , „Coherent Extrapolated Will” [8] și „Timeless Decision Theory” [9] [10] . Cele mai recente publicații științifice ale sale sunt două articole din colecția „Riscurile de catastrofă globală” (2008) editată de Nick Bostrom , și anume „Inteligenta artificială ca factor pozitiv și negativ în riscul global” și „Prejudecățile cognitive în evaluarea riscurilor globale” [ 11] [12] [13] . Iudkovski nu a studiat la universități și este un autodidact fără o educație formală în domeniul AI [14] .

Yudkowsky explorează acele constructe AI care sunt capabile de auto-înțelegere, auto-modificare și auto-îmbunătățire recursivă ( Seed AI ), precum și acele arhitecturi AI care vor avea o structură de motivație stabilă și pozitivă ( Friendly Artificial Intelligence ). Pe lângă munca de cercetare, Yudkowsky este cunoscut pentru explicațiile sale ale modelelor complexe într-un limbaj non-academic accesibil unei game largi de cititori, de exemplu, vezi articolul său „Explicarea intuitivă a teoremei lui Bayes” [15] [16] .

Yudkowsky a fost, alături de Robin Hanson , unul dintre principalii autori ai blogului Overcoming Bias (depășirea prejudecăților). La începutul lui 2009, el a co-fondat blogul LessWrong , care avea ca scop „dezvoltarea raționalității umane și depășirea prejudecăților cognitive”. După aceea, Overcoming Bias a devenit blogul personal al lui Hanson. Materialul prezentat pe aceste bloguri a fost organizat în fire de postări care au reușit să atragă mii de cititori – vezi, de exemplu, firul „teoria divertismentului” [17] .

Yudkowsky este autorul mai multor povestiri science fiction în care ilustrează unele dintre temele legate de știința cognitivă și raționalitate. În cercurile non-academice, el este mai bine cunoscut ca autor al fanfiction -ului Harry Potter și Metodele Raționalității sub auspiciile Less Wrong [18] .

Compoziții

Articole în limba rusă

Note

  1. http://www.nndb.com/lists/517/000063328/
  2. Russell, Stuart. Inteligența artificială: o abordare modernă / Stuart Russell, Peter Norvig . - Prentice Hall, 2009. - ISBN 978-0-13-604259-4 .
  3. Leighton, Jonathan. Bătălia pentru compasiune: etica într-un univers apatic. - Algora, 2011. - ISBN 978-0-87586-870-7 .
  4. Evitarea punctelor slabe reale ale credinței tale . Mai puțin greșit . Data accesului: 31 mai 2021.
  5. Ray Kurzweil . Singularitatea este aproape  (neopr.) . - New York, SUA: Viking Penguin , 2005. - P. 599. - ISBN 0-670-03384-7 .
  6. Creating Friendly AI , 2001
  7. Levels of Organisation in General Intelligence , 2002
  8. Coherent Extrapolated Volition , 2004
  9. Timeless Decision Theory , 2010
  10. Profil Eliezer Yudkowsky (link în jos) . Accelerarea viitorului. Consultat la 15 noiembrie 2010. Arhivat din original pe 4 decembrie 2010. 
  11. Inteligența artificială ca factor pozitiv și negativ în riscul global (link nu este disponibil) . Institutul Singularity pentru Inteligență Artificială. Consultat la 28 iulie 2009. Arhivat din original la 2 martie 2013. 
  12. Prejudecăți cognitive care pot afecta evaluarea riscurilor globale (link nu este disponibil) . Institutul Singularity pentru Inteligență Artificială. Consultat la 29 octombrie 2018. Arhivat din original la 7 mai 2015. 
  13. Global Catastrophic Risks  / Bostrom, Nick . - Oxford, Marea Britanie: Oxford University Press , 2008. - P.  91-119 , 308-345. — ISBN 978-0-19-857050-9 .
  14. Lumea GDay #238: Eliezer Yudkowsky . Rețeaua de podcast. Data accesului: 26 iulie 2009. Arhivat din original la 17 iulie 2007.
  15. „O explicație intuitivă a teoremei lui Bayes”
  16. traducere
  17. Secvențe - Lesswrongwiki
  18. Yudkowsky - Ficțiune

Link -uri