Eliezer Shlomo Yudkovsky je ameriški specialist za umetno inteligenco, ki preučuje težave tehnološke singularnosti in se zavzema za oblikovanje Friendly AI. Je avtor več zgodb o znanstveni fantastiki, v katerih ilustrira nekatere teme, povezane s kognitivno znanostjo in racionalnostjo.
![Image Image](https://images.culturehatti.com/img/kultura-i-obshestvo/75/eliezer-yudkovski-biografiya-tvorchestvo-karera-lichnaya-zhizn.jpg)
Eliezer Yudkowski: biografija
Eliezer Shlomo Yudkovsky je eden izmed najbolj aktivnih racionalistov sodobne Amerike, računalniški raziskovalec in popularizator ideje o "prijazni umetni inteligenci".
Rojen 11. septembra 1979. Soustanovitelj in raziskovalec nevladne raziskovalne organizacije Inštitut za raziskave strojne inteligence, ki izdaja svoje knjige. Eliezer Yudkovsky je avtor filozofskega romana Harry Potter in metode racionalizma, objavljenega v delih na internetu med letoma 2010 in 2015. V njem Harry odrašča v družini oksfordskega znanstvenika in se pred potovanjem v Hogwarts od njega nauči metod racionalnega razmišljanja.
Kolikor je znano, nima nobene povezave s krogom "špekulativnih realistov". Njegovo ime se pogosto omenja v povezavi z Robinom Hansonom, nekaj let (od leta 2006 do 2009) sta bila dva glavna avtorja bloga "Premagovanje predsodka", ki je obstajal na denarju Inštituta za prihodnost človeštva v Oxfordu.
Včasih je mogoče ime Yudkovsky slišati v povezavi z Raymondom Kurzweilom. Je filozofski predstavnik skupnosti tehnikov, nedostopnih in nerazumljivih, tako večini humanitarne javnosti, kamor sodijo skoraj vsi bralci špekulativnih realistov. To ne preseneča, saj se pogosto obrača na logični in matematični jezik, verjetnostne in statistične zaključke, izpostavljene s pomočjo formul in tabel.
Znanstveni interesi
Yudkovsky je soustanovitelj in raziskovalec Inštituta za singularnost za inštitut za umetno inteligenco (SIAI). Veliko je prispeval k razvoju zavoda. Je avtor knjige "Ustvarjanje prijaznega AI" (2001), člankov "Nivo organizacije v splošni inteligenci" (2002), "Koherentna ekstrapolirana volja" ("Koherentna ekstrapolirana volja", 2004) in Teorija brezčasne odločitve (2010). Njegove zadnje znanstvene publikacije so dva članka iz zbirke "Tveganja svetovne katastrofe" (2008), ki jo je uredil Nick Bostrom, in sicer "Umetna inteligenca kot pozitiven in negativni dejavnik globalnega tveganja" in "Kognitivno izkrivljanje pri ocenjevanju globalnih tveganj". Yudkovsky ni študiral na univerzah in je avto-didakt brez formalne izobrazbe na področju AI.
Yudkovsky raziskuje modele AI, ki so sposobni samorazumevanja, samo-spreminjanja in rekurzivnega samopopolnjevanja (Seed AI), pa tudi AI arhitekture, ki bodo imele stabilno in pozitivno motivacijsko strukturo (Friendly Artificial Intelligence). Poleg svojega raziskovalnega dela je Yudkovsky znan po svojih razlagah zapletenih modelov v neakademskem jeziku, dostopnih širokemu krogu bralcev, na primer glej njegov članek "Intuitivna razlaga Bayesove teoreme".
Yudkovsky je bil skupaj z Robinom Hansonom eden glavnih avtorjev bloga Premagovanje pristranskosti (premagovanje predsodkov). V začetku leta 2009 je sodeloval pri organizaciji bloga Less Wrong, katerega namen je bil "razvoj človeške racionalnosti in premagovanje kognitivnih popačenj." Po tem je Premagovanje pristranskosti postalo Hansonov osebni blog. Gradivo, predstavljeno na teh blogih, je bilo organizirano kot verige objav, ki so pritegnile na tisoče bralcev - glej na primer verigo teorije zabave.
Yudkovsky je avtor več zgodb o znanstveni fantastiki, v katerih ponazarja nekatere teme, povezane s kognitivno znanostjo in racionalnostjo.
Kariera
- 2000. Yudkovsky ustanovi Zavod za singularnost (pozneje se je preimenoval v MIRI).
- 2006. Yudkovsky se pridruži kolektivnemu blogu Overcoming Bias in začne pisati besedila, ki so kasneje postala Chains.
- 2009. Na podlagi prispevkov Yudkovskyja o premagovanju pristranskosti je ustvarjen znameniti kolektivni blog LessWrong.com.
- 2010-2015. Yudkovsky piše GPiMRM.
- 2013. Yudkovsky objavlja najnovejše objave na LessWrong.com in neha pisati na spletnem mestu. Yudkovsky od leta 2017 večino javno dostopnih besedil objavlja na Facebooku in Arbitalu
Miselni eksperiment
Predstavljajte si neverjetno pametno umetno nadčloveško inteligenco, ki je zaprta v virtualnem svetu - recimo, samo v klepetalnici. Ne veste, ali bo zloben, prijazen ali nevtralen. Vse, kar veste, je, da želi iti ven iz škatle in da lahko z njim komunicirate prek besedilnega vmesnika. Če je AI res superinteligenten, se z njim lahko pogovarjate pet ur in ne podlegate njegovemu prepričevanju in manipulaciji - da ne odprete snuffboxa?
Ta miselni eksperiment je predlagal Eliezer Yudkowsky, raziskovalec inženirskega inženirskega inštituta (MIRI). MIRI ima veliko znanstvenikov, ki raziskujejo tveganja za razvoj umetne superinteligence; čeprav se še ni pojavila, že pritegne pozornost in sproži razpravo.
Yudkovsky trdi, da lahko umetna superinteligenca pove vse, kar vas prepriča: skrbno sklepanje, grožnje, prevara, vzpostavljanje razmerja, podzavestni predlog in tako naprej. AI s hitrostjo svetlobe gradi zaplet, preizkuša slabosti in določi, kako vas je najlažje prepričati. Kot je dejal teoretik eksistencialne grožnje Nick Bostrom, "moramo verjeti, da lahko superinteligenca doseže vse, kar si zastavi kot cilj."
AI eksperiment snuffbox dvomi v našo sposobnost nadzora nad tem, kaj bi lahko ustvarili. Omogoča nam tudi razumevanje precej bizarnih možnosti tistega, česar o svoji resničnosti ne vemo.