Елиезер Юдковски: биография, творчество, кариера, личен живот

Съдържание:

Елиезер Юдковски: биография, творчество, кариера, личен живот
Елиезер Юдковски: биография, творчество, кариера, личен живот

Видео: Елиезер Юдковски: биография, творчество, кариера, личен живот

Видео: Елиезер Юдковски: биография, творчество, кариера, личен живот
Видео: Добродетели рационалиста. Элиезер Юдковски 2024, Ноември
Anonim

Eliezer Shlomo Yudkowski е американски специалист по изкуствен интелект, който изследва проблемите на технологичната сингулярност и се застъпва за създаването на Friendly AI. Автор е на няколко научнофантастични истории, в които илюстрира някои от темите, свързани с когнитивната наука и рационалността.

Елиезер Юдковски
Елиезер Юдковски

Елиезер Юдковски: биография

Елиезер Шломо Юдковски е един от най-активните рационалисти на съвременна Америка, компютърен изследовател и популяризатор на идеята за „приятелски изкуствен интелект“.

Роден на 11 септември 1979 г. Съосновател и изследовател в Института за изследване на машинния интелект, неправителствена изследователска организация, която публикува книгите му. Елиезер Юдковски е автор на философския роман „Хари Потър и методите на рационализма“, публикуван на части в интернет от 2010 до 2015 г. В него Хари израства в семейството на оксфордски учен и преди да пътува до Хогуортс, учи от него методите за рационалност.

Изображение
Изображение

Доколкото ни е известно, той няма връзка с кръга на „спекулативните реалисти“. Името му често се споменава във връзка с Робин Хансън, в продължение на няколко години (от 2006 до 2009 г.) те бяха двамата основни автори на блога „Преодоляване на предразсъдъците“, финансиран от Института за бъдещето на човечеството в Оксфорд.

Понякога името на Юдковски може да бъде чуто във връзка с Реймънд Курцвейл. Той е философски представител на общността на техно-маниаците, недостъпен и неразбираем, следователно, за по-голямата част от хуманитарната публика, към която принадлежат почти всички читатели на спекулативни реалисти. Не е изненадващо, защото той често се обръща към логико-математическия език, вероятностните и статистическите заключения, изложени с помощта на формули и таблици.

Научни интереси

Юдковски е съосновател и сътрудник в Института за изкуствен интелект Singularity (SIAI). Той направи голям принос за развитието на института. Автор е на книгата „Създаване на приятелски ИИ“(2001), статиите „Нива на организация в общото разузнаване“(2002), „Кохерентна екстраполирана воля“2004) и Теория на безвременното вземане на решения (2010). Последните му научни публикации са две статии в „Рисковете от глобална катастрофа“(2008), редактирани от Ник Бостром, а именно „Изкуственият интелект като положителен и отрицателен фактор на глобалния риск“и „Когнитивно пристрастие при оценката на глобалните рискове“. Юдковски не е учил в университети и е автодиктакт без формално образование в областта на ИИ.

Юдковски изследва онези AI конструкции, които са способни на саморазбиране, самомодификация и рекурсивно самоусъвършенстване (Seed AI), както и тези AI архитектури, които ще имат стабилна и положителна структура на мотивация (Friendly изкуствен интелект). В допълнение към изследователската си работа Юдковски е известен със своите обяснения на сложни модели на неакадемичен език, достъпен за широк кръг читатели, например, вижте статията му „Интуитивно обяснение на теоремата на Байес“.

Юдковски беше, заедно с Робин Хансън, един от основните автори на блога „Преодоляване на пристрастието“. В началото на 2009 г. той е съосновател на блога Less Wrong, който има за цел „да развие човешката рационалност и да преодолее когнитивните пристрастия“. След това Преодоляването на пристрастието се превърна в личен блог на Хансън. Материалите, представени в тези блогове, са организирани в пощенски вериги, които са привлекли хиляди читатели - вижте например нишката „теория на развлеченията“.

Юдковски е автор на няколко научнофантастични истории, в които илюстрира някои от темите, свързани с когнитивната наука и рационалността.

Изображение
Изображение

Кариера

  • 2000 г. Юдковски основава Института за сингулярност (по-късно преименуван на MIRI).
  • 2006. Юдковски се присъединява към колективния блог „Преодоляване на пристрастието“и започва да пише текстовете, които по-късно стават „Вериги“.
  • 2009. Въз основа на публикациите на Юдковски за Преодоляване на пристрастията се създава известният колективен блог LessWrong.com.
  • 2010-2015. Юдковски пише GPiMRM.
  • 2013. Юдковски публикува последните публикации в LessWrong.com и спира да пише в сайта. От 2017 г. Юдковски публикува повечето от публично достъпните текстове във Facebook и Arbital

Мисловен експеримент

Представете си невероятно интелигентен изкуствен свръхразузнаване, попаднал в капан във виртуален свят - да речем, само табакерка. Не знаете дали ще бъде злобен, приятелски настроен или неутрален. Всичко, което знаете, е, че той иска да излезе от табакерата и че можете да взаимодействате с него чрез текстов интерфейс. Ако AI е наистина суперинтелигентен, ще можете ли да говорите с него в продължение на пет часа и да не се поддавате на неговото убеждаване и манипулация - да не отваряте табакерата?

Този мисловен експеримент беше предложен от Елиезер Юдковски, научен сътрудник в Института за машиностроене (MIRI). Има много учени в MIRI, които разследват рисковете от развитието на изкуствен свръхразум; въпреки че дори още не се е появил, той вече привлича внимание и подклажда дебати.

Юдковски твърди, че изкуственият свръхразум може да каже каквото може, за да ви убеди: внимателни разсъждения, заплахи, измама, изграждане на отношения, подсъзнателно внушение и т.н. Със скоростта на светлината AI изгражда сюжетна линия, изследва слабостите и определя най-лесния начин да ви убеди. Както се изрази теоретикът на екзистенциалната заплаха Ник Бострьом, „трябва да приемем, че свръхразузнаването може да постигне каквото си замисли“.

Експериментът с AI за табакерки поражда съмнения относно способността ни да контролираме това, което бихме могли да създадем. Освен това ни кара да осмислим доста странните възможности на това, което не знаем за собствената ни реалност.

Изображение
Изображение

Статии на руски език

Е. Юдковски. Систематични грешки в разсъжденията, потенциално влияещи върху оценката на глобалните рискове. Е. Юдковски. Изкуственият интелект като положителен и отрицателен фактор за глобалния риск. Е. Юдковски. Надниквайки в Сингулярността. Е. Юдковски. Приятелска таблица с критични грешки на AI. Е. Юдковски. Три школи на сингулярност. Е. Юдковски. Организационни нива на универсален интелект.

Препоръчано: