Какой Писатель Фантаст Придумал Три Закона Робототехники



какой писатель фантаст придумал три закона робототехники

Игра Выбирайка в Одноклассниках - ответы ко всем заданиям

Выбирайка - ответы на эпизод 40 Викинги (уровни 1171-1200)

Выбирайка: Уровень 1171

Вопрос: Кого Глеб Жеглов заставил открывать дверь со словами: У нищих слуг нет ?

Ответ: Костя Кирпич (Станислав Садальский).

Выбирайка: Уровень 1177

Вопрос: Что будет делать с вами обманщик пока вы не поумнеете?

Выбирайка: Уровень 1178

Выбирайка: Уровень 1181

Вопрос: Где изображён флаг Китая?

Выбирайка: Уровень 1182

Вопрос: Какая актриса снялась в главных ролях в фильмах Фанфан-Тюльпан и Собор Парижской Богоматери ?

Выбирайка: Уровень 1188

Выбирайка: Уровень 1189

Выбирайка: Уровень 1194

Выбирайка: Уровень 1195

Три закона робототехники

07.11.2009, 15:42

    Три закона робототехники — обязательные правила поведения для роботов, фигурирующие в серии фантастических произведений Айзека Азимова.

1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.

2. Робот должен повиноваться командам человека, если эти команды не противоречат Первому Закону.

3. Робот должен заботиться о своей безопасности, пока это не противоречит Первому и Второму Законам.

Известные произведения

  • Серия романов «Foundation» («Основание», также название серии и в названиях романов это слово переводилось как «Фонд», «Фундамент» и «Академия») о крушении галактической империи и рождении нового общественного строя
  • Сборник рассказов «I, robot» («Я — робот»), в котором Азимов разработал этический кодекс для роботов.
  • Роман «Сами боги», центральная тема которого — рационализм без нравственности ведёт ко злу.
  • Также Азимов написал очень большое количество научно-популярных и научно-популяризаторских произведений.

    Айзек Азимов (другой вариант написания имени — Исаак Озимов англ. Isaac Asimov 2 января 1920 — 6 апреля 1992) — американский писатель-фантаст, популяризатор науки, по профессии биохимик. Автор около 500 книг, в основном художественных (прежде всего в жанре научной фантастики, но также и в других жанрах: фэнтези, детектив, юмор) и научно-популярных (в самых разных областях — от астрономии до истории и литературоведения). Многократный лауреат премий «Хьюго» и «Небьюла». Некоторые термины из его произведений — robotics (робототехника, роботика), positronic (позитронный), psychohistory (наука о поведении больших групп людей) — прочно вошли в английский и другие языки. В США и других западных странах многие считают Азимова одним из трёх величайших фантастов XX века (два других — Артур Кларк и Роберт Хайнлайн).

    Биография

    Азимов родился (по документам) 2 января 1920 года в Петровичах, Горецкого уезда Могилёвской губернии, в России (в действительности он мог родиться и несколько раньше, вплоть до 19 октября 1919 года). Его родители, Анна Рахиль Берман-Азимова (Anna Rachel Berman Asimov) (1895—1973) и Иегуда Азимов (Judah Asimov) (1896—1969), были евреями по национальности и мельниками по профессии. Назвали его в честь покойного деда по матери, Исаака Бермана.

    У Азимова была младшая сестра Марция (Marcia, род. 1922 до переезда в США её звали Маня) и младший брат Стэнли (Stanley, 1929—1995). Впоследствии Марция вышла замуж (1955) и родила двоих сыновей. Стэнли стал журналистом и сделал успешную карьеру в ежедневной газете Newsday. Его должность называлась vice president in charge of editorial administration. Умер Стэнли от лейкемии 16 августа 1995 года. У Стэнли было трое детей: Эрик (Eric) и Нэнит (Nanette), оба журналисты, и Дэниел (Daniel), математик. Дэниела Азимова можно найти в Сети, но он не любит, когда к нему пристают с вопросами о его знаменитом дяде.

    В 1923 родители увезли его в США, где поселились в Бруклине и через несколько лет открыли кондитерский магазин. Поскольку Азимов уехал из России в трёхлетнем возрасте, а родители, будучи в США, старались говорить с ним только по-английски, он почти не знал русского языка.

    В 5 лет Айзек Азимов пошёл в школу. (Ему полагалось пойти в школу 6 лет, но мать исправила его день рождения на 7 сентября 1919 года, чтобы отдать его в школу на год раньше.) После окончания десятого класса в 1935 году, 15-летний Азимов поступил в Seth Low Junior College, но через год этот колледж закрылся. Азимов поступил на химический факультет Колумбийского университета в Нью-Йорке, где получил в 1939 году степень бакалавра (B. S.), а в 1941 году — магистра (M. Sc.) по химии и поступил в аспирантуру. Однако в 1942 году он уехал в Филадельфию, чтобы работать химиком на Филадельфийской судоверфи для армии. Вместе с ним там же работал и другой писатель-фантаст Роберт Хайнлайн.

    В феврале 1942 года, в Валентинов день, Азимов встретился на «слепом свидании» с Гертрудой Блюгерман (Gerthrude Blugerman). 26 июля они поженились. От этого брака родился сын Дэвид (David) (1951) и дочь Робин Джоан (Robyn Joan) (1955).

    С октября 1945 года по июль 1946 Азимов служил в армии. Затем вернулся в Нью-Йорк и продолжил образование. В 1948 году закончил аспирантуру, получил степень Ph. D. соответствующую кандидату наук, и поступил в постдокторат как биохимик. В 1949 году он устроился преподавателем на медицинский факультет Бостонского Университета, где в декабре 1951 года стал ассистентом (assistant professor), а в 1955 году — ассоциированным профессором (associated professor). В 1958 году университет перестал ему платить зарплату, но формально оставил в прежней должности. К этому моменту доходы Азимова как писателя уже превышали его университетскую зарплату. В 1979 году ему было присвоено звание полного профессора (full professor).

    В 1970 году Азимов расстался с женой и почти немедленно стал жить с Джанет Опал Джеппсон (Janet Opal Jeppson), с которой познакомился на банкете 1 мая 1959 года. (До этого они встречались в 1956 году, когда он подписал ей автограф. Азимов вообще не запомнил ту встречу, а Джеппсон сочла его неприятным человеком.) Развод вступил в силу 16 ноября 1973 года, а 30 ноября Азимов и Джеппсон поженились. От этого брака не было детей.

    Умер 6 мая 1992 года от СПИДа, которым заразился при операции на сердце в 1983. О том, что причиной смерти был СПИД, стало известно лишь через 10 лет из биографии, написаной Джанет Опал Джеппсон.

    Литературная деятельность

    Писать Азимов начал в 11 лет. Он начал писать книгу о приключениях мальчиков, живущих в маленьком городке. Он написал 8 глав, после чего забросил книгу. Но при этом произошёл интересный случай. Написав 2 главы, Айзек пересказал их своему другу. Тот потребовал продолжение. Когда Айзек объяснил, что это пока всё, что он написал, его друг попросил дать почитать книгу, где Айзек прочёл эту историю. С того момента Айзек понял, что он обладает писательским даром, и стал серьёзно относиться к своей литературной деятельности.

    Азимов впервые опубликовал рассказ в 1939 году. Это был рассказ «В плену у Весты» (Marooned Off Vesta), принятый к публикации в октябре 1938 года журналом Amazing Stories и опубликованный 10 января 1939.

    В 1941 был опубликован рассказ «Приход ночи» (Nightfall) o планете, вращающейся в системе шести звёзд, где ночь наступает раз в 2049 лет. Рассказ получил огромную известность (согласно Bewildering Stories, он был одним из самым известным из когда-либо публиковавшихся рассказов).

    В 1968 году Ассоциация Американских Фантастов (Science Fiction Writers of America) объявила «Приход ночи» лучшим из когда-либо написанных фантастических рассказов. Рассказ более 20 раз попадал в антологии, дважды был экранизирован (неудачно) и сам Азимов впоследствии назвал его «водоразделом в моей профессиональной карьере». Малоизвестный до тех пор фантаст, опубликовавший около 10 рассказов (и ещё примерно столько же были отвергнуты), стал знаменитым писателем. Интересно, что сам Азимов не считал «Приход ночи» своим любимым рассказом.

    10 мая 1939 года Азимов начал писать первую из своих историй о роботах, рассказ «Робби» (Robbie). В 1941 году Азимов написал рассказ «Лжец» (Liar!) о роботе, умевшем читать мысли. В этом рассказе впервые появляются знаменитые три закона робототехники. Азимов приписовал эти законы Джону У. Кемпбеллу (John W. Campbell), сформулировавшему их в беседе с Азимовым 23 декабря 1940 года. Но Кемпбелл говорил, что идея принадлежала Азимову, он только дал ей формулировку. В этом же рассказе Азимов придумал слово «robotics» (роботика, наука о роботах), вошедшее в английский язык. В переводах Азимова на русский robotics обычно переводят несуществующим словом «роботехника». До Азимова, в большинстве историй о роботах они бунтовали или убивали своих создателей. С начала 1940-х годов, роботы в фантастике подчиняются трём законам роботехники, хотя по традиции ни один фантаст, кроме Азимова, не цитирует эти законы явно.

    В 1942 году Азимов начал серию «Основание». Изначально «Основание» и рассказы о роботах относились к разным мирам, и лишь в 1980 году Азимов решил их объединить.

    С 1958 года Азимов стал писать гораздо меньше фантастики и гораздо больше научно-популярной литературы. Большинство написанных Азимовым книг являются научно-популярными, причём в самых разных областях. С 1980 он возобновил написание научной фантастики продолжением серии «Основание».

    Тремя любимыми рассказами Азимова были «Последний вопрос» (The Last Question), «Двухсотлетний человек» (The Bicentennial Man) и «Уродливый мальчуган» (The Ugly Little Boy), в этом порядке. Любимым романом были «Сами боги».

    Смогут ли «три закона робототехники» защитить нас?

    Интересует все, что связано с высокими технологиями.

    Прошло 50 лет с тех пор, как Айзек Азимов придумал свои знаменитые три закона робототехники — набор правил, которым должен следовать любой уважающий себя робот. Хотя изначально это был всего-лишь литературный прием, три закона стали оригинальным рецептом по избежанию #171 роботокалипсиса#187 . К счастью, есть эксперты, которые изучают наверняка, выдержали ли гарантии Азимова проверку временем. К несчастью, все они говорят: нет.

    Для начала напомним эти самые три закона:

    1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
    2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
    3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому и Второму Законам.

    Позднее Азимов добавил четвертый, или нулевой, закон, который предшествовал остальным с точки зрения приоритета:

    0. Робот не может причинить вреда человеку, если только он не докажет, что в конечном счёте это будет полезно для всего человечества.

    В фантастической вселенной Азимова этим законам должны были следовать почти все роботы. Это были не просто предложения или руководящие принципы — законы были встроены в программное обеспечение. Кроме того, эти правила нельзя обойти, переписать или пересмотреть.

    Как показал сам Азимов, несовершенство, лазейки и неясности в этих законах зачастую приводили к странному и нелогичному поведению роботов. Законы были слишком расплывчатыми и зачастую не могли определить и отличить «людей» от «роботов». Кроме того, роботы могли неосознанно нарушать законы, если полная информация была им недоступна. Также чересчур хитроумный робот или искусственный интеллект должен был находиться под давлением, чтобы не перепрограммировать свое ядро.

    На дворе год, и многое обыденное из нашей жизни фантастам прошлого века могло показаться откровенной фантастикой. Многие люди посчитали, что законы Азимова должны были остаться в качестве литературного приема. Но сам Азимов в 1981 году отметил, что его законы могли бы работать. В статье журнала Compute! он указал следующее:

    «Когда кто-то спрашивает меня, что было бы, если бы три моих закона робототехники на самом деле использовались для определения поведения роботов, ответ уже готов. Разумеется, при условии, что роботы будут достаточно гибкими и универсальными, чтобы обладать разным поведением. Я отвечаю: да, три закона — это единственный вариант, по которому люди могут взаимодействовать с роботами — или с чем-нибудь еще.

    Спустя почти тридцать лет мы приблизились к реальности, в которой у нас будут роботы — или, если точнее, искусственный интеллект, который ими управляет — достаточно гибкие и универсальные для разных курсов поведения. Остается лишь вопрос времени: когда машина превзойдет человека во всех отношениях, начиная физической силой и заканчивая силой воображения.

    Пугает то, что права на ошибку практически нет. Если искусственный сверхинтеллект будет плохо запрограммирован или безразличен к людям, это приведет к катастрофе. Мы должны убедиться в безопасности искусственного интеллекта, если хотим пережить его появление».

    Ответить на вопрос «могут ли три закона Азимова помочь?» взялись два теоретика искусственного интеллекта: Бен Герцель (Aidyia Holdings) и Луи Хельм, замдиректора Института исследований машинного интеллекта (MIRI), а также исполнительный редактор журнала Rockstar Research. После разговора с ними стало ясно, что законы Азимова вообще никак не могут справиться с возложенной на них задачей, и если нам нужно создать безопасный ИИ, придется разрабатывать нечто совершенно иное.

    Азимовское будущее?

    Беседа с Герцелем и Хельмом началась с того, в чем Азимов не ошибся, предрекая будущее, а в чем ошибся.

    «Думаю, что тип роботов, которых предвидел Азимов, станет возможным в недалеком будущем, — отвечает Герцель. — Тем не менее, в большинстве своих вымышленных миров, писатель предполагал, что человекоподобные роботы будут вершиной робототехники и инженерии искусственного интеллекта. Это вряд ли. Очень скоро, после достижения статуса азимовских роботов, станет доступным и создание искусственного сверхинтеллекта и сверхроботов».

    Таким образом, типичный мир будущего в рассказах про роботов у Азимова, по мнению Герцеля, будет похож на тот, в котором мы живем сегодня, но с разумными роботами, гуляющими по улицам.

    «Вряд ли это произойдет, а если и произойдет, то задержится ненадолго».

    Для Хельма роботы представляются совершенно другими.

    «Основным вопросом, который, на мой взгляд, будет самым важным для человечества, остается не моральное регулирование гигантского количества наполовину разумных гуманоидов, а в конечном итоге развитие передовых форм искусственного интеллекта (в любом теле). Это развитие сверхинтеллекта — фильтр, через который должно пройти человечество в конце концов. Именно поэтому разработка стратегии безопасности для этого перехода столь важна. Мне видится совершенно странным то, что роботы, андроиды или «эмуляции» будут существовать десять лет или чуть более до тех пор, пока человечество столкнется с настоящей проблемой разработки машинной этики для сверхинтеллекта».

    Хорошее начало?

    Если принять во внимание, что три азимовских закона робототехники были первой искренней попыткой решить очень серьезную проблему — проблему безопасного поведения машин с искусственным сверхинтеллектом — стоит поискать и те моменты, в которых законы могут быть все еще эффективными (или хотя бы вдохновляющими).

    «Честно говоря, я не нахожу никакого вдохновения в этих трех законах робототехники, — говорит Хельм. — Суть машинной этики в том, что они не удовлетворяют базису машинной этики. Возможно, три закона робототехники широко известны, но на самом деле использовать их в качестве основы для программирования бесполезно».

    «По некоторым причинам система добропорядочной этики — так называемая деонтология — стала ненадежной основой для этики. Есть ряд философов, которые пытаются исправить проблемы деонтологии, но они по большей части остаются теми же людьми, что ищут «разумный замысел» и «божественное вмешательство». Никто не воспринимает их всерьез».

    Недостатки трех законов робототехники Азимова сводятся к следующим:

    1. Состязательны по своей сути
    2. Основаны на изжившей себя этической теории (деонтологии)
    3. Не работают даже в фантастике

    Герцель соглашается:

    «Задачей трех законов было нарушить их интересным способом вот почему рассказы с их участием особенно занимательны. Поэтому три закона могут остаться лишь нравоучительным примером того, как делать не надо. Если взять их за основу, в них неизбежно найдутся лазейки».

    Герцель считает, что в реальности эти законы работать не будут, поскольку термины с их участием неоднозначны и остаются предметом толкования — а значит, крайне зависимы от тех, кто делает переводы.

    Предубеждение против роботов?

    Другой аспект (и потенциальный недостаток) трех законов в очевидном шовинизме —предположение о том, что роботы должны оставаться, несмотря на их превосходящую мощь, в подчинении у человека, человеческих потребностей и приоритетов.

    «Общество будущего у Азимова состоит сплошь из шовинистов: у людей прав гораздо больше, чем у роботов. Три закона робототехники были созданы, чтобы поддерживать именно такой общественный порядок».

    Хельм смотрит на эту проблему немного по-другому, утверждая, что если мы окажемся в такой ситуации #8212 это само по себе будет свидетельством того, что мы зашли слишком далеко.

    «Я думаю, было бы неразумно проектировать систему искусственного интеллекта или робота с самосознанием. И в отличие от фильмов или книг, в которых создатели искусственного интеллекта «случайно» приходят к разумным машинам, я не верю, что в реальном жизни это может случиться. Для этого понадобится слишком много усилий и знаний. И большинство разработчиков ИИ — этически подкованные люди, поэтому они будут избегать создания того, что философы называют «морально значимыми существами». Особенно когда они с легкостью могут создать продвинутую машину, которая не будет обладать этическими задатками».

    Хельм не обеспокоен необходимостью разработки асимметричных законов, регулирующих значимость роботов по сравнению с людьми, утверждая (и надеясь), что будущие создатели искусственного интеллекта будут опираться на некоторые этические ограничения.

    «Я как бы думаю, что люди сделаны из атомов, поэтому в теории инженер может создать синтетическую форму жизни или робота с моральным значением. Я хотел бы думать, что никто этого не сделает. Думаю, большинство людей тоже. Но неизбежно появится некий дурак, жаждущий известности первопроходца, даже если это неэтично и глупо».

    Три закона робототехники 2.0?

    Учитывая очевидные недостаки трех законов робототехники Азимова, ресурс io9 задался вопросом: можно ли их исправить или внести доработки? На самом деле, многие писатели-фантасты многократно пытались сделать это, внося поправки в течение многих лет.

    «Нет, — считает Хельм. — Нет никаких «патчей» для трех законов».

    Помимо своей противоречивой природы, законы еще и состязательны по своей природе.

    «Я сторонник подходов машинной этики, которая более кооперативна, более последовательна и опирается на нормативы, а значит может оправиться от недоразумений или исправить неправильное программирование».

    Герцель эхом вторит утверждениям Хельма.

    «Определение набора этических заповедей в качестве ядра машинной этики будет безнадежным, если в основе машины будет гибкий общий искусственный интеллект. Если он будет задуман как интуитивный, гибкий, адаптивный или этический — в этом контексте этические заповеди будут полезны для системы только как грубый ориентир для применения собственной этической интуиции. Но в этом случае заповеди не станут основой этической системы, а только лишь аспектом. Это можно рассмотреть на примере людей — этические принципы, которые мы изучаем, работают, но не в качестве руководящих принципов, они лишь подталкивают нашу интуицию и этические инстинкты. Мы практически независимы от этических принципов».

    Как создать безопасный искусственный интеллект?

    Учитывая неадекватность правового подхода, можно поинтересоваться у Герцеля и Хельма по поводу современных подходов к проблеме «безопасного ИИ».

    «Очень немногие исследователи общего искусственного интеллекта полагают, что есть возможность создать систему, которая будет полностью безопасной, — говорит Герцель. — Но это не беспокоит большинство, поскольку в этой жизни вообще нельзя ничего гарантировать».

    Герцель считает, что как только мы создадим систему общего искусственного интеллекта или ее зародыш, мы сможем провести исследования и эксперименты, которые расскажут нам об этике ИИ куда больше, чем мы знаем.

    «Надеюсь, таким образом мы сможем сформулировать хорошие теории по этике искусственного интеллекта, которые позволят нам углубиться в эту тему. Но сейчас теоретизировать об этике ИИ довольно трудно, поскольку у нас нет не просто хороших теорий, у нас вообще никаких теорий нет».

    «А людям, которые смотрели слишком много «терминаторов», процесс создания искусственного интеллекта может показаться пугающим, поскольку они упускают слово «примитивный» в этом контексте. Тем не менее, самые радикальные изменения случались именно таким образом».

    «Когда группа умных пещерных людей изобрела язык, они не ждали разработки прочной формальной теории языка, которая могла бы помочь спрогнозировать будущие изменения, вызванные появлением языка в обществе».

    Прежде чем считать разработку очередных «трех законов» технической проблемой, нужно провести массу исследований. И в этом Хельм и Герцель сходятся.

    «Мой коллега из MIRI Люк Мюельхаузер подвел итоги наших рассуждений следующим образом. Он сказал, что проблемы часто переходят из области философии в математику, а затем в инженерию. Философия зачастую задается правильными вопросами, но самым непрактичным образом. Никто не может наверняка сказать, есть ли какой-либо прогресс в разрешении вопроса. Если мы сможем переформулировать важные философские проблемы, связанные с разумом, идентификацией и ценностью в точные формулы, с которыми сможет справиться математика, тогда можно будет построить кое-какую модель. В один прекрасный день дойдет и до инженерии».

    Хельм считает эту проблему сложной для науки и философии, но прогресс возможен.

    «Я скептически отношусь к тому, что философия сможет решить вопрос, над которым бьется более 3000 лет. Но мы тоже не можем взять и начать составлять математические модели вопросов, которых нет технически. Нужно еще много теоретических и даже практических наработок».

    Источники: http://branto.ru/index/vse_otvety_k_igre_vybirajka_v_odnoklassnikakh_ehpizod_40_urovni_1171_1200/0-2766, http://www.prorobot.ru/slovarik/robotics-zakon.php, http://hi-news.ru/robots/smogut-li-tri-zakona-robototexniki-zashhitit-nas.html






    Комментариев пока нет!

    Поделитесь своим мнением