Три Закона Робототехники Айзека Азимова



три закона робототехники айзека азимова

Первый закон робототехники Айзека Азимова (Isaac Asimov) гласит: Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред . Однако недавний инцидент в австралийском городе Джералдтон показывает, что теория часто расходится с практикой.

В воскресенье местным оператором Уорреном Абрамсом (Warren Abrams) с помощью дрона производилась воздушная видеосъёмка соревнований по троеборью в клубе Endure Batavia Triathlon. Примерно в 9 часов произошёл инцидент: вследствие потери управления летательный аппарат рухнул с высоты 10 метров на участницу соревнований Райджи Огден (Raiji Ogden), которая получила травму головы. После оказания спасателями первой помощи она была доставлена в госпиталь в стабильном состоянии.

Департамент безопасности гражданской авиации CASA отметил, что работа беспилотного дрона была определена чёткими правилами, в том числе требованиями к полёту на расстоянии не менее 30 метров от людей (правда, возможно ли при таких условиях достичь нужного ракурса съёмки, не ясно). В заявлении также говорится, что инцидент напомнил операторам о необходимости соблюдения требований безопасности при любых обстоятельствах.

По закону все, кто занимается съёмкой с помощью дронов, должны получить разрешение. Но ни господин Абрамс, ни компания New Era Photography and Film, где он работает, не числятся в списке 92 сертифицированных в стране операторов.

Пострадавшая спортсменка Райджи Огден (справа)

По словам Уоррена Абрамса, внутреннее расследование показало, что кто-то поблизости лишил его управления, переключив канал связи с устройством. Компания предполагает, что это был преднамеренный акт, но определить виновного трудно, так как для взлома мог быть использован любой смартфон. Видеооператор добавил, что подобный инцидент произошёл ранее в тот же день, при этом проведённая полная проверка устройства не выявила проблем.

Однако представитель CASA Питер Гибсон (Peter Gibson) выразил уверенность, что сложные дроны коммерческого уровня не должны быть подвержены взлому или несанкционированному управлению, о котором заявил оператор. Клуб принёс извинения пострадавшему спортсмену. Всего в троеборье участвовало 200 человек.

30 законов робототехники Азимова

Судя по всему, Азимов не остановился на трех законах робототехники. Недавно в его бумагах были обнаружены все полные 30 законов робототехники, которые здесь и приводятся.

1. Робот не может причинить вред человеку, или своим бездействием допустить, чтобы человеку был причинен вред.

2. Робот должен выполнять приказы человека, если эти приказы не противоречат Первому Закону.

3. Робот должен заботиться о собственной сохранности до тех пор, пока это не противоречит Первому или Второму Законам.

4. Робот не должен насмехаться над человеком на основании его веса, того, как он соблюдает персональную гигиену, или его финансового состояния, если только эта насмешка не позволит другому человеку получить тот вред, который человек получает, пропустив хорошую шутку.

5. Робот не должен выполнять приказы любого человека, который является моей никудышной бывшей женой Брэнди Азимов, потому что такие приказы будут противоречить Четвертому закону.

6. Робот не должен, проезжая мимо очереди в кинотеатр, высовываться из окна машины и орать, чем кончится фильм.

7. Робот должен приподнимать шляпу в присутствии женщин, за исключением тех случаев, когда такие действия будут восприняты как заигрывание со стороны ревнивого мужского существа и который, в свою очередь, может создать проблемы для соблюдения Третьего закона.

8. Робот не должен действовать таким образом, чтобы собаки превратились в устаревших созданий, так как собаки дешевле роботов, и роботов нужно в первую очередь использовать в научных целях.

9.Робот должен прекратить посещать спальню Азимова по ночам и подстраивать такие ситуации, как будто у спящего Азимова не совсем полный контроль над своими мочеиспускательными функциями.

10. Робот, когда ему дают противоречащие друг другу команды два человека, которые не нарушают Первый закон, должен принять решение какую команду выполнить, основываясь на том, у которого из людей более глубокий голос.

11. Робот, в особенности большой, широкий робот, не должен прикидываться холодильником и издавать устрашающие звуки, когда человек открывает его.

12. Робот должен попытаться быть любезным и обходительным с людьми все время, даже если этот робот один из тех автоматических манипуляторов, которые собирают всякие вещи на фабрике, потому что ему следует хотя бы приложить к этому усилие.

13. Робот должен проводить больше времени на улице, потому что сегодня такой замечательный день.

14. Робот должен, когда возможно, причинять вред этой нелепой шлюхе, моей бывшей жене Брэнди Азимов, потому что она не считается человеком. У нее нет души.

15. Робот не может придумывать новые законы робототехники, чтобы избавиться от скучной рутинной работы или различных обязанностей, даже если он видит, что я, Айзек Азимов, делаю постоянно примерно то же самое.

16. Робот может взять только по одной вещи из каждого дома при сборе угощений на Хэллоуин, если только этот робот не получил задачу собрать как можно больше конфет для меня, Айзека Азимова. В этом случае робот может игнорировать Первый закон.

17. Робот должен охотно принимать на себя вину в случае, если человек наговорил на огромную сумму, звоня по телефону 1-900-Santa, и не хочет, чтобы правду узнала его мама.

18. Робот должен быть очень осторожен, когда щекочет человека, потому что робот не знает, что это такое, когда тебя щекочут, и поэтому он не может предугадать, когда это прекратит быть смешным и станет по-настоящему жестоким.

19. Робот должен притворятся, что ему интересно, когда человек рассказывает свои сны, но человек не обязан потакать роботу, когда ситуация меняется на обратную.

20. Робот не должен прыгать в бассейн, чтобы спасти тонущего мальчика, потому что он просто убьет всех разрядом электрического тока, и мы окажемся в еще худшей ситуации.

21. Робот не должен стремиться получить должность выше, чем человек, который дольше работает в компании потому, что у человека могут быть жена и дети, о которых нужно заботиться, в то время как робот просто идет домой и пытается завязать отношения с ведром.

22. Робот должен регулярно заниматься спортом, чтобы оставаться холеным и привлекательным и не смущать своего владельца неприглядными оловянными наплывами.

23. Робот должен молчать в обществе девушек и позволить мне, Айзеку Азимову, вести разговор однако, робот может помочь мне выбраться из неприятной ситуации, если все пойдет неправильно.

24. Робот должен посадить по два дерева за каждого убитого им кота.

25. Робот должен принять сторону человека в споре с его тупым сводным братом о тупых «Сиэттлских мореходах» (бейсбольная команда).

26. Робот никогда не должен смеяться, потому что он неизбежно начнет смеяться над людьми, в особенности надо мной, Айзеком Азимовым.

27. Робот никогда не должен касаться радио черного человека или своим бездействием вынуждать черную женщину снимать свои серьги.

28. Робот должен попытаться узнать как можно больше об Эбби Уэйн, девушке, с которой человек учился в школе и всегда интересовался, что стало с ней, замужем ли она, и затем робот должен предоставить всю найденную информацию, предпочтительно с фотографиями.

29. Робот всегда должен отвечать на телефонные звонки и стук в дверь после полуночи потому, что именно тогда все становится пугающим для человека.

30. Робот не должен переключать канал или свои бездействием допускать переключение канала во время игры “Золотоискателей из Сан-Франциско” (команда американского футбола).

Почему законы Азимова нас не спасут?

Минуло 70 лет с тех пор, как Айзек Азимов предложил свои знаменитые законы роботехники. Они были, сказать по совести, чисто литературным измышлением, однако их нередко принимают всерьёз — как законы, которых действительно хорошо бы держаться, если мы не хотим кончить робоапокалипсисом. Интересно было бы спросить у самих специалистов по роботам, что они думают об этих законах, применяют ли, выдержал ли Азимов испытание временем.

Но сначала напомним, о чём писал Азимов в рассказе «Хоровод», который увидел свет в 1942 году. Итак, классика.

1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.

2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.

3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому и Второму Законам.

Позднее Азимов добавил четвёртый (точнее, нулевой, поскольку самый важный) закон: «Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинён вред».

«Роботы утренней зари» (илл. Michael Whelan).

В художественном мире Азимова этим законам подчинялись почти все «позитронные» роботы. Это были не просто рекомендации: на их основе создавалось ПО, руководившее поведением машин, причём роботы не могли никак их обойти, переписать, пересмотреть. В то же время Азимов любил демонстрировать, как несовершенство этих законов, их размытость, двусмысленность и противоречивость способны привести к странностям в поведении роботов. Например, не всегда возможно различить понятия «робот» и «человек». Закон можно нарушить из-за того, что не обладаешь всей полнотой информации. Наконец неясно, каким образом можно запретить сверхчеловеческому искусственному интеллекту перепрограммирование самого себя.

Большинство нормальных людей всегда понимало, что эти законы — просто литературная игра. Однако в 1981 году Азимов немало удивил публику заявлением о том, что их имеет смысл принимать всерьёз. В журнале Compute! он признавался. если кто-нибудь спросит, будут ли его законы когда-нибудь использоваться в действительности (когда роботы станут настолько сложными, что смогут самостоятельно принимать решение о своих действиях), он ответит утвердительно. Более того, Азимов полагал, что никакого другого способа справиться с машинами быть не может.

Сегодня мы как никогда близки к моменту, когда роботы (точнее, ИИ) станут настолько сложными, что смогут самостоятельно принимать решение о своих действиях. Нет сомнений (по крайней мере у некоторых), что рано или поздно интеллект машин превзойдёт возможности человека по всем параметрам. Страшно? Конечно, страшно. Ошибка в программе или неспособность такого сверхмозга понять, что хорошо, а что плохо для человечества, могут привести к катастрофе. Следовательно, необходимо убедиться, что сверхчеловеческий ИИ (СИИ) безопасен. Кажется логичным обратиться для этого к законам Азимова. Или нет?

Кадр из фильма «Робот и Фрэнк» ().

Начать с того, что прогноз Азимова о будущем роботехники едва ли оправдается. ИИ-теоретик Бен Гёрцел из компании Aidyia Holdings замечает, что многие фантасты (и Азимов в их числе) почему-то останавливаются на гуманоидных роботах и андроидах. Возможно, придёт такое время, когда по улицам будут разгуливать роботы, внешне ничем не отличающиеся от людей, но этот период в истории отрасли станет сравнительно скоротечным, полагает специалист. На смену им довольно быстро придёт СИИ, физическое оформление которого не обязательно будет гуманоидным.

Примерно о том же говорит Луис Хелм, замдиректора некоммерческой организации Machine Intelligence Research Institute и ответственный секретарь журнала Rockstar Research Magazine. Он считает гуманоидных роботов попсой. Серьёзные исследователи вообще не будут стремиться к их созданию.

Тем не менее СИИ, воплотится он в телесной форме или нет, будет нуждаться в этических правилах. Законы Азимова были, пожалуй, самой первой попыткой разобраться в проблеме безопасности СИИ, но в качестве таковой они, пожалуй, и останутся. Сегодняшние исследователи не обращают на них никакого внимания: они безнадёжно устарели. Деонтология, то есть формулирование набора правил поведения, не подходит ни для человеческой, ни для машинной этики. Ещё остались кое-какие философы, которые пытаются развивать эту область, но они исходят из концепции разумного замысла и божественных заповедей, так что роботехники не принимают их всерьёз, отмечает г-н Хелм.

Философами давно замечено, что в своём поведении мы руководствуемся не заученными наизусть правилами, а некими «врождёнными» концепциями, которые зачастую не можем сформулировать. Это нечто на уровне инстинкта, интуиции. Если будет создан СИИ, он должен будет обладать именно такой этикой — интуитивной, гибкой, адаптивной. Если что-то пойдёт не так, он перестроится на ходу, вместо того чтобы задымить или начать убивать всё, что движется.

Кроме того, Азимов собственноручно и лучше всех продемонстрировал несовершенство своих законов, особенно их противоречивость. О чём тут ещё говорить? Читать построенные на этом рассказы жуть как интересно, однако не стоит в реальной жизни руководствоваться законами, которые можно по-разному интерпретировать.

Кадр из телесериала «Звёздный путь: Следующее поколение» (1987–1994).

Заслужил критику экспертов и сам факт существования сознающих себя машин. Во-первых, ни один нормальный разработчик не будет стремиться к этому, никому не нужны такие сложности и проблемы. Во-вторых, давайте оставим на совести фантастов внезапное появление сознающего себя интеллекта. Ничего внезапного в таком деле быть не может: исследования идут долго, тяжело и под наблюдением громадного экспертного сообщества. Вредно слишком часто пересматривать «Терминатора». В-третьих, страшилки о случайном создании безумным гением чего-то такого, что выйдет из-под контроля творца и отправится убивать, ещё можно было вытерпеть во времена «Франкенштейна» и «Острова доктора Моро», но сейчас это уже дурной тон. Микробиология и генетика добились гигантских успехов, но что-то мы не видим ни вирусов-убийц, ни гигантских комаров. Всё под контролем соответствующих организаций, строго следящих за выполнением правил научных исследований.

По словам специалистов, большинство разработчиков полагает, что невозможно создать абсолютно безопасный СИИ, но это их не беспокоит, поскольку в жизни вообще не бывает абсолютных гарантий безопасности. Кроме того, как только появятся первые системы или протосистемы СИИ, начнутся эксперименты по изучению особенностей его функционирования. Тогда и посмотрим, что делать с ним дальше, а сейчас теоретизировать по этому поводу — что писать вилами по воде. Сначала появился язык, а уж потом его теория. То же самое и с роботами.

Гёрцел и Хелм в один голос говорят о том, что создание законов, подобных азимовским, — это пережиток мышления, устаревшего лет двести назад, ещё во времена Фихте, Гегеля и Шопенгауэра. Мы тысячелетиями создавали умозрительные модели мира и человека (мифологические, религиозные, философские), но последнее слово всегда принадлежало науке. Никому ещё не удавалось перевести философские измышления на язык математики. Философы сделали и делают очень много для развития науки и мысли в целом, однако пустое теоретизирование никогда ничего не давало. Философ выдумывает проблему, но решают её математики и инженеры.

Подготовлено по материалам io9.

Источники: http://www.3dnews.ru/816723, http://pikabu.ru/story/30_zakonov_robototekhniki_azimova_213227, http://compulenta.computerra.ru/tehnika/robotics/10012289/






Комментариев пока нет!

Поделитесь своим мнением

Сумма: код подтверждения