Беспилотные автомобили на страже общей безопасности
Что делать беспилотному автомобилю в случае выбора: убить пассажира или пешеходов, какую роль в этом выборе играет общественность, и почему общее благо важнее индивидуальной безопасности рассуждает сирийско-австралийский исследователь Ияд Рахван
Этика машин
Нам хочется, чтобы мир будущего был чуть более безопасным, поскольку сегодня риск внезапно умереть – достаточно высок. Так, более 1,2 миллионов человек в мире ежегодно погибают в автомобильных авариях. Наверное, каждый хотел бы сократить эту цифру как минимум на 90%. Вопрос в том, что эти 90% как раз приходятся на человеческий фактор. Технология беспилотных автомобилей дает надежду исключить человеческие ошибки на дорогах. Но, иногда машина, как и человек, сталкивается с проблемой. К примеру, в машине отказывают тормоза и, если она продолжит движение, то собьет пешеходов. Если же она свернет и врежется в стену, чтобы освободить движение, она убьет пассажира. Таким образом, перед «бездушной машиной» встает важнейший этический вопрос.
Принцип вагонетки
«Тяжёлая неуправляемая вагонетка несётся по рельсам. На пути её следования находятся пять человек, привязанные к рельсам сумасшедшим философом. К счастью, вы можете переключить стрелку — и тогда вагонетка поедет по другому, запасному пути. К несчастью, на запасном пути находится один человек, также привязанный к рельсам. Каковы ваши действия?» — так сформулировала свой этический эксперимент английский философ Филиппа Фут в 1967 году.
Приблизительно такой же вопрос возникает перед беспилотным автомобилем в вышеописанной ситуации.
Подобная дилемма всегда вызывает у людей живой отклик. Так, в чешском фильме «Мост» (2003) режиссера Бобби Гарабедиана наглядно показана этическая проблема выбора: отец-одиночка, работающий на железной дороге должен принять решение – оставить железнодорожный мост разведенным и спасти своего сына, свалившегося в люк, и таким образом обречь на гибель пассажиров поезда, либо опустить люк и погубить сына. Мужчина выбрал второй вариант и спас тем самым сотни жизней ценой жизни самого дорогого человека.
Множество возможных сценариев
Машина запрограммирована так, что в ней будет запущен сложный алгоритм расчета вероятности вреда для пешеходов при различных вариантах движения. При этом, возможно, риск водителя или пассажира будет действительно выше, чем у людей, переходящих дорогу.
Такой расчёт будет довольно сложным, но так или иначе будет включать компромисс, а компромисс — это часто вопрос этики
Этического компромисса также требует решение внедрять технологии при существующих рисках. Если мы можем в настоящее время сократить число аварий на 90%, стоит ли тратить 50 лет на разработку новых технологий, чтобы добиться 100% безопасности? Ведь за эти 50 лет при существующей статистике в авариях погибнут 60 миллионов человек.
Люди в социальных сетях обмениваются идеями, как избежать этого конфликта. Один человек предложил, что машина должна повернуть так, чтобы проехать между пешеходами… Конечно, если такой вариант есть, машина так и поступит. Нас интересуют сценарии, где такой исход невозможен. Мой любимый вариант дал один блогер, который предложил сделать кнопку эвакуации в машине, на которую нажимаешь перед аварией.
Решение принимаем мы все
Говоря о неизбежности компромисса, важно понять, кто в итоге принимает такое компромиссное решение. В первую очередь важно узнать общественное мнение по данному вопросу.
Исследователями был проведен опрос, в котором описывалась ситуация с машиной и предлагались два выбора, связанные с двумя философскими парадигмами Иеремии Бентама и Иммануила Канта. Согласно Бентаму, машина должна минимизировать вред, даже в случае если это приведет к гибели одного из участников ситуации. Согласно Канту, у машины есть собственный долг «Не убий», она должна продолжить движение, даже если в результате это приведет к большему количеству смертей. Большинство людей выбрали утилитарный подход Бентама, но отказались покупать такой автомобиль, боясь за собственную жизнь.
Они хотят купить машину, которая их защитит, что бы ни случилось, при этом пусть другие покупают машины, минимизирующие вред.
Расставляя приоритеты
Ели каждый сделает выбор в пользу собственной безопасности, пострадает общая безопасность. Конечно, производители могут запрограммировать беспилотные автомобили так, чтобы машина отдавала приоритет безопасности своего пассажира, в тоже время «зная», что это порождает риск для пешеходов. Можно решить подобную социальную дилемму с точки зрения законов, направленных на ограничение безопасности отдельной личности, и контроль за его соблюдением для максимального достижения всеобщей безопасности.
В ходе вышеупомянутого опроса людям был задан вопрос, поддержат ли они принятие такого закона. Большинство респондентов выступили против такого закона, а также заявили, что не купят подобную машину.
Как ни странно, обязывая машины минимизировать вред, можно спровоцировать больший вред, так как люди не обязательно выберут более безопасную технологию, даже если она надёжнее, чем водитель.
Поиски приемлемого компромисса
Студенты Ияда Рхвана создали сайт «Moral Machine», на котором генерируются различные сценарии и люди выбирают, какой этический выбор должна сделать машина в рамках каждого из сценариев. Возраст и биологический вид жертв варьируется, что дает возможность сделать выводы о приоритетах аудитории. На данный момент собрано более 5 миллионов решений от более, чем 1 миллиона людей. И некоторые спасают котиков чаще, чем детей. Кто-то выступает за то, чтобы наказывать пешеходов, перебегающих дорогу.
Такое упражнение помогает людям осознать тяжесть такого рода решений и что тот, кто принимает закон, столкнётся с невыносимым выбором. И возможно, это даст нам, обществу, понять, какого рода компромиссы будут в итоге приняты в законодательстве.
Технология – результат социальной ответственности
Вопрос не в этической дилемме, что должна делать машина. Вопрос в том, как обществу достигнуть согласия и выработать компромиссы. Это – социальная дилемма.
В 1940-е Айзек Азимов написал свои знаменитые законы роботехники, три закона. Робот не может причинить вред человеку, робот должен повиноваться приказам человека, Робот должен заботиться о своей безопасности. В этом порядке. Около 40 лет спустя, после всех историй, проверяющих эти законы, Азимов ввёл нулевой закон, идущий прежде всех остальных: робот не должен навредить человечеству в целом. Я не знаю, какое это имеет влияние в контексте беспилотных автомобилей или любой конкретной ситуации, и не знаю, как мы можем это обеспечить, но думаю, что важно осознать, что законы для беспилотных автомобилей не только проблема технологии, но и проблема взаимного сотрудничества.