Представьте ситуацию: по дороге едет робот-автомобиль, он соблюдает все правила дорожного движения, но вдруг на проезжую часть выбегает ребенок, если не затормозить, то малыш погибнет, если пытаться его объехать, то тяжелые физические травмы получат пассажиры. Что делать, как выбрать, чья жизнь ценнее и действовать в ситуации?
О том, как подобные дилеммы в недалеком будущем будут решать роботы, существуют ли универсальные правильные ответы в вопросах морали, почему человеческая этика не очевидна даже самим людям и причем тут нейросети, об этом в интервью редактору спецрепортажей m24.ru Анастасии Мальцевой рассказал кандидат философских наук, доцент Школы философии Высшей школы экономики Кирилл Мартынов.
Фото: m24.ru/Александр Авилов
– Предлагаю поговорить про современные тренды в философии и этике, расскажите, есть ли они?
– Ваш вопрос про то, что происходит в этике и в философии, очень большой. Что происходит в философии – вообще необозримый вопрос. Предлагаю нам сфокусироваться на одной истории. Мы сейчас становимся свидетелями любопытного исторического момента, когда появляются искусственные системы, которые могут действовать и принимать решения в реальном мире и без прямого участия человека. Самый простой пример такой системы – самоуправляющийся робот-автомобиль.
На первый взгляд, в этом устройстве нет ничего примечательного. В чем его задача? Довезти пассажира из одного пункта в другой, построить маршрут, не нарушать правила дорожного движения и не попадать в аварию. В подавляющем большинстве случаев робот-автомобиль гораздо более надежный водитель, чем человек. Однако мы понимаем, в некотором небольшом количестве случаев эти роботы на дорогах будут попадать в ситуации, когда они должны будут принимать некое этическое решение – кем пожертвовать, а кого спасти.
Так этика из теоретической проблемы становится инженерной, которая к тому же имеет социальную сторону.
– Например, машина-робот едет по дороге, соблюдает ПДД, и вдруг на проезжую часть выбегает ребенок, которого там не должно быть, что должен делать робот?
– Робот должен тормозить в этой ситуации, чтобы спасти ребенка, но предположим, что такое экстренное снижение скорости ведет к травмам пассажиров, возможно, к тяжелым травмам. Или робот вынужден будет свернуть с дороги, и тогда автомобиль разобьется.
– Но люди же тоже сталкиваются с такими дилеммами на дорогах?
– Да, с одной стороны, дискуссия об этике смещается из университетских аудиторий в современные инженерные проекты. И с другой стороны, когда мы обсуждаем этику для роботов, мы на самом деле актуализируем дискуссию о человеческой этике.
Если общество выпускает на дороги и вообще в реальный мир каких-то существ, которые принимают решение автономно (так как в этом есть экономическая целесообразность), то что должно быть обеспечено? Вы должны обеспечить, чтобы эти системы не приносили вреда, даже если они попадают в чрезвычайную ситуацию, то они должны принимать решение, которое доставит минимальный вред. И еще решение машины в трудной ситуации должно быть понятно и объяснимо для людей, иначе, роботы могут стать источником социального недовольства.
Фото: m24.ru/Александр Авилов
– Тогда возникает следующий вопрос про ответственность, если робот-автомобиль принимает решение сбить пешехода или травмировать пассажиров, так как это, на его взгляд, самое оптимальное решение в ситуации аварии, то кто будет за его действия отвечать?
– Это следующий шаг. Если мы говорим, что кто-то действует автономно, то кто несет за это ответственность? Обычно мы решаем этот вопрос относительно просто. Если человек совершеннолетний и вменяемый, то он отвечает за себя сам. На этой аксиоме строится не только наша этика, но и вся правовая система человечества.
Человек – это единственный субъект, который способен совершить преступление, поскольку он единственный, кто способен нести ответственность.
Так что если некий автономный технологический объект – робот – действует в мире самостоятельно, то мы можем ставить вопрос о его юридической ответственности. Да, на первом этапе мы ставим вопрос о том, кто виноват – его создатель или он сам? Но современное развитие техники в значительной степени выстраивается вокруг идеи системы нейронных сетей, которая не столько программируется, сколько учится. То есть роботы – это машины, которые тренируются и обучаются сами. Следовательно их создатели, возможно, уже не могут нести ответственности за каждый результат такого обучения.
Фото: m24.ru/Александр Авилов
– Как научить робота водить?
– Нужно загрузить в него терабайты данных того, как ведут себя на дороге профессиональные водители. Робот должен эти данные по определенным правилам адаптировать под себя. По сути, его задача – стать идеальным водителем, улучшив все человеческие показатели. Но дальше встает большой вопрос: кто отвечает за поступки нейросети, которую никто не программировал принимать конкретное решение на дороге?
– Оставим пока этот вопрос открытым. Предлагаю вернуться к людям. Правильно ли я понимаю, что когда мы пытаемся выработать этику для роботов, мы на самом деле мы решаем, по каким моральным законам хотим жить сами?
– Когда мы говорим про этику роботов, действующих автономно, то неизбежно приходим к вопросу о природе человеческой этике. Какую этику мы хотим иметь сами, если уж мы беремся чему-то учить в этой сфере роботов?
Я здесь провожу параллель с тем, как примерно 50 лет назад проблема разума и интеллекта перестала быть просто теоретической. Философы, начиная с Платона, спорили о том, что такое разум, и длительное время казалось, что этот вопрос не имеет практического смысла. Есть с десяток концепций, которые описывают, что такое разум и как он работает. До середины XX века этот спор носил абстрактный, ценностный и мировоззренческий характер.
Фото: m24.ru/Александр Авилов
Но у нас появились компьютеры в 40-е годы XX века. Изначально они использовались для решения конкретных военных задач, связанных, например, с дешифровкой информации во время Второй мировой войны. Раньше расчетами занимались математики, а потом их заменили на огромную греющуюся и гудящую машину. И вопрос, который здесь естественно задать, это вопрос о том, что еще может делать компьютер?
Есть ли такие вещи, которые человек может делать, а компьютер нет? В чем разница между искусственным интеллектом и человеческим разумом?
Сейчас компьютеры из контролируемого алгоритмического пространства, как это было в XX веке, готовятся сделать шаг в реальный мир, полный противоречий и конфликтов. Даже в простом примере с ребенком на дороге мы видим, как повторяется эта история, как вопрос о разуме вдруг становится вполне прагматическим, инженерным и обретает социальное звучание. Это значит, что специалисты по этике, которые будут помогать программировать машины, будут востребованы компаниями-производителями.
– Сейчас во много этическое пространство в нашей стране формирует государство, которое издает законы и говорит нам, что делать хорошо, а что плохо и даже наказуемо. Получается, произойдет сдвиг в коммерческий сектор, компании производители будут формировать новую этику современности, когда будут программировать роботов?
– Правительства, по всей видимости, будут в эту ситуацию вмешиваться, апеллируя к идее общего блага. Возможно, правительства будут заинтересованы в регулирование этих вопросов, когда это станет актуально.
Самое известное из того, что было сказано исторически на эту тему машинной этики - это знаменитые законы робототехники, сформулированные фантастов Айзеком Азимовым.
Законы робототехники Айзека Азимова:
- Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
- Робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат первому закону.
- Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит первому или второму законам.
Если мы посмотрим на ситуацию, когда на скорости 100 километров в час по трассе едет робот-беспилотник, и на дороге возникает какая-то внештатная ситуация, и он должен сделать выбор, кого спасать, то вот эти законы робототехники совершенно никак не помогут. Азимов исходил из идеи, что есть роботы, которых можно хорошо запрограммировать, у которых есть довольно простые алгоритмы и которые действуют в более-менее предсказуемой среде. Такой была идея андроида в фантастике 50-х годов XX века.
Фото: m24.ru/Александр Авилов
– Почему законы Азимова в современной ситуации не работают?
– Никому ведь не приходит в голову описать законами робототехники Азимова поведение человека, и сказать, что этого достаточно. Почему-то предполагается, что робот – это какое-то другое существо, и его можно описывать такими простыми алгоритмическими моделями. Здесь мы с вами подходим к большому спору о том, как именно нужно программировать этику?
– И как же?
– Грубо говоря, есть два подхода, и у каждого из них есть сторонники и противники. Первая идея – это Decisions tree model, то есть модель ветвей решения, когда у робота есть понятный и предсказуемый алгоритм действия, который мы задаем заранее. Этот подход довольно близок к идеям Азимова. Вторая идея – дать роботу возможность учиться этике самостоятельно на основе либо нейронных сетей, либо так называемых генных алгоритмов.
Сторонники первого подхода считают, что в случае самостоятельного обучения последствия будут непредсказуемыми.
Ведь человеческая этика совершенно неочевидная вещь даже для самих людей.
И робот, который программирует сам себя в этой сфере, он может изобрести все, что угодно, у него могут возникнуть совершенно необычные для нас идеи, исходя даже из понятных нам предпосылок. С другой стороны, критики алгоритмического подхода, основанного на этих ветвях решения, говорят, что у него есть очевидная проблема – его можно взломать.
Фото: m24.ru/Александр Авилов
Ошибки и неточности в этике – это нормально, и статистически они допустимы. Люди так живут, и это создает определенные проблемы, но саму этику не разрушает, поэтому если мы будем программировать робота жестко, то единственное, к чему это приведет – мы не создадим прекрасную этическую систему для роботов, но мы откроем путь для всякого рода хакеров. Потому инженеры стоят на позиции: робот должен обучаться, но под контролем человека.
– Если робот будет не программироваться, а обучаться, то его нельзя будет взломать?
– В алгоритмическом смысле слова, да, его нельзя взломать и быстро переобучить. Нейронная сеть обрабатывает входную информацию определенным образом, ей нельзя на вход подать какой-то новый сигнал, чтобы все это было взломано.
– Кто побеждает в этом этическом споре?
– Кантовская этика лучше подходит для решения задач, связанных с машинной этикой. В центре теории Канта стоял автономный субъект. У этого субъекта нет какого-то начальника, структур, которые на него давят, но он сам стремится быть моральным. В специальной литературе это называется термином деонтология – этика, построенная вокруг идеи, что есть универсальные этические принципы, которые не нарушаются ни при каких обстоятельствах.
Противоположностью деонтологии является тоже довольно широкий набор этических теорий, который известен как консеквенциализм, от латинского слова "consequens" – следствие. Предполагается, что этично то, что ведет к хорошим последствиям. Эта теория противопоставляется кантовской этике и деонтологии. На первый взгляд, консеквенциализм – интуитивно убедительная концепция, она предполагает, что вы же не хотите приносить много вреда, поэтому минимизируйте его, ищите пользу, и это будет этично.
Фото: m24.ru/Александр Авилов
Но с консеквенциализмом возникают некоторые проблемы. Допустим, у вас есть госпиталь, и в нем лежит один смертельно больной человек, который умрет в течение года. И к вам в доставили пять человек, пострадавших в автомобильной аварии, и им нужна срочная трансплантация. У этого больного человека как раз есть нужные им органы. Вы, с точки зрения консеквенциализма, говорите: "Он же все равно умирает, давайте его прямо сейчас прикончим, пересадим органы, спасем пятерых людей, и это будет очевидно полезнее для общества в целом, для каждого пострадавшего человека, но вот придется пожертвовать одним вот тем парнем". Именно поэтому в случае с консеквенциализмом много сложностей. Более того, есть еще концептуальная проблема: на самом деле мы точно не знаем, к каким последствиям приводят наши действия.
– Но и понятие пользы тоже не очевидно. Польза для кого?
– Даже, если мы вводим абстрактное понятие общей пользы, то оно нам не сильно помогает рассуждать в этом ситуации, поэтому мы возвращаемся к кантианской этике. У Канта была идея категорического императива. Я для себя немного переформулировал его определение.
Категорический императив – это принцип, согласно которому поступать всегда нужно так, как если бы твоя воля была общим законом Вселенной.
Если ты хочешь жить в таком мире, где все поступки совершаются по этому принципу, и которые касаются тебя, и которые касаются других людей, то твой поступок корректен.
– Но то, что приемлемо для меня, не факт, что приемлемо, корректно и полезно для других.
– Кант исходил из позиции, что все мы стремимся к определенному, универсальному этическому взгляду на мир, но просто иногда его нарушаем, потому что нам это выгодно. Но если бы мы хотели быть этичными, действовали по категорическому императиву, то были бы уверены, что, например, убивать человека нельзя, даже если это принесет пользу пятерым другим людям. По логике Канта, смертельно больным человеком жертвовать нельзя, потому что убивать человека нельзя без его согласия, какие бы там ни были дополнительные условия.
– Можно ли экспериментальным путем проверить доказать, что универсальный этический взгляд на мир существует?
– Вспомним, знаменитый эксперимент с вагонеткой.
Проблема вагонетки
Проблема вагонетки – мысленный эксперимент, предложенный английским философом Филиппой Фут в 1967 году. Суть эксперимента: дать человеку побыть в роли случайного свидетеля приближающейся трагедии, когда неуправляемая вагонетка или поезд катится по рельсам, к которым прикованы пять человек. Испытуемый не может помочь им, успеть их отвязать, он может только перевести стрелку на запасной путь, который, впрочем, тоже не свободен, к нему привязан один человек. И надо сделать этический выбор – действовать или бездействовать, а если спасать, то кого?У эксперимента есть продолжение. Вагонетка все также катится на пятерых привязанных ничем неповинных людей. Но свидетель может их спасти, если скинет на рельсы проходящего мимо полного мужчину. Его тело остановит поезд, люди будут спасены, но тучный мужчина погибнет.
Цель этого эксперимента была в том, чтобы показать разницу между как раз консеквенциализмом и деонтологией, а также попытаться найти некую норму, приемлемую для большинства людей. В принципе, главное достижение этого мысленного эксперимента – это то, что выясняется, что в разных обществах люди разного образования, разных взглядов на жизнь все-таки придерживаются статистически похожих ответов.
– Вы о том, что люди интуитивно догадываются, что скидывать толстяка с моста ради спасения пятерых людей, привязанных к рельсам, все-таки не нужно.
– Смотрите, у эксперимента есть две формулировки. Первая говорит: идет тяжелая вагонетка, на рельсах находятся привязанными там три человека. У вас есть стрелка, и вы не можете остановить вагонетку, вы не успеете отвязать этих людей, но вы можете за секунду принять решение и перевести стрелку так, чтобы вагонетка задавила не троих, а одного, который находится на параллельном пути. На этот вопрос, большинство людей (около 70 процентов) говорят, что да, в общем очень неприятный выбор, но нам приходится его совершать, потому что смерть троих – это хуже, чем смерть одного, если уж у нас нет другого выбора, надо переводить стрелку.
Но если мы в эту ситуацию вводим какого-то не очень приятного человека, толстяка, которого мы можем сбросить с моста на эту вагонетку, чтобы ее остановить, то есть вместо того, чтобы оперировать механическим объектом – нажать на кнопку, переводить стрелку – мы непосредственно фактически совершаем убийство, то здесь большинство людей отвечают, что толкать человека, который ни в чем не виноват, для того, чтобы остановить эту вагонетку и спасти троих, это этически недопустимо. Вот здесь и есть существенная разница между консеквенциализмом и деонтологией.
– Получается, люди разных культур согласны, что консеквенциализма и одной пользы не достаточно для того, чтобы принять этическое решение.
– Люди не хотят быть убийцами, даже если это полезно, даже если это минимизирует вред.
Но здесь важно отметить, что прикладная философия и машинная этика исследует не то, как люди принимают решения в жизни на самом деле, а то, какие решения они должны принимать. И тогда перед философами сегодня стоит фантастическая амбициозная задача – предложить новую этику. Если мы выводим на улицы наших городов большое количество роботов, которые классно запрограммированы на мораль, то они начинают влиять на общество.
– Сначала мы программируем роботов быть моральными, а потом они будут учить нас, как жить?
– Если робот лучше, чем ты, то для тебя это не самая приятная новость, и тебе тоже захочется быть хорошим. Машины станут примером идеального поведения.
Если мы решим задачу с обучением роботов, чтобы, во-первых, они успешно справлялись с этическими вызовами, а, с другой стороны, их решения были для нас понятны, то со временем они сами начнут направлять общество в целом в определенную сторону.
Эффективный робот, способный принимать наилучшие возможные этические решения, вряд ли ограничится перевозками людей по дорогам, он сможет находить для нас ответы и на другие вопросы, например, правильно ли поступил наш политик в этой ситуации.
И здесь, конечно, могут быть проблемы, потому что роботы могут начать диктовать нам, как нужно себя вести. Это уже история про захват человечества, но не при помощи оружия, как это было в фильме "Терминатор", а посредством "мягкой силы" (soft power), этического давления.