Pour la science № 458 — мелочи
Jan. 25th, 2016 08:33 am![[personal profile]](https://www.dreamwidth.org/img/silk/identity/user.png)
Статья об этике использования автономных роботов-убийц. Формулировка кажется научной фантастикой (законы Азимова и т.п.), но решения по этому вопросу нужно принимать уже сейчас. И не только для армии — беспилотный автомобиль (а это уже ближайшее будущее) тоже может попасть в ситуацию, когда он должен принять решение, кого убивать, если нет возможности избежать аварии. Сбивать выбежавшего на дорогу ребёнка или выруливать на встречную полосу под грузовик?
В обсуждении активно используются мои любимые (так прекрасно выводящие из себя собеседников!) гипотетические ситуации. Представим себе потерявший контроль трамвай, мчащийся по рельсам, к которым привязано 5 человек. Вы находитесь далеко, в центре управления трамваем. Ничего физически вы сделать не можете, вы можете только нажать на кнопку «перевести стрелку», чтобы трамвай поехал по другим рельсам. К которым тоже привязан человек, но всего один. Переводить? 90% опрошенных высказываются за то, что переводить нужно.
Второй эксперимент немного сложнее — вы не у кнопки стоите, а на мосту, под которым сейчас пронесётся тот самый трамвай в направлении пяти несчастных. На мосту также находится упитанный человек, которого вы можете столкнуть на рельсы — и это гарантированно сведёт трамвай с рельсов, убив упитанного человека, но спасши жизнь тем пятерым. Придумайте сами, почему вы не можете попытаться прыгнуть сами, например, вы привязаны за ногу.
То есть, по сути, с точки зрения холодного разума — это в точности та же самая ситуация, что в предыдущем эксперименте. Только процент призывающих столкнуть человека с моста, существенно ниже (в статье не пишут, сколько именно).
Мне кажется, это показывает безнадёжность попытки сформулировать общие правила для робота, отвечающие пожеланиям человека. Всегда будут какие-то пограничные случаи. Можно попытаться лишь определить поведение робота в очевидных ситуациях — что точно можно делать, а чего точно делать нельзя. И каким-то образом прикрыть программистов, чей робот рано или поздно попадёт в эту серую зону, где заранее ничего нельзя было определить.
Часто бывает, что, разговаривая в шумной компании, мы внезапно слышим своё имя в чьём-то разговоре (а с французским у меня это случается и не только в шумной компании — у меня не получается одновременно и работать, и фоном слушать, что говорят мои коллеги. а по-русски получается). Интуитивно кажется, что мы слушаем весь поток слов, но до сознания доходит только тот разговор, за которым мы следим. А имя — ключевое слово — может подтолкнуть к сознанию и другие веточки разговора.
Авторы не то, чтобы уверенно доказали, но убедительно показывают, что это не так. Вроде как, наш мозг в подобной ситуации занимается двумя вещами — следит за основным разговором, в котором мы участвуем, а параллельно, время от времени, анализирует кусочки других разговоров, перескакивая с одного разговора на другой. То есть, часть упоминаний себя в большой компании мы всё-таки пропускаем.
В обсуждении активно используются мои любимые (так прекрасно выводящие из себя собеседников!) гипотетические ситуации. Представим себе потерявший контроль трамвай, мчащийся по рельсам, к которым привязано 5 человек. Вы находитесь далеко, в центре управления трамваем. Ничего физически вы сделать не можете, вы можете только нажать на кнопку «перевести стрелку», чтобы трамвай поехал по другим рельсам. К которым тоже привязан человек, но всего один. Переводить? 90% опрошенных высказываются за то, что переводить нужно.
Второй эксперимент немного сложнее — вы не у кнопки стоите, а на мосту, под которым сейчас пронесётся тот самый трамвай в направлении пяти несчастных. На мосту также находится упитанный человек, которого вы можете столкнуть на рельсы — и это гарантированно сведёт трамвай с рельсов, убив упитанного человека, но спасши жизнь тем пятерым. Придумайте сами, почему вы не можете попытаться прыгнуть сами, например, вы привязаны за ногу.
То есть, по сути, с точки зрения холодного разума — это в точности та же самая ситуация, что в предыдущем эксперименте. Только процент призывающих столкнуть человека с моста, существенно ниже (в статье не пишут, сколько именно).
Мне кажется, это показывает безнадёжность попытки сформулировать общие правила для робота, отвечающие пожеланиям человека. Всегда будут какие-то пограничные случаи. Можно попытаться лишь определить поведение робота в очевидных ситуациях — что точно можно делать, а чего точно делать нельзя. И каким-то образом прикрыть программистов, чей робот рано или поздно попадёт в эту серую зону, где заранее ничего нельзя было определить.
Часто бывает, что, разговаривая в шумной компании, мы внезапно слышим своё имя в чьём-то разговоре (а с французским у меня это случается и не только в шумной компании — у меня не получается одновременно и работать, и фоном слушать, что говорят мои коллеги. а по-русски получается). Интуитивно кажется, что мы слушаем весь поток слов, но до сознания доходит только тот разговор, за которым мы следим. А имя — ключевое слово — может подтолкнуть к сознанию и другие веточки разговора.
Авторы не то, чтобы уверенно доказали, но убедительно показывают, что это не так. Вроде как, наш мозг в подобной ситуации занимается двумя вещами — следит за основным разговором, в котором мы участвуем, а параллельно, время от времени, анализирует кусочки других разговоров, перескакивая с одного разговора на другой. То есть, часть упоминаний себя в большой компании мы всё-таки пропускаем.
no subject
Date: 2016-01-25 05:34 pm (UTC)no subject
Date: 2016-01-26 11:04 am (UTC)А что конкретно эти две ситуации некорректны - конечно, в реальном мире мы всегда оперируем вероятностями. Просто задавать людям на улице вопросы с распределением вероятностей разных сценариев - нереально.
no subject
Date: 2016-01-26 07:08 pm (UTC)no subject
Date: 2016-01-27 08:51 am (UTC)no subject
Date: 2016-01-26 09:31 am (UTC)А сбивать надо ребёнка, по-любому. Это должно быть совершенно очевидно для упрощённой логики робота. Выруливание на встречку под грузовик создаёт ещё добавочную опасную ситуацию. Грузовик тоже куда-нибудь вырулит - и пошло-поехало. Вместо одного человека могут погибнуть десятки.
no subject
Date: 2016-01-26 11:05 am (UTC)no subject
Date: 2016-01-26 11:31 am (UTC)Понятно, что неизбежно будут какие-то ситуации, выпадающие из построенной модели. Но их при нормальном подходе будут сотые, потом тысячные, потом ещё более ничтожные доли процента.
Лишь бы ленивые программисты не пошли по пути из "Страж-птицы" Шекли. :)
no subject
Date: 2016-01-26 01:03 pm (UTC)То есть, для меня ответ на вопрос "можно ли запрограммировать робота так, чтобы он делал, как мы хотим?" - "нельзя, потому что мы сами не знаем, чего мы хотим".
no subject
Date: 2016-01-26 04:52 pm (UTC)Скорее, таки окажется, что реальные жизненные ситуации не будут попадать под формальное описание по любому. Потому как весовые коэффициенты будут присвавиаться не "ребенок и грузовик" а "человекоподобный объект" и "большой объект" - поскольку возраст в свете фар под дождем не определить.
У меня любимая байка, со школьных времен: мне показывали как работает база данных, ну и какая-то рудиментарная бухгалтерия написана. Приход-расход... Ну типа мужик мимо бежит интересуется. "о, ну давай например. Купил я на мясокомбинате 500 кг говядины"... А я на него смотрю в полном афигее... Реальность - она другая!
no subject
Date: 2016-01-26 07:14 pm (UTC)no subject
Date: 2016-01-27 08:54 am (UTC)Но с программированием роботов это не пройдёт. Никто не примет идею программировать роботов на "закрой глаза, скрести пальчики и молись, чтобы всё обошлось". Несмотря на то, что человеку это прощают.
no subject
Date: 2016-01-27 08:56 am (UTC)