green_fr: (Default)
[personal profile] green_fr
Статья об этике использования автономных роботов-убийц. Формулировка кажется научной фантастикой (законы Азимова и т.п.), но решения по этому вопросу нужно принимать уже сейчас. И не только для армии — беспилотный автомобиль (а это уже ближайшее будущее) тоже может попасть в ситуацию, когда он должен принять решение, кого убивать, если нет возможности избежать аварии. Сбивать выбежавшего на дорогу ребёнка или выруливать на встречную полосу под грузовик?

В обсуждении активно используются мои любимые (так прекрасно выводящие из себя собеседников!) гипотетические ситуации. Представим себе потерявший контроль трамвай, мчащийся по рельсам, к которым привязано 5 человек. Вы находитесь далеко, в центре управления трамваем. Ничего физически вы сделать не можете, вы можете только нажать на кнопку «перевести стрелку», чтобы трамвай поехал по другим рельсам. К которым тоже привязан человек, но всего один. Переводить? 90% опрошенных высказываются за то, что переводить нужно.

Второй эксперимент немного сложнее — вы не у кнопки стоите, а на мосту, под которым сейчас пронесётся тот самый трамвай в направлении пяти несчастных. На мосту также находится упитанный человек, которого вы можете столкнуть на рельсы — и это гарантированно сведёт трамвай с рельсов, убив упитанного человека, но спасши жизнь тем пятерым. Придумайте сами, почему вы не можете попытаться прыгнуть сами, например, вы привязаны за ногу.
То есть, по сути, с точки зрения холодного разума — это в точности та же самая ситуация, что в предыдущем эксперименте. Только процент призывающих столкнуть человека с моста, существенно ниже (в статье не пишут, сколько именно).

Мне кажется, это показывает безнадёжность попытки сформулировать общие правила для робота, отвечающие пожеланиям человека. Всегда будут какие-то пограничные случаи. Можно попытаться лишь определить поведение робота в очевидных ситуациях — что точно можно делать, а чего точно делать нельзя. И каким-то образом прикрыть программистов, чей робот рано или поздно попадёт в эту серую зону, где заранее ничего нельзя было определить.


Часто бывает, что, разговаривая в шумной компании, мы внезапно слышим своё имя в чьём-то разговоре (а с французским у меня это случается и не только в шумной компании — у меня не получается одновременно и работать, и фоном слушать, что говорят мои коллеги. а по-русски получается). Интуитивно кажется, что мы слушаем весь поток слов, но до сознания доходит только тот разговор, за которым мы следим. А имя — ключевое слово — может подтолкнуть к сознанию и другие веточки разговора.

Авторы не то, чтобы уверенно доказали, но убедительно показывают, что это не так. Вроде как, наш мозг в подобной ситуации занимается двумя вещами — следит за основным разговором, в котором мы участвуем, а параллельно, время от времени, анализирует кусочки других разговоров, перескакивая с одного разговора на другой. То есть, часть упоминаний себя в большой компании мы всё-таки пропускаем.

Date: 2016-01-25 05:34 pm (UTC)
From: [identity profile] dmpogo.livejournal.com
В гипотентических случаях проблема в том что они .... гипотентические, а именно в релаьной ситуации 'условия задачи' никогда так не ясны. В этом главное различиие между первым и вторым трамваем. В реальности никогда не будешь уверен что толстяк остановит трамвай и что столкнуть его - единственное решение. Тогда как первый случай - наиболее чист, на какую ветку отправлять - вполне реалистичная постановка, и результат решения четко предсказуем.

Date: 2016-01-26 11:04 am (UTC)
From: [identity profile] green-fr.livejournal.com
Это детали. Для меня главный вывод этого эксперимента - то, что две абсолютно одинаковые с точки зрения чистой логики ситуации совершенно по-разному оцениваются людьми. То есть, очень сложно (невозможно) определить логические правила, которые соответствовали бы тому, что хочет человек.
А что конкретно эти две ситуации некорректны - конечно, в реальном мире мы всегда оперируем вероятностями. Просто задавать людям на улице вопросы с распределением вероятностей разных сценариев - нереально.

Date: 2016-01-26 07:08 pm (UTC)
From: [identity profile] dmpogo.livejournal.com
Вопрос то ме про лигическуя задачу, а про поведение. Отвечая на такой вопрос, человек всегда мысленно представляет себя в такой ситуации, и пытается увидеть как он бы себя повел. В данном случае, преставить себя диспетчером которому нужио решить куда перевести стрелки можно (а кто там как привязан это дествительно детали), а представить себя рядом с толстяком которого нужно толкать - практически нельзя. Как тут сравнивать ответы ?

Date: 2016-01-27 08:51 am (UTC)
From: [identity profile] green-fr.livejournal.com
Конечно, именно так. И с какой из этих ситуаций сравнить поведение робота? Сказать роботу "столкни" - это примерно как "столкнуть" или как "перевести стрелку"?

Date: 2016-01-26 09:31 am (UTC)
From: [identity profile] grave--digger.livejournal.com
Усложняем задачу: на одних рельсах привязано пять алкашей с циррозом печени в последней стадии, а на других один Стивен Хокинг. Куда трамвай направлять будем? ;)

А сбивать надо ребёнка, по-любому. Это должно быть совершенно очевидно для упрощённой логики робота. Выруливание на встречку под грузовик создаёт ещё добавочную опасную ситуацию. Грузовик тоже куда-нибудь вырулит - и пошло-поехало. Вместо одного человека могут погибнуть десятки.

Date: 2016-01-26 11:05 am (UTC)
From: [identity profile] green-fr.livejournal.com
Сколько людей - столько и "очевидных вариантов" :-) Плюс к этому, попробуй всё это объяснить роботу. Прекрасная ситуация, мне кажется!

Date: 2016-01-26 11:31 am (UTC)
From: [identity profile] grave--digger.livejournal.com
Ну так над этим не одна тысяча программистов трудится уже не первый год. Алгоритм в подобных ситуациях формализовать вполне возможно, навешать коэффициентов на факторы, предусмотреть множественные логические ветвления. Мы этим ещё на 3-4 курсе занимались. Я тогда очень увлекался искусственным интеллектом и нечёткой логикой.
Понятно, что неизбежно будут какие-то ситуации, выпадающие из построенной модели. Но их при нормальном подходе будут сотые, потом тысячные, потом ещё более ничтожные доли процента.
Лишь бы ленивые программисты не пошли по пути из "Страж-птицы" Шекли. :)

Date: 2016-01-26 01:03 pm (UTC)
From: [identity profile] green-fr.livejournal.com
Погоди, а как можно различать две ситуации из моего поста? С точки зрения автомата это "сделать выбор между ничего не делать и убить 5 человек и сделать что-то и убить 1 человека". И люди при этом хотят разного в зависимости от контекста, который никак (на мой взгляд) не формализуется. Как это программировать?
То есть, для меня ответ на вопрос "можно ли запрограммировать робота так, чтобы он делал, как мы хотим?" - "нельзя, потому что мы сами не знаем, чего мы хотим".

Date: 2016-01-26 04:52 pm (UTC)
From: [identity profile] kalvado.livejournal.com
по мне тут надо взвесить еще и последствия последствий, как уже сказали. Сбить ребенка и затормозить - дальше последствия минимальны. Под грузовик, загорелся бензобак/батарея, грузовик опрокинулся и бетонные плитки засыпали группу детского сада на прогулке?
Скорее, таки окажется, что реальные жизненные ситуации не будут попадать под формальное описание по любому. Потому как весовые коэффициенты будут присвавиаться не "ребенок и грузовик" а "человекоподобный объект" и "большой объект" - поскольку возраст в свете фар под дождем не определить.
У меня любимая байка, со школьных времен: мне показывали как работает база данных, ну и какая-то рудиментарная бухгалтерия написана. Приход-расход... Ну типа мужик мимо бежит интересуется. "о, ну давай например. Купил я на мясокомбинате 500 кг говядины"... А я на него смотрю в полном афигее... Реальность - она другая!

Date: 2016-01-26 07:14 pm (UTC)
From: [identity profile] dmpogo.livejournal.com
Я по себе знаю - мне трудно решиться что потери неизбежны и выбрать наименьшее зло. Я обычно выбираю вариант где есть хоть какой шанс что все обойдется. Так например я не могу преставить себе что отрежу себе руку, попавшую в капкан. Скорее всего умру, ожидая помощи.

Date: 2016-01-27 08:54 am (UTC)
From: [identity profile] green-fr.livejournal.com
Об этом была другая статья в этом же журнале (другом выпуске) - людям гораздо проще свыкнуться с негативными результатами собственного бездействия, чем с негативными результатами собственного действия (хотя, с точки зрения всё той же холодной логики, осознанное действие и осознанное бездействие совершенно эквивалентны). Это одно из объяснений моды на отказ от прививок - лучше пусть мой ребёнок умрёт от того, что я не сделал (не защитил), чем от того, что я сделал (сам разрешил ввести в него эту заразу).

Но с программированием роботов это не пройдёт. Никто не примет идею программировать роботов на "закрой глаза, скрести пальчики и молись, чтобы всё обошлось". Несмотря на то, что человеку это прощают.

Date: 2016-01-27 08:56 am (UTC)
From: [identity profile] green-fr.livejournal.com
Понятно, что всё до конца не просчитывается (эффект бабочки - а вдруг из этого ребёнка на велосипеде вырастет Гитлер), но где-то же надо останавливаться. Я чтобы не сравнивать совсем уж сложные последствия, представим просто две полосы (с бетонным разделителем между ними), на каждой из них по ребёнку на велосипеде. Тормозить уже не успеешь. нужно выбрать, кого сбивать. И чтобы родители потом не засудили программиста.

Profile

green_fr: (Default)
green_fr

June 2025

S M T W T F S
123 4 567
891011121314
15161718192021
22232425262728
2930     

Most Popular Tags

Style Credit

Expand Cut Tags

No cut tags
Page generated Jun. 8th, 2025 01:46 am
Powered by Dreamwidth Studios
OSZAR »