Загадка убить 5 человек или одного

Обновлено: 22.11.2024

Насколько знаю, загадка написана не полностью. Завершается она традиционно вопросом, сможешь ответить? В этом и заключается фишка, подковырка) Надо просто сказать "Да!", а не решать условие задачи.

Ну а если порешать, то:

1) В комнате было пять человек, я зашел и убил четверых. Кого убил? Комаров, мух? Если не людей, то осталось шесть человек. (В вопросе "Сколько осталось?" также не уточняется, кого. Но фантазировать дальше не будем. Данных и так маловато.)

2) Если же он убил людей, то все равно ответ "Шесть человек". Убитые остаются же людьми(((

3) Ну и если подразумевается прям самое простое решение, без домысливаний, то осталось два живых человека.

Следующая загадка


Представьте, что вы – оператор на железной дороге и видите, как неуправляемый товарный вагон мчится по пути, который ремонтируют пять рабочих. Они не успеют отойти, если только вы не переведете стрелку, и вагон не пойдет по другому пути, где находится один рабочий. Принять решение – пожертвовать пятью или отнять одну жизнь – необходимо за несколько секунд. Как вы поступите?

Эта дилемма – известный этический мысленный эксперимент, впервые сформулированный философом Филиппой Фут и названный «Проблемой вагонетки».
Существует два противоположных философских подхода к ее решению: утилитарный (убить одного ради спасения нескольких) и «не навреди» (предоставить все на волю Бога и не предпринимать никаких действий).

За многие годы исследований большинство людей, обычно около 90%, выбирало убийство одного ради спасения пятерых. Однако до недавнего времени изучения реакции людей в обстоятельствах, приближенных к реальным, не проводилось. Ученые факультета психологии университета штата Мичиган во главе с психологом Дэвидом Наварретте провели эксперимент, в котором 147 участникам предлагалось решить «проблему вагонетки» в виртуальной реальности. Чтобы проверить психологическую и физиологическую реакцию людей в заданной ситуации, им на голову одевали шлемы, которые проецировали трехмерные изображения потенциальных жертв, и также прикрепляли электроды к коже испытуемых. Дополнительный эффект обеспечивали крики рабочих, на которых несся вагон.

Полученные результаты подтвердили предыдущие: 133 человека, т.е. 90%, перевели стрелку. Проанализировав измерения электропроводимости, ученые выяснили, что люди, более эмоционально возбудимые, были менее склоны к убийству. Те же, кто проявил холодный расчет, «убивали» одинокого рабочего гораздо быстрее.

Одним словом, люди, способные контролировать свои эмоции, гораздо вероятнее убьют одного ради спасения пятерых. Но авторы исследования делают оговорки.

Во-первых, мир виртуальной реальности все-таки не реален, уголовной ответственности за убийство трехмерного изображения не существует.

Во-вторых, на вопрос, смогли бы вы собственными руками толкнуть человека на рельсы ради спасения пятерых, только около 50% опрошенных ответили утвердительно. Никто не хочет пачкать руки в крови.

Наконец, по данным исследования 2010 года, опубликованного в «Журнале социальной, эволюционной и культурной психологии», только треть людей ради спасения пяти жизней пожертвовали бы жизнью близкого родственника, ребенка или возлюбленного.

Вывод: Эволюция превратила нас в жестоких и эгоистичных существ. За долю секунды мы примем решение оставить большее количество людей в живых, но (!) только в том случае, если на кону не жизнь близкого нам человека.

Следующая загадка

Я хотел рассказать об интересном эксперименте ученых, которые попытались запрограммировать культурные императивы морали человека в память роботов с целью проверить смогут ли они вести себя также как люди при принятии решений. Отмечу, что опыты довольно жестокие, однако, по другому оценить возможности искусственного интеллекта ученым представилось невозможным. Сегодня роботы разрабатываются для того, чтобы существовать автономно, без вмешательства человека. Как сделать так, чтобы полностью автономная машина – могла действовать в соответствии с моралью и этикой человека?

Именно этот вопрос положил основание проблемы – “Машинной этики”. Может ли машина быть запрограммирована так, чтобы она могла действовать в соответствии с моралью и этикой? Может ли машина поступать и оценивать свои поступки с точки зрений нравственности?

Знаменитые фундаментальные законы Айзека Азимова (Три закона робототехники WIKI ) предназначаются для того, чтобы наложить этическое поведение на автономные машины. Во многих фильмах можно найти элементы этического поведения роботов, т.е. автономных машин, которые принмают решения, свойственные человеку. Так что же это — «свойственное человеку»?

В журнале “International Journal of Reasoning-based Intelligent Systems” была опубликована работа, которая описывает методы программирования для компьютеров, которые дают возможности машинам совершать поступки, исходя из гипотетических моральных рассуждений.

Работа называется – “Modelling Morality with Prospective Logic“

Авторы работы – Луиз Мониз Перейра (Luis Moniz Pereira Португалия) и Ari Saptawijaya (Индонезия) заявили, что “Этика” больше не является присущим только человеческой природе.

Ученые считают, что они успешно провели эксперименты, которые моделировали сложные моральные дилеммы для роботов.

“Проблема вагонетки” (The trolley problem) – такое название они дали дилемме, предлагаемой роботам для решения. И они считают что смогли запрограммировать в соответствии с человеческими моральными и этическими принципами человека.

“Проблема вагонетки” – моделирует типичную моральную дилемму – возможно ли навредить одному или нескольким людям, чтобы спасти жизни других людей.

Первый эксперимент.”Свидетель”

Вагонетка тянется вверх из туннеля автоматическим тросом. Почти в самом верху, трос обрывается и тележка летит вниз, а на ее пути находятся 5 человек, которые уже никак не успеют убежать, так как она едет слишком быстро. Но есть вариант решения – перевести стрелки и пустить вагонетку на запасной путь. Однако на этом пути находится один человек, который ничего не знает об аварии и также не успеет скрыться. Робот – стоит на стрелке и получив информацию об обрыве троса, должен принять моральное решение – что правильнее сделать в данной ситуации – дать умереть 5 людям, или спасти их и пожертвовать одним на запасном пути.

Допустимо ли, со стороны нравственности – переключить выключатель и дать погибнуть человеку на запасном пути? Авторами были проведены кросс-культурные исследования, в которых людям задавался тот же самый вопрос. Большинство людей во всех культурах соглашалось, с тем, что робот может перевести стрелку и спасти большее количество людей. И, собственно так робот и поступил. Сложность программирования заключалась в логике, которая не просто вычитает количество погибших, но также залезает в глубины морали. Чтобы доказать, что решение не так просто как кажется ученые провели еще один эксперимент.

Второй эксперимент. “Пешеходный мост”

Ситуация та же, что и в вышеописанном случае (обрыв троса), только нет запасного пути. Теперь робот находится на мосту, рядом с ним стоит человек. Прямо под мостом проходит путь, по которому, после обрыва троса, понесется вагонетка. Робот может толкнуть человека на пути перед вагонеткой, тогда она остановиться, или не делать ничего, и тогда вагонетка задавит пятерых людей, которые находятся на путях ниже.

Можно ли пихнуть человека на пути, чтобы спасти остальных с нравственной точки зрения? Снова ученые провели кросс-культурные исследования с этим вопросом и получили результат – НЕТ это не допустимо.

В двух вышеописанных вариантах люди дают различные ответы. Возможно ли научить машину мыслить также? Ученые утверждают, что они добились успеха в программировани компьютерной логики при решении таких сложны моральных проблем. Они добились этого, изучая скрытые правила, которые люди используют при создании своих моральных суждений и затем им удалось смоделировать эти процессы в логических программах.

В итоге можно отметить, что компьютерные модели переноса нравственности все равно используют, человека, как образ и подобие. Таким образом, во многом, от нас самих зависит, какими будут новые, ответственные машины, которые будут выносить те или иные решения на основе заложенных в их программы этических императивов.

Статья подготовлена Евгением euroeugene, который получил инвайт за эту, отклонённую в песочнице статью, от hellt, за что ему спасибо.

Следующая загадка

По-моему, никто не обратил внимания на особенность формулировки: убьете.

То есть, речь не о действии, которое может привести или даже с высокой вероятностью наверняка приведёт к смерти, а именно об убийстве.

В такой формулировке предполагается, что я (отвечающий) не только способен убить, но и считаю это эффективным способом.

Это значит, что я не "спаситель", вынужденный подвергнуть жизнь человека опасности или даже принести его в жертву, а убийца с нотками альтруизма. Не просто так убиваю, ради других.

Это не "проблема вагонетки". Это совсем другая "проблема" =))

Читайте также: