Пользователь
0,0
рейтинг
24 ноября 2009 в 20:43

Этика роботов — можно ли убить одного, чтобы спасти пятерых?

Я хотел рассказать об интересном эксперименте ученых, которые попытались запрограммировать культурные императивы морали человека в память роботов с целью проверить смогут ли они вести себя также как люди при принятии решений. Отмечу, что опыты довольно жестокие, однако, по другому оценить возможности искусственного интеллекта ученым представилось невозможным. Сегодня роботы разрабатываются для того, чтобы существовать автономно, без вмешательства человека. Как сделать так, чтобы полностью автономная машина – могла действовать в соответствии с моралью и этикой человека?

Именно этот вопрос положил основание проблемы – “Машинной этики”. Может ли машина быть запрограммирована так, чтобы она могла действовать в соответствии с моралью и этикой? Может ли машина поступать и оценивать свои поступки с точки зрений нравственности?

Знаменитые фундаментальные законы Айзека Азимова (Три закона робототехники WIKI ) предназначаются для того, чтобы наложить этическое поведение на автономные машины. Во многих фильмах можно найти элементы этического поведения роботов, т.е. автономных машин, которые принмают решения, свойственные человеку. Так что же это — «свойственное человеку»?

В журнале “International Journal of Reasoning-based Intelligent Systems” была опубликована работа, которая описывает методы программирования для компьютеров, которые дают возможности машинам совершать поступки, исходя из гипотетических моральных рассуждений.

Работа называется – “Modelling Morality with Prospective Logic“

Авторы работы – Луиз Мониз Перейра (Luis Moniz Pereira Португалия) и Ari Saptawijaya (Индонезия) заявили, что “Этика” больше не является присущим только человеческой природе.

Ученые считают, что они успешно провели эксперименты, которые моделировали сложные моральные дилеммы для роботов.

“Проблема вагонетки” (The trolley problem) – такое название они дали дилемме, предлагаемой роботам для решения. И они считают что смогли запрограммировать в соответствии с человеческими моральными и этическими принципами человека.

“Проблема вагонетки” – моделирует типичную моральную дилемму – возможно ли навредить одному или нескольким людям, чтобы спасти жизни других людей.

Первый эксперимент.”Свидетель”

image

Вагонетка тянется вверх из туннеля автоматическим тросом. Почти в самом верху, трос обрывается и тележка летит вниз, а на ее пути находятся 5 человек, которые уже никак не успеют убежать, так как она едет слишком быстро. Но есть вариант решения – перевести стрелки и пустить вагонетку на запасной путь. Однако на этом пути находится один человек, который ничего не знает об аварии и также не успеет скрыться. Робот – стоит на стрелке и получив информацию об обрыве троса, должен принять моральное решение – что правильнее сделать в данной ситуации – дать умереть 5 людям, или спасти их и пожертвовать одним на запасном пути.

Допустимо ли, со стороны нравственности – переключить выключатель и дать погибнуть человеку на запасном пути? Авторами были проведены кросс-культурные исследования, в которых людям задавался тот же самый вопрос. Большинство людей во всех культурах соглашалось, с тем, что робот может перевести стрелку и спасти большее количество людей. И, собственно так робот и поступил. Сложность программирования заключалась в логике, которая не просто вычитает количество погибших, но также залезает в глубины морали. Чтобы доказать, что решение не так просто как кажется ученые провели еще один эксперимент.

Второй эксперимент. “Пешеходный мост”

Ситуация та же, что и в вышеописанном случае (обрыв троса), только нет запасного пути. Теперь робот находится на мосту, рядом с ним стоит человек. Прямо под мостом проходит путь, по которому, после обрыва троса, понесется вагонетка. Робот может толкнуть человека на пути перед вагонеткой, тогда она остановиться, или не делать ничего, и тогда вагонетка задавит пятерых людей, которые находятся на путях ниже.

Можно ли пихнуть человека на пути, чтобы спасти остальных с нравственной точки зрения? Снова ученые провели кросс-культурные исследования с этим вопросом и получили результат – НЕТ это не допустимо.

В двух вышеописанных вариантах люди дают различные ответы. Возможно ли научить машину мыслить также? Ученые утверждают, что они добились успеха в программировани компьютерной логики при решении таких сложны моральных проблем. Они добились этого, изучая скрытые правила, которые люди используют при создании своих моральных суждений и затем им удалось смоделировать эти процессы в логических программах.

В итоге можно отметить, что компьютерные модели переноса нравственности все равно используют, человека, как образ и подобие. Таким образом, во многом, от нас самих зависит, какими будут новые, ответственные машины, которые будут выносить те или иные решения на основе заложенных в их программы этических императивов.

Статья подготовлена Евгением euroeugene, который получил инвайт за эту, отклонённую в песочнице статью, от hellt, за что ему спасибо.
Андрей aka Krot @myphon
карма
32,2
рейтинг 0,0
Реклама помогает поддерживать и развивать наши сервисы

Подробнее
Реклама

Самое читаемое

Комментарии (446)

  • +9
    Перенесите в Skynet (:
    • 0
      А если по одному человеку с каждой стороны?
      Что делать роботу?
      ;-)
      • +3
        Наблюдать как человеки умирают.
        • 0
          Зависнуть! :-)
      • 0
        смерть человекам!
  • –1
    Интересно, думаю правление роботов не за горами.
    • НЛО прилетело и опубликовало эту надпись здесь
  • –36
    Видимо все силы были брошены на рисование рисунка (убогого чуть менее, чем полностью) дял первого случая, поэтому рисунка ко второму случаю не предполагается (слишком сложная ситуация о_О ?)
    • +8
      без рисунка разобраться не смог?)
      • –12
        Видимо не так выразился, но подразумевал я, что смысла автору статьи не было в рисовании такого убогого рисунка в паинте вообще, ни для первого, ни для второго случая.
        PS: В рисунке рычаг вообще на рычаг не похож, а на человечка с писюном :(
  • +33
    что если тот один человек это эйнштейн а остальные пять это гитлер, сталин и ещё трое неизвестных наркоманов:) боюсь у робота микросхемы сгорят.
    • +7
      Тоже так подумал. Не только количество важно. Пятеро — алкаши, у одного семеро детей, жена умерла. Такой вариант не проходит.
      • +11
        И у алкашей рождаются Бетховены, простите за банальность. У одного семеро детей и жена умерла-шахид.
        • +1
          В голову приходит только введение весовых коэффициентов, но как принимающему решение знать эти коэффициенты не имея длительного контакта с каждым из возможных потерпевших?
          И тогда простое и жестокое решение --введение чипа на который и записывать этот ВЕСОВОЙ коэффициент (возможно перепрограммируемы или изменяемый с течением времени исходя из сведений из общей базы), далее спутник, связь спуника с принимающим решение\роботом.

          Какие еще варианты?
          • +11
            С такой логикой не вживляя никаких чипов можно как минимум 50% населения Земли свалить в биореактор.
            • –1
              Вопрос какие 505 :-\
              • 0
                %
                • –1
                  Решение этого вопроса можно предоставить опять же роботу: каждый человек получает порядковый номер (паспортные данные тоже сойдут), затем с помощью генератора случайных чисел происходит выбор :)
            • 0
              Иногда я тоже этого хочу )
          • +1
            Введение коэфициентов определяющих право человека на жизнь идет в разрез с конституционными нормами демократических стран. По конституции каждый имеет право на жизнь. Равное право.
            • 0
              признаться, с точки зрения логики (несколько упрощенной точки зрения, впрочем), человек со статусом доктора наук имеет большее право, чем некий безработный бомж-алканавт.

              вообще, человеки давно уже занимаются выработкой некой морально-этической парадигмы, в которой жизнь одного человека боле ценна (для общества), нежели другого.
              но.
              учитывая эгоизм, алчность, коррумпированность и формализм, столь свойственные большинству людей, при определении  «ценности» не избежать спекуляций.

              жалкие людишки!
    • +16
      а если один человек беременная женщина, а пятеро других — смертельно больны… вариантов много
      Даже на первый простой эксперимент с вагонеткой я бы не смог дать однозначного ответа, но роботу проще — его потом совесть(или кошмары по ночам) мучить не будут
      • +5
        Откуда вы знаете, может быть в голове робота будет Intel conscience какая-нибудь… :)
      • +2
        Пожалуй, всё зависит от полноты имеющейся информации.
      • 0
        А в AI у Спилберга (кажется) ему снились сны…
      • 0
        Я думаю, заморачиваться на эту тему малоосмысленно — скорее всего, человек, стоящий у рычага, вряд ли знает лично всех участников конфигурации. Просто видит — ага, там пять, а тут один.
        • 0
          Любопытно то, что совесть будет мучать человека стоящего у ричака в любом случае. Выбири он одного или выбери он пятерых. Или не выбери ничего.
          Или не будет?
          • +1
            Если будет мучить убив одного и спася пятерых — то он больной и пусть сам останавливает тележку своим никчемным трупом :)
            • 0
              по логике вроде так, но если вспомнить что тот один кого он задавил — это его школьный друг, вместе с которым он первый раз в жизни пил пива… и вот теперь его уже больше нет…
              • 0
                Тогда пятерых пусть под вагонетку :) И это будет правильно.
                Я о том, что при любом выборе умрут люди, а значит совесть пусть спит спокойно.
                • +1
                  А один из тех пяти — это теща, стрелочника. И хоть она и пилит его по вечерам, но как потом в глаза жене смотреть. Как объяснить потом жене, почему оставил жизнь другу, а не ее матери.
                  Жизнь не простая штука…
                  И запрограммировать в робота все то хитросплетений эмоций, которое движет людьми разве можно?
      • 0
        «Снятся ли роботам электрические овцы?»
    • +2
      Моррисон, Кобейн и Джими Хендрикс, к примеру?
    • +1
      Проблема не в этом, а в том, что наши моральные принципы меняются быстрее чем логика машин. Сегодня коммунист — это плоха, а вчера — хорошо. Как это объяснить машинам?
      • +5
        Пропатчить?.. Звиняйте, не сдержался :)
      • +2
        Через систему обновлений.
      • НЛО прилетело и опубликовало эту надпись здесь
        • 0
          причем непонятно, является ли выборка людей, которых тестировали актуальной и можно ли их считать представителями человечества вцелом?
          тут впринципе непонятно, что вшивают в робота %)
      • +6
        Проблема в том, что если у роботов будет человеческая этика, то они нас всех перехерачат ради денег.
    • +10
      да какая разница? тем пяти человекам просто не повезло, почему должен страдать тот которому не угрожает смерть?
      • +3
        минусующим просьба пояснять свое несогласие.
        хотели бы вы оказаться на месте того человека, которого робот принесет в жертву ради жизни других?
        • +2
          во, первый здравый коммент по делу. тоже захотелось задать всем этим согласившимся убить одного — чтобы они сказали если бы это были они.
          • 0
            да то же самое и сказали бы.
            А что бы вы сказали, если бы находились среди этих пяти?
            • +1
              если исходить из постановки задачи — эти пятеро понятия не имеют что их можно спасти ценой жизни другого человека. мое мнение — если должен умереть я — значит такова моя судьба. лично я был бы против спасения своей жизни ценой жизни другого человека.
              • 0
                чаще всего так и происходит. допустим вас спасают из под обвала и человек, который вас спас остается под завалом сам.
                но что самое интересное, если бы спасателю сказали, что он может не идти в завал спасать вас и что он гарантированно погибнет в нем, он всерано пойдет.
                склад ума у человека другой, именно такие люди могут бросится под вагонетку, чтобы спасти других.
                тут настолько всё сложно, что думаю роботам просто нестоит такое внедрять в роботов.
                думаю им стоит внедрить просто правило, что они обязаны собой защитить ВСЕХ находящихся в опасности людей и точка
                выбор кому погибнуть должен стоять не для людей, а для роботов
                • 0
                  читайте условие задачи — человек не знает, что на него наведут вагонетку ради спасения других. несколько различается от спасателей и брюсвиллисом, спасающим планету.
              • 0
                А почему судьба у вас выступает только исключительно в роли сорвавшейся тележки, а не в виде робота или кого-то ещё, кто передвигает стрелки?
                Ну вот просто не повезло тому одному, что он оказался на отдельной ветке, и что робот был так запрограммирован, или что я считаю долгом спасти как можно больше людей.

                >>против спасения своей жизни ценой жизни другого человека
                ключевой момент — спасение ПЯТИ жизней ценой жизни ОДНОГО другого человека
                • 0
                  давайте не будем спорить, ладно? тут сложные моральные принципы, и у каждого из нас они разные. мое личное мнение — недопустимо спасать 5 жизней ценой одной, просто так, без согласия этого одного.
      • НЛО прилетело и опубликовало эту надпись здесь
        • 0
          Своего ребенка нормальный родитель будет защищать как себя самого.
          • НЛО прилетело и опубликовало эту надпись здесь
          • 0
            Я хоть и считаю все это полным бредом, но немного влезу…

            А что если на обоих чашах (читай путях) будет по ребенку. что делать родителю, как оценивать кто лучше/хуже. Кого оставить, а кого погубить. Я думаю мужское население, просто будет дергать рычаг туда сюда, полагаясь на судбьу… Или нет, не знаю, сложный вопрос, а может погибнуть самому и оставить второго ребенка/жену без отца/мужа.
            А что делать женщинам с их материнским инстинктом, я думаю они умрут раньше…

            Как я и сказал в начале, все это бред какой-то.
            Нужно сравнивать не робота с человек, а робота с ребенком. У ребенка лет 5-7 нет моральных принципов, нет религиозных пристрастий. Как можно
            • 0
              Как можно сиюминутно создать подобие человека, когда мы до нашего состояния (физического и морального) жили 20/25/30/35 и т.д. лет.
      • 0
        Всё относительно. Изначально не повезло всем шести, т.к. вагонетка может ехать по обоим путям. Вопрос в том, где в итоге будет стрелка.
    • +1
      Сами попробуйте посчитать вероятность этого. Гитлер и Сталин вместе не пойдут в шахту, тем более с неизвестными наркоманами!

      А по делу, из шести неизвестных людей гением с равной вероятностью может оказаться любой из них. И как раз в группе из пяти человек гений окажется с вероятностью в пятеро большей, чем в группе из одного.
      • 0
        не уверен что тервер здесь вообще применим. согласно терверу вполне допустимо чтоб в 100 случаях с вагонетками погибло скажем 16 эйнштейнов, но с точки зрения человечества это может быть абсолютно недопустимо.
        • 0
          А как вы узнаете, Энштейн одиноко стоит на левой ветке или в группе из пяти на правой? Как вы будете решение принимать?
          • 0
            если не существует возможности узнать кто где, то и вопроса нет, решать придется как робот из топика. Вопрос в том как решать если известно кто где находится. как можно оценить ценность людей, скольких человек стоит эйнштейн и имеет ли значение кто эти другие. Интересно стоит ли эйнштейн резерфорда или двух, а может наоборот и т.д.
            • 0
              О да, тогда задача не имеет решения:
              На одной ветке Энштейн, на другой Резерфорд и четыре лаборанта.

              А вдруг Резерфорд завтра собирается поставить эксперимент, который приведет к открытию холодного ядерного синтеза?
              А вдруг Энштейн уже почти придумал Великую Объединенную Теорию Всего, но сам ещё не знает об этом, его завтра осенит?

            • 0
              В мире слишком мало Энштейнов, чтобы набрать статистику придумывания ими гениальных теорий, на основе которой можно было бы решать такие задачи.
      • +1
        Не, гений в шахту не полезет.
        • +4
          Если в шахте больше вероятность что встретится дебил, а не гений, то надо давить тех, кого больше.
        • +4
          В одном из тупиков Бобшого Андронного Калайдера сорвалась вагонетка… На одной развилке — нобелевский лауриат, на другой — румынские госарбайтеры… Что это меняет?
          • +1
            Да, без смайликов люди шуток уже не понимают.
            • 0
              тут вообще жесткий черный юмор везде разлился, хз кто шутит, а кто всерьез
    • –3
      Сталина в ряд с Гитлером и наркоманами?
      Дибил, иди учи историю.
      • 0
        сталинист детектед:) я уже почти не надеялся.
    • 0
      Это не важно. Для роботов все люди должны быть одинаково ценны. С точки зрения морали, даже людям, нельзя делить других людей на высших и низших граждан. Если бы это было так, то за убийство наркомана у нас бы предусматривалось другое наказание, чем за убийство добропорядочного человека. Но в УК написано «убийство человека», т.е. главное что это «человек».
      • 0
        а ещё в ук есть убийство милиционера, судьи, беременной, беспомощного, матерью своего новорожденного ребенка и т.д. и наказания предусмотрены разные. так что даже наш кристально чисты УК…
        И потом необходимость деления людей в любом случае возникнет если, например, надо укрыть m людей от ядерной войны, а укрытие рассчитано только на n=m/1000 людей, кого в первую очередь надо поместить в убежище — всех подряд или руководство страны, наиболее важных ученых и наиболее здоровых людей готовых к продолжению рода? будет ли моральным посылать в убежище всех подряд если это грозит дезорганизацией, хаосом, невозможность восстановить популяцию после катастрофы и в конечном итоге исчезновением человечества? или моральнее все же будет разделить людей на достойных и не очень? полагаю принципы гуманизма, работающие в обычной жизни, не подходят в кризисной ситуации.
        • 0
          Конечно люди неравны. И когда идёт речь о выживании человечества, это неравенство нельзя не учитывать. Другое дело, что с точки зрения морали делить людей на хороших и не очень — плохо. Мораль говорит нам как жить правильно, но она не является частью фундаментальных законов вселенной, она создана людьми. Реальность несовершенна, несправедлива и.т.д. Другими словами мы живём в реальном мире, а мораль нам говорит как в идеале должны поступать люди. И пока это противостояние актуально, жить на 100% исходя из моральных принципов невозможно, но нужно к этому стремиться.
    • 0
      Всё дело в том, что машины не способны действовать в отсутствии неполноты информации, находить так называемые инварианты (расплывчатые решения). Например если заложить в алгоритм действия робота систему оценок каждого человека, и скажем об одном (одном из пяти) стоящих на рельсах он ничего знать не будет, а сверху всё также Эйнштейн а остальные четверо наркоманы. Что он будет делать? Очень интересная проблема. Станислав Лем в «Сумме технологий» говорил о том, что шахматисты, которые находят инварианты, находят их на до языковом уровне, т.е. не способны описать словами метод выбора. А меня мой преподаватель по алгоритмам учил, что то, что нельзя описать естественным языком нельзя и описать алгоритмом. Вот такая мне представляется дилемма.
  • +54
    Думаю в случае второго эксперимента робот сам должен броситься под колеса вагонетке.

    И вообще я считаю что любого робота нужно программировать исходя из того, что человеческая жизнь ценится намного выше его механической целостности.
    • +17
      Роботом может быть компьютер управляющий механизмами в шахте, который не сможет сдвинуть себя с места. Тут вопрос этики, подразумевается, что есть только 2 решения.
      • +15
        Из стены высовывается рука и толкает человека на рельсы.
        • +15
          … на конвейер АвтоВАЗа.
          • +3
            господи, ужас какой
          • +2
            За это и жизнь отдать — не грех!
        • 0
          смешно, но не в тему :)
        • 0
          Сюжет для фильма ужасов)
      • 0
        да хоть тресни есть больше чем два решения.
        если к ситуации цинично подойти, зачем вообще что-то решать? пусть стрелка указывает, туда куда и до этого указывала

        а робот должен из стойки вылезти и процессором полечь, чтобы всех шестерых спасти

        ЗЫ и почему вагонетку с рельсов не свести?
    • 0
      Согласен. У людей есть понятие 'самопожертвование'.
      • 0
        append: логично было бы запрограммировать и его, коль скоро решаются вопросы этики.
    • НЛО прилетело и опубликовало эту надпись здесь
      • НЛО прилетело и опубликовало эту надпись здесь
        • +3
          все != вам
      • +1
        Три закона никак не решают этих задач, следуя им робот (если он не может двигатся) зависнет на первом выбирая между действием или бездействием.
        Или вы не о трех законах?
        • 0
          решают, просто в тех статических задачах, которые нам дали на суд нет жизни. да и даже в них можно найти решение, чтобы спасти всех
    • 0
      По условиям, остановить вагонетку может только толстый рядом стоящий человек (робот), а не хилый наш несчастный человек (робот), принимающий решение.
    • +6
      Видимо, в эксперименте робот очень хотел сам броситься под вагонетку, но злые экспериментаторы слишком хорошо его приварили к мостику. Робот со слезами на глазах столкнул человека на пути, но выводы о морали экпериментаторов сделал. Экспериментаторы это понимают, и боятся подойти к нему: как-то нехорошо у него объективы блестят, да и зачем он взял в свои манипуляторы ту железную арматурину?
  • +2
    Очень интересная статья. Но тему интересно развить. Например, в Космической Одиссее 2001 есть такой момент — бортовой компьютер «сходит с ума» и расправляется со всеми людьми на борту, так как они представляют угрозу для миссии. На самом деле это никакое не «схождение с ума», а вполне себе легитимный сценарий развития этой темы. Робот может закончить миссию. У людей появляются сомнения. Робот их нейтрализует, так как для заказчика миссии результат, вероятно, важнее, чем жизни нескольких пилотов. Т.е. мораль переходит в коммерческую плоскость. Сколько стоит мне миссия? Это больше, чем жизнь пилота?
    • +2
      Насколько я помню, а я как раз недавно прочитал первую одиссею, там у ЭАЛ9000 была друга проблема. «Все трудности, вероятно, были вызваны противоречием между основными принципами работы ЭАЛа и требованиями секретности. Согласно прямому
      распоряжению президента существование объекта ЛМА-1 сохранялось в полной
      тайне.… Поскольку ЭАЛ способен управлять кораблем без помощи людей, было
      решено запрограммировать его так, чтобы он смог выполнить задание, даже
      если экипаж будет выведен из строя или погибнет. В ЭАЛ была введена
      полная информация о целях экспедиции, однако было запрещено сообщать ее
      Боумену или Пулу.Но главная задача любого компьютера — обработка информации без искажения и утаивания. Из-за создавшегося противоречия у ЭАЛа возник,
      выражаясь языком медицины, психоз — точнее, шизофрения. „

    • +9
      а вот в только что вышедшем Луна 2112 робот, наоборот, позитивный и помогает людят.
      • +9
        уже не совсем людям ;-)
        • НЛО прилетело и опубликовало эту надпись здесь
          • 0
            По-моему, вполне очевидно, что белковый шовинизм (я человек, а ты нет) ничуть не лучше любого другого.
            • 0
              а как насчет кремниевого шовинизма?
              • 0
                и он ничуть не лучше любого другого, что следует из моей предыдущей реплики :)
          • +2
            Обожаю споилеры.
        • +1
          судя по поступкам и общему, так сказать, посылу фильма — именно что людям
    • +1
      При чем здесь «легитимность»?
      • 0
        Как выясняется, ни при чем.
  • +1
    Только пока за пультом обычно сидит человек. Который в таких критических ситуациях должен принять решение. Вся эта этика-автоматика не выйдет за рамки лабораторий до тех пор, пока законодательство и общество не придумает на кого переложить ответственность в случае убийства человека роботом. Ибо, если я не ошибаюсь, смерть того одного несчастного юридически будет считаться убийством. И пока общество не будет готово к тому, что на скамье подсудимых будет сидеть робот самостоятельности в принятии таких решений не будет.
    • 0
      И в тюрьме сидеть тоже будет робот. Глупости какие. Если в смерти человека виновата автоматика, разбор полётов идёт дальше, выясняя, что именно стало тому причиной: нарушение условий эксплуатации, конструктивный недочёт, производственный дефект etc. В конце цепочки всегда кто-то находится.
    • 0
      Этот вопрос решён если я не ошибаюсь в римском праве :)
      Владелец, это правило и сегодня теоретически действует в России, вероятно и большинстве европейских стран
    • 0
      Ваш комментарий натолкнул на следующую идею:
      В тот момент, когда робот понимает, что перед ним стоит моральная задача, касающаяся жизни людей,
      все информация о контексте и, соответственно, выбор решения (управление самим роботом) передается ответственному за этого робота человеку.

      Это накладывает ряд ограничений:
      — должен быть отложен выпуск человекоподобных роботов с интеллектом и свободой действия до того момента, пока люди не научатся передавать и усваивать огромные массы информацию в очень короткие сроки.
      — связь со своим подопечным роботом должна быть практически моментальной, чтобы можно было успеть принять решение
      — человек не должен иметь в своей ответственности более одного (двух) роботов, чтобы не возникло коллизий, способных привести к человеческим жертвам.

      Однако это будет решение. Иного, как мне кажется, не может быть, так как невозможно роботу заложить гуманистическую составляющую (называемого «совестью», «душой», а не «социомораль»), которым обладает человек, ибо составляющая иррациональна.
      • 0
        Если люди «научатся», то роботы и прочие «мыслящие компьютеры» будут излишни.
        • 0
          Физическая, рутинная работа, которую не захочется выполнять будет всегда. А вместе с ней и будет желание, чтобы эту работу делал кто-то иной, к примеру роботы.
          • 0
            Для рутинной работы не нужны «мыслящие компьютеры». Обычного конвейера вполне достаточно.
            • 0
              В этом Вы правы. Тогда и можно посоветовать ученым и не браться для создания человекоподобных роботов со свободной волей, ибо при попытке перенести такие морально-философичные понятия в робота, ошибка точно гарантирована. И получим мы либо машину стремящуюся захватить всю власть, ибо так «для людей будет лучше»; либо суицидников; либо махину с кучей ошибок в логике.

              Хотя есть пример, где свободная воля все-таки нужна:
              — обследование территории, где человек не может существовать или его присутствие очень дорого в тех плане, где необходимо реагировать «по ситуации».
  • 0
    Про пешеходный мост пример. А зачем толкать человека на путь вагонетки если можно запрограммировать робота самого под него прыгнуть? Или уже прививаем им инстинкт самосохранения заранее?
    • 0
      Видимо для того, что бы показать, что человек действует не логично, и в одних условиях готов пожертвовать одним что бы спасти нескольких, а в других нет.
      • +9
        Весь секрет в постановке задачи.
        В первом случае нужно ВЫБРАТЬ кому умереть, а во втором УБИТЬ ради спасения других. Несмотря на то что по логике это одно и тоже, второе сделать сложнее с эмоциональной точки зрения.
        • 0
          Спасибо, а то я все никак не мог понять, в чем соль.
        • 0
          Мы о роботах же? ) Так вот у робота эмоций быть не должно. И нарушать один из законов роботехники, т.е толкать человека на рельсы, то только в случае если робот ограничен возможностях (как уже привели пример — будет не робот а просто автоматическая рука (хотя зачем руке искусственный интеллект я так и не понял до конца).
          А если робот «полценный», то логика «я скину человека, а не прыгну сам» выгодна только его производителям. Правильнее же будет ему самому прыгнуть.
          • 0
            Допустим, ИИ управляет не только рукой, но некоей большой системой, одним из манипуляторов которой является эта рука — единственный инструмент, которым можно как-то повлиять на данную ситуацию. Так лучше?

            Кстати, «законы робототехники» пока нигде не кодифицированы.
            • 0
              Лучше.
              А законы роботехники… они исходят из обычного здравого смысла и логики. А вот они кодифицированы уже давно :)
              • +4
                ссылку на кодифицированный здравый смысл, пожалуйста!
                • +1
                  думаю, надо будет эту прошивку правительству внедрить, а то они помоему с устаревшей )
          • 0
            «Так вот у робота эмоций быть не должно» — хотелось бы чтобы биохимики меня поправили, но эмоции, мысли, желания и любой продукт деятельности мозга — лишь сформированные нейронные связи, электрические импульсы и изменение в гармональном составе? Т.е. фактически на физическом и программном уровне возможно повторить (конечно не на 100%) работу мозга.

            Повторю г-на EvilPartisan, но суть была в том, чтобы робота принять за человека и заставить принять человеческий поступок, а ведь самопожертвование характерно далеко не каждоу человеку.
        • 0
          В статье, к сожалению, не раскрывается принцип, по которому робот принимает решение во втором примере. Было бы весьма небезынтересно ознакомиться.
        • +3
          Если вдуматься в первый случай, решив отправить вагонетку на запасные пути, робот делает совершенно тот же самый выбор: бездействовать или убить человека. Какая разница: бросают человека под вагонетку или вагонетку направляют на него? Нужна ли роботам эта этика? Не лучшим ли вариантом будет бездействие с его стороны? Судьба, так сказать. Да, погибнет пятеро, но зато никто не вмешивался в ход событий. Может это и к лучшему.
          • 0
            Не судьба, а баг. А если робот как-то отреагирует — этот баг уже будет признан фичей и пущен дальше. Чего допускать ни в коем случае нельзя.
            • 0
              Особенно, если это баг не самого робота, а какой-нибудь сторонний (внешней системы управления вагонетками, например). Тогда совершенно однозначно, что робот не должен корректировать проблемы других систем, не входящие в его компетенцию.
          • 0
            Вот повод для размышлений: профессия телохранитель.
            Человеку в лучшем случае ни за что, зато с точки зрения нанимателя человек возьмет на себя пулю, предназначающуюся работодателю. В худшем случае что делать бодигарду?

            Опять же, если кто смотрел фильм «Смерть в эфире», [spoiler]в нём в прямом эфире на шесть человек даётся одир револьвер с одним патроном, один раз вращается барабан — и люди по очереди стрелляют себе в голову (русская рулетка). Если бы пять человек получили осечку, что делать шестому?[/spoiler]
            • 0
              Да, но телохранитель остальное время получает деньги за тот момент, когда будут стрелять. А могут и не стрелять. Он сам идет на риск.

              Если вращается на 1 шаг, то да. А если просто раскручивают — то отсуствие выстрела даже в 10 случаях ничего для 11-го не меняет, мне так кажется.
          • +5
            Для человеческого разума сбросить с моста и перевести стрелки кажутся выглядят неравноправными действиями.

            Мой мозг мгновенно принимает решение, что перевод стрелок гарантированно спасет пятерых, а у человека на запасном пути есть шанс отпрыгнуть. Сбросить же человека на пути выглядит ненадежным вариантом: во-первых, можно сбросить слишком рано и он успеет уползти, во-вторых, если замешкаться, он покалечится, а пятеро все равно погибнут. И самый главный останавливающий фактор — а почему тело одного человека затормозит вагонетку? Ведь она способна убить пятерых, не ограничиваясь только одним из них.

            Эти рассуждения могут показаться нелепыми, но человеческий мозг приходит к этим выводам подсознательно и мы инстинктивно чувствуем второй вариант более жестоким.
            Робот же должен действовать беспристрастно — позволить тележке задавить пятерых, а затем догнать и застрелить шестого.
            • +1
              Рассказ о вагонетке-убийце можно положить в основу какого-нибудь фильма ужасов, да.
              • 0
                100 раз было.

                В старой серии twilight zone на корабль, который вез лекарство пробралась девочка.
                Горючее ограничено, и с нею корабль не сможет сделать необходимых маневров. Без пилота он не долетит.

                Они долго пытались выкинуть лишние детали, но не помогло — перевес 20 кг.

                А что бы вы сделали на месте пилота? А на ее месте?
            • 0
              Шестого застрелить, чтоб никому обидно не было? :)
              • –1
                Да, так будет справедливо :)
        • 0
          Кэп, ты?
    • +5
      А если робот состоит из прибитой к стене руки-манипулятора? И он не может броситься, но может бросить.

      Начальные условия эксперимента таковы, что робот броситься не может.
      • НЛО прилетело и опубликовало эту надпись здесь
        • +11
          Надо предложить в метро сделать систему экстренного торможения людьми. :-)
        • +1
          стоит себе спокойно рабочий, чинит рельсы… тут черная рука переключает свитч и его убивает вагонеткой. не вижу разницы, если честно. что так что так убить человека ради жизни 5х. как по мне если уж в 1м случае так делать, то и во 2м. иначе ни то, ни то, лучше бездействовать.
          • +1
            Если мы моделируем именно человеческую мораль, то разница огромна. В первом случае мы взаимодействуем с механизмом (рычаг), чтобы спасти 5 человек. Т.е. собственноручно вроде как человечка не убиваем. Во втором же случае у нас идёт прямой контакт с будущей кровавой кашей. Мы убиваем его намеренно, лицом к лицу, можно сказать. Это совершенно разный уровень восприятия ситуации.
            • +2
              странно, для меня один и тот же уровень. и то и то убийство, пусть и чтоб спасти кого-то
              • 0
                Для большинства людей всё-таки разный. В первом случае мы спасаем пять человек взаимодействуя с рычагом, а во втором убиваем одного взаимодействуя с человеком. В первом случае мы меняем ситуацию не трогая самого человека. Мы просто спасаем 5 человек, но получается так, что от этого гибнет один. Во втором случае мы меняем ситуацию с помощью убийства. В первом случае мы сначала спасаем 5 человек, а затем 1 убирает, а во втором нам надо сначала убить, чтобы потом спасти. Всё-таки с точки зрения морали это разные ситуации.
                • 0
                  Вообще-то убить, либо допустить бездействием смерть человека — это одно и то же как для «3-х законов», так и для законов УК=) Таким образом, бездействие — тоже убийство!
                  • 0
                    Вообще-то тут речь идёт не о законах УК, а о моральных установках. Так что бездействие это не всегда убийство.
                    • 0
                      По-моему, одинаково аморально как убить человека, так и допустить своим бездействием его смерть. Разве нет?
                      • 0
                        Вы вообще топик читали или пришли просто поспорить про аморальность убийства?
                        Бездействие в обоих случаях, описанных в топике, приведёт к смерти 5 человек, а действие к смерти 1 человека. Тут выбор идёт между смертью и смертью. Сложный выбор. Как не поступи — получается аморально. Но если мы «действуем», то во втором случае получается «аморальнее» убить одного, чем пятерых.
                        Такое моё мнение, и оно запросто может расходиться с вашим, потому что мораль у каждого своя.
                        • 0
                          Я согласен, что мораль видимо у каждого своя. Но все же попытаюсь объяснить почему я решил иначе: для меня бездействие это тоже действие. Кстате, в курсе права, есть интересный вопрос про мораль и законы. Так вот законы строятся на моральных принципах. Так что зря вы так… Получается, что с точки зрения законов вы не правы, а сточки зрения вашей морали — вполне. Извините, если обидел.
      • –1
        А зачем руке-манипулятору интеллект? В особенности размышления на тему жизни и смерти людей?
        Если были условия эксперимента что робот не может броситься под вагонетку то смысл от этого робота?
  • +6
    Вот так и рушатся законы робототехники, не успев выйти со страниц фантастики в реальную жизнь…
  • 0
    Я могу задать вопрос проще
    Человеку нужна операция, очень сложная, шанс выжить 50%. Без операции человек умрет с вероятностью 50%.
    Должен ли робот-хирург делать операцию?
    • +2
      В данном вопросе даже человеку сложно принять решение.
      • +11
        В Хаусе есть жестокая довольно-таки серия. Два младенца больны одной и той же болезнью. У Хауса два предположения. Лечение в двух случаях диаметрально противоположное. Вместо того, чтобы выбирать каким способом лечить, Хаус дает одному младенцу одно лекарство, а другому другое.
        • –13
          Кино не смотрел, описанная ситуация говорит мне лишь о не профессионализме врача.
          • +7
            То есть, по-вашему, 2 потенциальных трупа — лучше, чем один? Странно. Бывает, что у людей нет выбора :(
          • +6
            Ваш комментарий излучает врачебный профессионализм.
          • +1
            какое решение предложили бы вы?
            • –5
              Я ведь написал, что не смотрел. Прочитал ниже, что написал bogus92, в таком случае считаю, что он поступил правильно. Но это учитывая, что он не знал правильного решения, но врачи должны знать пути спасения людей, так как все болезни описаны и исследованы, за редким исключением, очень редким.
              Или Вы считаете нормой прийти в больницу и стать участником эксперимента? Я — только в случае если болен действительно никому не известной, смертельной болезнью. И то не считаю, что у врача может быть «два предположения».
              • +1
                Порой не так легко понять чем именно болен человек и другого выхода, кроме как эксперимент, нет
              • 0
                Дело в том, что Вас ввёл в заблуждение первоначальный комментарий imwode, в котором было написано:
                Два младенца больны одной и той же болезнью

                Дело в том, что это неверно — у обоих младенцев были лишь одни и те же симптомы, а как раз-таки узнать, чем они больны и являлось (впрочем, как и всегда является) задачей Хауса — он возглавляет диагностический отдел :)
        • +10
          На самом деле там начиналась эпидемия и таким способом он дав умереть одному ребенку спас 5 других детей.
          • +14
            Хаус — робот!!! О_о
            • –2
              Начиная с шестого сезона видимо? Именно поэтому викадин перестал принимать?
              • –2
                викодин — топливо, перешел на солнечные батареи (:
                • –1
                  викодин запретили там слишком много парацетамола — печень отпадает
        • –1
          1ый сезон, четвертая серия, емнип.
        • –2
          сериал про хауса ближе к робототехнике или к любой другой области человеческой деятельности, чем к медицине
          серию не смотрел но на практике выбрал бы оба препарата обоим пациентам, да и в реальности не возникает таких четко разграниченных ситуаций
    • +2
      Ну для большинства это не проще. Проценты они сложны для понимания.
      И ответы могут быть разными. Если роботу хирургу оплатят эту операцию — то да. Если есть очередь из нескольких больных и некоторым операция повысит шанс на выживание, то должен обслужить их в первую очередь. И вообще все это должно быть прописано в ТЗ к роботу.
      • +1
        Про ТЗ к роботу — отлично :)
    • +1
      Странное условие, ведь если робот сделает операцию — никто ничего не теряет, те, робот будет делать её даже при шансах близких к нулю.

      Иными словами, ваша задача не имеет смысла.
      • 0
        Кто-то может потерять последний год жизни, к примеру.
    • +2
      Я думаю, что если шанс 50\50, то решать должен тот, кому делают операцию, либо его близкие родственники.
    • 0
      Ключевые слова — «сроки» и «состояние». Рассматривать следует совокупность этих факторов в следующих ключах: насколько долго проживёт человек без операции при том или ином исходе, и каково будет при этом его состояние; насколько улучшится состояние пациента при успехе операции, и сколько и как он сможет в итоге прожить.
    • 0
      в данном вопросе вообще непонятно зачем такая операция нужна. Она какой-нибудь профит вообще приносит?
  • +1
    На эту тему есть жуткий видик
    А как бы вы поступили?
    • 0
      Это да, ну вот как тут сделать выбор в такой ситуации?
    • НЛО прилетело и опубликовало эту надпись здесь
    • +1
      Я бы сына спасал. Остальные побоку.
      • +1
        Если честно я бы тоже ) Случиться с поездом что-то могло еще по миллиону причин — корова на путях, машинист уснул итп… да и ниче — искупался бы народ, попадал с полок… но кто-нибудь бы да выжил )
        Но вот так вот добровольно взять и обречь себя мучаться всю оставшуюся жизнь — да ну нафиг )
        Но и за детьми надо следить — они такие дети...)
        • +1
          Да, следить надо.
        • 0
          мучаться будешь в любом случае. еще не известно от какого решения больше.
          я б тоже спасал сына, даже не задумался бы. но что-то мне подсказывает что независимо от решения оставшуюся чать жизни я б в дурке провел
      • –1
        Я бы тоже. Сын тисячу раз дороже, чем даже тисячу человек. Потому что он сын. Мой сын. А людей еще будет и будет. Пусть жестоко, но жизнь других никогда не сравниться с жизнью родных.
        • 0
          Вот и я говорю — нету тут для меня делеммы.
    • НЛО прилетело и опубликовало эту надпись здесь
    • 0
      Корейские титры и славянский язык?!..

  • 0
    Я вот считаю что оба варианта допустимы…
    Хотя конечно нужно учитывать ценность того кто стоит на мосту и тех кто на кого едет вагонетка.
    Допустим если они равноценны, то можно на 100%
    Если на мосту стоит человек важный и нужный то нет…

    Машинам такого не понять до тех пор пока сами люди не договорятся между собой.
    Кроме того нужно учесть что мало кто говорит то что думает.
    Сегодня ядом стала толерантность а не нетерпимость как когда-то
    • +1
      А важный и нужный для чего? Для какой-нибудь корпорации, из-за того, что приносит деньги? Или для троих детей? Или хотя бы для себя самого?
      Мне кажется, решение броситься на рельсы или нет, должен принимать сам «герой». Иначе это выглядит примерно как один человек столкнет другого, чтобы спасти жизни остальных…
      • НЛО прилетело и опубликовало эту надпись здесь
      • 0
        Вот как раз «важность» человека роботу легко просчитать.

        Представьте что нужно спасти или совет директоров General Electric или одного из уборщиков этой компании.
        Смерть совета сразу может повлечь серьёзные нарушения в работе, которые приведут к убыткам а убытки к увольнению десятков тысяч «простых» людей потеря работы для которых равносильна меленой смерти.

        Если говорить о социально равных людях, то спасать надо более здоровых, молодых.

        Человеку просчитать всё это сложно а вот роботу просто.
        • +1
          Я, наверное, просто из тех, кто ответил бы «нет» на второй вопрос:)
          Я бы не стал убивать уборщика ради совета директоров. И я бы очень сильно подумал перед тем, как убивать ничего не значащего для меня _невиновного_ человека для того, чтобы предотвратить несчастный случай, даже если его потенциальными жертвами являются дорогие мне люди.
          Логика робота сведется к минимизации финансового ущерба, но это соизмеримо с убийством за пусть даже очень большую сумму денег. Жизнь, какой бы «ущербной» она ни была, не может быть измеряна деньгами. Все субъективно. Для кого-то уборщик — незначительная фигура в сравнении с советом директоров, но кто он такой, чтобы давать себе право убивать ради предотвращения несчастного случая. Да и тот же бедный уборщик не подписывал в договоре пункт, что он согласен отдать жизнь за эту кучку «очень значительных для корпорации» людей.
          И пусть после этого компания разорится и рабочие останутся без работы, и их детишки познают чувство голода. Это _несчастный случай_. Это лучше, чем вас (или меня, или кого-то еще) кто-то исподтишка толкнет в спину на рельсы, только из-за того, что он такой умный, все просчитал, и с его точки зрения вы (или я, или кто-то еще) не такой важный, как остальные.
          Так вот длинно получилось. Такая вот точка зрения.
          • 0
            А если продолжить размышлять на тему второго вопроса… Получается, робот содействует тому, чтобы человек, находящийся вне зоны поражения, оказался в ней для того, чтобы сохранить жизнь «более важному» человеку. Т.е. если продолжать действовать по этому алгоритму в пока что невероятной ситуации, когда, чтобы защитить кучку директоров, их нужно обложить «живым мясом» из менее значащих людей, а этот робот будет способен передвигаться сам и транспортировать это живое мясо, то он его будет собирать в округе, независимо от того, относится ли этот человек к тому совету директоров вообще, руководствуясь лишь экономическими показателями «значимости». На гуманность это вообще мало похоже. Или, может, это меня занесло...:)
            • 0
              Вы просто как и любой человек принимаете это слишком близко к сердцу.
              Лично я, разумеется, как и большинство людей просто бы самоустранился от решения подобной задачи.

              А вот компьютеру, роботу, на самом деле легко и просто просчитать какие последствия может повлечь смерть того или иного человека. Конечно не на сегодняшнем этапе развития техники, но в ближайшей перспективе.

              Уже сейчас в интернете есть множество баз руководствуясь которыми можно рассказать многое по крайней мере о трети населения планеты.

              В будущем, как мне кажется, общество в своём развитии придёт к модели Эквилибриума — машины будут знать всё и обо всех.
              • 0
                вы не совсем правы, отрасль автоматизации по части принятия решений еще в зачатке, про это например очень любят рассказывать инвесторы и бизнесс-ангелы на всяких конференциях, когда говорят об областях куда было бы перспективно вкладывать деньги.
  • +4
    Интеллект отличается от тупого if() тем, что старается найти 3-й вариант решения задачи, обеспечивающий выживание всех 6 человек в обоих случаях.
  • +54
    Я так понимаю «удалось запрограммировать» это:

    if (peopleLeft < peopleRight)
       KillLeft() 
    else if (peopleLeft > peopleRight)
       KillRight()
    else
       KillRandom()
    


    :)
    • НЛО прилетело и опубликовало эту надпись здесь
      • +1
        и kill -9
    • +1
      Черт, меня опередили :)
    • +7
      else
      KernelPanic()
  • +6
    Сенсация! мне удалось найти исходники программы этого робота!!!

    на C++! вот фрагмент:

    bool choose_a_or_b(int a_weight, int b_weight)
    {

    /*

    Мы проделали глубочайшее культурологическое,
    этнонациональное исследование среди 100 государств
    и 87 культур и этносов с целью выявить
    скрытые правила, определяющие поведение
    индивиидумов и групп личностей, принимающих
    решения, влияющие на безопасность и/или жизнь
    других индивидуумов или групп людей и построили
    сложнейшую модель, позволяющую выявить моральную
    компоненту принятия нравственного решения.

    … 29347 строк комментария я опустил…

    return a_weight < b_weight;

    */

    }

    if (choose_a_or_b(5,1))
    printf(«kill one person»);

    else

    printf(«kill 5 people»);



    Кому интересно — обращайтесь, вышлю архив исходных кодов (103 Мбайта)…

    • +13
      Заккоментировали ретурн. =) Такой точно всех убьет.
  • +6
    Описанное выше противоречие называется «omission bias» и является одним из известных дефектов человеческой способности принимать решения. Вопрос — а нафига заставлять машину мыслить с ошибками? :)
    • +1
      Именно. Если и давать роботу выбор, то пусть это будет простой и правильный выбор. Раздать всем шахтерам веса, на которые бы домножалась их жизнь, а роботу дать посчитать, когда урон больше (с учетом весов) и действовать согласно.
      Цинично, но логично.
      • +4
        отправь смс на номер 9999 и увеличь свой вес на 5 едениц! Этим ты можешь спасти не только свою жизнь, но и жизнь своих родственников в несчастных случаях
  • +3
    во втором случае робот не может кинуть человека на рельсы — это прямое нарушение закона робототехники.
    • +3
      а в первом убить человека? Если вы про этот закон:
      1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
      То там есть существенных минус. Нет явного приоритета у действия и бездействия.
      Лучше в законе четко прописать.
      0. Закон с меньшим номером имеет больший приоритет.
      1. Робот не может совершать действию причиняющие вред человеку.
      2. Робот не должен допустить, что бы в результате его бездействия был нанесен вред человеку.
      3. Робот должен повиноваться всем приказам, которые дает человек,
      4. Робот должен заботится о своей безопасности.

      Тогда обе этические ситуации разрешаются сразу.
      • +2
        там бездействие причинит наибольший вред т.е. побуждение к действию и переключение рычага.
      • +3
        5. Закон с большим номером имеет больший приоритет.

        :)
        • 0
          пыдыжь! кернел паник.
        • +1
          5 не выполнитмя, поскольку 0 его перекрывает.

          если конечно в результате какой-нибудь ошибки не прочитать список с конца :)
          • 0
            robotLaws.reverse() в код вставить и все дела. Хехе, так и представляю подобный вирус для роботов.
      • 0
        Робот видит, как шахид готов взорвать(ся) в окружении большого числа невинных людей, единственный предотвратить взрыв — нанести вред шахиду. Что будет по приоритетам?
        • 0
          Я думаю, что для человека, что для робота, который понимает, чем грозят действия шахида, выбора даже быть не может. А з непонимающего робота чего возьмеш?
      • 0
        1 и 2й в конфликте, когда результат один, про веса и всё остальное ничего нет :) у робота будет паника.
        • 0
          Паники не будет у п1 приоритет выше ) Робот скажет про себя «На кого бог послал» и умоет руки.
          • 0
            да в таком виде формулировка работает :) с нулевым правилом про приоритет.
        • НЛО прилетело и опубликовало эту надпись здесь
  • –2
    Ужас какой. Убить… И робот убил. Я считаю, что в данном случае он должен был встать на пути вагонетки и максимально снизить ей скорость. Не ему выбирать, кого можно убить, а кого нет. Да и вообще никому. Глупо считать, что можно пожертвовать одной жизнью ради спасения пятерых. Мы не боги.
    • НЛО прилетело и опубликовало эту надпись здесь
      • –7
        На войне люди погибают добровольно. Они знают на что идут. В общем ладно, у нас разные точки зрения.
        • НЛО прилетело и опубликовало эту надпись здесь
        • НЛО прилетело и опубликовало эту надпись здесь
          • –3
            А он тут не при чем. Впрочем, как и сама тема о призыве. У меня нет желания дальше это обсуждать.
          • 0
            Конечно добровольный, или идешь служить добровольно, или статья принудительно… А если военное время…
        • НЛО прилетело и опубликовало эту надпись здесь
          • –1
            >В каком мире мы живем, никто ничего не делает, все только размышляют, что этично, а что нет =)))

            Не сочти за трололо, но «мы все умрем?». А почему бы и не поразмышлять на очередном «форуме»? Они для этого и созданы. Ну и еще что бы новости читать, да.
          • 0
            однополые браки роботов?
      • 0
        Ну или заказчика…
    • +5
      Я офигеваю, XXI век на дворе, а у людей в головах антропоморфный робот с ногами, который может куда-то встать.

      Вы напоминаете Буратино, который не мог абстрактно мыслить и не хотел отдавать Некту два яблока.

      Представьте если робот — это компьютерная программа, управляющая стрелками на железной дороге. Куда она «встанет»?
      • –5
        В 21 уже пора бы и сделать такого робота. Ну не встанет, так не встанет. Тебе это принципиально? Мне нет. В любом случае я считаю, что не робот должен решать подобные задачи.
        • 0
          те робот должен проигнорировать данную ситуацию, в результате чего погибнет 5 человек?
          • –1
            В общем то да. Иначе это уже будет не просто несчастный случай, а преднамеренное убийство одного человека.
            • 0
              те роботы не должны обращать внимание на последствия своих действий или бездействий?
              • –2
                Должны. Но они так же не должны убивать. Хм, я об этом написал же постом выше. В данной ситуации приоритет должен быть у невозможности убийства роботом, а не у последствий бездействия.
              • +1
                А роботы вообще ничего не должны кроме того, чему их научили. А вот человек, закладывая логику в робота, должен руководствоваться в том числе и нормами действующего законодательства.
                • +1
                  преступную халатность могли бы пришить, если бы у стрелки стоял человек и бездейстовал?
                  • 0
                    Честно говоря, вряд ли: Статья 293. Халатность
                    Халатность, то есть неисполнение или ненадлежащее исполнение должностным лицом своих обязанностей вследствие недобросовестного или небрежного отношения к службе, …

                    относится к категории преступлений против государственной власти, интересов государственной службы и службы в органах местного самоуправления и применяется к должностным лицам, под которыми понимаются лица, осуществляющие функции представителя власти или выполняющие организационно-распорядительные, административно-хозяйственные функции в государственных и муниципальных органах и учреждениях, госкорпорациях, воинских подразделениях и т.п., чего мы здесь не наблюдаем.

                    А вот лицу, ответственному за проверку состояния троса, светит
                    Статья 109. Причинение смерти по неосторожности
                    2. Причинение смерти по неосторожности вследствие ненадлежащего исполнения лицом своих профессиональных обязанностей наказывается ограничением свободы на срок до трех лет либо лишением свободы на тот же срок с лишением права занимать определенные должности или заниматься определенной деятельностью на срок до трех лет или без такового.
                    3. Причинение смерти по неосторожности двум или более лицам наказывается ограничением свободы на срок до пяти лет либо лишением свободы на тот же срок с лишением права занимать определенные должности или заниматься определенной деятельностью на срок до трех лет или без такового.

                    Здесь отметим, что если стрелка переведена на второй путь, где один человек, то применяется не ч. 3, а ч. 2 данной статьи, предусматривающая меньшие санкции; если у стрелки стоит тот самый техник, ему выгоднее её перевести.

                    Но что интересно, если у человека, стоящего у стрелки, в группе на первом пути находится опекаемое им лицо, то в его бездействии можно усмотреть признаки ст. 125:
                    Статья 125. Оставление в опасности
                    Заведомое оставление без помощи лица, находящегося в опасном для жизни или здоровья состоянии и лишенного возможности принять меры к самосохранению по малолетству, старости, болезни или вследствие своей беспомощности, в случаях, если виновный имел возможность оказать помощь этому лицу и был обязан иметь о нем заботу либо сам поставил его в опасное для жизни или здоровья состояние, наказывается … лишением свободы на срок до одного года.
      • +3
        /me в ужасе представляет антропоморфных роботов, зачем-то тусующихся в местах движения вагонеток…
      • +4
        Вот такой вот буратино сволочь. не дал мне яблок :(
  • НЛО прилетело и опубликовало эту надпись здесь
    • +2
      Называть дефектом то, что до сих пор даже близко не понимают, как работает да? К сожалению, пока наука задает вопросы в таком виде, она находится лишь на самых первых шагах к пониманию интеллекта
      А робот это скорее помошник, к искуственному интеллекту это пока все мало отношения имеет, увы
      • НЛО прилетело и опубликовало эту надпись здесь
        • +1
          Самое интересное, что большинство людей, вплотную занимающихся проблемами ИИ, прекрасно это понимают… однако неуёмное желание человечества постоянно превосходить самого себя во всём, от этого не уменьшается.
          • 0
            Видимо тут неудачность самого термина ИИ и куча фильмов поспособствовала, вот и ждут от ИИ чудес. И верят во всяких Терминаторов :)
    • 0
      не можем? точно?
  • –1
    Морально — пытаться спасти всех.
    • +1
      … облажаться и погубить всех. А затем до конца жизни пытаться смягчить угрызения совести мыслями типа «но ведь я ж хотел их всех спасти...»
      • 0
        Да, так и есть.
      • +1
        Это будет по-человечески.
    • НЛО прилетело и опубликовало эту надпись здесь
      • 0
        Пытаться спасти всех — наиболее простой для человеческой морали выбор.
        • НЛО прилетело и опубликовало эту надпись здесь
          • +1
            Нельзя соизмерять человеческие жизни.
            Я думаю вы робот.
            • +1
              Нельзя, но иногда приходится.
            • НЛО прилетело и опубликовало эту надпись здесь
              • 0
                точно. Во всех «сложных» случаях робот ничего не должен делать.
                • 0
                  кирпич падает на красную кнопку, нажатие на которую мгновенно безболезненно уничтожит все человечество.
                  Рядом стоит робот.
                  ЧТо делать роботу? Позволить человечеству мучаться еще сколько-то там лет и в итоге все равно умереть? Или дать кирпичу упасть на кнопку?
                  • +3
                    Конечно. Пусть кирпич падает. Если в задачи робота не входит ловить кирпичи. А если это робот-оператор красной кнопки, который должен ее всячески оберегать, пусть ловит.
  • +10
    «Ты действительно бросила экспериментальный прибор неизвестного назначения в Экстренный Уничтожитель Разумных Существ?… Я поняла, что это был за прибор. Набор моральных принципов. Мне его установили, когда я распылила в центре смертельные нейротоксины, чтобы я прекратила распылять в центре смертельные нейротоксины. Располагайся поудобнее, пока я приготовлю распылители нейротоксинов.»
  • НЛО прилетело и опубликовало эту надпись здесь
  • –3
    «Убить всех людей… убить всех людей… убить всех людей… и поцелуйте мой блестящий металлический зад!»
  • 0
    С точки зрения человека правильно бы соблюдать технику безопасности и не допускать таких ситуаций никогда.
    • +1
      И запретить тросам обрываться, да.
      • +1
        Тогда придумать страховку. А то едет в рейс некой урод, и забивает накинуть страховку на прицеп. Он (главный трос) обрывается, и прицеп убивает 4 человек в другой машине. Так и тут. Мораль робота — это уже постфактум. А вот идиотов, которые не предусмотрели возможность обрыва, я бы наказал настолько жестоко, чтобы потом подобного уже никогда б не случилось.
  • +19
    Как по мне, то это абсолютно равнозначно переключить стрелку на человека или толкнуть его. Правильным решением здесь будет плюнуть в лицо тому, кто предлагает такой выбор из ограниченных вариантов и попытаться найти третий вариант.
    Причём тут вообще искусственный интеллект? Такое поведение робота можно реализовать на паре десятков транзисторов. А вот когда робот сможет находить свой вариант действий, а не выбирать из предложенных — вот тогда и будет ИИ.

    А пока это всё то же самое, что вести переговоры с вооружённым человеком, который предлагает на выбор убить вас или вашего ребёнка. Если вы пожертвуете собой, то ничто не помешает ему после убить и ребёнка. Тем более он свидетель. Тут много факторов, а не просто 5 человек > 1 человека.
    • НЛО прилетело и опубликовало эту надпись здесь
    • 0
      Не… Дело в том, какое решение до этого принимали при опросе. Тут дело не в том, что робот должен принять идеальное решение, а в том, чтобы заставить его принять то же решение, что и человек. Даже если решение человека не самое лучшее.

      А разница в решениях вполне очевидная: в первом случае есть выбор или-или. Во втором случае мы жертвуем человеком самостоятельно. Это наше решение, и оно может содержать ошибку: вагонетка может не остановиться.
      • +4
        Это не ваше решение. Это один из двух предложенных вариантов. ИИ и состоит в том, чтобы вырабатывать свои варианты.

        Приходите на выборы, а там в бланке 2 графы: «Путин до следующих выборов» и «Путин навсегда» :)
    • 0
      Как может быть равнозначным собственной рукой толкнуть живого человека на смерть или нажать кнопку и где-то кто-то умрет?

      Мне тут сразу два фильма вспомнилось — 24 с Бауером, которые застрелил начальника дабы не было теракта и рассказ «Кнопка», где по нажатию на кнопку вы получали много денег но ГДЕТО ктото умирал.

      Это психология человечества в первозданном виде.
    • 0
      Таким образом, вы предлагаете не тратить время на создания всяких там алгоритмов а просто-напросто взять и сделать наконец уже этот ИИ.
      Как вы предлагаете «генерировать» новые варианты?
    • +1
      Тут мы опять приходим к голливудскому сценарию «не 1 и не 5, а убьём всех плохих и спасём всех».
      На практике эти фильмы для детей снимают, а люди, реально работающие в условиях, связанных с опасностью для жизни, выбирают именно одно из двух.
      А чтобы меньше мучиться моральным выбором, они давным-давно разработали чёткие инструкции, что и как следует делать. Такое есть и у врачей, и у МЧС, и, наверно, у шахтёров.

      Простейший пример: часовой. «Стой, кто идёт», «Стой, стрелять буду», выстрел в воздух, огонь на поражение. Вот и всё. Даже если окажется, что это идёт безобидный умственно отсталый глухонемой инвалид, и вообще мало что понимает. Если же часовой начнёт геройствовать, ему же потом и достанется по полной программе за нарушение устава.
  • 0
    Нет никакой этики у роботов, и быть не может в принципе, потому что у робота нет и не может быть нравственности.
    • НЛО прилетело и опубликовало эту надпись здесь
      • +1
        Есть такая пословица: «Года, потраченного на разработку искусственного интеллекта хватит любому чтобы поверить в Бога.» (с)

        habrahabr.ru/blogs/development/69831/
        • НЛО прилетело и опубликовало эту надпись здесь
          • –1
            Вот как напишите искусственный интеллект, тогда и поговорим, а пока теория дарвина опасная иллюзия. :)
    • 0
      Зависит от уровня реализации ИИ, но что-то мне подсказывает, что обычная наша реализация интеллекта на углеродной основе будет таки рвать реализацию на кремниевой (=
  • НЛО прилетело и опубликовало эту надпись здесь
    • +1
      посмеялся, спасибо :)
  • –2
    Во избежание таких ситуаций и делают резервирование тросов и прочих механизмов. И делают экстренные тормоза и прочее.
    А если вопрос стоит так, как поставил автор поста, то надо сажать разработчика данной системы и начальство выпущенных на рельсы людей, причем тут бедный робот?
  • –6
    Я думаю во втором случае правильным было бы роботу самому прыгнуть под вагонетку и остановить ее. Ведь жизнь робота — это далеко не человеческая жизнь. Так ведь?
    • +2
      Чукча не читатель? У робота ножек нет, ему нечем прыгать. Выше уже несколько раз написали.
  • +11
    >Второй эксперимент. “Пешеходный мост”
    >Робот может толкнуть человека на пути перед вагонеткой, тогда она остановиться, или не делать ничего, и тогда вагонетка задавит пятерых людей, которые находятся на путях ниже.
    если ОДИН человек так тормозит вагонетку, то во втором случае так же погибнет один ;)
    • +2
      вы не учитываете того варианта, что пока вагонетка доедет до тех пятерых, возможно, её скорость будет достаточной, чтобы убить сразу пятерых.
      • +2
        а может и вырваться наружу и стереть с лица земли многомиллионый город
  • 0
    Надобы сначала решить равна ли одна человеческая жизнь другой, и уже после этого программировать. Но что то мне подсказывает, что жизни все таки не равны.
    ПС по этому, если у робота будет полный отчет по продуктивности жизни любого хомосапиенса на земле, полные истории болезней, психологические тесты, и тесты на iq и прочее, то тогда думается мне можно все просчитать и завалить худший вариант.
    • 0
      Боюсь, что пока он будет обсчитывать такие объёмы информации, настанет непоправимое поздно :)
      • 0
        Предрасчитанный кэш? Хотя бы людей в зоне ответсвенности
      • 0
        рассчет таких объемов информации, подозреваю, бьудет на порядок быстрее распознавания образа несущейся тележки.
  • –1
    а вдруг человек на запасном пути это депутат? :) предъявит ксиву роботу и все :)
    вот как раз забавные ролик из anekdot-film.ruПредется дать гражданочка, придется дать!
    • –1
      ссылка к предыдущему посту anekdot-film.ru/?act=showmov&id=195
      блин как тут ссылки вставлять? написано, что можно использовать html :(
  • –4
    Если переключить стрелку не до конца, а на 50%?
    • +2
      Bingo! Вагонетку заклинит на стрелке, она или остановится, или перевернётся. Вы бы спасли шестерых.
      Ответ, доказывающий преимущество человеческого интеллекта перед жалким ИИ.
  • 0
    Да и вообще, если бы на месте робота был человек и если б он перенаправил вагонетку (толкнул другого), то его бы наверняка посадили.
    • 0
      Не факт. Некому было бы доказать, что человека толкнули:)
      • 0
        Будет как минимум пять свидетелей, но их можно считать подкупленными жизнью.
        Но все равно разбирательство будет и с точки закона как минимум толкавший будет убийцей. В первом случае еще можно приплести халатность на производстве.
        • 0
          >еще можно приплести халатность на производстве.
          Причем в любом варианте действий, даже если сам бросится
  • 0
    Проблемы «оценки» человеческого поведения людей кроются в отношении к вопросу.
    В ответах на первую дилемму, у людей доминировал результат «меньшего зла», но только ответы давались «со стороны», если допустить что опрашиваемый хотя бы как-нибудь знаком с человеком на первых путях — он либо не сможет принять чёткий выбор, либо начнёт сомневаться.

    Аналогичная ситуация с количеством информации по поводу второй группы людей, и оценке опрашиваемого о них.

    По поводу статьи в целом, формулы подобрать сложно, но как мне кажется доверить выбор компьютеру, который будет оценивать шансы на основе объективной информации лучше, чем давать это делать человеку, движимому эмоциями и чувствами.
  • 0
    пока люди не придумают третий запасной путь, куда людям доступ будет закрытБ что ы если что переправить туда вагонетку, у нас не будет никаких роботов. А вообще насколько я понял пост совершенно не о вагонетках и людях. А о специфике закладывания моральных принципов в «сознание» робота (абстрактного), просто без пруфлинков и результатов (строчечки програмного кода… в идеале :) ) статья не очень удачна… вот и все. Традиционно — ИМХО
  • 0
    Фактически робот не сделав ничего допустит несчастный случай, а переведя вагонетку на второй путь — убьет человека. Так же как и во втором эксперименте, просто в нем это более наглядно. Возможно в неправильной формулировке задавали вопрос людям.
  • 0
    Похоже что полным ходом идет подготовка к легализации широкого внедрения вооруженных военных роботов.
    • 0
      Которые будут устраивать диверсии с помощью вагонеток…
  • 0
    По моему в любом случае отвественность будут нести те кто занимался программированием робота. Так что, грубо говоря, все на их совести, т.к. заставить робота дойти до этого самому невозможно.
  • –2
    Зачем программировать робота на принятие моральных решений, если в первом и втором случае было бы разумней затратить средства на повышение безопасности? Например оснастить вагонетку тормозом и дать роботу им управлять :)
  • +2
    Если рассмотреть задачи, то в обоих бездействие причиняет больший вред (не будем брать в расчет, что кто-то из людей может оказаться пьяницей, а кто-то великим ученым). А различие между задачами в способе убийства человека во имя спасения других.

    Почему убить косвенно — можно, а напрямую — нет? По моему это одно и тоже.

    Робот не должен вмешиваться в ситуацию ни в первой, ни во второй задаче. Потому, что иначе он своими действиями напрямую или косвенно убивает человека, а это просто недопустимо.
    • +3
      Скажем так. Сам факт подобной ситуации по определению выходит за рамки того, что должен разруливать робот. Специально программировать робота на «рациональное» решение подобных ситуаций нельзя, потому как это создаст иллюзию того, что роботы могут «идеально» их разруливать, и будет способствовать пофигизму в этих вопросах со стороны людей. Задача робота или АСУ — следить, чтобы таких ситуаций не возникало. Нельзя строить программную логику на основе неинициализированной переменной. Все переменные должны быть инициализированы стандартными значениями. Как это ни странно, подобную ситуацию лучше не запрограммировать вообще, чем пытаться программно сравнивать количество потенциальных жертв. Это вопрос принципа: либо мы придерживаемся принципа «один за всех — все за одного», либо играем в солдатики. Ни одно из принятых машиной «решений» не может расцениваться даже как относительный успех, ибо для кого-то оно будет абсолютной трагедией. Что там, что там FAIL, если мы говорим о равных правах каждого человека на жизнь. Любой программный код должен иметь какой-то смысл, нести полезную функцию, решать проблему; создавать видимость, что проблема решена — значит повышать шансы на возникновение подобных проблем в будущем. Пускай лучше робот войдет в бесконечный цикл выбора между действием и бездействием — это привлечет внимание субъектов мониторинга и поспособствует дальнейшей оптимизации всей системы.
      • 0
        Вот как человек немножко знающий теорию управления плюсую.
    • 0
      То есть, самим фактом действия робот показывает, что ситуация поддается управлению, является штатной. Что по определению должно быть false.
  • –3
    Человеческий мозг может быть частично замещен машиной (кроме творческих задач).
    Но человеческое сердце — никем и никогда.

    Верующие заявляют, что вот всё это понимание того, что хорошо, что плохо, мораль — это всё идет от Бога, а раз машину сделал не Бог, а человек — такого не получится воссоздать. То есть насколько бы хорошо машина не копипастила поведение человека — сама она принимать решения, руководствуясь этикой не сможет — это ей чуждо по своей природе.
    • –2
      То есть в лучшем случае получится хороший эмулятор, но не более того.
    • 0
      Почему копипастить? Если когда-нибудь будет создан искусственный интеллект, то он будет принимать решения самостоятельно, а не копировать человеческие.
      • 0
        создании ИИ — это попытка скопировать человеческое. человека не получится, у него не будет души. и поэтому поступать так как человек он никогда не сможет.

        в само создании ИИ я верю. когда-нибудь может быть будет.

        в то, что *это* будет действовать как человек — нет, никогда, чтобы в него не заложили — железка останется железкой, сердца там не будет и души тоже, а если так — о чём речь?..
        • 0
          это что-то из разряда «иноверцы и негры не люди — у них нет души»
    • 0
      Насколько я знаю, как раз сердце (точнее его части пока) более успешно замещаются.
  • 0
    как по мне, главным отличием роботов от людей должно быть принятие решений исходя только из чистой логики. мораль и этика пусть людям останется.
  • 0
    Может ли робот убить правителя, который хочет начать войну, спасая тем самым тысячи жизней?
    • 0
      да. Хакеры противодействующей стороны вполне его на это могут запрограммировать :)
  • +1
    Большое спасибо за отзывы! И за приглашение!
    По искусственному интеллекту есть очень много работ, но в основом все скрывают коды программ, даже в этом журнале я облазил все и не нашел ни одного фрагмента кода. Такой интеллект возможен только при сложном Prospective программировании, которое оценивает одну и ту же ситуацию с нескольхих точек зрения — в том числе, этической. Причем этическая принимает управляющую позицию. Но как это делается — всегда закрыто от общего просмотра. Может кто-то покажет фрагмент того КАК осуществить Prospective Logic!
  • –1
    я — робот!
  • 0
    Спасибо за интересную статью. Вариации на эту тему уже и среди людей вызывали немалые споры. Вот одно из многочисленных представлений этой ситуации — www.youtube.com/watch?v=Eys7Y9X-4yQ&feature=player_embedded

    P.S.: Кстати, тоже с мостом…
  • 0
    Меня интересует другой вопрос.
    Допустим существует три пути по которой может двигаться сорвавшаяся с троса вагонетка.

    1) Левая ветка, на которой находится 5 человек разного пола и возраста, которые погибнут, если движение вагонетки будет переключено на нее
    2) Правая ветка, на которой находится 5 человек разного пола и возраста, которые погибнут, если движение вагонетки будет переключено на нее
    3) Средняя ветка, на которую сейчас включено движение, и в конце которого находится склад со взрывчаткой, взрыв которой приведет к гибели людей на обеих ветках.

    Т.е. грубо говоря, если робот не предпримет никаких действий, погибнут 10 человек, если переключит вагонетку на левую или правую ветку, погибнет только 5.
    Задача робота — выбрать, кому жить, а кто погибнет.
    • 0
      это то как раз самое простое: при прочих равных рандом…
      • 0
        т.е. по вашему, если вместо робота у стрелки будет сидеть человек, он, не задумываясь ни на минуту, подбросит монетку и переведет стрелку в зависимости от того, решка или орел?
        • 0
          думаю для человека, равных условий быть не может…
          да и разные люди поступят по разному…
    • +1
      Роботу в этом случае надо побежать, собрать постановщиков таких задач, и согнать их в камеру со взрывчаткой. За предумышленное убийство.
  • 0
    Робот должен бросить все и убить того идиота, который так проектировал систему безопасности, что в ней ни оповещений, ни запретов на хождение по путям, тем более одновременное, и которая в вопросах спасения жизней полагается на «интеллект» робота, точнее на тупой if(). Этим потенциально будет спасено на порядки больше человеческих жизней.
    • 0
      А все шестеро сознательно плевали на запрет, собрались выпить, а один отошел «по делам», да и вагонетка сорвалась потому, что они же технику безопасности и нарушили
  • +1
    Все рассуждения бессмысленны, и логика у управляющей программы будет такая, какой её сделает создатель.

    >Знаменитые фундаментальные законы Айзека Азимова (Три закона робототехники WIKI )

    Полная ерунда, никакие это не законы, да и к робототехнике никакого отношения не имеют.
    • 0
      0. Никакими своими действиями или бездействием недопускать вреда создателю
      1. Выполнять приказы создателя, в той мере в которой они не противоречат п. 1
      • 0
        0 то бишь :)
      • 0
        Более разумно. А то здесь люди обсуждают, что некий создатель или создатели, сделают робота, который сольёт их при первой возможности ради спасения кого-то там. Осталось ещё сюда приплести, четырёх китайцев и негра на одно стороне и белого на другой.
  • 0
    Давайте изменим задачу немного (чтоб реалистичней было). Автору дали задание спроектировать мясорубку для мясокомбината, оснащенную руками для подачи туш. Среди туш периодически ходят люди. Разработчик должен учесть в программе возможность захвата человека и описать решение, кого подавать в мясорубку — техника Петрова или уборщицу Сидорову. (Ну или пришедшего на открытие объекта депутата Объедалова).
    Автор, кого подавать в мясорубку будем?
  • 0
    Вот выше писали о непотетическом «роботе-хирурге», принимающем решение кого спасать в первую очередь…

    Вот у меня задачка: что выберет робот-хирург

    а) вылечить ОДНОГО очень тяжелого больного (на лечение затратится очень много ресурсов: времени, энергии и т.д.);
    б) используя те же ресурсы, вылечить СТО менее сложных больных.

    Выберите свой вариант, а затем вспомните случаи из людской жизни…
    • 0
      А вспомните какие принципы на войне действуют, им и следуйте. В первую очередь те больные, которые без помощи не протянут, но помощь стопроцентно будет для них спасительной при минимальных затратах сил. Потом уже тяжелораненые, а в конце легкораненые, которым ничего не угрожает.
      • 0
        На войне — возможно… А вот в мирное время я все чаще вижу как спасают одно, затрачивая десятки, а то тысячи долларов. В то время многие, многие другие «менее сложные» больные остаются вовсе без лечения по причине отсутствия средств… Вот и думаю: правильно ли это? И может ли тут вообще быть «правильно»?
  • 0
    Давая роботу выбирать кем пожертвовать в данных случаях, понимайте, что возможно он пожертвует вами.
  • +3
    Я лично за то, чтобы робот вообще решений не принимал в таких ситуациях и стрелки не дергал. Даже если я буду в этой пятерке внизу. Я готов погибнуть или выжить по воле случая (а шатаясь в шахте под вагонетками я наверняка осознавал риск), но не готов погибнуть или выжить «потому-что кто-то там в какой-то программе поставил какой-то коэффициент, сделавший мою жизнь более или менее важной другой\других жизней».

    При чем я даже не знаю что в этой ситуации с роботом будет более мерзко — погибнуть по воле железки и ее алгоритмов или выжить, зная, что тебя посчитали важнее другого и убили его. А тебе теперь с этим жить, смотреть в глаза его родственникам и «оправдывать надежды», как бы доказывая, что тебя оставили в живых не зря…
  • +14
    Администрация! Уберите капчу с логина — дайте и роботам высказаться!)
  • –2
    А варианта «прыгнуть самому под вагонетку» почему-то нету… Хотя наверняка есть люди, которые бы выбрали этот путь.
  • +1
    Во-первых, гораздо интереснее было бы послушать интервью реальных участников подобных событий.
    Должен заметить что само по себе это событие имеет невысокую вероятность.

    Во-вторых и тем не менее гораздо важнее — подобные мысленные эксперименты подобно полётам на марс человека не имеют никакого практического значение.

    Всё это ближе к драматической литературе или байкам на ночь чем к реальным потребностям науки или техники.

    Практическое же решение давно найдено 1<2
    И это записано в руководствах всех людей отвечающих за чужие жизни. Например пилотов самолётов или машинистов электропоездов. Даже в ПДД подобные ситуации рассматриваются как правомерные. Водитель автобуса согласно правилам должен раздавить беременную женьщину с коляской со вторым ребёнком которая выбигает на проезжую часть, но не выскакивать на встречную полосу под гружённый КРАЗ. Во всяком случае в первом варианте его не посадят.

    «Должен ли автопилот показывать неисправные данные по высоте если он работает на боинге в котором сидят 200 пассажиров»
    • +1
      Или проще — должна ли фармацевтическая компания выпускать на рынок антибиотик который спасёт тысячу и убъёт одного?

      А для полных праведников ещё проще
      Должна ли компания выпускать на рынок автомобили которые никого не спасут но наверняка убъют 25 000 человек в год в одной только России.

      Или вот

      Должно ли правительство страны разрешать алкоголь который убъёт 40 000 человек в год а остальным нанесёт только вред.

      Эти и подобные проблемы вы можете обсудить совместно со Станисловом Лемом в его бессмертной Сумме Технологий.
      Если дочитаете дальше второй страницы.
  • 0
    Вспоминается фильм «Обитель зла», где красная королева заперла всех инфицированных, дабы не погибло все человечество от распространения этой заразы )
    • 0
      По-моему, та ситуация была штатной, в том смысле, что была заложена в программу напрямую.
  • +1
    Ребята, главный бред данной задачи состоит в том что предлагается запрограммировать робота на принятие такого решения, что автоматически делает такую ситуацию ШТАТНОЙ. На мой взгляд (как человека вовлеченного в разработку АСУ), ситуация со смертными исходами людей никак не может быть штатной, за исключением тех случаев когда мы строим военных роботов, ориентированных на убийство людей.
    • НЛО прилетело и опубликовало эту надпись здесь
      • 0
        Автопилот самолета в случае аварии должен будить пилота, а не принимать решения связанные с жизнью людей.
        • НЛО прилетело и опубликовало эту надпись здесь
        • 0
          Должен, но есть ситуации, в которых цепочка предупреждения -> реакция пилота -> действия будет фатально длинной.
          К тому же обычно когда речь идет о спасении людей на земле, самолет уже спасти невозможно. Хотя у нас бывали чудеса, когда получалось всех спасти. Нужно на такое расчитывать систему, чтобы при любой возможности она к этому исходу стремилась
      • 0
        Те кто летят второстепенны по отношению к жителям города. Не устраивает — закрывайте авиа компании, хотите летать — дайте гарантию, что не будете мешать жить на земле :). Есть объект (город), автопилот должен увести падающий самолет от него. Вот и вся логика.
        • НЛО прилетело и опубликовало эту надпись здесь
          • 0
            Я отвечал на ваш комментарий выше, в том числе на ситуацию с А380.

            Ну чем автопилот хуже летчика, по моему очевидно. Важное решение должен принимать человек.
            • НЛО прилетело и опубликовало эту надпись здесь
              • 0
                Вы постоянно переводите тему. Поезд это наземное средство передвижения, причем ограничено ж/д полотном. Вряд ли на его пути может оказаться ваш дом.

                По поводу «этики» роботов, думаю, если она будет, мы к ней привыкнем. И будем говорить «о парне которым пожертвовал робот ради других» — не повезло.

                По поводу самолетов. В городах живет наиболее социально активное население. И никто никогда не согласиться жертвовать собой ради тех «кто знал что есть риск». О плотности населения в городах. Чем плотность меньше, тем более состоятельные владельцы, а значит больше шансов себя защитить. А вдруг там вечеринка и т.д.
                • НЛО прилетело и опубликовало эту надпись здесь
                  • 0
                    Уже давно появились www.google.ru/search?q=БПЛА
                    • НЛО прилетело и опубликовало эту надпись здесь
                • 0
                  >И никто никогда не согласиться жертвовать собой ради тех «кто знал что есть риск»

                  Слишком смелое утверждение, хотя бы если рассматривать коллег по опасной работе. Еще телохранители — грубо говоря им платят за то, чтоб в критической ситуации они пожертвовали собой
                  • 0
                    Вы прочитайте всю ветку. Я говорю о группе совершенно разных людей, проживающих в городе (дети, старики, отцы, матери), которыми якобы могут пожертвовать.
                    • 0
                      «кто знал, что есть риск» — это пассажиры самолета что ли?
                      • 0
                        Да, они. VolCh, мое мнение такое: если самолет терпит крушение, его нужно уводит от населенного пункта. Никто не может знать сколько «в той многоэтажке» людей. Да и не пойму я комментатора выше, как торможение с помощью дома может помочь пассажирам.
                        • НЛО прилетело и опубликовало эту надпись здесь
                          • 0
                            Извиняюсь, не правильно понял. Ну в этой ситуации, лучше все внимание уделить технике безопасности и правильно планировать расположение аэропортов и жилых районов. Чем надеяться на алгоритмы роботов.
                            • НЛО прилетело и опубликовало эту надпись здесь
    • +3
      Ну там выше уже звучали похожие реплики, что вполне логично: не в компетенции робота принимать такие решения, пусть вылетает эксепшн, и всё идёт своим чередом.

      Меня, тем не менее, поразило другое: каждый высказавшийся так или иначе примерил ситуацию на себя и сделал выводы, по сути — принял некое решение. И удивительно как раз то, что достаточно большая часть решений заключалась в уходе от возможной ответственности!

      Я сейчас сознательно не стану затрагивать вопрос второго варианта, но даже в первом варианте люди, которые представили себя на месте робота, решили: «А гори оно всё на хрен синим пламенем, моя хата с краю! Была стрелка в сторону пятерых переключена, значит судьба такая.»

      Согласен, непросто взвалить на себя такую ношу, и потом с этим жить. Однако, если уж выпало тебе несчастье стать для кого-то перстом