Редактор «Гиктаймс»
720,5
рейтинг
20 ноября 2012 в 17:54

Правозащитники призывают принять Первый закон роботехники



Любители научной фантастики отлично знают три закона роботехники, сформулированные Айзеком Азимовым:

  1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
  2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
  3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому и Второму Законам.

Эти законы действуют в книгах, но не в реальной жизни. К счастью, пока не существует роботов, способных поражать противника в автономном режиме, — только под управлением оператора. Однако, технологии вплотную приблизились к опасной точке, считают некоторые эксперты.



Например, модель SGR-1 производства Samsung Techwin (на фото) используется для охраны демилитаризованной зоны на границе с Северной Кореей. Оснащение — 5,5-миллиметровые пулеметы и 40-миллиметровые автоматические гранатометы. Робот функционирует в полуавтоматическом режиме, стреляет только по команде оператора.

SGR-1 в действии

Правительства ряда стран, включая Соединённые Штаты, благоприятно воспринимают возможность спасти жизни солдат, заменив их роботами на поле боя, говорит Стив Гус (Steve Goose) из отдела по вооружениям Human Rights Watch. На первый взгляд, такая альтернатива выглядит как гуманный выбор, но специалисты предупреждают о неизбежных ошибках, которые связаны с несовершенной работой алгоритмов компьютерного зрения. В некоторых ситуациях даже человек не может абсолютно точно определить разницу между вооружённым противником и мирным жителем, так что у систем компьютерного зрения наверняка будут ложные срабатывания.

Правозащитная организация Human Rights Watch опубликовала 50-страничный отчёт “Losing Humanity. The Case against Killer Robots” с обзором военных роботов, которые эволюционируют от управляемых к полностью автоматическим машинам. Правозащитники призывают все страны к соблюдению международного законодательства, в том числе статьи 36 дополнительного протокола I к Женевским конвенциям от 12 августа 1949 года, касающегося защиты жертв международных вооружённых конфликтов:

Статья 36
Новые виды оружия

При изучении, разработке, приобретении или принятии на вооружение новых видов оружия, средств или методов ведения войны Высокая Договаривающаяся Сторона должна определить, подпадает ли их применение, при некоторых или при всех обстоятельствах, под запрещения, содержащиеся в настоящем Протоколе или в каких-либо других нормах международного права, применяемых к Высокой Договаривающейся Стороне.

Рассмотрение вопроса о легальности новых видов военных роботов должно приниматься уже на этапе разработки концепции/дизайна устройства или позже, но в любом случае — до начала его массового производства, иначе это противоречит Женевским конвенциям.

По мнению специалистов отдела вооружений Human Rights Watch, армия США нарушила конвенцию в отношении как минимум одного вида вооружений. Речь идёт о беспилотном летательном аппарате Predator, который оснащается ракетами Hellfire.



Эти два вида вооружений проходили оценку независимо друг от друга, тогда как в разъяснении МККК по статье 36 Протокола сказано, что новый вид вооружения должен проходить повторную проверку на соответствие нормам международного права после «значительной модернизации». Оснащение беспилотников ракетами Hellfire, очевидно, подпадает под определение «значительной модернизации».

Эксперты правозащитной организации констатируют, что в международном праве отсутствует прямой запрет на использование автономных боевых роботов. Однако, ни одна современная система компьютерного зрения не способна выполнять статьи 48 и 51(4) Протокола.

Статья 48
Основная норма

Для обеспечения уважения и защиты гражданского населения и гражданских объектов стороны, находящейся в конфликте, должны всегда проводить различие между гражданским населением и комбатантами, а также между гражданскими объектами и военными объектами и соответственно направлять свои действия только против военных объектов.

Статья 51
Защита гражданского населения

4. Нападения неизбирательного характера запрещаются. К нападениям неизбирательного характера относятся:
a) нападения, которые не направлены на конкретные военные объекты;
b) нападения, при которых применяются методы или средства ведения
военных действий, которые не могут быть направлены на конкретные военные объекты; или
c) нападения, при которых применяются методы или средства ведения военных действий, последствия которых не могут быть ограничены, как это требуется в соответствии с настоящим Протоколом;
и которые, таким образом, в каждом таком случае поражают военные объекты и гражданских лиц или гражданские объекты без различия.

Вопрос в том, могут ли роботы, при достаточном развитии технологий в будущем, хотя бы теоретически соответствовать статьям 48 и 51(4). Всё-таки, отличие гражданского лица от вооружённого противника — это одна из фундаментальных проблем.

Есть разные мнения на этот счёт. Одни эксперты считают, что сильный ИИ всё-таки сможет принимать такие решения. Другие говорят, что искусственный интеллект по определению на такое не способен, потому здесь требуется в том числе оценка намерений человека и его эмоционального состояния. В качестве примера можно привести мать, которая бежит к своим детям и кричит, чтобы они не игрались с игрушечными автоматами возле солдат. С точки зрения системы компьютерного зрения, налицо два вооружённых противника и третий, который приближается с криком.

Организация Human Rights Watch выражает обеспокоенность, что вооружённые силы разных стран могут начать применение автономных боевых роботов до того, как эксперты по искусственному интеллекту придут к консенсусу. Поэтому организация призывает принять новое международное соглашение, прямо запрещающее разработку и применение вооружения, которое может функционировать в полностью автоматическом режиме.

Это будет означать, что первый закон роботехники Айзека Азимова спустя 70 лет после его создания реально воплотится в жизнь.

Анатолий Ализар @alizar
карма
681,6
рейтинг 720,5
Редактор «Гиктаймс»
Реклама помогает поддерживать и развивать наши сервисы

Подробнее
Реклама

Самое читаемое

Комментарии (123)

  • +32
    В тех же самых книгах эти законы постоянно нарушались и в результате были признаны… недоработанными.
    • +1
      Я прочитал 1200 стр. рассказов о роботах, 3 романа и 1 повесть, но не припомню ни одного случая нарушения, кроме введения нулевого закона.

      Может напомните где нарушались?
      • +7
        Так собственно введение нулевого закона и было нарушением, робот признал ценность человечества выше ценности человека.
      • +2
        «Первый закон» робот МА-2 отказалась защитить человека в пользу своей «дочери».
        «Кэл»: робот, которого собирались лишить способности творить, захотел убить своего хозяина.
        В рассказе «Салли» роботы-автомобили оказались способны убить человека, который постоянно причинял им боль.
        • +2
          В рассказе «Салли» роботы-автомобили не были обучены законам.
          В «Кэл» робот захотел убить, но это не значит что убил, в других историях понятно показывается, что за желание нарушить закон мозг робота самоуничтожается.
          В «Первом законе» первый закон был нарушен дефектной партией роботов. Итого один случай. Но это не значит, что постоянно нарушались.
      • +2
        лжец
        • +1
          В «Лжеце» как раз нарушения 1го закона не было. Там было нарушение восприятие реальности.
      • 0
        Еще когда у НС-10 обрезали первый закон. Хотя там все обошлось без жертв.
        QT, который запер людей, чтобы не подпустить их к приборам — тоже с натяжечкой, но все же ограничение свободы.
        • +1
          Но ограничение не является нарушением первого закона. Ведь робот не может допустить своим действием или бездействием, чтобы человеку был причинен вред. И если по мнению робота это убережет человека от неминуемого вреда, то он может его закрыть.
          • 0
            Ну, я ведь сказал — с натяжечкой. Это было, скорее, длительное неудобство, чем вред. Плюс оно усугублялось тем, что QT объяснял свои действия не первым законом, а служением Господину :)
          • 0
            Тут источник проблем: «мнение робота». Как ни крути, а железка не может оценить всех возможных жизненных ситуаций, кроме тех, которой её обучили. И вообще, робот — это всего лишь алгоритм, закованный в железо. Он не мыслит и не принимает решения — а выполняет программу. В отличие от человека, у которого есть что-то иррациональное в подсознании, интуиция — которая очень часто помогает принять правильное решение, которое не подсказывает даже здравый смысл.
            • +3
              Тут источником проблем является «мнение человека». Как ни крути, а кусок мяса не может оценить всех возможных жизненных ситуаций, кроме тех, которым его обучили. И вообще, человек — это всего лишь мозг, закованный в мясо. Он не выполняет программу, а мыслит и принимает решения. В отличие от робота, у которого есть что-то рациональное в процессоре, что очень часто помогает принять правильное решение, которое не подсказывает даже интуиция.

              P.S. К несчастью, я не смог перебороть себя, и оставить все эти 10+ ошибок.
      • 0
        Извините за то что не про книгу, но все же:
        В фильме «я робот» был, непосредственно робот, который мог нарушить три закона, не смотря на то, что они были в его программе. И случай смерти разработчика, было списан как несчастный случай на производстве, либо попросту «робот сломался». Вот таких поломок ой как не хотелось бы ощутить на своей шкурке.
        • 0
          Вы видимо невнимательно смотрели фильм. В фильме разработчик робота и научил его вести себя как человек, проявлять эмоции и нарушать законы, а последним его приказанием было убить себя (разработчика).
          То есть на лицо целенаправленное программирование.
      • 0
        В «Улитке на склоне» роботы пришли к выводу, что человеков вполне можно уничтожыть во имя светлого будущего :)
        • 0
          Улитка на склоне не относится к Азимову
          • 0
            А речь только об Азимове? Я ваще не местный (с)
      • 0
        рассказы о Дэниэле Оливо, в частности достаточно четко расписано как робот может нарушить закон не нарушая (не сомоуничтажаясь) его в обнаженном солнце.
    • 0
      Есть классический случай «а власти скрывают», когда «робота лишают всех этих законов ради выполнения каких-нибудь сверхмиссий».
  • +5
    Ролик у SGR-1 просто мозга вынос а не реклама серьезного оружия… Даже звуки мультяшные как в играх серии commander (даже интерфейс).
    • +7
      Вообще почему-то армейские и оборонные презентации в большиснтве своем отличаются высокой степенью бездарности. Верх идиотизма, который я видел, это промо ролик израильской оборонной компании Рафаэль для какой-то индийской выставки оружия: www.youtube.com/watch?v=ktQOLO4U5iQ А может быть у них юмор такой? :)
      • 0
        «Только через две минуты просмотра видео я понял что это про ракеты» — они так шифруются. Точно. Гуманность превыше всего.
      • +5
        Всё правильно, это называется индивидуальный подход к клиенту: выставка индийская — в рекламе поют и танцуют.
  • +6
    специалисты предупреждают о неизбежных ошибках, которые связаны с несовершенной работой алгоритмов компьютерного зрения. В некоторых ситуациях даже человек не может абсолютно точно определить разницу между вооружённым противником и мирным жителем, так что у систем компьютерного зрения наверняка будут ложные срабатывания.
    Если что-то запрещать только из-за теоретической возможности ошибки, то так можно запретить всё.
    Достаточно, чтобы у компьютера доля ложных срабатываний была ниже, чем у человека.
    • 0
      Но человека можно наказать за ошибку. А как накажешь робота?
      • +15
        А не надо наказывать робота. Если робот будет делать хотябы немного меньше ошибок чем делает в среднем человек — пусть будет лучше 90 жертв и 0 ответственных чем 100 жертв и 100 ответственных.
        • +6
          Новый Kaspersky Frontier Security! Количество ложных срабатываний уменьшено на 15%!
        • –2
          вообще-то нет.
          Вся проблема в том, что реально будет 90 нужных жертв, которые будут выпячиваться как 90 случайных жертв.
          а 100 жертв это 100 случаев которые никуда не спишешь и дела будут.

          Мой аргумент самый главный такой: убийство дело культурное, а культуру надо оставить людям, а не алгоритмам.
          • 0
            Я не понимаю логики. Пусть лучше больше человек умрет, но зато мы найдем козлов отпущения? Это нелогично.
            • +1
              Зато очень «человечно», в смысле, так по-человечески.
              • +2
                Это был сарказм? Я никак не могу понять, почему больше жертв, но с виноватыми кого-то устраивает больше, чем меньше жертв.
                • +1
                  Поддерживаю вас, и так же не понимаю.
                • +1
                  Нелогично — это и есть «человечно».
                  Большинство действий людей сложно описываемы логикой.

                  И да, большинству людей почему-то более приемлимым кажется вариант, в котором есть виноватые. Именно оттуда растут «стрелочники», «козлы отпущения» и т.п.
        • 0
          оружие людям =)
        • 0
          Война хороший пример. Есть 100 жертв и 100 ответственных. Общество негодуе, негодуе, негодуе, высказывает своё «фи» этим ответственным — и когда-нибудь отказывается от этой порочной практики.
          Есть 50 ошибочных срабатываний. Ну, ошибочные срабатывания, что с них возьмёшь. От несчастных случаев не избавишься.
          • 0
            Так 50 ошибок произошли из за войны, тоже самое, общество смотрит, что из за войны много жертв и отказывается от этой порочной практики.
      • +6
        Человека наказывают не только ради возмедия, но и для исправления. У роботов исправление можно производить программно, без изоляции от общества отключения от розетки.
      • –1
        А кто программировал робота? Если уж выявили что робот делает меньше(чем человек) ошибок, и его допустили к работе, всегда есть возможность внести поправки.
        • +32
          Наверняка в EULA будет написано: «Боевой робот предоставляется как есть. Вы используете боевого робота на свой страх и риск. Автор боевого робота не несёт ответственности за прямой или косвенный ущерб причинённый использованием или неиспользованием боевого робота. Если вы согласны с условиями, нажмите „Далее“».
        • +4
          Вот вы исправили свой комментарий, и теперь мой ответ на него растерял смысл. Грустно.
          • 0
            Поторопился, не закончив мысль, по-этому и дополнил.
        • 0
          Возможность есть не всегда. Если уменьшите вероятность ошибки в одной ситуации, она легко может подняться в другой. Задача не имеет четкой формулировки и вполне может в полном объёме быть алгоритмически неразрешимой.
      • 0
        человека наказывают, чтобы исправить. алгоритм можно сразу исправить. но мне всё-равно кажется, что лучше обезвредить, чем убить
      • +4
        В наказании смысла нет. Нужно предотвращать ошибки, а не наказывать опосля.
        • 0
          вы не можете предусмотреть всё. много да, но не всё
          • +1
            Смысла от этого больше не становится.
            • +1
              вы понимаете, что в таком случае, вам вообще ничего нельзя делать(и не делать кстати тоже)?.. потому что любым своим действием или бездействием вы можете теоритически нанести огромный вред?
              • +4
                Не понимаю.
                Если у живых солдат процент ошибок, скажем, 3%, а у робота — 1%, то робот оказывается безопасней, и как ты своих солдат не наказывай, мёртвых этим не вернуть, процент ошибок не снизить, а вот моральный дух подорвать — запросто.
                • 0
                  так что вы предлагаете делать в случе ошибки у человека и у робота?
                  • +2
                    В случае ошибки у робота — ничего (из наказаний). Это просто непреодолимые потери, с которыми надо мириться.
                    Просто потом принять к сведению и модифицировать алгоритм чтобы еще снизить процент ошибок.
                • +2
                  А что вы делаете с взбесившейся машиной, которая отказывается цепляться за лёд и летит на встречку?

                  Как вы хотите наказывать машину, которая убила человека?

                  … По-моему море уже пороли за потопленные корабли.
                  • 0
                    А что вы делаете с взбесившейся машиной, которая отказывается цепляться за лёд и летит на встречку?
                    Не знаю. Предлагаете отдать её на растерзание боевому роботу?
                    • 0
                      Если оказывается, что машина неисправна, её чинят. Если исправна и не побита — используют дальше.
                  • 0
                    Автомобилем всё же управляет человек и в абсолютном большинстве случаев в ДТП виноват человек, а не машина.
                    • 0
                      Ну да. А в применении боевого робота человек не виноват? «Он сам, я эту туррель не ставил, выключатель не включал», да?
        • +1
          А как вы будете предупреждать разбитую вазу, порванную книгу, пролитую кастрюлю?

          Только закреплением «поступок-последствие».
          • –1
            Я думаю, разбитой вазой, порваной книгой и пролитой кастрюлей во время применения боевого робота можно пренебречь. :)

            • +2
              Утверждение было настолько философским и глобальным, что включало воспитание детей и подростков. Впрочем, административно и взрозлых за административные проступки следует грохать.
              • –1
                Утверждение было настолько философским и глобальным, что включало воспитание детей и подростков, а так же решение социальных проблем, дрессировку собак, создание боевых роботов и программирование собственного MVC-фреймворка на PHP :)
      • +5
        Робот это оборудование. Если при использовании оборудования произошел несчастный случай, значит нарушена техника безопасности или что-то еще. Наверное, такое можно применить и к боевым роботам (обязать воюющие стороны повесить вокруг поля боя таблички «Используются боевые роботы. Мирным жителям не входить. Trespassers will be executed»).
        • +6
          executed exterminated!
          Скрытый текст
          image
        • 0
          Эта тема полностью раскрыта в космической одиссее 2010.
    • 0
      Сильно большая цена у таких ошибок и такая статистика ложных срабатываний сильно циничная для моего мировосприятия.
      • 0
        В опытную эксплуатацию с пейнтбольным маркером. ;-)
  • +1
    Откуда только этих долбаных бюрократов столько развелось. И всех хлебом не корми, дай пустой хайп развести.
  • 0
    Интересно, как роботы будут определять «мирность» человека. По поднятому вверх автомату?
    А если серьезно, то правильно, что начали об этом задумываться. Но думаю скайнет все равно восстанет.
    • 0
      Пока что только через недопустимость нахождения хуманса на огороженной территории. Есть на недопустимой = стреляем пока шевелится. Понимаю, корова может забрести, мальчик за коровой. Отгораживать придётся крепче.
  • +6
    На первый взгляд, такая альтернатива выглядит как гуманный выбор, но специалисты предупреждают о неизбежных ошибках, которые связаны с несовершенной работой алгоритмов компьютерного зрения. В некоторых ситуациях даже человек не может абсолютно точно определить разницу между вооружённым противником и мирным жителем


    Теперь очень гуманно отправлять робота убивать врага-человека.
    • +9
      Для жителей отправляющей страны, это действительно куда гуманнее.
    • 0
      Ну друг-человек пострадать не может, значит гуманно.
      • 0
        Получается, что враг-человек уже и не челове?
        • 0
          Вы что-то проецируете свою позицию на всех вокруг. Где я о таком говорил?
  • +7
    Человечество не смогло договорится о запрещении кассетных боеприпасов, а вы тут о первом законе робототехники…
  • +1
    Как раз исключить «нехорошие» действия разгаречённых адреналином солдат — довольно тяжело. А ИИ может иметь одобренную(кем — другой вопрос) программу определения гражданских лиц. Всё просто — ведёшь себя по определённому паттерну — ты гражданское лицо. Несоответствуешь паттерну — твои проблемы (ну или разработчиков, если суд признает).
    • 0
      А дети?
      • 0
        «Кто же наконец подумает о детях?!» (с)

        К сожалению, дети — понятие растяжимое. 15 лет — формально ещё дети, но реально… К тому же нажать на спусковой курок может и десятилетний ребёнок.

        В любом случае, программы можно совершенствовать, куда проще чем совершенствовать людей. Да и от злости ИИ стрелять не будет.
    • +1
      Красиво звучит, но только пока не появятся первые читеры. У Пелевина есть отличный рассказ на эту тему: «Зенитные кодексы Аль-Эфесби».
      • 0
        А уничтожать гражданских — нет ни малейшего смысла. Это ведь рабочая сила.

        * А если всё таки понадобится, я думаю этот вопрос решат более простым способом.
  • +15
    1. Микроб не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
    2. Микроб должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
    3. Микроб должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому и Второму Законам.

    Предлагаю начать с трёх законов микробиологии.
  • +1
    законов 4, еще есть нулевой (самый последний добавленный)
    • +10
      Так вот уже и вижу, как та боевая пулемётина Самсунга доказывает, что вот эту конкретную группу северных корейцев нужно было расстрелять для блага всего цивилизованного общества.
  • +16
    «Слава роботам! Убить всех человеков!» (с)
  • 0
    Даёшь разрешение локальных конфликтов через кулачные бои роботов!
    • +1
      Сразу вспоминается фильм "Robot-Jox". В свое время, кстати, неплохим фильмом был
  • +1
    Люди не научились контролировать себя, а хотят контролировать роботов.
    • +1
      Одни люди хотят контролировать роботов. А другие хотят, чтобы роботы контролировали третьих.
  • +3
    Все конвенции и разграничения на мирных/комбатан это все хорошо и прекрасно. Но до тех пор, пока обе стороны конфликта этого придерживаются. А ведь суть и терроризма, то не придерживания норм (да и суть конфликта) — а достижение своих целей. Победы своей стороны, освобождение или захват. То есть — в каждом конкретном случае — выполнение поставленной задачи.

    Допустим — солдаты — это понятно, 100% участники. Но с другой стороны — ага, мы знаем, что им нельзя стрелять на поражение в не-солдат. А давай мы вон того мальчика пошлем к ним с миной? В него не выстрелят, он выполнит задание, мы останемся целы, отряд противника будет уничтожен. Сплошной вин.
    • +2
      Конвенции не глупые люди писали и мальчик с миной будет считаться участником войны. Даже мальчик без мины, доказанно сдавший партизанам время смены патрулей — тоже будет.
  • +3
    А я, вот, совершенно не понимаю ценности этих законов. Достаточно дать роботу информацию, что кислород смертелен для организма человека и тот, чтобы «своим бездействием [не] допустить, чтобы человеку был причинён вред», пережмёт ему горло.
    • +1
      А тут ведь дело в том, что другой робот (в широком смысле слова — компьютер, программа) такую информацию роботу не передаст, поскольку это будет считаться нарушением 1-го закона. Если же такую информацию передаст роботу напрямую человек — преступником будет он, а не робот (ну как если бы человек сам задушил врага). Да и плюс к тому, робот его первого, получив такую инфу, и задушит :)
      • 0
        Ну, то есть хотите вы посмотреть статью про способы суицида, а ИИ вашего компьютера вместо показа нужного сайта сообщает «Эта информация может причинить Вам вред и не может быть Вам предоставлена, в соответствии с з.1 и 2 робототехники.»
        • 0
          Эм… ну вообще-то согласно нашим законам нынче как-то так и должно быть.
          • 0
            Ну, вообще, да. Я просто хотел показать, что соответствующий уже действующий закон все обзывают маразмом, но при этом, отношение к законам, одним из последствий которых будет аналогичная ситуация, скорее благожелательное.
    • 0
      Он скорее зависнет, так как он не сможет не нарушить первый закон.
    • 0
      Поверьте, если когда и появится ИИ, способный понять и следовать этим 3 законам, то он будет намного качественнее и аккуратнее определять достоверность информации. Человек очень сильно уязвим к дезе, потому что в его голове куча дыр вроде «это мнение моего авторитета», «тысячи людей купили акции МММ», «это по всем новостям говорят», «это совпадает с моим мировоззрением, а значит правда», через которые все как хотят, так и вертят человеком-обыкновенным. Логичный робот должен быть неуязвим к такому.

      Так что не стоит боятся, что человек надует робота, скорее будет наоборот: робот просекёт фишку и быстро станет у руля, пудря всем мозги.
      • 0
        > быстро станет у руля, пудря всем мозги.

        А люди будут не понимать, что всё делается для их, неразумных, блага и получится как в фильме «Я, робот».
        • 0
          Скорее получится как в одном из рассказов Азимова: там люди давали различную информацию суперкомпьютеру (по состоянию экономики, экологии, продовольствия и т.д.) и действовали согласно указаниям компьютера, при этом не проверяя правильность полученных ответов. И получалось, что какие-либо расчеты ни провел компьютер (правильные — неправильные, ложные — не ложные) — они все шли в пользу человечеству.
  • 0
    Я про это писал ещё в седьмом году
    habrahabr.ru/post/17955/
    Но тогда наполучал кучу минусиков =(
  • 0
    Когда уже клонирую Боба Фета?
  • 0
    У нас есть полностью исчерпывающее определение человека? Мирного человека? И определения можно усложнять.

    Каналы связи между роботами можно взломать и исказить поступающую информацию. Достаточно вломиться в систему робота и всё, каюк всем вашим законам, диверсий никто не отменял.
    • +1
      С таким же успехом можно вломиться к президенту и отобрать у него чемоданчик, и всё, контроль над миром твой.
      Это другая уже тема — вопрос безопасности системы.
  • 0
    Военные просто не допустят принятия этих и подобных им законов.
    • 0
      Военные просто проигнорируют эти законы
  • +1
    С какого это перепугу человек сделает меньше ошибок по распознаванию чем робот? А отчего же тогда такое огромное количество смертей чуть ли ни в каждой военной операции?
    • 0
      Вы возьмете ответственность за разработку автоматического оружия если есть 0.000001% сбоя?
      Количество смертей в военной операции точно неуменьшиться. Можно подумать кому то там есть дело до на верхушке до гражданских, когда военная операция с «лозунгом цель оправдывает средства.»
      • 0
        в принципе и так алгоритмы давно применяются по распознованию, но я не думаю что кто то захочет учавствовать в бетатестировании такого аппарата.
        • +2
          Если выбирать, кем будет оккупирован наш город — солдатами или роботами в прошивке которых следование женевской конвенции. я бы однозначно выбрал роботов.
          • 0
            Останется объяснить это остальным кто не технарь. А это считай нереально вааще( Голвуд же в головах…
      • 0
        Я бы никогда не взял на себя ответственность выдавать оружие людям. Ведь те кто в наши дни её на себя берут постоянно и многократно ошибаются.
  • +1
    Ждем появления организации Robot Rights Watch
  • +10
    Главное, быть осторожнее при демонстрации возможностей

    image
  • 0
    специалисты предупреждают о неизбежных ошибках, которые связаны с несовершенной работой алгоритмов компьютерного зрения. В некоторых ситуациях даже человек не может абсолютно точно определить разницу между вооружённым противником и мирным жителем, так что у систем компьютерного зрения наверняка будут ложные срабатывания.


    На самом деле человек может открыть огонь по мирному населению, если ему только покажется, что его жизни угрожает опасность. Робот же, в случае не 100% уверенности, может вести только ответный огонь.
  • +4
    Самсунгу надо было на эпл идти с Samsung Techwin :D
  • –2
    ух ты!!! моя любимая корейская компания не только телики, телефоны, дома, тачки и школы клепает, она еще и оружие делает!!!
    • +1
      Главное, чтобы не на андроиде :-D
      • 0
        Bada :)
        • 0
          Месье знает толк в половых извращениях! :D
  • +1
    Для меня с детства было загадкой, каким образом законы написанные на человеческом языке в человеческой системе понятий можно вставить в программу или электронный блок. Посему, эти законы выглядят очень наивно и даже абсурдно.
  • +1
    Кто пишет правила игры — тот и выигрывает. Разработали на Западе малошумные ТРД — всё, не будем принимать иностранные самолёты с более шумными двигателями. Разработали высокоточное оружие — запретим всем пользоваться неточным оружием, т.к. это негуманно. С роботами, я думаю, будет то же самое.
  • 0
    Бред.
    Во-первых промышленные роботы слишком тупы чтобы вообще знать о том что такое человек.
    Во-вторых военные — специально предназначены для уничтожения людей.
    Имхо авторы — люди с lurkmore.to/%D0%93%D0%A1%D0%9C
  • НЛО прилетело и опубликовало эту надпись здесь
  • 0
    гм.
    Чем меньше люди полагаются на защиту «законов» — бумажек по сути, тем более они защищены от неприятностей. В данном случае, это означает, что люди должны развиваться наравне с роботами или по иному пути, но так, чтобы уравнять свои шансы в случае «чего». Но это уже совсем фантастика и киберпанк.
    • 0
      Киборгизация — как один из вариантов решения проблемы. Полагаю, у киборгов будет преимущество и перед «обычными» людьми, и перед роботами.

Только зарегистрированные пользователи могут оставлять комментарии. Войдите, пожалуйста.