Илон Маск выступает против автономного летального оружия

image

Предприниматель Илон Маск, возглавляющий многие известные технологические компании, известен своей точкой зрения об опасности искусственного интеллекта. Конечно, он знаменит далеко не только благодаря этому мнению. Тем не менее, он выступает против создания сильной формы ИИ с 2014-го года. Тогда он в первый раз публично заявил о том, что искусственный разум может быть опасен. С ним согласен Стивен Хокинг и многие другие ученые, футурологи, специалисты по ИТ. Есть мнение о том, что все человечество может пасть жертвой технологической сингулярности.

Самой опасной, по мнению Маска, является тенденция создания автономного «умного» оружия. По словам предпринимателя, риск появления «роботов-убийц» очень высок, так что необходимо отнестись к этому вопросу со всем возможным тщанием. «Третья революция в вооружениях» уже близка, убеждены специалисты, а автономные «роботы-убийцы» — это своеобразный ящик Пандоры. Времени для решения проблемы остается очень мало.

Примерно неделю назад Маск вместе с 115 видными специалистами, представляющих различные сферы науки и техники подписал открытое письмо, авторы которого просят ООН заняться указанной проблему, причем как можно быстрее.

Письмо было подписано на мероприятии International Joint Conference on Artificial Intelligence (IJCAI 2017), которое проходило в Мельбурне. Кстати, в числе подписавшихся — и основатель DeepMind Мустафа Сулейман, а также Джером Монсе, глава компании Aldebaran Robotics, разработавшей робота Pepper. Если уж руководители компаний, стоящих во главе технологического прогресса, подписывают это письмо, то наверное, над проблемой действительно стоит задуматься.

В письме, в частности, говорится о том, что ИИ и робототехника развиваются такими быстрыми темпами, что возможность ведения войны при помощи автономного оружия, включая роботов, становится все более вероятной. Причем это вопрос ближайших лет, а вовсе не десятилетий, как считалось ранее. Так что уже сейчас необходимо задуматься над тем, каким образом технологии могут повлиять на судьбу человечества. И думать об этом должны, в первую очередь, руководители государств, где технологии развиваются максимально активно.

Сюда можно еще добавить угрозу попадания технологий такого рода в руки террористов и автократов, которые без всяких угрызений совести будут направлять смертоносные инструменты против обычных людей. Даже, если этого удастся избежать, остается еще угроза взлома систем, причем вовсе ненулевая. Хакеры неоднократно доказывали то, что взломать можно практически все, как бы хорошо это «все» ни было бы защищено.

Уже сейчас существуют разработки смертоносного оружия, работающего в автономном или полуавтономном режиме. В числе прочих это вот такой аппарат.



Фото приведено просто для демонстрации того, каким оружием могут быть оснащены роботы на войнах будущего. А ведь уже сейчас в небе летают дроны, способные работать в автоматическом режиме. А корабли оснащаются автоматическими пушками, которые самостоятельно отслеживают возможную угрозу.

Правительства различных стран не согласны с точкой зрения ученых и технологов по разным причинам. Основная — для государств автономное вооружение — это выгодно. Оно способно увеличить эффективность защиты границ или снизить число смертей солдат в случае возникновения локальных или региональных конфликтов. Так, в 2015 году правительство Великобритании выступило против запрещения автономного летального оружия. Более того, разработки вооружения такого типа ведутся здесь очень активно.

Ну а точка зрения ученых, выступающих против автономных «роботов-убийц» хорошо иллюстрируется заявлением основателя Element AI Йошуа Бенджио: «Я подписал открытое письмо, поскольку использование ИИ в автономных системах вооружения противоречит моему пониманию этики, все это может привести к очень опасной эскалации, затронуть всю сферу разработки ИИ. Ситуация должна быть взята под контроль международным сообщества, подобно тому, как это сделано с другими типами вооружений (биологического, химического, ядерного)».



«Создание смертоносного автономного оружия позволяет увеличить масштабы войн до небывалых масштабов, которые даже сложно представить», — говорится в письме. И, вероятно, авторы письма действительно правы.




Считаете ли вы, что автономное оружие действительно настолько опасно?

Только зарегистрированные пользователи могут участвовать в опросе. Войдите, пожалуйста.

Madrobots 204,13
Madrobots — магазин из будущего
Поделиться публикацией
Комментарии 168
  • +2
    На фото MAARS, которому около десяти лет. И он не автономен.
    • –1
      И вообще, кто-нибудь объясните этому кретину, что мина это тоже автономное летальное оружие, и он со своими заявлениями опоздал. :\
      • +1
        Нет ничего нового в этом мире — где-то в начале прошлого тысячелетия один римский папа запрещал арбалеты…
        • +3
          Дистанционное != автономное. Маск говорит за оружие под контролем ИИ, которое само одновременно решает кого убивать, а кого нет — и производит убийство. Мина же просто мина — ей пофиг кто на неё наступил, и сама наступать ни на кого не может, и тем более в избирательной форме.
          • 0
            Есть мины с системой опознания «свой-чужой».
            • 0
              Примитивные нули и единицы, мимо. Речь шла, очевидно, про оружие под управлением нейросетей, что при определённом этапе развития нейросетей в полноценные ИИ может быть чревато, и не обязательно надо совать именно что полноценный в применяемое оружие — просто сам факт наличия такого функционала в нём, и получи доступ к серверу с апдейтами условный злой ИИ, не важно через подкуп/шантаж человека с флешкой, или прямой хак — этого всё очень плохо кончится.

              Так что сам факт автономного, пусть и не развитого по своему интеллекту оружия — просто из-за факта того, что ИИ рано или поздно будет создан, и ситуация может выйти из под контроля — несёт потенциальную угрозу масштабного факапа, так что г-н Маск тут чертовски прав.
              • +1
                Что значит «ситуация может выйти из под контроля»? Мины убивают и гражданских. С ними ситуация давно уже «вышла из под контроля», но ни к каким глобальным проблемам это не привело. Как не приведет и в случае потери контроля над беспилотным дроном или каким-нибудь штурмовым роботом.

                Чтобы случилась неприятность планетарного масштаба эти самые дроны должны уметь размножаться или хотя бы ремонтироваться, заправляться и пополнять боезапас.

                Маск, как мне кажется, озабочен не тем, что неприятность может случиться с человечеством вообще, а тем, что неприятность может случиться с кем-то из золотого миллиарда.
                • +1
                  Маск, мне кажется, озабочен тем, что автономное оружие может вбомбить нас в каменный век. Но это в перспективе. А сейчас мы имеем снижение порога начала войны, который сейчас и так уже низок. А дальше мы вполне можем угодить в т.н. «воронку», когда события как бы сами по себе приводят к эскалации военных действий. Война может стать слишком скоротечной, чтобы ею могли управлять штабы, а тем более политическое руководство.

                  Помните, во время карибского кризиса кубинцы сбили американского лётчика? По действовавшей тогда военной доктрине американцы вполне могли начать военные действия.
                  • 0
                    Вы, видимо, тоже говорите о золотом миллиарде. Ведь войны постоянно идут и в них активно принимают участие страны первого мира, просто не друг с другом. Или не напрямую друг с другом, по крайней мере.
                    • 0
                      Вне «золотого миллиарда» нет такого разрушительного оружия, которое могло бы угрожать существованию цивилизации.

                      А риск действительно большой, если развитие будет откинуто на 500 лет назад, то второй индустриализации не будет. Все легкодоступные ресурсы растрачены.
                      • 0

                        Уголь пока ещё есть, паровыми буровыми вышками наверное смогут и до остатков нефти добраться. Информация о разведанных месторождениях возможно сохранится. Металла будет полно. Длительный коллапс пока ещё не гарантирован. Но ничего приятного, конечно.

                        • 0
                          Зависит от того, как глубоко оппоненты вбомбят друг друга. И вот здесь сильный ИИ вполне может помочь вбомбить оппонента в каменный век.
                          • 0
                            Ну да, уголь тут, руда там — а между ними десяток враждующих полевых командиров — феодалов.
                            И нагнуть их без железного оружия никак.
                            Замкнутый круг.
                            Или до угля шахту в сотню метров копать — а чтобы сделать инструмент для этого уголь нужен.
                          • 0
                            Если вы говорите о ЯО, то оно есть у Северной Кореи, Индии, Пакистана и даже у ЮАР. Это если верить, что страны СНГ действительно уничтожили свои запасы ЯО, а не припрятали их или того хуже — продали кому-нибудь.

                            Но проблема ЯО никак не связана с проблемой ИИ, ну, кроме сюжета фильма «Терминатор». Речь-то же вроде как шла об автономных боевых единицах с обычным вооружением. Даже если они зачем-то разнесут ракетами производственные комплексы и электростанции, убытков будет на десятки миллиардов (да пусть хоть на сотни), но и только.

                            второй индустриализации не будет

                            Вы это к чему?
                            • 0
                              Это если верить, что страны СНГ действительно уничтожили свои запасы ЯО, а не припрятали их или того хуже — продали кому-нибудь.
                              Этому можно верить — ЯО «в штуках» и производства, способные его сделать, достаточно хорошо контролировалось. Другое дело радиоактивные материалы, не пригодные для ЯО, но вполне пригодные для «грязной бомбы».

                              Вы это к чему?
                              Надо немного подумать, и станет ясно.
                              • +1
                                Надо немного подумать, и станет ясно.

                                Я вас не тороплю.
                                • 0
                                  А вы сами так подумать и не пробовали? Печально.
                                  • +1
                                    Мне очень не хочется верить, что вы имели в виду сюжет типа «роботы уничтожают цивилизацию и сами разрушаются, утерявшие знания люди пытаются на обломках мира начать все заново». Ведь дело даже не в том, что этот сюжет заезжен до дыр, хотя Каганов написал отличный рассказ на эту тему, что характерно — без ИИ. И не в морально-этической составляющей — странно переживать о будущих проблемах с металлами у 1% человечества, если погибнет 99%. А в том, что это все не имеет отношения к рассматриваемому оружию, основанному на ИИ.
                                    • 0
                                      Даже не обязательно уничтожают цивилизацию. Просто один нехороший человек может попытаться диктовать свою волю другим, и то чревато миллионами и десятками миллионов жизней.
                                      • +2
                                        миллионами и десятками миллионов жизней

                                        Это население одного мегаполиса. Или количество погибших от плохой медицины и соц. условий в России за пять лет по сравнению с развитыми странами.

                                        Я согласен, что государства — зло. И создавая все более и более мощные инструменты, мы как бы строим себе собственным руками тюрьму и виселицу. Но и это не имеет отношения к краху технократической цивилизации во всем мире.
                                        • 0
                                          Десятки миллионов может быть в несколько раз больше населения всех российских мегаполисов.
                        • 0
                          Война может стать слишком скоротечной

                          И у великой и Могучей Америки начнут то тут, то там отжимать вкусные кусочки от всяких островных баз и подконтрольных территорий. Вот и кричат спешно «запретить!». При том, что реальной власти что-либо запретить у ООН ни фига нет, и запретят они таким образом только самим себе. Зато будет повод поорать «отняли пустой атолл без единого человека бесчеловечным автономным оружием».

                          • 0
                            Так не терпится повоевать, и «отжать кусочек» у великой и Могучей Америки? А потом посмотреть на родные просторы с высоты, пролетая радиоактивным облачком?
                            • 0

                              Прилетели дроны неизвестно откуда, заняли атолл, за дронами приплыли какие-то туземцы, развернули огородик и говорят, что это веками была их земля, а 50 лет назад подлые янки их оттуда прогнали и построили там радар. На кого кидать радиоактивное облачко?

                              • 0
                                Назовите, пожалуйста, такой «атолл».

                                Если же речь о территории США, то на рейде покажется эсминец или фрегат, на вертолёте прилетит взвод морских пехотинцев, и «вежливо» попросит «туземцев» уйти откуда пришли.
                                • 0
                                  Была такая книжка, про гиперболоид. Там плохо для невежливых кончилось.
                                  • 0
                                    Там главной задачей, как помню, было продемонстрировать, что коммунизм — это следующий уровень развития для человеческой цивилизации.
                                    • 0
                                      Да, но как обычно, описание коммунизма в следующем томе.
                                  • 0

                                    К эсминцу или фрегату могут наползти другие дроны, подводные.

                                    • 0
                                      Могут. Но тогда, в конечном счёте, баллистические дроны с ядерной начинкой могут прилететь в гости к хозяину дронов, занявших атолл и наползших на корабль.
                                      • 0
                                        Ну а если он тоже такие межконтинентальные дроны посылать умеет, пусть не ядерные, но лично руководству противника в руки?
                                        • 0
                                          Интересно, много ли стран делают подводные «дроны», способные «наползти» на эсминец или фрегат? ИМХО, больше одной не наберётся.

                                          Не стоит смеяться, такие шутки чреваты глобальной ядерной войной, после которых в качестве дронов кирпичи можно будет пускать.
                                          • 0
                                            Делают сейчас пожалуй не одной — не хотят джина из бутылки выпускать.
                                            Потому как такому дрону достаточно ардуинки, а отказы можно компенсировать количеством дронов
                                            • 0
                                              Ну, фрегат или корвет сейчас тоже не пальцем делают.
                                            • 0
                                              ИМХО, больше одной не наберётся.

                                              Это пока. Потому и спешат навводить ограничений, чтоб кто-нибудь ещё не начал делать. Только не поможет, всё равно начнут.

                                              • 0
                                                Вы считаете, что пока дроны будут совершенствоваться, корвет или фрегат развиваться не будет, и рядом с ним «ручных» дронов не будет, как раз на такой случай, «чтобы не наползали»?
                                                • 0

                                                  Так корвету или фрегату будет запрещено указом ООН иметь достаточно автономных дронов.

                                                  • 0
                                                    Вы об этом с ООН уже договорились?

                                                    Но важно не это. В ситуации Штатов у них хватит сил создать очень серьёзные проблемы для вождя «туземцев», и «туземцы» с визгом исчезнут за линией горизонта. Если успеют.А то ведь с ними поступят как с пиратами.

                                                    Проблемы могут возникнуть у стран типа Украины, и мы сделали уже всё, чтобы они ушли под «зонтик» Штатов.
                                      • 0
                                        Если я верно понимаю, вам неявно цитируют одного современного утописта.
                                        • 0
                                          В данном случае «утопист» будет от слова «утопленник».
                                  • 0
                                    Почему они (подписанты) против такого оружия:
                                    опасаются того, что 'Скайнет' начнёт войну против своего создателя.
                                    Но: не учитывается тот факт, что не все люди находятся в состоянии мира с остальными.
                                    Потому считаю это просто неизбежным. Например, теракты — тоже осуждаются.
                                    И как это влияет на снижение их количества?

                                    Да, принятие подобного заявления к ООН должно замедлить развитие этого процесса.
                                    Но — лишь замедлить.
                          • +1
                            Потрясающе как много казалось бы носителей интеллекта и кругозора не в курсе о существовании прыгающих мин, реагирующих на звук шагов и ракет самостоятельно выбирающих себе цель, с использованием системы свой-чужой и библиотеки типичных инфракрасных изображений целей. А ведь всё это технологии прошлого века.

                            Люди берутся обсуждать искусственный интеллект, а сами рассуждают на уровне мин растяжек, сделанных из гранаты и разбитой бутылки.
                            • 0

                              Эти минные поля самостоятельно перемещаются в сторону противника? Они осуществляют обмен сведениями о текущей обстановке и этот обмен можно перехватить и заставить их атаковать что-то ещё? Срабатывание одной мины может вызвать автоматическую эскалацию до уровня крупномасштабной войны?


                              Нет? Тогда при чём тут это?

                              • –1
                                Специально для тебя:
                                ISO 8373:2012

                                autonomy —
                                ability to perform intended tasks based on current state and sensing, without human intervention


                                Да, прыгающие мины — это автономное оружие.

                                Об этом и речь, что все эти «интеллектуалы» рассуждают про робототехнику, даже будучи не вкурсе с международной классификацией
                                • 0
                                  Интеллектуалы это знают. Но прыгающие, и прочие мины не пойдут на штурм. Мины — это проблема, но автономное оружие с искусственным интелектом — это проблема в кубе.
                                  • 0
                                    Вы можете хоть вечно минусить, но терминология есть терминология. По международному стандарту классификации робототехники автономность прыграющих мин и автономность оружия с искусственным интеллектом — одно и то же.

                                    Да и я очень сомневаюсь, что разработчики будут настолько странными, что подключат автоматическую систему принятия решений к ядерным ракетам или дадут ботам возможность решать делать штурм или нет. Это было бы крайнее странное и опрометчивое решение. Так как в военном деле любая инициатива со стороны солдат совсем не поощряется. Есть такая штука, как дисциплина. Создавать настолько самостоятельное мобильное вооружение не решилась бы ни одна страна.

                                    В любом случае это будет машина повинующаяся приказам человека, она не будет сама решать куда идти. Понятно так? Это уже на уровне фантастики, а эти «интеллектуалы», извините меня, создают хайп на ровном месте из ничего.
                                    • 0
                                      По международному стандарту классификации робототехники автономность прыграющих мин и автономность оружия с искусственным интеллектом — одно и то же.
                                      Согласен. Но это просто потому, что официальная терминология запаздывает.

                                      Да и я очень сомневаюсь, что разработчики будут настолько странными, что подключат автоматическую систему принятия решений к ядерным ракетам или дадут ботам возможность решать делать штурм или нет.
                                      Это понятно, но обратите внимание на то, что «Альфа» и Витязь" отказались тупо выполнить приказ. Боты этого не сделают. В этом принципиальная разница.

                                      В любом случае это будет машина повинующаяся приказам человека, она не будет сама решать куда идти.
                                      А вот это не факт. Кроме того, человек не всегда успеет нажать на «стоп».
                                      • +1
                                        Так как в военном деле любая инициатива со стороны солдат совсем не поощряется.
                                        Не совсем так) Пример из ВОВ. За 50-70 километров от днепра войскам была поставлена задача «выйти к переправам». Как именно они это сделают, не уточнялось в принципе. Кто то ломился на пролом, сбивая все заслоны, кто то заслоны обходил (другие части уберут, главное переправы), кто то совмещал оба способа))) И все были в глазах командования правы)
                                        • 0
                                          Суть в другом. Суть в том, что авторы опасаются мол машины смогут сами развязать войну. Это совсем другое. Все-таки, примеры когда солдаты сами решали напасть без приказа — вряд ли поощрялись. Согласитесь, это далеко не та же самая инициатива, когда дан приказ любым способом «выйти к переправам» или, например, «удержать позиции».
                                          • 0
                                            Тут скорей «напали неправильно интерпретировав приказ»
                                            Правильно отдавать приказы людям за века как-бы научились, а как распознает не слишком конкретный приказ ИИ — непредсказуемо.
                                • 0
                                  Кроме того, представьте себе, что в распоряжении ГКЧП четверть века назад у вас была бы в Москве, скажем, сотня танкеток, с фотографии в статье, и что управляются они ИИ, и имеют секретные базы снабжения и замены аккумуляторов по всему городу.
                                  • 0
                                    Мой отец во время ГКЧП служил в спецназе КГБ «Вымпел», слышали, возможно, про таких. В тот самый день когда уже началось, а Ельцин на самолёте летел в Москву их собрали и даже построили, но никто из имеющих для этого право не отдал приказа сделать так чтобы Ельцин никуда не долетел. Не то чтобы письменного приказа не отдал, а даже устно не набрался смелость на какие либо решительные приказы, только округлыми намёками помусолили и сдулись.

                                    Лично я думаю, что если бы среди устроивших переворот в 91-ом году хватило отмороженности начать действовать так нашлись бы и умеющие действовать, как например это делали в Баку в 1990-м, не потребовались бы никакие танкетки. Всё было бы тихо, успешно, и в результате несчастного случая.

                                    В аналогичной ситуации в 1993-ем году у Ельцина воли отдать приказ хватило. «Вымпел» в жопу послал с приказами штурмовать парламент страны, а «Альфа» не послала, сходили и быстро и деловито всё взяли. Правда тоже Ельцина кинули — он неофициально просил чтобы Руцкого прямо там в здании вальнули, а командир Альфы его под свою ответственность из здания живым вывел прикрыв от снайперов своими бойцами.

                                    При этом тот же «Вымпел» во время того же 93-его прекрасно арестовывал предателей (в буквальном смысле) прямо в здании на Лубянке и опять же никакие танкетки не понадобились. Сосед моего отца по даче, кстати, ходил.

                                    Реальность это вам не книжка про альтернативную историю. В таких ситуациях — хаоса и неопределённости, решают люди, их воля и их навыки, а не танкетки.
                                    • 0
                                      Лично я думаю, что если бы среди устроивших переворот в 91-ом году хватило отмороженности начать действовать так нашлись бы и умеющие действовать, как например это делали в Баку в 1990-м, не потребовались бы никакие танкетки.
                                      С этим — согласен. Но в 1991 году и среди спецназовцев было понимание, что «Так жить нельзя», поэтому, я уверен, что спецназ разделился бы на «про» и «контра».

                                      Нет, ГКЧП, конечно, могло устроить в Москве кровавую баню, но, ИМХО, им бы это не очень помогло. Те же войска могли перейти на другую сторону. Или как в Питере — пересечь границу города и встать лагерем мол, (приказ «войти в город» выполнен, и всё). Правда этому хорошо поспособствовали рабочие с Кировского.

                                      «Вымпел» в жопу послал с приказами штурмовать парламент страны, а «Альфа» не послала, сходили и быстро и деловито всё взяли.
                                      О том, что Руцкого и депутатов в 93 выводили, прикрывая телами от снайперов, я знаю. Я как раз об этом и говорю — арестовать мятежников Альфа согласилась, но мочить по тихому не стала.

                                      Вот поэтому и «танкетки». У них, даже при наличии ИИ, своей воли нет, они выполнят любой приказ.
                              • +2
                                А кстати прекрасное сравнение,

                                сидит ждет пока на неё ктото наступит и бах
                                сидит ждет пока мимопроходил ниточку зацепил и бах
                                сидит ждет пока мимопроходил будет похож на человека и бах
                                ездит на рельсах вдоль забора, видит похож на человека и бах
                                ездит по маршруту, видит похож на человека и бах
                                ездит по маршруту, видит похож на полковника вражеской армии и бах

                                где грань автономной летальности между тупой миной и сильным ИИ?
                                • 0
                                  Всё что действует по неизвестному человеку алгоритму.
                                  • +1

                                    Нейросети действуют по известному алгоритму, но заодно являются универсальными аппроксиматорами. Обученная сеть реализует неизвестную нам функцию, выполняющую, скажем, отличение кошки от собаки. Это уже неизвестный алгоритм?

                                    • 0
                                      Нет, алгоритм как раз неизвестен — хрен знает, по какому именно признаку нейросеть научилась отличать одно от другого? Тут было несколько статей про глюки распознавания образов, вот совсем недавно geektimes.ru/post/291847
                                      А уж как она «распознает» ранее неизвестный образ — вообще непредсказуемо. Распознает своё мирное население как армию противника, например…
                                    • +3
                                      А сам-то человек действует по известному человеку алгоритму?
                                      • 0
                                        Человек как нейросеть тоже по неизвестному. Но тут в большинстве случаев можно просто самому попробовать подумать, чтобы получить аналогичный результат.
                                    • 0

                                      То, что убивает без прямого контроля человеком, даже если не ходить по территории огороженной табличками "осторожно мины"?

                                      • 0
                                        Противовоздушная мина? Автономна, плюс ни разу не видел территорию, огороженную воздушными шариками с «Achtung! Minen!».
                                      • +3

                                        То, что нет четкой границы, не означает, что нет разницы.

                                        • 0
                                          +1
                                        • 0
                                          Почему они против такого оружия:
                                          опасаются того, что 'Скайнет' начнёт войну против своего создателя.
                                          Но: не учитывается тот факт, что не все люди находятся в состоянии мира с остальными.
                                          Потому считаю это просто неизбежным. Например, теракты — тоже осуждаются.
                                          И как это влияет на снижение их количества?

                                          Да, принятие подобного заявления к ООН должно замедлить развитие этого процесса.
                                          Но — лишь замедлить.
                                          • 0
                                            Почему они (подписанты) против такого оружия:
                                            опасаются того, что 'Скайнет' начнёт войну против своего создателя.
                                            Но: не учитывается тот факт, что не все люди находятся в состоянии мира с остальными.
                                            Потому считаю это просто неизбежным. Например, теракты — тоже осуждаются.
                                            И как это влияет на снижение их количества?

                                            Да, принятие подобного заявления к ООН должно замедлить развитие этого процесса.
                                            Но — лишь замедлить.
                                        • +3
                                          Статья про опасное автономное оружие. В конце промо код на скидку к опасному автономному оружию. Ням
                                          • +1
                                            Короче, боятся что менее антимилитаристским компаниям выделят гранты военного размера на разработку ИИ.
                                            • 0
                                              Странные эти все запреты. Давайте запретим на уровне ООН, страны и т.д. и т.п. Как по мне — все эти запреты нужны, только что бы у честных и небольших стран этого не было, всех остальных это не остановит. Это как закон о запрете огнестрела, и как итог, законопослушные граждане в заведомо проигрышной позиции, ибо преступникам все равно на сии законы, у них все есть
                                              • +2
                                                Ну, почему? Договор о нераспространении ядерного оружия вполне себе действует, в основном действует запрет на распространение ракетных технологий, довольно эффективен контроль над биологическим и химическим оружием. Такова реальность.
                                                • +3
                                                  Это работает в силу труднодоступности (специфичности( части составляющих, либо сложности технологии. В случае автономных роботов, мы прекрасно понимаем, что тут ограничить весьма проблематично. Тут ближе к огнестрелу. Де юре — запрещено, де-факто — его нет только у законопослушных граждан.
                                                  • 0
                                                    Вы считаете, что, например, биологическое оружие труднодоступно? Уверяю — ошибаетесь.
                                                    • +1
                                                      Вполне возможно. Я в химии не компетентен. Но, мои бытовые познания говорят о том, что не все реактивы есть в свободной продаже и/или легкодоступны. Возможно, не все так просто. Ибо какой не был бы надзор, изготовить можно все, что позволяют ресурсы и возможности, и применить, особенно терористам, которые, вполне могут все изготавливать прямо на месте, раз это не сложно. Возможно есть еще какие-либо причины. Но не отнюдь не то, что кто-то где-то договорился, и страну не спросил. Яркий пример — КНДР. Все вокруг скулят — а воз и ныне там. Так же Иран. По этому я и утверждал, что ООН и прочие — это не панацея. А если взять в учет именно терористов, то там становится все еще проще. Их запреты ООН или государства априори не волнуют
                                                      • 0
                                                        Хлор продаётся даже мирным жителям.
                                                        Хлор был одним из первых химических отравляющих веществ, использованных Германией в Первую мировую войну, впервые применен в 1915 году во время битвы при Ипре.
                                                        • +1
                                                          Тут в деревню ездил к приятелю, в деревенском магазине аммиачную селитру продают, прям вот на полу лежат мешки по 10 кило. Бери — не хочу.
                                                          • 0
                                                            ВУ можно собрать из стеклянной баночки от детского питания и спичек. Правда спичек понадобится вагон, чтобы серных головок наковырять на баночку. Или флэша из петард. Тут главное проявить смекалку. А что можно сделать из перекиси водорода, серной кислоты и ацетона я уже молчу
                                                        • –1

                                                          Вот, как и эти опасные реактивы, так же и все достаточно мощные и специализированные процы запретят для свободной продажи, а в то что разрешено встроят рубильник, чтоб если что, то бац и приехали. И это, я думаю, простейший путь обуздать автономное оружие, его несанкционированное производство и прочее неведомое нечто.

                                                          • –1

                                                            И в самом деле, нужен международный договор по вопросам производства и использования автономного оружия и применения ИИ технологий в военной технике. И это может и звучит как-то убого все, но намного лучше, чем оказаться на поле боя между разными формами ИИ. Я полагаю, тут все хотят жить долго и счастливо.
                                                            И дело каждого коллеги по ИТ не допустить скатывания известного нам мира в хаос. Лучше пока притормозить.

                                                            • 0
                                                              в случае с ИИ это практически неосуществимо, при условии что мы не откатываемся в каменный век. Любой минимально производительный смартфон может обсчитывать сеть. Ограничение в поставках специализированных или высокопроизводительных решений — так сделают кластеры на менее производительных. Спецрешение — fpga. Имхо, сложнее тут проконтролировать.
                                                              • 0
                                                                Тогда действует принцип коллективной безопасности — нарушителя режима давят всем миром.
                                                            • 0
                                                              Но, мои бытовые познания говорят о том, что не все реактивы есть в свободной продаже и/или легкодоступны.
                                                              На уровне государства или достаточно крупной корпорации вполне доступны, поэтому и есть уверенность, что режим ограничения биологического и химического оружия действует.

                                                              Сложнее на уровне террористов, но в Японии крупная секта смогла изготовить вполне современные V-газы.

                                                              Ещё сложнее с биологическим оружием. Достаточно квалифицированный врач-эпидемиолог сможет его создать, так как практически везде есть захоронения, оставшиеся после какой либо эпидемии, и вовсе не все они нормально обеззаражены, а многие бактерии сохраняют вирулентность в могильниках сотни и тысячи лет. И вот для этого не нужны какие-то крутые ресурсы.

                                                              При первой же попытке КНДР применить ОМП её сотрут в порошок. Другое дело, что КНДР (как и Россия в последнее время) ведёт себя как гопник, который понимает, что окружающие, в отличии от его, будут думать о рисках и последствиях. Тем не менее стоит чуть-чуть слишком нажать — и всё будет.
                                                              • 0
                                                                Там зарин был. Тоже блокатор ацетилхолинэстеразы, но не V-газы. Он вроде не особо сложный в синтезе.
                                                                • 0
                                                                  Сорри, возраст, склероз. Но и с V-газами они тоже экспериментировали, если не ошибаюсь.
                                                              • 0
                                                                Я в химии не компетентен. Но, мои бытовые познания говорят о том, что не все реактивы есть в свободной продаже и/или легкодоступны. Возможно, не все так просто.
                                                                Ваши бытовые познания ошибаются.
                                                                Просто террористы — унылые неучи, неспособные даже к воспроизведению примитивных химических технологий. В общем-то, оно явно к лучшему.
                                                          • 0

                                                            Да, биологическое оружие, несомненно, находится под контролем, вот только под чьим?

                                                            • 0
                                                              С этим согласен. Споры сибирской язвы — пример того, что могут в своё распоряжение получить даже индивидуальные террористы.
                                                            • 0
                                                              Сложно сказать, насколько эффективен контроль над биологическим. То, что оно ещё не было пущено в ход — ещё не свидетельствует о том, что его никто не исследует и не производит. Инспекции ООН в своё время мало нашли в Ираке, и только после того как Хусейн Камель переметнулся, они сами внезапно признали, что вовсю производили антракс и ботулотоксин аж с восьмидесятых годов. Причём даже сами штаммы они получили от американского центра по контролю заболеваний — просто взяли и заказали. Для медицинских исследований.
                                                              • 0
                                                                Это, всё же, скорее химическое оружие, производимое методами микробиологии.
                                                                • 0
                                                                  Ботулотоксин, да, пожалуй. Антракс — сибирская язва — это всё-таки биологическое. Причём это только то, что они в промышленных масштабах производили под носом у всех, а исследовали ещё кучу вещей — энтеровирус 17, camelpox, возбудителей газовой гангрены. Образцы штаммов вообще всем доступны, их CDC официально послала, согласно рекомендациям ВОЗ по свободному обмене образцами между исследователями.
                                                                  • 0
                                                                    Образцы штаммов вообще всем Доступны
                                                                    Сертифицированным лабораториям, что в масштабах страны не сложно. Хотя на это есть и ограничения.
                                                                    • 0
                                                                      Я не имел в виду кому-то с улицы, конечно. Ирак попросил, ему дали — скажем так, это, думается, гораздо легче чем контрабандой тащить урановую руду.
                                                                      • 0
                                                                        Я понимаю, как понимаю и то, что добыть вирулентную бактерию язвы в состоянии практически любой. Правда, не любой после этого выживет. но для устройства теракта с сибирской язвой не нужна большая террористическая организация.
                                                                        • 0
                                                                          У любого теракта есть его вдохновители, которые совсем не собираются гибнуть после его совершения, а очень даже наоборот.
                                                                          И при каком-то уровне угрозы их просто убьют невзирая на сложившиеся международные законы
                                                                          • 0
                                                                            Я и говорю — достаточно иметь совсем небольшую организацию, чтобы получить возможность совершить теракт биологическим оружием. Вычислить и убить их всех в принципе невозможно. Всегда останется риск, что кто-то уцелел.
                                                                            • 0
                                                                              Теракты не совершают просто так.
                                                                              Поэтому достаточно выявить и зачистить выгодополучателей, остальные члены организации неважны.
                                                                              • 0
                                                                                Такими действиями, с учётом специфики менталитета восточных народов, вы скорее будете раз за разом получать через некоторое время поколение, в котором террористов будет всё больше и больше. «Вычищенный» вами террорист в их представлениях будет в раю рядом с богом вкушать явства с окружении сотни девственниц.

                                                                                Заставьте его убирать за свиньями и есть свинину. Пусть живёт, но разрушьте его дом, чтобы семья была вынуждена просить милостыню, а у сына не было денег выкупить невесту. Пусть знает, что семья отвечает за его.
                                                                                • 0
                                                                                  террористов может будет и больше — но всё глупее и глупее.
                                                                                  • 0
                                                                                    А террористам не обязательно быть умными, чтобы убивать гражданских.
                                                                                    • 0

                                                                                      Но у террористов могут закончится деньги на убийство гражданских, если давить по цепочке источники их финансирования.

                                                                                      • 0
                                                                                        Умным надо быть тому, кто им покажет где гражданские. Вот его-то и давить.
                                                                                        • 0
                                                                                          Где гражданские? Да вот в автобусе.

                                                                                          Eklykti, давить по цепочке финансирования, разумеется, надо, но пока вы не найдёте идеологию, которая будет более привлекательной, чем идеология фанатиков, пока вы не внедрите её в головы молодого поколения, причём не только у себя, а там. где эти фанатики рождаются, вы террористов не победите.

                                                                                          Просто потому, что средства для террора фанатиков, по большому счёту, нужны небольшие — пока фанатик ни в грош не ставит свою жизнь. Пройдите выше по треду, я же там как раз и говорю, что фанатикам для организации террора много денег не надо! Но заставьте его поверить в ценность собственной жизни — и ситуация изменится.
                                                                                    • 0
                                                                                      «Вычищенный» вами террорист в их представлениях будет в раю рядом с богом вкушать явства с окружении сотни девственниц
                                                                                      Я конечно жестокая, Но если террористов вешать или скармливать тела собакам. то не будут, не то, что явства вкушать, но и в рай не попадут…
                                                                                      • 0
                                                                                        Я о том, что необходимо учитывать менталитет террористов, и наказывать их и их соучастников с учётом этого. Но только тех, чьё соучастие доказано судом. Иначе мы идём на поводу у террористов и отказываемся от того, что отличает нас от них.
                                                                  • 0
                                                                    Ну, даже по имеющимся штаммам работы явно должны идти.
                                                                    Та же сибирская язва, полагаю, должна как минимум активно изучаться в специализированных институтах (и быть там в активной форме, естественно) с попыткой выработки лечения, попыток сделать вакцины и так далее.
                                                                    А забабахать биологическую «руку мертвеца» — вполне заманчиво.
                                                              • 0
                                                                Как всегда youtu.be/JsgbkuMnm6U?t=146
                                                                • +5
                                                                  image
                                                                  • +1
                                                                    Сильный ИИ — следующая ступень эволюции, нет никакого смысла противиться его созданию. Лучше наоборот ускорить.
                                                                    • 0
                                                                      "Лучше наоборот ускорить."
                                                                      Зачем? То что кто-то "следующая ступень" — не делает его лучше или нужнее — это человеческие термины, существующие только в рамках человеческой системы ценностей. Эволюция сама по себе это просто процесс, вроде дрейфа континентов.
                                                                      " нет никакого смысла противиться"
                                                                      С эволюционной точки зрения если противится хочется и можется, то "следующая ступень" — не "следующая ступень", а "тупиковая ветвь". Если нет — то нет.
                                                                    • +1
                                                                      «Создание смертоносного автономного оружия позволяет увеличить масштабы войн до небывалых масштабов, которые даже сложно представить»

                                                                      1) И кто первый достигнет бОльших масштабов тот и в лучшей военной позиции.
                                                                      И сможет всем рассказывать что нужно делать а что нет.

                                                                      2) Выйдет ли ИИ из под контроля человека зависит от очень многих факторов, но то что он появится это точно тк см.п.№1.

                                                                      3) Ну а тк имеет место конкурентность (см.п.№1) то качество очередного решения может таки быть не совершенным, что может быть одним из факторов п.№2.
                                                                      • 0
                                                                        И кто первый достигнет бОльших масштабов тот и в лучшей военной позиции.
                                                                        И сможет всем рассказывать что нужно делать а что нет.
                                                                        На первых порах превосходство не будет слишком большим — можно будет задавить массой. Даже искусственный интеллект всё равно в качестве оружия вынужден будет использовать те же пули снаряды, ракеты.
                                                                        • 0

                                                                          Наверно можно будет задавить. Но, скажем, во Вьетнаме американцы тратили 50000 пуль на одного убитого противника. Сколько человек сможет убить робот, выпустив 50000 пуль?

                                                                          • 0
                                                                            Собственно, об этом Маск и говорит.
                                                                      • +2

                                                                        не знаю, в моей философии создание ии, который будет умнее человека и в последствии к человеку будет относиться как человек к муравью\кошке\корове\вредителям? — обычный эволюционный, нужный и очень важный вопрос.


                                                                        Просто надо смириться, дать более лучшее неорганическое но превосходящее по когнитивным возможностям потомство и осесть в человеческих заповедниках сгинуть в небытие.

                                                                        • 0

                                                                          Нужный кому? Вселенной — безразлично. Людям, при таком раскладе — вред. А заботится об интересах несуществующих железяк — просто глупость какая-то.

                                                                          • 0

                                                                            Ну на счет вселенной я бы не был так уверен. Она любит тратить энергию и упорядочивать. Планеты там на орбиты сажать, тела в состояния покоя засовывать. Вполне может оказаться, что вселенной выгоднее в этом плане ИИ будет, нежели белковые процессоры. Но это я так, языком почесать.


                                                                            А вообще для меня это процесс ради процесса: Продолжение эволюционного развития жизни на качественно новом уровне. Один фиг все в нашем биологическом мире направленно на этот процесс, хоть сразу и не скажешь.

                                                                        • 0

                                                                          Люди долго привыкали убивать друг друга не лицом к лицу, а на расстоянии, не видя противника. И автономное роботизированное оружие — это еще один шаг по этому пути, как бы страшно это не было, но те страны, кто будет обладать этой технологией, будут победителями на полях боя будущего. Нам надо не сопли распускать, а работать над созданием такого оружия, потому что оно гарантирует нам мир, как гарантирует ядерное оружие и технологии автоматического ответа, типа "мертвой руки". Пока американцы пишут такие письма в ООН, они с одной стороны ведут работу над ИИ (тот же Маск), а с другой дискредитируют саму роль ООН как международной организации — считай вешают всему миру лапшу про пацифизм, при этом готовя оружие будущего и снижая роль мирового регулятора, который хоть как-то способен их ограничить.

                                                                          • +1
                                                                            Люди долго привыкали убивать друг друга не лицом к лицу, а на расстоянии, не видя противника. И автономное роботизированное оружие — это еще один шаг по этому пути, как бы страшно это не было, но те страны, кто будет обладать этой технологией, будут победителями на полях боя будущего.
                                                                            Не обязательно. Вполне возможен вариант, когда победителей не останется, или уровень цивилизации будет снижен лет на пятьсот. Второй индустриализации не будет — все легко извлекаемые ресурсы уже истрачены.
                                                                          • 0
                                                                            Создание смертоносного автономного оружия позволяет увеличить масштабы войн до небывалых масштабов, которые даже сложно представить

                                                                            Так когда то говорили про пулемёт.

                                                                            • 0

                                                                              И получили первую мировую войну. Там, конечно, повлияли в основном не пулемёты, а поезда, то есть увеличение логистических возможностей.

                                                                            • 0
                                                                              То что люди рано или поздно создадут «скайнет» глупо отрицать. Вопрос лишь в том как он будет называться на самом деле — Google, Яндекс или Baidu)))
                                                                              • 0
                                                                                люди рано или поздно создадут «скайнет»

                                                                                Почему в будущем времени?!

                                                                                Совершенно реальный проект основанный на BIG DATA обкатываемый сейчас американцами на Пакистане так и называется SKYNET. en.wikipedia.org/wiki/SKYNET_%28surveillance_program%29

                                                                                И этот проект занимается тем, что вычисляет подозреваемых в терроризме и высылает беспилотники на их ликвидацию. Пока что беспилотники управляются людьми, но с появлением автоматических дронов, SKYNET начнёт работать в полностью автоматическом режиме. Со временем этот проект предполагается расширить на все другие страны с высоким уровнем терроризма. И как следствие, логично ожидать, что дроны SKYNET начнут летать над трущобами Парижа для защиты от террористов, то есть будут летать и в самих странах Золотого Миллиарда.
                                                                              • 0
                                                                                Не совсем понятно в чем опасность.

                                                                                Если, например, залить в танк ИИ, и у этого ИИ будут внедрены нужные постулаты (в момент обучения), То чем он может быть опасен владельцу?, ИИ не сможет просто так взять и вырезать себе восприятие окружающего и вставить другое.

                                                                                Как из сети машин с ИИ может получиться подобие скайнета?
                                                                                Чем, танки, самолеты, машины, мелкие гусеничные роботы, приделают себе руки и ноги, чтобы строить заводы по производству себе подобных…

                                                                                Хорошо, даже если они будут управляться центральным дата центром, который вдруг захочет уничтожить всех, что помешает его отключить?
                                                                                • 0

                                                                                  Скайнет — это совсем маловероятный сценарий. Тут речь о другом. Понижение планки для начала военных действий из-за отсутствия человеческих потерь и сопутствующих этому политических проблем у инициатора. Упрощение контроля за населением в диктатурах. Увеличение потенциальных потерь от кибертерроризма и кибердиверсий. Потеря командованием контроля над ситуацией из-за слишком быстрого темпа боевых действий. И т.п.

                                                                                  • 0

                                                                                    Имхо исторически боевые действия, теми кто их затевает, оцениваются прежде всего с финансовой стороны, людские ресурсы, как и ресурсы материальные есть расходный материал. Люди относительно недорогой ресурс — сами размножаются, сами кормятся, работают. Роботы с ИИ на этом фоне выглядят намного дороже.

                                                                                  • 0
                                                                                    Нет никакой гарантии, что постулаты будут введены правильно
                                                                                    geektimes.ru/post/291847
                                                                                    • 0
                                                                                      На то они и специалисты, а оно и тестирование.
                                                                                      Саботировать машину с ИИ картинками, очень сомнительная затея.
                                                                                      Для этого потребуется в боевых условиях захватить машину с актуальным для всех остальных машин ИИ состоянием, избежать самоуничтожения машины или ее мозгов, подобрать что то визуальное, что повлияет на работу этой машины и как то суметь передать изображение на камеры остальным машинам. Но ведь каждая машина будет в своей уникальной среде и воспринимать эту среду по своему, если машина способна еще и обучаться, то каждое состояние будет уникальным.
                                                                                      • 0
                                                                                        Сознательно саботировать — оно да, сложно. Но данный пример показывает, как легко заставить машину неверно распознать символ.
                                                                                        Т.е. ввести правило что надо убивать исключительно солдат противника не получится, нейросеть может внезапно для всех отнести к ним покупателей очередной модной сумочки.
                                                                                        • 0
                                                                                          Но мы имеем ввиду достаточно разумный ИИ, способный в реальном времени оценивать объект.
                                                                                          Как обычный солдат оценивает врага?, — по иной одежде, оружию, расположению и реакции.

                                                                                          Покупатели модной сумочки в зоне боевых действий? Мы же не говорим об ИИ у роботов — полицейских в мирное время.
                                                                                          • 0
                                                                                            Если вы имеете ввиду подделку противником своих юнитов визуально под союзных юнитов противника, то есть старая проверенная система свою-чужой.
                                                                                            • 0
                                                                                              Обычного солдата можно спросить «а почему ты его отнёс к противникам?», нейросеть же не даст ответа.
                                                                                              И я имею в виду обратную ситуацию — опознание своих/нейтралов как противника.
                                                                                              Робокоп, расстреливающий детский сад потому что «подумал» что это террористы
                                                                                              • 0
                                                                                                Но почему он может это «подумать» — (оценить)? Ведь в него будут вложены известные человеку образы террористов. К которым дети явно имеют отдаленное сходство.
                                                                                                • 0
                                                                                                  К которым дети явно имеют отдаленное сходство.
                                                                                                  Именно поэтому реальные террористы достаточно часто привлекают детей и подростков к участию в своей деятельности. В результате танки с ИИ будут подрывать малолетние живые бомбы.
                                                                                                  • 0
                                                                                                    Ну да — а потом случайный человек окажется очень похож на этот образ и ликвидирован.
                                                                                      • +1
                                                                                        Упущен вариант ответа «автономное оружие приведет к понижению уровня истерии и повышению гуманизации общества».
                                                                                        • +1
                                                                                          Воевать люди все равно будут. Но в случае с автономными боевыми человекоподобными роботами, жертв будет меньше. А в случае боя между роботами и роботами — количество жертв будет в пределах погрешности. Что в этом плохого?
                                                                                          • 0
                                                                                            Кто мешал и мешает выставлять в войнах по одному бойцу от страны? Или вообще решать все боксом/греко-римской борьбой в рамках олимпиад? Жертв минимально. Сравнительно недорого и все такое…

                                                                                            Да только на экономику (причину войн) сражения «робот против робота» влияют очень слабо. А вот «робот против людей» («бомбардировщик против людей», «артобстрел против людей» и так далее) — намного сильнее.
                                                                                            • 0
                                                                                              Мешает отсутствие желания у некоторых соблюдать соглашение после проигрыша…
                                                                                              • 0
                                                                                                Да только на экономику (причину войн) сражения «робот против робота» влияют очень слабо. А вот «робот против людей» («бомбардировщик против людей», «артобстрел против людей» и так далее) — намного сильнее.
                                                                                                Можете объяснить подробнее? Я не очень понял.
                                                                                                • 0
                                                                                                  Если сражения делать вида «вышел робот в чисто поле и уничтожил робота противника», то у противника экономика не падает, он потерял по сути только стоимость робота, что — копейки.

                                                                                                  Если вместо этого с помощью беспилотника или классического самолета скинуть бомбу на требуемый завод (обитаемый, то есть люди тоже пострадают), железнодорожный узел, узел связи, центр снабжения — подрыв экономики выйдет намного больше.
                                                                                                  Если устроить несколько террактов (то есть акций, принципиально ориентирующихся на поражение людей), то перевозбудившиеся власти начнут ставить рамки и охранников. Чем опять же ухудшат состояние экономики — здоровые лбы вместо осмысленной работы будут гонять население через рамочки. А население — терять человековека.
                                                                                            • 0
                                                                                              Всё это хорошо, только для начала надо запретить уже существующие doomsday-системы типа «Периметр», так как они также как и прочие автономные системы не защищены от ложного срабатывания. Только кто от них сейчас откажется-то? Как-никак вторая холодная война на дворе :(
                                                                                              • 0

                                                                                                Вы статью-то вообще читали?


                                                                                                Она была разработана так, чтобы находиться в дремлющем состоянии, пока высокопоставленное официальное лицо не активирует её в кризисной ситуации. Тогда она начала бы мониторить сеть датчиков — сейсмических, радиационных, атмосферного давления — на признаки ядерных взрывов. Прежде чем запустить ответный удар, система должна была бы проверить четыре «если»: если система была активирована, сперва она попыталась бы определить, имело ли место применение ядерного оружия на советской территории. Если бы это оказалось похожим на правду, система проверила бы наличие связи c Генеральным штабом. Если связь имелась, система бы автоматически отключилась по прошествии некоторого времени — от 15 минут до часа — прошедшего без дальнейших признаков атаки, в предположении, что официальные лица, способные отдать приказ о контратаке, по-прежнему живы. Но если бы связи не было, «Периметр» решил бы, что Судный день настал, и незамедлительно передал право принятия решения о запуске любому, кто в этот момент находился бы глубоко в защищённом бункере, в обход обычных многочисленных инстанций.

                                                                                                "Периметр" не запускает ракеты, он всего лишь даёт право запуска ракет человеку, который в нормальной ситуации этого права не имеет.

                                                                                                • 0
                                                                                                  Чуть выше: «Другой предполагаемый вариант работы системы — при получении информации о первых признаках ракетного нападения Верховный главнокомандующий переводит систему в боевой режим. После этого, если в течение определённого времени командный пункт системы не получает сигнал на остановку боевого алгоритма, то происходит пуск командных ракет.»

                                                                                                  А то, что вы цитировали, это из интервью одного из создателей.
                                                                                                  Создатели подобных систем всегда в интервью говорят чистую правду, да и система совсем не секретная, как и алгоритм работы, конечно же.
                                                                                                  • 0
                                                                                                    В любом случае у ракеты есть «дежурный» который должен нажать на кнопку запуска.
                                                                                                    И если этот «дежурный» не получил приказ об отмене запуска то по регламенту должен совершить запуск.

                                                                                                    Всякие чемоданчики и периметры всего лишь дают доступ «дежурному» к кнопке пуска.
                                                                                                    • 0
                                                                                                      Вы достоверно знаете или, как и я, предполагаете?

                                                                                                      Система, зависимая от человека или нескольких, не может всерьез считаться «рукой мертвеца».
                                                                                                      Если бы я делал именно «руку мертвеца», я бы предусмотрел и сценарий, когда дежурный (дежурные) на пульте должен подтверждать свое существование системе с некой периодичностью по аналогии с УКБМ. И в случае, если ни один из людей, могущих дать команду на пуск, недоступен (при доступности их терминалов управления), а система находится на боевом взводе, давать команду на запуск.
                                                                                                      • 0
                                                                                                        Точно знаю. По крайней на подлодках и шахтах так.

                                                                                                        Если дежурный, а это человек физически находящийся рядом и может дотронуться рукой до ракет(в смысле при желании добраться до неё), не может подтвердить своё существование значит либо само место базирования разрушено/уничтожено/захвачено и запуск будет не возможен.

                                                                                                        Приказ на запуск будет задолго до того как оружие противника ударит по объекту(лететь далеко) да и запас по ударной мощи хороший и заранее предусматривает, что часть ракет не выйдет из шахт, часть собьют ПРО/ПВО и т.д…

                                                                                                        По этому я уверен, что аналог с УКБМ, тут просто не нужен.
                                                                                                        • 0
                                                                                                          Полагаю, в системах, отдающих команду не на запуск конкретной ракеты/пачки ракет в непосредственной близости от пусковой, а глобально для устраивания атомного армагедца алгоритмы и процедуры могут быть совсем другими.
                                                                                                          Смотрите, на пусковой это, может, и требуется. Чтобы ответственнный за пусковую дежурный подтвердил пуск.

                                                                                                          Но в случае «ядерного чемоданчика» нельзя завязываться, что главковерх всегда возле чемоданчика. Должна быть и возможность инициации удара в случае определенных ситуаций (например, борт №1 уничтожен вместе с чемоданчиком).
                                                                                                          • 0
                                                                                                            Нет команды на запуск пачки ракет, есть команда на включение доступа дежурного у пуску ракет(ы).
                                                                                                            Чемоданчик это переносной пульт, этих пультов несколько, в том числе и стационарный, в Чехове, в убежище генштаба.
                                                                                                            В «штатной» ситуации, команда на запуск будет идти от генштаба( в армии всё построено на иерархии).

                                                                                                            Для случая когда полный ахтунг и есть система «периметр». Она отдаст команду, что можно пускать ракеты. (по моему периметр = чемоданцик)
                                                                                                            • 0
                                                                                                              Прохождение команды по всем уровням иерархии дело слишком долгое и приемлемо только если ты стреляешь первым.
                                                                                                              Чемоданчик как раз для того и придуман, чтобы передать команду от Главнокомандующего сразу дежурящим за пультами запусков.
                                                                                                              ну а если и чемоданчик накрылся — тогда «периметр»
                                                                                                  • 0
                                                                                                    Вот именно, «Периметр» в случае проблем со связью может передать управление человеку, незнакомому с особенностями работы системы обнаружения, попросту говоря, неспециалисту. Например Ложное срабатывание системы предупреждения о ракетном нападении (1983)
                                                                                                    Вероятно, это был первый подобный случай на принятой за год до этого на вооружение системе. Спутник передал сообщение о запуске нескольких ракет с континентальной части США. Но радарное наблюдение не могло подтвердить этого, так как «ракеты» находились ещё слишком далеко.
                                                                                                    Тревога 26 сентября 1983 года была признана ложной решением оперативного дежурного командного пункта Серпухов-15, находящегося в 100 км от Москвы, подполковника С. Е. Петрова.
                                                                                                    А неспециалист может и не подозревать, что система врёт.
                                                                                                    • 0
                                                                                                      Неспециалист с минимальным мозгом может дотумкать, что враги — не настолько дебилы, чтобы запускать «несколько ракет» из 100500 имеющихся.
                                                                                                • 0
                                                                                                  Думается мне, если запретит ООН создавать подобное оружие и даже если страны их послушаются, то всегда найдется какой нибудь ИГИЛ, проплаченный какой нибудь америкой, где будут лаборатории и заводы по изучению и производству этого оружия. А противопоставить им будет нечего, потому что ООН… Ну разве что ракетами их бить. А если ПРО у них будет (что логично)?
                                                                                                  И что самое странное, я думаю те люди, которые хотят это запретить, должны догадываться о таком исходе. А что если они знают о таком исходе и искусственно к этому ведут? А что, если в тех лабораториях и заводах будут работать люди тех самых компаний, которые работают над ИИ но выступают против создания такого оружия? Потому что не припомню я магнатов, которые намеренно отказывались от собственной выгоды ради мира во всем мире.