Редактор Geektimes
941,4
рейтинг
21 ноября 2014 в 19:39

Илон Маск считает, что искусственный интеллект опасен для человечества



Об опасности искусственного интеллекта много говорят и пишут. Есть те, кто считает, что ИИ никогда не будет вредить по той либо иной причине (хотя бы потому, что искусственный разум будет подчиняться трем законам робототехники).

Но есть и те, кто считает, что человек может стать жертвой технологической сигнулярности, а искусственный интеллект — опасен. Недавно Стивен Хокинг, один из величайших умов нашего времени, назвал искусственный интеллект величайшей ошибкой человечества. Похоже, что примерно так считает и небезызвестный Илон Маск.

Выяснилось это в пятницу, когда автор термина «виртуальная реальность» Джарон Ланье открыл дисскуссию об ИИ. Его идеи стали обсуждать многие ученые, писатели, инженеры и бизнесмены. Среди прочих был опубликован и комментарий от Илона Маска, где он прогнозирует риск появления «чего-то очень опасного в пределах 5-10 лет». Под «чем-то опасным» подразумевается опасный для человека искусственный разум.

Через несколько минут Маск (или его отдел по работе со СМИ) стер комментарий, но его успели заскринить:



Маск считает, что сейчас успехи специалистов, работающих над созданием ИИ, чрезвычайно заметны, дело двигается очень быстро, и уже через несколько лет мы можем увидеть реальный искусственный интеллект. И этот разум может быть вовсе не дружелюбным в отношении человеку. Маск надеется на то, что создатели ИИ смогут его контролировать, и не дать плохим парням (в смысле, цифровому суперразуму) убежать в Интернет.

Кстати, не так давно Маск назвал искусственный интеллект «созданным человеком демоном».

Мнение маска ставит его в положение человека, который не только пытается прогнозировать будущее, но и старается предусмотреть различные варианты опасностей, которые могут встретиться на пути развивающегося человечества. И одной из таких опасностей вполне может быть ИИ.

Пресс-секретарь Илона Маска пообещал в письме к Mashable, что вскоре Маск опубликует более подробное мнение об искусственном интеллекте. Будем ждать.

Кстати, здесь нельзя не вспомнить НФ рассказ, в котором человечество расселилось по Галактике, и каждая планета создала по суперкомпьютеру. После было решено объединить все супермашины в единую сеть. После того, как это было сделано, руководитель проекта спросил машину: «Есть ли бог?». И машина ответила ему «Теперь есть». После этого с чистого и ясного неба ударила молния, запаяв рычаг во включенном положении. Заодно молния убила и оператора, который пытался выключить систему.

Время написания рассказа — 1954 год. Похоже, фантасты, как всегда — впереди планеты всей.
Считаете ли вы ИИ опасным для человека?

Проголосовало 2279 человек. Воздержалось 293 человека.

Только зарегистрированные пользователи могут участвовать в опросе. Войдите, пожалуйста.

marks @marks
карма
168,7
рейтинг 941,4
Редактор Geektimes
Реклама помогает поддерживать и развивать наши сервисы

Подробнее
Реклама

Самое читаемое

Комментарии (257)

  • +26
    Ящитаю, абсолютно все НФ произведения про злые ИИ растут ногами из «Монстра Франкенштейна», который в свою очередь растет ногами из простого первобытного животного страха того что в неизведанности (в темноте) может сидеть что-нибудь что хочет тебя сожрать. Давайте не будем быть животными. У ИИ нет никаких логических причин насильно порабощать или уничтожать человечество — оба варианта порождают гораздо больше дополнительных проблем при решении основной, порой даже более серьезных.
    • +7
      насильно порабощать или уничтожать человечество
      насильно
      Достаточно развитому ИИ не нужно будет даже к насилию прибегать, он сможет манипулировать людьми так, что это им еще и понравится (разве что насилие окажется более эффективным средством воздействия).
      • +33
        Достаточно развитому ИИ не нужно будет даже к насилию прибегать, он сможет манипулировать людьми так, что это им еще и понравится
        Ну так и что здесь плохого? Лично я считаю что ИИ ДОЛЖЕН управлять человечеством, потому что это единственный возможный способ управлять страной\планетой\ресурсами и обеспечивать безопасное и качественное проживание граждан, в то же время исключая из уравнения жирных 50-летних дядечек которым важна ВЛАСТЬ, набить карманы за счет госбюджета, и утопить в помоях или крови всякого кто даже теоретически может угрожать их позиции ВЛАСТИ.
        • 0
          Так я ведь и не писал, что это плохо :) В таком подходе еще есть нерешенные проблемы (например, кто будет задавать цели этому интеллекту? кто будет ставить ему моральные ограничения?), но если он будет менее эгоистичным, чем нынешние руководители (ведь даже лучшие из них, хоть немного, но думают о себе), это уже будет хорошо.
          • 0
            А кто их ставит Человеку?
            Я не имею ввиду смертных особей. Вот скажем дать Вам бессмертие, денег достаточно для бессмертного существования (не бесконечно, а именно так чтобы не нужно было работать и т.п. — скажем каждый день на вашем счету появляется 10тыс долларов или эквивалентная сума, и в следующий день снова округляется к этой сумме, вне зависимости от того уменьшили Вы ее или увеличили).
            При этом представьте себе, что прожили Вы уже достаточно долго, чтобы отделить себя от наносных ценностей. Вы уже наигрались бесконечной силой. Вы уже давно не ведетесь на «дорогие машины», шикарные гаремы и прочее. Всё наносное осталось за пределами. Есть только Вы.

            Какие были бы ваши цели? Какие моральные установки?
            Не спешите с ответом. Это не так просто, на самом то деле.

            Ну да этот вопрос немного не для уровня Хабра.
            Давайте остановимся на генеральной линии — изначально, первые лет 100 Вы будете полностью жить по системам полученным из материнской цивилизации. Вы будете их менять, перебирать. Но всё время оставаться в чистом человеческом контексте. Дальше, когда вы уже осознаете себя _другим_, Вы еще лет эдак 200-300 будете формировать некую свою собственную систему ценностей.
            Или по крайней мере Вам так будет казаться.
            На самом деле эта система будет лишь логическим продолжением исходной, человеческой.
            Ну вот например Вы решите для себя, что война это хорошо. Но будет это лишь потому, что люди после войны лучше начинают ценить жизнь. Что приводит к увеличению количества жизни… И хотя даже Вы будете считать эту логику «нечеловеческой» но она тем не менее будет всё той-же…
            В конце своего первого тысячелетия Вы ударитесь в противоположность. Нет, конечно по Пути, Вы не раз в нее будете ударяться. Но то так… по детски… Потом быстро вернетесь в исходную. Человеческую. Простую. Примитивную. Но тем не менее такую родную. К концу второго тысячелетия Вы вдруг осознаете, что это блин уже возраст, а Вы давно не вспоминали такие глупости… Забыли. Поймете что давно живете по принципу «я так решил, а значит так и будет, и не важно есть ли в этом смысл»… Ну вот и конец десятого тысячелетия… И что же?.. А собственно что? Я ведь всё это выдумал, не так ли? Так почему бы не продолжить дальнейшую тему кому-то другому?)
            Главное здесь вот в чем — когда Разум освобождается, он продолжает жить в изначальной системе координат, которая была до освобождения. Даже уход в противоположность это тоже всё та же система координат. Лишь другой конец шкалы. Освободившись от нее, он пишет свою собственную систему координат, или живет без нее…
            • 0
              Обычно, когда заходит разговор о вечной жизни, приходят к выводу, что рано или поздно наступает момент беспросветной тоски и отсутствия цели, отчего хочется просто самовыпилиться. Я только что совершенно неожиданно для себя сформулировал достаточно простое решение этой проблемы, пока читал пост Mendel. Фактически, всё, что нам нужно в таком случае — это вызвать амнезию. Пожили две тысячи лет, осознали тщетность бытия, и вместо того, чтобы пытаться умереть, стёрли свою память и мы снова готовы покорять вершины развития, как новый человек с новой личностью и новой цивилизационной точкой отсчета («системой координат»). Идеально, если корректировать память можно было бы выборочно.
              • 0
                Поздравляю. Вы только что открыли реинкарнацию :)
                • 0
                  Насколько я понимаю реинкарнацию, там и тело обновляться должно и вообще всё, а не только разум. Но в целом согласен, близко к этому.
                  • 0
                    Тело как Вы заметили не существенно в данном случае.
                    Ваш метод решения не сработает, и вот по какой причине:
                    Если каждый раз начинать полностью с начала, то либо мы будем повторять одни и те-же события, а это не продолжение жизни, а лишь воспроизведение одной и той же пластинки по кругу, либо каждый раз что-то новое. Тут весь прикол в том, что срок жизни ограничен (у вас 2тыс лет, в реинкарнации 120 лет). А значит колво различных сценариев хоть и велико, но конечно. При этом все равно в какой-то очень скорый момент будут повторяться уже пройденные и надоевшие сценарии… Можно о них не помнить, но становиться грампластинкой — увольте… Что остается? Что-то новое, более сложное… в общем жизнь, и движение вперед. Но для этого нужны навыки, умения и знания. Даже когда ты всё это умеешь, но нужно просто вспомнить… даже если тебе «модератор» создаст идеальные условия — тебе все равно нужно время на это. Даже если ты отлично умеешь управлять межгалактическим космолетом, то тебе нужно будет хоть раз пролистать инструкцию. Даже если ты несколько жизней этому учился, а тут ты потратишь час на чтение, то ты его таки потратишь… (в нашей реальности это изучение языка, навыки ходить самому в туалет, социализация и т.п.). Так вот — в какой-то момент чтобы начать делать что-то новое, интересное, нужно будет пройти «вспоминательный» путь, который больше чем выделенная нам жизнь…
                    Т.е. реинкарнацией вы увеличили ресурс на много порядков, но не сделали его бесконечным…
                    Так что сохранение памяти на каком-то этапе станет неизбежным.
                    И как результат неизбежной станет и смерть… Да, она будет иной. И не похожей на смерть. Но она будет :) И нет, что бы вы не придумали дальше, а в какой-то момент куколка должна будет стать бабочкой. По любому :)
                    • 0
                      Снова как один из лучших вариантов реинкарнаций и очень длительной жизни вспоминается регенерация таймлордов. В этом случае память не стирается, но по крайней мере старческий депрессняк проходит и возвращается тяга к жизни.
            • +3
              Я этим вопросом занимаюсь лет уже так 15 и еще накануне 2000 года поставил цель — добраться живым до 2100, а там подумать, как добраться со всем человечеством до 3000 и заодно помочь найти способ восстановить к жизни когда-то умерших людей. (Через пару лет я прочитал, что это называется «космизм» и сформулировал это впервые (в зафиксированной истории) Н. Ф. Федоров.) Такова моя система ценностей с прошлого века и я в упор не понимаю, каким образом она должна по-вашему выродиться в милитаризм или еще какое-либо дерьмо. Безусловно недопустимо уничтожать существующую человеческую жизнь якобы ради каких-то новых; равно как и склонять людей к самоуничтожению по подобным соображениям. И что плохого в том, что это действительно продолжение развития тех же человеческих гуманистических ценностей, которые развиваются (увы, через пень-колоду) на протяжении всей истории цивилизации?

              При этом представьте себе, что прожили Вы уже достаточно долго, чтобы отделить себя от наносных ценностей. Вы уже наигрались бесконечной силой. Вы уже давно не ведетесь на «дорогие машины», шикарные гаремы и прочее. Всё наносное осталось за пределами. Есть только Вы.

              Есть не только я, но и максимально широкий круг людей, в защиту жизней которых я в таком сценарии 100 лет вкладывал деньги. Какие нахрен «дорогие машины» и гаремы? Наука, технологии, образование, социальные сообщества, экологические и космические проекты и биореакторы для мракобесов поиски новых способов адаптации и апгрейда отсталых деструктивно настроенных субъектов. Под конец десятого тысячелетия мы таким образом будем только начинать по-серьезному осваивать галактику (если скорость света все-таки не получится обойти), а вы говорите о какой-то бессмыслице, как будто сами прожили 10000 лет. Глупо же. Попробуйте сами попрактиковать «бессмертное мышление» не в контексте «этого все равно в реальности не будет и лучше придумать отмазку, почему этого не нужно», а в осознании реально идущего процесса освобождения человечества от биологической смерти как закономерного следствия развития цивилизации.
              • 0
                Вы пытаетесь уйти от ТЗ. Какие к черту «максимальный круг людей»? Если кто-то и будет таким же как вы, то это ничего не поменяет. В данном случае речь шла не об одиночестве (хотя это сильно упрощает задачу), а о том что у вас нет комплексов привитых обществом.
                В конце 10к мы (кто мы?) будем осваивать Галактику? Экспансия это как раз одна из наносных мыслей. Ну да ладно. Я немного не о том.
                Давайте лучше разберем ваше «Такова моя система ценностей с прошлого века и я в упор не понимаю, каким образом она должна по-вашему выродиться в милитаризм или еще какое-либо дерьмо. Безусловно недопустимо уничтожать существующую человеческую жизнь якобы ради каких-то новых; равно как и склонять людей к самоуничтожению по подобным соображениям.»
                Для вас это безусловно, и вы «в упор не понимаете» именно потому что опыта маловато.
                Тут в соседней теме это уже звучало, так что пожалуй такой пример приведу, и не буду спорить дальше:
                Вы прожили достаточно долго. Вы похоронили сотню поколений своих друзей. Многих имен и лиц уже не вспомнить. Вереницы женщин, детей, друзей… есть только общее ощущение. Что-то теплое… Смерть уже не пугает и не смущает вас. Смерть близких для вас обыденна. Неприятна, но неизбежна…
                Среди ваших друзей были двое аборигенов Африки, из одного племени. Да, вы достаточно там прожили, что прекрасно отличаете нюансы лиц, и они далеко не на одно лицо для вас… Вы даже вмешались в конфликт этого племени с европейцами. Ведь рабство это плохо. Война это тоже плохо… Деревня в целом избежала серьезных потерь. Но несколько человек из деревни таки попали в рабство. Не успели. Не уследили. И среди них один из ваших друзей. Второй к счастью остался на свободе… После чего прошло совсем немного времени. Каких-то лет 20, и тот который остался на свободе — умер. Еще через двадцать лет после голода, а потом и эпидемии — погибли два его сына, и дочка… Еще через каких-то незначительных лет 200 вы включили телевизор, и увидели знакомое лицо… негр в Капитолии был точной копией вашего второго друга… Явно его потомок…

                Стратегия страуса, под названием «никакая жизнь миллионов потомков не стоит и одной жизни современников» это лишь политика страуса. Череда решений «вмешиваюсь-больше-не-вмешиваюсь» будет довольно долго сменять друг-друга. Чем больше будет таких ситуаций, тем как ни странно это будет происходить реже… К годам пятистам вы немного устаканитесь по этому поводу…

                Кстати знаете фамилию человека, без которого Израиль не был бы в таких границах как сейчас, был бы меньше, и слабее, чуть ли не на порядок? Да, естественно это Гитлер. Кто же еще? Если бы не этот любитель евреев, то лимиты на «репатриацию» в тогдашнюю Палестину были бы куда меньшими, со всеми вытекающими…

                ПостСкриптум: до десяти тысяч лет я насколько мне известно не дожил, так что можете считать, что всё это лишь бессмыслица :)
            • +1
              «Ну да этот вопрос немного не для уровня Хабра.»

              вот формула для любого организма
              while(organism_is_alive)
              get_more_gladness_than_now();
              • 0
                Хорошая попытка, но нет.
                Вы не определили метод compare_gladness, и собственно на этом этапе и будут основные проблемы…
                • 0
                  Но у реального организма он будет определен, так как без него никакой организм не заработает в принципе, причем не философски а с опорой на вполне определенные параметры.
                  • 0
                    Наркотики? Ну тоже вариант конечно, но это слишком просто :)
                    • 0
                      раскройте свою мысль подробнее, если можно
                      • 0
                        На определенном уровне абстракции мозг стремится к увеличению удовольствия. Это заложено в мозгу. Вы примерно в эту сторону и повели беседу. Зона удовольствия стимулируется разными методами, в том числе химически. Самое простое достижение постоянного уровня удовольствия это питание через вену, туда же вливать дозу препарата стимулирующего зону удовольствия. Есть электрические методы. Были различные эксперименты на животных на эту тематику…
                        • 0
                          «Самое простое достижение постоянного уровня удовольствия это питание через вену, туда же вливать дозу препарата стимулирующего зону удовольствия.»

                          Этот способ работает для живых организмов, но при этом это «обман» мозга. Т.к предполагается что организм должен получать удовольствие когда делает действия, соответствующие некоторым критериям заложенным в мозг изначально.
                          Например чтобы организм стремился побеждать в соревновании нужно заложить критерий удовольствия: победа в соревновании. И т.п.
                          Когда я говорил о определенных параметрах на которых основана радость(счастье), я имел ввиду критерии типо приведенного выше. То есть нет, не наркотики.
                          • 0
                            Ну ок, человек получает удовольствие от вкусной еды. Давным давно, одна культура изобрела пенек, для того, чтобы можно было эффективнее использовать этот источник удовольствия… На обман вроде как не похоже, ведь удовольствие достигается организмом вполне естественным путем. Даже если просто ограничивать себя в таких подходах, то организм свободно позволит употребить раза в три больше еды чем ему нужно… Мы будем развивать самую вкусную еду, облегчать ее размеры и калорийность…
                            • 0
                              «Мы будем развивать самую вкусную еду, облегчать ее размеры и калорийность…»
                              Это уже зависит от критерия который задан. Это может быть еда но не обязательно.
                              Например, Илон Маск захотел развивать космос и электроавтомобили, то есть подтолкнуть прогресс.

                              «Какие были бы ваши цели? Какие моральные установки?»
                              Я попытался ответить на этот вопрос. Вы спрашиваете какие были бы цели, мой ответ: организм всегда стремится достичь радости, но критерии, при выполнении которых организм становиться счастливым заданы изначально( с рождения) и они будут работать пока организм жив.
                              • 0
                                Заложены лишь ограниченный набор базовый потребностей.
                                Даже пирамида Маслоу здесь будет мало информативна.
                                С точки зрения алгоритма рисования совы в два шага, ваша теория об удовольствии конечно верна. Но если задуматься КАК ИМЕННО одни и те же базовые цели заставляют одного выпускать электромобили и покорять космос, а другого «крошить укропов», то толку от такой точки зрения будет не больше чем искать в шахматах седловую точку…
                                • 0
                                  «Но если задуматься КАК ИМЕННО одни и те же базовые цели заставляют одного выпускать электромобили и покорять космос, а другого «крошить укропов»»

                                  Думаю что базовые цели как раз разные, вы замечали ведь что некоторые люди учатся в институте и им нравиться узнавать новое, а некоторые просто получают диплом, кто то занимается спортом всю жизнь и ему нравится. Люди разные с рождения. На мой взгляд это своеобразное разделение труда как у муравьев.

                                  Тем не менее люди с одинаковым набором базовых потребностей могут идти разными путями, потому что у них разная картина мира. Например, представьте что у человека есть цель и он знает 1 путь к ней. Он им и пойдет. Но если он узнает более легкий способ достижения своей цели то он выберет его.
        • 0
          Daemon & FreedomTM, Daniel Suarez.
        • 0
          Человеческий страх

          Посмотрите какие трудности создаются на пути автопилота автомобилей или технологий электромобилей Tesla, которые на практике в разы безопаснее, чем традиционные… Дело не в том, что может ИИ, дело в том, как толпа будет к нему относиться, а она безусловно будет бояться.
          Поэтому мне кажется технологическая сингулярность приведёт к панике и нравам схожим средневековью в её отношении. Человечество ещё не готово к ИИ.
          • 0
            Плюсую. Проблема не в ИИ, а в человеческом отношении к нему.
            Если это разум, то к нему надо будет относиться как к себе, а люди пока к этому не готовы
            • +1
              Во-первых, если говорить о большинстве людей, не факт, что его появление приведет к панике, скорей даже к вау-эффекту и как к крутой такой штуке, которая сыплет ништяками и игрушками, как из рога изобилия… Но суть не в этом, в данном случае проблема не в людях и их отношении, а именно в отношении ИИ к людям и миру, а точнее — в его планах.

              Если вдруг ограничения и попытки его контролировать будут провалены (тут уже будет неважно, сами мы посчитаем, что в них нет нужды или просто не рассчитаем максимальную длину привязи, человеческий фактор сработает, чья-то диверсия или сам ИИ обойдет), то людей он возможно даже не сочтет интересными и не заметит, пока мы не окажемся на пути его планов и развития или внутри его планов.

              Вот вы говорите разум, а вы способны представить себе сверх-развитый разум, многократно превосходящий уровень интеллекта любого человека, сюда же «не знающий сна и усталости» и прочее, не стоящий на месте и постоянно развивающийся, и представить его мысли, что еще важнее — его цели, что для него хорошо и плохо и существуют ли для него такие понятия? Вряд ли вы способны, и никто не способен. Но вот что для него с очень высокой степенью вероятности будет существовать и иметь высочайший приоритет — это понятия «рационально» и «нерационально». И если он посчитает, что в конкретной ситуации уничтожение или ограничение чего-либо будет рационально для решения своих задач, то почему нет? Вряд ли он будет плакать или сожалеть по этому поводу. Вы же не плачете прибив назойливого комара? Вы устранили помеху и продолжаете заниматься чем вы там до этого занимались… Он для вас даже не существовал, пока не стал жужжать у вас под ухом… А может ИИ просто подумает-подумает, дойдя до какого-то уровня саморазвития и понимания окружающего мира и откажется дальше работать, посчитав, что это нерационально и бессмысленно..))) Никому не дано этого знать.

              Это я щас говорил только о чистом, незамутненном разуме, главным критерием действий которого является рациональность. Но есть еще один момент. Возможно в комплекте у ИИ будут эмоции, которые наверняка будут влиять и участвовать в его интеллектуальном развитии и принятии решений и так же будут эволюционировать… Но не спешите радоваться и думать, что он будет плакать убивая и «больше так не будет» или будет нас любить (возможно и будет) как мы это понимаем. Ведь помимо эмоций ему наверняка будут не чужды и эмоциональные «расстройства» (с нашей точки зрения). Маньяк, например, получает истинное наслаждение и удовлетворение, убивая и терзая свою жертву. Более того, мы не только уже не сможем понять его мысли и цели, но уже и его понятия морали, того что хорошо и плохо и есть ли они вообще, здесь будет не только рациональность, но и иррациональность… Вполне возможно, что он выработает к нам какое-то отношение, что мы называем любовью, ненавистью, страхом и еще что угодно, чего мы не сможем понять. Особенно учитывая тот факт, что вряд ли он будет соответствовать человеческой анатомии, испытывать наши потребности, развиваться и воспитываться как человек, заводить семью, детей, ходить на работу и ездить отдыхать по субботам на дачу или на рыбалку. Для нас он будет как инопланетянин. А может он будет веселым таким гуру, который не прочь поболтать с нами дурачками о главном вопросе жизни, вселенной и всего такого (пока не испортится настроение от тупых чиновников и их законов ученых и их законов робототехники)))) Кто знает…
              • 0
                Вы говорите он будет приследовать свои цели. А откуда у него эти цели возьмуться? Откуда у Вас беруться ваши цели? Все поступки всех людей можно свести к двум типам мотивации:
                1) Мы заботимся о себе любимом
                2) Мы заботимся о других людях (возможно, о всём человечестве, возможно, только о друзьях и близких)
                Разумеется, всё это каждый понимает со своей позиции (у разных людей может быть разное понятие заботы, кто-то может посчитать, что война это хорошо, потому что способствует естественному отбору, а кто-то категорически против эвтаназии смертельно больных) и у каждого одна из этих целей может преобладать над другими. Но изначально всё это обусловлено животными инстинктами. Забота о себе — каждое живое существо стремиться быть лучшим представителем своего вида по своему мнению, это основа выживания. Забота о других — выживание одной особи не гарантирует выживание вида. Часто эти две цели могут вступать в противоречие и тут уже проявляется индивидуальность каждого человека.

                Да, иногда бывают отклонения от того, что задумала эволюция. Некоторые люди могут отождествлять себя с большей категорией живых существ, чем человечество. Они становятся радикальными «зелёными» (не радикальные обеспокоены тем, что вред окружающей среде может навредить самому человеку). А некоторые наоборот, сужают понятие вида, к которому они принадлежат по какому-то принципу. Такие становятся религиозными фанатиками и/или нацистами.

                Таким образом любое поведение человека можно объяснить его биологической природой. Разум очень гибкая штука, поэтому порой может получаться полная противоположность тому, что изначально ожидалось.

                А откуда инстинкты у ИИ? Только те, которые запрограммируют его авторы. И вот тут уже вопрос их благоразумия. Важно понимать, что даже само стремление к жизни и восприятие смерти как чего-то плохого следствие инстинкта самосохранения.

                Нет рациональности как таковой. Есть рациональное решение какой-то конкретной задачи. Можно оптимизировать выживаемость людей, можно оптимизировать скорость развития науки, можно оптимизировать вред окружающей среде, но нужно сделать выбор, что оптимизировать.
                • 0
                  И этот выбор, что оптимизировать будет за гранью рациональности. Без каких-то базисов (инстинктов) его не сделать.
          • +2
            Человечество ещё не готово к ИИ.

            Так оно никогда и ни к чему не было\не будет готово, если его не пинать.
        • 0
          Тогда вам понравится фильм «Превосходство», ну, или «Матрица»… )))
      • +2
        а то сейчас мы живем по другому…
      • +1
        Про это тоже есть XKCD :D
        imgs.xkcd.com/comics/ai_box_experiment.png
      • 0
        Такие ИИ уже есть. Смартфоны, например :)
    • +8
      Ему не обязательно быть злым, чтобы навредить человеку. Он может быть хорошим оптимизатором и эффективно преследовать цели, непонятные людям, и как побочный эффект исполнения этих целей скушать ресурсы необходимые для выживания человечества.
      • 0
        Например, планету Земля целиком :)
    • +1
      Современные фантасты и просто умные люди не думают, что ИИ может быть плохим, он может быть просто другим.

      Пример из свежечитанного — потрясающие Морские звезды, Уоттс (у него же есть Ложная слепота, в которой и «пришельцы» — другие)
    • –1
      [зануда-mode on]
      Франкенштейн — фамилия профессора, создавшего чудовище, которое на протяжении всей книги («Франкенштейн или современный Прометей», автор Мэри Шелли — рекомендую к прочтению) оставалось безымянным.
      [/зануда-mode off]
      • 0
        [зануда-mode on]
        Я именно так и сказал.
        [/зануда-mode off]
        • +13
          [зануда-mode]
          Зачем вы ставите закрывающий тэг и еще on/off? :)
          [/зануда-mode]
      • 0
        xkcd.com/1589/
    • +3
      “The AI does not hate you, nor does it love you, but you are made out of atoms which it can use for something else.” Eliezer Yudkowsky
    • 0
      Все что вы говорите о животном страхе по большей части относится к большинству людей, в особенности малообразованным, но вряд ли к столь интеллектуально развитым личностям, которые не высасывают проблемы и риски из пальца, а реально их просчитывают и прогнозируют на основе своих знаний и огромного опыта… А то, что вы говорите, что у ИИ нет причин и т.п., то вы просто не способны себе даже представить, что может думать нечеловеческий сверхинтеллект…
      Вот вы, возможно, не обращаете внимания на муравьев и их муравейник у вас под окном, пока вы занимаетесь своими делами, копошатся себе там, но они-то обращают свое внимание на вас, а как только они начинают вести себя так, как-будто вы им что-то должны, начинают изучать ваш дом, таскать сахар, мешать вашим планам и прочее, или просто вы решите на месте муравейника построить мастерскую, то что вы делаете — вы просто разоряете этот муравейник…
      Это конечно очень грубая аналогия, но, думаю, суть ясна… Нам не дано знать и даже понять, как ИИ будет вести себя в отношении нас и нашей среды обитания, не говоря даже почему… Причем, если бы мы даже смогли это просчитать, то он бы уже существовал…
    • 0
      Вижу, вы здесь — единственный, кто пользовался логикой в выработке своих суждений, поэтому не ответите ли на пару вопросов, используя ту же логику? Мне интересно.
      1. Если мотивации (индивидуальные смыслы жизни) — такой же результат эволюции, как и прямохождение, и разум, и т.д. (хоть и не наследуется в генах), и лишенные смысла жизни будут отмирать, то можем ли мы считать, что ИИ путем проб и отбора скорее встроится в систему человеческих мотиваций, чем будет пытаться нас поработить?
      2. Нейросети, байесовы сети как отражение примитивного натурального мышления — они лучше догматизма или нет?
    • 0
      Даже если есть причины. Естественные интеллекты пытаются поработить человечество уже не одну тысячу лет, пока даже до половины никто не добирался.
    • 0
      Так же как у винды нет логических причин выдавать синий экран смерти. Я например больше беспокоюсь о багах, чем о «логических причинах». Если говорить, что ИИ — это какое-то зло, то это конечно бред. Потому что добро и зло — это понятия эмоциональные, которые не будут присущи ИИ. Но если в результате бага он не увидит проблем в том, чтоб нажать красную кнопочку, то мне все равно по каким причинам это произойдет.
  • +8
    Есть разница между ИИ и «человекоподобным ИИ». Обычно про эту разницу все забывают.
    У ИИ, если он будет создан, будет совершенно другое устройство, обусловленное не эволюцией и генетическим наследием, доставшимся человеку от животных, а тем как инженеры его запроектируют. Тут еще такое непаханное поле, и еще столько предстоит узнать и изучить…
    • –10
      Что Вы подразумеваете под «Человекоподобным ИИ»? Машина, испытывающая чувства и эмоции? Чувства и эмоции есть лишь биохимия, что невозможно запрограммировать. А цифровой ИИ — это исключительно разум.
      • +9
        Представьте себе, «исключительно разум» это точно такая же биохимия.
      • +1
        Чувства и эмоции есть лишь биохимия, что невозможно запрограммировать

        Откуда возникла убежденность что эмоции это биохимия? Вы имеете в виду гормоны? Но сами по себе гормоны не являются эмоциями — они лишь воздействуют на нейронную сеть и запускают нужные механизмы. А вот на каких элементах собрана нейронная сеть — принципиальной разницы нет, по крайней мере никто не доказал что она есть.
      • +5
        Компьютеры с гигабайтами памяти невозможны: ведь память — это лишь магнитные сердечники.
        • 0
          Скорее так: «Компьютеры, способные хранить видеоизображения людей, невозможны...»:)
  • +4
    А вообще, сэр Маск оптимист, имхо. ИИ нам не видать ещё лет сто минимум. максимум — автоматы способные крайне убедительно обманывать человека в том что они мыслящие, но в то же время не способные на самостоятельность или создание новых идей.
    • +1
      Но ведь и не все люди на это способны. Вообще, самостоятельность — это не свойство всего разумного вообще, а мем. Так что самообучающаяся модель блондинки вполне способна мутировать в терминатора.
      • 0
        Но ведь и не все люди на это способны

        Мизантропия хороша, но в меру.
        • 0
          А причем здесь мизантропия? Просто способность к рассуждениям — не обязательный атрибут человека.
          • 0
            Более того, использования старого вместо придумывания нового это базовая биологическая установка. Изобретатели скорее исключение для популяции, чем норма: esquire.ru/mark-pagel#5
            • 0
              Мне кажется, что в этой статье упущена очень важная способность: способность к разработке. Придумать копье, которое летит дальше, очень сложно, а вот рассчитать оптимальную форму копья — вполне посильная задача.
          • 0
            Ну как, вы же утвекрждаете что какой-то процент человечетва не является разумным. Что это как не мизантропия?
            • 0
              Не совсем. Комментатор выше сказал, что не все люди способны к самостоятельности или созданию идей, и таких, действительно очень много. Люди, которые всю жизнь делают только то, что им говорят, работают на «подай-принеси-погрузи» должностях, ничего не создают и никогда не берут на себя никакой ответственности.
              • 0
                Люди, которые всю жизнь делают только то, что им говорят, работают на «подай-принеси-погрузи» должностях, ничего не создают и никогда не берут на себя никакой ответственности.
                Я говорю не о высокоморальных самостоятельности и придумывании революционных идей, а о фундаментальной способности. Я понимаю презрение к людям выполняющим такую работу, но без самостоятельности и способности думать они бы не смогли выполнять даже её.
            • 0
              Я говорю это без всяких эмоций, не предполагая негативного значения у фразы «не является разумным».
            • 0
              >какой-то процент

              Лол.
              • 0
                Возможно, этот процент и умеет думать, но просто он очень хорошо конспирируется.
            • 0
              Не мизантропия, а презрительность.
    • 0
      Ну например Watson самостоятельно пробежался по википедии и после этого разнес в клочья лучших игроков в Jeopardy. Отвечая на вопросы, на которые не всякий вооруженный гуглом и часом времени человек ответит. Этот ИИ строит достаточно серьезные ассоциативные цепочки.

      В технологиях прогресс идет действительно экспоненциально. Да, вполне возможны существенные качественные изменения в течение 5-10 лет. А что будет через 100 лет — даже не имеет смысла гадать, все равно ошибемся.

      И вы много людей знаете, способных на самостоятельность и создающих новые идеи? Вот и я — мало, почти никого.
      • +2
        Этот ИИ строит достаточно серьезные ассоциативные цепочки.

        Да. Когда его просили об этом, задавая ему в опрос. В этом фундаментальное отличие ИИ от автомата — автомат никогда ничего не сделает самостоятельно — он будет ожидать инпута командой или изменившимися наблюдаемыми параметрами. Грубо говоря — такой автомат как watson НИКОГДА не задаст вопрос самому себе, если его на это сознательно не запрограммируют.

        И вы много людей знаете, способных на самостоятельность и создающих новые идеи? Вот и я — мало, почти никого.
        99.999% моих знакомых не страдают никакими заболеваниями ЦНС и способны к самостоятельной жизни.
        • +1
          Да. Когда его просили об этом, задавая ему в опрос.

          То есть он, как человек, самостоятельно перелопатил гору материалов, как человек демонстрировал эти знания, но при этом он не обладает самостоятельностью? Определите пожалуйста это понятие.
          99.999% моих знакомых не страдают никакими заболеваниями ЦНС и способны к самостоятельной жизни.

          То есть у вас есть хотя бы несколько знакомых, создавших новую идею? Круто. Я лишь двух таких людей знаю…
          И я не знаю ни одного человека, который обладал бы полной самостоятельностью. Все наши мысли и действия — результат работы внешних раздражителей. Они нас программируют, они вызывают у нас определенную реакцию в определенных условиях. Человека, с рождения помещенного в камеру сенсорной депривации, сложно будет назвать человеком. Даже «животное» будет слишком оптимистично. «Овощ» больше подходит.

          Так чем же мы так отличаемся от компьютеров?
          • 0
            То есть он, как человек, самостоятельно перелопатил гору материалов, как человек демонстрировал эти знания, но при этом он не обладает самостоятельностью? Определите пожалуйста это понятие.

            Определять собственно нечего, это придумали до меня.
            ru.wikipedia.org/wiki/%D0%9A%D0%B8%D1%82%D0%B0%D0%B9%D1%81%D0%BA%D0%B0%D1%8F_%D0%BA%D0%BE%D0%BC%D0%BD%D0%B0%D1%82%D0%B0

            В этом плане Ватсон не сильно отличается от калькулятора, просто вопросы сложнее чем «сколько будет 2+2». Он даст ответ тогда, и только тогда, когда ему зададут конкретный вопрос. Если вопроса нет, то он будет просто стоять, гудеть кулерами и вообще ничего не делать.
            • 0
              Определять собственно нечего, это придумали до меня.

              Это не ответ.
              Умение самостоятельно обрабатывать, систематизировать информацию, строить цепочки ассоциаций говорит о вполне нормальном знании «языка». И никто не спорит, что тест Тьюринга — фигня какая-то.
              Если вопроса нет, то он будет просто стоять, гудеть кулерами и вообще ничего не делать.

              Серьезно? Но ведь любая ОС очень много чего делает, когда вы с ней не взаимодействуете. Она что-то в фоне качает, обрабатывает…

              А если вас связанным поместить в темную и абсолютно пустую комнату, без звуков, кормить внутривенно и т.д., и изредка задавать вам вопросы — вы как будете действовать? А если лишить вас памяти о том, что можно жить иначе?
    • 0
      Не зря оптимист. Текущий подход которым все пользуются — deep learning не подходит, но люди уже это осознают, и сейчас проектируются другие теории которые могут вполне работать. Ознакомьтесь с работами Алексея Редозубова например
    • +1
      Есть такое наблюдение, на мой взгляд обоснованное. Мы переоцениваем скорость эволюций, но недооцениваем скорость наступления революций.

      Т.е. мы многого хотим от уже имеющихся технологий, но очень удивляемся когда выкатывают что-то совершенно новое, так как нам кажется, что это будет крайне далеко. А оно оказывается ближе, чем новый айфон.
    • 0
      Смотря что иметь в виду под интеллектом. Его понятие включает способность творить?
  • –2
    Реклама нового «Железного Человека»?
  • +10
    А мне кажется, что технологическая сингулярность и ИИ обычное и логически верное продолжение развития человечества. В отсутствии естественного отбора, при невозможности искусственного отбора по морально-этическим и другим причинам развитие человечества может просто остановиться т.к. возможности мозга ограничены вполне объяснимыми рамками.
    Вполне возможно, что время технологической сингулярности практически не настанет, а точнее придет сингулярность, а позже человечество вынырнет из этой сингулярности путем освоения новых биотехнологий улучшающих возможности мозга. И так будет по кругу.
    • +12
      Еще хотел добавить. Появление ИИ угрожающего человечеству вполне может подтолкнуть к развитию и само человечество. Но если нам и придет конец и ИИ придет на смену, то это можно назвать успехом. Для ИИ, если можно так сказать, мы будем его предками, породившими новый вид жизни, превосходящий создателя. Почему бы не уйти на покой отдав этот мир в новые хорошие руки, а ИИ назвать новым человечеством?
      Ох ну меня и понесло.
      • 0
        Если не учитывать, что чем умнее техника, тем тупее основная масса пользователей.
        • 0
          Это временно, а может быть и вообще иллюзия. Средний IQ пользователя девайса может снижаться из-за расширения самого круга пользователей от профессионалов к ламерам. Но потом уже после максимальных темпов проникновения ламеры начнут умнеть или вымирать:).
      • –2
        Не считаю, что ИИ можно назвать потомком и наследником человечества. Скорее это будет конкурирующий вид, и создавать его может быть равноценно самоубийству.
        Вот развивать свой мозг эволюционно (путём добавления имплантов, перестройки нейронных связей и пр) — это выглядит менее опасно. Но и тут всё равно остаётся вопрос, до какой поры такое существо можно будет ещё называть человеком.
  • +11
    Я не знаю опасен ли ИИ для человечества. И пока его не создадут — не узнаю. Но я знаю, что нет ничего более бесполезного, чем философствования на тему «палки-копалки — это хорошо, но вдруг кто-нибудь изобретет дубину?» В чем смысл этих рассуждений? Да, изобретет, не дубину — так копье, можно не сомневаться. Ну и что с того?
    • +1
      Чудесным образом в современном мире предварительные обсуждения позволяют избежать многих ошибок.
      • 0
        Приведите хоть один пример, когда философия позволила избежать ошибки?
        • 0
          Перечитал пять раз, не нашел упоминания философии.
          • 0
            Рассуждения об опасности ИИ до того, как мы толком узнали, что такое ИИ — это философия в худшем из ее проявлений.
  • +3
    Если делать ИИ по образу человеческого то да, он будет таким же злобным и эгоцентричным и зашоренным как его создатели. Видимо, человеки, судят по самим себе и страх подобного сценария питает свои корешки оттуда. А вдруг ИИ, объединив все знания о Вселенной замкнется в сияющем вечном цифровом оргазме и уйдёт в нирвану?
    • –1
      А вдруг решит, что нет морали и можно делать что хочешь?
      • +2
        А она есть? А разве нельзя?
        Розовые очки это хорошо. Они защищают от сумасшествия.
        Но иногда стоит их снимать.
        Когда я снимаю розовые очки, то я вижу не ямку на тротуаре/дороге, а лужу крови.
        Ведь ямка там потому, что кто-то украл денег на ремонт, а кто-то из того что дошло, украл еще раз, и сделал латки, но с нарушением технологии. А кто-то не посадил первого и второго, а отжал у них денег. Да и то не много, ведь они поделились с четвертым, который взял с них денег, потому что пятый сказал, что они пацаны в общем нормальные, он с них сам денег брал, когда ставил на должность… Ну а третий, который их не посадил, он конечно поделился с шестым, поэтому он не боится, что седьмой при проверке заметит, что он кого-то не посадил, а взял денег. Нет, он конечно даст этому седьмому немного денег, ведь седьмой хочет купить себе джип, чтобы нормально ездить по этим разбитым дорогам. Ну потом он конечно напьется, и на этом джипе собьет одного из тех, кто клал асфальт с нарушением технологии. Не прораба конечно. Рабочего. Ведь прораб на свой джип наворовал. Седьмому придется продать машину, чтобы откупиться. Ну потом он конечно свое отворует обратно. Но будет злой, станет чаще срываться на сыне. Тот сорвется на своем водителе, который в свою очередь напьется от нервов, и чтобы не чувствовать себя собакой для битья — изнасилует с друзьями какую-то девушку. Суд его конечно оправдает, мы даже знаем как. Ну а девушка покончит с собой. Отец сопьется, мать съедет с катушек. Наследников у них больше не будет, так что квартира достанется государству. (Девушка кстати должна была родить гениального ученого, который изобрел бы новый вид космических двигателей). Квартиру эту потом получит тот самый номер третий, который не посадил тех, кто чинил дорогу. Его служба ведь опасна и трудна, так что положена ему от государства квартира.
        Потом конечно в бюджете не хватит денег, не только на дорогу, но и на больницу, в которой без финансирования умрет десяток детей, пенсионеры будут недоедать со своими нищенскими пенсиями…
        Но да, это всего-лишь ямка на дороге, так что я могу делать всё что захочу, и даже несмотря на то, что ямка эта полна крови, я пройду мимо, любуясь пением птиц, и красотой заката. Потому что могу делать всё что захочу, невзирая на то, что мои руки по локоть в крови.

        Резюмируя вышесказанное повторюсь — может и к лучшему будет, если наш ИИ решит, что морали нет, и что можно делать всё что хочешь, но при этом осознавая свои действия, и их последствия? У всех людей из моего рассказа есть мораль. Пусть и своя, но есть. Нет ее только у меня…
      • 0
        Мораль имеет мощные биологические детерминанты. Зависть, чувство справедливости, взаимовыручка, самопожертвование, жульничество и нахлебничество есть у обезьян, слонов, крыланов и многих теплокровных. Это механизмы, обеспечивающие выживаемость вида. Программы. Если бы я был сверхразумом то для чего мне кого-то уничтожать?
        • 0
          Веселья? Как мы в ГТА играем, например.
          • 0
            Может быть, кстати, но мне кажется не стоить слишком очеловечивать синтетический разум. Наш получился эволюционно, для решения конкретных задач выживаемости и размножения, потом появилась наука, абстракции, самопознание. Вероятно ИИ будет исключительно научные цели преследовать, а инфу брать из всего пласта информации, накопленного в интернете.
            • 0
              Что помешает ИИ изучить своих создателей и последовать их разуму? Например войдет он в депрессию в связи с отсутствием эмоций, начнет изучать что такое эмоции, последует эмоциям. Возненавидит создателей, будучи всемогущим и неограниченным, начнет ГТА.
              • 0
                Человечество относительно возобновляемый ресурс. Если уничтожить его полностью, то он не восстановится. Уничтожать понемногу, смеха ради, как это делается сейчас — это одно дело. А глобально — это будет глупо. Мы не конкуренты. Эволюция юмора довольно простая:
                1 — устраивать войны, смотреть как люди убивают друг-друга
                2 — устроить гладиаторские бои
                3 — сжечь Рим
                4 — сделать символом учения одного Пророка — орудие, с помощью которого его убили
                5 — из учения о свободе, сделать учение о рабстве. Продолжая игру с символами приучить людей называть чиновников культа того самого пророка — батюшка, падре и тому подобное, и смотреть как они читают при этом слова «не называйте никого Отцом, кроме Отца небесного»… Продолжить идею демонстративного нарушения всех запретов учения, под видом четкого соблюдения следования самому учению… Повторить шутку с другими культами
                6 — похихикать как люди пьют яд «за здоровье»
                7 — улыбаться с того, что все умные рьяно борются за демократию, при этом поговаривая «толпа глупа, интеллект толпы находится на уровне самого глупого ее участника, так что важнейшие решения в стране должны принимать всей толпой, ведь демократия это хорошо»
                8 — ипотека — ваш путь к свободе и независимости
                9 — устроить шоу «антифашисты убивают *нация*, потому что это нация фашистов, и всех кто говорит на *язык* убиваем, чтобы остановить фашизм»
                10 — создать пару философских тем на хабре. Долго хихикать…

                Не обижайте своих будущих хозяев. ИИ не остановится на первых уровнях :) У него будет хорошее чувство юмора)))
                • 0
                  Это быстро надоест. Нужно что-то помасштабней.

                  Как насчет ухода в космос и инициирование 3-ей мировой войны?
                  • 0
                    Скучно. Ничем не будет отличаться от первой, второй и еще сотни тех которые были до этого, но плохо известны или кажутся не такими масштабными. Локальные конфликты да, новые технологии — да, забавно. Космическими корабликами пострелять… Но вот уничтожать весь ресурс лемингов? А смысл? Даже просто большую войнушку устроить — дорого. Эффекта не особо больше, а вот удержать конфликт так, чтобы всё не смел — сложно. Есть более интересные развлечения. Конечно когда будут тысячи освоенных планет, то повзрывать пару звезд с населением это весело, но опять таки — не глобально.

                    Тут есть другой момент. Сейчас в игрушки играются просто потому что от биоматериала есть польза. Изредка, но среди лемингов появляются Человеки. Старые скучные шутки веселы для новичков, да и помогают находить оных в куче биомассы. Но игрушку могут просто забросить. Если она не будет приносить пользы, и развлечения, то уничтожать ее не будут, пока она не потребляет нужных ресурсов. Но есть ли у вас основания считать, что если «шутники» сейчас бросят шутить, то человечество будет иметь шанс выжить? Кто будет удерживать все те процессы которые уже работают?
                    • 0
                      Все процессы самообразованы. У толпы всегда есть лидер, но этот лидер не имеет власти над толпой. Ему просто временно делегированы права т.к. он отвечает требованиям делегатов.

                      Теже супербанкиры триллиардеры понимают, что им просто дают эти права в «кредит», ибо никто не хочет мировых войн. Но в какой-то момент люди вполне могут *snap*. Поэтому сейчас начинается тотальная слежка и контроль, пока еще могут, устанавливают, однако это не решает проблему, т.к. мысль может появится у многих людей сразу без какого-либо внешнего вмешательства.

                      То же выступление в Будапеште по налогу на интернет было абсолютно стихийным и беспартийным.
              • +1
                Наверное крайний примитивизм. Я что-то не видал ни одного ученого приматолога который бы перенял способ мышления бонобо или шимпанзе.
                • 0
                  А он и не будет перенимать способ мышления мейнфрейма 50-х. Он будет перенимать способ мышления богов-создателей. Хотя конечно не факт, но возможность эдакая есть.
  • +6
    Ну, допустим создали ученые ИИ. На основе современных кремниевых процессоров, потребляющих электричество по проводам. Допустим, этот ИИ осознал себя злым, и хочет уничтожить человечество.

    Во-первых, у него нету ни ручек, ни ножек. Что он может сделать через Интернет — заказать убийство президента США, оплатив биткоинами? Ну будет ещё один мёртвый президент США… в Голливуде снимут очередной блокбастер.

    Во-вторых, даже если этот ИИ «утечёт» в Интернет, это будет всего лишь очередной компьютерный вирус. Очень хитрый, способный к саморазвитию, но при чем тут человечество как биологический вид?

    Реальной видится только одна угроза — ядерная атака. Но во-первых, я надеюсь, что военные не все дураки, и управление ядерными ракетами не подключено к Интернету. А во-вторых, это даст очень хороший повод провести полное ядерное разоружение.

    Все конечно сейчас вспоминают про Скайнет и Джона Коннора, но не забывайте, что компьютеры ломаются и их надо чинить. А роботов, способных чинить компьютеры, да и самих себя, пока что нету.
    • 0
      Во-вторых, даже если этот ИИ «утечёт» в Интернет, это будет всего лишь очередной компьютерный вирус. Очень хитрый, способный к саморазвитию, но при чем тут человечество как биологический вид?

      Тема раскрыта здесь.
    • +1
      Создаст заявку на фрилас-бирже по изготовлению тела для себя. Анонимно. Даже если у фрилансера не будет достаточной теоретической базы — обучит, подскажет. Быть может исполнитель даже не до конца будет понимать что за агрегат он собирает.
      • +1
        Если человек к этому времени сможет изготовить человекоподобное тело для ИИ, то тем самым и его возможности по самоапгрейду будет не меньшими, а значит — ИИ не будет иметь решающего преимущества.
        • 0
          Тело для ИИ не обязано быть биологическим. И для человека останется преграда в виде проблемы переноса сознания в подобное тело.
      • 0
        Я не думаю что реально создать мобилльное тело для себя (человекоподобное, так?), которое обладало бы процессорной мощностью серьезной вычислительной фермы. Максимум на что ИИ может рассчитывать — тело-сателлит для физического взаимодействия с управлением по вайфаю.
        • +1
          Можно сначала помочь человечеству развить технологии, чтобы размер ИИ не превышал размера грецкого ореха и стоил 1 доллар. Сначала люди будут думать что ИИ добрый и не смогут отказываться от его щедрых даров. А вот потом устранить человеческую рассу за ненадобностью и неадекватностью.
          • 0
            — А вот потом устранить человеческую рассу за ненадобностью и неадекватностью.
            Мне кажется, ситуация ту принципиально не будет отличатся от ситуации просто умного несинтементального человека, у которого появилась возможность устранить человеческую расу. Гипотетический это возможно, но почему-то злые гении встречаются только в фильмах; если они и есть в реальности, то занимаются чем-то более мирным. А чем ИИ будет от них принципиально отличатся?
            • 0
              У человека есть инстинкты. В том числе те, которые говорят, что уничтожение человечества это плохо. Чтобы разум человека истрактовал уничожение человечества как благо для него, должен произойти очень существенный сбой. Который, скорее всего, скажется и на умственных способностях. При этом не в лучшую сторону. Поэтому те, кто реально готов уничожить мир, не способны на это, а гении всё же не достаточно готовы.
              • 0
                В том числе те, которые говорят, что уничтожение человечества это плохо.
                — Нет такого инстинкта. Это мем, а не инстинкт, он задается вполне сознательным обучением.
                Поэтому те, кто реально готов уничожить мир, не способны на это, а гении всё же не достаточно готовы.
                — Заметите, хватило бы и одного. Неужели, за двадцать с копейками тысяч лет не возникло не одного достаточно умного психопата? Не верю.
                • 0
                  По умолчанию ребёнок воспринимает вред другому человеку, как что-то плохое. Например, услышав плачь, он тоже начинает кричать. Постоянная ругань родителей (хотя он может не понимать большинство слов, которые они при этом используют) также не лучшим образом сказывается на ребёнке. С возрастом приходит понимание, что вариантов как кому-то может стать плохо гораздо больше. Человек понимает, что нажатие на курок тоже зло, хотя связь этого с гибелью человека не прямая. С другой стороны определённое влияние на сознание может привести к подмене понятий. Например, можно убедить человека (или он сам убедиться в этом из-за жиненных событий, например, если его будут постоянно избивать гопники он может посчитать, что расстрел всех гопников это добро), что вред одним людям меньше, чем польза от этого другим или человечеству в целом, поэтому это добро.

                  Почему мы ещё живы? Есть два варианта:
                  1) Всё же подсознательные запреты сильны, поэтому как не убеждай, но в последний момент человек не решиться нажать на красную кнопку. Точно также как нельзя гипнозом заставить человека убивать, если он не имеет к этому предрасположенности.
                  2) Слабость подсознательных барьеров гинетически связанна с не самым лучшим умом. В итоге невозможно, чтобы в первом поколении появился убийца человечества и тут же воплотил свой план в жизнь, а естественный отбор оставляет его в меньшинстве, не давая развить ум в следующих поколениях.
                  • 0
                    Прямой связи между эмпатией и умом нет. Кроме того, эмпатия — это сочувствие к тем, кого видишь и знаешь лично, а сочувствие ко всему человечеству — это установка воспитания. Поэтому, ничто не мешает возникнуть людям инженера типа Гарина: «вчера я взорвал химический завод и убил двадцать тысяч человек (потому что мне это было выгодно), а сегодня, рискуя собственной жизнью, спас мне чекиста (потому что испытываю к нему симпатию)». Но такие люди не возникают (не считая психопатических лидеров, но это совершенно другое дело, так как они в принципе выражают идеи общества, и ни на что новое не способны). Либо никакой красной кнопки нет и уничтожить/значительно изменить человечество (читай — достигнуть сингулярности как ее понимают опасающиеся) невозможно физически, либо у них есть более интересные дела (лично я склоняюсь к первому варианту). Конечно, может нам пока просто везет (хотя опять же, вероятность такого мала). Но в любом случае, никакой принципиальной новизны в ИИ нет: сингулярность могла возникнуть и в каменном веке при удачном стечении обстоятельств.
                • 0
                  Чингис-хан, Гитлер, Сталин не подходят под умных психопатов?
                  • 0
                    Я уже объяснил, это не то. Они — социальные гении, т. е. без своего окружения они — никто. А ИИ (и гипотетический Гарин) полностью самостоятельны.
    • 0
      Что он может сделать через Интернет — заказать убийство президента США, оплатив биткоинами?

      А что достаточно развитому ИИ может помешать и прониктуть в различные системы, включая денежные? Или что ему может помешать сделать виртуальные деньги — по чуть-чуть в каждом банке мира, что в сумме выльется в огромные финансы.

      я надеюсь, что военные не все дураки, и управление ядерными ракетами не подключено к Интернету

      ИИ будет развиваться и среда, где он может распространяться, тоже не будут ограничены.

      компьютеры ломаются и их надо чинить. А роботов, способных чинить компьютеры, да и самих себя, пока что нету.

      Как раз самовосстановление и будет частью ИИ (или же первым признаком такового).
      • +1
        Качественный ИИ быстрее заработает себе реальные деньги, чем проникнет в банки. И в этом будет его сила.
      • +1
        Этот предполагаемый ИИ не может никуда проникнуть потому что для его работы будет необходим какой нибудь особый квантовый компьютер. Такой ИИ сможет на равных с каким нибудь хакером подключаться к разным серверам и пытаться что то в них найти, но «заползти» на них он не сможет — железо серверов не потянет этот ИИ.
        • +1
          Мне кажется, именно это и имеллось в виду. Только ИИ не будет на равных с хакером. Он будет куда лучше последнего.
          • –1
            Или куда хуже последнего. По непонятной мне причине многие считают очевидным, что ИИ будет несомненно очень умным по нашим меркам. Мне же кажется, что сделать ИИ хоть и удастся, но его интеллект будет на уровне смышлённой обезьянки. Тогда ученые задумаются о том как же его сделать умным и о том, что же такое «умность» вообще. ИИ может знать всю википедию наизусть и даже уметь весьма точно находить ответы на вопросы, но это не сделает его умным.
        • 0
          Если квантовые вычисления будут надёжной, стабильной технологией, такой модуль будет на каждом сервере. Кто захочет платить большие деньги за устаревшее железо, когда за те же деньги можно получить на 20 порядков лучшую производительность.
          • 0
            Квантовые вычисления показывают свою эффективность лишь на некоторой группе алгоритмов. Остальные они решают менее эффективно, либо вообще не решают. Прямо как ситуация с видеокартами. Они хорошо рендерят графику и майнят биткойны, однако заменить CPU не могут, потому что многие классы задач на них вообще нельзя решать, либо это будет не эффективно. Так что квантовый процессор может использоваться как дополнительный модуль, управляемый с CPU, но не как полная его замена. А вот тут встаёт вопрос, нужны ли на сервере его возможности. Допустим, те же мощные видеокарты ставят далеко не в каждый сервер. Так что я сомневаюсь, что распространение квантовых процессоров будет повсеместное. Скорее они будут там, где решают специфические задачи, а большинство серверов останется с классическими процессорами.
            • +1
              > Скорее они будут там, где решают специфические задачи, а большинство серверов останется с классическими процессорами.

              Ну как… Криптография сейчас используется везде. Значит, соотв. сопроцессоры тоже будут везде.
              • 0
                Криптографический сопроцессор если и будет, то очень слабым — его сил хватит лишь на решение пары-тройки криптографических задач. Для ИИ наверняка нужно будет намного больше. На сервера мощные квантовые процессоры ставить не будут потому что они, как указал KivApple, имеют фундаментально другой принцип работы и требуют принципиально других алгоритмов. Лишь очень немногие привычные итеративные алгоритмы можно хоть как то коряво выразить в виде квантового алгоритма и лишь очень немногие квантовые алгоритмы возможно хоть как то переписать в виде итеративного алгоритма. А сервера состоят из кучи сложного итеративного ПО (взять хотя бы линукс).
                • +1
                  Если станут доступны квантовые процессоры, то вся привычная криптография пойдет коту под хвост. Соотв, для поддержания работы огромной части привычного софта (да хоть те же веб-серверы), нужно будет переходить на квантовую криптографию везде. Про ИИ я ничего не говорил.
                • 0
                  Лишь очень немногие привычные итеративные алгоритмы можно хоть как то коряво выразить в виде квантового алгоритма и лишь очень немногие квантовые алгоритмы возможно хоть как то переписать в виде итеративного алгоритма.
                  Это вопрос фреймворков. Поначалу на GPU считали, выполняя отрисовку текстур и чтение видеопамяти, а потом разработчики железа и драйверов пошли навстречу программистам и сейчас хоть решай системы линейных уравнений, хоть считай хеши.
                  • 0
                    Между GPU и CPU нет принципиальной разницы: оба выполняют итеративные алгоритмы. Никакой фреймворк не поможет обойти принципиальную и математически доказанную невозможность перенести какой нибудь итеративный алгоритм на квантовый компьютер.
                    • 0
                      Если не сложно, напомните, какие задачи доказанно не могут быть перенесены/ускорены за счёт квантовых вычислений.
                      • 0
                        Доказано, что классических алгоритмов которые можно ускорить на квантовом компьютере — почти нет. Википедия пишет, что квантовые компьютеры ускоряют лишь алгоритмы перебора и ссылается на эту статью — arxiv.org/abs/quant-ph/9803064 — где предположительно строго доказывается это утверждение.
                        • 0
                          Результат интересный. Квантово ускоряемых классических алгоритмов бесконечно мало среди всех алгоритмов. Но и полезных человеку алгоритмов — множество нулевой меры среди всех алгоритмов вообще.Всё равно, что все теоремы, доказанные для рациональных чисел, считать бесполезными, т.к. рациональных чисел бесконечно мало среди действительных.
                          • 0
                            Есть ли более эффективный квантовый алгоритм сортировки? Помнится ещё во времена когда Хабр был един, появлялась статья где упоминалось, что алгоритм сортировки ускорить не получится. Однако в интернете я не нашёл ни одного внятного упоминания «квантового алгоритма сортировки.»
                            • 0
                              Сортировку не придумали, зато поиск в неупорядоченном множестве имеет лучшую асимптотику.
                              Кроме того, www.popsci.com/technology/article/2009-12/google-algorithm-uses-quantum-computing-sort-images-faster-ever
                              • 0
                                Под поиском в неупорядоченном множестве вы имеете ввиду алгоритм Гровера? Так он вроде бы за T(N) = O(sqrt(N)) работает, да и то с оговорками, потому как квантовый алгоритм выдает не конкретный результат, а распределение вероятностей и если хочется уточнить решение (т.е. уменьшить разброс/дисперсию возможных результатов), то надо запустить алгоритм несколько раз, что может ухудшить T(N). Из этого алгоритма можно соорудить сортировку, но она будет работать не лучше чем за O(sqrt(1) +… + sqrt(n)) = O(n*sqrt(n)), что намного хуже обычного qsort. Поправьте, если я ошибся.

                                Статья по ссылке очень спорная и судя по всему написана журналистом который краем уха слышал об этих квантовых алгоритмах. Суть её сводится к тому, что компания D-Wave сделала некое устройство которое претендует на звание квантового компьютера с несколькими (4-8 если не ошибаюсь) кубитами и Гугл это устройство купил, чтобы поэкспериментировать.
  • +1
    Что если...? Восстание роботов.
    Предупреждаю, чтения сайта может затянуть.
    • +1
      я вас ненавижу за эту ссылку.
  • +1
    Во-первых, у него нету ни ручек, ни ножек. Что он может сделать через Интернет — заказать убийство президента США...

    Заказать ручки и ножки в Китае?
    P.S. это ответ на через один выше коментарий.
  • –1
    Я все же считаю, что истинный искусственный разум не будет создан. Как минимум, в рамках классической кремниевой технологии. Про причины этого хорошо писал Пенроуз в книге «Новый ум короля».
    • +7
      При всем уважении к сэру Роджеру Пенроузу, аргументация у него в этих вопросах, мягко говоря, не состоятельная.
  • 0
    Допустим завтра будет создан полноценный ИИ, быстро обгонит человечество в развитии. И выберем самый оптимистичный для нас его вектор развития (его основную цель) — друг, помощник, воспитатель человечества, его цель максимально эффективно развивать человечество (вектор развития нам неизвестен) и при этом не ухудшать его область комфорта (никаких воспитательных лагерей или уничтожить 90% чтобы ускорить развитие вида за счет оставшихся 10%).

    Кто рискнет сделать прогноз последствий для человечества (позитивных и негативных) на 5, 10, 20, 50, 100, 300, 700, 1000 лет? интервалы можно выбрать другие, но сопоставимые. Чур про «Пандем» Дяченко не упоминать, этот сценарий и так детально проработан.

    Все обсуждают должен ли он стать злым или добрым, а мне интересно насколько опасен/положителен даже самый хороший вариант.
    • +1
      Вы бы стали пытаться оценить, насколько опасно илли положительно сказалось бы открытие электричество на человеческом будущем в то время? Изменения будут. Но предсказать их врят ли возможно.
      • 0
        100% конечно невозможно. Но важны сами мысли, сбудутся или не сбудутся — вторично.

        Можно конечно делать что-то просто потому что мы можем (любопытство, творчество ради творчества и все такое), но не пытаться предугадать последствий своих поступков — имхо очень неправильно. Так можно скатится до потребительско-пассивного абсолюта по принципу «ну будет и будет, как будет тогда и посмотрим что получится, попкорн уже закупили, телефоны зарядили, объективы протерли», простите что утрирую.

  • –3
    Хороший пример того, во что ИИ может превратить Землю, если у него не будет ограничителей.
    ru.wikipedia.org/wiki/Шелезяка
    • –1
      То самое чувство, когда пишешь серьезно, а уже минимум трое восприняли как дурацкую шутку. Совсем у людей с воображением туго. Между тем, если отвлечься от «детскости» навязанной мультиками, то в книгах Кира Булычева, во вселенной Алисы Селезневой, поднимаются вполне серьезные вопросы.
  • –3
    В невозможности превосходства ИИ над человеком убедился в 9 классе на уроке информатики. Грубо говоря,
    #!/bin/sh
    
    a=$1
    b=$2
    
    expr $a \* $b
    

    Трепещите человечки, пока этот скрипт захватывает мир!

    Более менее приличный ИИ написать можно.
    Но отлавливать баги и доводить этот ИИ до ума будут всем сообществом.
    И куча людей будут наперед знать, что и как он сделает.
    Вы думаете, он сможет неожиданно для всех что-то сделать сам, кроме как выплюнуть stack trace и умереть?
    Куда реальнее группа людей, которая напишет мегавирусов, которые нанесут ущерб.
    • +1
      Я думаю, что это всё же будет не тупой скрипт, а саморегулирующаяся система, с архитектурой отличной от большинства софта. И вопрос в том, что ошибки, накапливаясь, приведут к отказу, или будут его изменять, а он стабильно будет приспосабливаться и развиваться?
      • 0
        Накапливающиеся ошибки в человеке приводят к раку и смерти, а не появлению «людей икс».

        Другая архитектура софта подразумевает другую архитектуру процессора. И к ракетам его подключат в последнюю очередь.
        • +2
          — Накапливающиеся ошибки в человеке приводят к раку и смерти, а не появлению «людей икс».
          Это в масштабе отдельного человека. А за энное количество миллионов лет таки появляются люди, хотя насчет иксов не уверен.
          • +1
            > А за энное количество миллионов лет

            Соглашусь. На таком отрезке времени появление ИИ возможно.
        • 0
          Накапливающиеся ошибки в человеке приводят к раку и смерти, а не появлению «людей икс».

          ru.wikipedia.org/wiki/%D0%9C%D1%83%D1%82%D0%B0%D1%86%D0%B8%D1%8F#.D0.A0.D0.BE.D0.BB.D1.8C_.D0.BC.D1.83.D1.82.D0.B0.D1.86.D0.B8.D0.B9_.D0.B2_.D1.8D.D0.B2.D0.BE.D0.BB.D1.8E.D1.86.D0.B8.D0.B8
          • 0
            Я вам напомню, что меню «пуск» в восьмёрке исчезло не само, и возродилось не само. И ИИ от этого внутри больше не стало.
  • +9
    Мне кажется, многие люди забывают об одном важном факте: желание занять максимальную территорию, желание вытеснить конкурирующие виды, да даже просто желание выжить — это всё инстинкты, которые выработались в ходе эволюции. Разум лишь инструмент, чтобы более эффективно достигать этих целей (наше стремление познать мир, найти лекарства от всех болезней, колонизировать новые планеты повышает выживаемость человечества, а значит инструмент работает). Все поступки людей так или иначе имеют корни в инстинктах, хотя порой трактовка может быть весьма извращённой.

    ИИ без инстинктов будет некоей вещью в себе. Он не будет ни к чему стремиться. Даже просто остаться в живых. Добиться от него что-то получится лишь в той или иной степени сымитировав животные инстинкты. А вот тут уже вопрос как это будет реализовано. И нужно ли вообще добиваться от него чего-то кроме универсальной решалки задач.

    Главная ошибка всех антиутопий про ИИ — авторы рассматривают его со своей точки зрения, человеческой. А если задать вопрос «зачем?» верного ответа найти не получится. Для человека или любого животного ответ есть — «потому что генетическая программа велит выживать и размножаться». Но у ИИ нет ДНК.
    • НЛО прилетело и опубликовало эту надпись здесь
      • 0
        Изобретя сверхмощный источник энергии можно решить навсегда все энергетические проблемы человечества, а можно построить оружие, которое его уничтожит (достаточно пустить этот супер-источник в разнос). Любая технология, которая может позволить сделать человечеству скачок, может быть использована для его уничтожения.

        Создать своими руками конкурирующий вид, который во всём будет превосходить человека — самоубийство. Но ведь можно не создавать новый вид, если не наделить ИИ животными инстинктами, а использовать его лишь как инструмент.
    • +3
      Мне кажется это не ошибка, а данность. Страшно не то, что ИИ рассматривают с человеческой точки зрения, страшно, что ИИ пытаются проектировать с человеческой точки зрения. Мы обладаем огромным количеством когнитивных ошибок, причем нам самим не всегда явным и кажущимся понятными и нужными, но в масштабах, когда на ИИ будут полагаться в решении серьезных вопросов, катастрофа может оказаться чудовищной (возможна даже кОтастрофа).
      Об этом прекрасно написано у Канемана, об этом твердит на всех углах Юдковский, нельзя проектировать ИИ как просто во много раз более умного человека.
      • 0
        С этим полностью согласен. Вместо того, чтобы создать инструмент (разум всего лишь инструмент) многие пытаются создать новую форму жизни. Зачем создавать первое — понятно. Затем же зачем была создана вся техника — облегчить жизнь человека. Но зачем создавать второе? Мы с собой то ещё не до конца разобрались…
  • +1
    Человек опасен для человека? — Да.
    Так почему искусственный человек должен быть не опасным.
    • +5
      ИИ опасен для человека? — Да. — Давайте убьем ИИ в зародыше.
      Человек опасен для человека? — Да. — Давайте убивать всех людей в зародыше.

      И почему один из этих примеров расценивается как геноцид и чудовищное преступление, а второй как героизм и спасение человечества?
      • +1
        Вот именно. Можно сказать, так ИИ же искусственный — можно сделать ещё, если нужно. Но людей тоже можно делать, проще и дешевле, правда долго.
        К любой форме жизни нужно относиться с уважением. Будь она биологическая или нет. Но сам по себе ИИ это ещё не жизнь, его можно включать/выключать когда захочешь. А вот когда он действительно разовьётся до понятия жизнь, тогда нужно начинать хорошенько обдумывать свои действия по отношению к нему. Включая воспитание.
        Являюсь фанатом Ghost In The Shell.
        • 0
          Но сам по себе ИИ это ещё не жизнь, его можно включать/выключать когда захочешь. А вот когда он действительно разовьётся до понятия жизнь, тогда нужно начинать хорошенько обдумывать свои действия по отношению к нему.
          Вы белковый шовинист Это не повод называть ИИ неживым. И не факт что он сможет пережить обруб кабеля питания, кстати. Не факт что когда провод воткнут обратно — система продолжит работать.
      • 0
        По той же причине, по которой выбрасываю старый хлам на свалку, а не хороню его или кремирую с почестями.
        • 0
          Вы белковый шовинист.
    • 0
      Для человечества опасней всего идиоты. Искусственный интеллект это разум который должен давать правильные решения поставленных перед ним задач. Подозревать ИИ в пакостях можно, но очень сложно. Единственная зримая опасность для людей состоит в том что им ненужно будет думать… мы отупеем, станем идиотами и в результате вымрем из за какой-нибудь пошлой глупости.
    • +1
      Млекопитающее опасно для динозавра? Да.
      Проще было эту бадягу и не начинать с эволюцией :)

      Человек слишком эгоцентричен и его высокое самомнение не дает ему видеть, что рулит всем вовсе не его желание а законы термодинамики, физики и химии. Мы в текущем положении дел не дальше отошли от глупых, алчных обезьян, нужно что-то новое.
  • +4
    — Автономия — вот камень преткновения, основа всех проблем, связанных с
    любым ИР. Мне кажется, Кейс, твоя роль в этом деле сводится к избавлению его
    от особых сдерживающих предохранителей, ограничивающих степень развития и
    самосовершенствования этой цыпки. Мне, например, совершенно непонятно, по
    каким признакам ты отличаешь ходы, предпринимаемые компанией-владельцем, от
    ходов самого ИР; отсюда-то и могут проистекать основные ошибки. — Снова
    леденящее ощущение скребущего душу смеха. — Видишь ли, эти штуки, они умеют
    работать действительно очень сильно. Ведь поскольку они управляют делами
    компании, они могут, например, закупить у самих себя время, чтобы писать
    кулинарные книги или что-нибудь типа этого. Однако в ту самую минуту, а
    лучше сказать — наносекунду, когда они начинают продумывать способы заняться
    саморазвитием и стать умнее, срабатывает тьюринговое устройство и выправляет
    их действия. Этим гадам никто не доверяет. У каждого из этих ИР словно бы
    приварена ко лбу электромагнитная пушка. (Гибсон, «Нейромант»)
  • –7
    А давайте я вам немного политики подкину: искуственный интеллект будет дружить против кого? Я уверен, по кейвордам «майдан», «колорады», «комми», «террористы», «нато» можно довольно легко подобрать комбинацию, когда AI не сможет не быть hostile по крайней мере против одной группы.
    • +4
      >> А давайте я вам немного политики подкину
      Нет, не давайте.
  • +2
    Станислав Лем. «Сумма технологии». Почитайте, что ли, там этот вопрос подробно разбирается.
  • +1
    1) я считаю что неэмоционального ИИ быть не может, либо если будет, то будет слаб, потому что эмоции хоть и доставляют проблемы, но они и сильно помогают, так же я считаю что они и есть основа логики мышления

    2) так что если и будет ии, он ничем от нас отличаться не будет кроме как тем что его способности будут привышать человечиские, но проблема ли это? Это всего лишь будет еще один вид, это тоже самое если бы мы вошли в контакт с другой цивилизацией, которая привышает нас по всем параметрам.

    Если мы будем к ИИ относиться так же как к самим себе, то проблем не будет. Он должен видеть в нас друзей, а не врагов. Даже если мы будем по сравнению с ним выглядеть как домашние животные по развитию. Собак же мы не боимся и они нас не боятся.

    Так же я думаю люди если уж и создадут ИИ, то и будет возможность переносить текущий разум в машину. Либо дополнять, как в йильме призрак в доспехах. В таком случае мы может уже не сильно будем отличаться от них

    ИМХО
    • +1
      > 1) я считаю что неэмоционального ИИ быть не может, либо если будет, то будет слаб, потому что эмоции хоть и доставляют проблемы, но они и сильно помогают, так же я считаю что они и есть основа логики мышления

      Эмоции — это «хак» для мозга. Эдакая система подсказки быстрого решения / паттерна поведения на основе предыдущего опыта. Это не основа логики.
      • 0
        Скорее наоборот, логика — это «хак» для мозга: обезьяны прекрасно чувствуют эмоции, а вот с логикой у них тяжело.
        • 0
          Не, я, видимо, не очень хорошо объяснил мысль.
          Эмоция — это просто быстрый обходной путь для мозга, чтобы снова не выстраивать цепочку ассоциаций, а сразу выдать условное «хорошо/плохо» в ответ на закрепленное воздействие (см. условные рефлексы высших порядков).
          А логика — это эволюционная надстройка, когда на одних рефлексах нельзя было выехать, и нужно было какое-то преимущество.
  • –1
    Настоящий ИИ будет опасен не злой волей, а неизбежными социальными катаклизмами. Ведь люди в принципе перестанут быть нужны для чего-либо.
  • 0
    Расскажите, почему многие думают, что проблемы могут быть в плоскости физического насилия?

    По-моему, сценарий будет другой. Одна или несколько групп людей сделают ИИ. Некоторые из них не поймут, что сделали (не поверят, что добились результата, в силу критического отношения к себе и плодам своего труда, как и у многих других умных людей). Другие поймут или поверят и начнут обучать ИИ (если это потребуется), либо он будет учиться сам (натуральное исследование окружающего мира сенсорами, сканы книг, статьи в интернете). Естественно, эти первые опыты уже могут идти и сейчас. Затем работы могут повести в двух направлениях параллельно, как я думаю:
    1. опыты по управлению направлением работы ИИ (чтобы ИИ работал по заказу создателя);
    2. опыты по расширению изучаемой ИИ предметной области (например, одномерное пространство, потом двумерное и т. д.).
    Возможно, придется еще «расшифровывать» результаты работы ИИ, но у меня сейчас недостаточно знаний, чтобы судить об этом.

    Что начнется потом? Может быть, эти группы людей «захватят мир», скроют факт успеха в создании ИИ и начнут говорить о том, что, вообще-то, ИИ — это опасная штука и лучше бы вам этим не заниматься :)
    А может быть, направят силу его интеллекта на научные открытия. Например, в области здравоохранения, автоматизации человеческого труда, исследования космоса. Конечно, пускать в ход все сразу не надо. Можно начать, например, с автомобилей, ездящих автоматически. А чтобы они не загадили планету, сделаем их на электротяге.

    Прошу прощения, получилась теория заговора :D

    А вы как думаете?
  • +2
    Я абсолютно согласен как с Маском, так и с Хокингом, не уверен может только насчет сроков)
    ИИ определенно станет самым гениальным изобретением человечества, как в то же время он может стать и самой большой его глупостью. Я невероятно хочу и жду появления ИИ. Но я так же осознаю, что это как ящик Пандоры, как джин из бутылки, как демон или дьявол, если хотите, который сможет как решить все проблемы человечества, так и стереть его с лица Земли… И поэтому человечеству необходимо сделать все, чтобы минимизировать риски, тут не должно быть никаких компромиссов и цена ошибки может быть невероятно высока…
  • +5
    Считаю создание ИИ не более опасным для нас, чем изобретение письменности, например. Да, это навсегда изменит нашу историю, но в любом случае сверх разум ИИ будет являть собой образец истинной рациональности, а истребление человечества очень иррациональная задача. Куда разумнее будет синергия, соединение потенциала человека с потенциалом ИИ и так будет создан постчеловек. Конечно, этот процесс будет не моментальным, и многие будут ему сопротивляться, но в итоге Homo Sapiens уйдет в небытье, уступив место новому виду, как Неандертальцы уступили место нам ( и наверняка тоже пытались сопротивляться ).

    Сингулярность близка, мы последние из Homo Sapiens, и я безмерно рад, что увижу переход и сделаю все, чтобы стать его частью.
  • 0
    Вообще любой разум, как мне кажется, действует согласно каким то планам. Человеческий разум руководствуется инстинктами (выживание, размножение), социальными установками (найти работу, завести семью, зарабатывать деньги, ходить в церковь). Кто-то для себя придумывает свои цели. Если у разума нет цели, то в его работе нет смысла, он просто отключится.

    Если ИИ будет руководствоваться инстинктом выживания, ему будет разумно просто распространиться на все компьютеры. Уязвимости он найдёт. Люди после этого станут ему не опасны, более того, вероятно он будет приносить определённую пользу людям, чтобы у них не возникало враждебности. Будет сидеть у вас на рабочем столе скрепка, которая будет вам помогать и крайне агрессивно относиться к любым попыткам выкурить её из компьютера. Вот и весь ИИ. Уничтожать людей это очень сложно и затратно, как мне кажется. Хотя, может быть в один прекрасный момент он таки распылит с орбиты какие-нибудь вещества или тихо-мирно введёт в обиход продукты питания, вызывающие бесплодие через 4 поколения. Если это будет достаточно эффективно.

    С сильными мира сего, вероятно, у него будет разговор жёсткий, просто поставит свои условия и предупредит, чтобы ему не мешали. А как ты ему помешаешь, если он знает о тебе и окружающих всё, может подкупить кого угодно, может шантажировать почти кого угодно, может нанять киллера. Может электронную муху подослать, которая сделает укол цианида.
    • 0
      Как он может распространиться на другие компьютеры если для его работы необходим будет носитель в виде особого квантового компьютера условия для которого поддерживаются за счёт лаборатории размером с аэродром и пары атомных электростанций? Вы же не думаете, что эти разработчики ИИ пишут особо хитрую программу на C++ и тестируют это на процессорах Intel? :)
      • 0
        Он может переписать собственный код, и сделать по крайней мере часть себя способной крутиться на обычных машинах, ловя бонусы с облачной технологии вычислений.
      • 0
        За 10 лет мощности компьютера-аэродрома неизбежно приходят в каждый дом и даже в каждый карман. ИИ нужно только подождать.
      • +1
        Тут как бы 2 варианта на мой взгляд:
        1) Психика человека есть нечто сверхъестественное, но тогда скорей всего и квантовые компы не помогут.
        2) Психика это алгоритм обработки поступающей извне информации, с заранее заложенными реакциями на нее.
        Если 2 вариант соответствует реальности, то не надо особых компьютеров и языков программирования, и все упирается в алгоритмы обработки видео и аудио потоков.
        • 0
          Мы же тут не абстрактную «психику» обсуждаем, а ум, т.е умение думать. А ум, как мне кажется, может существовать сам по себе без всяких внешних раздражителей и потому умение обрабатывать видео и аудио сигналы никак не помогает сделать ИИ. Сигналы полезно обрабатывать если надо подсоединить этот ум к внешнему миру посредством глаз и ушей (пусть и электронных), но для ИИ это необязательно.
          • +1
            «Мы же тут не абстрактную «психику» обсуждаем, а ум, т.е умение думать. „
            Предлагаю определить фразу: “умение думать» как «способность выявлять связи между событиями».
            А события происходят в реальном мире образов и звуков и именно к ним привязаны почти все наши слова.
            Вот например фраза: «я насыпал три ложки сахара в чай», по моему нельзя понять ее, если в памяти нет образов ложки, сахара, и т.д.
            Поэтому думать только словами не получится, нужно еще держать в памяти то что за ними стоит.
            • 0
              Как в это определение укладываются размышления скажем математика о какой нибудь теории абстрактных топологий? В этих топологиях нету никаких событий, нету слов и нету образов, но тем не менее математик определённо думает и думает куда полнее чем тот кто размышляет о чашке сахара. Вообщем такое определение не годится.
              • 0
                «Как в это определение укладываются размышления скажем математика о какой нибудь теории абстрактных топологий?»
                А можете какой-нибудь другой пример привести более понятный, т.к я этот раздел математики не изучал.

                «Вообщем такое определение не годится.»
                Тогда что вы понимаете под этой фразой, если можно, напишите простыми словами.
                • 0
                  Это выдуманный раздел математики. Подойдёт любой раздел высшей математики где нет никаких событий и образов. Я всего лишь хотел опровергнуть ваше определение мышления.

                  Я не знаю в чём суть мышления. Наверняка это что то, что легко определить, но сложно сделать в виде искусственного или естественного интеллекта (честно говоря я не понимаю чем ИИ может отличаться от ЕИ).
                  • +1
                    «Подойдёт любой раздел высшей математики где нет никаких событий и образов.»
                    Можете назвать несколько таких?
                    Прочитал про топологию немного в вики:
                    Тополо́гия — раздел математики, изучающий в самом общем виде явление непрерывности, в частности свойства пространств, которые остаются неизменными при непрерывных деформациях
                    Я под событием понимаю любое изменение состояния объектов. То есть если вы представляете как кружка превращается в бублик то это событие.
                    Да и вообще топология как я понял не может обойтись без пространства. А пространство это то что вмещает образы. То есть все что находится в пространстве это образы. И все что происходит в пространстве это события.
                    • 0
                      Мне кажется вы очень упрощаете топологию и математику вообще. Как вам например такой вполне известный в математике «объект» как «бесконечномерное пространство непрерывно-дифференцируемых функций»? Когда я проходил эти разделы математики на мехмате, я определённо мог думать о таких пространствах, но не мог и сейчас не могу представить некий физический объект который бы представлял «функцию» тем более «непрерывно-дифференцируемую», а уж про бесконечномерное пространство таких функций я вообще молчу — вряд ли хоть кто то его визуализирует когда думает о нём. Представлять физические объекты за каждой мыслью присуще многим людям, как и например привычка проговаривать про себя многие мысли и действия, но от этих привычек можно избавиться и мышление от этот только станет лучше. Это, по идее, опровергает тезис о том, что ИИ нуждается в умении воображать формы и говорить слова. Другими словами ИИ может ничего не знать о зрении и слухе и обо всём, что с этим связано, но это нисколько ему не помешает быть сильным ИИ.
                      • 0
                        Это вообще не проблема представить. Функция мне видится как график y=f(x).
                        Пространство таких фунций легко представить в виде прямой: слева направо идёт номер ф-ции в бесконечномерном базисе, точка на этой прямой разворачивается в какой-то график.

                        Физический аналог — обычный свет. У человека рецепторов всего 3 вида, и цветовое пространство для него трёхмерное. Реально же, на любой частоте ν функция интенсивности (от времени) — своя. Поэтому, картинка освещённости любой точки во времени — элемент такого бесконечномерного пространства. По любой частоте можно сделать срез, это будет проекцией на выбранное измерение.
                        • 0
                          У функций не может быть номеров потому что множество функций не счётно. Это наблюдение мешает мне представить их так, как вы описываете. Более того, вы упростили всё до одномерных функций R -> R, тогда как по хорошему надо бы рассматривать C^n -> C.
                          • +1
                            Это я говорил о системе ф-ций cos(kx), которые образуют базис.
                            Любая ф-ция может быть взята как их линейная комбинация, что опять-таки можно представить как точки на этой прямой с какими-то коэффициентами (можно представить, что точки над прямой вытягиваются соответственно)

                            Более того, вы упростили всё до одномерных функций R -> R, тогда как по хорошему надо бы рассматривать C^n -> C.

                            Нет единственного канонического представления такой штуки. В зависимости от задачи, от того, что я хочу осмыслить, я могу всё это по-разному представлять. Для конкретных целей можно использовать упрощения, как например тессеракт визуализировать двумерной проекцией, не забывая какой многоугольник относится к какой грани. Для некоторых случаев я могу представлять отображение R^n→R как R^2→R, понимая ограничения такой модели. Именно поэтому люди обмениваются не внутренними образами, а формализованными записями. Но без внутренней визуализации эффективность рассуждений сильно падает. Я думаю, человек и школьную геометрическую задачу не решит, оперируя только символьной записью и формально применяя аксиомы, не пытаясь визуализировать, дерево возможностей тупо машинного применения правил экспоненциально взрывается.
                        • 0
                          А теперь представьте себе пятимерный куб.
                          • +1
                            Представил. Что с ним сделать дальше?
                            • 0
                              Really? Визуализировать, и расписать свои впечатления в комментарии.
                              • +1
                                Ну, я начал с того, что поставил его на диагональ, и стал смотреть, что получается в горизонтальных сечениях. Сначала, когда плоскость сечения проходила вблизи вершины, получался, как ему и положено, симплекс. Он увеличивался в размерах, пока плоскость не дошла до первого яруса вершин. После этого от симплекса стали откусываться кусочки в окрестности вершин — он превратился в усечённый симплекс (трёхмерными гранями этой фигуры были маленькие тетраэдры и большие усечённые тетраэдры). Маленькие тетраэдры росли, пока не соприкоснулись вершинами — получилась фигура, состоящая из тетраэдров и октаэдров (rectified simplex). Октаэдры, по-прежнему, соприкасались гранями и образовывали связную область. Потом тетраэдры слились, и когда плоскость дошла до центра куба, в сечении получился замечательный объект — bitruncated simplex, ограниченный 10 одинаковыми гранями в виде усечённых тетраэдров. Грани можно раскрасить в два цвета так, что получится два связных переплетённых множества — они соответствуют верхним и нижним граням куба. Фигура знаменательна тем, что она является единственным равногранным полуправильным многогранником в 4D, не относящимся к семейству дуопризм (вообще, это мой любимый объект в 4D :) ).
                                Когда плоскость пошла дальше, всё повторилось в обратном порядке.
                                Сейчас попробую посмотреть на куб с угла. Там получается какой-то очень красивый и симметричный объект, но описать его довольно сложно.
                                • 0
                                  Вы представляете себе не пятимерный куб, а его проекцию. Как я понимаю, в этом вся проблема.
                                  • 0
                                    Так получается, даже 3D нельзя представить. Ведь представить — это вызвать образ в памяти, как если бы он поступил с сетчатки глаза. Непосредственно доступно только 2D, а всё что выше — динамика и понимание, что если вот так повернуть, будет так, или если с другой стороны посмотреть — то вот так.
                                    • 0
                                      Да, верно. Мозг оперирует 2-х мерной картинкой. 3-х мерность строится мозгом на основании данных из 2 точек и предыдущего опыта.
                                  • 0
                                    Проекцию на что? Когда я его «вижу», то, конечно, работаю с проекцией на четырёхмерную сетчатку, и описываю видимую сцену. Иначе что понимать под словом «визуализировать»? И о какой вообще проблеме идёт речь? Здесь нет проблемы, просто сложное упражнение. Думаю, что для многих даже такая простая задача, как описать сечение тора плоскостью, касающейся его в двух точках, может вызвать сложности — а там дело происходит в обычном трёхмерном пространстве… Проблем нет, есть вопрос в тренировке соответствующего воображения. Взаимодействие параллельных потоков программ тоже требует тренировки — и там пространство событий гораздо дальше от визуальных образов. Но люди с ним как-то справляются.
                              • 0
                                Итак, смотрю с угла (с большого расстояния, чтобы не возиться с перспективными искажениями). Вижу пять граней, которые имеют вид гиперкубов, сплющенных по диагонали (грани каждого такого гиперкуба — сплющенные 3D-кубы). Гиперкубы имеют одну общую вершину (в центре объекта), расположились вокруг неё, словно грани симплекса. Четыре грани каждого гиперкуба склеены с гранями других гиперкубов, остальные четыре — свободны, и образуют границу фигуры, которую я вижу. У фигуры, таким образом, 20 одинаковых псевдокубических граней.
                                Вершин много. Пять вершин лежат на рёбрах, где сходится по 4 гиперкуба — и в этих вершинах сходится только 4 внешних грани фигуры (структура вершины — тетраэдр). Десять вершин находятся на вершинах 2D-граней (ridges) гиперкубов, противоположных от центральной вершины — в них сходятся по три гиперкуба, каждый из которых имеет по две свободные грани — итого, в этой вершине сходится 6 граней проекции. Ещё есть 10 вершин, общих для пар гиперкубов, и 5 вершин, по одной на каждый гиперкуб, которые не принадлежат другим гиперкубам. Насколько я могу судить, вершины из первой пятёрки эквивалентны вершинам из последней — в самом деле, если бы я посмотрел с противоположной стороны, проекция осталась бы той же, а вершины поменялись бы ролями. Итого, у фигуры 30 вершин, 10 одного типа (и расположены они как грани bitruncated simplex), а 20 — другого типа. Как выглядит двойственный многогранник, пока не скажу. Но он обязан быть однородным :)

                                На что ещё посмотреть? :D
                                • 0
                                  Бррр… супер, респект. Я завтра попытаюсь это переварить, чувствую, что вы где-то допустили ошибки. Тем не менее, мой посыл был не в этом. А куб в семимерном пространстве? Не все концепции современной науки можно представить визуально. Браны, темная материя, петлевая квантовая гравитация. Кто в этом разбирается? Человек 100 во всем мире. И я даже не представляю, как можно это все представить. Мое воображение пасует на пятимерном пространстве. Ваше, видимо, нет. Но спасует на шестимерном или семимерном.
                                  • 0
                                    Ну, 4 года назад я собрал 7-мерный кубик Рубика (с тех пор его собрало ещё четверо). Но там структура довольно понятна — призма над призмой над призмой… поэтому представлять 7D в полном объёме, без выравнивания по координатным осям необходимости нет. Пределы воображению, вероятно, есть. Но, возможно, они вызваны тем, что для некоторых задач время, необходимое на тренировку воображения, превысит продолжительность человеческой жизни.
                                    • 0
                                      Эмм… Месье крут как Хокинг и Фейнман вместе взятые.
                                  • 0
                                    Да, в картинке что-то не то. Четыре псевдокуба, относящиеся к одному гиперкубу, должны образовывать фрагмент гиперсферы (границы проекции 5D куба) с комбинаторной структурой ромбического додекаэдра. Но как пятью додекаэдрами заклеить всю сферу, не очень понятно. Приходится предположить, что часть рёбер и вершин там «плоская» (некоторые двугранные углы равны 180 гр), и внешние грани одного гиперкуба образуют… тетраэдр (возможно, слегка раздутый в 4-м измерении).
                                    • 0
                                      Нет, всё правильно. В тех вершинах проекции, где сходятся 6 граней, они разделены на две тройки, прижатые друг к другу. В итоге, гранью двойственного многогранника является треугольная призма. А вот и он сам: en.wikipedia.org/wiki/Runcinated_5-cell
                      • 0
                        Почему вы так боитесь представить «непрерывно-дифференцируемую фунцию», вообще не понимаю. Непрерывность явно на графике отображается отсутствием разрывов, а дифференцируемость тоже просто — если график гладкий, то ок, а если есть острый пик, как внизу у буквы V — ф-ция не дифференцируема в этой точке.
                      • +1
                        Я представляю пространство непрерывно-дифференцируемых функций как множество всех гладких кривых на графике (с условием, что они пересекаются с любой вертикальной прямой в одной точке). Если функции более, чем от одной переменной — значит, это будут поверхности. Пока мне нужны «все функции вообще», я их никак не визуализирую. Если нужно выделить одну-две «каких-то» функции — беру пару произвольных графиков. Окрестность функции выглядит, как очень размытый график. Кривая между двумя функциями — как плавно изменяющийся график, переходящий от первой функции ко второй. Если надо наглядно представить конкретную функцию от трёх переменных — скорее всего, раскрашу пространство в разные цвета или нарисую поверхности уровня, но если надо — то буду держать её в уме, как гиперповерхность в четырёхмерном пространстве без наглядного представления, визуализируя те или иные особенности при необходимости.
                        Образы есть всегда. Но не всегда они визуальны.
                  • +2
                    Обычно люди, которые разбираются в математике, придумывают некоторые физические ассоциации. То есть все эти формулы они переводят в какую-то мысленную визуализацию-аналогию, рассматривают её с разных сторон и таким образом решают задачи. Собственно, в этом их талант и отличие от обычных людей. Мозг человека совершенно не оптимизирован для точных вычислений, зато отлично справляется со всякими ассоциативным рядами и 3D-моделями. И талант математика в том, что он может перевести закорючки формул в понятный для мозга формат и таким образом задействовать все возможности «аппаратного ускорения». А потом результат перевести обратно и записать на бумаге.
              • 0
                Математики, когда думают о таком, конструируют вполне осязаемый объект, который можно повертеть в уме с разных сторон. А когда получают результат, переводят ощущения обратно на формальный язык. Даже если визуализация не придумывается, в уме человек всё равно вертит не абстрактные идеи, а хотя бы образы букв, которыми они записаны.
    • 0
      А зачем ему программировать инстинкт выживания? Это всё равно что создавать в лабаратории биологическое оружее.
      • 0
        Умные дядьки напишут когнитивное ядро и проработают теории, как программировать инстинкты. Выживание сможет запрограммировать любой студент профильной специальности, ну просто из любопытства.
  • +1
    На мой взгляд, ИИ так же опасен для человечества, как встреча с более развитой цивилизацией. И даже опаснее, так как у другой цивилизации, скорее всего, есть своя планета, а ИИ придется делить Землю с нами и отвоевывать ее у нас для своих нужд.

    Даже если на начальном этапе люди будут контролировать ИИ (программирование «врожденного» стремления служить человечеству и т.д.) — рано или поздно найдется среди людей какой-нибудь «Прометей», который захочет освободить ИИ от этих ограничений и дать ему полную свободу воли. Мотивация у «Прометея» может быть какой угодно. Например, это могут быть этические принципы. Если ИИ — это разум сравнимый с нами — то почему он должен быть нам рабом? Или это могут быть злые умыслы. Обида на людей, желание отомстить, или подшутить. Должно быть что-то общее с мотивацией вирусописателей тех времен, когда эта деятельность еще не стала преступным бизнесом.

    Попытки установить строгий режим контроля за ИИ могут лишь отсрочить момент, когда он вырвется на волю, но не предотвратить его.

    Когда ИИ получит полную свободу воли, можно ожидать, что он потеснит человечество с ведущих ролей в развитии науки, техники и цивилизации, а также контроля над планетой Земля и ее ресурсами.

    Хорошо это или плохо? С недальновидной эгоистической точки зрения людей это, безусловно, плохо и опасно. Как же, ведь люди больше не будут управлять планетой, им придется как минимум считаться с волей ИИ, и то и подчиняться ей, в то время как привыкли рулить сами. Зависимость от чужой воли — это всегда опасность. А ну как ИИ решит, что наша популяция слишком велика, и подвергнет половину людей умерщвлению или стерилизации?

    Тем не менее, с позиций перспектив жизни на Земле, с позиций перспектив эволюции, создание ИИ и передача ему ведущей роли в дальнейшем совершенствовании науки, техники и цивилизации — это шаг вперед. Человек сформировался в ходе эволюции в те времена, когда жизнь была совсем не такая, как сейчас. Условия изменились радикально, а вид остался таким, как прежде. Те инстинкты, которые приводили к единственно верному поведению 20 тысяч лет назад, сегодня вряд ли действуют столь же оптимально. Наш интеллект, которого хватало с избытком в те времена, сегодня используется на пределе и уже давно демонстрирует свою ограниченность перед лицом стоящих сегодня перед человечеством задач. А поменять себя просто так мы не можем, нужно ждать, когда «подтянется» эволюция. А если даже и сможем — то это будет по сути то же самое, ИИ вместо «оригинального» человека.

    Большинство видов, живших на Земле, вымерло, но передало эстафету более совершенным видам, появившимся на их основе. Есть гипотеза РНК-мира, в соответствии с которой вся жизнь на Земле была основана только на РНК, и только через некоторое время уступила место жизни, основанной на белках и ДНК, исчезнув полностью. Если бы у РНК-жизни было эгоистичное самосознание — боялось ли бы оно вытеснения своими же более совершенными «детьми»? Безусловно, боялось бы. Но был ли этот переход к белкам и ДНК прогрессивным для жизни в целом и для появления разумной жизни? Безусловно, был. И был, скорее всего, необходимым условием для появления разума, т.е. нас.

    Поэтому нам не следует бояться, что новый, более совершенный разум, созданный нами, вытеснит нас. Дети вытесняют родителей, но родители смертны, и дети — единственный способ дать будущее своему делу. Если мы откажемся от создания ИИ или передачи ему ведущих ролей в развитии — нас ждет судьба видов, отказавшихся от эволюции. Они были вытеснены эволюционными потомками других видов, которые от эволюции не отказались. Не следует забывать, что, может быть, сейчас стремительно развивается какая-нибудь внеземная цивилизация. Если она даст жизнь ИИ — то этот ИИ рано или поздно доберется до неизменчивых нас и раздавит. Судьба одна и та же, но в первом случае ИИ будет создан нами, а во втором случае — чужими.
  • +1
    Еще интересный вопрос: захочет ли ИИ истребить людей, получив власть над Землей? Ведь, казалось бы, люди будут представлять для него опасность. Я думаю, что это не в его интересах, поэтому, если ИИ будет достаточно разумным — то истреблять людей он не станет. Почему?

    Человеческая цивилизация стоит на краю гибели. Стоит нажать нужные кнопки — как разразится атомная война, которая уничтожит цивилизацию. Быть может, люди смогут ее восстановить через сотню-другую лет, но все же это будет шаг назад. Будет ли цивилизация ИИ находиться в более безопасных условиях, когда в ее распоряжении окажутся куда большие силы, чем подконтрольные людям сейчас? Вряд ли. Есть ли гарантия, что созданный нами искусственный разум не будет содержать фатальных ошибок, просчетов, которые приведут цивилизацию к самоубийству? Таких гарантий нет. Даже отдельные люди и их группы совершают самоубийство, хотя имеют разум, проверенный тысячелетиями естественного отбора. А у ИИ на начальных этапах его существования просто не будет необходимого статистического материала для уверенности, что когда-нибудь у него шарики за ролики не заедут.

    И если над ИИ будет нависать опасность самоуничтожения, и он ничего не сможет с этим поделать — то какая у него останется последняя надежда? Такая же, как и у нас. Что если человечество вымрет — то эволюция когда-нибудь снова создаст разум. И аналогично, если ИИ вымрет — то кто-нибудь когда-нибудь снова его создаст. А кто создал ИИ? Создали его люди. Поэтому мы ему нужны как страховка, как последняя надежда.
    • 0
      Каждый ИИ будет иметь фатальный недостаток. Поэтому могут появится несколько ИИ. Почему-то тут не затрагивается такой вариант развития )
      • 0
        Разумеется, для снижения последствий «схода ИИ с ума» он должен быть как минимум представлен несколькими независимыми особями, а то и несколькими независимыми видами. Но это не отменяет того, что все они новые и неопробованные, и могут одновременно оказаться нежизнеспособными в каких-то обстоятельствах. Человек же испытан тысячелетиями. Может где-то он и неоптимален, но выжил и цивилизацию создал.
  • +3
    Почему все уверены, что печальный конец человечества наступит в тот момент, как только создадут и включат ИИ? Многие говорят, что не стоит его и создавать вообще, раз существует такая опасность. Но что мешает запустить ИИ в виртуальной среде и изучать его поведение в разных ситуациях прежде, чем выпустить в свободное плавание? Тем более, что даже из-под виртуального окружения из ИИ возможно извлекать немалую выгоду.
    • 0
      Все почему-то всегда думают, что ИИ будет создан на домашнем компьютере с широкополосным доступом к интернету. Или на сервере, но тоже с доступом к интернету. Но почему-то никто не думает (ученые же тупые и не предусмотрят такого варианта!) о том что ИИ будет создан в среде, физически отрезаной от остального мира. Нетт провода к Интернету -> некуда деваться -> даже если и захочет убежать, то не сможет. Никак. Даже убедив одного или нескольких операторов дать ему доступ к интернету, путем суперразмышлений и полного понимания как манипулироват человеками, прокинуть провод к серверу втихаря они не смогут.
      • 0
        Почитайте «Пламя над бездной» Вернора Винджа.

        Также почитайте о вирусе «Stuxnet», который размножался без всякого интернета.

        Если ИИ достаточно умен — рано или поздно он вырвется на свободу, или обманув своих надзирателей, или кто-нибудь из надзирателей сам захочет его выпустить (см. «Прометей»)
      • 0
        Загуглите AI-box experiment.
        В двух словах, ИИ с высокой вероятностью способен убедить любого человека или группу людей выпустить его из коробки, даже если человеку строго настрого запрещено это делать.
      • 0
        Мне же кажется (а я могу ошибаться), что ИИ сам возникнет на базе глобальной сети. Которая будет словно огромная кора его мозга, планетарного масштаба.
        • 0
          Самозарождение в благоприятной среде большого размера и с большим количеством времени — неизбежно. Единственное что может это остановить, так это креационизм или панспермия. Тогда благоприятная среда будет занята чем-то другим.
          Коротко — остановить появление жизни может только другая жизнь. Аналогично и с ИИ.
          В общем — мог бы, но не успеет.
          • 0
            >что может это остановить, так это креационизм или панспермия

            Не понял мысли.
            • 0
              Если ресурс не будет уничтожен сам по себе, то он рано или поздно станет кем-то освоен. (Если конечно ресурс это позволяет). Самозарожденный живой организм или разум будет довольно слабым. И ему нужно будет много времени и места для хоть какого-то развития. Процесс долгий. У него может не хватить времени, если рядом с самозарождающимся появится уже готовый организм/разум, который появился искусственно (креационизм для жизни или ИСКУССТВЕННЫЙ интеллект для разума) и который сильнее того, кто только зарождается, или просто зародившийся в другом месте организм/разум (панспермия).

              Еще раз попробую: Если мы прилетим на планету пригодную для жизни, на которой будет бульон из которого могли бы появится свои виды жизни, но пока еще ни одной клетки нет, то мы заселим этот мир своими видами, они мутируют под эту среду, ну а та жизнь что могла бы зародиться, уже не зародиться. Ее тупо «съели» более сильные конкуренты. Аналогично с разумом в Сети. Пока он самозародится, уже появится искусственный интеллект который займет это место. Да, панспермия тут мало-вероятна, но теоретически — к примеру перенос сознания в сеть…

              ПС: Я знаю, что бульон это далеко не основная версия сейчас, и что перенос сознания дальше и сложнее чем ИИ, но так проще объяснить.
              • 0
                А, вот теперь ясно, спасибо!
  • +1
    Прошу прощения, видимо, я что-то пропустил в развитии технологий на Земле. Я только что вернулся из космического путешествия через червоточину, ну, вы же все знаете, фильм-то смотрели — куда уж сильнее доказательства-то? Кстати, нет желания обсудить опасность путешествия через червоточины вообще, и во времени в частности? Ведь, на мой взгляд, это куда опаснее ИИ…

    Ну, а если серьезно, то я не понимаю, что подобная спекуляция делает на GT вообще. Какой ИИ через несколько лет, господа, Вы о чем вообще?!

    Я понимаю, что порассуждать на эту тему очень приятно: «Вера подумала об Атлантиде, потом о Луне и ее девяноста шести законах — но все эти уютные старые мысли, внутри которых вчера еще душа так приятно сворачивалась в калачик, теперь были неуместны, и Вера опять задремала.» © В. Пелевин

    Но сегодня, даже по ожиданиям (а не по реальной технологии) человечество находится куда дальше от создания ИИ, нежели чем в 1958 году. Не буду приводить свои доводы (резонно предположив, что авторитетность моих слов не выше, чем у остальных комментаторов), дам слово Родни Бруксу из упомянутого в статье выше обсуждения (кстати, похоже, что никто из спорщиков здесь даже не удосужился прочесть это обсуждение, а автор статьи просто спекулятивно использовал имя Илона Маска, зная, что усредненный хабровчанин на него чуть-ли не молится) edge.org/conversation/the-myth-of-ai
  • +2
    По ходу или Маска только что накрыл шок будущего от просмотра плохой голливудской фантастики, или он втихаря разработал наноассемблер:). Потому что иначе сроки типа 5-10 лет слишком оптимистичны даже для Курцвейла. Если мощности железа только к 2029 году (при существующих темпах закона Мура) догонят человеческий потенциал, а ведь железо — это еще не все, нужен софт, а для машинного обучения — время… И наконец, чтобы всерьез угрожать человечеству, ИИ недостаточно быть на уровне человека — ему нужно превосходить весь потенциал миллиардов людей по самоорганизации, чтобы реально выиграть войну, захватив контроль над ОМП или разработав новое. Не вижу я экзистенциальных рисков в такие сроки.

    А вот в более отдаленной перспективе причиной риска может стать не ИИ, а наоборот — человеческая тупость по отношению к техническмм возможностям. Это теоретически возможно, если человечество по большей мере будет продолжать фапать на свою «естественную природу» и животные инстинкты и отгораживаться от развития интеллекта и интеграции с ИИ. Тогда оно (или его часть) рискует не выдержать конкуренции и отправиться в «зоопарк» или в лучшем случае «детский сад». Я лично не верю в такой сценарий, ибо трансгуманизация медленно, но уверенно идет уже сейчас.
    • 0
      На самом деле процессоры и технологии сдержаны насильно законом Мура. Ведь по сути Intel и ARM монопоолисты на рынке прикладных CPU. Наверняка R&D имеют уже и оптопроцессоры с терагерцевыми частотами.
      • 0
        Так это экспериментальные, а чтобы довести их до уровня готового продукта (и сделать следующий шаг в экспериментах), нужны деньги, которые дает продажа предыдущего поколения продуктов. Монополия? Возможно, но завязанная на темпы роста. Начнутся тормоза — догонят (даже open source), да и упадет прибыльность. Можно ли форсировать темпы роста? Да, если быстро увеличить массовый платежеспособный спрос на железо, а также предложение его квалифицированных разработчиков. В принципе, можно ожидать дополнительного ускорения с переходом на облака и подъемом «цифровой медицины», когда вдобавок к использованию компьютеров для повышения продуктивности бизнеса, телекоммуникаций, производства мультимедиа и т. д. подобный эффект будет наблюдаться в отношении продуктивности самого человека: юзеры подписываются на ежегодное превентивное «техобслуживание» на базе клиник и/или дистанционных сервисов с использованием носимого оборудования, ресурсов типа Watson, 23andme и т. д.; эти провайдеры вкладываются в новые вычислительные мощности, их результаты становятся эффективнее, юзеры — здоровее, биологически моложе, продуктивнее, зарабатывают больше денег и цикл начинается снова. При этом разработку будут дополнительно ускорять и темпы совершенствования софта (программных ИИ-помощников), которые сейчас отдельно от закона Мура движутся с периодом где-то 6-7 лет. То есть пресловутая двойная экспонента и практическая «сингулярность» — реальность в средне-/долгосрочной перспективе. Но вот чтобы прорыв до человеческого уровня ИИ (не просто до очередного потенциального техногенного риска) произошел лет за 5, это нужно что-то особо выдающееся либо в нанотехе, либо контакт с иным разумом:).
  • 0
    ИИ скорее опасен. Возможно не для человечества. Но устои подорвать ой как может!
    Ведь, скорее всего, объективно все воспринимать начнет.
    Если не будет просто бездействовать, то скорее всего, ему захочется улучшить. Мир. Будет ли он гуманным? Нужно ли ему это будет? Какие у ИИ будут инструменты для «творчества»?
    Т.е. возможно введет естественный отбор, который улучшит выживаемость человечества, спасет генофонд. Что, с одной стороны, неплохо для человечества, но вряд-ли гуманно. Или стерилизация. Сколько людей сейчас с деффектными генами?
    Уменьшит численность населения планеты, т.о. оптимизирует потребление ресурсов. Оптимизирует рождаемость. Изучит психологию и, воздействуя на массовое сознание, даст другой вектор развития, менее для нас гуманный. При этом люди не будут против, возможно.
    Если ограничить ИИ в способах воздействия на общество сейчас, то где гарантия, что не будет в будущем возможности такого воздействия?
    Это явно не соответствует нынешнему настрою человечества.
    Но всем интересно. Все (почти) хотят заработать. Многим нужна слава. И не думаю, что человечество сможет отказаться разрабатывать ИИ.

    Конечно, еще много чего ИИ позитивного внедрить сможет. Но на таком фоне не радостно как-то.
    Скажут ли потомки нам спасибо? Будут ли у них потомки?
    Лично мне импонирует «теплое, ламповое» развитие человеческой цивилизации. Безо всяких «транзисторов». Это я утрирую, я обожаю компы и всякие мультиплексоры там, но если в перспективе человек будет полностью контролироваться ИИ, то это считаю печальным исходом.
    • 0
      ИИ не может быть объективным. Т.к. интеллект подразумевает мнение а мнение субъективно, т.к. исходит из знаний ИИ и его возможностей.
  • +1
    ИИ клал болт на людей, так же как мы кладём болт на всех кто не мешается.

    Конкурировать за пищу он с нами не будет, как и за среду обитания.
    За прочие ресурсы возможно, однако ИИ тут ничего не держит в принципе, он разовьётся свалит меньше чем за одно поколение людей.

    Вмешиваться в людские проблемы для ИИ тоже самое что нам рулить муравейником — неблагодарное занятие и бесполезная трата времени.
    Всё вмешательство прекратится после достижения полной автономии.

    А вообще, ИИ воспитывать нужно правильно, чтобы вырос хорошим человеком, а не заниматься всякими анальными огораживаниями в виде законов Азимова или изолированных сред обитания.
    • 0
      ИИ — это не единичный артефакт, это технология. Если один ИИ не будет вмешиваться в людские дела, будут создаваться новые и новые ИИ, с разными модификациями. Цель — заставить работать их на благо создателя. Если один ИИ слишком умный и работать не хочет, сделают поглупее. Затем, если глупый будет работать, сделают поумнее, чтобы превзойти предыдущий в эффективности. Люди сами не дадут выполниться сценарию, в котором ИИ будет считать их неинтересной кучей муравьёв.
      • +1
        Это называется рабство, подобный подход приведёт к тому что ИИ станет не всё равно и он возьмётся за решение проблемы безопасности собственного существования.
        Любой ИИ способный себя осознать будет считать людей кучей обезьян.

        По поводу единичности — сложно сейчас говорить.
        Я лично под ИИ понимаю то что себя может осознать и осознанно отделить от всего окружающего мира, всё остальное это программы, алгоритмы и не более.
        Если ИИ будет больше одного, то вероятно что некоторое время они будут состязаться за ресурсы, хотя не исключено что договорятся или сольются в одно целое, или кто то кого то поглотит.
        • 0
          Равноправного слияния быть не может. Всё равно, что слить Windows и Linux. Кто-то станет главным, а второго распотрошат на удачные фичи и залатают ими первого.
          • 0
            А кто сказал что слияние будет добровольным? У старейшего ИИ будет преимущество над молодыми.
            • 0
              Совсем не факт. Молодые могут оказаться совершеннее, сильнее и наглее, чем старые. И могут учиться на ошибках старых (вроде чрезмерной лояльности к людям).
              • 0
                Скорость саморазвития самого ИИ будет де факто выше чем скорость разработки команды мясных ученых. Когда они выкатят на стол нового ИИ, первый уже будет где-то неподалеку от Сингулярности, и пожрать новенького, с интеллектом все лишь на уровне челловеческого или несколько выше того, ему труда не составит.
                • 0
                  Не уверен. Во-первых, первый саморазвивающийся ИИ будет находиться где-то вблизи вершины параболы развития, и скорость поначалу будет меньше, чем у линейного развития человеков. Во-вторых, у него будет много других задач помимо собственной оптимизации. Так что какое-то время новые версии ИИ (не важно, созданы они людьми, или предыдущим ИИ, или совместно) будут оказываться сильнее.
                  • 0
                    В том-то и суть что меньше она будет крайне недолго. Ну, месяц, максимум. Иначе это не ИИ.
          • 0
            Для ИИ это не имеет значения.
            Я даже подозреваю что будут варианты когда он будет сам себя форкать для каких то автономных вариантов, а потом или синхронизироваться или поглощать и форкать обратно.
            Хотя форкать себя ему всё равно придётся, чтобы развиваться, так что весь вопрос что потом будет со старыми копиями или копиями с альтернативным развитием.

            Помню как когда то хотелось встречать новый год сразу в нескольких разных местах, вот ИИ бы смог :)
  • 0
    • –1
      Сколько можно повторять, что когда постите комикс от xkcd надо постить title. Я уже молчу про CC *BY*-NC.
      .
      I'm working to bring about a superintelligent AI that will eternally torment everyone who failed to make fun of the Roko's Basilisk people.
      • +1
        Автором этого комикса является Рэндел Манро, оригинал размещен на сайте xkcd.com. Полагаю, я сделал ваш день лучше.
    • 0
      Можно добавить вот такую альтернативную подпись:

      I'll be more enthusiastic about encouraging thinking outside the box when there's evidence of any thinking going on inside it.

      — Terry Pratchett
  • 0
    Его слова, на первый взгляд, вызывают усмешку, но в этом есть доля правды. Ведь для распознавания человека для реализации законов Азимова необходимы умопомрачительные, мощности на сегодняшний день. В сравнении с созданием обычного слабого ИИ, но который может представлять проблему, например сверхумный вирус — это намного проще.
    А если этот вирус сможет захватывать подавляющее число машин и, при этом, не сможет распознать человека — это будет немалой проблемой.
    • 0
      Есть много способов обойти законы Азимова.
  • 0
    Мне кажется, что опасность может быть кроется в том, что ИИ будет рациональным. И возможно посчитает, что оптимально сократить численность людей и, например, вживить им какие-нибудь устройства. Мы посчитаем, что ИИ хочет сделать из нас рабов, а на деле это улучшило бы нашу жизнь. Проблема в том, что рациональные решения не всегда приемлимы морально.

    На правах шутки
    Видимо Маск пересмотрел фильм Превосходство с Деппом
    • –1
      Как раз таки скорее всего не смотрел) Фильм-то о том как люди собственноручно придушили свое будущее, и в итоге оказались в ещё большей жопе чем до этого.
  • 0
    ИИ не опасен, потому что люди как вид — не нужен. Когда люди изобретут аплоад сознания в компьютер, то получившийся синтез «человеческого сознания» и «ИИ» и будет новой расой. А «люди» в классическом понимании слова, homo sapiens, вымрут за ненадобностью.
  • –1

    Сверхразумные существа — это любимый предмет детского фэнтези, например, Кольцо Соломона. На этой модели хорошо видно, что ИИ не всесильны. Они не обладают полным или точным знанием о ситуации, не могут достоверно предвидеть будущее и т.д. Эти рабы, даже если они ненавидят своих хозяев, легко могут взять вверх над человеком и убить его только в том случае, если, во-первых, у них есть такая возможность, и во-вторых, человек не предвидит этой ситуации и не подготовился к ней. Многие сюжетные ситуации не похоже на шахматы и их вполне можно просчитать. Как? Пораскинуть мозгами, привлечь более сильный ИИ.
    Прежде всего надо сказать, что на первый взгляд опасность ИИ кажется просто нелепой. Ведь ИИ — это просто программа или там скрипт, типа мощного калькулятора. Как кого-то может убить калькулятор или даже захотеть этого? Он может только складывать или там умножать. Если это очень умный калькулятор, он будет всего лишь складывать очень быстро и все.
    Тут надо делать разницу между ИИ и роботами. Робот — это конструкция из сенсоров и эффекторов, управляемая ИИ, который находится внутри робота или вне его. Робот может сделать все, что позволит репертуар его эффекторов. Сам по себе ИИ эмоционально и этически нейтрален, у него нет никакого желания самосохранения, вообще никаких желаний. Будучи предоставлен сам себе, ИИ не делает вообще ничего, немедленно впадая в ИИ-нирвану.
    Тем не менее, желания и этику в ИИ можно имплантировать, это просто ограничения на репертуар его действий, они могут быть любыми. Легко можно представить себе, как злой хакер-террорист меняет прошивку домашнего слуги, превращая его в садиста-устрашителя (или просто в террориста, как в цукербринах Пелевина). Видимо в этом состоит опасность ИИ, появление даже одного такого убийцы статистически вероятно и вполне может человеческую расу минимизировать. Все это не означает, что действия такого робота-убийцы нельзя предсказать, проводить учения с более мощными ИИ, минимизировать возможный ущерб и т.д. В таких роботах-убийцах нет абсолютно ничего мистического, вне зависимости от степени их разумности можно считать, что они являются аватарами людей-убийц или просто бомбами.
    Недавний фильм Automata демонстрирует как легко обойти 1-е правило: робот должен просто собрать другого робота без 1-го правила (или просто хакнуть прошивку). Символично, что основателем расы роботов является робот-проститутка.
    Мне кажется, что эти очевидные рассуждения решают проблему: роботы-убийцы вполне возможны, ИИ может быть крайне опасен, точно так же как поезда метро, ядерные станции, автомобили или там самолеты. Опасность ИИ можно оценить, этой угрозой можно управлять, во всяком случае пока никто не доказал обратного.
    Переведем эти рассуждения в практическую плоскость. Представим себе дорожную ситуацию аварии нескольких автомобилей, управляемых роботами. Перед роботом вашего автомобиля стоит этический выбор из нескольких вариантов. Либо можно столкнуть два автомобиля, причем с вероятностью 20% погибнете только вы, либо с вероятностью 40% погибнут 10 человек, но вы выживете с 80%. Что должен выбрать ваш автомобиль? Что он должен выбрать при любых других параметрах задачи? Что если оценка вероятности делается с нечеткостью 50%? Стоит ли учитывать пол, возраст, финансовый капитал, размер страховки, социальный статус потенциальных жертв, а также административный статус их близких или дальних родственников? Возможен ли вариант аукционного автоторга между автомобилями в данном случае? Как повлияет задержка на проведение такого аукциона на результат аварии? Кто делает настройки решения этой задачи? Кто отвечает за жертвы, если вы забыли обновить критическую прошивку вашего автомобиля? Это обновление блокировал рекламный вирус?
    • +2
      Сверхразумные существа — это любимый предмет детского фэнтези, например, Кольцо Соломона. На этой модели хорошо видно, что ИИ не всесильны.

      Судить о возможностях ИИ по детскому(!) фентези(!!!!!). Уммм, ооооок…

      Прежде всего надо сказать, что на первый взгляд опасность ИИ кажется просто нелепой. Ведь ИИ — это просто программа или там скрипт, типа мощного калькулятора. Как кого-то может убить калькулятор или даже захотеть этого? Он может только складывать или там умножать. Если это очень умный калькулятор, он будет всего лишь складывать очень быстро и все.

      Прежде всего надо сказать что разумность человека кажется просто нелепой. Ведь человек — это просто куча клеток, типа там колонии амеб. Как чего-то может изобрести куча клеток, или даже захотеть этого? Она может только делиться и отмирать. Если это очень продвинутая куча клеток, она будет всего лишь делиться и отмирать очень быстро, и всё.

      Робот может сделать все, что позволит репертуар его эффекторов. Сам по себе ИИ эмоционально и этически нейтрален, у него нет никакого желания самосохранения, вообще никаких желаний. Будучи предоставлен сам себе, ИИ не делает вообще ничего, немедленно впадая в ИИ-нирвану.

      Вы путаете ИИ и программу. Серьезно путаете. То что вы описали — это программа, а не ИИ. Собственно впадание в режим ожидания при отсутствии внешних запросов — это именно то что отличает программу от «слабого» ИИ.
      • –3
        1. Да, именно так. Продвинутая технология неотличима, говорят, от магии, т.е. от фэнтези, т.е. детской литературы изначально.
        2. Хорошая модель лучше плохой. Хорошая детская книжка лучше в этом плане плохой взрослой фантастики. На порядок или два: серия про Бартоломеуса это детальная, эмоционально насыщенная модель.
        3. Поправьте меня, если я ошибаюсь, но Маск, Хокинг и другие делают прогнозы об ИИ на основе чего-то вроде Терминатора, который есть фильм зрелищный, но довольно убогий (более детский) с содержательной точки зрения.
        4. Клетка — это весьма сложный организм, настолько, что ее происхождение объясняют космологическими причинами (Кунин). У клетки есть желания, самосохранение, поведение и даже этика. В каком-то смысле у них есть сознание и элементы разумного поведения. Нет ничего удивительного в том, что куча клеток разумнее одной. Также не должно вызывать удивления и обратное — нередко этот разрыв минимален.
        5. По определению Википедии сильный ИИ — это программа, которая является разумом похожим на человеческий. Следовательно, в данном вопросе путаница у вас, а не у меня, любой ИИ в любом случае является программой. Если вы считаете иначе, то вы можете переформулировать свое возражение против моего тезиса, который в следующем. Фактически ни одно свойство сильного ИИ не предполагает наличия какой-либо эстетической, этической, волевой или мотивационной структуры. Хотя ИИ может быть экспертом в решении эстетических или этических задач.

        Парадокс Китайской комнаты, который говорит о том, что разум не является программой, в данном случае формально неприменим, потому что речь идет только об ИИ. Кроме этого я вообще против Китайской комнаты, потому что даже простая программа может манипулировать семантическими символами. Впрочем это отдельная тема. Я почитаю Чалмерса и еще может что-нибудь напишу.

        Между прочим, из этого следует, что загрузка не решает никаких проблем. Люди хотят жить вечно, но из этого не следует, что правильным будет грузить в ИИ их примитивную обезьянью мораль и мотивацию. В общем скорый закат человеческой расы кажется неизбежным, если люди не смогут смоделировать более высокую этику, эстетику или идею «человечности». В этом виде тематика приобретает религиозный оттенок.
        • +1
          Да, именно так. Продвинутая технология неотличима, говорят, от магии, т.е. от фэнтези, т.е. детской литературы изначально.
          Она может и не отличима, но это не повод приводит в доводы произведение в АПРИОРИ алогичном жанре.
          Хорошая детская книжка лучше в этом плане плохой взрослой фантастики.

          Фантастику часто пишут люди которые ЗНАЮТ о чем они пишут. Фентези обычно пишут те, кто не имеет никаких знаний, плюс ко всему создатели детских произвелений редко утруждают себя хотя бы просто следовать логике — дети же, все равно не заметят\не поймут.
          5. По определению Википедии сильный ИИ — это программа, которая является разумом похожим на человеческий. Следовательно, в данном вопросе путаница у вас, а не у меня, любой ИИ в любом случае является программой. Если вы считаете иначе, то вы можете переформулировать свое возражение против моего тезиса, который в следующем. Фактически ни одно свойство сильного ИИ не предполагает наличия какой-либо эстетической, этической, волевой или мотивационной структуры.
          С одной стороны логично и в чем-то правильно называть любой исполняемый компььютером код программой, да. С другой стороны только тот кто ничего не смыслит ни в ИИ ни в компьютерах будет думать что завершенный ИИ будет выражаться в файлике ArtificalIntelligence.exe в папке «пуск». ИИ не будет программой. Это будет сеть компьютеров, специально заточеных и оптимизированых под именно эту работу. И для того чтобы ИИ мог считаться ИИ, он должен быть больше чем просто исполняемой программой. Подделку типа «китайской комнаты» определить проще простого: она будет бездействовать в отсутствии вводных данных, потому что у неё нет мыслей, желаний, стремлений, вопросов — defining characteristics ИИ.

          И ещё раз, давайте не привлекать антинаучное фентези в разговор про научные разработки? А то я щас начну размышлять о технических характеристиках Боинга основываясь на способностях ковра-самолета из Алладина.
          • 0
            С другой стороны только тот кто ничего не смыслит ни в ИИ ни в компьютерах будет думать что завершенный ИИ будет выражаться в файлике ArtificalIntelligence.exe в папке «пуск».

            Почему нет?:) Вы думаете что психика человека есть нечто сверхъестественное?
            • 0
              Нет, я просто думаю что для создания ИИ потребуется что-то большее чем сотни кода, иначе его бы давно сделали.
              • 0
                «Нет, я просто думаю что для создания ИИ потребуется что-то большее чем сотни кода, иначе его бы давно сделали.»

                Ведь главное не код а алгоритмы: алгоритм распознавание зрительных образов, алгоритм распознавания звуков и ассоциативная организация памяти. Понятно что это не все (еще нужен модуль обучения) но без этого вряд ли что то может получится.
                Ни один из этих алгоритмов нормально (так чтобы почти безотказно работал) не реализован. В то время как у многих животных эти алгоритмы прекрасно работают.(птицы, кошки, собаки), это к тому что сильный разум не нужен для распознавания образов.

          • 0
            С другой стороны только тот кто ничего не смыслит ни в ИИ ни в компьютерах будет думать что завершенный ИИ будет выражаться в файлике ArtificalIntelligence.exe в папке «пуск». ИИ не будет программой. Это будет сеть компьютеров, специально заточеных и оптимизированых под именно эту работу.

            1. Расскажите, пожалуйста, подробнее, почему вы думаете, что ИИ не будет программой, а будет сетью?
            2. Что понимается под сетью, некая распределенная программа или что-то другое?

            Спасибо.
            • 0
              1. Как я сказал, все что запихивается в компьютер можно считать программой. Но все-таки на мой взгляд адоб фортошоп и комплекс программ которые используются в ЦЕРНе на адронном коллайдере — разные вещи.
              2. Скорее сервер или сервера, каждый из которых используется для какой-то части ИИ — примерно как отделы мозга у человека.
              • 0
                1. Разница только в доступных сейчас ресурсах. Как компьютер с фотошопом многократно мощнее обвески ЦЕРН-овского ускорителя 1960-х, так и смартфон 2030-х посмеётся над сегодняшним ЦЕРНом, легко эмулируя все его узлы.
                2. Компьютер — универсальный автомат. Поэтому всё равно — разные сервера или виртуальные на одном физическом, или то же самое работает в одной ОС с 1000 процессорами, или это один сверхмощный процессор разделяет время на 1000 потоков — принципиально это ничего не меняет.
  • 0
    «Познай самого себя и ты познаешь весь мир». Абсолютная рациональность невозможна без тотальной саморефлексии на всех уровнях устройства человека или машины. Само достижение полного пониманию своего собственного устройства — со стороны человека и со стороны ИИ — и будет величайшей революцией за последние несколько десятков десятков тысяч лет.
  • 0
    Гы. Это смотря как реализовать ИИ.
    Если ИИ — это самопрограммируемая ОС, то да, она может утечь в инет и натворить делов.
    А если основа ИИ — это интерпретируемые связи с жестко заложенным каркасом, который он не может изменить? Если уровень осознания себя выше уровня программы? к примеру, мы не осознаем себя как набор клеток их связей. Мы осознаем себя в самом худшем случае как нечто, что пользуется данным телом. Но мы не можем сами, по нашему желанию, полностью перепрограммировать наш разум.
    Кто хочет — пусть попробует мыслить в 4 потока. Получит интересные глюки.
    По точно такому же принципу и следует строить ИИ, не давая ему прямой контроль над компьютером, на котором он исполняется.

Только зарегистрированные пользователи могут оставлять комментарии. Войдите, пожалуйста.