Илон Маск, Билл Гейтс и Стивен Хокинг зачислены в «Луддиты года»

    Комиссия экспертов, называющая себя Information Technology and Innovation Foundation, опубликовала список номинаций на премию «Луддит года», который включает в себя 10 пунктов. По мнению авторов премии существует достаточно большое число людей, считающее, что развитие технологий будущего, таких как RFID-метки или генетически модифицированные организмы, представляет опасность для человечества. Первым пунктом в списке «страхов» значится искусственный интеллект(ИИ) и, по мнению авторов премии, о его опасности необоснованно заявляют Илон Маск, Билл Гейтс и Стивен Хокинг. На премию «луддитов» обратила внимание The Guardian.

    Действительно, некоторые люди, в том числе и Илон Маск, считают, что развитие ИИ в конце концов может привести к тому, что «разум машины» приобретёт некоторые опасные для человечества черты, в результате чего люди окажутся порабощены или уничтожены. Эту тему усердно эксплуатирует Голливуд в таких известных фильмах как «Матрица» или «Терминатор», и благодаря этому «страх перед ИИ» укрепился в представлении общества. Илон Маск в прошлом году высказал опасение, что искусственный интеллект может быть опаснее ядерного оружия:



    Авторы премии на считают, что такое мнение относительно будущего человечества — это просто превратное понимание искусственного интеллекта на данном этапе его развития. Вопрос о том, возможна ли такая ситуация, при которой ИИ сможет стать по-настоящему автономным и обрести «разум» — это вопрос спорный и, как минимум, вопрос не ближайшего будущего. Так что усилия учёных, работающих над Siri или термостатами Nest, едва ли приведут к тому, что однажды они захотят уничтожить своих создателей.

    Полный список «луддизмов» года выглядит следующим образом. К нему прилагается документ (pdf), в котором авторы рассуждают о необоснованности таких представлений.

    • Боязнь искусственного интеллекта.
    • Запрет на автономное оборонительное оружие, так называемых «роботов-убийц».
    • Ограничения на использование автоматических сканеров автомобильных номеров.
    • Ограничения на использование Uber-подобных сервисов.
    • Отказ от использования электронной маркировки товаров вместо бумажной.
    • Запрет использования RFID-меток в водительских правах в Калифорнии.
    • Коллизии между частной собственностью и интересами общества. Имеется ввиду случай в Вайоминге (США), когда владельцы частных угодий через суд запретили членам некоммерческой организации проводить биологические исследования на их территории.
    • Отмена принципа сетевого нейтралитета
    • Борьба против генетически модифицированных продуктов
    • Ограничение на использование средств автоматической фиксации нарушений правил дорожного движения


    Как известно, луддизм — это общественное движение, возникшее в ходе промышленной революции в Великобритании, участники которого видели основную опасность для себя в том, что новые машины на производстве могут заменить их на рабочих местах и поэтому оборудование необходимо уничтожать.
    Поделиться публикацией
    Реклама помогает поддерживать и развивать наши сервисы

    Подробнее
    Реклама
    Комментарии 13
    • +4
      > усилия учёных, работающих над Siri или термостатами Nest, едва ли приведут к тому, что однажды они захотят уничтожить своих создателей.

      ИИ в Сири оперирует «что он имел в виду?» и уже исходя из этого выдает что-то из «той» области.

      Термостаты Nest… IoT… Если его холодильник попросит для оптимизации понизить температуру в помещении? Холодильник думает о комфортной температуре для людей? Вы все кейсы проверили при написании логики? А индусы?

      А вот ИИ у военых оперирует уже понятиями наибольший урон, обездвижить, форсировать, «поднасрать» тем воякам (людишкам)… он играет в шахматы… и если ему приделать не только мозги, но и «руки»… Где грань наших людишек и не наших?.. А вы все кейсы проверили? А у военных такие же программисты, как и вы! И военным мало симуляций на экране, они захотят вживую увидеть, и у них есть деньги, и они наверняка что-нибудь запустят, и будут запускать, хотим мы этого или нет.
      • 0
        У военных обычно дисциплина в отношении техники безопасности выше, чем у учёных. А к крупным звёздочкам — она уже на подкорке записывается. Просто так они ничего не запустят.
        • +1
          > У военных обычно дисциплина в отношении техники безопасности выше, чем у учёных.

          Чувствую я по этим словам, в армии вы не служили ;)
          • +1
            Как раз наоборот. Служил. И тех, кто принимает решения своими глазами видел. И сам за соблюдение техники безопасности боролся.
      • +8
        Илон Маск в прошлом году высказал опасение, что искусственный интеллект сможет нанести ядерный удар:

        Он написал о том, что ИИ потенциально может быть опаснее, чем ядерное оружие («Potentially more dangerous than nukes»).
        • 0
          Зашёл, чтобы оставить именно этот комментарий. Совершенно не понимаю, зачем настолько перевирать оригинал, превращая его в ярчайшую желтизну.
        • 0
          Хмм. ИИ в лидерах среди фобий уже? Впрочем пожалуй что оправданно — т.к. наименее предсказуемо, а неопределенность очень многих пугает…

          Ну значим вайпаем «плохих ИИ» (Терминатор, Матрица и т.д. избитые фантастические клише) — «хорошими».
          Замечательный пример (книга): Дружба это оптимум

          Варнинг (дисклеймер): Там в книге много о вселенной мультяшных пони, я вас предупредил если что :).
          Впрочем не стоить сразу плеваться(если у кого они уже в печенках сидят), пони там больше как внешний антураж (сеттинг), а основная часть книги о
          Сюжетный спойлер
          О искусственном интеллекте, виртуальной реальности, технологической и информационной сингулярности, а к концу книги уже ближе к философии о смысле и сути человеческой жизни
          • +2
            Печально, что борьба против ГМО аж на 9ом месте.
            • 0
              Это же просто список, а не ТОП10, порядок здесь не несёт никакой смысловой нагрузки. В работе даже специально уточнён этот момент.
            • 0
              Авторы премии — это роботы засланные из будущего. :)
              А если серьезно, то вот очень хорошая статья на эту тему:
              waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html
              • +1
                Илон Макс это тот который объявил что ищет хардкорных программистов для программирования автопилота?
                Мне кажется они боятся одного — что они будут не первыми.
                • 0
                  Не понимаю, какой смысл бояться ИИ, если он все равно будет, ну запретят — появится на 5 лет позже, не так важно.
                  • +1
                    Страх — естественная реакция на неизвестность, воспитанная тысячами поколений эволюции.
                    С одной стороны, не все что неизвестное — плохо. С другой стороны, у любого явления есть как положительные, так и отрицательные стороны, при чем разные люди один и тот же аспект какого-то предмета могут видеть совершенно по-разному, поскольку точки зрения (на этот предмет) у них различаются.
                    В случае всякого рода инноваций, главное — быть аккуратным и не делать поспешных выводов. Атомное оружие ведь тоже изобрели, и оно «может уничтожить человечество» (точно так же, как до этого — огнестрельное), но на данный момент оно служит сдерживающим фактором.
                    ГМО не отличаются от продуктов селекции — изменение генотипа, которое влечет изменение фенотипа. Главное — проводить качественное тестирование.

                    К чему я тут растекся мыслею по древу? К тому, что прогресс неизбежен, а наша задача — сделать его максимально комфортным и безопасным для людей.

                    Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.

                    Интересные публикации