26 ноября 2012 в 14:26

В Кембридже планируют открыть курсы по противодействию опасностям, исходящим от искусственного интеллекта



Ученые собираются изучать степень угрозы, которую роботы могут представлять для человечества, а также искать возможные пути противодействия им.

Выделено 4 главных цели мониторинга и исследований (которые принято считать потенциальными угрозами)

— искусственный интеллект;
— изменение климата;
— ядерное оружие;
— биотехнологии.

Основателями Центра по Изучению Глобальных Рисков (CSER, Centre for the Study of Existential Risk) станут лорд Рис и ряд выдающихся мировых космологов.

Рис, кстати, выпустил в 2003 году книгу «Наш последний век», где предупреждал, что деструктивная направленность человеческой деятельности прикончит все человечество году к 2100-му.

Еще Ирвинг Джон Гуд (соратник Тьюринга), криптограф и один из первых ученых-компьютерщиков, считал, что машины с колоссальным интеллектом будут построены в самом ближайшем будущем.

А еще он считал, что постройка такой машины станет последним изобретением человечества.

Хью Прайс, профессор философии, один из основателей проекта:

Нам нужно очень серьезно отнестись к последствиям создания искусственного интеллекта. Это вполне может оказаться Ящиком Пандоры. Риск велик, ведь на карту поставлено слишком многое, нынешний мир очень сильно зависит от технологий.

В общем, основная философия здесь в том, что мы обязаны с максимальной серьезностью подходить к вещам, которые несут потенциальную угрозу нашему существованию. В данном случае, я говорю о технологиях.

Кембридж, один из старейших универститетов, недавно отпраздновал 800-летие. Наша цель заключается еще и в том, чтобы человечество смогло увидеть и тысячелетний юбилей.


via
Алексей @Sterhel
карма
5,0
рейтинг 0,0
)
Похожие публикации
Самое читаемое

Комментарии (25)

  • +13
    ГМО!!! ГЕНОЦИД!!! ТРАВЯТ РУСЬ ВЕЛИКУЮ!!! РАДИАЦИЯ!!! МУТАНТЫ!!!
  • +2
    "… Existential Risk" я бы перевел как "… угроз существованию человечества".
    А так — подозрительно напоминает детали сюжета Fringe.
    • –1
      Весь Fringe посмотрел, не припомню там ничего про искусственный интеллект.
  • +2
    Прежде чем оценивать степень угрозы, подлинный ИИ нужно хотя бы примерно спроектировать, а до этого как до горизонта; если задача вообще выполнима. Так что целесообразность затеи, на мой взгляд — под большим вопросом.
    • +7
      Если б ИИ уже был создан, он сам бы открыл такие курсы только ради лулзов.

      А если серьезно, мы не можем утверждать, что ИИ создан или не создан на данный момент.
      • +1
        Как вы себе представляете ИИ? Думающий ящик, подключенный к интернету?
        • 0
          Такой уже есть. Он занимается тем, что продаёт себя на eBay за бешеные деньги.
    • 0
      У домохозяек есть право поистерить. А то Гмо уже заездили, пора переключаться, 21 век все-же.
  • +3
    На самом деле, тема исключительно философская.
    Например, большинство оценок возможного поведения ИИ — крайне антропоцентричны. Скажем, никто не может достоверно предположить, будет ли ИИ обладать таким же почти ни чем не ограниченным стремлением к размножению (экспансии), как человечество. Люди ведь боятся, фактически, того, что они сами за свою историю делали много раз. А стоит просто припомнить, что у ИИ не будет атавистических инстинктов и такой «чудесной» штуки, как влияние эндокринной системы на сознание, как возникает вопрос, не станет ли ИИ вместо одержимого захватом ресурсов маньяка, например суицидально-депрессивным психопатом, одержимым невозможностью собственной вечной жизни (т.к. время жизни вселенной, возможно, ограничено) и бесконечного самосовершенствования.
    • 0
      Я подозреваю, это от начальных настроек больше зависит, чем от конфигурации самой сети.
    • 0
      Было бы логично предположить, что люди создадут ИИ по образу и подобию себя, в том числе его цели будут сходными с целями людей. И антропоцентричные оценки имеют право на существование.
  • +1
    В Кембридже планируют открыть курсы

    Хотел уже записываться, глянул линк — а там облом.
    A centre for 'terminator studies', where leading academics will study the threat that robots pose to humanity, is set to open at Cambridge University.

    Это не курсы, а центр.
    Буду с нетерпением ждать, когда появятся курсы. Интересно, каким методам противодействия там будут учить? Стрельба по-македонски?
  • НЛО прилетело и опубликовало эту надпись здесь
    • 0
      /me уже пометил в блокнотике, кого выпиливать в 1984-ом году.
  • +2
    В России создадут систему управления боевыми роботами
    Lenta.ru
    В Кембридже планируют открыть курсы по противодействию опасностям, исходящим от искусственного интеллекта.

    По-моему, кто то слишком впечатлительный :)
    • +1
      >>В России создадут систему управления боевыми роботами
      Избушки на курьих ножках допилят до дредноутов.
    • +1
      А когда самих боевых роботов сделают?
      • 0
        Да это уже не так важно, главное получить денег и делать вид что усиленно работаешь. А когда система уже будет готова(якобы) ее и проверить то не на чем будет, а значит и придраться не к чему :)
  • 0
    А я вижу только одну угрозу — это человеческая лень, ведь чем больше новые технологии делают за нас работу, тем больше мы начинаем привыкать и лениться.
  • 0
    О, а вот и "регистр Тьюринга" :)
  • 0
    на досуге ИИ соберет у всех представителелей «живых форм» ДНК, смоделирует всевозможные фенотипы, побалуется триллионами вариантов развития человечества и планеты, порадуется наиболее интересным и забьет на проблемах человечества и солнечной системы (наблюдая в фоне насколько точно ему удалось смоделировать наше поведение)
    • +1
      Да ладно, мы и так уже модель какого-то ИИ. Доказать обратное-то нереально.
      • 0
        ну значит в рамках уже существующей модели ИИ создаст новый ИИ и рекурсивно начнет моделировать, если стоит ограничение на рекурсию, то возможно мы узнаем об этом тем, что не сможем сделать ИИ)
        • 0
          такая вот виртуализация…
    • НЛО прилетело и опубликовало эту надпись здесь

Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.