Руководитель контент-студии ТМ
0,0
рейтинг
26 ноября 2012 в 14:26

В Кембридже планируют открыть курсы по противодействию опасностям, исходящим от искусственного интеллекта



Ученые собираются изучать степень угрозы, которую роботы могут представлять для человечества, а также искать возможные пути противодействия им.

Выделено 4 главных цели мониторинга и исследований (которые принято считать потенциальными угрозами)

— искусственный интеллект;
— изменение климата;
— ядерное оружие;
— биотехнологии.

Основателями Центра по Изучению Глобальных Рисков (CSER, Centre for the Study of Existential Risk) станут лорд Рис и ряд выдающихся мировых космологов.

Рис, кстати, выпустил в 2003 году книгу «Наш последний век», где предупреждал, что деструктивная направленность человеческой деятельности прикончит все человечество году к 2100-му.

Еще Ирвинг Джон Гуд (соратник Тьюринга), криптограф и один из первых ученых-компьютерщиков, считал, что машины с колоссальным интеллектом будут построены в самом ближайшем будущем.

А еще он считал, что постройка такой машины станет последним изобретением человечества.

Хью Прайс, профессор философии, один из основателей проекта:

Нам нужно очень серьезно отнестись к последствиям создания искусственного интеллекта. Это вполне может оказаться Ящиком Пандоры. Риск велик, ведь на карту поставлено слишком многое, нынешний мир очень сильно зависит от технологий.

В общем, основная философия здесь в том, что мы обязаны с максимальной серьезностью подходить к вещам, которые несут потенциальную угрозу нашему существованию. В данном случае, я говорю о технологиях.

Кембридж, один из старейших универститетов, недавно отпраздновал 800-летие. Наша цель заключается еще и в том, чтобы человечество смогло увидеть и тысячелетний юбилей.


via
Алексей @Sterhel
карма
90,5
рейтинг 0,0
Руководитель контент-студии ТМ
Реклама помогает поддерживать и развивать наши сервисы

Подробнее
Реклама

Самое читаемое

Комментарии (25)

  • +13
    ГМО!!! ГЕНОЦИД!!! ТРАВЯТ РУСЬ ВЕЛИКУЮ!!! РАДИАЦИЯ!!! МУТАНТЫ!!!
  • +2
    "… Existential Risk" я бы перевел как "… угроз существованию человечества".
    А так — подозрительно напоминает детали сюжета Fringe.
    • –1
      Весь Fringe посмотрел, не припомню там ничего про искусственный интеллект.
  • +2
    Прежде чем оценивать степень угрозы, подлинный ИИ нужно хотя бы примерно спроектировать, а до этого как до горизонта; если задача вообще выполнима. Так что целесообразность затеи, на мой взгляд — под большим вопросом.
    • +7
      Если б ИИ уже был создан, он сам бы открыл такие курсы только ради лулзов.

      А если серьезно, мы не можем утверждать, что ИИ создан или не создан на данный момент.
      • +1
        Как вы себе представляете ИИ? Думающий ящик, подключенный к интернету?
        • 0
          Такой уже есть. Он занимается тем, что продаёт себя на eBay за бешеные деньги.
    • 0
      У домохозяек есть право поистерить. А то Гмо уже заездили, пора переключаться, 21 век все-же.
  • +3
    На самом деле, тема исключительно философская.
    Например, большинство оценок возможного поведения ИИ — крайне антропоцентричны. Скажем, никто не может достоверно предположить, будет ли ИИ обладать таким же почти ни чем не ограниченным стремлением к размножению (экспансии), как человечество. Люди ведь боятся, фактически, того, что они сами за свою историю делали много раз. А стоит просто припомнить, что у ИИ не будет атавистических инстинктов и такой «чудесной» штуки, как влияние эндокринной системы на сознание, как возникает вопрос, не станет ли ИИ вместо одержимого захватом ресурсов маньяка, например суицидально-депрессивным психопатом, одержимым невозможностью собственной вечной жизни (т.к. время жизни вселенной, возможно, ограничено) и бесконечного самосовершенствования.
    • 0
      Я подозреваю, это от начальных настроек больше зависит, чем от конфигурации самой сети.
    • 0
      Было бы логично предположить, что люди создадут ИИ по образу и подобию себя, в том числе его цели будут сходными с целями людей. И антропоцентричные оценки имеют право на существование.
  • +1
    В Кембридже планируют открыть курсы

    Хотел уже записываться, глянул линк — а там облом.
    A centre for 'terminator studies', where leading academics will study the threat that robots pose to humanity, is set to open at Cambridge University.

    Это не курсы, а центр.
    Буду с нетерпением ждать, когда появятся курсы. Интересно, каким методам противодействия там будут учить? Стрельба по-македонски?
  • НЛО прилетело и опубликовало эту надпись здесь
    • 0
      /me уже пометил в блокнотике, кого выпиливать в 1984-ом году.
  • +2
    В России создадут систему управления боевыми роботами
    Lenta.ru
    В Кембридже планируют открыть курсы по противодействию опасностям, исходящим от искусственного интеллекта.

    По-моему, кто то слишком впечатлительный :)
    • +1
      >>В России создадут систему управления боевыми роботами
      Избушки на курьих ножках допилят до дредноутов.
    • +1
      А когда самих боевых роботов сделают?
      • 0
        Да это уже не так важно, главное получить денег и делать вид что усиленно работаешь. А когда система уже будет готова(якобы) ее и проверить то не на чем будет, а значит и придраться не к чему :)
  • 0
    А я вижу только одну угрозу — это человеческая лень, ведь чем больше новые технологии делают за нас работу, тем больше мы начинаем привыкать и лениться.
  • 0
    О, а вот и "регистр Тьюринга" :)
  • 0
    на досуге ИИ соберет у всех представителелей «живых форм» ДНК, смоделирует всевозможные фенотипы, побалуется триллионами вариантов развития человечества и планеты, порадуется наиболее интересным и забьет на проблемах человечества и солнечной системы (наблюдая в фоне насколько точно ему удалось смоделировать наше поведение)
    • +1
      Да ладно, мы и так уже модель какого-то ИИ. Доказать обратное-то нереально.
      • 0
        ну значит в рамках уже существующей модели ИИ создаст новый ИИ и рекурсивно начнет моделировать, если стоит ограничение на рекурсию, то возможно мы узнаем об этом тем, что не сможем сделать ИИ)
        • 0
          такая вот виртуализация…
    • 0
      Мне очень понравилась завязка в Mass Effect. Древнейшая раса создала ИИ, чтобы он ответил на вопрос: «Что произойдет, если мы сотворим разумных машин?» ИИ нашел самый эффективный способ узнать ответ. Он создал этих машин и они уничтожили эту самую расу.

      А вообще ведь это от нас самих зависит. Мы можем сотворить машины, которые будут обладать разумом и сознанием, и в принципе не особо превосходящих нас. И тогда мы скорее всего будем существовать как две расы. Или не будем. Как повезет. Или же может быть будут создаваться бездушные машины, выполняющие свои функции, разум которых будет состоять из такого количества приложений, что человек уже и не сможет полностью разобраться в этой системе. Или может вообще сами все соединимся сперва социальными сетями, через Google Glass, а потом начнем и мозг имплантами совершенствовать, чтоб и интеллект повышать, и интернет сразу туда, минуя ненужные устройства. И сольемся в итоге в единый коллективный машинно-человеческий разум. А может по космосу расселимся сперва и тогда в разных уголках Галактики будут иногда случаться все подобные сценарии. Да и даже такие, что мы и вообразить себе сейчас не можем…

Только зарегистрированные пользователи могут оставлять комментарии. Войдите, пожалуйста.