0,0
рейтинг
21 августа 2010 в 07:35

Правило Хебба: «универсальный нейрофизиологический постулат» и великое заблуждение математиков

Введение


В этот раз я хочу рассказать вам об одной из самых важных вех в развитии как нейрофизиологии, так и непосредственно кибернетики. Сейчас я говорю с одной стороны про формулировку первого работающего правила обучения искусственных нейронных сетей, а с другой стороны про попытку приблизиться к тайнам обучения живых существ.

Сегодня мы пройдем путь от изначального вида постулата Хебба к его непосредственному применению, а также попробуем обсудить возможность его применения для моделирования обучения в системах искусственного интеллекта.

К написанию данной статьи меня побудили комментарии к моим предыдущим топикам, в которых мне было необходимо выражать свое отношение к обучению за счет изменения силы синаптической связи. Поэтому я решил один раз разобрать все подробно, в том числе для самого себя.
image


История и изначальная формулировка


Канадский нейропсихолог Дональд Хебб шел к окончательной формулировке своего «нейрофизиологического постулата» достаточно долго, публикуя различные его версии в ранних статьях. Однако, окончательный вид он приобрел в 1949 в самом значимом труде Хебба – «The Organization of Behavior: A NEUROPSYCHOLOGICAL THEORY» [1].

В данной книге постулат Хебба звучит следующим образом: «When an axon of cell A is near enough to excite a cell B and repeatedly or persistently takes part in firing it, some growth process or metabolic change takes place in one or both cells such that A's efficiency, as one of the cells firing B, is increased». (стр. 62 в издании 2002 года). Данное утверждение необходимо переводить аккуратно, так как во многом его небрежное трактование привело к немыслимому количеству различных видов правила. Более того, нигде в русскоязычной литературе я не нашел перевода именно этой формулировки, являющейся исходной. Если мы переведем данную выше цитату, то получится следующий постулат: «Если аксон клетки А находится достаточно близко, чтобы возбуждать клетку B, и неоднократно или постоянно принимает участие в ее возбуждении, то наблюдается некоторый процесс роста или метаболических изменений в одной или обеих клетках, ведущий к увеличению эффективности А, как одной из клеток возбуждающих В».

Разберем данное утверждение и выделим основные следствия, которые могут быть выведены из представленной формулировки:
  • Причинно-следственная связь. Основной смысл постулата Хебба заключается в том, что если изначально наблюдается причинно-следственная связь между активациями пре- и постсинаптического нейрона, то эта связь имеет тенденцию к усилению (про обратный закон Хебб в данной формулировке ничего не говорит).
  • Местоположение изменений. Хебб указывает, что это усиление связанности происходит либо за счет изменения в проводимости синапса (процесс роста), либо за счет изменения метаболических особенностей самих клеток.
  • Совокупное возбуждение. Хебб не случайно два раза (в начале и в конце формулировки) обращает наше внимание на то, что рассматриваемый пресинаптический нейрон является лишь одним из нейронов, которые принимают участие в возбуждении постсинаптического нейрона. Это утверждение, которое вполне понятно нейрофизиологам, для математиков является достаточно трудным. Такой формулировкой он указывает, что возбуждение постсинаптического нейрона не может быть осуществлено только за счет одного пресинаптического (спайк – это деполяризация мембраны нейрона, а разряд одного пресинатического нейрона никогда не может привести к деполяризации постсинаптического нейрона). В моделях искусственных нейронных сетей этот факт практически всегда нарушается, и к чему приводит такое несоответствие мы рассмотрим ниже.

Безусловно из постулата Хебба, можно вывести достаточно много следствий, однако названные выше выбраны не случайно, так как на их основе будет строится дальнейший анализ.

Различные трактовки и применения в ИНС


На просторах интернета и в различных (даже достаточно уважаемых и популярных) учебниках/книгах по теории нейронных сетей можно встретить самые различные формулировки правила Хебба. Например, Википедия дает нам даже два правила Хебба (ссылаясь на тот же самый труд 1949 года):

  • Первое правило Хебба — Если сигнал перцептрона неверен и равен нулю, то необходимо увеличить веса тех входов, на которые была подана единица;
  • Второе правило Хебба — Если сигнал перцептрона неверен и равен единице, то необходимо уменьшить веса тех входов, на которые была подана единица.

В данной трактовке есть целых три интересных момента, при этом присутствие двух из них совершенно необъяснимо. Первый из них – это раздвоенность правила (в дальнейшем я укажу возможные причины такой традиции в математической литературе), которой не было изначально у Хебба. Второй – наличие в формулировке правила понятия перцептрон, введение которого связывают с пионерскими работами Розенблатта только в 60-е (более конкретно в работе [2]). Третья особенность, которая вероятнее всего вытекает из второй, это достаточно своеобразная формулировка правила, фактически меняющая его тип на обучение с учителем. Изначально правило Хебба гласило о возможности самообучения, однако в такой постановке нам необходимо знать некоторые «правильные» значения выходов.

Вопрос о том, откуда появилось такая формулировка на Википедии, сводится к проблеме курицы и яйца, так как сейчас ее можно найти во многих местах на пространстве интернета, и концов соответственно невозможно отследить.

В большинство учебников по нейронным сетям правило Хебба вошло в несколько ином, однако очень похожем виде. Традиционная его запись такова (например в известной книге [3]):
image

Изначально, такое правило применялось к пороговым нейронам МакКалока-Питса, выход которых может быть соответственно равен либо 0, либо 1. При применении в формальной модели порогового нейрона интерпретация правила Хебба наиболее близка к оригинальной формулировке.

Однако, так как обычные пороговые нейроны достаточно неудобны с точки зрения построения ИНС для обработки данных (хотя с биологической точки зрения они возможно наиболее реалистичны, но это совсем другая тема), то сразу появились различные модификации.

В начале самое логичное было сделать такой же пороговый нейрон, но с другими возможными выходами: -1 и 1. На протяжении достаточно долгого времени именно такая модель нейрона была наиболее популярна. Однако, посмотрим к каким последствиям приводит применение обозначенной чуть выше формулировки правила Хебба в условиях данной модели. Вполне понятно, что это приводит к опять-таки раздваиванию исходного правила. Это происходит из-за того, что если выходы пре- и постсинаптического нейрона различны, то второе слагаемое в формуле корректировки веса принимает отрицательное значение, а значит исходное значение синаптического коэффициента уменьшается (иногда этот эффект называют антихеббовским правилом). Как мы могли убедиться ранее, в исходном постулате Хебба подобного механизма нет.

Есть две известных мне причины, по которым подобное допущение математикам могло показаться допустимым. Во-первых, применение исходного правила Хебба влечет к безграничному увеличению синаптических коэффициентов и, соответственно, к дестабилизации всей сети в целом. Во-вторых, во многих более ранних работах [4] Хебб сам давал подобный механизм, при котором синаптическая проводимость между двумя нейронами уменьшается, если спайки двух нейронов не совпадают. Однако, при формулировке окончательного постулата Хебб сознательно исключил такой механизм.
В дальнейшем ситуация начала усугубляться, с ростом популярности моделей нейронов с сигмоидальной активационной характеристикой (рис. 1). Как мы уже видели ранее, в математической литературе описано применение правила Хебба в случае обучения с учителем. Для введения сигмоидальной АХ в условиях обучения с учителем правило Хебба было модифицировано и превратилось в дельта-правило, которое слишком далеко от какой-либо биологической адекватности (именно поэтому я не буду обсуждать его в данной статье).

image
Рис. 1. Пример сигмоидальной функции активации

Однако, в случае самообучения модификации правила Хебба никто не делал и его применение к пороговым нейронам с выходами {-1;1} приводит к достаточно серьезным последствиям. Действительно, так как сигмоидальная функция непрерывна, то в подавляющем большинстве случаев выход нейрона не равен нулю. Таким образом, во-первых, обучение с применением традиционного правила Хебба происходит практически всегда, а во-вторых, динамика обучения теперь пропорциональна непосредственно значениям выходов нейронов (так как они по модулю непрерывны от 0 до 1). Последнее является достаточно сильным допущением, которое с нейрофизиологической точки зрения, насколько мне известно, никто никогда не проверял. Не смотря на это, в технических задачах данная методика дает результат, поэтому все закрыли на это глаза. Однако если формулировать правило Хебба по изначальной формулировке для сигмоидального нейрона, то должно получиться следующее:
image

Безусловно, в дальнейшем с приходом спайковых нейронов и обобщенного STDP-правила ситуация немного исправилась, однако даже на данный момент модели спайковых нейронов использует очень малая часть специалистов. Поэтому о кардинальном изменении положения говорить не приходится.

Правило Хебба и обучение


Возможно многие из вас задумаются над парадоксом названия, ведь правило Хебба и есть обучение, однако название заголовка выбрано не случайно. В предыдущих разделах мы рассмотрели историю и истоки постулата Хебба и несколько различных заблуждений, к которым привела неправильная трактовка этого правила. Сейчас же мы посмотрим на сам исходный нейрофизиологический постулат с точки зрения возможности применения его в системах бионического ИИ (и соответственно насколько вероятно его ведущая роль в процессах обучения у животных/человека).

Далее я сформулирую три соображения, суть которых будет сводиться, как минимум, к моим большим сомнениям в возможности построить самообучающиеся системы на основе правила Хебба (или любых его модификаций, коих невероятно много). Все соображения будут строится на анализе гипотетических ситуаций, при этом третье из них наименее формализовано, а второе – наиболее значимо.

Соображение 1. Усиление причинной связи
Если разобрать правило Хебба с точки зрения математика, то его действие фактически сводится к одной операции: усилению причинной связи. Получается, что изначально эта причинная связь должна уже наблюдаться, т.е. во-первых, нейроны должны быть синаптически связаны, во-вторых, нейроны должны быть синхронизованы (то есть должна наблюдаться последовательность – спайк на пресинаптическом нейроне -> спайк на постсинаптическом нейроне).

Представим гипотетическую ситуацию, когда находясь в какой-то внешней среде агент/животное обучилось, используя правило Хебба, решать некоторую задачу, которая приводит к адаптивному результату. Это означает, что улучшилась синаптическая проводимость путей распространения возбуждения между причинными нейронами (сама формулировка бросает меня в дрожь, так как далее я покажу откуда растут ее ноги). Отбросим в сторону изначальное доказательство возможности обучения, используя исключительно правило Хебба, и так как фактически мы идем от противного, примем эту ситуацию за отправную точку.

Теперь допустим, что среда несколько изменилась (самая частая ситуация в реальной жизни) и наш агент/животное не может достичь адаптивного результата способом, выученным ранее. Это означает, что агенту необходимо несколько переобучиться или дообучиться. При этом синаптическая проводимость настроена таким образом, чтобы с легкостью осуществлять заученное поведение. Переобучение в такой ситуации достаточно затруднительно, так как не смотря на изменившуюся ситуацию, натренерованные нейроны будут активироваться по цепочке, и не смотря ни на что будет осуществляться предыдущее поведение, которое не приводит к достижению результата.

Соображение 2. Потеря приобретенных знаний
Допустим, что обучение за счет изменения синаптической проводимости все-таки может происходить. Но тогда такое обучение неизбежно влечет к потере информации (ранее полученных сведений о среде), которая распределена по всей сети. Это легко понять, если представить, что пространство весовых коэффициентов – есть поле, в котором хранятся все «знания» сети, и поэтому меняя это поле, мы не добавляем новые «знания», а перезаписываем все накопленные.

Так как это соображения является наиболее важным, то здесь необходимо привести более подробный пример. В качестве такового я рассмотрю поведение робота DARWIN [5], разработанного в лаборатории Джеральда Эдельмана, в так называемом лабиринте Морриса.

Исследования поведения мыши или крысы в лабиринте Морриса – один из канонических биологических экспериментов, который состоит в следующем. Имеется бассейн с непрозрачной жидкостью (например, это может быть вода, подкрашенная молоком), на бортах бассейна есть рисунки, которые мышь видит и может использовать для ориентировки. В определенном месте бассейна есть скрытая платформа, которую мышь может найти и тем самым спастись – не утонуть. Мышь бросают в бассейн, она плавает некоторое время и либо находит платформу и спасается, либо начинает тонуть (тогда ее спасает экспериментатор). После ряда экспериментов мышь начинает использовать ориентиры на бортах бассейна и находить платформу за достаточно короткое время. Схематическое изображение такого лабиринта приведено на рис. 2.

image
Рис. 2. Схематичное изображение лабиринта Морисса

Сам робот DARWIN устроен достаточно сложно – в нем моделируются несколько реальных областей мозга и их связи, в дополнение несколько оригинальных структур (всего управляющая нейронная сеть насчитывает 90000 нейронов). Сейчас нам важно знать, что обучение робота происходит за счет модифицированного специальным образом правила Хебба.

Робот помещается в лабиринт Морисса и учится находить платформу, ориентируясь по рисункам на бортах. При этом в результате DARWIN достаточно быстро и эффективно учится находить платформу. Для дальнейших рассуждений нам будет необходимо представить цепочку таких опытов.

Допустим, робот научился эффективно находить платформу. Назовем данный процесс обучения – эксперимент 1. Теперь переместим платформу куда-нибудь в другое место и опять поместим робота в лабиринт Морриса (это будет эксперимент 2). В какой-то момент роботу станет «понятно», что платформа переместилась и он начнет поиски заново. Припоминая, что в начале обсуждения данного соображения мы временно приняли за постулат, что переобучение за счет правила Хебба принципиально возможно, будем считать, что робот и в эксперименте 2 показал себя молодцом и снова научился эффективно находить платформу.

Самое интересное начинается тогда, когда мы попробуем провести эксперимент 3, еще раз переместив платформу куда-нибудь. В этом случае ситуация будет аналогична эксперименту 2 – робот снова поймет, что платформа переместилась, и найдет новое ее положение. Вроде бы все хорошо, однако самым важным в данном случае является процесс решения. В случае DARWIN процесс решения в эксперименте 2 и эксперименте 3 будет совершенно аналогичен. Робот даже не вспомнит о том, что им были получены какие-то знания в эксперименте 1, так как их фактически уже нет – они были перезаписаны в процессе эксперимента 2.

В случае же реального животного ситуация с процессом решения в рамках эксперимента 3 совершенно иная. В начале понятно, что животное начнет искать платформу в месте, которое она выучила в эксперименте 2. Однако, не найдя ее там, она первым делом проверит место, в котором была платформа в эксперимент 1. Эта важнейшая особенность является чрезвычайно адаптивной в очень многих ситуациях, с которыми сталкивается животное в процессе своей жизни. Кстати, подобная проверка применительно к системе DARWIN была придумана не мной, а моим научным руководителем.

Потеря приобретенных знаний – это неизбежное следствие любых модификаций правила Хебба.

Соображение 3. Рефлекторная природа правила Хебба
По своей сути правило Хебба является реактивностным постулатом. Его применение выливается в упрощение последовательной активации цепочки нейронов. Это очень схоже с понятием рефлекторной дуги и обучения, основанном на тренировке этой дуги и облегчении прохождении сигнала по ней. При этом к подобным умозаключениям приходил в свое время еще Кант в своих записях, которые непосредственно относились к возможностью человеческого разума обучаться.

С моей точки зрения, очень сомнительно, что применение правила Хебба (хочу уточнить, что в случае применения только правила Хебба) может приводить к целенаправленному обучению и в конечном итоге достижению адаптивного результата. Само понятие целенаправленного отсутствует в правиле, а также в любых его анализах, которые мне приходилось видеть.

С учетом того, что к нам приходит отчетливое понимание того факта, что мозг (и каждый нейрон) является активной, а не реактивной сущностью, неизбежен пересмотр роли постулата Хебба в обучении животных и человека.

Что делать?


В чем же заключается выход из этой ситуации спросите вы?

Мой ответ будет заключаться в необходимости разработки совершенно новых подходов к моделированию обучения. На данный момент правило Хебба и его многочисленные модификации по сути являются единственными биологически адекватными моделями обучения/самообучения. Безусловно, это не случайно, так как нейрофизиологический постулат, выдвинутый Хеббом, имеет под собой прочное биологическое основание.

При всей моей критике постулата Хебба, я вовсе не хотел сказать, что мы не наблюдаем его в мозге животных. Наблюдаем конечно и этому посвящено множество известнейших работ. Я хотел лишь обратить ваш критический взгляд на роль этого постулата в обучении.

Я придерживаюсь позиции, что изменение синаптической проводимости безусловно является одним из основных факторов обеспечивающих эффективное обучение. Однако, этим процессом и самим постулатом Хебба управляют гораздо более сложные факторы – системный уровень организации мозга. При этом сам постулат является лишь ограниченным следствием из всей совокупности механизмов системного уровня.

Заключение


В данном обзоре мы прошлись от истории постулата Хебба до оценки его возможностей и перспектив в реализации обучения. Я попытался обратить ваше внимание на некоторые проблемы, которые возникают в том случае, если мы ставим механизмы правила Хебба во главу угла при обучении.

Повторюсь, сейчас, как никогда, мы вплотную столкнулись с острой необходимостью формулировки совершенно иных, более комплексных, механизмов адаптивного (целенаправленного) обучения. Как работает этот, условно называемый системным, уровень на сегодняшний день мы не знаем – существуют только гипотезы. Каким образом, системный уровень обеспечивается за счет изменения синаптической проводимости и изменения в самих нейроных – еще более сложный вопрос, ответ на который мы возможно получим не скоро. Именно поэтому, на данный момент специалистам в области бионического ИИ остается вводить более абстрактные правила (при этом оперирующие все равно непосредственно с нейронами и синапсами), которые будут моделировать системные механизмы обучения, памяти, принятие решения.

Список литературы


[1]. Hebb, D. O. The organization of behavior: a neuropsychological theory. New York (2002) (Оригинальное издание — 1949)
[2]. Rosenblatt F. Principles of Neurodynamics: Perceptrons and the Theory of Brain Mechanisms. Washington, DC: Spartan Books (1962).
[3]. Осовский С. Нейронные сети для обработки информации (2002)
[4]. Hebb, D. O. Conditioned and unconditioned reflexes and inhibition. Unpublished MA Thesis, McGill University, Montreal, Quebec, (1932)
[5]. Krichmar J.L., Seth A.K., Nitz D.A., Fleischer J.G., Edelman G.M. «Spatial navigation and
causal analysis in a brain-based device modeling cortical-hippocampal interactions». Neuroinformatics, 2005. V. 3. No. 3. PP. 197-221.
Лахман Константин @klakhman
карма
71,5
рейтинг 0,0
Реклама помогает поддерживать и развивать наши сервисы

Подробнее
Реклама

Самое читаемое

Комментарии (57)

  • +6
    Мне кажется это тупиковый путь моделировать слепо физиологию, в надежде что что-нибудь да получится. Из-за постоянной неполноты знаний, и дичайшей сложности процессов скорее всего никогда и не получится создать что-то работающее. За статью спасибо, почитать было интересно.
    • +6
      Что значит «не получится создать что-то работающее»?
      Искуственные нейронные сети очень даже работают
      • 0
        Не в курсе данных наработок, но интеллект мухи уже достигли?
        • +2
          БПЛА есть, тока они не на нейросетях
        • +1
          А как вы определяете уровень «интеллекта мухи»? )
          Это ведь кстати — сам по себе сложный вопрос.
      • +1
        Работают то они работают — только ничего из того, чего нельзя было бы сделать с помощью других математических/статистических методов — они не делают.
        ztarlitz видимо имел виду что не получиться создать что то, действительно имитирующее человеческий интеллект.
        • 0
          Статистические методы не умеют обучаться.
          Мы просто применяем эти сети не по назначению.
          • 0
            Статистические методы умеют обучаться. Почитайте про байесовские фильтры, например.
        • 0
          Есть задачи, которые даже сейчас гораздо эффективнее решать с помощью нейронных сетей. При этом иногда для решения некоторой задачи в случае традиционных методов нужно разрабатывать соврешенно новый аппарат и систему.

          При этом, есть некоторые задачи, например, широкое поведение в реальной среде, которые на данный момент с моей точки зрения могут быть решены только нейронными сетями. Именно поэтому не надо стоять на месте, а необходимо продолжать исследования дальше. Я про это собственно и говорю.=)
    • 0
      Согласен.
      Не стоит возлагать на нейронные сети слишком много надежды, пока мы лишь копируем природные процессы, не задумываясь о причине и источнике их происхождения.
      Или мы думаем, что ветер дует из-за того, что деревья качаются ))
    • –1
      Ну кроме прикладных задач, перед нейронными сетями стоят и исследовательские задачи. Нейрохирургам тоже нужны ИНС и не для решения математических задач.
    • 0
      Как раз моделирование, о котором я говорю в своих постах не является «слепо физиологическим копированием».
      Безусловно наши знания неполны, насколько были неполны знания физиков лет 200 назад. Именно поэтому я сравниваю теоретическую нейробиологию с теоретической физикой пару веков назад.=)

      При этом моделирование — это с одной стороны путь проверки существующих гипотез, а с другой стороны способ сформулировать новые эксперименты в области нейробиологии, а также увидеть некоторые закономерности, которые в реальности увидеть либо затруднительно, либо вообще невозможно (например многое связанное с эволюцией).
  • 0
    > When an axon of cell A is near enough
    > Если аксон клетки А находится достаточно близко

    Здесь речь не о расстоянии, а о вероятности: «Если аксон клетки А практически готов возбудить клетку Б...»
    • 0
      При таком переводе мне становится непонятна связь начала фразы с продолжением, честно говоря.
      • –1
        Значит, вы вообще ее не понимаете.

        > На конце аксона находится синаптическое окончание — концевой участок терминали, контактирующий с клеткой-мишенью. Вместе с постсинаптической мембраной клетки-мишени синаптическое окончание образует синапс. Через синапсы передаётся возбуждение.

        Таким образом, передача импульса возможна только в том случае, если аксон одного нейрона прикреплен к другому нейрону (или его дендриту). Нет контакта — нет связи.

        Если аксон бы аксон находился близко к нейрону, но не контактировал с ним, передача возбуждения была бы невозможна. И расстояние значения не имеет.

        Ваше предположение не было бы столь бессмысленно, если бы речь шла о формировании ( ru.wikipedia.org/wiki/Аксональный_поиск_пути ) нейронной сети, но речь в ней идет (по крайней мере, в начале; осилить целиком этот текст-ни-о-чем я не смог) об изменении приоритетов связей в изначально сформированной сети.
        • +1
          Как-то Вы сразу без разведки и грубо.
          Я думаю, что про устройство головного мозга я знаю больше Вас, при всем уважении.

          Передача сигнала возможна и без непосредственного синаптического контакта, однако это не такое частое явление безусловно. Но речь о другом.

          Я не понимаю смысла фразы — «Если аксон клетки А практически готов возбудить клетку Б...». Что значит «практически готов возбудить»?
          А вот смысл фразы «Если аксон клетки А находится достаточно близко, чтобы возбуждать клетку B» как раз и заключается в том, что есть синаптический контакт.

          Формирование синапсов не в процессе развития, а уже во взрослом мозге на данный момент является предметом большого спора.

          А вот оценить насколько это все бессмысленно или «ни-о-чем» я боюсь что Вы можете, только если Вы специалист в области нейробиологии или ИИ.
          • 0
            Давайте попробуем от обратного.

            Если клетка А соединена с клеткой Б аксоном, то расстояние между ними значения не имеет, поскольку сигнал проходит в любом случае.

            Если же клетки не соединены, то сигнал не проходит и никогда проходить не будет, какое бы малое расстояние между ними ни было. Значит, расстояние в этом случае тоже значения иметь не может.

            Какой тогда смысл оценивать растояние?
            • 0
              В данной формулировке имеется ввиду безусловно окончание аксона, где собственно и происходит синаптический контакт с дендритом пост-синаптической клетки. Поэтому расстояние имеет значение.

              Кроме этого, просто для справки, повторяю, что то, что вы сейчас описываете называется химическим синапсов (наиболее распространен). При этом существуют другие виды синаптической связи, которые не всегда подразумевают контакт аксона с дендритом.
  • +1
    Поймал себя на мысли что прочитал «Правило Хабра»… спасибо за статью.
  • +1
    Каково ваше мнение на счет обратного распространения ошибки, неужели этот метод безнадежно устаревает?

    По поводу еще нераскрытой системной составляющей думаю, что пока мы не признаем существование разума как верховного элемента сознания, так и будем играть в бирюльки с нейронами.
    • +1
      Что вы понимаете под «разум как верховный элемент сознания»? Скажем, в компьютерном ЦПУ что является «верховным элементом сознания компьютера» — АЛУ, генератор тактов, регистры или дешифратор (контроллер) доступа к памяти? Понятное дело, что с одним лишь знанием, как работают примитивные вентили, цельный компьютер не построишь — точно также и с живым организмом.

      К тому же, до сих пор не очень изучены и механические составляющие нейросети: как к нейросети подключаются новые, ранее не подключенные, нейроны, или, например, по какому принципу они механически придвигаются к нейросети ( www.membrana.ru/lenta/?5520 ).
      • 0
        Если во втором абзаце вы говорите исключительно про нейрогенез, то я на вашем месте не так бы беспокоился. Нейрогенез и миграция нейронов настолько незначительные явления (в масштабах всего мозга), что они точно не могут служить основным принципом обучения.
        • 0
          может быть и так, науке известны случаи когда удаление определенной части мозга давали эффект, что человек не мог запомнить что с ним происходило вчера, и каждый день просыпался с чувством, что это первый день после операции. Но один новый нейрон это около тысячи синапсов, первичное накопление инфы может и не происходит на новых нейронах в мозге, но записывать как помне больше некуда, кеш переполнится.
          • 0
            Болезнь, которую Вы сейчас описали называется антероградной амнезией и к нейрогенезу не имеет отношение.
            Случай, который Вы описали — это скорее всего случай с пациентом HM, которому, чтобы смягчить эпилепсию, были удалены обе височные доли (и еще кусок гиппокампа и миндалины впридачу).
            При этом забывание случается не только из-за сна, но и вообще спустя 5 минут или час — есть различные случаи. В основном антероградную амнезию на данный момент связывают с повреждением гиппокампа, но видимо существуют разные варианты. Основная причина этого заболевание — нарушение и невозможность консолидации памяти. Причем в подавляющем большинстве случаев это относится к так называемой декларативной памяти, то есть такой за которую вы можете отчитаться. К процедурной памяти это не относится и вы можете например спокойно учиться кататься на велосипеде или рисовать что-то.

            Вопрос про «куда девать память» действительно очень сложный, но по любому за счет нейрогенеза он полностью не решается. Сейчас существуют разные теории. Однако, уже становится понятно, что память — это не только статика (параметры системы), но и динамика.
            • 0
              То есть человек потерял способность запоминать знания, получаемые через преобретенный язык общения, а то что он запоминает на языке тела спокойно запоминается? Я как бы всеравно останусь на стороне, что долгосрочное запоминание идет через нейрогенез и увеличение связей. Тренируемые навыки уплотняют отделы мозга нейронами и новыми связями, которые за это отвечают. Но хотелось бы услышать хотя бы принципы других теорий.
              • 0
                Понимаете, тут дело в том, что Вы безусловно можете остаться на любой позиции=) И на той — что место под обучение обеспечивается нейрогенезом. Но это не подтверждается (и даже опровергается) экспериментальными данными. При что ни говори, но это было бы слишком просто, если бы обучение обеспечивалось именно нейрогенезом.

                Целостных теорий на данный момент очень мало. Еще меньше тех, которые хоть немного адекватные.
                А в основном есть не теории, а различные идеи. Большинство их них решают проблему обучения и хранения памяти, за счет динамики — пытаются увязать различные ритмы в мозге или же еще на более низком уровне в рамках отдельных групп нейронов. С точки зрения запоминания — все во многом сходятся на специализации отдельных нейронов, но так как их не бесконечное кол-во, то соответственно ищут теоретические выходы и из этой проблемы.

                Насчет процедурной и декларативной памяти. На сколько мы сейчас понимаем — за них отвечают два разных механизма. И декларативная память — это даже не то что приобретается через речь, но и ваша память о каких-то событиях и так далее.
        • 0
          Т.е. уже при рождении для любой пары нейронов A, B существует путь между ними? А два ранее не связанных нейрона могут в процессе жизни образовывать синапс?

          А по нейрогенезу — я так понимаю, что в топике обязательность перезаписывания нейросети Дарвина при изменении входных условий обуславливается конечностью использованного множества нейронов? Или я что-то в этом объяснении не понял(?)…
          • 0
            Если вы имеете ввиду реальный мозг, то там конечно не все нейроны связаны друг с другом. Могут ли два несвязанных нейрона в процессе жизни (отдельно отмечаю, что не в процессе развития) образовать синаптическую связь — большой вопрос, который как раз сейчас широко обсуждается в мире.
            С точки зрения человека непосвященного, ответить на этот вопрос — легче легкого. Просто надо пронаблюдать за мозгом мыши например в процессе обучения в течение всей жизни. Однако, сейчас есть огромные технологические проблемы с реализацией такого решения.

            Да, именно так. Вы все правильно поняли — так как обучение происходит на тех же самых синапсах, то в простой постановке правила обучения Хебба, мы неизбежно приходим к перезаписи уже приобретенных знаний.
            Однако, как я уже писал выше — нейрогенез не решает этой проблемы (в реальном мозге), так как он слишком незначителен в масштабах всего мозга.
            Как решить проблему обучения тогда спросите Вы? Готового ответа на этот вопрос у меня нет. Какие-то мысли описаны в конце статьи.
            • 0
              Просто я к тому, что ограничение конечности множества нейронов не такое сильное. Если нейронов взять очень много (например, N*1000, где N — размер нейросети при обучении лабиринту с учителем), то второе обучение, возможно, затронет (в бОльшей степени) другое подмножество нейронов, чем в первом — т.е. первое сразу не перезатрётся.

              Но вопрос того, почему мышь _сначала_ лезет по второму маршруту, а _затем_ лезет по первому, — не решается простой нейросетью от стимулов к моторике. Тут ещё нужен аппарат, который в электронном компьютере реализован генератором тактов, памятью и системой её адресации — т.е. аппарат, который позволит сохранять в [кратковременную] память робота результаты недавних экспериментов.

              А это значит, что в нейросети ещё перед обучением первому лабиринту должна быть устоявшаяся схема (подсеть) для этого.

              Кстати, ещё чайнический вопрос: а на нейросетях (настоящих крысиных и эмулированных) уже делали мультивибраторы?
              • 0
                А зачем Вам мультивибратор на основе нейронных сетей?=)

                Я на какой-то конференции слышал доклад, в котором в качестве модели нейрона использовали мультивибратор.=)
                • 0
                  Ну, если такую схему сделать, то можно будет понять, что нейроны могут генерировать повторяющиеся сигналы с их саморегуляцией но без деградирования (неконтролируемого улучшения (или ухудшения, в моделях, где они могут ухудшаться) синапсов) контура обратной связи.
    • –1
      По поводу еще нераскрытой системной составляющей думаю, что пока мы не признаем существование разума как верховного элемента сознания, так и будем играть в бирюльки с нейронами.


      Вот в том и проблема науки об ИИ в ее современном состоянии. Сказали вы хорошо — только вот ни что такое «разум», ни что такое «сознание» — мы еще не знаем.
    • +2
      Метод обратного распространения ошибки устарел еще больше чем вы думаете.=) Даже в том смысле, что на его основе сделано уже много гораздо более эффективных методов, например наиболее популярный на сегодняшний день delta-bar-delta (если читаете статью про некоторое применение нейронных сетей и там не указан обучающий алгоритм, то будьте уверены, что авторы использовали именно его=).

      Устарел он еще и потому, что это обучение с учителем. Даже не говоря про его биологическую неадекватность, он и с технической точки зрения очень ограничен. Вот вы обучили нейронную сеть, сделали там какой-нибудь нейрочип и она где-то там функционирует. Возможностей дообучения никаких нет, так как без самого алгоритма нейросеть не может обучаться в процессе функционирования.

      Последняя фраза какая-то слишком громкая и мне непонятен ее смысл, честно сказать. Что вы имеете ввиду по словом «разум»? Но даже более интересно, что значит «признать существование разума как верховного элемента сознания»?
      И что за игры в бирюльки с нейронами вы имеете ввиду?
      • 0
        Опасаясь возможности холивара, не буду высказываться по поводу разума, сознания, души, ибо не знаю верующий вы или нет.
        Хотел лишь акцентировать внимание на том, что не стоит ждать от нейросети размышлений на тему поэзии ))
        • +1
          Я не думаю, что стоит чего-либо опасаться, ибо культурные люди могут аргументированно обсудить любую тему.=)

          Я верующий, но с другой стороны я еще и ученый. А это означает, что я считаю, что все проявления нашего разума и сознания, которые мы видим рождаются в рамках метаболических процессов, происходящих в мозге.
          При этом безусловно от сегодняшних нейронных сетей поэзии ожидать не приходится, однако я думаю, что и это реально в теории. Философ Давид Израилевич Дубровский, изучающий феномен сознания, очень много высказывался в своих трудах по этому поводу.
  • +2
    >что изменение синаптической проводимости безусловно является одним из основных факторов обеспечивающих эффективное обучение

    Если не ошибаюсь, препарат фенотропил как раз на увеличение проводимости клеток влияет, это всё из одной оперы?
    • 0
      Я честно сказать не специалист в области фармакологии, но насколько я знаю все такие препараты оказывают скорее комплексное воздействие.
  • 0
    … Поэтому о кООрдинальном изменении положения говорить не приходится....

    кардинальном
    • 0
      Спасибо за наблюдательность.
  • +2
    Например, Википедия дает нам даже два правила Хебба


    Посмотрел у Хайкина — он тоже дает 2 правила Хебба, но формулирует их по другому (и видимо более корректно):

    1. Если два нейрона по обе стороны синапса активизируются одновременно, то прочность этого соединения возрастает.
    2. Если два два нейрона по обе стороны синапса активизируются асинхронно, то такой синапс ослабляется или вообще отмирает.

    • 0
      Да, безусловно эта формулировка более точна, так как она выражает именно природу самообучения.

      Хайкин кстати действительно один их лучших учебников по нейронным сетям, который я видел. Многим его рекомендую, когда меня спрашивают.
    • 0
      Потрясающе. Нашел у Вас в записях топик про гоместатическое устройство Хабра. Буквально в прошлом посте писал про такую систему. Какое совпадение.=)
  • 0
    > «Если аксон клетки А находится достаточно близко, чтобы возбуждать клетку B, и неоднократно или постоянно принимает участие в ее возбуждении, то наблюдается некоторый процесс роста или метаболических изменений в одной или обеих клетках, ведущий к увеличению эффективности А, как одной из клеток возбуждающих В»

    Ну то есть если проще, то «Чем чаще A проводит сигналы к B, тем более весомыми делать эти сигналы от A к B.»
    А что если обобщить и развить идею так: «Пусть A проводит сигналы к B, C, D и др. Когда проходит сигнал от A к B, вес связи A-B должен увеличиваться, а веса связей A-C, A-D и др. должны уменьшаться.»
    Тогда мы получаем обучаемую систему с памятью. Так?

    Спасибо за тему ))
    • 0
      Не очень понимаю почему, когда один синапс подкрепляется, то остальные должны уменьшаться? Просто я этого не понимаю даже с точки зрения полезности для модели, честно говоря.=)

      А с точки зрения реального мозга, то исследования доказывают, что правило Хебба действительно есть, но только для двух отдельных нейронов. Более сложных процессов мы пока не можем выделить.
      • 0
        Потому что реальный мир не статичен, и если сейчас важно одно поведение, то со временем может быть актуально другое. Модель должна предусматривать возможность исправлять «ошибки» обучения. Без такой оговорки мы получаем систему, в которой можно только «накачивать» веса, но не ослаблять/корректировать их. С дополнением об ослаблении неиспользуемых соседей можно обучать сеть методом генетического алгоритма с перебором путей следования сигнала по сети: 1) определим, что нейрон принимает все входы, но даёт сигнал только на один выход, тогда мы можем создать множество вариантов маршрута сигнала в зависимости от того, какой выход был выбран для каждого нейрона; 2) генерим множество вариантов маршрутов прохождения сигнала по сети; 3) отбираем те варианты, который дали максимум целевой функции; 4) корректируем веса согласно правилу: на маршруте веса поднимаем, «обделённым» веткам веса снижаем; 5) повторяем, пока не получим долстаточно стабильный выход — сеть обучена.

        Я дилетант в теме, хотя на 2-м курсе писал курсовик по нейронным сетям, а на 3-м решал задачу коммивояжора с помощью генетического алгоритма ))
        • +1
          Я бы вас предостерег от сваливания в одну кучу обучения в течение жизни и генетических алгоритмов. Это две совершенно разные вещи.

          Тот алгоритм обучения, который вы описали сейчас (1) — 5)) работает только в случае предварительного обучения, потому что необходим кто-то кто это должен все делать. Тут нет и намека на самообучение на основе самоорганизации нейронов. А это проблема.
          Во-вторых стабильный вход — это что такое? Получается, что ваша нейросеть будет стабильно решать одну задачу. Для такого рода специализации существуют экспертные системы, например. Основная перспектива нейросетей — это то, что они смогут быть успешны одновременно в разных задачах в реальном мире.

          А насчет ослабления связей. Вот вы подкрепляете одну связь и ослабляете другую. Мне сейчас сложно вдаваться в математические подробности почему это нехорошо, но я попробую объяснить кратко.
          Для каждого нейрона — сигналы, получаемые по связям — это некоторый паттерн микроситуации. Допустим есть какая-то ситуация, в результате которой мы подкрепляем одну связь. Однако, другие связи могут просто отвечать за другие паттерны микроситуаций, а не быть «ошибками» обучения. Таким образом, ослабив их вы вполне вероятно лишите возможности ваш нейрон распознавать некоторые ситуации, которые были в прошлом.

          И вообще вся статья была собственно направлена на то, чтобы каждый читающий увидел недостатки использования одного лишь метода коррекции весовых коэффициентов.=)
          • 0
            Спасибо за подробный комментарий, идею я уловил. Хотя мне было бы интересно как-нибудь на досуге проверить свой алгоритм в деле. Но я согласен, что на первый взгляд он заточен под обучение одной конкретной ситуации. Хотя, видимо, мы также говорим о разных моделях самих нейронов. Ну да ладно, спасибо за возможность поразмышлять на тему ))
            • 0
              Алгоритм всегда надо проверять и это правильно.=)
              Просто я указал на возможные сложности, которые наверняка возникнут при реализации такого алгоритма и тем более его обобщении.
  • +1
    автор, а что, действительно до сих пор нет внятных статмоделей (не хочу писать «нейронные сети»), успешно и эффективно апеллирующих к таким сущностям как пост- и пресинапс?
    • 0
      Извините, но видимо я не понял вопроса.

      Вы имеете ввиду конкретное моделирование процессов происходящих в синаптической щели?
      • 0
        нет-нет. я имею в виду нейронные сети в которых явно отражены те же принципы активации, которые есть между пре- и пост-синапсом.
        • 0
          Хм.
          Тут есть две проблемы. Первая — это черезчур низкий уровень для современных модель, на такой уровень мы пока не готовы опускаться. Хотя я уверен, что есть какие-то исследования по этому поводу.
          Вторая проблема заключается в том, что экспериментальные данные по функциям пре- и постсинапса на данный момент противоречат друг другу, каждый месяц буквально появляются новые данные, которые противоречат предыдущим. Это нормальный процесс, он когда-нибудь стабилизируется, но для этого надо время.
  • 0
    Согласен с выводом автора в конце статьи. Постулат Хебба достаточно точно описывает процессы внутри маленького участка нейросети, если рассматривать его в отрыве от всего мозга. Но строить модель обучения, которая будет, например, решать лабиринт Морриса, только на этом постулате, нельзя. Это будет сложная система из модулей, каждый из которых решает свои задачи.
    И вполне возможно, что какой-то из модулей работает контроллером и отвечает за переобучение системы, добавление знаний без потери старых и т.д.
    Если провести аналогию — модули памяти ПК не могут работать без контрллера памяти, процессора и т.д. И хотя они все состоят из одних и тех же кирпичиков — транзисторов, системные функции совершенно разные.
    • 0
      Вот про сложную «систему из модулей, каждый из которых решает свои задачи» я был бы поаккуратнее.

      Аналогия ПК с реальным мозгом уже давно теряет свою актуальность и популярность, потому что все нагляднее видно, что мозг не является такой системой из модулей.
      • 0
        Даже при поверхностном эмпирическом подходе можно выделить различные функциональные молули мозга — генетическая память, долговременная память, кратковременная память, условные и безусловные рефлексы, области распознавания разнообразных сигналов, генераторы автоматической двигательной активности и т.д. Логично предположить, что разные фукнции выполняются разными структурами, так чем это отличается от модулей?

        Ещё такой момент: нужно достаточно четко разделять выстраивание функциональной нейросети и накопление информации. Насекомое рождается с уже практически полностью сформированной нейросетью, которая вполне успешно решает все требующиеся для его существованя задачи. Никакого обучения нет, и оно практически невозможно. Чем сложнее существо, тем больше вероятность, что оно сможет научиться чему-то новому. Мне это говорит о том, что чем проще нейросеть, тем менее она способна к обучению в режиме реального времени без внешнего достаточно сложного контроля (только путм эволюции, но это немного другой процесс). Максимум, что можно из нее извлечь — функция памяти. Поэтому и приходит мысль о модульной структуре, контроллерах и тому подобном.
        • 0
          То что Вы сейчас выделили — это совершенно разные сущности, которые в один ряд поставить никак нельзя.
          Это может быть логично предположить (то что разные структуры отвечают за разные функции), но это не так. Именно однажды сделанное такое предположение затормозило развитие нейронаук лет на 40. Многочисленные современные экспериментальные работы показывают, что структура не может отвечать за какую-то функцию. Нет структуры в мозге, которая контролирует извлечение долговременной памяти или обучение. Есть распределенные механизмы с помощью которых это все делается.

          Со вторым абзацем практически согласен.
          Муха правда тоже способна на обучение, но естественно гораздо меньше, чем человек.
          Понимаете способность обучаться зависит не только от количества нейронов — это тупиковый путь. Этим вот занимаются все, кто делает крупномасштабное моделирование. Они думают, что спроектируют систему из 10^13 нейронов и у них все заработает. Не тут то было.
          Конечно количество нейронов тоже является важным, однако в процессе эволюции развивались еще и сами механизмы обучения и приобретения знаний на нейрональном уровне. И все эти механизмы обладают распределенной, а не модульной структурой.
  • 0
    Неокогнитроны, сверточные сети, ассоциативные нейромашины — все говорит в пользу идеи о «системной организации» живого мозга, ибо современные ИНС движутся туда же. Но сдается мне, что для получения ИИ или хотя бы эквивалента мозга млекопитающего придется повторить весь эволюционный путь, иначе говоря нужно постороить сначала МАТРИЦУ эмулирующую живой мир. Разбор мозга на запчасти вряд ли путь, т.к. известный парадокс про емкость данных для самопознания («система не может познать сама себя») практически лишает нас перспектив сконструировать ИИ от начала до конца.

    Практические выводы (для построения реальных ИНС) из работы неясны.

Только зарегистрированные пользователи могут оставлять комментарии. Войдите, пожалуйста.