Пользователь
0,0
рейтинг
31 июля 2012 в 04:57

Модель проявления сознания или ИНС без эффекта забывания

Эта статья продолжение Модель функционального разделения сознания и бессознательного. Введение. В ней мы лирически описали принципы перцептрона Розенблатта. И подняли проблему обучения от двух и более учителей. В этой статье проблема «двух и более учителей» не рассматривается, её мне достаточно сложно сформулировать технически на простых примерах (на сложных могу). Поэтому с этим будем разбираться возможно в следующей статье — если будет некоторый интерес.

В этой статье мы поговорим о сознании, но если желаете пропустить лирику (а специалистов она несколько напрягает, но хотелось чтобы поняли не только специалисты), то начинайте читать с раздела «Модель «Нулевого сознания» в Интеллектронике». Но лирика все же дает некоторые идеи о связи с такими фиктивными понятиями как сознание.



Первое, определимся с тем, что такое бессознательное. Это на самом деле проще, чем может показаться первоначально. Бессознательное – это весь механизм памяти и те эффекты, которые там возникают. Этому, в частности, была посвящена предыдущая статья. Вся та распределенность, ассоциативность, двухуровневость никогда не были сознательны, все эти эффекты внутренние. А на поверхность допускается лишь конечный результат (элементы реакции) под воздействием сознательного комплекса.

Второе, довольно важное положение, это описание сознательного комплекса. Чем он отличается от всего бессознательного, от прочей работы памяти?

Комплекс, согласно Юнгу, образуется когда бессознательная область психики приводится в движение. Процессы, происходящие в бессознательном, могут в чем-то противоречить друг другу. Тогда эти процессы выносятся на уровень сознания. Сознание может лишить энергии, которую следовало бы направить на разрешение этого комплекса. Если это происходит, то возникает т.н. “понижение умственного уровня”. Интенсивность сознательных интересов и деятельности постепенно убывает, из-за чего возникает либо апатичная инертность, либо регрессивное развитие сознательных функций, под этим понимается опускание последних на их инфантильные и архаичные первоступени, т.е. нечто вроде дегенерации. Но сознание может отождествить себя с данным комплексом. Тогда наличие таких комплексов становиться одним из нормальных свойств психики. Эти сознательные комплексы проявляются в сколько-нибудь дифференцированной типовой установке или потребности.

Именно такой сознательный комплекс возникает в процессе обучения. Любое обучение – это декларация противоречивых для бессознательного вещей. Этот комплекс устанавливает определенную активность, ответственную за принадлежность внешних стимулов к определенному типу явлений. Сама эта активность возникает как бы изнутри, как борьба сознания с противоречивостью бессознательного. Этим она отличается от другой активности, которая возникает в бессознательном в ответ на стимулы внешней среды.

Работа такого сознательного комплекса серьезно ускоряет процесс обучения. Это происходит от того, что комплекс сам дифференцирует различные типы явлений, а при обучении остается согласовать это с другой возникающей активностью бессознательного. Это намного проще, чем полностью согласовывать достаточно противоречивую активность бессознательного.

Далее весь вопрос в степени захваченности обучения сознанием. Если обучение произошло быстро – это показывает высокую степень осознанности. Теперь когда происходит проверка способности, обучение которой произошло, важным становиться объем полученного обучения. Если он крайне мал (по сравнению с общим объемом области знаний), то все равно включается бессознательное, и пытается хоть как-то заменить работу сознанию, обобщая как можно полученные знания, с целью предвидеть реальность. К сожалению, бессознательному в этом случае практически нечего обобщать и получается лишь некая нелепица.

Если же объем полученных знаний более высок, он вытесняет бессознательные процессы. И сознание восстанавливает ранее полученные знания, а бессознательное допускает лишь для небольшого минимального обобщения знаний. Но для всех тех областей, которые не были непосредственно заученны, в результате просто не возможно сделать ни какого предположения, и тем более предвиденья их значений.

Интуиция работает удовлетворительно лишь тогда, когда процесс обучения не был полностью захвачен сознанием, а происходила некая отвлеченность. Эта отвлеченность или последующая забывчивость не должны быть слишком большими, ориентировочно должно оставаться 80% внимания. При этом процесс обучения немного затягивается – это позволяет включиться в обучение бессознательному.

Когда же позже происходит проверка способности (при достаточном объеме полученных знаний), работа сознания позволяет очертить четкие границы знаний, а работа бессознательного наполнить содержанием те места, обучению которым не уделялось внимания, т.е. происходит некое обобщение, предвиденье (прогнозирование).

В отдельности работа бессознательного в этом случае представляет некое “размытое пятно”, при наложении на которое работы сознания, получается достоверные знания.

Но иногда процесс обучения может не сопровождаться присутствием сознания. При этом позже будет получено достаточно удовлетворительный результат, но зато никогда не возможно будет достичь четкости. Знания будут постоянно размыты.

Модель «Нулевого сознания» в Интеллектронике

«Комплекс устанавливает определенную активность, ответственную за принадлежность внешних стимулов к определенному типу явлений. Сама эта активность возникает как бы изнутри, как борьба сознания с противоречивостью бессознательного.»

Эта фраза для практика – кибернетика сильно расплывчата и мало указывает какой особенностью должна обладать модель сознания. Здесь мы постараемся объяснить эту мысль более конкретно.

За основу модели берется модель памяти – перцептрон Розенблатта. В перцептроне известна проблема забываемости. Она проявляется так: при обучении каждый последующий стимул может затереть память, а точнее изменить весовые коэффициенты, на которых базировалась реакция при предыдущем стимуле. Поэтому за один проход (итерацию) при котором единожды показываются стимулы из обучающей выборки, даже если на конкретный стимул уже была получена правильная реакция, последующие обучение может привести к забыванию. Поэтому обучение завершается только когда согласованы все пары стимул-реакция по всей обучающей выборке, которые периодически забываются.

Это и понятно, т.к. это соответствует нахождению коэффициентов в системе уравнений. Если были найдены коэффициенты удовлетворяющие решению нескольких уравнений К из общего числа уравнений N в системе, то при последующем поиске коэффициентов, несмотря на то, что будут согласованы другие M уравнений, для некоторых из К будут опять не совпадать условия. Эта проблема является причиной длительного обучения.

Упростить, улучшить и тем самым получить более быстрое обучение можно применив описанный ниже прием. Этот прием по внешним результатам напоминает проявление сознания в бессознательном. Но не будем забегать вперед.

Можно было бы вообще не пользоваться моделью перцептрона, а просто запоминать соответствия вход-выход. Но тем самым мы лишились бы возможности делать некоторые обобщения и главное, у нас не было бы модели взаимосвязи интересующей нас предметной области, выраженной системой нелинейных уравнений.

Аналогичный этому результат можно было бы получить напрямую вмешиваясь в управление активацией элементов ассоциативного слоя (А-элементов). Что это дало бы?

Скажем, выделим для этих целей дополнительно столько А-элементов, сколько и R-элементов, т.е. увеличим размер памяти, не связывая ее с сенсорными элементами, на размер реагирующих элементов. А во время обучения, при подачи соответствующего стимула на сенсорные элементы, будем одновременно устанавливать активность этих дополнительных А-элементов. При этом эту активность будем устанавливать, так чтобы она в точности соответствовала требуемую состоянию R-элементов. Состояние же активности других А-элементов будет псевдослучайным, точнее каким-то образом будет зависеть от входного стимула.

В таком случае, обучение будет практически мгновенным, т.к. в памяти (ассоциативном слое) искусственно образуется такой паттерн, как и требуемый на выходе. Этим и воспользуется процедура обучения, цель которой будет лишь нейтрализовать случайную активность на других “обычных” А-элементах.

Следует отметить, что представленный здесь прием “ускоренного обучения” имеет существенный недостаток – такая модель практически исключает возможность обобщения и последующего прогнозирования на экзаменационном множестве. Это ставит под сомнение, в таком случае, вообще применение перцептрона.

Но это, естественно, вырожденный пример. Стоит лишь изменить некоторые детали и тогда такой прием “ускоренного обучения” будет обладать существенными преимуществами перед любой нейронной сетью по ряду параметров.

Такие детали состоят в следующем. Необходимо ввести некоторый элемент случайности (мутирования) в активацию дополнительных А-элементов, о которых говорилось выше. Например, при необходимости активировать дополнительный А-элемент мы будем в 80% (эту цифру назовем фактором внимания, или что технически точнее — точностью прогнозирования) случаев реально его активировать. Это несколько замедлит обучение, т.к. сенсорную активность уже будет не так просто нейтрализовать. А так как во внутренней активности будет потерянна 100% достоверность необходимой на выходе реакции, то процедуре настройки коэффициентов (обучению) потребуется учитывать и сенсорную информацию и согласовывать ее с внутренней. Этот процесс можно образно, или просто в более узком, частном проявлении – назвать проявлением сознательного из бессознательного.

Самое важное, что применяя эту модель “за плечами” остается проблема забывания и в такой нейронной сети (в отличии от других) не возникает ситуаций, что она прогнозирует хуже, чем была обучена. Такая сеть позволяет регулировать (посредством фактора внимания) уровень обобщения – в одном крайнем случае получать учет всей обучающей выборки, но практически с отсутствием возможности прогнозирования; в другом крайнем случае, получаем результат аналогичный результату перцептрона, когда обобщение настолько велико, что образ становиться сильно размытым и уже нельзя понять какие черты образа правдоподобны (соответствуют обучению); меняя же фактор внимания можно плавно регулировать уровень обобщения получив дополнительно к известным чертам образа наиболее вероятное обобщение. Более того скорость обучения становиться прогнозируемой и зависит от фактора внимания.

Стоит упомянуть, что в некоторых известных нейронных сетях уже и ранее были, на взгляд автора, не вполне осознано использованы некоторые принципы представленные здесь.

Так, например, метод СС4 S. Kak, использует идеи угловой классификации, и пытается максимально ускорить обучение посредством статического расчета активности внутреннего слоя, искусственно активируя лишь один А-элемент для разных стимулов. Это сходно с тем, что мы непосредственно воздействуем на активность А-слоя, но отличается тем, что мы более точно ставим соответствие активности А-слоя с необходимым результатом на R-слой. А также плавность обобщения при угловой классификации (которая осуществляется уже другим способом, чем у нас) оставляет желать лучшего.

Так же стохастические сети Амосова, в которых, также на взгляд автора, необоснованно большое внимание уделяется вопросу случайности активации ассоциативного слоя имеют некоторую аналогию в нашем подходе. Имеется ввиду принцип случайности активации дополнительных А-элементов в зависимости от величины фактора внимания, но в отличии от сетей Амосова, остальные А-элементы при активации не подвержены такой случайности.

Именно цельность нашего подхода позволяет говорить о, пускай и отдаленной, но аналогии с информационными процессами возникающими при проявлении сознания у человека. В конце концов, наша модель сознания имеет такое же отношение к человеческому сознанию, как и модель искусственного нейрона к нейрону биологическому.

Напоследок, стоит обратить внимание на то, что такая модель “нулевого сознания”, естественно, нуждается в усовершенствовании.

И первым становиться вопрос об искусственности применяемого приема, ведь мы непосредственно как “с неба” регулируем дополнительные элементы в ассоциативном слое. Они должны зависеть от сигналов с обратных связей, и прогнозировать состояние которое должно случится. Это как раз одна из причин почему интересны сети Хокинса — Иерархическая Темпоральная Память (НТМ).

Вторым и главным, здесь не включено моделирование проблемы «обучения от нескольких учителей», а соответственно, противоречия — сознательного комплекса, еще не возникает.
Сергей @tac
карма
–2,0
рейтинг 0,0
Реклама помогает поддерживать и развивать наши сервисы

Подробнее
Реклама

Самое читаемое

Комментарии (49)

  • 0
    Перцептроны слишком статичны чтобы служить моделью сознания. Статичны в том смысле, что они как комбинаторные схемы показывают выходной сигнал (паттерн) в ответ на входной. А как быть с динамикой — временем, последовательностью событий, узнаванием мелодий? Или вот зрение: известно, что движения зрачка как-бы обшаривают поле зрения. Допустим, в каждый момент времени какой-то перцептрон будет классифицировать объект в фокусе внимания. Но сознание (или подсознание?) объединяет фрагменты в целостную картину. Эта картина формирует в сознании 3-мерную сцену, да еще с учетом времени. Например, я вижу улицу, по ней идут люди и едут машины. Я осознаю их скорости, ожидаю, в какой точке окажется объект в каждый момент времени. Это только маленький кусочек задач, решаемых сознанием. Какие подходы к динамике вы предполагаете?
    • 0
      Существуют перцептроны с обратными связями.
      • 0
        Спасибо.
    • 0
      И потом заметьте тонкую разницу. Я не предполагал, что перцептроны могут служить моделью сознания. Перцептроны — это модель памяти. А под сознанием я скорее склонен понимать — определенный описанный в статье эффект, возникающий во время работы памяти.

      При этом, когда в предварительной статье я говорил "Свое мнение появляется когда за основу выбирается некоторое общее положение, которое в принципе объединяет два или более мнения учителей хотя бы в ограниченной области. Т.е. происходит подмена стимулов инициированных учителями на собственные стимулы, которые и берутся за основу." — то как раз такую подмену можно осуществить только через обратные связи.
      • 0
        Меня интересует, моделировал ли кто-нибудь обратные связи от «генераторов тактовых частот», чтобы получить перцептрон, работающий во времени. В иерархической темпоральной модели Хокинс приводит пример узнавания мелодии по набору первых нот — предсказывается следующая. Но ведь мелодия — это не только последовательность нот, но и определенная длительность каждой ноты. Та же ситуация с восприятием движущихся объектов, управлением движениями собственного тела и т.п.
        • 0
          В этом нет особой проблемы, дело техники, что называется. Хокинс тут ничего нового не придумал, сам Розенблатт писал о таких экспериментах, но с поправкой «на ветер» :)

          В частности я тоже этим баловался Использование принципа рекуррентности Джордана в перцептроне Розенблатта + Исследование принципа рефрактерности в рекуррентных нейронных сетях. У меня более четко видно где тактовая частота. Ваш вопрос, конечно, содержит подвох, т.к. у меня например, тактовая частота выбрана константой в 9. Но вопрос модальности (а «но и определенная длительность каждой ноты», это вопрос модальности на другой частоте) решен. Единственно, чтобы это заработало на практике нужно иметь разные задержки… прописать жестко — довольно легко и заработает, другое дело подключить обучение — но тоже не вижу принципиальной проблемы, нужно лишь потратить время на доведение теории к практике.

          В то время, как в данной статье я говорю о такой проблематике для которой пока нет теории.
        • 0
          Т.е. вы говорите о т.н. асинхронных нейронных сетях. Действительно их исследовали меньше и серьезных работ об этом мне не известно.
  • 0
    Если можно, то добавьте рисунки структур сетей или хотябы формулы хоть примерные, а то голый текст очень трудно представить в практической реализации
    • 0
      В основе структура перцептрона Розенблатта, если вы ее знаете думаю модификацию можно понять из текста. Если нет то спрашивайте. Если не знаете о структуре перцептрона Розенблатта, то есть пару статей Запрограммируем перцептрон Розенблатта?.

  • 0
    Это называется «нейроны в точках данных» и очень часто применяется для инициализации самых разных нейронных сетей. Один из основных подходов, собственно. Хорошая идея, короче, но её придумали до вас.

    Кстати, заменять им обучение полностью нет смысла, именно потому, что забывание в общем случае функционально оправдано (и часто даже вводится принудительно). Особенно для столь любимых вами динамических сетей.
    • 0
      Можете дать ссылки на того кто это придумал, хотелось бы сравнить.
      • 0
        Даже никогда не интересовался, честно говоря. Все ссылаются на Zahirniak D.R., Chapman R., Rogers S.K., Suter B.W., Kabrisky M. and Pyati V., «Pattern Recognition using Radial Basis Function Networks,» Conf. Aerospace Application of Al, Dayton, 1990, но я это не читал. Это всё-таки общее место и принцип объясним в двух строчках, часто идёт без ссылки вообще.

        Да, и кстати, это совершенно естественный принцип инициализации, когда нейроны существуют в том же пространстве, что и стимулы (сети Кохонена, радиально-базисные и т.п. и т.д.). Но в случае персептронов и пр. эти пространства мягко говоря разные и даже не однозначно отобразимые. То есть существует намного больше одного способа получить нужный отклик на данный стимул. Не слишком ясно, какой из них предпочесть и почему.
        • 0
          Да, на гуглили мы одинаково. Но саму статью «Pattern Recognition using Radial Basis Function Networks,» найти мне не удалось. Но судя по описанию из этой статьи, это как я написал что-то близкое но не то —

          "первый скрытый слой образован не образами, а прототипами классов, вычисленных с помощью обычного К-среднего (HCM) в пакетном режиме."

          У меня же речь о другом. Все проще — дополнительные элементы в среднем слое = выходы (на этапе обучения).
          • 0
            > =выходы

            в том смысле, что дают уже нужную реакцию изнутри на выходы. На самом же деле так ведут себя нейроны Иерархической Темпоральной Памяти от Хокинса — пытаясь сделать прогноз какой будет выход за такт то формирования реального выхода.
          • 0
            То есть оптимальная стратегия для персептрона — обнулить все веса, кроме тех, которые ведут от «дополнительных элементов» к выходам. Отличный план.
            • 0
              теперь когда поняли это читайте дальше.
              • –1
                Спасибо, мне хватило одного раза.
                • 0
                  Боюсь вы тогда ничего не поняли.
                  • 0
                    Зря боитесь, я вообще понятливый.
                • 0
                  Вы дочитали до, и не поняли видимо, что я сам указал то над чем вы иронизируете

                  Следует отметить, что представленный здесь прием “ускоренного обучения” имеет существенный недостаток – такая модель практически исключает возможность обобщения и последующего прогнозирования на экзаменационном множестве. Это ставит под сомнение, в таком случае, вообще применение перцептрона.


                  Но дальше Вы похоже не пошли, а стоило бы

                  Но это, естественно, вырожденный пример. Стоит лишь изменить некоторые детали и тогда такой прием “ускоренного обучения” будет обладать существенными преимуществами перед любой нейронной сетью по ряду параметров.
                  • 0
                    Да, и для этого вы предложили мутации. Что не решает проблему вообще никак, потому что оптимальное поведение персептрона — всё ещё просто напросто вернуть мутировавший вес назад.
                    • 0
                      Именно так. Оптимальное поведение персептрона — это получить правильный выход. А если для этого ему надо устранить шум в сенсорной активности или в предсказательной активности — он это и будет делать.

                      И только при этом можно регулировать степень обобщения которую перцептрон выполняет на неизвестном множестве.
                      • 0
                        Только зачем здесь персептрон? С тем же успехом можно заменить нечётким поиском по базе данных обучающей выборки. Будет быстрее и проще. Обучать-то тут уже нечего.
                        • –1
                          Можно и на коне поскакать — будет весело, но к делу не относится.
            • 0
              Действительно, имеет место «оптимальная стратегия для персептрона — обнулить все веса, кроме тех, которые ведут от «дополнительных элементов» к выходам.» Видимо со стороны кажется странно. Но если учесть, что на дополнительных элементах и есть то, что требуется на выходе — нет ничего удивительного, что «мозг» должен оптимизировать это так, чтобы исключить сенсорную активность, т.к. она ничего не добавляет нового.

              Именно так в мозгу и происходит, когда мозг с уверенностью предсказывает, что вы увидите или в какую ситуцию попадете в следующий момент времени. А то что он такое делает — это нейрофизиологический факт.

              Теперь далее когда вы что-то не очень хорошо предсказываете, мозгу это надо с другой стороны опимизировать — убрать шум из вашего неточного предсказания, используя сенсорную активность.

              Вот что тут на самом деле написано. Стучащему да откроется :)
              • –1
                Тут написано «давайте не будем ничего делать с данными, а просто запишем их в нейроны». Лучше запишите в базу данных, толка больше будет.
                • 0
                  Нет не так, думайте… я и так все разжевал.
                  • –1
                    Я заметил, что вы отвечаете так каждому, кто пытается говорить о ваших идеях конкретно. Вероятно, если вас никто не понимает, то дело в вас, а не во всех остальных. Думайте.
                    • 0
                      В ваших словах нет конкретики. Вы читаете по диагонали? Зачем мне тогда писать, когда вы пришли сюда не понять, а высказать свое фи. Мне это не нужно, тем более такое фи, которое идет от непонимания о чем речь.

                      Читайте еще раз:

                      Теперь далее когда вы что-то не очень хорошо предсказываете, мозгу это надо с другой стороны опимизировать — убрать шум из вашего неточного предсказания, используя сенсорную активность.

                      это совершенно противоречит вашему «давайте не будем ничего делать с данными»
                      • 0
                        Вы осознаёте, что у вашей сети нет режима обучения? Внедрение ответов в структуру — это не «ускорение обучения». С этим вы ничего никогда не предскажете и не соптимизируете. Это вообще не сеть, это даже не база данных, это словарь. И вы никак, просто никак не используете данные. Какая может быть конкретика, если это неработоспособно?
                        • –1
                          Вы читаете или как? У такой сети есть режим обучения.

                          Еще раз для тех кто в танке, я же писал

                          Следует отметить, что представленный здесь прием “ускоренного обучения” имеет существенный недостаток – такая модель практически исключает возможность обобщения и последующего прогнозирования на экзаменационном множестве. Это ставит под сомнение, в таком случае, вообще применение перцептрона.


                          Если бы я на этом остановился — это и было бы ТОЛЬКО «внедрение ответов в структуру», и тогда я бы действительно «ничего никогда не предскажете».

                          Но я же вам выше специально выделил ЖИРНЫМ (читать пробовали?), то где уже предполагается обучение.
                          • –1
                            Давайте исходить из того, что я всё прочёл (потому что это а) вежливо б) правда). А теперь потрудитесь поразмышлять, почему мои претензии всё ещё в силе. Выясните, например, что такое обучение сети (это, например, не подавление шума, не предсказание и не инициализация) и признайте, что его у вас нет.
                        • 0
                          Читаем!

                          Такие детали состоят в следующем. Необходимо ввести некоторый элемент случайности (мутирования) в активацию дополнительных А-элементов, о которых говорилось выше. Например, при необходимости активировать дополнительный А-элемент мы будем в 80% (эту цифру назовем фактором внимания, или что технически точнее — точностью прогнозирования) случаев реально его активировать. Это несколько замедлит обучение, т.к. сенсорную активность уже будет не так просто нейтрализовать. А так как во внутренней активности будет потерянна 100% достоверность необходимой на выходе реакции, то процедуре настройки коэффициентов (обучению) потребуется учитывать и сенсорную информацию и согласовывать ее с внутренней.
                          • 0
                            Подавление шума — это не обучение.
                            • 0
                              Ну что за глупости, еще раз:

                              Такие детали состоят в следующем. Необходимо ввести некоторый элемент случайности (мутирования) в активацию дополнительных А-элементов, о которых говорилось выше. Например, при необходимости активировать дополнительный А-элемент мы будем в 80% (эту цифру назовем фактором внимания, или что технически точнее — точностью прогнозирования) случаев реально его активировать. Это несколько замедлит обучение, т.к. сенсорную активность уже будет не так просто нейтрализовать. А так как во внутренней активности будет потерянна 100% достоверность необходимой на выходе реакции, то процедуре настройки коэффициентов (обучению) потребуется учитывать и сенсорную информацию и согласовывать ее с внутренней.

                              Что не ясно?
                              • –1
                                Вы понимаете, какую функцию оптимизирует настройка весов? Вы понимаете, какой огромный искусственный и скорее всего, глобальный минимум вы соорудили своей инициализацией? Обучения не будет. Будет подавление случайного шума, внесённого мутацией, незначительно отклонившей сеть от экстремума. Сеть останется безальтернативно переобученной и неспособной ни на что за пределами обучающей выборки.
                                • –1
                                  Я похоже говорю с глухим. Давайте спрошу еще раз вежливо: вы понять хотите или выпендриваться?
                                  • –1
                                    Я уже понял. А вы хотите понять, или сохранить свою непогрешимость?
                                    • 0
                                      Мне понимать не нужно — это проверено на экспериментах.
                                • 0
                                  > неспособной ни на что за пределами обучающей выборки

                                  Вы ошибаетесь. С чего Вы делаете такой вывод? Я вам раз пять уже указал, что обучение происходит.
                                  • 0
                                    А я вам ровно столько же сказал, что нет. Моё слово против вашего. Поставьте эксперимент наконец и покажите результаты.
                                    • 0
                                      Эксперимент давно поставлен
                                      • –1
                                        В студию. Уж вы-то вроде должны знать, как это в статьях делается.
                                        • 0
                                          А вот это я решу, надо ли мне копаться по архивам и выискивать для не благодарной булики конкретные результаты, в то время как сейчас меня интересует другое. Когда приличный человек вежливо попросит — я об этом подумаю.
                                          • 0
                                            > булики

                                            публики :)
                                          • –1
                                            лол
                                    • 0
                                      Я никак не могу понять где вы словили глюк.

                                      Вам как я понимаю, кажется, что я ввел только дополнительные элементы, и выходы будут сводится только к ним? Нет, когда эти дополнительные элементы будут ошибаться (в 20% случаев), в этот момент, чтобы сети обучится, будет мало брать информацию с дополнительных входов, и будет происходить полноценное обучение с входов.
                                      • 0
                                        20% — это уровень шума. Для сети это не обучающая выборка, это выбросы.
                                        Кстати, откуда взялось 20%? Почему не 40%, почему не 10%? Вы проверяли в экспериментах, как влияет это значение на результат?
                                        И вообще, покажите хоть какой-то результат. Хоть процентики какие-нибудь, хоть на чём-нибудь.
    • 0
      «нейроны в точках данных» — возможно, это скорее близкая идея, но с другой реализацией. Что же касается «открытия» — то оно независимо :)

Только зарегистрированные пользователи могут оставлять комментарии. Войдите, пожалуйста.