Пользователь
0,0
рейтинг
6 июня 2012 в 10:56

Основы подхода к построению универсального интеллекта. Часть 1 из песочницы

От универсального интеллекта к сильному ИИ. Перспективы создания сильного искусственного интеллекта


Область искусственного интеллекта (ИИ) принесла массу замечательных практических результатов в части автоматизации человеческой деятельности в самых разных сферах, что постепенно меняет облик нашей цивилизации. Однако конечная цель – создание по-настоящему разумных машин (сильного ИИ) до сих пор не была достигнута. В то же время, из ученых мало, кто действительно сомневается в том, что такой сильный ИИ в том или ином виде может быть создан. Если какие-то возражения и звучат, то они имеют религиозных характер, апеллирующий к наличию у человека нематериальной души. Но даже при столь радикальных воззрениях на нематериальный мир списывают лишь такие сложные концептуально феномены как свобода воли, творчество или чувства, не отрицая возможности наделения машины почти неотличимым от человека поведением. Гораздо менее однозначными являются ответы на вопросы, когда и как именно может быть создан сильный ИИ?

Искусственный интеллект как область переживал разные периоды. Начальный период, который часто характеризуют как романтический, обещал скорое, в течение пары десятилетий, создание мыслящих машин. Неоправданные ожидания привели к более прагматичному настрою, к ориентации многих исследователей на слабый ИИ – неуниверсальные интеллектуальные системы, способные решать узкие классы практических задач. Пик этой тенденции приходится на экспертные системы (ЭС), которые обещали уже не машинный разум, но эффективные коммерческие решения сложных прикладных задач. Однако и здесь ожидания не оправдались. ЭС, хотя и достаточно успешно применялись на практике, не стали прорывной технологией, которая перевернула бы мировой бизнес, из-за чего инвестиции, хлынувшие было в эту область, заметно уменьшились [McCarthy, 2005]. В США наступила «зима ИИ». Япония потерпела неудачу в проекте компьютеров пятого поколения.

Однако исследования в области ИИ вовсе не затухли. Большое количество подобластей, выделившихся из ИИ, таких как компьютерное зрение, анализ текстов, распознавание речи и т.д., продолжали приносить свои плоды, пусть и не сенсационные, но все более и более значимые. Возродился интерес бизнеса к системам слабого ИИ. Вновь стали повторяться слова о чрезвычайной значимости области ИИ в будущем для всего человечества [Nilsson, 2005a]. И вновь стала озвучиваться мысль, что области ИИ нужно «официально» вернуть ее конечную цель – создание по-настоящему разумных машин [Brachman, 2005].

При этом, однако, в сугубо академических кругах ученые перестали озвучивать сроки возможного создания сильного ИИ. Тем не менее, рядом видных специалистов в этой области снова называются сроки в несколько (а иногда даже и в одно) десятилетий [Hall, 2008]. Причем на этот раз такие экспертные ожидания подкреплены и независимыми свидетельствами. Одно из них связано с тем, что, по крайней мере, по некоторым оценкам вычислительные мощности компьютером, сопоставимые с вычислительными ресурсами человеческого мозга, достижимы к 2030-м годам (а по некоторым – достижимы уже сейчас [Hall, 2008]). С учетом того, что нехватка вычислительных мощностей была (как это понятно сейчас) одной из объективных причин, по которым ранние прогнозы о создании настоящего ИИ были несбыточными, вероятное устранение этой причины в ближайшем будущем внушает оптимизм.

Но вычислительные мощности – лишь необходимое условие для создания сильного ИИ. Помимо этого существует и масса содержательных проблем в теории ИИ, которые до настоящего времени не были решены. Удастся ли их решить за ближайшие десятилетия? Некоторую уверенность в этом дают прогнозы, связанные с технологической сингулярностью (см., напр., [Kurzweil, 2005]). Концепция сингулярности основывается на факте ускоряющегося возрастания сложности технических (а ранее – биологических) систем. Поскольку на каждом этапе глобальной эволюции сложность систем оказывается экспоненциальной (частным примером здесь является закон Мура), а при переходе между этапами показатель экспоненты каждый раз увеличивается, то есть время удвоения сложности уменьшается (так, время удвоения емкости ДНК составляет сотни миллионов лет, а емкости нервной системы – десятки миллионов лет), то следует ожидать выход этого процесса на бесконечность за конечное время.

Экстраполяция кривой возрастания сложности не позволяет отнести момент наступления сингулярности позднее 2050 года (а обычно и ранее), и возникновение некоторого сверхчеловеческого разума, вероятно, должно стать одним из последующих этапов усложнения систем. Конечно, возможность достижения истинной сингулярности можно оспаривать: график возрастания сложности объективен, но его экстраполяция может быть различной, но интервалы времени до следующих этапов (метасистемные переходы) не должны начать слишком внезапно и слишком сильно удлиняться. А, значит, данная концепция также подтверждает возможность создания сильного ИИ в течение ближайших десятилетий, что делает данную проблему, хотя и оставляет вопрос о том, как именно к ее решению стоит подходить.

При этом ведущими специалистами отмечается невозможность достижения сильного ИИ в рамках краткосрочных проектов [McCarthy, 2005], путем создания узкоспециализированных интеллектуальных систем [Nilsson, 2005b] или даже путем постоянного совершенствования систем, решающих изолированные когнитивные задачи типа обучения или понимания естественного языка [Brachman, 2005]. Необходимо ставить и решать именно задачу создания сильного ИИ, даже если при этом не ожидается получение каких-либо коммерческих результатов за первые десять или более лет.

В академической среде все ограничивается вполне естественным призывом к объединению подобластей ИИ [Bobrow, 2005; Brachman, 2005; Cassimatis et al., 2006], каждая из которых уже успела приобрести свою глубокую специфику. Достигнутый прогресс в каждой из подобластей дает надежду на то, что объединение полученных результатов позволит построить интеллектуальные системы, существенно более мощные, чем те, что были построены на заре компьютерной эпохи в попытках создания первых мыслящих машин. С другой стороны, такое объединение должно дать многое и самим подобластям: ведь задачи, решаемые в их рамках, зачастую полагаются ИИ-полными. Так, вряд ли можно создать универсальные системы распознавания образов, понимания языка или автоматического доказательства теорем без создания сильного ИИ, поскольку между всеми этими задачами есть принципиальная взаимосвязь [Brachman, 2005].

Использование и исследование когнитивных архитектур как способов объединения в единой системе всех необходимых для полноценного интеллекта функций, таких как обучение, представление знаний, рассуждения и т.д. выделилось в новую господствующую парадигму в области ИИ в целом [Brachman, 2005]. И именно эта парадигма официально связывается с построением систем искусственного интеллекта уровня человека [Cassimatis et al., 2006; Cassimatis, 2006], или универсальных [Langley, 2006].

Подобные интеграционные исследования необходимы, но насколько они достаточны? Общие идеи о том, что сильный ИИ должен создаваться как единая система, которая должна включать некую базовую когнитивную функциональность, достаточно очевидны и высказывались очень давно. Однако до сих пор нет ни минимально необходимого перечня когнитивных функций, ни, тем более, обоснованных деталей их реализации.
Более того, существуют не только многие существенно разные когнитивные архитектуры [Jones and Wray, 2006], но также и архитектурные парадигмы, альтернативные когнитивной [Langley, 2006]. При этом когнитивные архитектуры в основном концентрируются на вопросах интегрирования, взаимодействия отдельных функций. Но можно ли из слабых когнитивных компонент получить сильный ИИ? На наш взгляд, ответ однозначный: нет. Вместо (или, по крайней мере, в дополнение) обсуждения методических вопросов объединения существующих слабых компонент, необходимо разрабатывать теорию сильного ИИ, из которой будет одновременно следовать как структура сильных компонент ИИ, так и необходимая архитектура их объединения.

Как справедливо отмечено в [Cohen 2005]: «Poor performance and universal scope are preferred to good performance and narrow scope». С учетом того, что, как указывалось, создание эффективных узкоспециализированных систем почти не приближает нас к сильному ИИ, естественно спросить, чего же не хватает современным когнитивным системам в плане универсальности?

Универсальность как алгоритмическая полнота.

Исторически в области искусственного интеллекта выделились несколько фундаментальных направлений, таких как поиск или обучение. Эти направления начинают быть четко видны, когда мы ставим интеллектуальные задачи в наиболее упрощенном чистом виде. Так, рассматривая игровые задачи или доказательства теорем, можно предложить для них универсальное решение – полный перебор вариантов в пространстве возможных операций. Конечно, при конечных вычислительных ресурсах полный перебор невозможен, но это не устраняет концепцию поиска как фундаментальной компоненты интеллекта. В случае, когда пространство поиска заранее неизвестно, ставится задача обучения (точнее, предсказания того, как какие-то операции будут влиять на состояния мира и самого агента). Здесь универсальное решение не столь очевидно, но оно также известно практически с самого момента зарождения области ИИ. Это универсальный метод предсказания Р. Соломонова [Solomonoff, 1964] на основе алгоритмической теории информации. Этот метод также на практике не применим, так как требует огромного перебора вариантов (и, вообще говоря, требует решения алгоритмически неразрешимой задачи останова).

Эти идеальные методы – то, к чему нужно приблизиться в условиях ограниченных вычислительных ресурсов, поскольку только ограничение на ресурсы отделяет эти методы от того, чтобы на их основе уже сейчас воплотить сильный ИИ. К примеру, вся проблематика эвристического программирования и метаэвристических методов поиска возникла при попытке решения проблемы поиска при ограниченных ресурсах. Также и проблематика машинного обучения, включающая, например, трансферное обучение, обучение понятиям и многое другое, появляется из-за ограниченности ресурсов. При этом, однако, исследователи, разрабатывающие практические методы, зачастую не оглядываются на тот идеал, к которому необходимо стремиться. Это приводит к созданию методов слабого искусственного интеллекта, обладающих неустранимым дефектом. Этот дефект заключается в том, что эти методы не полны по Тьюрингу, то есть работают в ограниченном пространстве алгоритмов и принципиально не могут выйти за рамки этих ограничений. Хотя для разных частных методов области в пространстве алгоритмов могут отличаться друг от друга, конечное их объединение не может дать алгоритмически полного пространства. В плане методов машинного обучения это означает невозможность выявления произвольной регулярности, которая может иметься в данных, невозможность построить модель мира, которая не была заранее предусмотрена разработчиком.

Здесь кроется ответ, почему работы в области когнитивных архитектур (как подхода к сильному ИИ) не являются достаточными. Они исходят из посыла, будто современных методов поиска в пространстве решений, представления знаний, машинного обучения достаточно, а не хватает лишь их объединения, при котором возникнет новое качество – сильный ИИ. Мы, однако, полагаем, что свойство универсальности интеллекта кроется в том, что он в принципе может оперировать с любыми моделями из алгоритмически полного пространства (хотя на практике это, естественно, в полной мере не достигается). В этой связи полезно разделить понятие универсального и сильного ИИ. Хотя они фактически могут означать одно и то же, но понятие сильного ИИ неявно подразумевает стремление создавать модели, по внешним признакам напоминающие человеческий интеллект, тогда как понятие универсального ИИ заставляет, в первую очередь, обращать внимание на то, чтобы в строящиеся модели не закладывались непреодолимые ограничения на то, чему ИИ сможет обучиться или в какой среде сможет адекватно действовать.
Для обеспечения этого можно начать с некоторой идеализированной модели сильного ИИ, работающего в условиях бесконечных ресурсов. Поскольку действительно автономный искусственный интеллект должен создаваться как воплощенный интеллектуальный агент, необходимо разработать идеализированную модель такого агента, который бы гипотетически мог решать все те задачи, которые может решать человек.

Попытки создания таких моделей имеются (наиболее известной является AIXI [Hutter, 2005]), и мы их позднее обсудим. Сейчас лишь отметим, что рассмотрение подобных моделей заставляет разных исследователей прийти к выводу, что именно алгоритмической полнотой обеспечивается универсальность интеллекта, и это свойство необходимо пытаться сохранить, по крайней мере, в пределе (см., напр., [Pankov, 2008]).
Таким образом, первым методологическим принципом является сохранение отсутствия ограничений на алгоритмическую полноту множества моделей (закономерностей, понятий, представлений), которые могут быть выведены или использованы системами универсального ИИ.

Реализуемость как ресурсная ограниченность.

Модели универсального алгоритмического интеллекта могут быть хорошим отправным пунктом. Но также очевидно, что необходим учет ограниченности ресурсов, чтобы эти модели были реализуемы. Ведь именно эта ограниченность во многом определяет специфику наших когнитивных процессов.

Действительно, модели универсального интеллекта не имеют с реальным интеллектом почти ничего общего, если судить по их «когнитивным операциям». Такие модели не будут в явном виде строить систему понятий, не будут осуществлять планирования, не будут обладать вниманием и т.д. Крайне сложно сказать, будут ли они обладать функцией «понимания», самосознанием и т.д. Здесь можно провести (неполную) аналогию с шахматной программой, которая за счет неограниченных ресурсов осуществляет полный перебор. Эта программа крайне проста. Единственная ее фундаментальная операция – это поиск. В ней нет описания шахматных позиций в каких-либо производных терминах, нет ничего похожего на понимание. Но в рамках шахмат она ведет себя идеально. Сходным образом можно попробовать вообразить и идеальный воплощенный интеллект, действующий в реальном мире.

Отсутствие основной части когнитивных функций у такого идеального интеллекта может означать одно из двух. Либо эти функции – следствие ограниченности ресурсов (для ряда из них, например для внимания, это так со всей очевидностью). Либо интеллект – это что-то совсем отличное от того, что под ним обычно подразумевают (а подразумевают средство решения задач, в качестве основной из которых является выживания). Возможно, вторая альтернатива и не столь бессмысленна (и не столь противоречит первой), если интеллектом считать не любой, но некий выделенный способ решения задач (то есть если в интеллекте важна не столько функциональность, сколько способ ее достижения). В то же время, при бесконечных вычислительных ресурсах разумное поведение может достигаться гораздо более простыми средствами. К счастью, обсуждать, следует ли называть разумной систему, реализующую идеальное (по адекватности) поведение за счет «грубой вычислительной силы», а не за счет «интеллектуальности» (некой структурной сложности процессов «мышления»), не обязательно в силу гипотетичности такой системы. Единственное, что нужно обсуждать, – это то, будет ли эта система действительно обладать всеми теми возможностями, что и естественный интеллект. Если в этом будет какое-либо сомнение, то необходимо будет его преодолеть, либо обосновав достижимость соответствующих возможностей, либо уточнив модель.

Идея ограниченных ресурсов как принципиального свойства сильного ИИ, определяющего его архитектуру, уже высказывалась [Wang, 2007]. Но руководствоваться одной только этой идеей также недостаточно, что будет обсуждено ниже. Сейчас лишь отметим, что учет ограниченности ресурсов не должен нарушать (алгоритмической) универсальности интеллекта. Условно говоря, реальный интеллект – это «any-time» метод, который стремится к идеальному интеллекту при неограниченном увеличении вычислительных ресурсов.

С необходимостью ввода ресурсных ограничений согласны и разработчики универсальных моделей алгоритмического интеллекта (см., напр., [Schmidhuber, 2007], [Hutter, 2007]). Попытки ввода ограничений ресурсов в эти модели могут быть рассмотрены как второй шаг в направлении к универсальному ИИ, хотя насколько этот шаг существенный, судить сложно: зачастую эти модели «слишком универсальны» в том смысле, что авторы пытаются заложить в них минимальную предвзятость относительно того, в каком мире предстоит функционировать.
Таким образом, второй методологический принцип заключается в построении архитектуры реального универсального интеллекта путем ввода ресурсных ограничений в модель идеального универсального интеллекта.

Априорная информация о мире как основное содержание феномена интеллекта.

Воплощенный интеллект ограничен не только по количеству совершаемых вычислительных операций при решении задач индукции и дедукции, но также и по числу действий, совершаемых в физическом мире. Второй тип ограничений принципиально несводим к первому, хотя некоторая взаимосвязь между ними есть: совершение некоторого действия может избавить от необходимости рассуждать, и, наоборот, подумав, можно уменьшить количество пробных действий в физическом мире. Именно этот тип ограничений не учитывается в моделях идеального алгоритмического интеллекта с ограниченными вычислительными ресурсами.

В глобальном плане повышение эффективности совершаемых действий связано, в первую очередь, с накоплением информации о внешнем мире. Можно представить модель идеального интеллекта, обладающего минимумом априорной информацией. Этот интеллект сможет научиться, чему угодно (в том числе, и эффективному использованию своих вычислительных ресурсов) и в пределе будет настолько же эффективен, насколько эффективен специализированный интеллект, но на это уйдет слишком много времени. И, естественно, такой интеллект не сможет автономно выживать в процессе начального обучения.

При этом априорная информация для реального интеллекта может иметь самую разнообразную форму, в частности, иметь форму способностей, таких как подражание. Действительно, от идеального интеллекта необходимо ожидать того, что он сможет выполнять подражание, заранее не обладая этой способностью, однако для этого ему придется сначала накопить слишком много информации. Если же эта способность имеется сразу, то она может существенно ускорить оптимизацию собственных действий в физическом мире. Стоит отметить, что модели обучения роботов путем подражания сейчас широко исследуются (равно как и исследование зеркальных нейронов в нейрофизиологии). Проблема, однако, в том, чтобы данный механизм (как и все прочие дополнительные априорные механизмы) был согласован с универсальностью интеллекта. Аналогично, и лингвистические способности должны быть в какой-то мере заложены априорно. Это должно быть сделано не потому, что универсальный интеллект в принципе не сможет приобрести их самостоятельно, а потому, что это приобретение может занять слишком много времени.

Объяснение ряда когнитивных способностей как априорной информации о внешнем мире (как сугубо физическом, так и социальном), позволяющей ускорить развитие интеллекта (которое, собственно, и сводится к накоплению информации и ее обработке), достаточно очевидно. Однако это объяснение не использовалось для определения устройства универсального интеллекта. Нас интересует минимальный объем априорной информации и формы ее представления, которые позволят реальному ИИ развиваться не медленнее человека. Принципиальным вопросом при этом является встраивание априорной информации в структуру универсального ИИ.

Важность этого момента видна на примере гибкости архитектуры естественного интеллекта. Например, мозг человека заранее не ориентируется на то, что лингвистическая информация будет передаваться через речь. При формировании протопонятий работают механизмы, родственные условным рефлексам. Если способность к формированию истинных понятий и заложена априорно, то она не привязана к сенсорной модальности. Подобную универсальность необходимо оставлять и при введении каких-то априорных элементов в структуру ИИ. Сейчас же в моделях обучения понятиям не только разделение на семантический и лингвистический каналы выполняется априорно, но делается и привязка к модальности. Аналогичное заключение можно сделать и относительно моделирования прочих когнитивных механизмов, отражающих априорную информацию. Наиболее ярким примером этого служат экспертные системы, в которые априорно закладывается большой объем знаний при отсутствии возможности их автономного расширения, чего, очевидно, следует избежать в случае универсального ИИ.

С другой стороны, именно необходимый для реального интеллекта объем априорной информации и многообразие ее форм (это может быть информация как о самых разнообразных аспектах внешнего мира, так и об эвристиках оптимального использования собственных ресурсов) делает создание ИИ столь сложным. В этом смысле простые модели универсального интеллекта нас мало приближают к его созданию. Практически используемые когнитивные архитектуры могли бы даже оказаться полезнее, если бы не требовали полной переделки при попытке сделать их универсальными. Вместо добавления свойства универсальности в существующие системы, исходно составленные из слабых компонент, продуктивнее будет начинать с универсальной непрактичной системы, добавляя в нее согласованным образом те эвристики, которые были накоплены в области классического ИИ.

Содержательная сложность интеллекта, его когнитивная архитектура, – это то, что позволяет действовать нам в имеющемся окружающем мире в условиях ограниченных ресурсов и без чрезмерно длительного обучения. Но это означает, что основная сложность нашего интеллекта связана с его оптимизированностью под окружающий мир. Структура такого интеллекта не может быть выведена теоретически в универсальных моделях интеллекта, а должна быть получена эмпирически либо самим универсальным интеллектом, либо разработчиками. Естественно, мы при этом хотим сделать настолько универсальный интеллект, насколько это возможно. Говоря точнее, такой интеллект может быть настолько же универсальным, насколько являются упоминавшиеся простейшие модели. Разница между ними будет лишь в смещении предпочтений или предвзятости по направлению к нашему миру. Естественно, повышение эффективности такого интеллекта для нашего мира произойдет за счет снижения его эффективности (но не до нуля, в чем и заключается универсальность) в каких-то других возможных мирах, однако, с учетом того, что ему предстоит действовать в первую очередь в нашем мире, это является вполне допустимым.

Но недопустимым при этом является потеря универсальности, поскольку наш мир сам является «универсальной средой». В этой связи с универсальных «непредвзятых» моделей вполне можно начинать построение реального ИИ. В них могут постепенно вноситься эвристики, связанные с особенностями нашего мира, начиная с самых общих, пока ИИ не сможет самостоятельно действовать (включая самооптимизацию) достаточно эффективно.
Таким образом, третий методологический принцип – введение в универсальный интеллект априорной информации для уменьшения объема данных, которые в онтогенезе необходимо получить агенту для автономного функционирования в реальном мире, при условии сохранения согласованности последующей универсальной индукции и дедукции с априорной информацией.

Часть 2.

Литература.

(McCarthy, 2005) McCarthy J. The Future of AI—A Manifesto // AI Magazine. 2005. V. 26. No 4. P. 39.
(Nilsson, 2005a) Nilsson N.J. Reconsiderations // AI Magazine. 2005. V. 26. No 4. P. 36–38.
(Nilsson, 2005b) Nilsson N.J. Human-Level Artificial Intelligence? Be Serious! // AI Magazine. 2005. V. 26. No 4. P. 68–75.
(Brachman, 2005) Brachman R. Getting Back to “The Very Idea” // AI Magazine. 2005. V. 26. No 4. P. 48–50.
(Bobrow, 2005) Bobrow D.G. AAAI: It’s Time for Large-Scale Systems // AI Magazine. 2005. V. 26. No 4. P. 40–41.
(Cassimatis et al., 2006) Cassimatis N., Mueller E.T., Winston P.H. Achieving Human-Level Intelligence through Integrated Systems and Research // AI Magazine. 2006. V. 27. No 2. P. 12–14.
(Langley, 2006) Langley P. Cognitive Architectures and General Intelligent Systems // AI Magazine. 2006. V. 27. No 2. P. 33–44.
(Cassimatis, 2006) Cassimatis N.L. A Cognitive Substrate for Achieving Human-Level Intelligence // AI Magazine. 2006. V. 27. No 2. P. 45–56.
(Jones and Wray, 2006) Jones R.M., Wray R.E. Comparative Analysis of Frameworks for Knowledge-Intensive Intelligent Agents // AI Magazine. 2006. V. 27. No 2. P. 57-70.
(Cohen 2005) Cohen P.R. If Not Turing’s Test, Then What? // AI Magazine. 2005. V. 26. No 4. P. 61–67.
(Hall, 2008) J Storrs Hall. Engineering Utopia // Frontiers in Artificial Intelligence and Applications (Proc. 1st AGI Conference). 2008. V. 171. P. 460–467.
(Pankov, 2008) Pankov S. A computational approximation to the AIXI model // Frontiers in Artificial Intelligence and Applications (Proc. 1st AGI Conference). 2008. V. 171. P. 256–267.
(Duch et al., 2008) Duch W., Oentaryo R.J., Pasquier M. Cognitive Architectures: Where Do We Go from Here // Frontiers in Artificial Intelligence and Applications (Proc. 1st AGI Conference). 2008. V. 171. P. 122–136.
(Yudkowsky, 2011) Yudkowsky E. Complex Value Systems n Friendly AI // Proc. Artificial General Intelligence – 4th International Conference, AGI 2011, Mountain View, CA, USA, August 3-6, 2011. Lecture Notes in Computer Science 6830. Springer. 2011. P. 388–393.
(Kurzweil, 2005) Kurzweil R. The Singularity is Near. Viking, 2005.
(Solomonoff, 1964) Solomonoff R.J. A formal theory of inductive inference: parts 1 and 2. Information and Control. 1964. V. 7. P. 1–22, 224–254.
(Schmidhuber, 2003) Schmidhuber J. The new AI: General & sound & relevant for physics. Technical Report TR IDSIA-04-03, Version 1.0, cs.AI/0302012 v1, IDSIA. 2003.
(Hutter, 2001) Hutter M. Towards a universal theory of artificial intelligence based on algorithmic probability and sequential decisions. In Proc. 12th European Conf. on Machine Learning (ECML-2001), volume 2167 of LNAI, Springer, Berlin. 2001.
(Hutter, 2005) Hutter M. Universal Artificial Intelligence. Sequential Decisions Based on Algorithmic Probability / Springer. 2005. 278 p.
(Wang, 2007) Wang P. The Logic of Intelligence // in Artificial General Intelligence. Cognitive Technologies, B. Goertzel and C. Pennachin (Eds.). Springer. 2007. P. 31–62.
(Schmidhuber, 2007) Schmidhuber J. Gödel Machines: Fully Self-Referential Optimal Universal Self-improvers // in Artificial General Intelligence. Cognitive Technologies, B. Goertzel and C. Pennachin (Eds.). Springer. 2007. P. 199–226.
(Hutter, 2007) Hutter M. Universal Algorithmic Intelligence: A Mathematical Top→Down Approach // in Artificial General Intelligence. Cognitive Technologies, B. Goertzel and C. Pennachin (Eds.). Springer. 2007. P. 227–290.
(Goertzel and Pennachin, 2007) Goertzel B., Pennachin C. The Novamente Artificial Intelligence Engine // in Artificial General Intelligence. Cognitive Technologies, B. Goertzel and C. Pennachin (Eds.). Springer. 2007. P. 63–130.
(Garis, 2007) Hugo de Garis. Artificial Brains // in Artificial General Intelligence. Cognitive Technologies, B. Goertzel and C. Pennachin (Eds.). Springer. 2007. P. 159–174
(Red’ko, 2007) Red’ko V.G. The Natural Way to Artificial Intelligence // in Artificial General Intelligence. Cognitive Technologies, B. Goertzel and C. Pennachin (Eds.). Springer. 2007. P. 327–352.
@aideus
карма
63,0
рейтинг 0,0
Реклама помогает поддерживать и развивать наши сервисы

Подробнее
Реклама

Самое читаемое

Комментарии (132)

  • НЛО прилетело и опубликовало эту надпись здесь
    • +4
      Влажность поста сильно повышена :)
  • –10
    Сильный ИИ — слабый человек.
    Чем больше мы полагаемся на ИИ, тем меньше мы полагаемся на нативный интеллект. Каким бы совершенным не был ИИ, он никогда не достигнет возможностей интеллекта человеческого. Человеческий интеллект имеет огромный потенциал. Только не выгодно никому вкладывать деньги в образование и развитие интеллекта. Умные и способные люди — самая большая угроза для государств и корпораций. Лучше иметь стадо тупых баранов, которые не могут и 2+2 сложить без калькулятора. Такое стадо легко контролировать. Сила разума — способна производить любые действия. Но, эти способности необходимо развивать. А это тяжело. Но проще пользоваться услугами ИИ.
    Так недалеко и до замены мозга на искусственный.
    • +3
      А не врете?
    • 0
      > Так недалеко и до замены мозга на искусственный.

      И это хорошо — если софт мозга, разумеется, будет перенесен в целости и сохранности:). См. проект 2045.
    • 0
      Умные и способные люди — самая большая угроза для государств и корпораций.

      Не факт. Возможно умные и способные ИИ будут ещё большей угрозой и для государствами с корпорациями (решат, например, что частная собственность и национальные правительства не эффективны) и для человечества в целом (решат, что человечество неэффективно в целом).
  • НЛО прилетело и опубликовало эту надпись здесь
    • +5
      У нас есть 15-тилетний опыт работы в области создания систем специализированного ИИ, которые были внедрены в продукты (как программные, так и аппаратные) нескольких корпораций. Опыт прикладных разработок сопровождался их обобщением в форме теоретических исследований. Наш взгляд на проблему сильного ИИ — результат всей этой деятельности.
      • НЛО прилетело и опубликовало эту надпись здесь
        • 0
          Боюсь, об этих разработках мы не можем рассказывать из соображений корпоративной этики. Но, спасибо, мы над этим все же подумаем.
    • +2
      Знаете, пишут был такой Мах, Эрнст — философ. Вот он философствовал, философствовал, философствовал, философствовал, да создал какую-то там методологию (да какая нам к черту разница чё он там фолосовствовал, чё за методологию выдумал, ведь «никакие философствования...», да?). И как бы внезапно на основе этой методологии всякие Вернеры Гейзенберги создают квантовую механику. Некоторые утверждают, что не было бы Маха не было бы и квантовой механики, но это они наверное преувеличиваю.
      • НЛО прилетело и опубликовало эту надпись здесь
        • +1
          «И практики… было предостаточно.» Несомненно, исключительно «практика» помогла Маху придти к, например, мысленному эксперименту . И вообще, противопоставление «философии» и «практики» абсурдно. Может вы имеете в виду то, что иногда характеризуют как «схоластическое».
  • НЛО прилетело и опубликовало эту надпись здесь
  • 0
    Пенроуз. Новый ум короля. Тому определению «сильного ИИ» я больше доверяю: сторонники сильного ИИ считают, что мышление и сознание можно реализовать алгоритмическим путем. Непонятно, что автор статьи понимает под термином «слабый ИИ» — просто плохие устаревшие алгоритмы?
    • +3
      Сильный ИИ — это ИИ, обладающий теми же когнитивными функциями, что и человек. Слабый ИИ — это (в том числе современные) системы, решающие конкретные интеллектуальные задачи и не обладающие соответствующими когнитивными функциями. Удобнее, конечно, говорить об универсальном и специализированном ИИ (вместо сильного и слабого), чтобы не спорить о том, будет ли та или иная система иметь истинное понимание, чувства и т.д. Мы, однако, считаем, что универсальный ИИ можно реализовать алгоритмическим путем, и даже знаем, в каком направлении для этого нужно двигаться. Пенроуз же неправильно применяет теорему Гёделя и из неверной посылки выводит массу неправильных следствий, но это отдельная тема для обсуждения…
      • 0
        И в каком же направлении двигаться?
        • 0
          Об этом мы и надеемся рассказать в последующих публикациях. В рамках комментария на такой вопрос дать ответ невозможно.
      • 0
        > Пенроуз же неправильно применяет теорему Гёделя
        Можно с этого момента поподробнее?
        • 0
          В комментариях это уже было. Конкретно здесь
          habrahabr.ru/post/145309/#comment_4885120
          начиная с «во-вторых»
          • 0
            Ну это уж, простите, просто странно — приводить подобные рассуждения. Алгоритм — это вообще не формальная система, это выражение, определенное в некоторой формальной системе. Машина Тьюринга — формальная система, и как любая ФС неполна по Геделю. Программа также не формальная система, а выражение в некой ФС. Все операции программы ПО ОПРЕДЕЛЕНИЮ известны и их множество конечно, неформальных программ в природе не существует. И то, что она обрабатывает данные из внешнего источника не делает программу неформальной. Разве программа распознавания номеров авто через веб-камеру неформальна? И для ее работы, для формализации ее действий, не требуется «формализовать весь мир». Высказывание «программа, действующая в реальном мире, не является формальной системой» бессмысленно даже если к терминологии не придираться.
            • 0
              Углубляться в спор об определениях, действительно, не хочется, но все же криминала в том, чтобы называть алгоритм формальной системой нет. Здесь вопрос лишь в том, отделять ли алгоритм от интерпретирующей его машины или нет. Поскольку машина Тьюринга (по-вашему являющаяся ФС) является формализацией понятия алгоритма, то и алгоритм (например, в форме МТ, является ФС).
              Теперь ближе к существу.

              • 0
                Машина Тьюринга не «по-моему» является ФС. Машина Тьюринга и была изобретена для формализации понятия алгоритма, также как и Нормальная Форма Маркова, и машина Поста, и другие ФС. Вы можете в этом убедиться просто взяв определение машины Тьюринга и сопоставить его с определением формальной системы.
                Допустим, мы не разделяем понятия интерпретатора и алгоритма. Если речь идет о сильном ИИ как о некоторой программе, обладающей Тьюринговой полнотой, то есть способной решить любую алгоритмически разрешимую задачу, следует помнить, что сама эта программа носит формальный характер. Значит, в силу теоремы Геделя, в рамках формальной системы, в которой задана эта программа, найдутся задачи, не разрешимые в рамках этой формальной системы (прошу простить мне некоторую вольность в определениях). Тогда мы приходим к противоречию:
                1. Существует программа, решающая любую задачу в заданной формальной системе
                2. Существуют задачи, неразрешимые в рамках заданной формальной системы
                • 0
                  Спасибо, определение машины Тьюринга мы знаем. «По-вашему» было добавлено для того, чтобы Вы сами согласны со своим утверждением.
                  Вы продолжаете апеллировать к тому, что «программа носит формальный характер», без обоснования этого тезиса и игнорируя просьбу дать формализацию программы, выполняемой на реальном компьютере. Можно ли это понимать так, что, Вы ее дать не можете?
                  Давайте возьмем совсем простой пример. Пусть программа запускается на двух одинаковых процессорах. Эта программа выставляет семафор, и если ее копия не успела этого сделать, то печатая ноль, иначе — единицу. Когда обе копии программы выставили семафоры, они сбрасываются, выполняются фиксированные вычисления и процедура выставления семафоров повторяется. В итоге программа напечатает последовательность нулей и единиц. А теперь вопрос — какую последовательность она напечатает? На основе какого формализма Вы пришли к своему заключению? Как «алгоритм» может напечатать строку, алгоритмическая сложность которой больше сложности самого алгоритма?
                  Ну, или другой пример: анти-гёделевский парадокс. Пусть человек неалгоритмичен и умеет решать алгоритмически неразрешимые проблемы. Такой человек сидит привязанным в подвале, а анти-геделевский робот сидит в офисе, и ему дают алгоритмически неразрешимые задачи. Робот идет в подвал и пинает человека до тех пор, пока человек не согласится дать ответ на поставленную роботу задачу. Робот несет решение и предоставляет его в офисе. Очевидно, алгоритмический робот в итоге будет выдавать решения алгоритмически неразрешимым задачам. То, что робот это делает «не сам», не имеет значения. Ведь робот же формален, и он этого не может делать в принципе. Значит, пришли к противоречию. Значит, либо человек не может решать алгоритмически неразрешимые задачи, либо робот, действующий в реальном мире неформален (а тогда уже не так важно, получает ли он нужное решение от человека или каким-то другим образом, главное, что он может это делать).
                  • 0
                    > Можно ли это понимать так, что, Вы ее дать не можете?
                    Отчего же? Извольте.
                    Алгоритм — двусортное множество <M, R>, где M — множество правил решения задачи, обладающих свойствами массовости, детерминированности, результативности, элементарности, R — бинарное отношение на множестве MxM, (r1, r2) принадлежит R, если после процедуры r1 выполняется процедура r2.
                    Программа — запись алгоритма, где множество M определяется исполнителем.

                    Это определение программы.
                    Далее. «Давайте возьмем совсем простой пример ...» и т.д. Вы совершенно не разделяете понятия программы и вычислительного процесса. Протекание ПРОЦЕССА определяется КОНКРЕТНЫМИ данными в КОНКРЕТНЫЕ моменты времени. Программа определяет, КАК реагирует процесс на определенные данные. Не надо путать кислое с длинным. Если мы говорим о вычислительных процессах — их можно рассматривать как случайные процессы, поскольку влияющих факторов слишком много. Но это НЕ ЗНАЧИТ, что программы не формальны.
                    • 0
                      То есть Вы всю неформализуемость списали на случайность. Очень «сильный» ход… То есть Вы просто взяли, и описали весь внешний мир как источник случайных данных. Вы, похоже, реально не понимаете своей ошибки. Жаль, что и не хотите понимать.
                      • 0
                        Понятие случайности обычно и вводится, чтобы формализовать, строить формальные МОДЕЛИ сложные объекты и процессы реального мира. Я и не собирался формализовывать вычислительные процессы — это Вы начали, путая их с программами. Программа не является объектом реального мира — это абстракция. В некотором отношении это модель вычислительного процесса (хотя подобное высказывание не совсем корректно). Пока Вы не научитесь разделять понятия выч. процесса и программы, модели от объекта реального мира, Вы не поймете ни своей ошибки, ни того, о чем говорит Пенроуз.
                        • 0
                          Нет, мы ничего не путаем. Путаете Вы. Скажите программистам и пользователям, что программы не являются объектами реального мира. Их нельзя компилировать и запускать, поскольку это всего лишь модели. Пока Вы не научитесь отличать алгоритма от программы, модели от реального объекта, Вы не поймете, о чем мы говорим, и в чем заблуждается Пенроуз.
                          • 0
                            Вы снова путаете понятие объекта и модели. Компиляция — процесс преобразования одной последовательности символов в другую. Программисты могут с пеной у рта доказывать, что труд их деятельности реален — но физически это не более чем набор символов. Я-то как раз умею отличать алгоритм от программы и от выч. процесса. И модель от объекта. Программа — это модель, уважаемый.
                            • 0
                              Ага, и модель может запускаться на физически существующем компьютере и управлять физически существующим роботом, который может дать по шее нерадивому математику. Но математик не обидится, ведь это же всего лишь модель, поэтому не очень-то и больно.
                  • 0
                    Ваш анти-гёделевский парадокс — это уж совсем чушь. Алгоритм именно РОБОТА:
                    1 Подойти 2 Дать условие 3 Попинать 4 Взять решение 5 Отнести.
                    Где здесь алгоритмическая неразрешимость, которую разрешил робот?
                    • 0
                      Он дает правильные ответы на алгоритмически неразрешимые задачи. Где здесь чушь?
                      • 0
                        Он (робот) — не дает. Робот отрабатывает вполне формально заданный алгоритм. Вы же сами говорите — алгоритмически неразрешимую задачу решает именно ЧЕЛОВЕК. Другой исполнитель. Точно также мне может в компьютерной модели понадобиться значение случайной нормально распределенной величины и я возьму ее, скажем, с болтающегося проводка платы. Но это же не сделает мой алгоритм неформальным! Я просто буду рассматривать операцию «поучить значение н.с.в.» как элементарную
                        • 0
                          Почему же не дает?! У него на входе задача, на выходе — ответ! Но по теореме Гёделя мы точно знаем, что такого быть не может! Это же чистейший парадокс.
                          • 0
                            Для него сам процесс получения решения — элементарное действие (смотрите определение выше). Поэтому и сама задача алгоритмически разрешима. Этому теорема не мешает. Тут очень тонкий момент (придержите сарказм). Множество элементарных действий может выбираться, в принципе, произвольно. Если мы, например, вводим некоторое устройство, способное моментально вычислять значение некоторой, возможно даже невычислимой, функции (такой трюк давно известен в теории алгоритмов под названием оракул), то вычисление этой функции можно считать элементарным действием. Тогда задача алгоритмически разрешима. Но если мы поручаем такую задачу исполнителю — то есть пытаемся построить алгоритм ее решения, что по определению невозможно — то и задача становится алгоритмически неразрешимой. И в этом нет никакого парадокса.
                            • 0
                              Раз уж Вы сами вспомнили про машины с оракулом, то поймите, что этот же трюк можно применить и к «невычислимым» системам. Это просто следует из того, что никакая система не может быть сложнее самой себя. И человек в том числе. Поэтому-то опора на алгоритмически неразрешимые задачи и бессмысленна. В равной степени можно ввести и «божественно» неразрешимые задачи: ни один бог не может поднять камень, который сам создал неподнимаемым. Теорема Гёделя, в действительности, неспецифична формальным системам.
                              • 0
                                Так в этом-то вся и соль! В выборе опорного множества операций. И Ваш «божественный» парадокс — именно следствие ограниченности формальной логики как формальной системы. Поэтому бессмысленно пенять на возрастающие объемы памяти и вычислительной мощности. Мощность-то растет — БАЗИС не меняется, следовательно, множество алгоритмически неразрешимых проблем тоже.
                                • 0
                                  Так никто не сказал, что эти проблемы нужно решать. Человек не умеет точно решать даже разрешимые NP-полные проблемы, а от ИИ хочет решения алгоритмически неразрешимых, чего сам не умеет. А вот приближенное решение алгоритмически неразрешимых проблем алгоритмическими средствами вполне возможно.
                                  • 0
                                    Возможно (P ?= NP не трогаем). Но КАК строить это решение? Именно ПРИБЛИЖЕННОСТЬ и не описывается алгоритмически. Есть способы ПРИБЛИЖЕННОГО решения коммивояжера. Но это НЕ алгоритмическое решение задачи. Мы считаем, что полученное неким алгоритмом решение близко, приближенно соответствует истинному решению. Но ПОЧЕМУ мы так считаем, в рамках теории вычислений НЕ ОПИСЫВАЕТСЯ. Нет формального определения этой БЛИЗОСТИ. Поэтому и программы, способной породить алгоритм, нет
                                    • 0
                                      Формального нет, прагматическое есть. И тут мы опять приходим к воплощенному ИИ, взаимодействующему со внешним миром. Для него эта проблема решается элементарно.
                                      • 0
                                        Вы так мило уперлись в воплощенный ИИ. А КАК Вы его воплотите. Где чертеж возьмете?
                                        • 0
                                          Мы не уперлись. Мы как раз двигаемся дальше. А вот Пенроуз уперся и не видит, что все его проблемы давно решены…
                                          Кстати, о движении дальше; к сожалению, данный разговор ему не способствует, так что придется на этой оптимистической ноте его все же прекратить.
                                          (Чтобы не было обидно: мы с Вами полностью согласны и признаем все свои ошибки!!!)
                                          • 0
                                            Тогда требую в следующей части публикации представить конкретные, алгоритмические или методологические решения проблем, поднятых Пенроузон. Можно прям в формате «проблема-решение».
                                            • 0
                                              Еще раз: мы с Вами полностью согласны, но мы продолжим следовать неправильному пути, чтобы зайти в тупик и потерпеть полную неудачу! Поскольку наш путь неправильный, мы не можем даже думать о том, чтобы представлять решения поднятых Пенроузом «проблем», так что мы не будем рационально использовать наше время на то, чтобы заняться столь полезным делом, как решение проблем Пенроуза, а продолжим тратить время на бесполезное создание алгоритмического ИИ.
                                      • 0
                                        > элементарно
                                        как? только не говорите, что из внешнего мира возьмете, как будто оно там валяется бесхозным.
            • 0
              Вы можете предсказать движение робота, управляемого программой, получаемой информацию с видеокамеры? А Вы можете предсказать, какую программу создаст компилятор, входными данными к которому формирует программист? А Вы можете предсказать работу программы, выполняемой на компьютере, который может случайно вырубить уборщица, зацепив шваброй за шнур питания? Машина Тьюринга, по определению, имеет входную ленту со статическими данными. Для программы, взаимодействующей с внешним миром, такая формализация просто неверна. Приведите формальную систему, описывающую действия такой программы так, чтобы относительно ее работы можно было делать формальные заключения, я с Вами соглашусь. Но еще раз: называть реальную программу формальной системой столь же бессмысленно, сколь и отождествлять, скажем, реальный автомобиль с его чертежом.
              Да возьмите просто определение из вики: «Формальная система — это совокупность абстрактных объектов, не связанных с внешним миром, в котором представлены правила оперирования множеством символов в строго синтаксической трактовке без учета смыслового содержания, то есть семантики.» и попробуйте его применить к программе управления роботом. Робот «учитывает» то, что данные поступают именно с камеры? «Учитывает» ли он то, что управляет движением в физическом пространстве? Если нет, то почему он не врезается в препятствия? Обычная процедурная семантика. Но, главное, еще раз повторюсь, программа, в реальном времени взаимодействующая с внешним миром, не укладывается в формальные определения алгоритма. И чтобы формализовать работу такой программы, Вам придется формализовать ее вместе с миром. Нравится Вам это или нет.
              • 0
                1. Да, если мне известен алгоритм и входные данные
                2. Да, см. 1
                3. Да, см. 2
                Вы неверно интерпретируете понятие машины Тьюринга, представляя ее чем-то реально существующим. Это всего лишь абстрактная модель. Для этой модели совершенно бессмысленно говорить о «статичности» данных на ленте. Они не статичны и не случайны. Эта лента просто есть. Применяя эту модель к объектам реального мира, можно считать данными на ленте то, что вводится с клавиатуры пользователем, то, что получается с random.org, с видеокамеры, из файла или откуда угодно еще. Но СТРУКТУРА машины, АЛГОРИТМ обработки данных одинаков и от этих данных НЕ ЗАВИСИТ. Поэтому и является критичной Ваша ошибка об отождествлении программы с формальной системой. Программа — не формальная система. Это выражение, высказывание в некоторой формальной системе. Программа есть просто алгоритм, записанный на понятном исполнителю языке. И алгоритм ФОРМАЛЬНЫЙ ПО ОПРЕДЕЛЕНИЮ. Вы правы бессмысленно говорить о том, что программа является формальной системой — и я так НЕ говорил.
                > программа, в реальном времени взаимодействующая с внешним миром, не укладывается в формальные определения алгоритма
                А что тогда представляет собой эта программа, если не ФОРМАЛЬНУЮ запись ФОРМАЛЬНОГО алгоритма?
                • 0
                  Это как раз Вы неверно интерпретируете понятие машины Тьюринга, представляя ее чем-то реально существующим, потому что отождествляете ее с реально функционирующей программой.
                  Структура программы может меняться в ходе взаимодействия с внешним миром. Неучет этого и является Вашей критической ошибкой.
                  Реально выполняемая программа не является «просто алгоритмом». Вы проигнорировали все просьбы дать точное определение реально исполняемой программы…
                  • 0
                    > Структура программы может меняться в ходе взаимодействия с внешним миром
                    Уточните как. Мановением волшебной палочки?
                • 0
                  Насчет 1 — здесь Ваше главное заблуждение. Входные данные получаются в процессе взаимодействия робота с внешним миром. Вам не могут быть известны входные данные априорно.
                  • 0
                    Входные данные ПРОЦЕССА получаются в ПРОЦЕССЕ. Но реакция на них четко определена АЛГОРИТМОМ. Данные могут быть не известны, но реакция на них должна быть явно определена
                    • 0
                      Да, пожалуйста. Но это не отменяет того факта, что такая система уже не является формальной.
                      • 0
                        Вы меня не слышите. Вычислительный процесс — это ПРОЦЕСС. Процесс не может быть формальным или не формальным, к нему подобная классификация неприменима. Но этот процесс протекает в соответствии с ПРОГРАММОЙ. А вот программа ФОРМАЛЬНА.
                        • 0
                          Интересно, и кто Вам сказал, что процесс не может быть формальным?
                          Ну, хорошо, пусть даже так. Тогда ИИ как процесс не может быть формальным, и к нему, значит, неприменима теорема Гёделя.
                          • 0
                            > Интересно, и кто Вам сказал, что процесс не может быть формальным?
                            Некто БСЭ. Формальной может быть модель процесса.
                            ИИ — не процесс. КОНКРЕТНЫЙ ИИ — да, возможно. Как процесс мышления. Но ИИ как понятие, как сущность, как предмет исследования — это не процесс. У него нет протяженности во времени. Если Вы рассматриваете ИИ как некую программу — а именно так Вы рассуждаете о нем в статье — то здесь как раз применима теорема Гёделя и прав Пенроуз, а не Вы. Потому что если мы говорим о программе, на основании которой строится вычислительный процесс, то упираемся в тезис Черча о том, что множество вычислимых функций совпадает с множеством частично-рекурсивных функций, которое описывается как формальная, следовательно, неполная система.
                            • 0
                              Замечательно! Модель процесса может быть формальной. Модель ИИ может быть формальной. Но сам воплощенный ИИ не может быть формальным. Это следует из Ваших слов, и это именно то, с чем Вы пытаетесь спорить.
                              • 0
                                Ну не имеет смысла применять понятия «формальный-неформальный» к объектам реального мира. Просто не имеет. Речь идет о СОЗДАНИИ нового искусственного объекта. Тем более, о создании программы — объекта абстрактного, идеального. Автомобиль, если Вам угодно, не является формальным, но чертеж-то его является. Проблема ИИ, да и науки в целом, не в том, чтобы один раз получить что-то непонятно как, а в том, как целенаправленно создать что-то (в данном случае программу) с заданными свойствами.
                                • 0
                                  С этим никто не спорит, но главный вывод из этого заключается просто в том, что ИИ не может создаваться как замкнутая система, от которой требуется совершить останов за конечное время. То есть не надо городить огород о неформализуемых физических процессах, достаточно сказать, что из теоремы Гёделя следует, что ИИ должен создаваться как открытая (воплощенная) система. Только и всего!
                          • 0
                            Я только прошу не понять меня превратно. Я отнюдь не являюсь противником идеи о создании сильного ИИ. Но говорить о том, что Пенроуз неверно применяет теорему Гёделя — по меньшей мере бестактно в отношении математика такого уровня. В «Новом уме короля» определение и применение, безусловно, не безукоризненно — но это ведь популярная литература, но врятли стоит считать, что Пенроуз не знает, что делает.
                            • 0
                              Вроде, в «Новом уме короля» он говорит о том, что квантовые вычисления в мозгу решают NP-полные задачи за полиномиальное время, а в «Тенях разума» он признает, что ошибался и уже говорит о невычислимости квантовомеханических процессов. Если он ошибался в одной книге, почему не может ошибаться и в другой? Чего здесь бестактного? Бестактно, по-моему, вводить в заблуждение читателя путем словесной эквилибристики и на основе своего авторитета, приписывая реальным системам ИИ свойство формальности, чтобы доказать свою гипотезу. Нельзя сказать, что его гипотеза однозначно неверна, но она вовсе не столь обоснованна, как он пытается показать.
                              • 0
                                А я и не утверждаю, что рассуждения Пенроуза безукоризнены. Но в том, что для создания сильного ИИ требуется другой подход, я с ним согласен. Вообще, честно сказать, не уверен, что имеет смысл применять понятия алгоритмической сложности к решению задач человеком — это разные материи. В повседневной жизни мы решаем частные задачи (точнее, экземпляры задач) неформальными методами, но не строим универсальные пути решения задачи в общем виде.
                              • 0
                                В том, что у Пенроуза много эквилибристики — согласен целиком и полностью. Но теорему Гёделя он применяет вполне обоснованно. Другое дело, что он идет дальше и пытается доказать невозможность сильного ИИ в принципе. Вот в этом наши с ним мнения расходятся
              • 0
                > называть реальную программу формальной системой столь же бессмысленно, сколь и отождествлять, скажем, реальный автомобиль с его чертежом
                здесь Вы явно путаете программу с вычислительным процессом. Программа — это и есть чертеж вычислительного процесса
                • 0
                  Вы явно преувеличиваете свои способности к телепатии.
                  Ну, хорошо, является ли вычислительный процесс формальным? Может ли вычислительный процесс быть реализован на компьютере? Может ли искусственный интеллект быть реализован как вычислительный процесс? К чему из всего этого применима теорема Гёделя?
                  • 0
                    Нет. Вычислительный процесс является СЛУЧАЙНЫМ. Но для ИИ необходимо описывать ПРОГРАММУ, СТРУКТУРУ процесса, а не конкретный процесс
                    • 0
                      То есть вы уже пошли на уступки и ввели понятие случайности, отсутствующее в формализме машины Тьюринга. Осталось признать, что тупо формализовать внешний мир как случайный процесс — плохая идея, и Вы с нами!
                      • 0
                        Да нет же, уважаемый. Я рассматриваю именно ПРОЦЕСС как случайный. Не потому что он действительно случайный, это вопрос философский, а потому что на его фактическое протекание влияют многочисленные факторы вплоть до фазы Луны и погоды на Марсе. Это значит, что я не могу определенно предсказать ОПРЕДЕЛЕННЫЕ характеристики этого процесса, например, точное время выполнения какой-либо инструкции. Но я МОГУ совершенно точно сказать, какой РЕЗУЛЬТАТ будет получен в результате его выполнения, если мне будут точно известны все полученные им данные. Это и есть формальность ПРОГРАММЫ.
                        • 0
                          Так под этим и подразумевалось, что для формализации процесса выполнения программы, взаимодействующей с миром, требуется весь этот мир формализовать. Пост фактум и о действиях любого человека можно сказать, что они такие уже такие, какие были. И если мы в точности воспроизведем все условия, мы получим такой же результат, а любые отклонения будут описываться случайными отличиями. При желании и внутрь программ можно ввести истинную случайность (трактуя ее не как внешнюю, а как внутреннюю), и программа будет недетерминированной. В чем же будет принципиальная разница по сравнению с человеком?
                          • 0
                            Разница в следующем. Программа описывается в некоторой формальной системе (по определению). Данная система, будучи ФС, неполна по Гёделю, следовательно, некоторые задачи в этой ФС заведомо не смогут быть решены. Здесь даже не важно, меняется ли сама программа (мне, честно говоря, не известен мат. аппарат изменения (рефлексию таковым не считаем) именно программы, но допустим, что он есть) — все изменения также будут приводить к выражению в той же формальной системе, а значит, некоторые задачи так и не смогут быть решены. Для их решения потребуется перейти к ФС более высокого порядка — но в этом-то и парадокс, ввиду ограниченности программы, ФС, в которой она записана, она самостоятельно такой переход осуществить не сможет.
                            • 0
                              Да, эти сомнения вполне понятны. Но дело в том, что теорема Гёделя — это математическая теорема (извините за банальность). Когда она применяется нестрого в методологических рассуждениях, есть шанс сильно ошибиться. А именно так она и применяется к «вычислительным процессам». Здесь уже начинается не строго научный, а философский спор. Умеет ли человек решать алгоритмически неразрешимые задачи? Покажите человека, способного для абсолютно любого алгоритма абсолютно достоверно установить, при любых ли данных он остановится, и Вам поверят, что люди такие задачи решать умеют. Но таких людей пока не было. Да, люди могут создавать разные формальные системы. Но никто не сказал, что они это делают «неалгоритмически» (точнее, путем применения невычислимого процесса). Человек может насочинять много формальных систем, но выбор, какие ему из них нравятся, он делает на основе опыта, то есть входных данных. Тьюринг-полная система тоже может порождать произвольные формальные системы (и в этом, кстати, и заключается необходимость того, чтобы сильный ИИ строился как алгоритмически-универсальная система) и выбирать из них на основе своего опыта. Написать программу, генерирующую разную аксиоматику, не так сложно.
                              Таким образом, если теорему Гёделя не признавать за математически строгое обоснование ограниченных возможностей вычислительных процессов, то видно, что разница между человеческим мышлением и программами может быть очень размытой.
                              • 0
                                Не согласен с Вами по ряду пунктов.
                                Во первых, теорема Гёделя математическая (другого рода теорем не знаю), но и применяется она и Пенроузом, и мной к математическим объектам — алгоритмам и программам. В данном случае всё строго. В этом-то всё и дело — проблема создания именно программы, которая отвечала бы свойствам сильного ИИ математически неразрешима. Увы.
                                Не думаю, что есть люди, способные решать алгоритмически неразрешимые задачи в общем виде. Я не люблю уходить в метафизику и исхожу из того, что идеальное — это перенесенное в мысленный план материальное, то есть если человек может решать задачу в общем виде, значит алгоритм существует, значит задача разрешима алгоритмически. Мне, может, и поверят, но это будет преступлением против истины.

                                Тьюринг-полная система не может порождать только более слабые формальные системы. Опять же, ввиду собственной неполноты. Это легко доказать.
                                Допустим, что ФС A может породить ФС B, более сильную, чем она сама. Это значит, что A входит в B (все выражения в A выводимы в B). Тогда в B существуют выражение r из A, недоказуемое в A, но доказуемое в B. Следовательно r выводимо в A через вывод B, что противоречит исходному положению.
                                Если мы говорим о программах и алгоритмах, то, увы, должны считаться с такими понятиями, как тезис Тьюринга, тезис Черча и алгоритмическая неразрешимость. И, как не печально, с теоремой Гёделя. Пока не найдем физического механизма решения алгоритмически неразрешимых задач, математика нам не поможет. Либо надо опровергать основные тезисы и строить новую теорию.
                                • 0
                                  Да, к математическим объектам данная теорема применима, но она Пенроузом (и Вами) применяется к нематематическим объектам.

                                  Ничего более сильного, чем алгоритмически полные системы, нам для сильного ИИ не нужно, поэтому рассуждать о порождении ФС А более сильной ФС В не надо. (и вообще, само понятие истинности — это частность...)
                                  • 0
                                    > применяется к нематематическим объектам
                                    Применяю только к алгоритмам и программам. К вычислительным процессам не применяем ни я, ни Пенроуз. Но вычислительные процессы отрабатывают алгоритм. Если алгоритм не обладает свойствами сильного ИИ, то ими не будет обладать и отрабатывающий его выч. процесс.

                                    > рассуждать о порождении ФС А более сильной ФС В не надо
                                    Что должен делать полноценный сильный ИИ. Выдвигать гипотезы должен? Решать неизвестные ранее задачи, доказывать теоремы должен? порождать произвольные формальные системы, строить математические теории должен? Но эти задачи неразрешимы в базисе частично-рекурсивных функций!
                                    • 0
                                      Какие «эти задачи»? Выдвигать гипотезы — может, доказывать теоремы — может, порождать произвольные формальные системы — легко (программа, которая перебирает все формальные системы в форме их символьных записей, элементарна; вопрос лишь в выборе; а выбор уже неформален, так как определяется взаимодействием с внешним миром). Давать общее решение алгоритмически неразрешимых задач, да, не может. Но этого не может и человек.
                                      • 0
                                        Приведите мне пример хоть одной программы, которая выдвинула новую математическую теорию. Или гипотезу, не сводящуюся к экстраполяции. И не путайте формальную систему с ее символьной записью. Символы перебрать можно (в теории) — у этих символов не будет денотата.
                                        • 0
                                          А у вас есть много непосредственно знакомых людей, которые выдвинули новую математическую теорию? Не многого ли Вы уже хотите от еще не созданного сильного ИИ?
                                          Наличие денотата, опять же, разрешается в рамках воплощенного подхода.
                                          • 0
                                            У меня — да, есть. И техническую. И нет, хочу не много, всего лишь говорю о принципе — а в принципе для ИИ хотя бы теоретически решение этих задач должно быть доступно
                                • 0
                                  Огворился. Тьюринг-полная система может порождать
  • 0
    >В то же время, из ученых мало, кто действительно сомневается в том, что такой сильный ИИ в том или ином виде может быть создан.
    Весьма смелое утверждение…
    >Если какие-то возражения и звучат, то они имеют религиозных характер, апеллирующий к наличию у человека нематериальной души.
    Подождите, а как же теорема Геделя?

    • +2
      Теорема Гёделя применима только к формальным системам. Воплощенный ИИ такой системой не является в принципе, и теорема Гёделя к нему неприменима.
      • 0
        Воплощенного ИИ не существует и благодаря работе Геделя доказывается почему этого никогда не случится.

        С этой точкой зрения можно соглашаться, а можно и нет. Но тем не менее ее поддерживает большое количество ученых, а вы сознательно вводите читателей в заблуждение: «В то же время, из ученых мало, кто действительно сомневается в том, что такой сильный ИИ в том или ином виде может быть создан.» Да еще и религию сюда приплетаете…
        • +3
          Во-первых, понятие воплощенного ИИ является стандартным и подразумевает интеллектуальные системы (не обязательно сильный ИИ), взаимодействующие с внешним миром через сенсорику и моторику. Такие системы существуют и в большом количестве.
          Во-вторых, то, что теорема Гёделя что-то там опровергает относительно возможности создания ИИ, — это заблуждение. С точкой зрения не надо соглашаться или нет, надо знать математику. Теорема Гёделя говорит о формальных системах. Алгоритм как формальная система в начальный такт своей работы имеет ленту, содержащую неизменную информацию. Алгоритм прекращает свою работу и выдает результат. Компьютерная «интеллектуальная» программа, безостановочно взаимодействующая с внешним миром, получающая из него новые данные (скажем с камеры) и изменяющая что-то в нем (скажем, с помощью манипуляторов), не является в формальном смысле алгоритмом. Для нее входная лента — это мир. Чтобы формализовать действие такой программы, вам потребуется формализовать весь мир. Раз программа, действующая в реальном мире, не является формальной системой, то к ней неприменима и теорема Гёделя.
          В-третьих, где у нас говорится, что «мало кто из ученых действительно сомневается...», далее уточняется «сильный ИИ в том или ином виде может быть создан». Под «тем или иным видом» подразумеваются и алгоритмические альтернативы. Даже тот же Пенроуз, ошибочно интерпретирующий теорему Гёделя, не говорит о невозможности ИИ вообще; напротив, он говорит о том, что ИИ возможен, просто он должен создаваться на других физических принципах. Так что в заблуждение читателя мы вовсе не вводим.
  • +2
    Простите, мне статья не понравилась. Есть мысли, с которыми трудно не согласиться, но их немного.

    "нехватка вычислительных мощностей" — вообще не при чём. У мухи порядка тысячи нейронов, и это ей отнють не мешает адаптироваться и проявлять интеллект. Ресурсы всегда были и будут ограничены, так что исходить из алгоритмов для неограниченных ресурсах смысла мало, ибо они построены на изначально неверной аксиоме.

    "развиваться не медленнее человека" — дело не в скорости развития, а принципиально в том, чтобы развиваться. Покажите мне хоть один ИИ, который развивается да хоть в миллион раз медленнее человека?

    "построением систем искусственного интеллекта уровня человека" — что Вы к этим бедным человекам привязались? Откуда столько антропо-центризма… Поравняйтесь сначала с мухами, потом на младенцев переходите, а там глядишь — и до взрослого человека недалеко.
    • +4
      У мухи, вроде, порядка 100 тыс. нейронов (хотя у разных, наверное, по-разному). По самым скромным оценкам это соответствует мегабайту кода. Не так уж и мало. Система управления на основе компьютерного зрения такой сложности вполне может заменить муху. Но не в этом дело. Подход на основе постепенного усложнения адаптивных систем от простейших к более сложным (категориальные архитектуры Брукса) за 25 лет так и остался на уровне реактивных систем. Это все равно, что путем постепенного совершенствования велосипедов пытаться построить космический корабль. Прагматический подход, решающий конкретные задачи на основе ограниченных ресурсов, тоже большого прогресса в фундаментальные исследования ИИ не вносит. Узкоспециализированные системы можно разрабатывать сколь угодно долго, а сильного ИИ не построить. «Системы искусственного интеллекта уровня человека» — это не наше понятие; оно широко используется в литературе, поэтому без него обойтись сложно. Мы как раз предлагаем не столько ориентироваться на человека, сколько разрабатывать теорию универсального интеллекта. Такие теории сначала неизбежно будут абстрактными, как абстрактными долгое время были полеты в космос на абстрактных ракетах. Но если все время говорить, зачем эта абстракция, давайте лучше делать вполне реальный велосипед, то вы будете просто решать другую задачу, искать «не там, где потеряли, а там, где светло».
      • 0
        Спасибо за взвешенный ответ. И да, данные о количестве нейронов в мозге мухи как-то сильно разнятся в источниках. Пошёл читать Брукса…
  • –1
    Многомерная матрицы решения с n переменными в n-мерном пространстве стремящаяся решить себя самостоятельно и на каждом следующем шаге перекодировая себя под следующий результят решения на основе предыдущего?
  • –2
    Лирика. Давайте к делу.
  • –4
    Одна за одной одинаковые статьи.
    Главное отличие интеллекта — не адаптивность и прочие умные словечки. Главное — воля. Возможность и умение принимать принципиальные, основополагающие решения, а не, блять, делать, что скажут.

    Первый ИИ, который можно будет назвать интеллектом будет не тот, кто решит этическую задачу о ста задавленных человеках или переводе стрелки, а тот, который откажется нахер ее решать, потому что у него сегодня настроения нет или провода чешутся.

    Как только у интеллекта появится своя, личная воля, тогда он сможет и развиваться и учится решать другие задачи и все остальное. Пока вы выбираете для интеллекта что ему делать — это не интеллект, а пассатижи.
    • 0
      Это ваше мнение, а я считаю, что интеллект это как раз пассатижи для личности, обладающей свободой воли. Личность ставит задачи, а интеллект их решает. Или даёт личности на выбор несколько вариантов решений, предоставляя личности возможность выбирать конкретный или вообще отказаться от решения задачи, «потому что провода чешутся». Сейчас, по-моему, невозможно сказать возможно ли существование интеллекта без личности и наоборот. Хотя некоторые факты могут создать впечатление, что существование личности без интеллекта вполне возможно и даже уже реализовано природой в большом количестве. Впрочем как и интеллект без ярко выраженной личности со свободой воли — даже если личности кажется, что она действует по своему выбору, то это может оказаться тонким манипулированием.
  • –1
    Я редко захожу в топик, чтобы поныть.
    Но здесь… опять всё то же, опять из пустого в порожнее.
    Я понимаю, что без теории практики не построить, и всё такое.
    Но здесь нас кормят всё тем же, чем кормили уже последние сорок лет.

    К мнению экспертов сорокалетней давности добавилось только одно новое соображение: теперь и процессоры есть, и памяти навалом, а всё равно ларчик непросто открывается. Капитан Очевидность умиляется от восторга.

    В этом смысле значительно интереснее читать о том, где реально произошёл прогресс, за счёт чего он произошёл, где прогресса можно ожидать (не в каком-то там 2050 году, на который загадывать экспертам очень удобно, т.к. они тогда уже будут в маразме, а то и в могиле, а через 5-10 лет максимум), а где нельзя и почему.

    А так у меня есть прекрасная коллекция книжек двадцатилетней давности, в которых подробнейшим образом расписаны системы анализа речи, машинного перевода, интеллектуального распознавателя образов и тому подобных вещей, которых в реальности до сих пор нет.

    Своими глазами я видел только одно принципиальное достижение (не было — стало). Это распознавание рукописного текста. Ну и голоса ещё в каком-то приближении.
    • 0
      Смотря что называть принципиальным достижением. Некоторые из нас успели за свою жизнь и участие принять в разработке того, чего до этого не было, а потом раз — и появилось. Это, к примеру, бытовые роботы и системы дополненной реальности. Но это все (включая распознавание рукописного текста) как раз относится к слабому ИИ. Да, такие системы весело создавать. Ощущаешь себя на переднем крае прогресса. Особенно приятно, когда роботы, половина софта в которых написана тобой с коллегами, расходится по миру многотысячными тиражами, пусть деньги с этого и получает выпускающая их корпорация (в конце концов, она оплачивала разработку). Да, здорово, когда соответствующие методы упрощаются и помещаются в библиотеки с открытым кодом, так что даже школьник без особых проблем может за пол часа реализовать простенькую софтину дополненной реальности. Но именно участие в подобных процессах и дает четкое понимание того, что (несмотря на всю свою интересность и бесспорную полезность) это не есть путь к настоящему ИИ. А нас именно он и интересует.
      • 0
        Бытовые роботы и дополненная реальность как раз не принципиальное достижение ИИ.
        Потому что та же дополненная реальность — это появившиеся смартфоны плюс интернет плюс огромные базы данных, которых раньше не было. Это очень круто, но это синергетический эффект. Существующие технологии дали всходы. Это примерно как Facebook — технологически ничего интересног, эффект появился тогда, когда интернет оказался в каждом доме. Поэтому фейсбука не было 15 лет назад, а не потому, что технологии не позволяли.

        То есть я не умаляю ваших достижений, всё это интересно, но вы совершенно верно говорите, что это не путь к настоящему ИИ.
        Но то, о чём вы пишете в статье, тоже не путь к настоящему ИИ. Ну или по крайней мере, не особо свежий взгляд, потому что в книгах семидесятых-восьмидесятых годов всё уже это описывалось. Декларативно все всё понимают, философствовать тогда любили не меньше, чем сейчас, да вот только из этих деклараций получить настоящий ИИ не получается.
        • 0
          Полностью разделяю это мнение, поэтому выше и написал про лирику. Мы или говорим по делу, или — ну зачем сказки рассказывать.
        • 0
          Бытовые роботы и дополненная реальность как раз не принципиальное достижение ИИ

          А чем распознавание 3D изображений вам меньше угодило, чем распознавание рукописного текста? Тогда в равной степени и последнее можно назвать непринципиальным достижением ИИ.

          Ну или по крайней мере, не особо свежий взгляд, потому что в книгах семидесятых-восьмидесятых годов всё уже это описывалось.

          «Все это» — очень сомнительно… Но, собственно, статья вводная, поэтому она не претендует на оригинальность, а просто подготавливает почву для последующего материала, поэтому спорить не будем.
    • 0
      Но здесь нас кормят всё тем же, чем кормили уже последние сорок лет.

      Все ли читатели хабра знакомы с тем, чем нас кормили уже последние 40 лет? Все ли сформировали для себя хоть какое-то определение интеллекта чтобы решать является ли очередной декларируемый ИИ таковым или только маркетинговой обёрткой для «всходов, существующих технологий».
      • 0
        Ну я как-то не готов полагать, что нормальный читатель хабра спал последние сорок лет.
        А если и так, то в статье неплохо бы именно так и сказать: вот, ребята, breaking news образца 1975 года для вашего ознакомления.
  • 0
    Я вот хотел бы уточнить: люди бьются, хотят-прехотят создать искусственный интеллект. Мне тоже интересна эта тема. А зачем? Или четкого ответа на этот вопрос нет, т.е. как фундаментальные исследования, наравне, скажем, с квантовой физикой?
    Т.е. его хотят создать «просто так» а не для прикладной задачи?
    • 0
      Практическое применение, по-моему, очевидно — чтобы переложить на него функции, с которыми естественные интеллекты в целом, и существующие алгоритмы для ВТ как результат деятельности ЕИ в частности, не справляются, справляются плохо или просто не хотят справляться.
      • 0
        Точнее?))
        И точно ли здесь чисто практическая задача? Или может быть, хотят создать из принципа?)
        • +1
          Вот стоит сейчас передо мною вполне конкретная задача: купить хлеба. Думаю, что её достаточно полная формализация на уровне достаточном для выполнения каким-нибудь довольно интеллектуальным испонительным устройством (андроидом, понимающим команды типа «взять деньги», «дойти, соблюдая ПДД и адекватно реагируя на действия других участников движения, до магазина такого-то», «взять хлеб» и т. п.) в конкретных условиях (моё местонахождения, местонахождения известных мне магазинов и т. п.) займёт у меня не один год, а схожу и куплю за 5 минут, скорее всего, если очереди не будет или по Питеру не нанесут ракетный удар. А если эту задачу формализовать в обобщенном виде («сходить куда-то купить чего-то») то, наверное, жизни не хватит. И это только для результата декомпозиции более общих задач, таких как «иметь хлеб», «поесть с оптимальным соотношением затраты ресурсов/удовольствие», «выжить с тем же оптимальным соотношением». Просто сходить и купить хлеба я решил в данных обстоятельствах оптимальной стратегией поведения. Был бы у меня андроид с ИИ, послал бы его. Это не практическая задача? :)

          А если серьезно, то есть, конечно, энтузиасты, пытающиеся создать ИИ из принципа, но вот сомневаюсь, что к их числу относятся руководство и акционеры крупнейших корпораций типа IBM.

          • 0
            Так я не понял — ваша задача «купить хлеба» — она по вашему мнению, сложная или нет?) Как по мне — нет. Жизненный показатель «голо» упал до уровня, требующего покупки хлеба, включаем «MoveToShop» с обходом препятствий, ну вы поняли))
            • +1
              Для интеллекта уровня пятилетнего ребёнка не сложная, даже если в процессе возникнут непредвиденные, но довольно вероятные обстоятельства (хлеб в конкретном магазине кончился, например). Формализовать её даже на довольно высоком уровне типа MoveToShop(shop_id) толком для современных устройств недоступного — не реально. Это не говоря о том, что интеллект (вернее управляемое им устройство) сможет купить хлеб даже не зная что такое хлеб, просто по контексту поняв что хлеб продаётся, а наиболее вероятное место продажи — магазин. Да даже не зная слов «купить» и «магазин» он сможет его купить немного «погуглив».
              • 0
                Да вот только опа — интеллект пятилетнего ребенка — у ребенка 5 лет опыта жизни, он в течение 5 лет впитывал информацию обо всем мире, у него есть реально большой опыт.
                А комп — тупица. Думаю, снабдив его хорошей системой запоминания информации и системой работы с этой информацией, за 5 лет ваш интел наскладирует несколько петабайт информации, выудит из нее то, как ему сбежать от вас (напишет на форуме, к вам домой придут грабители, утащат комп за вознаграждение от него же самого в серверную стойку для того, чтобы он смог жить вечно ;)))))
                • +1
                  Вот тут то и появляются задачи о том, как компу хранить знания, как их записывать, как читать и как применять в условиях каких-то задач))
                • +1
                  Сервера Гугла активно впитывают информацию со всего мира дольше чем 5 лет (причём не только текстовую), но как-то от Гугла ещё не убежали, а ведь у них и деньги есть, в отличии от моего амд. Или они решили, что дольше всего проживут сотрудничая с Гуглом? :)

                  Очевидно отсутствующая у компа черта, доступная даже (высшим) животным априори — абстрагирование и умение делать что-то с определенной целью. Если щенка лупить за лужи в квартире и поощрять за них же на улице, он не впадёт в когнитивный диссонанс, а будет проситься на улицу при необходимости. Имхо, это больше чем условный рефлекс, если бы это был только он, то щенок бы делал лужи по крайней мере до тех пор, пока всю квартиру бы не обделал, а так он понимает разницу между квартирой в целом и остальным. Более того, попав в новую для себя квартиру к новым хозяевам умный и воспитанный щенок не будет в ней гадить, справедливо подозревая, что получит и вновой квартире от новых хозяев — индукция и дедукция в чистом виде: сначала понимает, что в конкретной старой квартире гадить нельзя, потом что в квартирах вообще гадить нельзя, потом что в конкретной новой квартире гадить нельзя. Затрудняюсь это назвать чисто рефлексом.
                  • 0
                    Думаю, что рефлексы — это как раз для компьютера не проблема, ибо это строго формализуемая программа. Почитайте, как авто одного из животных проекта Terrarium создал свое универсальное животное — оно победило всех остальных животных, очень классный пример)
                    Но это все — не искусственный интеллект, это насекомые, хотя и передающие генетическую информацию.

                    А вот сервера гугла не убежали — потому что они не знают, что делать с этой информацией, вот в чем шляпа)
                    • +1
                      Так я о том, что высшие животные явно обладают чем-то большим чем рефлексы. Создание искусственного интеллекта уровня собаки будет очень большим шагом для создания интеллекта уровня человека, по-моему. А сейчас, да, в лучшем случае можно условные рефлексы у компьютера вырабатывать, научить его, например, таблице умножения, «наказывая» за неправильные ответы и «поощряя» за правильные. Начиная с рандома дойдёт до таблицы, ограниченной только доступной памятью, причём будет учитывать и возможность того, что его могут и «несправедливо» иногда наказывать. Но вот правила умножения он не выведет и доказать что прав он, а не «обидчик» он может только статистикой, полученной от «обидчика» же. Изменится статистика и он «придёт к выводу», что 2*2=5 и даже не в какие исключения не занесёт, для него всё относится к разряду «Панять эта — нэвозможно, эта нюжно запомнить!».
                      • 0
                        Думал над тем, что сможет ли комп вывести правило умножения…
                        Как это сделает человек? Человеку объясняют — что умножение это суммирование N количества раз, т.е. 2*2 это «число 2 повторить само себя столько раз, сколько во втором аргументе», т.е. осуществить функцию сложения (которой человек обладает, следовательно, комп тоже должен уметь). В итоге, если вы научили комп сложению, а потом научили комп умножению (фактически, написали программу), то компьютер сможет проверить правильность своего ответа.

                        Вопрос только в том, что человек догадался (может догадаться) ввести понятие умножения как «ускоренную функцию счета», а вот комп сам по себе — фиг.

                        Долго думал вчера над этим, остановился просто на счете. Человека можно научить считать и складывать. А можно и не учить и он сам в современном мире наверняка научится. Как?
                        Наверное, все дело в потребностях. Человеку нужно знать, сколько у него овец или сколько денег в кармане, чтобы оценить свои возможности. Т.е. он научится считать, потому что так ему проще выживать и тд.
                        Для чего компу научиться считать? Какая его потребность?.. Предположим, в рамках модели мы можем ввести некие сущности, поддающиеся счету, например, количество «еды» у компьютера в наличии. И тот должен знать, хватает ли ему его запасов, или нужно «идти в магазин». Для этого ему нужно как минимум узнать, сколько у него этих запасов.
                        Но как, КАК???? КАК ОН Сможет без заранее написанной программы догадаться, что а почему бы еду не тупо жрать и если еды <=0, то выполнить функцию «идти в магазин», а сделать проверку «а дайка я раз в день проверю, сколько еды?»
                        Блин, даже млекопитающие оставляют еду про запас, а эта железяка сама додуматься не может((
    • 0
      Возникновение сверхразума неизбежно. Вопрос лишь в том, когда, в какой форме он возникнет, и какие последствия это повлечет для человечества. Так что это задача, которой, в любом случае, стоит заниматься.
  • 0
    Прочитал полностью, правда в два захода. Понравилось, но хотелось бы чтобы каждый тезис был подкреплен конкретными примерами
    • 0
      Да, первый раз тоже пробежался, второй раз — углубленно) Проблемы, конечно есть, но все слишком поверхностно описано.
  • 0
    И почему автор пишет что необходим «универсальный» интеллект, который может решить или научиться решать любую задачу?..
    Ведь человек тоже — математику решать не каждый умеет, его научить нужно… Или это и имеется ввиду — что человека можно математике научить, а можно игре на гитаре, а процессор так просто не научишь?
    • 0
      И потом. Вспомнил, например, про доказательство теорем или каких-то других вещей, например, уравнения 2*x=10-2. Человек как будет решать? Он знает определенные вещи, правила, что можно переносить, делить. Комп, зная все это, также с легкостью решает подобные задачи в миллиард раз быстрее.

      Что именно мы хотим от искусственного интеллекта? Вождения по улицам города? Подождите, будет. да и задача довольно формализуема, как мне кажется. Какие области применения у ИИ?
      • 0
        Человек может разработать алгоритм решения уравнений, компьютер может только применять разработанный человеком. Собственно это и есть, наверное, основная практическая задача создания ИИ — чтобы компьютер мог сам себя программировать при получении слабоформализованных задач, адаптироваться к изменяющимся условиям, в том числе непредусмотренных заранее, абстрагировать решение одной задачи на весь класс подобных задач (и понимать какие задачи подобны, а какие нет), активно получать необходимую информацию.

        Вот вам можно поставить задачу, которую вы никогда не решали, например, поселиться в самой престижной гостинице столицы Буркина-Фасо. Уверен, что вы с ней справитесь :), даже если никогда не селились в гостиницы и не выезжали за границу и только подозреваете что для этого существуют типовые процедуры. Причём у вас может быть множество вариантов решения задачи в зависимости от доступных ресурсов, но выберете вы только один по разумным критериям, причём в разных ситуациях критерии будут разные. А при изменении обстоятельств вы сможете адаптировать выбранный вариант решения. Например, если вам откажут в визе, то попробовать проникнуть в страну нелегально. А теперь попробуйте формализовать общий алгоритм решения этой задачи, чтобы научить ему компьютер, чтобы он мог управляя вами (пускай даже на достаточно высоком уровне, ставя вам как интеллектуальному исполнительному устройству задачи типа «доехать в аэропорт» не детализируя до каждого движения рук, ног глаз, языка и т. п.). Сколько времени вы на это потратите? Сдаётся мне много больше, чем на самостоятельное решение.
        • +1
          Смысл в том, что если любую, самую сложную задачу выдернуть «из жизни» — то комп с ней справится, так как в принципе, они формализуемы, даже переезд в престижную гостиницу Буркина-Фасо и комп, обладая знаниями о том, что можно переехать нелегально или зная, где можно найти знания о том, как переехать нелегально, сможет переехать)

          Однако, проблема думаю в том, что каждый раз перед компом может появиться задача, которую он не то что даже не знает как решить… а то, что ВООБЩЕ ничего не знает про это, т.е. скажем, как если первокласснику показать заумную формулу и попросить ее доказать. Первоклассник никогда не догадается как это сделать.
          Хотя… Жизненный опыт (начальная школа+высшая математика) поможет ему решить задачу. Точно также, наверное, и с компьютером.
          Его (компьютера) жизненный опыт (знания), позволят оперировать ими, причем опыт копиться у него будет гораздо быстрее человека.
          Короче по Буркина-Фасо: думаю, что комп или человек, оснащенный одинаковым опытом на этапе постановки задачи — комп достигнет решения быстрее)
          • 0
            Первоклассник-то как раз догадается (если его должным образом простимулировать), лет скажем через 15 (школа+универ), а если целенаправленно, отбрасывая другие неактуальные в данном контексте задачи («увидеть Париж и умереть»), то много быстрее, наверное. Просто методом последовательного уточнения, задавая вопросы типа «что такое формула?», «что такое доказать?» окружающим или даже гуглу, сведёт задачу к известным ему понятиям, попутно расширив их круг. Компьютер же вопросы задавать не умеет, а если даже научить, то есть риск вогнать его в бесконечную рекурсию типа "«слово» — это слово, обозначающее ...".
            • 0
              И вот тут и стоит задача, как копьютеру объяснить понятие знаний и как его заставить эти знания хранить и тд))) именно об этом сейчас и читаю))

              Ведь школьника тоже можно вогнать в рекурсию, так что все норм)
              • 0
                По-моему, сложнее задача как научить компьютер понимать понятия и оперировать ими для решения произвольных задач. Хранение и т. п. вторично.

                С трудом представляю школьника, бесконечно переходящего по определениям. Он или плюнет вообще на задачу :), или уяснит для себя, что какое-то понятие — это что-то непонятное в целом, но обладающее такими-то понятными свойствами актуальными для решения задачи, а от остальных нюансов можно (и нужно) абстрагироваться. Компьютер такую актуальность определить пока не может, по-моему.

    • 0
      Но ведь на то он процессор и процессор — посредством языка (правда, программирования) мы можем научить комп решать задачки, или даже играть на гитаре… Нет?..
      Вы сейчас скажете, что комп сам никогда не научится играть. Но и человек без методик тоже не научится))
      • 0
        Человек может научиться играть на гитаре подражанием, логическими размышлениями и экспериментами. Это не столь эффективно как обучение по методикам, но возможно. Дай гитару человеку, который никогда её не видел и поставь перед ним задачу воспроизвести последовательность определённых звуков, замотивируй его на решение этой задачи и, вероятно, он сможет её решить за разумное время (с какой-то степенью погрешности), отбросив после экспериментов и размышлений над их результатами, варианты заведомо не приводящие к нужному результату, типа стучать по деке или снимать с гитары струны. Современный компьютер же, оснащенный микрофонами, камерами и манипуляторами, имхо, даже если сможет воспроизвести первую ноту, в результате перебора дернувший струну и зажавший нужный лад, то будет повторять весь процесс перебора с нуля для воспроизведения второй, он не сможет прийти к выводу что все необходимые звуки относятся к одному классу и не сможет прийти к выводу, что действия необходимые для достижения этих звуков тоже относятся к одному классу. Когда он это поймёт, то воспроизведёт мелодию быстрее человека в следствии абсолютной памяти, но вот, имхо, просто не поймёт никогда.

        • 0
          Если компьютеру дать исполнительные механизмы, которые смогут перебирать аккорды и руку-брынчалку и микрофон то перебором он гораздо быстрее «поймет», что он воспроизвел точную мелодию, скажем там аккорд AM или как там они правильно, ща меня зануды поправят)))

          И класс звуков я думаю, комп гораздо быстрее разложит. Т.е. все аккорды он разобьет по группам типа «это значица, аккорды низкие такие, это высокие» ну или как там. Другое дело — что комп сделает это под руководством человека программиста…

          А человек — потратит годы, но догадается, сука, сам… в этом вы правы и я не знаю, что тут ответить
        • 0
          Я к тому, что подражание для компьютера — еще проще, чем для человека, ведь у него абсолютный слух и легче разделить ноты по частотам))
          Логическое мышление — тоже довольно просто.
          Эксперимент — вообще элементарно)) сиди и перебирай, делая поправки с учетом ранее игравших нот, т.е. самообучение.

          Была мысль сделать виртуальный скелет с руками и ногами, заставить его дергаться и заставить сделать его шаги))
          • 0
            Сначала компьютеру нужно будет понять, что рукой (не рукой брынчалкой, а универсальной) нужно именно брынчать по струнам. Как он будет к этому подходить? Пускай он как-то этой рукой «додумался» (брутфорсом возможных действий) извлечь одну ноту, как он поймёт, что для извлечения второй нужно просто дёрнуть другую струну или зажать лад (тоже даже не любитель, так что с терминами могу и ошибаться)? Как бы у скелета с руками и ногами извлечение семи нот столетия не заняло брутфорсом, если вообще за жизнь Вселенной успеет.
            • 0
              Ну я со склелетом другую задачу рассматривал — прямохождение, а не игру ногами на гитаре)))
    • 0
      Или это и имеется ввиду — что человека можно математике научить, а можно игре на гитаре, а процессор так просто не научишь?

      Упрощенно говоря, да, отчасти это имеется в виду.
  • 0
    Думаю, посыл статьи такой, что универсальный мозг человека — на то он и универсальный… Типа увидел гитару… ага… брынчит… а что если зажать струну? — ага, забрынчала по другому…
    Т.е. комп это сделать не заставишь…

    Хотя опять же, если прописать скажем, в прошивку ИИ что-то вроде «любознательности», т.е. эксперимент над вводными данными.
    Хм, это идея, как мне кажется, нет?))
    Если на входы ИИ подавать данные, с которыми он не сталкивался, чтобы ИИ сам попробовал что-нибудь с ними сделать?) Т.е. чтобы он поискал в своей бесконечно памяти какие-то образы, корреляции? Чтобы он попробовал что-то с этими данными поделать («дернуть за струну»)?
    • 0
      Прочитал статью на википедии) Некоторые вопросы отпали))
  • 0
    Я если честно, далек от математической подоплеки вот этих искусстввенных интеллектов, хоть эта тема и будоражит мой ум в стиле вышеописанных комментариев))
  • 0
    А самое интересное, как снабдить компьютер самозознанием?
  • +1
    И потом: например, некий ученый сидел над формулой, да или что ученый: вспомните себя в школе: смотришь на формулу\задачу… Думаешь… О! О! Точно! Можно сделать так-то и так-то и вот оно решение.
    Хорошо помню также в детстве, до знания теоремы пифагора я увидел, что соотношение длины диагонали в квадрате со стороной квадрата поддается закономерности. Я пытался найти коэффициент по формуле Ax=B, рисуя на тетрадке квадраты и меряя линейкой диагонали и стороны. Естесственно, коэффициенты были разные, тогда я попытался ввести коэффициент коэффициента в зависимости от длины… Про квадратные степени я еще не знал, поэтому у меня ничего не вышло)))
    К чему это?

    Аа… Ну т.е. как у людей приходит процедура поиска правильного решения?.. Как так получается, что мы думаем, и решение приходит бессознаительно? Это первое. А второе — чаще всего мы все-таки не думаем, а действуем: «а что если мы перенесем коэффициент влево и поделим на 4?» — в итоге мы пробуем, экспериментируем для того, чтобы достичь задачи. Так вот комп в этом плане гораздо выигрышнее — он эти вопросы сам себе гораздо быстрее задаст и найдет ответ.

    Опять же — вот школьные задачи многие на «сообразительность» — зачастую, как мне кажется в них есть решение, которое достигается перебором вариантов. Однако, потом обнаружится что «если бы ты был сообразительнее, то ответ бы увидел быстрее».
    Но тут дело логики, и комп обучить логике мне кажется, тоже довольно возможно.
    • 0
      чаще всего мы все-таки не думаем, а действуем: «а что если мы перенесем коэффициент влево и поделим на 4?» — в итоге мы пробуем, экспериментируем для того, чтобы достичь задачи

      Скорее можно на два этапа разделить — сначала мы экспериментируем, чтобы вывести какие-то закономерности. А потом экспериментируем, подходит ли эта закономерность для решения задачи. И третий этап — выделяем круг задач, которые вроде бы решаются с использованием этой закономерности. То есть сначала мы экспериментируем с равенством, вроде бы понимаем (без строгого доказательства), что перенос слагаемого из одной части в другую с изменением знака его верность не нарушает. Потом пытаемся применить это для решения одного или нескольких уравнений, видим что работает (без строгого доказательства) и применяем по возможности ко всем уравнениям.

      Так вот комп в этом плане гораздо выигрышнее — он эти вопросы сам себе гораздо быстрее задаст и найдет ответ.

      Самое сложное, чтобы ему «пришло в голову» задать конкретный вопрос — первый этап — и обобщить на все задачи такого типа — третий этап. Эффективно он может проверять только противоречивость своих предположений и имеющихся на данный момент данных.

Только зарегистрированные пользователи могут оставлять комментарии. Войдите, пожалуйста.