• Теоретическая Нейробиология. Часть вторая. Сингулярность?
    0
    где же ваша модель хотя бы в виде картинок алгоритмов? :)

    Кроме «модели», картинок и текста сомнительной научности у вас ничего нет. Есть программа генерирующая граф, смысл и значимость которого понятна только вам.
    Повода считать вас экспертом вы не давали…

    «проактивность» мозга — это «факт», который признается учеными. Гуглите целеполагание в контексте AGI(ИИ) и ИНС.
  • Теоретическая Нейробиология. Часть первая. Основа
    0
    Я говорю о том что она работает и устраивает большинству известных фактоа.

    Т.е. у вашей системы есть сознание?
    И можно подробнее о «фактах»?

    И если можно ссылкой или кратко:
    Что такое сознание (в вашем понимании).
    По каким признакам можно определить наличие сознания у системы.
  • Синдром самозванца
    –2
    Наш юный математик видит, что в окружающем его мире то, что ему дается легко, воспринимается как сложное. И на этом фоне у подростка может возникнуть некий конфликт в его представлении о мире: получается, что он в этот мир как-то не очень вписывается.

    Даже у совсем маленьких детей есть понимание, что не все одинаково умны.
    Одно из главных свойств психики/интеллекта — искать(придумывать) объяснения для всего. Ребенок просто решит, что он умнее других. Или придумает еще что-то, что «впишет» его в мир.

    И далее по тексту еще куча притянутых за уши вещей.

    Одни из причин, почему
    среди специалистов в области естественных наук, отношение в целом крайне настороженное.

    — много фантазии и отсутствие научного подхода…
  • Хакер обнаружил три способа обмануть умный пистолет
    0
    Написать ПО, делающее анализ на схожесть чертежа с оружием и отсылающее подозрительные чертежи на проверку (по аналогии с антивирусами) и обязать прошивать все принтеры в России этим ПО.

    Это тоже «малоэффективно». ПО надо внедрять не в принтеры, а в телефоны. Пускай отсылает на проверку подозрительные разговоры и фотографии.
  • Разработчики ИИ вдохновляются мозгом крыс
    0
    Получается что есть (точнее у той сущности что его исполняет). Если бы некое животное от природы производило сортировку пузырьком, то учёные назвали бы это инстинктом.

    Я понял. Мы по-разному понимаем, что такое стремление, желание, мышление и интеллект.

    Вы так и не сказали почему это признак интеллекта

    Если кратко (и не очень научно):

    За принятие решений, и в общем за поведение, отвечает сознание. Оно в некоторой степени есть и у животных.

    Инстинкты это не жестко заданная программа и они не говорят животному/человеку сделать что-то конкретное. Инстинкты связанны с сознанием и влияют на притяные сознанием решения.
    Например инстинкт самосохранения будет сильно мешать вам выпрыгнуть из самолета, даже если вы надели парашют и очень этого хотите.

    Поведение даже примитивных животных не хаотично и оно не является прямой реакцией на окружающий мир.
    Животные могут ставить себе задачи (найти еду итп) и их реакции/действия будут направлены именно на выполнение поставленной задачи.

    Вот в этом и заключается отличие НС от интеллекта людей/животных.
    Без возможности ставить себе цели система никогда не продемонстрирует сложного поведения, которые есть у животных.

    Именно поэтому многие ученые считают целепологание основным признаком интеллекта.

    Что Вы имеете в виду под "«самозарождение» программы в RAM дергая ножки процессора."?

    Другой аналогии у меня нет.
    НС может иметь хардварное ограничение, которое не даст программе самозародиться.
    И надежда получить «программу интеллекта», бездумно вкачивая в систему произвольные данные, выглядит сомнительной.
  • Разработчики ИИ вдохновляются мозгом крыс
    0
    Во-вторых, мы говорим об интеллекте или разуме?

    Об интеллекте..
  • Разработчики ИИ вдохновляются мозгом крыс
    0
    Если ответ «да», то стремится. В данном случае это у Альфаго наблюдается во время партии.

    А у алгоритма сортировки пузырьком есть желание/стремление отсортировать?
    У НС и алгоритма сортировки нет желаний и стремлений. Они ничего не хотят и не могут ставить себе цели/задачи (один из главных признаков интеллекта).

    Для абстрактного мышления нужно создавать категории (т.е. те же самые понятия). НС вполне это под силу.

    Можно пример/ссылку?

    Соответсвенно чтобы ответить на вопрос «что такое интеллект?» надо ответить на вопрос «какие самые важные функции имеет интеллект?». Лично для меня это возможность решать проблемы с которыми неспособны справится инстинкты… В случае с машиной инстинктом будет жёстко заданная программа по решению некой проблемы.

    Ваше определение интеллекта и инстинктов сильно отличается от общепринятого.
    И вопрос не в ключевых признаках интеллекта, а в том как он устроен(алгоритмы).

    Во-первых, я вижу тут явное противоречие. «программа интеллекта» это тоже данные, так что если попытки «попытки создать разум в НС, вгоняя в нее данные, выглядят глупо», то ничуть не менее глупо будет выглядеть оная загрузка.

    Одно дело создать программу и загрузить ее в память, а другое надеяться на «самозарождение» программы в RAM дергая ножки процессора.
  • Разработчики ИИ вдохновляются мозгом крыс
    0
    Можете предоставить критерии для фальсификации своей позиции?

    Да! Вы можете предоставить доказательства наличия стремления у НС. :)

    ВНЕЗАПНО, но вообще-то эта штука называется «абстрактное мышление»,

    Для абстрактного мышления нужно уметь создавать новые понятия. НС делать этого не могут. Им вообще недоступно мышление в т.ч. логическое.

    Тут уже ниже были возражения от меня и redpax.

    Отвечу тут:
    Мозг это нечно похожее на гибрид ASIC и FPGA. Интеллект — это сложная софварно-хардварная «программа», которая «выполняется» в мозге.

    В мозге, кроме интеллекта, есть и другие «программы/модули». Например модули помогающие распозновать изображение и звук.
    Есть, к примеру, модуль отвечающий за обнаружение лиц. И еще куча всего. (гуглите строение мозга)

    Если мы хотим создать интеллект на базе НС нам нужно разобратся с тем, что такое интеллект. После чего разработать «программу интеллекта» и загрузить ее в НС.

    Попытки создать разум в НС, вгоняя в нее данные, выглядят глупо.
  • Разработчики ИИ вдохновляются мозгом крыс
    0
    Он стремится максимизировать свои шансы на победу.

    У НС нет стремления. Она даже не знает что такое победа :)

    Мы обучаем ее таким образом, чтобы результат ее действий привел к победе.
    Если совсем кратко:
    Мы закачиваем в НС результаты игр с разметкой где игрок выиграл, а где нет.
    НС крутая штука и способна обнаружить признаки, по которым можно спрогнозировать исход игры.

    Потом в игре мы просим НС предсказать результат каждого хода и выполняем тот ход, который с наибольшей вероятностью приведет к победе.

    Я очень сильно упростил, но при всей навороченности альфаго в ее основе лежит довольно примитивный принцип, который не имеет ничего общего с интеллектом животных и людей.

    И в чём оно выражается?

    В «обучениии за один раз». Статья с этого начинается.

    Если бы со стратегией у него было «не всё хорошо», то вряд ли бы он побил лучших игроков в Го.

    Я про мышление. АльфаГо может только предсказывать. А вот придумать стратегию не может.
  • Разработчики ИИ вдохновляются мозгом крыс
    0
    Если животное захочет есть, то оно будет искать способы раздобыть себе еду

    Да, а АльфаГо(НС) ничего не хочет. Он не умеет хотеть.
    И со стратегией у него не все хорошо, еду будет сложно найти.

    Ну так по крайней мере у AlphaGo была возможность учитаться на игре против самого себя. Чем это не самообучение?

    Его использовали в качестве генератора данных(ходов) на которых он собирал «статистику»(учился).

    Есть принципиальное отличие в том как обучаются люди/животные и НС. Нельзя приписывать алгоритму наличие интеллекта из-за того, что он чему-то «научился».
  • Разработчики ИИ вдохновляются мозгом крыс
    0
    Наличие способности к самообучению.

    Среди ученых распространено мнение, что главный признак интеллекта — умение поставить себе цель (целепологание).

    Говорить что НС самообучается не совсем корректно. Ее обучают.
  • Разработчики ИИ вдохновляются мозгом крыс
    0
    А можно обратный вопрос? Почему(и кем) считается, что у альфаГо есть интеллект? И какое определение интеллекта при этом используется.

  • Что животные видят в зеркале?
    0
    Я поднял руку вверх и отражение это сделало, я повернулся и отражение повернулось. Чем более развит мозг, тем быстрее до него дойдет, что в зеркале я сам, а не другая особь.
    Никаким осознанием себя там и не пахнет.

    Так главная функция самосознания — это понимание абстрации «Я» и того, что к этому «Я» относится.

    Даже в википедии примерно это написано:
    Самосозна́ние — сознание субъектом самого себя в отличие от иного — других субъектов и мира вообще


  • В Думу внесли законопроект о запрете анонимайзеров и сервисов VPN
    0
    … наличие свободного интернета уменьшает недовольство… не было бы этого выходили бы на улицу. ..


    В интернете много сми (социальныке сети итп) через которые можно распространять «неудобную» информацию и манипулировать населением.

    Мелким чиновникам нужна возможность контролировать информацию о себе.
    Гос. верхушке нужна возможность предотвратить «Цветную революцию» и возможность контролировать настроение населения.

    Для этого и создают «блокировочные» законы… любой ресурс с «неудобной» информацией будет закрываться.
  • В России защитился первый кандидат теологических наук
    +39
    А Religion от чего наследовать?

    FairyTale
  • В России защитился первый кандидат теологических наук
  • Похоже, с помощью нейронных сетей появился шанс слабый ИИ сделать сильным
    –1
    Именно так выглядит задача ИИ для инженеров. Это не создание идеального философского бурбулятора, цель — решать реальные задачи

    Упомянутый мной сильный ИИ это и есть бульбулятор. По определению. Как минимум такая система должна иметь мышление. Как максимум самосознание/сознание.

    Сколько бы не улучшали нейронные сети, сильным ИИ из них сделать нельзя. В принципе.

    Нейронные сети полезны и применяются. Но в некоторых задачах слабого ИИ недостаточно и обойтись без бульбулятора не выйдет.
  • Похоже, с помощью нейронных сетей появился шанс слабый ИИ сделать сильным
    0
    И как вы предлагаете в этом убедиться?

    Задам ей вопрос из Winograd schemas.
    Если вдруг система даст правильный ответ, найдя его в интернете, я придумаю свой вопрос.

    Если нейронная сеть провалит этот тест(а она провалит), то у нее не только мышления нет, она вообще не понимает того что ей говоришь.

  • Похоже, с помощью нейронных сетей появился шанс слабый ИИ сделать сильным
    0
    В какой-то момент, когда станет очень уж похожей, сможет разговаривать и общаться как человек, придется признать ее разумность.

    Если система идеально отвечает на вопросы, то это не значит что она разумна. Системе просто повезло что она знала/просчитала ответы на все заданные вопросы.

    Рано или поздно(на первом же вопросе специалиста) система даст неадекватный ответ и будет видно что «разума» у нее нет.

    Почитайте: Китайская комната

    Для признания системы разумной надо убедится что у системы есть мышление и ее ответы осмысленны.
  • Похоже, с помощью нейронных сетей появился шанс слабый ИИ сделать сильным
    –1
    Сильный/человеческий интеллект это в первую очередь мышление и самосознание.

    Возможность предсказывать и распознавать является следствием работы интеллекта, а не его главной функцией.
  • Похоже, с помощью нейронных сетей появился шанс слабый ИИ сделать сильным
    0
    А также знаем, что наш собственный мозг представляет собой примерно десятислойную нейронную сеть

    Считается что искусственная нейронная сеть и мозг имеют очень мало общего. Функция слоев мозга сильно отличается от функции слоев ИНС.
    К тому же это слишком примитивное описание мозга.

    Ученые уже очень давно поняли что машинным обучением и нейронными сетями настоящий(сильный) ии сделать невозможно.
    Сейчас ученые сошлись во мнении что в настоящий момень нет способов/технологий которые могут помочь в создании сильного ИИ.

    Именно последнее стало причиной появления критических статей о нейронных сетях и о компаниях которые ими занимаются.
  • Роджер Шанк — об IBM Watson
    0
    0.3 — а, 0.4 — е, 0,2 — о, 0.1 — «а буква ли это вообще?

    Вопрос в том как вы получаете эту оценку.

    Представим вы никогда не видели панд.
    Я вам говрю: «Панда — это пятнистый медведь».
    После этого найти панду на фотографиях и в зоопарке вам будет не сложно.

    Сейчас вы смотрите на экран и способны дать целый пересказ того что происходит на экране.
    А что может нейронная сеть? Она скажет:
    — 0.8 обсуждается тема ИИ.
    — 0.9 здесь есть буква А.
    и подобное.

    Суть в том что вы используете аргументы для распознавания изображения. т.е. задействуете мышление.
    А нейронная сеть просто выделяет и ищет важные признаки для классов, которые в нее «залиты».
  • Роджер Шанк — об IBM Watson
    0
    Машин уже умеют это довольно-таки неплохо.

    Здесь стоит определиться с тем что значит «распознавать ».

    Отличить кошку от собаки по наличию 2х зеленых точек(кошачьих глаз) в середине картинки(утрирую) это не совсем то распознавание, что имеют люди и животные.

    Люди и животные способны понимать/описывать видимое пространство/изображение с использованием известных им абстракций.
    И результат этого описания сильно отличается от «0.1 кот, 0.9 собака, 0.5 морковка»

    Тоже самое и с речью.
    Перевести звук в буквы это одно, а попытаться интерпретировать услышанное это отдельная задача с которой у машин сейчас большие проблемы.

    И эти проблемы связанны с полным отсутвием интеллекта(сильного или того, что обычно понимают под этим термином) в существующих системах.
  • Софт ИИ обучается делать ИИ: учёные сообщают об успехах в самообучении искусственного интеллекта
    0
    посмеёмся над наивностью предков

    Нейронные сети и «котики» это обычный хайп на котором компании зарабатывают деньги и репутацию.

    Не стоит думать что НС это мейнстрим в области ИИ и что ученые только сетями и занимаются.
    Ученые(большинство) очень прохладно относятся к нейронным сетям и не видят разумности в НС распознающей котиков.
    И мало кто всерьез считает что НС можно/нужно применять в создании сильного ИИ.
  • Amazon Go — магазин без касс и очередей
    +1
    в России подобный магазин уже запускали в тестовом режиме. Там на каждый товар RFID метки клеились.
    Товар из тележки можно было не доставать, просто проехать через рамку и оплатить в терминале.

    Но обнаружились проблемы: метки часто не читались. Например из за того что товар находился под бутылками.
  • Решение проблемы понимания контекста искусственным интеллектом. Часть 1
    0
    Чуть не забыл
    Вы в своем комментарии пропустили один важный момент: Вы согласны с тем что ваша система не понимает человеческую речь?
  • Решение проблемы понимания контекста искусственным интеллектом. Часть 1
    0
    С чем вы в мой фразе не согласны?

    С каждым словом:)

    Вы ошибаетесь, сознание и самосознание абсолютно различные феномены.

    У вас есть аргументы? Если смотреть википедию, откуда вы любите брать цитаты, то можно увидеть что эти понятия описывают почти одно и тоже:
    Самосозна́ние — сознание субъектом самого себя в отличие от иного — других субъектов и мира вообще; это сознание человеком своего взаимодействия с объективным миром и миром субъективным (психикой), своих жизненно важных потребностей, мыслей, чувств, мотивов, инстинктов, переживаний, действий.

    Сознание — высшая, свойственная только людям и связанная с речью функция мозга, заключающаяся в обобщенном и целенаправленном отражении действительности, в предварительном мысленном построении действий и предвидении их результатов, в разумном регулировании и самоконтролировании поведения человека за счет рефлексии


    Это один из ваших приёмов в комментариях к моим статьям. Вы говорить, что эта функциональность уже реализована, но не подтверждаете ссылкой.

    Вы ставите окружающих в тупик предлагая дать ссылку на проект который использует технологии признанными бесперспективными еще 50 лет назад.

    Из древностей есть https://ru.wikipedia.org/wiki/SHRDLU и https://ru.wikipedia.org/wiki/Cyc
    И еще сотни подобных проектов, которым не повезло оказаться в википедии.

    От ботов мы отличаемся радикально. Боты жестко заскриптованы, при вопросе, которого нет в скриптах — или чушь или общие фразы.

    Глупо считать что вы единственный кто придумал сделать боты менее заскриптованными.

    Даже такой смотивированный критик не нашел белых пятен, ошибок и несоответствий.

    :) А как же ваш бред про детей — дебилов? Вы говорили что у детей 7 лет вырожденное сознание, нет абстрактного мышления и что они не умеют конструировать суждения.

    А что до вашей системы, то все ваши ноухау описываются в википедии. Смотреть «семантическая сеть» и «латентно-семантический анализ.»

    Кстати вы первый перешли на личности. Глупо считать != вы глупый человек.

    Жду вашу следующую статью.
  • Решение проблемы понимания контекста искусственным интеллектом. Часть 1
    0
    Возможно, из-за ограниченности сферы применения Вы и не даете доступа к демке.

    Кому не даем? И почему мы этому «кому» должны что-то показывать?

    Если люди хотят договориться о встрече, то дают в качестве контактов ФИО и телефон, а не обезличенный email:«info@».
    В особенности если встреча нужна вам.
  • Решение проблемы понимания контекста искусственным интеллектом. Часть 1
    0
    Вот ее я приводил в пример к прошлой статье, но не мог вспомнить название.
    Кстати:
    SHRDLU — ранняя программа понимания естественного языка, разработанная Терри Виноградом в MIT в 1968—1970 годах.
  • Решение проблемы понимания контекста искусственным интеллектом. Часть 1
    0
    Хотел бы вернуть нашу беседу к формату научной дискуссии.

    Сложно поддерживать научную дискуссию видя вот это:
    По части наличия его(Самоосознания) у семилетки, то оно весьма вырождено.

    Ни одно суждение он не конструирует сам.


    По части мышления и понимания естественного языка — мы, вроде бы, тоже им занимаемся.

    Нет, не занимаетесь. Мышления у вас нет.
    Язык вы парсите LEX'ом который для языков программирования используется. И в общем подход довольно примитивный.

    А вот термин «сознание» выглядит в этом ряду странно.
    Если взять определение:

    Там есть и продолжение:
    а в узком смысле — «высшая, свойственная только людям и связанная с речью функция мозга, заключающаяся в обобщенном и целенаправленном отражении действительности, в предварительном мысленном построении действий и предвидении их результатов, в разумном регулировании и самоконтролировании поведения человека за счет рефлексии»

    Вообще такие вещи стоит не в википедии смотреть.
    И как я уже говорил сознание и самосознание это почти одно и тоже. Замените на самосознание если непонятно.

    Я не говорил, что нет систем, понимающих речь

    А что я по вашему в своем ответе процитировал?

    Вы странно критикуете. Я сказал, что личности сейчас у системы нет. Есть знания о мире, соответствующие ребенку. Где кто живет? Почему идет дождь?

    Fact Extractor?
    А критикую я вас из за этого:
    У нас есть семилетка(программа), который в чате неотличим от реального ребенка этого возраста.


    Если взять определение, что «понимание — это операция мышления, связанная с усвоением нового содержания

    У вас нет мышления. А нет мышления нет и понимания.
    Если программа записывает в базу данных информацию это не означает что она ее понимает. У вас семантическая сеть — это база данных.

    Вы неоднократно это утверждали в комментариях. Повторюсь: буду благодарен за ссылку.

    Ссылку на что? На древние боты?

    Понятно Ваше желание обесценить. Особенно на фоне того, что у Вас собственное решение в этой сфере и функционалом оно не блещет.

    :) Если вы посмотрите, то не только я вас тут критикую.
    Я веду диалог с вами только по одной причине — вы очень похожи на мошенников искателей доверчивого инвестора. И такое впечатление сложилось не только у меня.
    К тому же ваш бред про детей — дебилов поднимает настроение.

    3. Мое решение крутое.

    При этом демонстрируете весьма ограниченный функционал

    Я никому ничего не демонстрировал. Пара фраз, которые пришли в голову, это не демонстрация.
  • Решение проблемы понимания контекста искусственным интеллектом. Часть 1
    0
    Не совсем понятно, как получился ответ, приведенный на скриншоте про бананы.

    Экспериментировали с заливкой вики, он уже знал:
    Викисловарь: спелый > поспевший, зрелый (о плодах, овощах, злаках)
    Википедия: Банан > название съедобных плодов

    Про обезьян/животных подобного у него не нашлось и он сделал предположение что имеется ввиду банан.

    Можно убрать вики и сказать: банан это плод. Плоды могут быть спелые.
  • Решение проблемы понимания контекста искусственным интеллектом. Часть 1
    0
    Приведенные Вами скриншот с функциональностью явно отличается от нашего решения.

    Вы увидев пару фраз сумели понять «функциональность» нашей системы?

    Системы действительно отличаются. У вас парсер и простые алгоритмы которые работают с семантическим деревом. А мы мышлением, сознанием и пониманием естественного языка занимаемся.

    По нему видно, что ваша система способна на некоторые логические операции.

    Если вы имеете ввиду индукцию и дедукцию, то да. Еще она понимает местоимения и прочие штуки которые затрагивает Winograd Schema Challenge.

    Главное: вы убедились что есть другие системы «понимающие» человеческую речь?
    И мы не единственная компания которая работает в этом направлении и которым есть что показать.

    Это вы приводите пример беседы в вашей системе?

    Это вопрос на который ответит ребенок, но не ответит ваша система.

    Обоснуйте, почему наша система «бесконечно далека», если она понимает простой текст по возрасту и отвечает на вопросы, используя свои знания о мире и новую, только что полученную информацию?

    Записать в семантическую сеть пару фактов — это не понимание. Вообще глупо говорить о «понимании» без наличия сознания и мышления.
    И еще глупее сравнивать систему без мышления с ребенком.

    Вы очень мало понимаете в теме ИИ, отсюда и убежденность в уникальности и крутости вашей системы.
    Думаю существует аналог Эффекта Даннинга — Крюгера для вашего случая.

    Самое главное вы не понимаете какие требования предъявляются к сильному ИИ(а ребенок это сильный ИИ) и что он обязан уметь:
    Сильный ИИ должен обладать следующими свойствами:
    Принятие решений, использование стратегий, решение головоломок и действия в условиях неопределенности;
    Представление знаний, включая общее представление о реальности;
    Планирование;
    Обучение;
    Общение на естественном языке;
    И объединение всех этих способностей для достижения общих целей.

    Существуют и другие аспекты интеллекта человека, которые также лежат в основе создания Сильного ИИ:
    Сознание: Быть восприимчивым к окружению;
    Самосознание: Осознавать себя как отдельную личность, в частности, понимать собственные мысли;
    Сопереживание: Способность «чувствовать»;
    Мудрость.



    От чат-бота мы в корне отличаемся технологией получения ответа. У нас нет скриптов. Ответ конструируется исходя из вопроса и из структуры семантической сети, содержащей соответствующие понятия.

    Семантические сети это старая тема, глупо считать что вы ее первые применили.
    Чат-боты с семантической сетью тоже были и делали похожие вещи что у вас на видео.
  • Решение проблемы понимания контекста искусственным интеллектом. Часть 1
    0
    Опиывать содержине книг он сейчас не может. Только отвечать на вопросы по этим книгам

    Программы делающие это называются Fact Extractor'ы.
    То что вы описываете умели даже боты в IRC.
  • Решение проблемы понимания контекста искусственным интеллектом. Часть 1
    0
    Мне не известны продукты, которым можно сказать что-то на естественном языке и потом, в своих ответах он будет использовать эту информацию и делать это на уровне семилетки. Если Вам известны, буду благодарен за ссылку.

    Ссылку вам я уже давал.
    Вот, читать снизу вверх:
    https://habrastorage.org/getpro/geektimes/comment_images/4cd/f2f/9d1/4cdf2f9d1b6b33d4027952821a42c066.jpg
    image

    на склонения ответов не обращайте внимания, это техническая версия, полную на ноутбуке не запустить.
    Пример с обезьяной демонстрирует понимание контекста(второго типа, по вашей классификации). Система не пытается измерить расстояние и вес связей между словами чтобы понять кто «они».

    «Семантический анализ» система делает через мышление, а не парсер использует.

    Я говорю только об общении, где можно что-то сказать о мире и спросить.

    Уже длительное время не обнаруживались вопросы, не охватываемые нашими алгоритмами.

    Даю первый вопрос: «что ты сегодня делал?». разве это не вопрос о мире?
    Вот еще: «что делал сегодня твой кот?»

    Ваша система ИИ бесконечно далека от интеллекта ребенка. Ваша система это туповатый чат-бот способный отвечать только на определенные вопросы заданные по определенным шаблонам.
  • Решение проблемы понимания контекста искусственным интеллектом. Часть 1
    0
    1. У нас подход в построении ИИ путем копирования структур и процессов психики и мне не известны аналогичные решения.

    Есть системы которые легко делают то, что у Вас на видео. И способны отвечать на значительно более сложные вопросы.

    Есть еще Латентно-семантический_анализ. Если внимательно посмотреть, то видно сходство принципов работы вашей системы(контекста) и ЛСИ.

    2. У нас есть семилетка, который в чате неотличим от реального ребенка этого возраста.

    Ваша система проходит Тест Тьюринга?
    Ваша система провалит тест на первом же вопросе, с большой вероятностью вопрос не будет соответствовать заложенным в систему шаблонам.

    Если вы ищите инвестора и подобными громкими заявлениями пытаетесь его привлечь, то у меня для вас плохая новость. Любой адекватный инвестор захочет провести экспертизу и пригласит специалистов.
    И эти специалисты скажут тоже самое, что написано в комментариях.
  • Решение проблемы понимания контекста искусственным интеллектом. Часть 1
    0
    Куздер не поместился в бакренок, потому что он слишком большой.
    Теперь задаю вам вопрос: «кто большой?»

    Это тоже самое что и:«The trophy doesn't fit into the brown suitcase because it's too large. What is too large?», только слова заменены на незнакомые.

    Люди мой «тест» легко проходят, ваша система его не пройдет.
    К тому же вы не совсем поняли смысл текстов винограда, которые цитируете.
  • Решение проблемы понимания контекста искусственным интеллектом. Часть 1
    0
    Читать, как правило, не умеют. Речь понимают с ограничениями, еще больше ограничений в возможностях высказать мысль, правильно построив предложение. В том числе и для этого обучают частям речи.

    Большое число цыган не ходят в школу, это не мешает убалтывать прохожих так что последние остаются без денег.
    У некоторых дети в 4 года уже очень хорошо читают. При этом не зная что такое существительное и глагол.

    Связь между знанием частей речи и умением читать/говорить точно такая же как между кол-вом пиратов и глобальным потеплением.
    Отождествление корреляции и причинности — ошибка, состоящая в убеждении, что наличие корреляции означает причинно-следственную связь.


  • Решение проблемы понимания контекста искусственным интеллектом. Часть 1
    0
    Не вижу здесь ситуации контекста.

    В местоимении он/она/it.

    Я, как скорее всего, человек, понял из этой фразы только что что-то куда-то не поместилось.

    Не «что-то куда-то», а вполне конкретно что, куда и почему.

  • Решение проблемы понимания контекста искусственным интеллектом. Часть 1
    0
    Самоосознание не связано с пониманием теста. Буду благодарен, если покажете как.

    Самое простое что можно придумать:
    Задаю вашей системе вопрос:«что ты сегодня делал?».
    Представим что систему не программировали на подобный тип вопроса и ваша система не собирает специальным алгоритмом информацию о своих действиях.

    Система должна уметь отличать из кучи событий действия которые могут быть отнесены к действием самой системы. Т.е. система должна понимать что есть ее «Я» и что к этому «Я» относится.

    Сознание и самосознание стоило написать через слеш т.к. это почти одно и тоже.
    Мышление и сознание это проявления работы единого алгоритма, мышления без сознания не бывает.
    А без мышления не бывает понимания речи.
  • Решение проблемы понимания контекста искусственным интеллектом. Часть 1
    0
    возможность назвать части речи в услышанном предложении. Эта возможность у человека есть со школы. Части речи используются для понимания текста человеком

    т.е. до школы люди не понимают речь и не умеют читать?