Sanya Nischebrod Touch — потрогать самодельное будущее


    Осенью прошлого года было представлено достаточно интересное гиковское устройство, совмещающее в себе проектор и сенсорный экран. Маркетологи позиционировали его как устройство в каждый дом, но мы-то с вами знаем, что это чисто гиковская игрушка. Я был в восторге от первых фотографий (фейковых, кстати).

    Но когда была озвучена цена в 150 000 рублей за устройство — как и положено нищеброду, не смог удержаться и высказался в духе «За что, чёрт возьми! Это же очень простое устройство!».
    Технически устройство и правда не выглядит сложным — как и многие гики, proof of concept сенсорного проектора я делал много лет назад и считаю это достаточно простой штукой. Однако, и в личку, и в комментариях к той статье меня попросили чуть подробнее описать процесс сборки. Так и родился проект Sanya N Touch.

    Статья об оригинальном устройстве вышла на ГТ в конце ноября. Как только стало понятно, что надо делать свой проект — заказал проектор. И он очень удачно пришел на новогодние праздники, так что мне было чем заняться в первую неделю января. Основная причина задержки — ожидание заказанного под задачу проектора.

    Цель


    Если Вы — такой же гик, как и я, то вам очень хочется поиграться с тачскрином на проецируемом изображении. Но платить 3000$ за игрушку, которая увлечет максимум на час вряд ли захочется. Цель — создать дешевую альтернативу. Понятно, что воткнуть всё в компактный корпус не получится. Конкурировать на этом поле с фабричным производством бессмысленно. В остальном же — раздолье.

    Оборудование


    Девайс состоит из трех частей:

    1) Проектор
    2) Камера
    3) Компьютер, чтобы всё это считать.

    Проектор




    У меня есть нормальный FullHD проектор, однако он большой, тяжелый и дорогой. Снимать его со стойки, ставить на неустойчивый штатив для экспериментов очень не хотелось.

    Да и, как мы знаем, в оригинальном устройстве FullHD — это фикция. Так что не будем отставать.
    Специально под Sanya N Touch я нашел проектор GM 60 в Китае за 2900 рублей с курьерской доставкой до дома. Кстати, в магазине ledunix год назад такой проектор со скидкой продавался всего лишь за 7000 рублей! 640х480 — идеальное разрешение, однозначно берем.

    +2 900 рублей

    Камера




    Обычную камеру использовать нельзя. Постоянно меняющееся изображение не позволит сколь-либо уверенно детектировать руку пользователя.

    Вариантов два:

    1) Переделать обычную камеру в ИК камеру
    2) Взять готовую камеру глубины

    Есть, конечно, и другие экзотические варианты. Например, можно использовать тепловизор для гарантированного детекта конечностей пользователя.

    Кстати, теплак в комплексе с камерой глубины сводит все артефакты детектирования практически к нулю. Но это ОЧЕНЬ дорого. Хм… Может поэтому оригинальное устройство стоит 150 000?

    Не будем так сильно заморачиваться. Возьмем кинект. Тем более что у меня он уже есть и покупать ничего не надо. К сожалению, кинект сняли с производства, из-за чего цена на оставшиеся комплекты резко выросла. Но можно примастрячить и новый iPhone, в него как раз добавили камеру глубины, аналогичную кинекту.

    Хм… Может в оригинальном устройстве тоже внутри айфон спрятан? Это тоже всё объясняет.
    Мне кинект обошелся в 7600 рублей + адаптер для ПК — в 2700.

    +10 300 рублей

    Компьютер




    Т.к. мы делаем портативный девайс, то под него пришлось прикупить ноут. Есть мнение, что кинект очень требователен к железу. Это ошибочное мнение. Кинект — это просто камера. Зато очень требователен к железу софт, который анализирует данные с камеры.

    Мы же будем работать напрямую с изображением. Хотя, конечно, обработку всё равно придется делать. Ноут я купил Asus X55SV за 2000 рублей. Всё с ним хорошо, но знающие люди уже посмеиваются. Кинект требует USB 3.0 и на USB 2 не заработает нормально, а на этом ноуте USB 3 отсутствует как класс. Поэтому пришлось прикупить PCMCIA карточку расширения для ноута с USB 3.0 портами. Это, мягко говоря, лотерея — кинект весьма придирчив к USB и даже не со всеми честными USB 3 работает. Карточка обошлась в 400 рублей.

    +2 400 рублей

    Всякая всячина


    600 рублей — штатив.
    Обрезки алюминиевого профиля и старая фанера — бесценно бесплатно
    Работу по изготовлению скворечника считать не будем:



    Итого



    16 200 рублей — бюджет данного проекта

    Программное обеспечение


    Нам понадобится libfreenect2, openni и opencv: libfreenect2 отвечает за низкоуровневую работу с kinect, openni — универсальная библиотека верхнего уровня, через которую общаемся с libfreenect.

    Если вы будете использовать первый кинект или, например, asus xtion — изменится только установленный драйвер, а весь код для openni останется прежним. opencv используем для обработки изображения, полученного с камеры.

    Общий алгоритм работы


    Инициализация:

    1. Совмещаем спроецированный экран и изображение, полученное с камеры.
    2. В течении нескольких секунд сохраняем текущее состояние камеры глубины в буфере. Несколько секунд нужны, чтобы накопилась ошибка и в дальнейшем меньше влияла.

    Работа:

    3. Постоянно забираем карту глубины, с помощью opencv находим руку и крайнюю точку руки.
    4. Используем найденную точку в качестве указателя мыши.

    Детали реализации


    Инициализация контекста


    if (openni::OpenNI::initialize()==openni::STATUS_OK)
    {
      if (m_Device.open(openni::ANY_DEVICE)==openni::STATUS_OK){
        m_Device.setImageRegistrationMode(openni::IMAGE_REGISTRATION_DEPTH_TO_COLOR);
        if (m_DepthStream.stream.create(m_Device, openni::SENSOR_DEPTH) == openni::STATUS_OK){
          if (m_DepthStream.stream.start() == openni::STATUS_OK){
            if (m_ColorStream.stream.create(m_Device, openni::SENSOR_COLOR) == openni::STATUS_OK){
              if (m_ColorStream.stream.start() == openni::STATUS_OK){

    openni::OpenNI::initialize() — запускаем openni
    m_Device.open(openni::ANY_DEVICE) — открываем первую попавшуюся камеру. Хорошо работает, если камера одна. Если их несколько, то лучше указывать — какую конкретно хотим открыть.
    m_Device.setImageRegistrationMode(openni::IMAGE_REGISTRATION_DEPTH_TO_COLOR) — просим openi взять на себя работу по совмещению изображений с камер.

    Дело в том, что камер у того же кинекта две. Одна — обычная и одна — камера глубины. И они физически находятся в разных местах. Соответственно, изображение, получаемое от них, различается. И различается оно очень сильно, т.к. у них еще и характеристики разные. К счастью, openni умеет с этим бороться, выдавая совмещенные друг с другом стримы.
    Остальные строки простые — создаем стрим, запускаем стрим.

    Определение фона


    Заливаем экран проектора черным цветом. И в течении нескольких секунд читаем данные с двух стримов. В карту фонового цвета записываем самые яркие значения, в карту фоновой глубины — самые ближние к камере.

    Яркость получаем из RGB по формуле: 0.2125*RED+ 0.7150*GREEN + 0.0722*BLUE

    Фон (глубина):



    Фон (яркость):



    Определение позиции экрана (синхронизация с камерой)


    Благодаря openni изображение с камеры глубины и с обычной камеры геометрически совпадают.

    Значит, если мы сможем определить на изображении с обычной камеры где находится экран — сможем определить и где экран на карте глубины.

    Показываем через проектор белый экран, считываем его и заполняем буфер по следующему алгоритму: если пиксель ярче, чем фоновый — заливаем белым, если темнее — черным.

    На выходе получаем двухцветное изображение:



    Теперь в дело вступает opencv.

    Создаем cv::Mat (матрица, двумерный массив, основной тип в opencv для хранения изображений и других двумерных данных), передав в качестве изображения туда наш двухцветный снимок:

    cv::Mat img(m_ColorStream.resolution.height(), m_ColorStream.resolution.width(), CV_8UC1, m_ColorNoiseMap, m_ColorStream.resolution.width());

    и просим opencv найти все контуры на изображении:

    cv::findContours( img, contours0, hierarchy, cv::RETR_TREE, cv::CHAIN_APPROX_SIMPLE);

    Естественно, он найдет не только экран, но и мусорные контуры, которые появились на снимке.
    Однако, вполне очевидно, что наш контур тот, что обладает самым большим периметром. Так что перебираем все контуры и работаем только с самым большим:

    int screenContourIndex = 0;
        double maxPerimeter = cv::arcLength(contours0[0],true);
        for (int i = 1; i<contours0.size();++i){
            double perimeter = cv::arcLength(contours0[i],true);
            if (maxPerimeter<perimeter){
                maxPerimeter = perimeter;
                screenContourIndex = i;
            }
        }

    Полученный контур соответствует геометрии нашего экрана. Но нам нужно четыре угловых точки, а полученный через opencv контур, кроме нужных нам точек, может содержать еще множество промежуточных точек — если по каким-то причинам четырехугольник на изображении имел не идеально ровные грани.

    Как определить углы?

    В частном случае есть очень простой способ: вписать контур в прямоугольник, в котором ближайшая к каждому из углов прямоугольника точка контура и будет соответствующей крайней точкой экрана.

    Вписать очень просто — само изображение с камеры уже и есть тот самый прямоугольник, в который вписан контур… С большой погрешностью, конечно, вписан… Но это не имеет значения, алгоритм всё равно будет работать в частном случае.

    Теперь поговорим о достижении этого частного случая: нам нужно, чтобы спроецированное изображение не было повернуто относительно камеры.

    Как этого достичь? Расположить проектор и камеру друг над другом. Тут нам и пришлось прикручивать всё на скворечник, сделанный ранее. Скворечник обеспечивает сонаправленность проектора и камеры, что снимает множество вопросов по определению геометрии экрана.

    Формируем коэффициенты для линейного преобразования


    У нас есть 4 точки четырехугольной проекции изображения, полученной на снимке с камеры. У нас есть 4 точки прямоугольника соответствующего экрана. Как преобразовать координаты внутри одной системы в другую?

    Я не буду пересказывать алгоритм, его вы можете найти здесь.

    Единственное, на что хочу обратить внимание — формулы содержат ошибки/опечатки. Их легко обнаружить, если чуть вникнуть в суть формулы. В целом, алгоритм вполне себе рабочий и простой: координата считается как расстояние до одной грани, деленное на сумму расстояний до противоположных граней. Очевидно. Просто. И работает!

    Детект указателя


    То, ради чего всё затевалось и к чему всё готовилось. Начинаем мы с получения карты глубины за вычетом фона. Берем кадр с камеры глубины, проходимся по всем пикселям, которые находятся в прямоугольнике, описанном вокруг четырехугольника экрана.

    uint16_t diff = backgroundValue - currentValue;
    if (diff>HAND_TRACKING_MIN_DIFF){
      if (diff>HAND_TRACKING_MAX_DIFF)
        diff = 0;
      if (diff>255)
        diff = 255;  
    }
    else
      diff = 0;
    *testMap = diff;

    Для каждой точки, если расстояние в точке меньше фонового на HAND_TRACKING_MIN_DIFF и меньше HAND_TRACKING_MAX_DIFF, записываем это значение в восьмибитный массив. Чтобы не выйти за пределы массива, всё что больше 255 записываем как 255.

    Нижняя граница позволяет убрать шум с камеры и ложные срабатывания из-за вибраций, когда камера чуть-чуть приближается/удаляется от рабочей поверхности.

    Верхняя граница позволяет убрать «битые» пиксели с карты глубины. «Битые» пиксели появляются на гранях, которые близки к перпендикуляру к камере.

    После этой операции мы получаем карту глубины, на которой есть ярко выраженная рука. И много постороннего шума.

    Практически все остальные шаги нужны для того, чтобы убрать шумы. Первым делом проходимся блюром. Это уберет мелкие точки с радара:

    cv::GaussianBlur(hMap, img, cv::Size(5, 5),0);

    Затем превращаем полученное изображение снова в двухцветное без градиентов:

    cv::threshold(img,img,10,255,cv::THRESH_TOZERO);

    Данный метод всё, что от 10 до 255 превратит в 255, а всё, что меньше 10 — в ноль.

    Находим контуры.

    cv::findContours( img, contours0, hierarchy, cv::RETR_TREE, cv::CHAIN_APPROX_SIMPLE);

    И рисуем их обратно, но уже с заполнением. Это опять же уберет всякие левые шумы с картинки.

    for (int c = 0; c<contours0.size(); ++c)
      cv::drawContours(img,contours0,c,cv::Scalar(255,255,255),cv::FILLED);
                

    И снова находим контуры. О_О

    cv::findContours( img, contours0, hierarchy, cv::RETR_TREE, cv::CHAIN_APPROX_SIMPLE);

    Зачем?

    Первый поиск может давать несколько сотен мелких контуров на одну руку! То есть алгоритм не может уверенно понять, что рука — это один контур и дает на выходе множество мелких контуров.

    Рисуя их с заливкой, мы получаем стабильное изображение с рукой без разрывов. И следующий поиск даст нам один чистый контур! Можно попробовать самостоятельно объединить контуры, но мне не хотелось возиться.

    Иногда opencv решает, что края экрана — это тоже контур. Иногда запихивает углы экрана в отдельный контур, иногда — в контур с рукой. Находим все точки, которые касаются экрана и безжалостно их удаляем. Может так случиться, что потеряется кусок руки с края экрана, но это ни на что не влияет.

    Если после всех манипуляций у нас еще есть валидные контуры, то находим среди них самый большой, чтобы отсечь остатки шума — если он еще есть. Код приводить не буду — он идентичен тому, что был выше с поиском самого большого контура.

    Окей. После всех фильтраций у нас есть контур руки пользователя. И? Чего с ним делать-то? Нам же нужно взять одну точку и решить, что она будет указателем. Причем точка должна уверенно определяться примерно в одном и том же месте при перемещении и изменении формы руки…

    И как же, чёрт возьми, это сделать?

    Способ есть. Надо перестать воспринимать руку как сложный объект и принять во внимание, что это указатель. Стрела. С осью и точкой на конце.

    Для начала найдем ось.

    Для этого есть отличный инструмент:

    cv::fitLine(contours0[maxIndex],line,CV_DIST_L2,0,0.01,0.01);

    fitLine найдет нам линию, лучше всего подходящую в качестве оси контура.

    Линия задана некой точкой и вектором направления единичной длины.

    Координаты точки находятся внутри контура и больше нам о ней ничего не известно. Поэтому мы выходим в двух направления из этой точки, пока не дойдем до границы контура.

    Как только нашли — у нас есть ось. Осталось решить — какая из точек будет нашим указателем.
    Решение очень простое — какая ниже, та и указатель.

    Подавление дрожания и пропадания указателя


    Указатель, полученный нами, достаточно хорошо работает. Однако, он дергается как умалишенный из-за шума карты глубины и сбоев в работе алгоритмов определения контура.
    Дергается не то чтобы сильно, но раздражающе.

    Применяем два стандартных метода подавления:

    1) Ограничиваем скорость перемещения
    2) Ограничиваем минимальное перемещение.

    К сожалению, ограничение скорости приводит к тому, что быстро перемещать указатель становится невозможным. Плюс курсор визуально отстает от движения.

    Ограничение минимального перемещения мешает совершать точные короткие движения.
    Но в целом результат вполне приемлем!


    Критика


    Вы можете заметить, что у меня на видео очень высоко поднята рука. При кинекте, находящемся настолько высоко, определить касание поверхности практически невозможно. Если расположить кинект так, чтобы он смотрел вдоль стола, то детект касания упростится в несколько раз и станет гораздо более точным. Но! Тогда камера кинекта не сможет использоваться для определения проекционного экрана!

    В оригинальном устройстве положение камеры и датчика касаний не настраиваемо. Если я правильно понимаю ситуацию, попытка поставить девайс повыше (на подставку) приведет к неработоспособности тач-сенсора!

    Но я такого сделать не могу, т.к. у меня нет проектора с коротким фокусным расстоянием и оптикой, позволяющей создавать квадратное изображение при остром угле к поверхности. А городить огромную бандуру, у которой сверху будет висеть проектор, а снизу стоять кинект мне очень не хочется.

    Выводы


    Мне бы очень хотелось покрутить и раскурочить оригинальное устройство, чтобы понять, что же в нём столько стоит.

    По обзорам я не смог увидеть в устройстве ничего уникального, кроме кастомной оптики, которая позволила проецировать аккуратное прямоугольное изображение. Но оценить стоимость производства таких линз я не могу. Так что остаюсь при своем мнение о крайне завышенной цене. Что меня очень печалит, т.к. вполне очевиден провал этого устройства в продажах — значит массовости не будет, значит так и останется игрушкой для редких фанатов.

    P.S.


    Кстати, если использовать 3D DLP проектор + датчик положения очков, наш тач-стол можно превратить в 3Д тач-стол. Но, к сожалению, только для одного наблюдателя.

    P.P.S.


    Есть ощущение, что я не сделал того что обещал. Всё таки работать такая система с полноценным тач интерфейсом не может из-за не ровного детекта касания. Так что буду делать вторую версию, подвешу проектор вертикально вниз, что даст ровную картинку, а кинект расположу вдоль стола, что даст идеальный детект.
    Поделиться публикацией
    Никаких подозрительных скриптов, только релевантные баннеры. Не релевантные? Пиши на: adv@tmtm.ru с темой «Полундра»

    Зачем оно вам?
    Реклама
    Комментарии 46
    • +8
      Вау! Прочитал этот наиГИКчайший текст и испытал нехилый такой когнитивный диссонанс. На гиковском ресурсе статья от упертого гика и не о Маске Солнцеликом, не о разработках (убейтесь ап стену) ископаемых на астероидах и колонизации Марса (по холодку!), не о выгодах чего угодно любого от диванного экономиста галактического масштаба… да как же ты посмел сие здесь публиковать!??
      • +1
        С одной стороны я с вами согласен.
        С другой — ресурс просто перепрофелируется в новостной. Это не так уж и плохо. Аналога умершей Мембраны давно не хватало.
        Но, конечно, значительное уменьшение статей на гик тематику печалит. Да и писать тяжело, потому что на фоне новостей статьи очень быстро теряются.
        Но это норм. Ресурс развивается. А нравится всем он не обязан. :(
        • 0
          Есть более похожие на мебрану аналоги — hightech.fm, dailytechinfo.org
          • 0
            Спасибо, ознакомлюсь
            • 0
              На хайтеке комментариев нет, он скорее на N+1 похож.
          • +2
            Блокчейн и IPO забыли, тьфу на них)
          • +1
            Хммм, как вариант использовать УФ лазеры у которых полоса вместо точки…
            Они будут более точнее, но руку придется подносить ближе.
          • +1
            Leap Motion дешевле кинекта, а реализовать отслеживание руки на нем в разы проще. Ну и без скворечника обойтись можно)
            • 0
              У него же очень маленькая рабочая зона. 60 сантиметров грань.
            • +1
              Делали подобное примерно год назад, вот что получилось — youtu.be/LEAYBiP6414?t=19s
              Идея — создать интерактивное меню для ресторанов и кафе. Проектор+кинект вывешивались на полтора метра над столом. Точность была достаточно высокой, но в идеале ещё нужны датчики у поверхности — без них правильно отрабатывались 9 касаний из 10-ти.
              • 0
                А как вы детектили касание с видом сверху? Неизвестна же толщина пальцев, особенно, если ладонь не прямая, а изогнута вниз.
                • 0
                  Да, сверху. И да, проблемы были. Частично это решалось заданием мёртвых зон, точнее, заданием активной зоны. То есть, детектим появление только если что-то выше 5 см от поверхности и ниже чем 10 см (точных цифр уже не помню).
                  От поверхности надо отступить, ибо на столе может что-то лежать (или складка на скатерти, например).
                  А для того, чтобы указать на что-то («ткнуть» в изображение), надо совершить движение рукой сверху вниз — тут и происходит появление пальца в активной зоне. Гораздо хуже всё работает если человек сидит — тогда его рука практически постоянно находится в активной зоне и начинается хаос(( Вот тут и становятся нужными датчики у поверхности стола.
              • 0
                Напомнило очень интересную разработку граффитчиков более чем 7-летней давности.
                В своё время скачал исходники, но руки так и не дошли повторить дома.
                youtu.be/uDcXyKw42PY
                • +2
                  Лазер просто детектится. Достаточно вебкамеры без ИК фильтра. То есть даже проектор не мешает лазер детектить. Мы так делали детект выстрела в интерактивном тире.
                  Если хотите, могу сделать такой проект для следующей статьи. Не уверен только, что статья на эту тему может быть кому-то интересной.
                  • 0
                    Интересное видео, а откуда вы исходники скачивали? Очень хочется узнать про эту технологию, в сылках под видео не нашел актуальной информации.
                    • 0
                      А о какой технологии речь?
                      • 0
                        В своё время скачал исходники, но руки так и не дошли повторить дома.
                        youtu.be/uDcXyKw42PY
                        • 0
                          Да, я понимаю какую тему обсуждаете. Я не понимаю о какой технологии вы хотите узнать.
                          О проекторах? О лазерных указках? О детекте лазерной указки?
                          Самое «не очевидное» здесь — детект лазера. Но явно используется мощный зеленый лазер. Он на камере очень хорошо виден.
                          • 0
                            Спасибо, теперь понял принцип, по сути рисование происходит на камеру, а далее проектор по сути запоминает то что попало на камеру.
                            • 0
                              Да. При включении проектор по очери в каждом углу рисует белый квадрат, таким образом камера определяет границы экрана. Ну или можно тупо как у меня в статье белое полотно вывести.
                              После этого камера ловит яркие пятна и считает их указателем.
                              Важно, чтобы у камеры был отключаемая автоэкспозиция.
                              Плюсолм, если у камеры съемный ИК фильтр. Без него лазер видно еще лучше.
                  • 0
                    А если сделать лазерную рамку вокруг стола?
                    • 0
                      Получится аналог интерактивной доски, а тут идёя в том, чтобы обнаруживать касание средствами проектора.
                    • 0
                      Получился почти аналог вот этого. А вообще, вещь интересная, но больше just4fun, ИМХО.
                      • 0
                        Название статьи как бы намекает. :)
                        Конечно just4fun, и оригинальное устройство тоже нафиг не нужно в быту и является игрушкой.
                        • 0
                          Ну, если рассматривать то, что у сони, то вещь очень даже полезная (как показано в ролике, на кухне, или в мастерской, когда руки грязные). Но ценник, конечно, не для рядового пользователя=/
                          • 0
                            Если очень постараться — кейс можно придумать. Но это будет высасывание из пальца.
                            Даже в мастерских нормально используют обычные ноуты и планшеты.
                            Не говоря уж о том, что есть проекционные клавиатуры, которые также позволяют не трогая девайс им управлять:
                            image
                            Стоит она 30 долларов. И полностью закрывает кейс «работать грязными руками».

                            Xperia Touch — игрушка, без кейсов практического применения оправдывающих цену.
                            У меня поэтому и бомбануло от цены. Игрушка, которая как игрушка должна быть доступна продается за цену в половину нового авто.
                            • 0
                              уточните страну где новый авто можно купить за 220 т.р.))
                              К тому же для полноценной работы пока что не хватает мыши с лазерной проекцией.
                              • 0
                                «полноценная работа» — это что? уточните кейс.
                                Оригинальное устройство стоит 150 000, а не 110. Во всяком случае в ноябре столько стоило.
                                Самый дешевый автомобиль в России в 2017 году Lifan Smily, с ценой от 319 тысяч рублей.
                                • 0
                                  Полноценная работа, имею ввиду что бы была еще замена мыши. Допустим переключатся между диалоговыми окнами.
                                  Извините перепутал, с Xperia Touch.
                                  • 0
                                    Хм. Действительно 110 000 стоит. Вы правы. Треть цены автомобиля.
                                  • 0
                                    «полноценная работа» — это что? уточните кейс.

                                    В школе, в качестве классной доски, на которой можно «писать» любым тонким длинным предметом (указкой, например), и проектор будет показывать след. И переключение цветов было бы хорошо реализовать: ученик оставляет синий след, учитель — красный. Правда, тут есть два неприятных фактора:
                                    1) разрешающая способность проектора должна быть соответствующей, желательно реальный FullHD;
                                    2) стоящий у доски человек будет отбрасывать тень.
                                    • 0
                                      Зачем?
                                      • 0
                                        1) Невозможно испачкать руки, в отличие от ситуаций, когда пишешь мелом или маркером.
                                        2) Такую электронную классную доску можно легко превратить в наглядное учебное пособие, что избавляет от необходимости хранить в шкафу пачки картонных плакатов.
                                        • 0
                                          Вы предлагаете пальцем по доске водить, чтобы писать? Палец у учителя не сотрется?
                                          • 0
                                            Во-первых, перечитайте ещё раз мой каммент выше, там предложение написано.
                                            Во-вторых, для пальцев есть напёрстки, если уж поблизости не нашлось никакой палки.
                                            • 0
                                              ЯСно. Значит вы все таки про проекционное графити, как в комментариях выше. Это совершенно другая задача не имеющая отношения ни к статье, ни к оригинальному устройству.
                                              Здесь обсуждаются кейсы для которых оправдан оригинал за много денег.
                                              • 0
                                                Я думаю, что человек хочет сказать о том, что это хорошая альтернатива интерактивным доскам. Это позволит проводить более интересные презентации, создать более современные, интерактивные материалы для учебных заведений (писать пальцем/напёрстком так себе идея, но тоже вариант)), коих на просторах интернета много, в первую очередь, для детей. Ведь очень многие вещи станет гораздо проще объяснить на живой анимации, с которой можно делать всё, что душе угодно, нежели на плохо нарисованной картинке учебника с прилагаемым 10-и страничным текстом. Сейчас очень много разных видео (3-Д моделей) с демонстрацией того или иного механизма и т.п.
                                                Короче говоря, кейсов реально много, и все они могут быть реально полезны. Но для домашнего использования согласен — это больше игрушка.
                                                • 0
                                                  Оригинальное устройство не предназначено в качестве интерактивной доски. Как минимум из-за маленькой рабочей поверхности.
                                                  • 0
                                                    Ну, заявлена работа с тачем на диагонали 23 дюйма, но как просто проектор — до 80 дюймов, что для аудитории уже неплохо.
                                                    • 0
                                                      110 000 за просто проектор?
                                                      • 0
                                                        Так, стоп. С Вашей стороны проглядывается предвзятое отношение к данному девайсу из-за ценника — согласен, штучка не из дешёвых. Но при реальном желании, метод работы с ним можно отладить так, как это будет нужно, ведь вещь полезная. Никто не спорит, что устройство не лишено недостатков (как, например, работа тача на маленькой диагонали), но разговор о том, что кейсы полезные есть и устройство (если будут развивать) имеет будущее. Повторюсь, для рядового пользователя это действительно больше игрушка. Но для организаций такая вещь может иметь своё место.
                                                        • 0
                                                          НУ вот мне и интересно услышать эти кейсы.
                                                          Пока было два:
                                                          1) В мастерскую, чтобы не работать грязными руками. Не оправданно — есть альтернатива решающая проблему гораздо дешевле в виде проекционной клавиатуры.
                                                          2) В школу в качестве обычного проектора — есть альтернатива решающая проблему гораздо дешевле в виде обычного проектора.

                                                          С удовольствием обсужду другие кейсы.

                                                          P.S. Я предвзят из-за цены. О чем я сразу и написал. :)
                                                          Но я предвзят не потому что дорого, а потому что не понимаю ценообразования.
                                                    • 0
                                                      Как минимум из-за маленькой рабочей поверхности.
                                                      А с помощью твиков и шаманского бубна её никак не увеличить до приемлемых 80"? Если ответ «нет» — то моё предложение снимается.
                                                      • 0
                                                        К сожалению не видел внутренности оригинального устройства и подробности найти не могу. Но на 99% уверен, что сенсор касания смотрит вдоль стола. Тогда он жестко привязан к конкретной диагонали.

                          Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.