Пользователь
0,0
рейтинг
7 января 2014 в 13:48

Встречайте Intel Edison — компьютер размером с SD-карту

image

Сегодня, на выставке CES 2014 Intel представил двухядерный компьютер размером с SD-карту со встроенным WiFi и Bluetooth на представленной ранее Quark SoC. Кроме того, компьютер работает на ОС Linux и может конектиться к специальному app store.
Предполагается, что компьютер будет использоваться для разработких новых носимых устройств, и Intel не был бы Intel если бы не создал поощрительное соревнование по разработке таких устройств — «Make it Wearable» с призовым фондом в $1,3млн и $500,000 за первое место был обьявлен сразу же на выставке.
Виталий @icegreenberry
карма
64,0
рейтинг 0,0
Реклама помогает поддерживать и развивать наши сервисы

Подробнее
Реклама

Самое читаемое

Комментарии (124)

  • 0
    В разных источниках написано по разному: где то говорится про разработку устройств, где то про разработку приложений. В любом случае можно ссылку на сам конкурс?
  • +1
    Вот это уже интереснее, чем минновобоард.
  • +7
    То есть, SD-ху уже не надо препарировать, чтобы достучаться до консоли?
  • +39
    Теперь, дополнительно к паяльнику и осциллографу, надо будет покупать еще и микроскоп.
  • +5
    Выходы, питание, производительность?
    • +13
      400 MHz, выводы похоже как у SD карты
      вот еще картиночка покрупнее

      • НЛО прилетело и опубликовало эту надпись здесь
      • 0
        Да любопытно, что на вашей фото Intel Edison изображено несколько другое размещение и разводка микросхем, чем на фото в заглавии статьи.
        К чему бы это?

        Изображены разные экспериментальные вариации Intel Edison?
        Или в Intel не смогли накупить одинаковых микросхем?

        Да и что там по вашему изображено?
        По-моему тут очевидно, что есть:
        1. сам чип Intel Quark SoC;
        2. наверное есть Флеш-память;
        3. наверное есть Генератор тактовых импульсов;
        4. и что-то ещё?
        • +1
          3. наверное есть Генератор тактовых импульсов;
          Часто устанавливается только кварц (+возможно конденсаторы), а сам генератор и PLL — внутри SoC, с него уже тактирование памяти и периферии.

          Для современного проца на плате точно должны быть:
          — DC-DC преобразователь;
          — преобразователи уровней (выходы sd-карты — 3.3v)
          — EEPROM биоса или efi (мы же о x86), может быть на самом SoC
          — EEPROM для пользовательских данных (скорее всего — чип над процом)
          — SDRAM (может быть на самом SoC, но, скорее, четыре чипа сверху)
          — RF-фронтенд и, вероятно, baseband процессор (на фото это скорее всего чип справа от проца, судя по наличию чип-антенны и противовеса в этом углу)
  • +7
    мм, а зачем его сделали по форме SD карты, он что в слот вставляться может?
    • +5
      Наверное что бы подчекнуть миниатюрность. Мол у нас в размер карты памяти влез целый компютер. Все же SD вещь общеиспользуемая, и в некотором плане может служить мерой размера.
      • +25
        Возможно. Маркетологи посмотрели, на то что сделали инженеры, и сказали «Уголочек отпилить! Будем PR-ить на тему размера SD-карты»
        • +1
          Ага "… и по бокам выемки сделать!"
          Судя по тому что на внешней стороне ничего нет, выходы и питание на обратной стороне как у SD, так что скорее всего они действительно совместимы.
          • +12
            И почему никто ещё не задумался о том, какой прекрасный серверный шкаф получится с такими-то девайсами?
            • 0
              Я задумался, только собрался на Клубничке делать… теперь вот ждать в серии Эдисона :)
            • +4
              Классные сервера на 400 МГц. Что запускать будете?
              • +7
                Кластер, видимо.
                • +4
                  Я вам юнит в кластер стойку принес!
                  Вот тут, под катом!
                  image
              • 0
                умную квартиру ;)
              • +1
                Простой сайт вполне потянет.
      • +4
        Не только. Например Eye-Fi берет питание от слота.

        image

        Чуть слабее интела: 200 MHz ARM CPU
        • 0
          Ну и у Intel всё же не ARM, а x86
          • +3
            Но вот вопрос: а какое там ядро x86?
            Разные ядра x86-архитектуры — обладают совершенно разной производительностью работая на одной и той же частоте.

            Intel упорно не желает рассказывать подробностей про ядро Intel Quark.
            Единственно что известно про Intel Quark, что это: 32-битная x86-совместимая система-на-кристалле, которая меньше по размеру, энергопотреблению и вычислительной мощности, чем процессоры Atom.

            Да ещё мы знаем, что Технология производства этих чипов = 32 нм — т.е. такая же как у современных Intel Atom.

            Дальше можно включить логику и начать рассуждать: за счёт чего они так сильно уменьшили ядро Intel Atom — просто выкинули пару лишних функций типа: поддержки расширений SIMD (MMX, SSE) — и нет же за счёт всего-лишь удаления этих функций не возможно добиться значительного уменьшения ядра. А значит это не ядро Intel Atom!

            Ещё варианты — тупо взять и перепроектировать по новым технологическим нормам (на 32 нм) какое-нито ядро 32-битного старого процессора типа: Intel 486 (1989) или даже ещё более древнее Intel 80386 (1985).
            Скорее всего Intel поступило именно так (это обычная практика Intel — они очень любят долго эксплуатировать свои старые наработки) и если это так, то Intel Quark — имеет всего лишь немного модернизированное и выполненное на 32 нм ядро процессора Intel 486:)
            — Тормоза вы мои 486-тормоза:))))

            Хотя для встраиваемых систем без графического интерфейса может вполне хватить тормозных 400 МГц Intel Quark, но я бы не стал утверждать, что Intel Quark (на 400 МГц) и на старой архитектуре x86 будет заведомо быстрее и мощнее современного 32-битного ARM-чипа на 200 МГц — они могут быть вполне равны по своей производительности, а вот по энергопотреблению современный 200 МГц ARM-чип явно выиграет!
            • +1
              Единственно что известно про Intel Quark, что это: 32-битная x86-совместимая система-на-кристалле, которая меньше по размеру, энергопотреблению и вычислительной мощности, чем процессоры Atom.
              Ну, ещё мы знаем, например, что кэш — 16кб и MaxTDP 2.2Вт, поддерживается NX-бит, скорость работы с памятью до 1.6 ГБ/c.
              См. официальную страницу характеристик: ark.intel.com/products/79084/Intel-Quark-SoC-X1000-16K-Cache-400-MHz
              • +4
                Сума сойти — этот Quark жрёт целых 2.2 Вт!
                Да современные Intel Atom жрут почти столько же — по 3 Вт!
                В чём тут разница-та? И чего же они сумели добиться в энергоэффективности (Производительность / Ватт).
                Intel Quark вроде как спроектирован для носимой электроники и предполагает встраивание в устройства типа SmartWatch — и что я теперь должен в Intel`овских часах менять батарейку каждую неделю?
                Как всегда Intel с продвижением своей x86-архитектуры оторвалась от реальности:(

                Полноценные чипы для планшетов ARM-архитектуры значительно более энергоэффективны и потребляют в среднем 0,5 — 2 Вт.
                Например мощный 5-ядерный процессор Freescale i.MX515 (выпущенный ещё в 2009 году) потребляет всего 0,5 Вт! — см.: «Freescale создала экономичный ARM-процессор для нетбуков с поддержкой открытых платформ Android и Xandros».

                А уж энергоэффективность чипов MIPS-архитектуры вообще для Intel является недостижимой планкой, потому как даже одни из самых мощных на сегодняшний день экземпляров — например 32-битный 1-ГГц чип Ingenic JZ4770 потребляет лишь 0,25 Вт при 100% нагрузке процессора и видеоблоков (кстати он производится с соблюдением устаревших 65-нм норм) — см.: «MIPS готовится к противостоянию с ARM и x86 на мобильном рынке?».
                • +2
                  современные Intel Atom жрут почти столько же — по 3 Вт!
                  Процессоры, или вся система? Quark же включает не процессор, но и 2Гб ОЗУ и встроенные контроллеры сети, USB и PCIe. Сомневаюсь, правда, что туда включено по 150мА на каждый из трёх USB портов, но всё же больше, чем один ЦП.
                  Кстати, со страницы описания есть ссылка на страницу с даташитами: communities.intel.com/community/makers/documentation/quarkdocuments в том числе полный 920-страничный Intel® Quark Datasheet
                  Можно качать и читать.
            • +1
              Технология производства 22нм, а не 32нм. Это несколько меняет дело.
              • +4
                А в какую сторону, по вашему, это меняет дело?

                То, что Intel умудрилась сделать по новейшим технологическим нормам в 22 нм чип для носимой электроники жрущий целых 2.2 Вт — вот это достижение:)))))
                Да, для этого надо было очень сильно постараться:))))))))))
                На мой взгляд — это всего лишь доказываете, что они даже и не пытались хоть как-то оптимизировать по энергоэффективности старое 32-битное ядро P54C процессора Intel Pentium от 1993 года.

                Флаг им в руки и электричка на встречу — с таким ленивым (и даже хамским) отношением к потребителям.
                См.: «Intel заморозила завод стоимостью $5 млрд по выпуску процессоров нового поколения» — эта последняя новость как раз подтверждает, то что если корпорация Intel не начнёт кардинальные реформы, и не перестанет впихивать свою неэффективную по энергопотреблению x86-архитектуру в носимую электронику и мобильные гаджеты — то их в ближайшее десятилетие ждёт банкротство.
                Например такое же, какое произошло в 2012 году, с когда-то громадной и страшной корпорацией Eastman Kodak.

                Я лично считаю, что для Intel единственный идеальный вариант идти по стопам корпорации AMD — и выделить все свои заводы в независимую компании, создав нового контрактного производителя полупроводниковых интегральных микросхем — такого же как: TSMC, UMC, GlobalFoundries, и т.д.
                • +2
                  Вы с упорством, достойным лучшего применения продолжаете холиварить, несмотря на то, что Вам указали на то, что это энергопотребление всей системы, в которой кроме самого процессора есть ещё память, вся системная обвязка и беспроводные модули.

                  По поводу энергоэфективности можно будет что-то говорить достоверно только когда продукт попадёт в руки пользователей и можно будет протестировать производительность, энергопотребление и сравнить с конкурентами.

                  К тому же Ваше утверждение о том, что х86 архитектура не энергоэффективна — это ваше личное мнение, попахивающее популизмом и желтизной. Для начала логика говорит о том, что гораздо важнее микроархитектура (наличие OutOfOrder, размеры различных буферов для предсказания ветвления, кешей и прочего), а не архитектура (под коей в данном случае подразумевают просто систему команд). Далее факты говорят, что современные Атомы уже не проигрывают в энергоэффективности современным АРМам. Проблема х86 чимов в мобильном сегменте больше заключается в отсутствии нужной обвязке в SoC и достаточного количества мелких и средних производителей научившихся быстро и дёшево клепать устройства на основе х86 чипов. АРМы же при попытке получить сравнимую с х86 производительность греются куда сильнее, а производительность всё как-то хуже — это всё говорит о том, что дальнейшие пути повышения производительности в современных архитектурах присутствующих на рынке заключаются в реализации сложного оборудования внутри чипов, которое очень хорошо жрёт энергию. И это объектиный процесс, не зависящий от системы команд.

                  Да, и кстати, на новости о приостановке введения в строй завода акции Интела неплохо подросли.
                  • –1
                    Да, да — акции Intel`а неплохо подросли именно потому, что инвесторы вкладывающие деньги в акции Intel наконец-таки увидели адекватное действие руководства Intel.

                    Всем инвесторам уже давно ясно, что для падающего рынка PC-компьютеров (падение которого постепенно происходит уже несколько лет — см.: «В 2013 году рынок ПК показал новые антирекорды», и ещё: «IDC предрекает мрачное будущее ПК») глупо строить ещё один новый завод за 5 миллиардов $
                    — Это уже всем давно ясно (кроме самого Intel), что Intel просто выбрасывает деньги на ветер (притом, что другие уже существующие заводы Intel НЕ полностью загружены заказами и порой простаивают).

                    Инвесторы уже давно настаивают, чтобы Intel пошла по стопам корпорации AMD — и выделила все свои заводы в независимую компанию, создав нового контрактного производителя полупроводниковых интегральных микросхем — такого же как GlobalFoundries.

                    Но при предыдущем руководстве Intel упрямо не хотела замечать проблем (как будто там вся верхушка обкурилась), и упрямо твердила, что вот щас-щас они уж как выйдут на мобильный рынок, прижмут всех конкурентов делающих свои еретические ARM-чипы и тогда-то загрузят все свои заводы (и старые и новые) бесконечной работой — наштампуют миллиарды своих x86-чипов и будут подсчитывать свои монополистские сверхприбыли:))))
                    Да, но это к сожалению просто сны и мечты оторванных от реальности старых дядек привыкших руководить монопольно господствующей на PC-рынке корпорацией.

                    А реальность такова, что рынку НЕ нужны x86-чипы для планшетов и носимой электроники — рынок их не принимает.
                    Хоть сколько-нибудь реально потеснить дешёвые и энергоэффективные ARM-чипы Intel`у никак не удаётся.

                    И получается, что реальный-то рынок для Intel x86-процессоров — это всего-лишь падающий рынок PC-компьютеров:(
                    — Вот и всё, поезд приехал, дальше ехать некуда — тупик! Нужны новые инновационные идеи в чипостроении, нужны эксперименты с архитектурой для мобильных чипов.
                    А оказалось, всё что умеет громадная, монстрообразная корпорация Intel — это строить новые заводы с передовыми техпроцессами, и модернизировать свои старые x86-процессоры — и ничего нового сделать они просто не могут (к сожалению это беда всех старых корпораций-монополистов) :(
                    • +2
                      Они, мягко выражаясь, нужны в:
                      — ноутбуках,
                      — рабочих станциях,
                      — серверах.

                      Падение рынка десктопов не означает, что чипы Intel стали никому не нужны.

                      Это, конечно, если вы имели ввиду x86-64, а не чистый x86, который уже давно никому не нужен (и фактически вымер на десктопах, в ноутбуках и оставался только в виде atom'а на нетбуках).
                      • –2
                        Я ведь ничего и не говорил конкретно про Десктопы — Настольные компьютеры.
                        — Откуда вы это взяли?
                        Может быть выражение «рынок ПК» вы воспринимаете как рынок Десктопов — но извините, это совершенно ошибочно (какая-то безграмотность).

                        Советую вам внимательно прочитать статьи:
                        * IBM PC-совместимый компьютер;
                        * Персональный компьютер.

                        «Рынок ПК» — это общепризнанный термин — обозначающий ВЕСЬ рынок IBM PC-совместимых компьютеров построенных на x86 / x86-64-процессорах!
                        — Этот огромный рынок включает в себя все перечисленные вами виды компьютеров: — IBM PC-совместимые Ноутбуки, — IBM PC-совместимые Десктопы, — IBM PC-совместимые Рабочие станции, — IBM PC-совместимые Сервера.

                        Именно этот самый рынок IBM PC-совместимых компьютеров (на котором последние ~25 лет правят бал два старых монополиста Intel и Microsoft — консорциум Wintel) сегодня падает и ежегодно сокращается всё более возрастающими темпами.
                        Теснимый со стороны мобильных устройств: Планшетов и Смартфонов — разработанных на ARM-процессорах и никаким местом НЕ совместимых с IBM PC-стандартом и никакого отношения НЕ имеющих НИ к Intel, НИ к Microsoft.

                        Именно это очень сильно раздражает как Intel так и Microsft — и поэтому оба эти игрока пытаются каким-то образов влезть на этот новый мобильный рынок Планшетов/Смартфонов.

                        Соответственно Intel пытается выпускать новые мобильные процессоры Intel Atom/Intel Quark для Планшетов/Смартфонов и Носимых устройств.
                        А Microsoft выпустила новую ОСь MS Windows RT for ARM, выпустила свой Планшетник Surface RT, и даже купила целую компанию Nokia.

                        Но у обоих старых монополистов пока ничего не выходит и они не могут занять сколько-нибудь значимые позиции на новом рынке Планшетов/Смартфонов!
                        И обе компании очень боятся остаться «у разбитого корыта» замкнувшись в своём усыхающем Wintel`е.

                        * Microsoft уже почуяла что пахнет жареным — она теряет ширпотребный рынок: начала глобальные реформы и смену руководителя — см.:«Спасут ли Microsoft реформы Балмера?», и ещё: «Стивен Элоп перестроит бизнес Microsoft, если станет главой компании».
                        * Intel пока только лишь осмелилась сменить руководителя — см.: «Кто такой Брайан Кржанич, новый директор Intel?» — да и того выбрали из своей старой команды, так что он пока всё ещё не решается на кардинальные реформы:(
                        • +1
                          Я ведь ничего и не говорил конкретно про Десктопы — Настольные компьютеры.
                          — Откуда вы это взяли?
                          Может быть выражение «рынок ПК» вы воспринимаете как рынок Десктопов — но извините, это совершенно ошибочно (какая-то безграмотность).

                          «Рынок ПК» — это общепризнанный термин — обозначающий ВЕСЬ рынок IBM PC-совместимых компьютеров построенных на x86 / x86-64-процессорах!
                          При этом в статьях, на которые вы ссылаетесь, речь о рынке ПК не включает сервера (и не факт, что включает рабочие станции).

                          Рынок серверов на x86-64 в 2013 году по отчету Gartner упал в деньгах на 3.8%, но возрос в количестве на 4%. По IDC выручка -6.2%, количество -1.2%.

                          Статьи, на которые вы ссылались описывают падение массового потребительского рынка ПК, как вытеснение домашних ПК и ноутбуков планшетами, т. е. касаются только потребительского железа. И вымирать рынок серверов на архитектуре amd64 пока не собирается. Или вы считаете, что там ARM — достойная замена? Может, пора ещё суперкомпьютеры собирать не на Opteron'ах, а ARM-based?

                          И да, я считаю, что, используя ваше выражение, «безграмотно» ссылаться на статьи не осознав их содержание.

                          Советую вам внимательно прочитать статьи:
                          * IBM PC-совместимый компьютер;
                          * Персональный компьютер.
                          Википедия, особенно русская, слабый аргумент. Но даже, если бы вы удосужились заглянуть туда самостоятельно, то увидели бы, что ПК — «настольная микроЭВМ, имеющая эксплуатационные характеристики бытового прибора и универсальные функциональные возможности», что чуть-чуть не совпадает с общепринятым значением понятия «рабочая станция», а тем более «сервер».

                          ARM хорош по энергоэффективности (соотношение производительность к мощности), amd64 — по производительности.

                          Если бы вы перестали фанатично набрасываться на MS и Intel, то увидели бы рациональное зерно в моих словах, что x86-64 не уходит с рынка, т. к. есть в них потребность. Ибо не всё применение компьютеров — потребление контента в сети. Кто-то этот контент должен на чем-то производить и предоставлять, как минимум.
                          • 0
                            Да, но вы ведь всё равно заметили, что «Рынок серверов на x86-64 в 2013 году по отчету Gartner упал в деньгах на 3.8%По IDC выручка -6.2%» — всё равно же упал (и для бизнеса важна именно прибыль в денежном выражении, а не количество произведённого товара).
                            У Intel в I квартале 2013 года «прибыль снизилась на 25 %» — см.: «Кто такой Брайан Кржанич, новый директор Intel?».

                            Так что, в Intel есть серьезные проблемы с прибыльным сбытом своих x86-процессоров во всех сегментах ранка IBM PC-совместимых компьютеров (включая сервера).

                            Да и уже совсем скоро ещё появятся и сервера на ARM64 — см.: «Facebook предпринимает новые шаги для использования чипов ARM в своих серверах», и ещё: «AMD начнёт поставки 64-битных ARM-процессоров для серверов в 2014 году».

                            И причём рынок x86-процессоров падает не только из-за наступления ARM-чипов на всех фронтах, но и просто по объективным обстоятельствам сокращения всей мировой экономики в связи с продолжающимся Мировым экономическим кризисом
                            (Тот самый кризис который вошёл в первую активную стадию в 2008 году и по некоторым прогнозам именно в 2014 году может перейти на новую более глубокую кризисную стадию — так что спрос может сократится во всех сегментах экономики).

                            Вот и получается, что Света в конце тёмного тоннеля для Intel`а я лично пока не вижу :(
                            • +2
                              Учитывая что рынок процессоров и рынок серверов в сборе — это две большие разницы, не факт, что второй сократился в серверном сегменте.

                              Кроме того, исследование IDC, приведенное выше, например, затрагивает только Dell, Oracle, IBM, Fujitsu, Hewlett-Packard, Cisco.

                              Учитывая, что Google, Facebook, Amazon, потребность которых в серверах огромна, покупают whitebox'ы. А агенства оценивают рынок серверов в основном по финотчетам вендоров, делая прикидки, но не зная реальной картины рынка ODM (http://www.wired.com/wiredenterprise/2011/11/server-world-bermuda-triangle/).

                              На 4Q12 Google входил в top-5 производителей серверов на базе процессоров Intel (http://www.wired.com/wiredenterprise/2012/09/29853/). Но при этом Гугл не продает эти сервера. Аналогичная ситуация у Amazon и Facebook.

                              Id est значительная часть рынка серверов не фигурирует в отчетах по продажам серверов. Логично, что вышеперечисленные компании, производя сервера для себя, сократили или прекратили покупку серверов у вендоров.

                              А появление серверных ARMv8 является приятным моментом, который, в том числе, может снизить цены на чипы от Intel.
                              • +1
                                У вас всё так красиво написано, но факты упрямая вещь.

                                См: «Intel огорчила рынок слабым финансовым прогнозом»:
                                «Генеральный директор компании Брайен Крзанич говорит, что Intel сталкивается с падением спроса на ПК в Азии, а также бизнес-заказами на серверные чипы по всему миру...»

                                «Брайен Крзанич возглавил крупнейшего мирового чипмейкера в мае 2013 года. Сейчас он предпринимает большие усилия на фокуссировании компании на мобильно-планшетном направлении, однако существенных подвижек здесь у intel пока нет...»

                                «intel заявила, что компания не надеется на рост показателей на протяжении всего 2014 года...»

                                «По итогам всего года компания ожидает падения продаж на 1,2% до 52,7 млрд долларов.»
                  • +2
                    Вы с упорством, достойным лучшего применения продолжаете холиварить, несмотря на то, что Вам указали на то, что это энергопотребление всей системы, в которой кроме самого процессора есть ещё память, вся системная обвязка и беспроводные модули.
                    Поддержу zboris. Зайдите на ark.intel.com/products/79084/Intel-Quark-SoC-X1000-16K-Cache-400-MHz и посмотрите.

                    Только SoC жрет 2.2 W. Это без учета SDRAM, EEPROM, RF-frontend и broadband processor.

                    Далее факты говорят, что современные Атомы уже не проигрывают в энергоэффективности современным АРМам.
                    Приведите, пожалуйста, эти факты. Крайне желательно — не из маркетинговых материалов Intel.
                    • +1
                      Приведите, пожалуйста, эти факты. Крайне желательно — не из маркетинговых материалов Intel.

                      Например вот: www.extremetech.com/computing/144778-atom-vs-cortex-a15-vs-krait-vs-tegra-3-which-mobile-cpu-is-the-most-power-efficient

                      При этом если говорить о производительности, то Bay Trail (таблеточный Атом) превосходит ARM на голову и сравнивают его теперь всё больше с настольными товарищами. Термический пакет при этом сравнимый и ограниченый батарейкой таблеки.
                      www.anandtech.com/show/7314/intel-baytrail-preview-intel-atom-z3770-tested/3
                      • +1
                        В статье по первой ссылке первоисточник — тот же anandtech. Если посмотреть на методологию сравнения — то она «странненькая». Сравнивать энергопотребление двух процессоров «в idle» по потреблению при открытом home screen'е win rt или android — это ни о чём, извините. Даже перевод в airplane mode, снижающий всплески потребления, не позволяет этим измерениям стать адекватными.

                        Сравнение приложений (тех же js-тестов в браузере) также сложно назвать адекватным. Стоит помнить, что, кроме железа, отличались компиляторы (а история развития оптимизирующих компиляторов под x86/amd64 куда дольше), ядро, стек драйверов и, вероятно, браузеры.

                        Это даже не считая того, что тестирование, направляемое инженером Intel, вызывает некоторые сомнения.
                • +2
                  Lenovo Thinkpad Tablet 2 работает 8-10 часов в режиме просмотра видео через Wi-Fi.
                  У меня есть этот планшет, действительно работает.

                  На x86 (Intel Clovertrail) под Windows 8.
                  И платформа вышла полтора года назад. Так что не надо тут рассказывать про неэффективную по энергопотреблению архитектуру.
                  И благодаря x86, можно, если сильно нужно, и Visual Studio запустить, и Adobe, и полноценный офис — на аппарате менее 500 грамм.
              • +1
                Интересно, откуда такой вывод? На ark.intel.com/products/family/79047/Intel-Quark-SoC/embedded есть только один чип. И произведен он по технологии 32nm, как можно убедится, заглянув на соответствующую страницу.
                • +1
                  Как я писал ниже, это отсюда www.intel.com/content/www/us/en/do-it-yourself/edison.html
                  Информация противоречивая. Похоже придётся подождать чтобы узнать наверняка.
                  • +1
                    Да, согласен. Статья по вашей ссылке, конечно, чисто маркетинговая и не содержит никакой конкретики.
          • +2
            Хотя конечно я возможно перегнул палку, предположив, что Intel Quark — имеет всего лишь немного модернизированное и выполненное на 32 нм ядро процессора Intel 486 (1989 года).

            Ещё можно предположить, что с большой долей вероятности Intel Quark имеет немного модернизированное и выполненное по 32 нм техпроцессу ядро Intel Pentium.
            Скорее всего даже конкретно P54C (1993 года).
            Потому как Intel заявляет, что Intel Edison является «персональным компьютером класса Pentium» (см.: «Intel продемонстрировала компьютер размером с SD-карту»), и так как именно ядро P54C Intel активно эксплуатирует последние годы в таком проекте как Intel Larrabee плавно переросшем в современные чипы Intel MIC.
            Так, что 32-битное ядро P54C давно уже перепроектировано по современным технологическим нормам и последние годы уже много лет находится в активной переработке у инженеров Intel.

            Но всё-равно это устаревшая архитектура и она никак не может сильно обогнать современные ARM-чипы по параметру энергоэффективности (Производительность / Ватт).
    • +1
      Возможно, это именно так.
      Чем меньше размер, тем неудобней воткнуть mini\micro usb, а любой распространенный стандарт лучше своего велосипеда.
      Судя по распиновке SD в википедии (ну и логика, да) есть пины на питание и землю. Т.е. для упрощения отладки, её можно поместить в слот, и она будет питаться от него (хотя не понятно, хватит ли этого по питанию), а связь через wifi/bt.
      Ну и удобный доступ к внутреннему хранилищу мини-компьютера с обычного компьютера.
      • +1
        а связь через wifi/bt
        Можно и SDIO как-нибудь использовать, наверное.
    • +2
      Может потому что существует большое количество готовых комплектующих (разъемы внутренние, внешние, накладные, шилды) для SD?
    • 0
      Возможно, разводка и разводка как у SD сделана для удобства питания и подключения к макетной плате и т.д. Ведь достать разьём под SD карту сейчас можно практически везде, а городить ещё один стандарт не стали.
      Предполагаю, что её можно запхнуть в любой, допустим, фотоаппарат и она заработает.
      • 0
        Раньше фотоаппарат подключали к компьютеру, а теперь компьютер — к фотоаппарату…
    • 0
      Почему бы нет? Вставляешь в фотоаппарат, и сделанные фотографии моментально заливаются в Инстаграм :) Или на ноутбук.
      • 0
        да, это именно так и работает сейчас с Eye-Fi
        как вариант, на телефон — самое удобное, когда в пути
        карточка сама создаёт wifi-сеть, телефон через их приложение подрубается и скачивает новые фотки

        с телефона уже сам решаешь, как выложить
        если напрямую с карточки — они ж неизменными будут валиться
        а с телефона можно подредактировать, выбрать, уменьшить…
        • 0
          Ну да, Интел просекла тренд. А если еще что-нибудь вроде CHDK в фотик подгружать, так вообще красота будет.
  • –6
    Ну и чем оно отличаеться от большинства ARM-подобных SoC? Тут бы информацию поконкретней, а то пока что получаеться очередной SoC, которых множество.
  • +1
    Было бы интересно воткнуть такую карту в dSLR и делать, например, in-camera HDR.
    • +3
      Современные камеры и так уже это умеют, но правда без затей и поэтому результат так себе получается, во всяком случае в Canon 70D. Все-таки к процессу создания HDR надо подходить творчески, а такой ИИ еще не изобрели.
      • 0
        Да, согласен. А что в 70D, уже что-то для этого встроено? Я помню exposure bracketing даже был в камерах достаточно тупой, +-N, то есть один шаг. Сейчас лучше?
        • +1
          Ну там, конечно, есть и просто брекетинг, который можно довольно гибко настроить — максимальный разброс +-3 EV и в этом интервале вроде как можно до 7-ми кадров делать (или даже 11, но я больше 3-х никогда не делал, поэтому тут могу наврать). Причем центр этого интервала необязательно должен быть в нуле. Короче, из этого можно потом на компе собирать хорошие HDR.

          А есть отдельная фича — внутрикамерный HDR, там тоже надо задать +- 1, 2, 3 или Auto EV. Можно включить Auto Alignment, но нет Anti Ghosting'а. И после нажатия на спуск камера, конечно, все равно делает брекетинг (тут вроде 3 кадра без вариантов), но сама склеивает по какому-то алгоритму и пишет на карточку уже готовый hdr jpeg (raw не умеет), а промежуточные результаты выбрасывает. Делается это довольно быстро, секунд 10, наверное.
          • 0
            Интересно, спасибо за инфу. Я как-то привык мучаться в Photomatix, но конечно хочется сразу видеть ориентировочный результат. Тут правда есть еще нюанс что я люблю панорамы снимать, но мне кажется в этом плане софт тоже должен уже дотягивать… по крайней мере в мобильниках панорамы сшиваются. Правда иногда неточно :)
            • +1
              Не умеет софт нормально сшивать. Точнее, либо с артефактами, либо с серьезным уменьшением разрешения. К тому же для сшивки многопиксельной картинки, к какой я привык надо около 10 минут работы 4 ядер i3. Сколько она на этом кварке будет сшиваться? Час, два?
              • 0
                Нда, для такой задачи может даже что-нибудь вроде FPGA было бы и лучше — можно было бы заточить под задачу. А что Photomerge быстро работает, это да, кстати не подскажете, есть ли какие-то альтернативы которые сшивают лучше и быстрее. Что-то мне подсказываеть что при сшивании Photoshop ни GPU ни SIMD не использует, хотя я возможно ошибаюсь.
                • 0
                  Я Hugin пользовался только, других не знаю.
          • 0
            а промежуточные результаты выбрасывает.

            В 5D III можно настроить, что б оставляла 3 промедуточных кадра + HDR jpg.
  • +8
    Ключевой момент — цена. Если будет в районе 20$ для оптовых партий, то это бомба. Если больше, то там уже сильно больше конкурентов и придется играть на чем-то еще.
    • +2
      Например? Что-то соизмеримое по цене ($30~40) с BT+WiFi на борту, пусть даже бОльшего размера?
      • +1
        www.sparkfun.com/products/11395

        $30, но без BT правда.
        • 0
          Спасибо… но тут ключевая фраза — без BT. Месяца 2 уже ищу «такой же, только с Wi-Fi + BT», по цене $30~40.

        • +1
          Там стоит простой микроконтроллер с крохами памяти и ресурсов.
          • –1
            На оффсайте говорят, что там какой-то Cortex-M3, и «Robust embedded operating system with fail-safe firmware updates» и «Virtual machine for vendor firmware». Деталей сходу не нашел.
            • +2
              ну да, ST-шный М3 там, 256КБ ОЗУ, 1МБ флеша, часть из этого отдано на виртуалку

              по частоте он проиграет раза в 2,5-3, по производительности значительно больше
              по памяти тут не понятно, но даже при скромной конфигурации скажем 128МБ ОЗУ + 64МБ флеш разница в памяти будет огромной

              не говоря о том, что на процессоре будет крутиться полноценных линукс, а на микроконтроллере виртуалка с простеньким приложением

              это мопед и минивэн, сравнивать их бессмысленно
        • 0
          Класс. А есть где почитать про использование такой чудо-карточки на русском? Чтобы с хардкорными примерами, типа «поднимаем сервак на sd-карте».
          • +1
            Ну сервак не подняли, но полный доступ к руту получили: habrahabr.ru/post/191742/
        • 0
          Вещь «отличная», лежит 3 штуки, думал будет счастье, НО, эти заразы работают только с их облачным сервисом.
          Только через интернет. И точка. Счастья не случилось, лежат в тумбочке.
          • 0
            Не знал, что все настолько печально :(
      • +1
        Без блутуса есть куча роутерных мозгов под OpenWRT, даже дешевле 20$. Можете погуглить в сторону AR9331.
        • +1
          Спасибо! Но Ключевая фраза Wi-Fi + BT на одной плате.
          • 0
            А какой юзкейс? Добавить BT USB-свисток в TP-Link TL-MR3020 — и уложитесь в 30$.
            • 0
              Для мелкопартийного производства навесные элементы в виде usb-свистков, в моем случае, не применимы. Поэтому и ищу одноплатный вариант с wi-fi + bt.
              Данное решение от Intel, на первый взгляд, идеально подходит. Аналогов, к сожалению, не нашел. Если кто-то предложит еще варианты $20-40 одноплатных linux-based систем с bt и wi-fi, буду премного благодарен.
              Вариант «спроектируйте да закажите изготовление сами» — пока не рассматривается…
              • 0
                Вообще это wireless-модули такого плана дешево делаются на базе Arduino + RF.
                Примеры:
                moteino.com
                pinocc.io
                www.rfduino.com

                В вашем случае подойдет разве что такое.
                • 0
                  Большое спасибо! К последнему варианту присмотрюсь внимательней.
  • +6
    Как там IO делается-то? В смысле, что оно умеет кроме математики?
    • 0
      Прямо представил себе — полки 1U-серверов, где в каждом до дури картоводов под SD, а в каждом — по такому вот «лезвию».

      Правда, wifi+BT для них не нужен, ну да Ethernet развести — дело для вендоров наживное!
  • +2
    del
  • 0
    и может конектиться к специальному app store

    Интересно, это опять речь идет о монополизации процесса установки ПО на компьютер в руках компании Intel с последующим цензурированием ПО, или это просто как опция в дополнение к возможности установки ПО из других источников?
    • +1
      Судя по пресс-релизу, Edison будет открыт и придерживается концепции OpenSource. Скорее всего магазин пригодится простым смертным пользователям, которым не комильфо ставить пакетики через командную строку.
  • 0
    Интересный сценарий использования мог бы быть для роутера, что бы увеличить его производительность.
  • НЛО прилетело и опубликовало эту надпись здесь
    • +6
      Это просто люди с ухоженными руками :)
    • НЛО прилетело и опубликовало эту надпись здесь
  • +1
    О, секундочку… Дык оно же х86 совместимо, вот в чём основная фишка же получается!
    • –1
      Да а толку. Кризисы на 400MHz камне без FPU (или все-же с ним?) вряд-ли потянет. Винду выше версии 3.0 (или 2.1, уже не помню точно) тоже не удастся поюзать — начиная с версии 3.11 начинает страшно материца и не запускаться при отсутствии видео карты. ДОС или какой насмерть кастрированный (с тремя с половиной процессами) линух — самое оно. Но опять же, тот же линух есть под любую архитектуру, и особых прелестей юзать x86 линух, а скажем, не MIPS линух — никаких. x86 было бы хорошо, если бы оно могло всем привычные Автокады и прочие Ворды, но сабж этого явно не может. Поэтому остается только одно — DOS!
      • –1
        А откуда такая уверенность в отсутствии видео?
      • +1
        Да ну, работает винда вообще без видеокарты, сам проверял, заходил на удаленной рабочий стол. Тут больше от материнки зависит — говорят не на каждой так можно. С другой стороны нафиг винда на 400MHz? Linux и причем не особо кастрированный!
        • +1
          Думаю имелась ввиду установка. Работать-то без видео, оно работает, факт.

          А 400 МГц это не так уж и плохо вообще-то, у меня был в своё время Pentium II 333 МГц на вполне себе функциональной 2k. Про первые распространённые в народе пеньки с 266 МГц (да-да, те что с гордой приставкой MMX) вообще можно даже не упоминать — тоже всё отлично работало, хотя 98-ая винда это уже не серьёзно, конечно.
          • +1
            266 MHz, если память не подводит, это уже pentium 2 были, первые пеньки они бывали и без MMX начиная от 75 MHz.
            Про первый распространенный вы, наверное, с 166 MMX перепутали.
            Установку можно сделать через образ, может быть не совсем тривиально но точно реально.
            Я вообщем то написал к тому, что нафиг тут винда вообще, какие реальные задачи тут может решить винда, которые не сможет linux.
            Плюс же сей штуки на самом деле x86, но как выше писали — неясно что выкинули из чипа, может он будет тормознее схожего ARM.

            • 0
              Ну да, без подробностей это гадание на гуще получается…
              • +1
                Подробности должны быть в даташитах.
                Например:
                Блочная диаграмма

                Фичи процессорного ядра
                • Single processor core
                • Single Instruction 5-stage pipeline
                • 32-bit processor with 32-bit data bus
                • Integrated Floating Point Unit
                • 16 Kbyte, 4-way shared instruction and data L1 write-back cache
                • Integrated local APIC
                • Support for IA 32-bit Pentium x86 ISA compatibility
                • Supports C0, C1, and C2 states
                • Supports Supervisor Mode Execution Protection (SMEP)
                • Supports Execute-Disable Page Protection (PAE.XD)
                И более тысячи страниц прочей инфы.
            • +2
              Да может этот Quark и не тормознее схожего ARM, но для носимой электроники (области его применения) самым важным становится его потребление — а он поразит жрёт целых 2.2 Вт — см.: Intel® Quark SoC X1000 (16K Cache, 400 MHz)!

              Но извините, ведь мощный ARM-чипы для планшетов, например 5-ядерный процессор Freescale i.MX515 (выпущенный ещё в 2009 году) потребляет всего 0,5 Вт! — см.: «Freescale создала экономичный ARM-процессор для нетбуков с поддержкой открытых платформ Android и Xandros».

              Или MIPS-чип, например 32-битный 1-ГГц чип Ingenic JZ4770 потребляет лишь 0,25 Вт при 100% нагрузке процессора и видеоблоков (притом, что он производится с соблюдением устаревших 65-нм норм) — см.: «MIPS готовится к противостоянию с ARM и x86 на мобильном рынке?».

              С одной стороны Intel Quark — это по-сути целая материнская плата, уже вместе с памятью. И его потребление = 2.2 Вт — это по-видимому потребление не только ядра процессора, но и всего его окружения: всех контроллеров и памяти.

              Но всё равно Intel`свская x86-архитектура не может тягаться по энергоэффективности (Производительность/Ватт) с ARM`мами и MIPS`мими — это уже ранее было многократно доказано.
              Зачем Intel тратит кучу деньги на впихивание x86-чипов в носимую электронику совершенно не понятно — потому как для этой новой области применения, нужен совершенно новый софт (ну не нужна там MS Windows), и НЕ нужна там совместимость с классическим x86/IBM-PC софтом:(

              Так зачем же Intel хочет запихать свой Pentium в часы? Ну они же когда то выпускали ARM-чипы (StrongARM/XScale) — и делали это неплохо, зачем нужно сегодня зацикливаться на своёй x86-архитектуре, которая ну никак не подходит для часов?

              По моему они должны либо разработать свою новую энергоэффективную архитектуру для мобильных процессоров (не совместимую с x86, типа RISC-процессоров Intel i860/i960), либо смирится и делать ARM-чипы для носимой электроники, выплачивая очень незначительные отчисления за лицензию компании ARM Ltd.:)
              • +1
                мощный ARM-чипы для планшетов, например 5-ядерный процессор Freescale i.MX515 (выпущенный ещё в 2009 году) потребляет всего 0,5 Вт!
                Он «мощный» только по сравнению с мобильниками того года. Более поздний и более быстрый четырёхъядерный i.MX6Quad в Zealz gk802 без тормозов даже голую Lubuntu не показывает, при том, что греется в металлическом корпусе так, что можно обжечься.
                Но всё равно Intel`свская x86-архитектура не может тягаться по энергоэффективности (Производительность/Ватт) с ARM`мами и MIPS`мими — это уже ранее было многократно доказано.
                Intel, видимо, так не считает.
  • 0
    практически по теме: мы недавно купили попробовать карточку Eye-Fi
    идея неплоха, но пока куча баттхёрта с настройками и тыканий-пыканий, пока заработает…

    По идее, этот эдисон (как один из вариантов применения) должен породить «более лучшую» Eye-Fi-подобную карточку.
    А что — компьютер установлен в виде карточки в фотоаппарате, и никаких компьютерных функций самому фотоаппарату уже и не нужно. Управляешь этим компом с телефона, скажем, или с компа. Как тот же Eye-Fi, только лучше, больше возможностей.
    И фотоаппараты могут стать легче и дешевле.
    • +1
      Фотоаппарату в любом случае нужен свой «компьютер», перекладывать его функции на подобную карточку — глупо. Там почти всегда стоят специализированные SoC, процессоры общего назначения не справятся.
      Вот смотрю я на свой фотоаппарат, который способен пережевывать 6 равок в секунду, делая постпроцессинг, да сжимая все это дело в jpeg. Мощная настольная станция не то что с проявкой равок на такой скорости не справится, даже обычный резайс не сделает.
      Да и меньше и легче фотоаппараты не станут — вес и стоимость процессора в современной камере, это мизер по сравнению со всем остальным.

      А вот кастомные прошивки для карточек типа Eye-Fi все же очень нужны. Нестабильность зачастую связана с глюками софта, да и хочется просто какие то стандартные протоколы обмена.
      • 0
        вы более «в теме», чем я, спасибо за подробности :)
  • +5
    Сервер выпал из бумажника и закатился куда-то под шкаф…
    • +1
      Страсти про уборщицу тётю Зину со шваброй обретают новую жизнь.
  • 0
    Ждём microSD, можно будеть апгрейдить смартфоны (но зачем?),
  • +2
    Вопрос к автору статьи:
    А откуда вы взяли, что «Intel представил двухядерный компьютер размером с SD-карту со встроенным WiFi и Bluetooth на представленной ранее Quark SoC»?

    Почему компьютер-то получился двухядерный, когда Intel Quark SoC X1000 — является ОДНОядерным чипом?
    • +2
      www.intel.com/content/www/us/en/do-it-yourself/edison.html

      The Intel Edison board features a low-power 22nm 400MHz Intel® Quark processor with two cores, integrated Wi-Fi and Bluetooth*, and much more.
      • 0
        Ну т.е. в Intel Edison впихнули не совсем тот самый Intel Quark SoC X1000, который был представлен ранее!
        Вы тогда из своей статьи уберите пожалуйста ссылку и фразу: "… на представленной ранее Quark SoC".

        Потому как то, что было ранее представлено в виде Intel Quark SoC X1000 — имеет ОДНО ядро и выполнено по 32 nm техпроцессу — см.: Intel Quark SoC X1000.

        Да и ещё если возможно попробуйте пожалуйста объяснить: зачем же в носимой электронике типа SmartWatch нужны целых ДВА CPU-ядра?
        На мой взгляд в носимой электроники нужно минимальное энергопотребление:(
        И мне очень интересно как Intel собирается использовать эти ДВА ядра в часах?
        • +1
          Одно ядро будет таймером, а второе — выводить время на экран, конечно же ,)
        • 0
          Например, одно реал-тайм, жрёт мало и всегда работает. Второе включается когда нужно что-то посчитать. И Quark — это чип, Edison — полноценная система, там даже на фотографии видно что там много чипов внутри.

          Расскажите нам зачем в смартфонах 8 ядер big.LITTLE, а мы тут дружно посмеёмся над идиотами производителями, которые не знают как правильно делать чипы.

          Кстати, а если в Edison окажется более свежая версия Quark, то вы заявите что вас обманули и на этом основании скажете, что продукт отстой? :)
          • +1
            Ну во-первых если бы в Intel сделали более свежую версия Quark — о-ооо, да ихние маркетологи бы не упустили такой возможности, чтобы раструбить об этом на весь мир — об очередной победе на пути к коммунизму одержанной славной корпорацией Intel.

            Ну, что вы реально думаете, что вот в IV-ом квартале 2013 года они с такой помпой только-только запустили в производство версию Intel Quark SoC X1000 (16K Cache, 400 MHz, 1 Cores, 32 nm) — не продали ещё ни одного чипа (только лишь бесплатно раздали всю выпущенную партию заинтересованным разработчикам).

            — И вдруг тут же в I-ом квартале 2014 года, тихо безо всякого шума, запустили производство нового Intel Quark SoC (400 MHz, 2 Cores, 22 nm) — и никому об этом не объявили, и даже не вывесили никакой строчки на странице Products family: Intel Quark SoC.
            Как-то чудно:(
            Какая-то небывалая скромность для корпорации Intel (они обычно на 10 MHz повысят частоту какого-нито своего чипа и то об этом раструбят).

            Я думаю, что тута всё намного проще, просто какие-то маркетологи Intel перепились на Новый год и всё перепутали (не могли на своём же сайте проверить информацию прежде чем публиковать), а может даже и специально вводят несведущую публику в экстазирующий восторг и пугают конкурентов.
          • +1
            > И Quark — это чип, Edison — полноценная система, там даже на фотографии видно что там много чипов внутри.

            Вот этой фразой вы вообще меня насмешили:)))
            Т.е. вы утверждаете, что Intel Edison — это ДВУХ-ПРОЦЕССОРНЫЙ компьютер!
            Нет, ну двух-ядерный чип это ещё как-то можно переварить (хотя я так и не понял, что там надо посчитать-то в носимой электронике типа часов с дисплеем 96х96 точек).

            Вы тут вспомнили смартфоны — так вот по-моему пока-что никто ещё не догадался выпустить НИ ОДНОГО — ни Смартфона, ни даже Планшета, ни Смартбука, ни Ультрабука ни даже компактного Ноутбука на ДВУХ-ПРОЦЕССОРНОЙ платформе — ну таких просто не бывает.

            Пока обычно в IT-отрасли встречаются лишь ДВУХ-процессорные Рабочие станции и Сервера.

            Да и на фотографии прекрасно видно, что все чипы Intel Edison являются разного размера, разного вида и предназначения, ну нету тама никаких двух одинаковых чипов Intel Quark SoC.

            Ну может быть Intel Edison — это настоящий сервер — га-га-га :)))))))))))
            • +1
              Если я всё понимаю правильно, то речь о совершенно разных ядрах для разных целей, а не о двухядерном процессоре в классическом понимании.

              хотя я так и не понял, что там надо посчитать-то в носимой электронике типа часов с дисплеем 96х96 точек

              Если вам надо что-то отобразить на дисплее 96х96, то вам хватит микросхемы, в которой на несколько порядков меньше транзисторов. Идея в том, чтобы устройство было умным — а это значит что там или можно гонять какие-то сложные алгоритмы (машинное обучение, например, не слышали про такое?), или взять какие-то фреймворки/языки из более взрослых платформ и заэнейблить их на маленьком девайсе для простоты работы с ними / скорости прототипирования — тот же JS, например. Это, конечно, прекрасно когда приходится программировать контролеры на Embedded C с ассемблером, но не всех это устраивает.
              • 0
                Извините, но это фантазии:(
                Об этом Intel нигде ничего не говорит!

                Не надо фантазировать, ну согласитесь, что двухядерный Intel Edison — это просто ошибка маркетологов.
                На сайте Intel: ark.intel.com/products/family/79047/Intel-Quark-SoC — нету никаких двухядерных Intel Quark SoC

                И Intel Edison просто не может быть двухпроцессорным компьютером — материнская плата двухпроцессорных систем намного сложнее, на ней на много больше, чем на однопроцессорной системе всяких дополнительных микросхем организующих связь и взаимодействие двух (тем более разных) процессоров.
                • +1
                  www.engadget.com/2014/01/06/intel-edison/

                  Процессор точно 22нм. На keynote сладах CEO ошибок такого рода не бывает. И ядра точно два то тойже причине. Ещё раз — спеки на сайте и слайды CEO — это разные вещи.

                  На счёт природы двухядерности — я останусь при своей гипотезе. К сожалению, до новой порции публичной информации об этом спекулировать дальше не имеет смысла. Но то, что Quark в Edison — это несколько другой кварк, нежели представленный ранее, похоже на правду.
                  • 0
                    Всё оказывается очень просто — в конце статьи Engadget сказано:
                    «It'll be available sometime in mid-2014.»

                    И конечно же к середине 2014 года, Intel вполне может запустить производство новой версии Quark SoC — на 22 нм и с 2-мя ядрами — это похоже на правду:)

                    Только я так и не смогу понять зачем же устройствам типа SmartWatch нужны два ядра — наверное, чтобы быстрее сожрать и прикончить батарейку:)
                    • +1
                      Не имея достовеной информации по этой теме, я поддерживаю ваш последний комментарий. Сейчас есть одноядерные модели, через полгода появятся двухядерные. Это — нормальная практика развития.
                      • +1
                        Вика, опередила меня на одну минуту :)

                        Смотри мой комментарий ниже, я связался с ответственными товарищами и раздобы достоверные факты :)
                        • 0
                          Вике и вам — большое всем прибольшое СпасиБо:)
                          Всех поздравляю с прошедшими Праздниками:)

                          P.S.: Простите, если слишком агрессивно с вами дискутировал.
                    • +3
                      Я проконсультировался с товарищами, занимающимися проектом Edison, и они мне подтвердили, что чип действительно 22нм, действительно двухядерный (в классическом понимании этого слова — два одинаковых ядра на одном кристалле).

                      Как ядра будут использованы в итоге может зависеть от того, где чип будут применять, но один из вариантов — одно ядро бежит в энергосберегающем режиме, а второе включается для того, чтобы посчитать ресурсоёмкие задачи. Факт, что железо допускает такой сценарий использования, всё остальное — моя интерпретация.

                      Так что посыпаю голову пеплом за свою теорию, что будет два разных чипа. Просто я не думал, что удастся реализовать настолько хорошее управление питанием, что можно будет включать-отключать ядро и сильно варьировать его энергопотребление.

                      Да, кстати, всё сказаное мной является публичной информацией, которая озвучивалась во время CES в многочисленных интервью техническим изданиям. Странно, что так мало информации в итоге оказалось в статьях ведущих изданий.

                      Одно из следствий того факта, что чип 22нм — это то, что кушать он будет не 2.2Вт, а заметно меньше.
                      • +1
                        Так там, значит, не Кварк? По крайней мере, не тот Кварк, что уже был представлен и числится на ark'е?
                        • +1
                          Кварк. Только по 22нм технологии и двухядерный. Как отдельный чип он не аннонсирован пока.
                      • +1
                        Стоп. Теперь уже я перестала понимать. Кварк в Edison — НЕ тот, который уже выпущен и есть в ARK. Да? Так что же такое это «Так что посыпаю голову пеплом за свою теорию, что будет два разных чипа»? Или я что-то пропустила?
                        • +1
                          Выше я писал, что возможно двухядерность значит два разных ядра возможно на разных кристаллах. Это не так. Чип двухядерный в классическом понимании этого слова (два одинаковых ядра на одном кристалле).

                          И да, ещё раз, это не тот Кварк, который в ARK, ибо в ARK 32нм одноядерный. Тот, что в Edison он 22нм и двухядерный. Это всё на CES подробно рассказывали в интервью различным изданиям, только как-то всё это затерялось за короткими аннонсами на один абзац, которые всплывают в Гугле на первой странице.

Только зарегистрированные пользователи могут оставлять комментарии. Войдите, пожалуйста.