Редактор Гиктаймс
1,3
рейтинг
10 мая 2012 в 15:19

Сеть на кристалле — мини-интернет внутри процессора

Мы уже смирились с тем, что рост тактовой частоты процессоров остановился и производители пошли по пути распараллеливания вычислений. Однако и число ядер типичного процессора общего назначения, быстро одолев отметки 2 и 4, остановилось в районе 8. Некоторые даже собрались хоронить закон Мура.

У такого застоя есть объективная причина. Если разница между 2, 4 или 8 ядрами скорее количественная, то уже 16-ядерный процессор сталкивается с принципиальными ограничениями традиционной архитектуры. Дело в том, что на протяжении последних нескольких десятилетий основой коммуникации между отдельными IP-блоками чипа служила шина. Пока блоков было немного, она справлялась, но когда начали плодиться ядра, эта архитектура исчерпала себя. Шина представляет собой общую среду передачи данных, к которой подключено несколько блоков процессора. В каждый момент времени один блок может передавать данные, а все остальные — получать. Если нескольким блокам нужно передавать одновременно — возникает коллизия, а значит и задержка. При числе ядер больше восьми задержки становятся неприемлемо большими, практически полностью перечёркивая преимущества параллельной работы нескольких ядер.

Число ядер можно увеличить ещё немного, разделив шину на несколько сегментов, объединённых мостами, однако это скорее «костыль», который плохо масштабируется и не решает основную проблему. Настоящее решение, которое позволит объединять сотни блоков на одном чипе — это хорошо известная всем сеть с коммутацией пакетов, или Network on Chip.

Переход от шины к сети вполне закономерен. Именно так развивались телекоммуникационые сети: радиоэфир — типичная «шина», телефонные сети — коммутация каналов с помощью матричных коммутаторов, интернет — коммутация пакетов. Так же развивалась и компьютерная периферия — современная шина PCI Express на самом деле вовсе не шина, а сеть c топологией типа звезда. Так же развиваются и процессоры — сначала прямые соединения между блоками, затем шины и матричные коммутаторы и, наконец, сети.

В архитектуре NoC каждое ядро или блок процессора соединён с маршрутизатором, через который происходит его общение с другими блоками. Сами маршрутизаторы объединены в сеть, по которой пакеты данных путешествуют от одного блока к другому, так же как пакеты в обычной компьютерной сети. Это значительно упрощает топологию микросхемы и снимает ограничения по масштабированию — в отличие от шины, множество блоков способно общаться одновременно, не мешая друг другу. Компьютерное моделирование и опытные образцы многоядерных процессоров показывают, что при большом количестве ядер такая архитектура превосходит традиционную по многим показателям.

Естественно, напрямую перенести логику и протоколы работы интернета внутрь чипа было бы неразумно и неэффективно. Здесь совсем другие технологические ограничения и задачи:

  1. Очень жёсткие требования к задержкам и энергопотреблению. Коммутаторы должны работать с наносекундными задержками и быть очень экономичными. Расходы энергии на передачу данных между блоками составляют значительную часть общего потребления современных чипов.
  2. Простота и минимализм. Коммутаторы на чипе должны занимать мало места, а значит не могут иметь сложную логику и большой размер буфера.
  3. Параллельное, а не последовательное соединение. На физическом уровне внутри чипа выгоднее предавать биты не последовательно по одному проводнику, а по 32 или 64 параллельным каналам.


Исследованиями NoC занимаются ведущие компании и университеты мира. Так, в 2007 году Intel разработала экспериментальный процессор c 80-ю ядрами и производительностью 1 терафлопс при энергопотреблении всего в 62 ватта. В 2010 был представлен 48-ядерный «Облачный компьютер на кристалле» (Single chip cloud computer).

В апреле этого года была опубликована работа группы ученых MIT, которые создали прототип 16-ядерного процессора, в котором были применены специфические для NoC-систем оптимизации — виртуальный обход (virtual bypassing) и сигналы с малой амплитудой (low-swing signaling). Эти технологии позволили приблизиться к теоретическим пределам пропускной способности и задержек и заметно снизить энергопотребление.

Как они работают? Обычный маршрутизатор сохраняет полученный пакет в буфер, анализирует его заголовок и решает, куда его отправить дальше. Virtual bypassing позволяет передать пакет практически без задержек, за счёт того, что заголовок посылается заранее, и коммутатор успевает сделать нужные переключения цепей к тому моменту, как придёт тело пакета. Таким образом, пакет идёт без остановок, минуя буфер. Low-swing signaling — это уменьшение разницы между напряжениями 0 и 1 в проводнике, за счёт чего удалось дополнительно сократить энергопотребление. В сумме эти усовершенствования поднимают пропускную способность и экономичность более чем в полтора раза.

Кроме улучшения таких характеристик, как энергопотребление и скорость, архитектура NoC даёт ещё одно важное преимущество. Она легко позволяет объединять не только однородные ядра, но и вообще любые блоки на одном чипе. Как и в компьютерных сетях, физический и транспортный уровни работают одинаково для любых типов данных и протоколов. Можно без особых проблем поставить на место одного или нескольких из универсальных вычислительных ядер любой другой IP-блок, например, графическое ядро, специализированный сигнальный процессор или контроллер какого-либо устройства. И, так же как и в сетях, можно реализовать поддержку Quality of Service на уровне чипа, что может быть полезно для систем реального времени и виртуализации.

NoC для объединения ядер процессоров пока ещё имеют экспериментальный статус, однако для объединения разнородных блоков в системах на кристалле NoC разрабатываются и применяются довольно давно. Решения таких компаний, как Sonics или Arteris используются в микросхемах Samsung, Qualcomm и даже Intel. Возможно, уже скоро сетевая архитектура начнёт вытеснять шины и из “святая святых” микроэлектроники — многоядерных центральных процессоров. И тогда число ядер снова начнёт стремительно расти. Так что закон Мура хоронить ещё рано.


Дополнительные источники по теме:

  1. Презентация Intel
  2. Список исследовательских групп, занимающихся NoC
  3. Компания Tilera — разработчик процессоров на архитектуре NoC
  4. Сравнение NoC и шинной архитектуры
  5. Обзорная лекция по NoC


Илья Сименко @ilya42
карма
469,7
рейтинг 1,3
Редактор Гиктаймс
Реклама помогает поддерживать и развивать наши сервисы

Подробнее
Реклама

Самое читаемое

Комментарии (64)

  • +1
    Спасибо!
    Очень интересная статья.
    • 0
      изложено хорошо. интересно было почитать. давно тоже думал — почему используют шины, когда можно было бы такую же мини сеть устроить.

      автору +1
  • 0
    Еще немного и количество ядер опять будет приумножатся
  • 0
    Спасибо за статью!
    Как по мне, закон Мура — вовсе не закон, а стратегия корпорации Intel, которая практически монополизировала рынок.
    Мне кажется, чтобы эта технология показала себя во всей красе, нужно избавиться от совместимости с x86, которые на сегодняшний день имеют слишком большой набор команд, а следовательно, занимают много места, и не позволяют вместить много ядер. В пользу какой-нибудь простой RISC архитектуры.
    Вообще, давно пора, может в дальнейшем отпадет необходимость в отдельных графических процессорах.
    • 0
      Ну прочессоры сейчас и так маленькие и для них размер не критичен, можно и увеличить площадь хоть в 2 раза, проблема ведь не в том что много место занимать будет а в том насколько быстрые будут внутренние связи. да и уход от х86 дело не простое
      • 0
        Не забывайте про эффективность теплоотвода.
        Маловероятно, что можно увеличить площать кристалла в 2, 3, 4 раза и не выгрести проблем с охлаждением.
        • 0
          Ну я вообще подразумевал, что процессоры по размеру не увеличивают не потому что место жалеют, а потому, что много других проблем всплывает
          • 0
            Себестоимость процессора пропорциональна размеру кристалла. Увеличат его площадь в 4 раза — и либо камень выйдет неконкурентоспособным по цене, либо не окупит R&D, переоснащение фабрик под новые ТП и так далее.
            • 0
              Как раз не в этом проблема, покупая процессор за 800-1000$ его себестоимость составляет 30-40$ максимум, остальное это накрутка, чтобы окупить затраты на исследования и тестирования. так чт поверьте увеличив площадь кристала основная проблема будет не в цене.
              • 0
                Это точно. Ещё одно преимущество многоядерной архитектуры — стоимость разработки. Спроектировать одно относительно простое ядро и наштамповать его хоть 100, хоть 200 раз на одном чипе гораздо дешевле, чем сделать 2 или 4 суперпроизводеительных ядра.
              • 0
                В среднем покупаются процессоры не за $1000, а за $100-$200, они и приносят прибыль. Себестоимость камня остается неизменной. Увеличим себестоимость раза в 4, и вот уже интел становится неконкурентоспособным, слишком сильно приходится задирать цену.
              • 0
                А стоимость разработки не надо вносить в понятие себестоимости?
                Мне кажется, что процент выхода годных кристаллов с пластины, как и их количество, обратно пропорциональны площади кристалла. Стоимость печати одной пластины, при условии сохранения техпроцесса, неизменна, а вот выхлоп с одной пластины получится разным — это тоже влияет на себестоимость одного кристалла.
      • 0
        Сложно увеличить в том числе потому, что из-за увеличения расстояния, которое должны пробегать сигналы по проводникам, сложно синхронизировать работу всех компонентов кристалла.
    • +6
      Закон Мура родился задолго до монополии Интела, и зависит от не количества команд или чего-то подобного, а в первую очередь от электро- и теплопроводимости материалов. Каждый год открываются новые способы сделать процессор тоньше и холоднее, и открываются они отнюдь не потому, что эти технологии надежно где-то спрятаны или блокируются, а потому, что технических возможностей для их реализации еще нет. Да, можно сделать один большой и толстый процессор размером с материнскую плату, а толку-то? Или вам нужна походно-полевая кухня в комнате?
      • –3
        Может быть. Но если технологии не спрятаны, тогда почему 80-ядерный процессор Intel до сих пор (прошло 5 лет)
        не в производстве?
        Безусловно, закон Мура имеет право на жизнь, но основной сдерживающий фактор развития процессоров — экономический. Ведь тут уже дело выгоды. Зачем производить принципиально новое железо, когда с конкурентами договориться, а потребителям можно рассказать что всему виной «закон Мура»?
        • +1
          Наверняка в связи с какими-нибудь багами, вспомните тупой нетбёрст
        • 0
          Есть мнение, что 80-ядерный процессор будет в большинстве задач растоптан даже бюджетными 2-ядерниками. Чудес не бывает, на подложке такого размера не удастся обеспечить сравнимую производительность одного ядра, а софт у нас все-таки не настолько хорошо параллелится…
          Не забывайте, что аппаратная и программная части должны идти вровень. Когда хотя бы 90% ПО сможет создавать по 16 потоков на процесс, тогда и будем говорить про огромные количества сравнительно слабых ядер — а пока целесообразно лепить небольшое число мощных ядер.
          Вон даже костыли придумывают вроде turbo boost — разгон одного ядра при серьезной на него нагрузке и при простое остальных (упрощенно говоря).
          • –1
            > а софт у нас все-таки не настолько хорошо параллелится…
            Какой софт?
            Софт, который не очень хорошо параллелится, в хорошем железе не нуждается. Для того, чтобы набрать текст в редакторе хватит и Pentium.
            Большинство требовательных к ресурсам приложений распараллеливаются просто до безобразия, и получают выигрыш, пропорциональный количеству ядер.

            > а пока целесообразно лепить небольшое число мощных ядер
            Мощных для чего?
            Ну, к примеру, мне нужна хорошая производительность операций с плавающими точками, необходимо для рендеринга. Почему GPU, не смотря на свою заточку под растеризацию в несколько раз превосходят CPU по float производительности?
            • 0
              Софт, который не очень хорошо параллелится, в хорошем железе не нуждается.
              Возьмем мой свежий компьютер на вполне шустром i7-3770k@4,3ghz. Возьмем браузер хром со встроенным флешем. Одна вкладка, хоть убей, более одного процесса не создаст, и временами при загрузке страницы одно ядро съедается полностью (бывает, на секунду-две, страница при этом заморожена). Упростили ядро в 10 раз => в 10 раз медленнее грузится страница.
              Был у меня какое-то время назад нетбук на Atom. Вполне типичная ситуация — загрузка ЦП суммарно на 50-60% и надоедающая задумчивость.

              Те задачи, которые сейчас считаются тяжелыми, могут стать легкими на 80-ядернике. А вот легкие превратятся в тяжелые. Грубо говоря, понизьте тактовую частоту своего 4-ядерника в 10 раз, а потом расскажите, комфортно ли работать хоть с «сапером» и «проводником» с настолько медленным ядром (моя ставка: все 4 ядра редко будут загружены).

              Да что там даунклокинг: сегодня игрался с L2 кольцами, воткнулся в свитч, и мой ноутбук на i3 натурально окуклился от гигабита широковещательного флуда. Сетевуха только одно ядро задействовало, зато настолько плотно, что заметно снизилась отзывчивость системы.

              Почему GPU, не смотря на свою заточку под растеризацию в несколько раз превосходят CPU по float производительности?
              На IXBT я когда-то давно читал статейку про GPU, могу поискать. Вкратце: специализированный вычислитель, заточенный под float (да-да, растеризация и есть колоссальное количество таких вот вычислений) и состоящий из сотен маленьких узкоспециализированных вычислителей, по определению справится с вычислениями с плавающей точкой лучше универсального ЦПУ. И начнет сливать по полной, когда появятся ветвления, как и во многих других случаях. Современное ядро x86 на самом деле потрясающе умная штука. Результат его упрощения — тот же Atom, который ненавидят даже те, кто не вылезает из офисных программ. Но 80 атомов не влезут на одну подложку типичного для ЦП размера, надо еще что-нибудь из них вырезать. Да и показанный тогда 80-ядерник явно производился по более толстым техпроцессам.

              Я например временами перекодирую под себя видео и знаю, что обычно CUDA под это дело вообще не годится (слишком мало настроек, слишком непредсказуемое качество), quick sync еще худо-бедно (но опять же, результат не самый лучший), и только неторопливое софтверное кодирование x264 дает наилучшее качество и наибольшую предсказуемость.
              • 0
                Убедил :)
                У меня пока аргументов нет.
                • 0
                  Ну дык :)
                  Иногда можно обойтись и без теорий заговоров.
                  • 0
                    > Грубо говоря, понизьте тактовую частоту своего 4-ядерника в 10 раз, а потом расскажите, комфортно ли работать хоть с «сапером» и «проводником»
                    Что в этом страшного? был у меня пень 2, работал на частоте 233 МГц, странички он открывал, а Сапер вообще летал! Да, в 7-ке все будет тормозить. Но винда сама по себе не заточена под большое число ядер, по большей части, задачи однопоточные.
                    Новая архитектура не выгодна и Microsoft, т.к. весь софт прийдется оптимизировать под многопоточность.

                    А 80-ядерный процессор работает на 3.16 ГГц, так что проблем в этом не будет.

                    > да-да, растеризация и есть колоссальное количество таких вот вычислений
                    GPU содержит в себе растеризационный блок, который нельзя задействовать под float вычисления общего назначения (да, да, непосредственно сама растеризация может и не оперировать числами с плавающей точкой).
                    Float вычисления берут на себя шейдерный блок, который расчитывает светимость поверхности, соответствующей определенному пикселю.
                    Ну это так, придираюсь к словам.

                    > И начнет сливать по полной, когда появятся ветвления, как и во многих других случаях.
                    Прежде, чем расчитать цвет пикселя на экране, алгоритм проходит далеко не одно ветвление. А при субпиксельном сглаживании с высоким разрешением, наложением нескольких текстур, сложными эффектами, говорить о крутизне CPU вообще не приходится.

                    А CUDA действительно мало под что годится, т.к. использует графические чипы, изначально НЕ заточенные под общие вычисления.

                    А вот в создании принципиально новой архитектуры, обладающая большим количеством ядер и небольшим набором команд я вижу много плюсов. Пусть там «сапер будет не так крут», зато задачи, требующие много вычислений будут чувствовать себя намного лучше.
                    • 0
                      был у меня пень 2, работал на частоте 233 МГц, странички он открывал
                      Времена меняются, интернет меняется. Попробуйте с комфортом побродить по современному интернету по диалапу. А когда-то это почти удавалось.

                      Но винда сама по себе не заточена под большое число ядер, по большей части, задачи однопоточные.
                      Можно расширить это до «все ОС».

                      А 80-ядерный процессор работает на 3.16 ГГц
                      Еще один любитель сравнивать принципиально разные архитектуры по тактовой частоте? Ну что же, тогда сравните равночастотные Atom и i5. Вроде как по два ядра. Выходит, они должны демонстрировать одинаковую производительность? Или все-таки сама архитектура Atom излишне кастрированная — нет предсказания ветвлений и много каких других мелочей, которые суммарно и определяют производительность :)

                      Прежде, чем расчитать цвет пикселя на экране, алгоритм проходит далеко не одно ветвление.
                      При расчете сеток и прочего часто задействуется ЦП, и только затем ГП начинает заниматься «рисованием».
                      ГП отвратительно медленный не только с ветвлениями, но и с циклами, и многим другим. Узкоспециализированная архитектура.

                      говорить о крутизне CPU вообще не приходится
                      Снова: не надо сравнивать теплое с мягким. CPU демонстрирует среднюю производительность везде. ГП где-то офигительно быстр, а в других задачах невыносимо тормознут.

                      CUDA действительно мало под что годится, т.к. использует графические чипы, изначально НЕ заточенные под общие вычисления.
                      Он использует те самые программируемые шейдерные блоки (NVIDIA уже переименовала их в CUDA-блоки). Так о чем мы спорим-то?

                      А вот в создании принципиально новой архитектуры, обладающая большим количеством ядер и небольшим набором команд я вижу много плюсов.
                      А я вижу наряду с плюсами и минусы. Сократим набор команд? Теряем совместимость со старым софтом, то есть всю прелесть x86 (тогда уж проще на arm перейти — вот где потрясающее отношение производительности к размеру ядра и энергоэффективности).

                      задачи, требующие много вычислений будут чувствовать себя намного лучше.
                      Помните Intel larrabee? Вот как раз пример проекта по созданию x86 чипа с колоссальным числом ядер в форм-факторе видеокарты. Вроде как оказалось, что он никуда не годится. В каких-то задачах проигрывает имеющимся видеокартам, в каких-то — процессорам, выигрыш мало где наблюдается, целесообразность его использования почти нулевая.
                      • 0
                        А i5 имеет 4 физических ядра :)
                        Ладно, не буду доставать.

                        Про Intel larrabee почитаю.

                        А вот на счет Arm полностью с Вами согласен!
                        • 0
                          А i5 имеет 4 физических ядра :)
                          Да ну?
                          • 0
                            Ну да, будем знать, что у первого поколения i5 2 физических ядра.
                            • 0
                              И представители второго поколения тоже всякие бывают. Ведь их иногда и в ноутбуки пихают.

                              Да не суть. Думаю, пример понятен.
        • 0
          Вам не кажется что экспоненциальный рост показателей — это уже и так дофига? Какой вы предлагаете альтернативный вариант? Увеличивать кол-во транзисторов в десять раз каждый год? Посчитайте на досуге к каким цифрам приведёт следование закону хотя бы мура в течение ста лет, не говоря уже о большем.
          • 0
            Было бы неплохо, мы бы быстрее дошли до предела возможностей полупроводниковой технологии.
  • +8
    Мне одному кажется что рост производительности процессоров сейчас только компенсирует возрастающую тяжеловесность ПО. Нет. я за прогресс… Но по моему закон Мура сейчас гонит индустрию совершенно не туда.
    • 0
      А куда по вашему индустрия должна идти?
    • +3
      А я считаю наоборот — прикладное ПО использует все возрастающие возможности и вычислительные мощности процессоров. Возможно, не очень эффективно — разработчики не утруждаются подсчетом тактов и килобайтов.
      • +7
        Учитывая сложность нынешнего по, считать такты просто не реально, программа нужна еще вчера и нужен хороший интерфейс для ползователя и тд, поэтому люди пытаются создать средство которое позволит мксимально быстро решать задачу, отсюда и появляется все возрастающий уровень абстракции.
        Заметьте сейчас когда стоит задача сделать вебсервис, программу или сайт вопрос ставится не на какмо языке писать а на каком фреймворке!
        • 0
          Так я и не говорю, что все должны писать в машинных кодах и операционка должна помещаться на дискету. Я меняю местами причину и следствие из комментария MAXH0.
      • +1
        Прикладное ПО перестало гнаться за эффективностью, памяти и процессора на всех ведь хватит. :)
        Например, я работал в автокаде 2000 на пентиуме, в офисе 98 и сидел в интернете в ИЕ5, и процессор грузился даже меньше (в процентном соотношении), чем сейчас на коре2дуо с автокадом 2012, оффисом 2007 и файрфоксом. А задачи то не поменялись совершенно.
        Но вот что меня просто убивает, что файрфокс с открытым хабром жрет памяти в 2 раза больше чем автокад 2012 (о ужос, он теперь на .net написан) с огромным проектом. А смартфон, в 5 раз мощнее пентиума, не вывозит 2гиса маленького города (зря обновился, старая версия двухлетней выдержки просто летала, на чем интересно так неэффективно пишут код?)
        Дедушка Гейтс в кровати переворачивается, когда вспоминают про «640 кбайт хватит всем».
  • 0
    Почему не упомянут Project RAW?
    В отличии от Polaris, который представлял собой не намного больше чем просто ALU+SRAM,
    RAW был настоящим 16-ядерным процессором (выпущен в 2002) построенным по тайловому принципу.

    • 0
      Ну, так как создатель RAW и основатель Tilera — это одно и то же лицо (Anant Agarwal), не вижу особого смысла заострять внимание на этой более ранней разработке.
      • +1
        Рассказывая о какой-то технологии, неплохо бы рассказать о «первопроходцах».
        Да и про Tilera, к слову, вы так же ничего не рассказали =)
        • +1
          Ну да, я про Tilera только ссылочку дал в конце статьи. Я не ставил перед собой цель сделать всеобъемлющий обзор NoC, с древних времён и до наших дней. Я просто, как и многие другие далёкие от железа люди, был немного озадачен отсутствием роста количества ядер за последние несколько лет. Когда я нашёл в сети объяснение этому факту, я решил написать статью.
    • 0
      А то, что еще в 1962 году была разработана симметричная мультипроцессорная система Burroughs D825 с матричным коммутатором (а не с шиной), давно и прочно забыто.
  • +1
    NUMA во все поля.
  • +2
    Я лично считаю, что путей развития компьютеров много, но все они ведут к одному конечному результату: «Универсальность и простота».

    Все что есть сейчас в компьютере, ему самому(компьютеру) не надо, материнская плата в её сегодняшнем виде и видеокарта и слоты под процессоры и куча ещё всего что пихают на материнку.
    Все надо запихать в процессор. Берем 1 подложку, и паяем туда 100 процессоров CPU, сбоку лепим GPU процессоры, между ними запихиваем RAM, рядышком, звуковой процессор, все что отвечает за периферию, которая будет с одним единым стандартом для абсолютно всего, какой то, например USB 8, туда же логику от беспроводной связи одного стандарта WIFI Z, закатываем это все в чип, и на его паяем на плату, на которой, к примеру, только 6 выходов USB, антена для wifi и коннектор под питание. Все.

    И не надо придумывать 100500 моделей как например с телефонами дело обстоит сейчас.
    1-2 Модели (настольную и смартфонную) в зависимости от цены раз в год. Как пример выход айфонов. Не распылятся на кучу всего, а делать 1 вещь, но очень хорошо и универсально.

    И самое главное не боятся отказываться от старых технологий, если они тянут назад.
    • +4
      Так это практически ARM v8+
    • 0
      Полностью с тобой согласен, только хватит ли площади кристалла?
      Думаю, с развитием многослойных процессоров все таки будет: несколько слоев памяти (с очень быстрым доступом, кстати), несколько слоев числодробилок с растеризационными блоками, несколько ядер общего назначения и вуаля!
      Компьютер из чипа и жесткого диска :)
    • +2
      Если бы не рыночная экономика, это все было бы уже в «шаговой доступности».
      • +1
        Вот и я пытаюсь это донести. Производителям это не нужно, им гораздо выгоднее продавать каждые пол года новые железки, и рассказывать про «закон Мура».
      • 0
        Если бы не рыночная экономика, то вам бы вообще компьютеров не видать.
        • 0
          Поговорим об истории? Компьютеры долгое время не имели отношения к рыночной экономике вообще.
          • 0
            Расскажите, и наверное их создание и разработка никем не финансировалась, да? И потом они в аренду не сдавались. И небыло спроса, который стимулировал новые разработки, и потом, когда компьютеры стали массовыми, они тоже не продавались, а раздавались просто так.
            • 0
              Вы наверное не в курсе, но ЭВМ успешно создавались и эксплуатировались в СССР. Или в СССР тоже была рыночная экономика?
              • 0
                Объясню свою логику, следите за ходом мысли.

                В верхнем комментарии утверждают, что из за рыночной экономики у нас нет теоретических супер-навороченных компьютеров (типа маркетологи зажимают технологии), я говорю, что тому что у нас есть сейчас компьютеры и то какие они мы обязаны именно рыночной экономике.

                Так вот, в СССР рыночной экономики небыло, а ЭВМ были, тут вы правы. Но вопрос, где теперь эти ЭВМ, и почему их не стало?
                • 0
                  Потому что от них отказались в пользу универсальной, но мертворождённой EC ЭВМ. Почему отказались — тайна покрытая мраком. Я так и не нашёл указания на весомую причину. Похоже на большую стратегическую ошибку. Если кто-то укажет мне иной ответ на этот вопрос — буду признателен.

                  Далее. Вы думаете, что рыночная экономика «заточена» под удовлетворение запросов потребителей какими бы они не были. Мол «спрос рождает предложение». Нет, это тоже большая ошибка. Реальность такова (и вы можете её наблюдать), что рыночная экономика заточена на получение прибыли её активными участниками. И именно так. Если при этом удовлетворяются потребности потребителей — это прекрасно. Если же нет — не беда. Главное — прибыль.

                  Поэтому рыночная экономика в чистом виде — без внерыночных регуляторов — как то ФАС, законодатели (которые должны думать о стратегических направлениях развития, а не о прибыли) и т. п. — это спираль, уходяшая в пике картельных сговоров, эксплуатации людей, перепродаж и поглощений, обмана покупателей и т. п. Т. е. уничтожающая прогресс гораздо быстрее советской экономики.
                  • 0
                    Однако, какие бы причины не помешали союзу и не рыночной экономике — компьютерам созданными этим механизмом завален весь мир, а других просто нет.

                    И рыночной экономики в чистом виде и не существует, есть противовесы и т.д. И если удовлетворяя потребности потребителей (и создавая их) можно заработать миллиарды и триллионы — это произойдёт. Если одна компания примет совершит «большую стратегическую ошибку» её место займут другие.
                • 0
                  Не стало не только ЭВМ, но еще штанов, носков и, я извиняюсь, трусов. Теперь это все китайское. или белорусское. Казалось бы, при чем тут рыночная экономика.
                  • 0
                    Не пойму какую точку зрения вы этим сообщением поддержали :) Вообще «наших» ЭВМ не стало гораздо раньше, чем пропали трусы и носки, лет эдак за двадцать.
                  • 0
                    У меня трусы российского производства!
              • 0
                Именно рыночный подход, стремление продать как можно больше компьютеров, даже если они особо и не нужны привели к тому, что массовое производство удешевило компьютеры, а распробовавшие все преимущества потребители стали требовать ещё и ещё, что позволило инвестировать в разработки новых технологий. Раскрутившаяся спираль привела к тому, что я сейчас пишу этот комментарий с телефона весом 150грамм, имеющего производительность в тысячу раз больше, чем самая мощная истинно советская ЭВМ, занимавшая полздания.
                • 0
                  Наверно, рыночная экономика была необходимым этапом в развитии технологий, но она больше не приносит пользы.
                • +1
                  Товарищи! Я своим комментом хотел донести, что сейчас на данном этапе развития, в следствии развития рыночной экономики, мы не имеем таких девайсов о которых шла речь.

                  В условия рыночной экономики удобна открытая архитектура (х86), именно из за своей открытости она и выжила, в условиях рыночной же экономики ;-) И я не сказал бы, что это все особо плохо (прошу отметить, оценки я не давал, ни положительной, ни отрицательной ранее). Если если для систем на кристалле найдется равносильная движущая сила, то это будет замечательно.
                  И все мы вскоре будем иметь супер девайсы с шестнадцатью процами, на одном чипе и мизерным энергопотреблением, но все таки х86 уже страеет, и через несколько лет зайдет в тупик в своем развитии.
                  • 0
                    Кроме x86 есть ещё пяток конкурирующих технологий, которые возможно благодаря рыночной экономике тоже выжили и появились как альтернатива.

                    И даже процессор о двустах ядрах есть, cell, слышали такой? И даже с сотнями тупых вычислительных ядер есть, видеокарты называются. То как раз о чём тут в комментах речь идёт — много-много тупых ядер.
    • 0
      Да и преимущества таких решений на лицо, сколько занимаюсь ремонтом столько убеждаюсь, что подавляющее большинство поломок в «обвесах» и BGA чипах непосредственно на контактах. Сами чипы горят опять таки от поломок «обвесов», сгорел резистор где то в цепи питания, чип поймал перенапругу и сдох.
      • 0
        Да и просто механические повреждения слотов и сокетов.
  • +1
    Мне иногда кажется, что «закон Мура» — это такое божество, ради которого приносят жертвы, свершаются войны и открытия… Такое ощущение, что он как лозунг при коммунизме: Даёшь пятилетку за три года!
    • –1
      Вот-вот!

Только зарегистрированные пользователи могут оставлять комментарии. Войдите, пожалуйста.