0,0
рейтинг
5 сентября 2009 в 23:06

Бюджетные петабайты: Как построить дешевое облачное хранилище перевод

Познакомьтесь с Backblaze Pod: 67 терабайт за $7867

Мы в Backblaze предлагаем нашим клиентам неограниченное хранилище всего за $5 в месяц, поэтому нам пришлось выяснить, как хранить сотни петабайт клиентских данных надёжным масштабируемым образом, при этом сохраняя цены низкими. Посмотрев на несколько коммерческих решений с неоправданно высокими ценами, мы решили строить наши собственные нестандартные контейнеры хранилища Backblaze (Backblaze Storage Pods): 67-терабайтные 4U-серверы за $7867.

В этом постинге мы расскажем, как создать такой контейнер хранилища, и будем рады, если вы используете подобный дизайн сами. Мы надеемся, что от совместного использования этой идеи выиграют все: как вы, так и мы, поскольку вы можете усовершенствовать этот дизайн и прислать нам улучшения. Эволюция и снижение затрат являются критичными для продолжения успеха Backblaze.

Вот видео, показывающее 3-мерную модель контейнера хранилища Backblaze. Продолжайте читать, чтобы узнать о всех деталях дизайна.



Здесь можно загрузить полную 3-мерную модель контейнера хранилища Backblaze в формате EASM.

Backblaze нужно большое, надёжное, дешевое хранилище


Сказать, что Backblaze нуждается в большом хранилище, — ничего не сказать. Мы предоставляем услуги бэкапа, так что наш дэйтацентр содержит полную копию всех данных наших клиентов, плюс несколько версий изменяющихся файлов. Грубо говоря, каждый раз, когда один из наших клиентов покупает жесткий диск, Backblaze нужен ещё 1 жесткий диск. Уже давно мы перестали измерять хранилища в наших дэйтацентрах в гигабайтах или терабайтах и начали мерить в петабайтах.

Чтобы получить представление, как это выглядит, вот на фото я устанавливаю новые контейнеры в нашем дэйтацентре. Я работаю со стойкой, содержащей небольшой «штабель» из 6 контейнеров, содержащих в сумме почти полпетабайта данных.

Стойка из 6 контейнеров хранения общей емкостью полпетабайта

Чтобы предлагать наши услуги по разумной цене, нам нужно доступное по цене хранилище многопетабайтного масштаба.

Никто не продаёт дешёвые хранилища, поэтому мы спроектировали их сами


Прежде чем мы поняли, что нам придётся решать эту проблему с хранилищем самостоятельно, мы рассматривали Amazon S3, серверы Dell и Sun, файлеры NetApp, EMC SAN и т. д. По мере изучения этих традиционных «готовых решений», у нас пропадали все иллюзии о стоимости. Когда вы отбрасываете маркетинговые термины и красивые логотипы с любых решений по хранению данных, как ни крути, данные оказываются на обычном жестком диске. Но когда мы сравнивали цены различных коробочных решений, стоимость была в 10 и более раз выше «сырой» стоимости жестких дисков. Вот диаграмма, сравнивающая стоимость 1 петабайта от различных вендоров:

Стоимость хранилища на 1 петабайт от различных вендоров

Оценив затраты, мы решили создавать наши собственные контейнеры хранения Backblaze. У нас были 2 основные цели: сохранять затраты на низком уровне, используя накопители потребительского уровня и легкодоступные массовые комплектующие, и использовать электроэнергию и место в дэйтацентре настолько эффективно, насколько возможно, используя «зелёные» комплектующие и «втискивая» большое хранилище в небольшой корпус.

Результат — это стоечный сервер высотой 4U на Linux, содержащий 67 терабайт, себестоимостью $ 7867, львиная доля которых уходит на покупку самих жестких дисков. Это составляет всего ~0.3 цента за гигабайт в месяц на протяжении 3 лет. Даже включая дополнительные издержки, такие как электричество, трафик, аренду места и зарплату IT-администраторов, Backblaze тратит 1/10 от цены в сравнении с использованием Amazon S3, серверов Dell, файлеров NetApp или EMC SAN.

Из чего состоит контейнер хранения Backblaze


Контейнер хранения Backblaze является самодостаточным узлом, который делает хранилище доступным онлайн. Он представляет собой сделанный по спецзаказу металлический корпус с широко доступными бюджетными комплектующими внутри. Конкретнее, 1 контейнер включает 1 системную плату Intel c вставленными в нее 4-мя платами SATA. 9 SATA-кабелей отходят от плат к 9 панелям умножителей портов (port multiplier backplanes), в каждую из которых непосредственно вставлено 5 жестких дисков (всего 45 жестких дисков).

Список основных комплектующих контейнера хранения Backblaze

Выше вы видите развернутую диаграмму, а подробный список комплектующих вы можете увидеть в Приложении A. 2 главнейших фактора, которые необходимо упомянуть: стоимость жестких дисков является львиной долей стоимости всего контейнера, а остальная часть системы полностью построена на широко доступных бюджетных комплектующих.

Продолжение статьи здесь
Перевод: Tim Nufire
Антон Щербинин @AntonShcherbinin
карма
160,7
рейтинг 0,0
Реклама помогает поддерживать и развивать наши сервисы

Подробнее
Реклама

Самое читаемое

Комментарии (268)

  • 0
    Спасибо за перевод.
  • +4
    Шикарная идея. Только вот менять харды налету, наверное, не очень удобно
    • +2
      Корпус выдвигается до половины и достаётся нужный хард.

      Меня вот интересует другой вопрос — что у них за софт, используется ли raid и т.п.
      • 0
        > используется ли raid
        На картинке 4 карты хардного рейда, наверно на 8 винтов каждый (на 16 вряд ли купили бы 4 штуки).
        8х4 = 32, куда втокнуто еще 13? Скорее всего одна карточка на 16 винтов. 16+8+8+8 = 40 + 5 от мамки.

        1. Но какая производительность получается?
        2. Под какие задачи хранилище (смущает 4 ram)?

        Что-то мне кажется, что особо на них не разгуляешься.
        • 0
          > На картинке 4 карты хардного рейда
          Как вы это определили? Мне кажется, там обычные SATA-контроллеры. Используются потому, что иначе не хватит SATA-портов/пропускной способности шины.

          И не забывайте, там еще системный винт стоит (скорее всего, тоже SATA).
          • 0
            Системный винт:
            80 GB PATA Boot Drive
            Western Digital Caviar WD800BB 80GB 7200 RPM IDE Ultra ATA100 3.5″
          • 0
            хм, а зачем системный винт? а флешка? а network boot?
        • +3
          4 карты хардварного рейда вряд ли купишь за $175.
        • +2
          по ссылке не ходим.
          там используется 3 двух портовых контролера и 1 трех портовый
          3х2 + 1х3 = 9
          дальше эти 9 сата каналов расширяются на 5 каждый, итого 45
          реализуется это некиими сисовскими карточками расширения которые нарисованы снизу
          поверх всего этого три рейда 6 по 15 винтов в каждом
        • 0
          перейдите по ссылке, там черным по белому написано:

          4х sata pcie card x1 (Addonics four-port card)
          2х sata pcie card x3 (SYBA two-port)

          «The Intel Motherboard has four SATA cards plugged into it: three SYBA two-port SATA cards and one Addonics four-port card. „

          винты подключаются к sata multiplier backplanes (мултиплаеры на базе Silicon Image SiI3726)

          все sata pcie контроллеры поддерживают мультиплаеры (это важно).
      • 0
        Софтовые рейды уже давно сравнимы по производительности (а иногда и лучше) с аппаратными.
        Задачи простого хранения не требуют вообще то чего-то заоблачного а уж софт точно не проблема, распределенных отказоустойчивых хранилищ, начиная с opensource тьма.
        • 0
          Я не про аппаратность рейда спрашивал, а про решение уровнем выше массивов. Интересно, как достигается отказоустойчивость — тупо рейдами (они там 100% софтовые), или отказоустойчивой файловой системой (типа как у гугля)?
          • 0
            blog.backblaze.com/wp-content/uploads/2009/08/backblaze-storage-pod-software-layer-cake-diagram.jpg

            Ну и источник: blog.backblaze.com/2009/09/01/petabytes-on-a-budget-how-to-build-cheap-cloud-storage/
            • +1
              Спасибо. С переводными статьями всегда такая трабла есть — не хочется смотреть в первоисточник… :)
      • 0
        Куда выдвигаются? Назад из стойки??? У них нет «ушей» спереди? Тогда это еще один сильный прикол! И как они вообще фиксируются в стойке? На фотографии видно что следующий ящик ляжет на банальный (хотя и фирменного красного цвета) уголок. Тоже брутально дешево, но как выталкивать 4U набитые винтами с такого уголка? Или не выталкаешь или перевыталкаешь — фиксаторов-то тоже не видно. Короче этот момент остался нераскрытым.
        Но в целом идея блестящая! :)
        • 0
          Один толкает, другой страхует, что б на пол не упал :)

          С крышкой тож не понятно, правда. Она тоже цельна, т.е. что б достать хард, нужно вытащить ящик полностью.
          • +7
            Да, крышка должна быть с изюминкой, вроде на картинке видно, что отверстия под болты есть только в задней части. Ну возможно.

            Но толкать!!! Я один раз работал на страховке именно в такой ситуации — толкали 4U самый верхний в стойке, ну никак не выходил каменный цветочек, (это отдельная история про перекосы, прогибы и т.д.) а потом ему наподдали хорошенько, ящик был очень железный, не жалко — и тут-то «страховка» приняла на грудь вытянутые над головой руки 30-40кг, которые не обхватить, ни взять… Хотя готовились мы к этой операции полчаса, всю ее вселенскую глупость я понял за секунду, которую сервер летел вниз, а я инстинктивно пытался остановить его всеми частями тела. Это был последний час моего последнего дежурства в ДЦ перед отпуском. Выглядел я будто попал под поезд — ссадина на весь лоб, огромный синяк на плече и хромал две недели. Эх, молодость, романтика. :)
            • 0
              Да… У нас 1U IBM-ки по двое в стойки ставим, а тут 4U да еще с таким количеством хардов…
              • 0
                Я 1U в одну харю легко ставится :) Я и 2U умудрялся. Это больше от веса зависит. 4U надо вешать в двоем каждый со своей стороны встает и дальше загоняем в рельсы.
              • 0
                1U ibm то какие проблемы вызывает? он легкий, если только вам не приходило балансировать на одной ноге на высете два с половиной метра))
                что меня в ibm бесит это то что 2 года назад драйвер их ядра отсуствовал в 2.6.27… ох я намучился пока собрал кастом какой то…
                • 0
                  драйвер их рейда конечно же*
        • 0
          А какая разница? Уши не нужны при правильной конструкции рельсов. Нормальные рельсы имеют фиксатор положения задвинуто и фиксатор положения выдвинуто.
        • 0
          Уголок, видимо, для страховки. Салазки видны на трёхмерной модели в ролике и на фотографии в соседней стойке.
      • +1
        Там стандартный Linux SoftRAID. Тут не полный перевод. Почитайте в оригинале, занимательно.
      • 0
        На английском по ссылке с ЛОРа написано, что используется RAID6, в томе по 15 дисков.
  • +10
    На этом месте у переводчика кончился бензин. При наличии достаточного интереса к этой половине статьи, можно будет перевести и 2-ю половину.

    Переводите — интересно.
    • +1
      Только замените слово «дэйтацентр» на датацентр или ЦОД, например, а то читать непривычно.
      • 0
        Ага, тоже запнулся
      • +70
        ЦОД — это тот же дэйтацентр, только внутри стоят ЭВМ с НЖМД и АЦПУ? На входе сотрудники ЧОП и ВОХР проверяют УЛ, ЛВС в ЦОД должна соответствовать ГОСТ, а ИБП — СНиП? ;)
        • +44
          ИННАХ
          • +2
            ребят, вы на итхеппенс!
            ithappens.ru/story/1237
            :)))
  • +2
    >>корпус с ширпотребными комплектующими внутри

    Довольно смелое, самокритичное высказывание)))
    • +4
      Да, вы правы, в русском языке слово «ширпотребный» имеет негативную коннотацию. Предложите ваш вариант перевода «commodity components», если он будет лучше, я с удовольствием исправлю.
      Я рассматривал вариант перевода «с потребительскими комплектующими внутри», но всё же оставил «ширпотребными».
      Можно, конечно, передать смысл слова commodity длинным словосочетанием вроде «комплектующими потребительского класса, легко доступными на рынке в больших количествах», но, мне кажется, получается слишком громоздко.
      Вообще же, это техническая статья, и я даже не пытался добиться качества литературного перевода. Вместе с тем, надеюсь, мне удалось в большинстве мест передать смысл оригинального текста. В любом случае, спасибо за любые поправки, исправления и замечания!
      • НЛО прилетело и опубликовало эту надпись здесь
        • +2
          Если никто не против, я прерву соревнование между «бюджетными» и «широко доступными» комплектующими и напишу «широко доступными бюджетными комплектующими» :)
          Поскольку слово commodity включает оба этих элемента: низкую цену (бюджетность) и широкую доступность.
          Спасибо, panaslonik
          и aleks_raiden
      • +1
        в данном контексте commodity = недорогие = обычные = несерверные = десктопные
      • +7
        с широко доступными
      • 0
        бюджетные комплектующие — это только доказывает, что они на ветер деньги не бросают :) и прекрасно понимают, где нужно платить а где нет.
  • –8
    Уже было
    • +2
      Ну у меня только ссылка была. На английский вариант. А тут перевод.
  • +1
    ждем продолжения
  • 0
    примерно полгода назад сторадж собирали — можно поставить 16х2Tb винтов, 8Gb RAM, 2 БП — цена порядка $4900 вместе с винтами.
    итого 4900/32*1000 = $153000 за 1 петабайт :)

    всего в полтора раза дороже, чем у *blaze
    ну и у них 67тб per server, а у нас только 32 :)

    и я не нашел почему они не стали 2тб винты юзать
    • 0
      Цена/гб судя по всему у 2 тб выше.
      Хотя тут ещё подключаются издержки за бОльшее число портов и энергопотребление для/у винтов меньшего обьёма.
      • 0
        ну да
        1.0Тб ~= $90/Тб
        1.5Тб ~= $86/Тб
        2.0Тб ~= $116/Тб

        прикидка очень примерная, но тенденция в целом правильная
      • 0
        вообще то энергопотребление тут по уму тоже актуально, три hdd по 1 жрут в полтора раза больше чем два по 1.5 (и место занимают), а разница в цене за теробайт отличается… на 4$ (3%-4% какраз на грани стоимости энергии)
        Может тут актуализируется про надежность? технологии на пике обычно менее надежные чем проверенные временем.
        • 0
          Врятли. В тех же 1 тб винтах щас ставят пластины 2*500, в 1.5 — 3*500… Пластины точно такие же что там что здесь. Так что сомневаюсь.

          Возможно они просто не провели соответствующий рассчёт ;-)
          А возможно провели, и как раз получили оптимальные значения на 1.5 тб
    • +5
      Вот именно потому, что 2 ТБ диски не являются commodity components. Они не просто стоят на 2/3 дороже при ёмкости лишь на 1/3 больше, чем у 1.5-ТБ дисков. Они пока не производятся и, что важно, не покупаются и не продаются в тех масштабах, чтобы можно было в любой момент пойти к своему поставщику и купить 100 таких дисков.

      Мой работодатель придерживается похожих (только ещё более консервативных, т. к. масштабы больше — Backblaze арендует кусочек дэйтацентра, а мы — несколько дэйтацентров) правил. Отвечающий за закупки просто не позволит вам заказать 2 ТБ диски, т. к. он не сможет гарантировать, что при отказе нескольких дисков (а отказы дисков и другого железа происходят каждый день) он купит замену в течение рабочего дня, а не месяца.

      В качестве ещё более яркого примера: 1 ТБ 2.5" жесткие диски, которые с такой помпой анонсировала WD ещё в июле. Однако до сих пор купить их практически нереально, а если вам нужно 30 штук, то либо просто забудьте, либо договоритесь о поставке через месяц. В общем, проблема не только в цене, проблема в доступности
      • НЛО прилетело и опубликовало эту надпись здесь
        • 0
          'буфер' всегда есть, но, скорее всего, благодаря аппаратной совместимости 1тб и 2тб (и наверное через 5 лет 10тб) одинаково легко могут быть смешаны в одном ящике.
          P.S. где то читал статейку от google с инфоррмацией о статистике вылетов жестких дисков (пик вылетов на первые 8-9 месяцев, потом спад и рост снова уже к 3-5 годам).
          P.P.S. две железки купленные в одно время/одной партии с большей вероятностью (чем разные) могут быть одинаково проблемными.
    • 0
      как-то не доверяю я винтам на 2тб. я взял 16 wd re4 — из них сразу же ушли на фабрику 2. чуть позже еще один накрылся.
      но тут дело, скорее не в производителе а в продавце (newegg.com): они запаковали все драйвы очень плохо. и это был не единичный случай.
      • 0
        У newegg.com вроде нету интернациональной доставки? Вы в США заказывали?
        • 0
          Кажется, нет. Но меня это не особо касалось — я в США.
      • 0
        Вы заставили перекреститься, т. к. ровно неделю назад заказал в newegg сигейтовский 2 ТБ винт серии LP (в подарок). Но у меня-то никакого опыта нет, это 1-я покупка в newegg.
        Если вам не 1-й раз приходят из newegg плохо упакованные приводы, зачем тогда вы там покупаете? Тем более, если для бизнеса, а не для себя (а 16 приводов серии Enterprise вы ведь не для себя взяли).
        • +1
          Дело в том, что первый раз был где-то года полтора назад именно мне лично. Я подумал, что случай единичный и забил.
          через какое-то время, надо было для работы заказать — всё повторилось снова. Я сильно удивился и поругался с ними.
          когда же надо было заказать 16х2тб — на newegg они были в наличии, а в других местах надо было бы ждать несколько недель.
          в результате, я теперь плачу на 2-8 долларов за драйв больше, но покупаю либо на provantage.com, либо zipzoomfly.com
          provantage берет драйвы там же, где и newegg — у дистрибьютора ingram micro, но покуют их правильно. собственно эти лишние 2-8 долларов за драйв и дают спокойствие, что драйвы по дороге не убьются и прийдут в правильной упаковке.

          • 0
            Во-первых, спасибо за инфо, буду иметь в виду. Совсем отказаться от покупок в newegg трудно, т. к. самые минимальные цены, бесплатная доставка и всё такое. За тот 2 ТБ Seagate LP я 199.99 заплатил, в остальных местах было типа 227 долл. Но хрупкие вещи, вроде HDD, наверно, не стОит там покупать, раз они так безалаберно пакуют.
            Во-вторых,
            16х2тб — на newegg они были в наличии, а в других местах надо было бы ждать несколько недель.

            вы невольно подтвердили то, что я писал про 2 ТБ диски в комментарии выше
            Не годятся эти диски ещё для масштабного применения, для закупок десятками-сотнями.

            • 0
              Отказоваться и не предлагаю — сам там продолжаю покупать, но только не драйвы.

              Почему не годятся 2 TB? Я думаю, что не будь они плохо упакованы первые два не были бы возвращены для замены — проблема чисто физического характера была, IMHO. Третий диск погиб уже своей смертью. Но из 16 один — это хороший результат.
    • 0
      Напишите об этом статью
      • +1
        с удовольствием бы, но кармы нет :)
  • 0
    забавно, у меня как раз вопросец куда бы по разумной цене залить терабайт, чтобы не покупать еще один винт и не переть его в другой угол планеты? разумеется, потом на месте хочется этот терабайт скачать.
    • 0
      Скачивание файлов этот сервис, видимо, не считает важным. Предлагают либо скачать через веб-интерфейс, либо выслать по почте DVD или флэшку за 100 или 200 баксов соотв. Не представляю, как можно скачать терабайт через браузер.
      • –3
        Действительно, у них кстати даже поддержки Linux нет
  • +2
    Хочу уточнить, что эти железяки работают как части большого raw storage. То есть, надежность отдельной железяки не сильно критична, raid6 позволяет им просто снизить время ребилда, при вылете одиночного винта, но и вылет всей железяки не катастрофа.
    Применять такой же подход, используя только один ящик достаточно экстримально. Так как вылет одного из блоков питания влечет за собой вырубание половины HDD. При отсутсвии, BBU на контроллерах это может легко вызвать развал рейда.
    • 0
      Врядли там используется хардварный рейд, нормальный контроллер на 10 портов стоит заметно дороже $175, а тут их 4.
      • 0
        Разумеется, они используют программный RAID. Ни о каких BBU речи быть не может.
      • 0
        24 портовый рейд контролер 3ware 9650SE-24M8 SATA RAID стоит $1100+. плата с батарейкой и бэкапом еще стольник.
        у них обычные sata контролеры. рейд софтварный.
        • 0
          А с чего все так уверены, что там вообще рейд? В статье явно намек на то, что информация банально зеркалируется. В таком случае, если не вылетят 2 винта одновременно, битый винт можно просто поменять и зазеркалить на него вторую копию через rsync или типа того.
          • –1
            Э-э-э… Ответьте мне, как художник художнику, вы, вобще, оригинал статьи читали? ;)
            Или этим неоконченным «переводом» ограничились?
            • 0
              переводом:(
              Пойду почитаю оригинал, может где-то сказано, что данные копируются и на другие сервера тоже…
          • 0
            Там 3 Software RAID6
          • 0
            там черным по белому написано «On top of that, we cluster 15 hard drives into a single RAID6 volume with two parity drives (out of the 15).», что в переводе значит, что они объеденяют 15 драйвов в один RAID6 массив с двумя парити драйвами из 15.
    • 0
      Кстати поясните, если я выдерну пару винтов, но данные на них как-бы останутся, то райд в большенстве случаев восстановить не получится? Если запись не велась, то очевидно это должно удастся...?
      • 0
        по умолчанию, практически любое ПО сопровождения рейдов, вынутый винт и вставленный заново считают новым винтом, неизвестно ведь, что ты делал с ним вне ящика.
        • 0
          Просто в данной схеме, как я понимаю, несколько разных БП питают группы винтов. Если упадёт один БП, то винты вылетят из рейда.
          Соответственно ПО посчитает что они умерли или новые или ещё что, и по вашей версии рейд не соберётся после замены БП.
          Хотя реально данные на винтах остались. Это совсем не хорошо :-(
          • 0
            У вас или рейд перейдет в режим degrated и туда писаться ничего не будет или у вас пропадет RAID целиком, после замены БП, с высокой долей вероятности RIAD заведется.
            • 0
              Я эмулировал такую ситуацию на mdadm в режиме RAID-5 на 3х дисках, выдёргивая питание из двух.
              Не завелось.

              А degradated режим продолжает работать с записью, устройство в RO не переводится.
              • +1
                В RAID5 и не заведется, у него может быть потерян только один диск. В случае если у RAID5 теряется два диска он переходит в damaged и в RO.
                • 0
                  А RAID-6 может потерять два диска.
                  То есть если я выдеру питание скажем на 4х сразу то он умрёт, так получается? Или же система отработает и сразу остановит запись на остальные винты, после подключения вырванных и перезагрузки всё должно подняться?
                  • 0
                    Я имею в виду ситуацию, когда физически данные не повреждены, но может оказаться рассинхронизация из-за пропадания питания у >n винтов одновременно, где n — число винтов, которые райд может потерять «безболезненно»
                  • 0
                    Достаточно у трех и он умрет. Система остановит запись на остальные винты, если подключить их обратно, то у mdadm есть ключик принудительно засунуть протухшие тома. Лучше всего возьмите 6 дисков и поиграйтесь. Я когда игрался оказывалось что Software RAID не так уж легко дохнет :)
                    • 0
                      6 дисков, тем более пустых, ещё найти надо.
                      Конечно можно собрать RAID на USB-флешках :-)
                      • 0
                        Да хоть на флешках. Разницы для linux никакой.
      • 0
        Используемый RAID6 работает и при потере двух винчестеров, для потери данных надо чтобы одновременно умерло 3 диска в одном RAID.
  • +2
    Недавно наткнулся на подобное описание, но с 20ТБ хранилищем, зато без «custom built case» и с тестами производительности:

    Building a 20TB ZFS file server
    • 0
      спасибо за линк. но особенно меня убила картинка сервера на 9U с 48ю драйвами. это же ужас.
      • 0
        громкий :) они все шумят.
        P.S. скорее всего используется программное отключение энергии у дисков, иначе на электроэнергию уходило ЗНАЧИТЕЛЬНО больше денег.
        • 0
          да я не про громкость — у меня как раз 4u supermicroвский на 24 драйва. я как-бы про размер.
          уж если надо много драйвов вместить в мало места — то, что тут предлагают — хорошая идея. у Sun есть похожее, но значительно дороже.
  • 0
    Что же, остается дождаться широких интернетов что бы пользоваться подобными вещами… А пока я все также буду использовать свой домашний сервер на 3 терах.
  • +1
    Их сайт восхитителен! ))))
    • 0
      https://www.backblaze.com/ru_RU/online-backup-about.html
      • 0
        Перевод просто супер :)
        • 0
          Перевод в клиенте для мака такой же.
          «Ключи к здоровой жизни. Упражнения. Правильно питаться и резервное копирование компьютер.»
          «Установить полное»
          «15 дней, оставшихся в вашем суде»
          «Какие меры подкреплены»
          «Ваши данные не подкреплены»

          Просто лол, в общем. Переводчика нанять на фри-ланс перевести не так и дорого, ведь…
          • 0
            возможно там какой-нибудь кастомный google-translate? я уже наталкивался на подобные сайты с «кривым» переводом…
            • +1
              Это и есть автопереводчик, с полгода назад такая штука была популярна у блогов. Переведут хоть на фарси, только жми на кнопочку :)

              Я по работе отслеживаю один профессональный блог, автор которого балуется такой ерундой. Очень задалбывает находить в гугле по 50 вхождений поисковой фразы на разных поддоменах блога, вся разница в которых, что они вот таким вот «переводчиком» переведены.
              • 0
                ой. как мне это знакомо :) засоряются результаты поиска :(
  • НЛО прилетело и опубликовало эту надпись здесь
  • +1
    Отличная бизнес идея…
  • +1
    У этих товарищей бесплатными являются 2Гб места для бэкапа. При этом с сервисом можно работать только через их собственную виндовую прогу. Т.е. использовать сервис в качестве серверного бэкапа для небольших компаний не выйдет. С тем же успехом можно пользоваться дропбоксом, особенно учитывая, что там бесплатно можно юзать до 2,75 гигов. Вот если бы была возможность делать быкапы из linux и bsd систем, вот тогда бы сервис оценили сотни тысяч сисадминов и просто небольших компаний-владельцев небольших серверов. Часто покупать/арендовать отдельный сервер для бэкапов довольно накладно, а вот такой недорогой сервер был бы идеальным решением. Не все готовы извращаться и использовать в качестве хранилища небольших бэкапов gmail :)
    • 0
      Есть и Mac-версия, хоть это и не решает вашей проблемы. Русская локализация доставляет немеряно =)
      • 0
        ну вот уже мак админы довольны :)
      • 0
        Хлопот бесплатно создать резервную копию за $5 в месяц неограниченно
        $5 в месяц на один компьютер (или два месяца бесплатно при покупке году за $50!)

        рыдаю. у себя три, у других не три! гигиена уйдет от тебя!
    • 0
      gmailfs — Use your GMail account as a filesystem :-)

      Ничего сложного, fuse и все дела…
      • 0
        Это нам с вами ничего сложного. А для многих это сложно :) а еще куча народа о gmailfs вообще не подозревают.
      • 0
        А как в ней дела с большими файлами? Метров по 100 хотя-бы. Размер письма то ограничен…
        • 0
          К сожалению сам я gmail не использовал. Но возможно этот fuse модуль что-то там предпринимает.
          А так размер письма не может превышать 25 мб…
        • 0
          В общем посмотрел я gmailfs поподробнее, там есть опция blocksize с дефальтным значением 5Мб. То есть файлы разбиваются на болки и именно в таком виде хранятся на почте. Попробовал примонтировать, залить большой файл — всё ок, в гмайле появились письма с разными любопытными заголовками размера 5 мб адресованные мне с отправителем «я» :)
    • 0
      Ну у дропбокс, если по референсным ссылка друзья нарегется, то максимум 5 гигов будет и притом — бесплатно
  • 0
    Очень интересно!
    А какова интересно будет скорость скачивания с такого удалённого харда?
  • 0
    • 0
      По ссылке аргументированная критика дискового массива общего назначения. А тут — средство бэкапов. Разные цели, не находите?
      • –1
        по ссылке перечислены все дырки подобного решения, и в конце добавлено

        • 0

          When your application is capable to overcome the limitations and problems of such ultra-cheap storage (and the software of Backblaze seems to have this capabilities), such a DIY thing may be a good solution for you.

          смотря какой критичности бэкапить туда данные
          я бы не рискнул
          • 0
            Скажите что надежнее 3 таких ящика с тремя копиями или один ящик от Sun с одной копией?
            • –1
              этот вопрос лишен смысла, без конкретных внешних условий.
              Что такое «надежней»? Как будем ее оценивать? Для какого применения?
              В зависимости от этого можно на ваш вопрос ответить как да, так и нет.
              • 0
                Обычно оценка надежности подразумевает учет количества частей системы их надежность и работоспособность системы после сбоя в одной из частей системы. К примеру если мы берем один X4550, то его надежность должна быть в три раза выше чем у приведенного решения, чтобы надежность была равнозначна. Но так ли это? Я вот думаю что вероятность того что все 135 винчестеров одновременно выйдут из строя ниже чем вероятность того что 45 винчестеров выйдут из строя. Тоже самое можно сказать про материнскую плату процессор и БП.
                • –1
                  Вы не учитываете специфические требования для каждой конкретной задачи.
                  Наработка на отказ у спец. серверного железа в разы больше, чем у обычных, ширпотребных компонентов.

                  В то время, когда вы в очередной раз будете менять мать в 6-м storage-юните — тот же X4550 будет пыхтеть пятый год подряд без ребута.

                  Еще вопросы?
                  • +1
                    Вы не учитываете специфические требования для каждой конкретной задачи.
                    Наработка на отказ у спец. серверного железа в разы больше, чем у обычных, ширпотребных компонентов.

                    Это не исключает ошибок. А при возникновении сбоя в X4550 у вас будет простой, именно по этому все серьезные люди делают дублирование.

                    В то время, когда вы в очередной раз будете менять мать в 6-м storage-юните — тот же X4550 будет пыхтеть пятый год подряд без ребута.

                    А на шестой год в X4550 сдохнет мать и пока все будут бегать и пинать поставщиков, я спокойно буду менять мать в 3 storage-юните и все будет работать, так-как остальные storage работают и не чихают. Дело в том что в случае у вас одна железка у вас одна точка отказа, если у вас 6 железок, то у вас единой точки отказа приводящей к смерти всего уже нет.
  • 0
    4 гига рамы для 45 винтов? маловато, наверное… или тянет? мне интересно, если со всех этих 45 винтов будет тянуться информация, хватит ли этой памяти?
    • 0
      Простите, куда вы собрались тратить память на дисковом массиве?
      1. Закэшировать всё в любом случае нереально.
      2. Задержки работы по сети делают незаметными время доступа по диску.
      3. Скорость работы дисков заведомо больше доступной серверу полосы пропускания (у них ширпотреб, поэтому 1 или 2 1gbps сетевых карты).
      4. Профит.

      Объём памяти, думаю, мотивировался стоимостью, опять-таки. На схеме 2 планки по 2gb (самый дешевый объём на данный момент). В случае выхода их строя одной из них, сервер продолжит работать (в ядре линукса появилась недавно такая фишка. Не уверен, что работает идеально, но в любом случае, позволит продержаться какое-то время до замены).
      • 0
        Есть интеловские мамки с 4мя сетевыми на борту. В принципе, для такой пачки дисков в них есть смысл.
    • +2
      Ну это же не боевой сервер, а storage для бекапов, ему огромной производительности не нужно
  • 0
    интересно еще, что они находятся в Пало-Альто, где находится, например, Amazon.com's A9.com, Facebook, Hewlett-Packard, Photobucket, VMware и Xerox
  • +2
    Спасибо за перевод, с удовольствием прочитаю вторую часть статьи.
  • +1
    при любом раскладе сейчас это самое экономичное решение, если смогут гарантировать скорость и предоставят API — тот же Amazon выкупит у них половину емкостей для аварийных нужд :) это будет мега-смешно!
    • +1
      как бы их Амазон потом совсем не купил )
      • 0
        Мне почему-то захотелось изменить название с «Как построить дешевое облачное хранилище» на «Как заставить Amazon обтечься слюной и купить тебя»
        :)
        • 0
          я про это же :)
          если они наберут клиентуру — у них будет дешевая альтернатива (правда, без таких же возможностей, но зато с хорошей аппаратной базой)
          Амазон их заберет с потрохами, я думаю
      • 0
        Не купит. Амазон понимает, что стоимость хранения не только от цены дисков и корпуса зависит.
  • 0
    При таком кастоме, думаю, на жестком диске для ОС можно было сэкономить — грузиться по сети или с флешки
    • 0
      Убрать из сервера за $7867 жесткий диск для ОС и сэкономить $38? По-моему, сомнительная экономия.
  • +2
    Переводчик, пиши ещё! Очень интересная тема.
  • +4
    На фотографии: Ричард Гир подрабатывает в Backblaze :)
    Кризис, фигле.
  • 0
    Всё-таки немного странные (или лукавые) цифры в статье. Приведена стоимость за петабайт, но не сказано, входит ли в неё бэкапы внутри самой системы. У того же Амазона, мы знаем из описания сервиса, данные реплицируются для надёжности. Думаю, что у BB тоже — ну не хранят же они, в самом деле, только по одной копии данных? При дублировании им потребуется _хотя бы_ два петабайта на один петабайт юзерских данных. А реально, возможно и больше. Это по любому будет не $117K при стоимости сырых дисков в $81K.
    • 0
      Я тоже задумался о денежной стороне, но подошел в своем комментарии с другой стороны. Как-то все у ребят не так гладко, как выглядит на первый взгляд.
    • 0
      Эмм, о каком дублировании идет речь? raid5/6 это издержки на лишний каждый третий/пятый/пятый и шестой диски.
      • 0
        Есть разные уровни отказоустойчивости. RAID защитит от выхода из строя одного-двух дисков внутри сервера. От выхода из строя сервера целиком, со всеми его дисками, он не защитит. А для таких объёмов хранения это штатная ситуация. Более того, хорошо бы застраховаться от аварии в масштабе датацентра (электричество сдохнет или кондишн) и иметь как минимум резервный. Это тоже ситуация, которую надо априори рассматривать как ожидаемую.

        В стоимость того же амазона это всё заложено. А тут — очевидным образом, нет. Поэтому напрямую сравнивать их цены (хранения) не очень корректно.
    • +1
      Там есть замечательная табличка с raw disk их железом и прочим. Это все рассматривается как одна копия. Стоимость такого пода дешевле аналогичных брендовых систем в 8 раз. Я могу забабахать три таких сервера и делать три копии в чем проблема то?
      • 0
        Я сразу скажу, что задачу рассматриваю очень ограниченно, как пользователь. Задача — надёжно хранить данные. Я просто сравниваю предлагаемое решение с Амазоном, которым я _уже_ пользуюсь.

        В таблице разрыв между ними — двадцатикратный. Как мы с Вами выяснили, 2-3-4-кратное резервирование всё-таки нужно. Разрыв сокращается до пяти-семикратного. Кроме этого, всю эту машинерию надо где-то держать (платить за место в ДЦ), чем-то питать (платить за электричество), надо постоянно менять выходящие из строя диски и сами сервера, надо (!) держать штат сотрудников, который всё это будет делать и мониторить, и платить им зарплату. Все эти затраты тоже растут с ростом числа серверов, практически линейно.

        Вы уверены, что они не съедят пятикратный разрыв? Я вот не очень уверен…
        • 0
          Как мы с Вами выяснили, 2-3-4-кратное резервирование всё-таки нужно. Разрыв сокращается до пяти-семикратного.

          Это конечно :)

          Кроме этого, всю эту машинерию надо где-то держать (платить за место в ДЦ)

          Они эти железяки ставят в своем ДЦ.

          чем-то питать (платить за электричество), надо постоянно менять выходящие из строя диски и сами сервера, надо (!) держать штат сотрудников, который всё это будет делать и мониторить, и платить им зарплату. Все эти затраты тоже растут с ростом числа серверов, практически линейно.

          Дело в том что при использовании Amazon им все равно прийдется держать штат сотрудников, единственная разница это экономия на ДЦ электричество и сами железки. И я не думаю что их будет сильно меньше, чем при использовании Amazon.

          Вы уверены, что они не съедят пятикратный разрыв? Я вот не очень уверен…

          Я предполагаю что не съедят :)
        • 0
          Разрыв сокращается до пяти-семикратного. Кроме этого, всю эту машинерию надо где-то держать (платить за место в ДЦ), чем-то питать (платить за электричество), надо постоянно менять выходящие из строя диски и сами сервера, надо (!) держать штат сотрудников

          Не нужно считать в разах. Считайте в долларах. Если вам нужно 5 терабайт места, то, естественно, заморачиваться сборкой своих серверов вы не будете, а купите готовый сервер или услуги Amazon et al. Если вам нужно 2000 терабайт, то разница между использованием своих серверов и покупных (либо услуг Amazon) будет выражаться в миллионах долларов. Вы примерно представляете себе, сколько места в ДЦ, электричества, трафика и проч. требухи можно купить за 1 млн. долл.?
          О сотрудниках. Даже с учетом того, что Кремниевая долина — очень богатый район, насколько мне известно, 250 тыс. долл — это зарплата реально распальцованного админа за 3 года. И разве кто-то сказал, что такие серверы можно развертывать только в Кремниевой долине? В какой-нибудь Ивантеевке лужковской обл. (у моего работодателя там один из дэйтацентров) никто о зарплате 6 тыс. долл/мес и не мечтает, естественно.

          Все эти затраты тоже растут с ростом числа серверов, практически линейно

          И снова не согласен с вами. Вы админом, видимо, не работали и ими не руководили. Если у вас 5-10 серверов, то вам нужен 1 админ, который будет раскладывать пасьянс, скучать и изредка менять диски. Если 40-50 серверов, то _1_ админ, который будет работать. Если 100 серверов, то _1_ админ, который будет пахать и иногда жаловаться, что неплохо бы ему помощника. Никакой линейности. Естественно, я о идеальной ситуации. Настоящие админы, увы, болеют и ходят в отпуск, поэтому их как минимум нужно 2, а лучше — 2 админа и 1 помощник квалификацией пониже.
          • 0
            В даном случае речь идёт далеко не о ста серверах. И не об админе, а об обычном операторском обслуживании — выдвинуть, найти диск, заменить, задвинуть… Этим всем кто-то должен заниматься, и частота этих операций растёт линейно с ростом числа серверов.
  • –4
    Хорошо.

    Подойдем к вопросу с чисто денежной стороны.
    Сейчас ребята предлагают 2GB / 5$ в месяц.

    Допустим, за первые 5 лет они планируют покрыть 1 сотую долю процента американских жителей. Это 30 тысяч человек. Соответственно, ребятам нужно хранилище в 60 петабайт.

    Один такой сервер стоит примерно 7800$. Хранит 64ТБ. Т.е. ребятам понадобится примерно 940 таких кубиков. Получаем 7,332,000$ — общая стоимость железа.

    С другой стороны, при заявленной цене услуги в 5$/месяц ребята будут получать ежемесячно 150,000$.

    Итого — 7,332,000$ / 150,000$ — получаем примерно 5 лет окупаемости. В сумме уже 10 лет проекта. И это, конечно же, без учета накладных расходов на поддержку инфраструктуры, зарплату и еще миллион вопросов.

    Как-то уж больно энергично ребята работают, как для такого (или примерно такого — я могу ошибаться) неутешительного бизнес-плана. Заоблачных прибылей здесь нет и, по-видимому, не будет.

    Поправьте меня, если я не прав.
    • +1
      Ну, ниоткуда ведь не следует, что каждый юзер сразу же забьёт свои два гига под завязку.
    • +9
      30 000 человек * 2ГБ на человека = 60 000 ГБ, это 60ТБ, одна такая 4U штучка, а не 940.
    • +9
      1) Ребята, это статья в блоге «Железо». Не в «Стартапах». Не в «Бизнесе». Она о том, как некая группа инженеров, админов, программистов, словом — айтишников, таких же, как мы с вами, спроектировала хранилище данных, на порядок более дешевое, чем все имеющиеся на рынке решения. Спроектировала настолько блестяще, что и улучшать-то особо уже некуда, по крайней мере, в плане удешевления, т. к. 70% в стоимости системы — это сами жесткие диски.
      Более того, они не просто спроектировали эту систему, они делятся своей идеей с вами. Бесплатно. Т. е. совсем бесплатно.

      2) Вы же обсуждаете не дизайн их железа, а их бизнес. «Да они ни фига не заработают» и т. п. «Да клиентская программа у них только под Винду и Мак». Я не хочу никого оскорбить, но мне это напоминает следующую ситуацию: «Познакомьтесь, это Штеффи Графф, она 1-я ракетка мира по большому тенису» — «Фи-и, но шортики-то у неё совсем не модные! И что это у неё за причёска!»

      Смешно, ей-богу :)

      • –2
        Поправочка.
        Они спроектировали не блестяще, а очень экономно. Не супер-экономно, а просто очень экономно.
        И экономия только в плане построения! Во сколько им выйдет обслуживании они даже не задумывались.
        И вообще похоже кроме мечтаний о покупки их большим братом они ни о чем не задумывались.
        • 0
          А чего все так в обсуживание вцепились? Вы что думаете что это будет умирать пачками?
    • +2
      Поправка: за 5 баксов они предлагают безлимитное файлохранилище ;-)
      • 0
        но честно сказать кривое хранилище. Мне например интересно забэкапить только папку фото, а их прога хочет все забэкапить… ррр… можно лишь исключения вносить, но диск ц из бэкапа не убрать. Вобщем для тупых и не продвинутых юзеров их прога. Потом что бы забрать файло обратно нужно отмечать что ты хочешь и скачаешь это в zip архиве по http
  • 0
    Кстати у Backblaze прикольный перевод на русский язык, вроде: «Хлопот бесплатно создать резервную копию за $5 в месяц неограниченно» :)
  • +1
    странно. в статье написано «неограниченное хранилище всего за $5 в месяц», в комментариях пишут «2GB за $5», на сайте написано «Hassle free back up for $5/Month Unlimited»

    кому верить?
    • +1
      Сайту.
    • 0
      у них разные расценки на русской и англ. версии сайта, да?
  • 0
    Я вам скажу как профессионал в этой области, много лет занимающийся как серверами, так и системами хранения. Это ппц, извините.

    Это не то что «не взлетит», оно даже по полосе ровно не поедет.

    Просто я очень хорошо знаю, что такое винты по 120$ и SATA контроллеры SiL в материнке за 300 баксов.
    Я бы такому не то что бэкапы не доверил, вообще ничего не доверил бы.
    • 0
      ну не могут же сразу два таких модуля накрыться?
      • 0
        Могут накрыться сразу все 8)

        Просто это, понимаете, выглядит примерно так:

        «А давайте сделаем… самолет!» У дедушки в сарае стоит старый пикап «Форд» — возьмем от него мотор и колеса, они еще очень ничего, не сдуваются. Фанеры купим, согнем — фузелаж будет и крылья. Тросики с мопеда — управление. Сколько там берут авиакомпании за перелет из Сан-Франциско в Лос-Анжелес? Да это же грабеж! Будем возить по три, нет, по два бакса! Народ попрет!
        • 0
          конечно, я понимаю, террористы могут кинуть на датацентр бомбу, и никакие рейды не спасут.
          на цену решения посмотрите!
          • –1
            Да какая цена решения, боже мой. Оно не заработает. Хоть ноль долларов поставь в цену. Надежность хранения равна нулю.
            Эта байда будет рассыпаться каждые несколько часов.
            Надежное «хоронилище» данных. Шреддер.
            • 0
              вполне себе на 5$/месяц тянет.

              P.S. хотя я лично бы не стал строить систему на основе одно железки, минимум 3 (для raid 5/6) даже на начале не полностью заполненных. какое бы крутое и дорогое оборудование не было, сламаться может… сетевой проводок отскочил/порт-свич помер/бп помер/материнка/память/операционка. Цена определяет только вероятность сбоя, и нулевой она не станет никогда.
              • –2
                Я, обычно, работаю с данными, которые стоят дороже, чем 5 долларов в месяц ;)

                Нулевой она не станет. А достаточно высокой для того, чтобы не произойти в допустимые сроки — запросто.

                Просто эти ребята — дилетанты, класические, практически непуганные.
                Вот я специалист в системах хранения. Если я начну что-нибудь умное вещать про кроссбраузерную верстку, или про скругление уголков на css, или в чем тут у нас больше всего специалистов на хабре ;) — я же первым буду выглядеть идиотом в глазах специалистов. А тут идиотом выглядят они. Говорю вам как специалист.
                Не взлетит. :)

                Или вы тоже думаете, что инженеры Боинга, когда проектируют самолеты, только и думают, как бы заграбастать побольше денежек у несчастных авиапассажиов?
                А разработка хорошего дискового массива я думаю уже приблизилась к стоимости разработки небольшого самолета. Думаете просто так?

                • +2
                  Давайте аргументировано, что не взлетит и почему. Я пока услышал только, что вы специалист, и что эти ребята построили нежизнеспособное решение. Да, мне видны их проблемы, но хотелось бы услышать вашу версию.
                  • +1
                    А когда вы с врачом разговариваете, вы тоже пруфлинки требуете на каждое его предложение? ;)

                    Механические вибрации, низкая надежность SATA в больших RAID, ужасная работа нескольких дешевых SATA-карточек в одной материнке на общей шине PCI, низкая ремонтопригодность (для того, чтобы подоткнуть отошедший от вибрации проводок придется останавливать и разбирать весь корпус), высокая вероятность отказа при использовании «бытовых» компонентов, усугубленная их большим, одновременно используемым количеством.

                    В свое время, в 2005 или 6, кажется, году, имел удовольствие работать с Яндексом в их датацентре, еще когда они на Вавилова сидели. Так там у админов была ежедневная задача — менять сбойные диски. Каждый день. Один-два диска из RAID-1 на серверах вываливались.
                    Диски там были не SATA, а SCSI, соответственно, примерно вдесятеро надежнее.
                    Общее их число, ориентировочно, судя по фото двух стоек в статье, было сравнимым с тогдашним датацентром Яндекса.
                    Соответственно у них отказывать диски станут по меньшей мере не реже (готов спорить что чаще). На время ребилда, который может занять на больших дисках и сутки, и двое, RAID-5 остается беззащитным полностью. RAID-6 перенесет отказ еще одного диска, и тогда станет беззащитным.
                    Отказ возможен не только из-за отказа диска, но и от сбоя по шине из-за кривого тайминга дешевых SiL-овские карточек, которые не предназначены для работы по нескольку на шине.

                    Вы скажите я могу долго продолжать, вы не сомневайтесь ;)
                    • 0
                      Мне это интересно, моежете продолжать.

                      Пока все изложенные вами пробелмы мне были очевидны, за исключением, пожалуй, того, что SATA 'имеет низкую надёжность в больших RAID'. Кроме того на моей памяти 24/7 в домашних условиях около 10ти WD винтов ни разу не ломалось, хотя я не исключаю такой возможности при высоких температурах (а в сабжевой конструкции им будет довольно горячо) и большом количестве. Так что мне кажется, что дешевле будет делать всё на десктопах (надёжность которых в настоящий момент ИМХО практически сопоставима с надёжностью «серверных») с дополнительным резервированием.
                      • 0
                        Как это ни покажется удивительным, но температура влияет на надежность дисков довольно слабо.

                        labs.google.com/papers/disk_failures.pdf
                      • 0
                        > Кроме того на моей памяти 24/7 в домашних условиях около 10ти WD винтов ни разу не ломалось,

                        Речь идет не только о «механическом» ломании, скольно о низкой надежности чтения с «бытовых» SATA, что в случае RAID приводит к серьезным проблемам. Ниже про UER я уже отвечал.

                        Про надежность дисков можно еще вот это почитать:

                        www.usenix.org/events/fast07/tech/schroeder/schroeder_html/
                    • +1
                      Механические вибрации, низкая надежность SATA в больших RAID, ужасная работа нескольких дешевых SATA-карточек в одной материнке на общей шине PCI,

                      Там 3 группы по 15 дисков в RAID6. Вероятность того что в ящике сдохнет сразу 3 диска в одном массиве низка.

                      низкая ремонтопригодность (для того, чтобы подоткнуть отошедший от вибрации проводок придется останавливать и разбирать весь корпус),

                      С каких перепугов? Там рельсы и снимаемая крышка. Какие проводки там будут отходить? От чего?

                      свое время, в 2005 или 6, кажется, году, имел удовольствие работать с Яндексом в их датацентре, еще когда они на Вавилова сидели. Так там у админов была ежедневная задача — менять сбойные диски. Каждый день. Один-два диска из RAID-1 на серверах вываливались.

                      В указаннные вами года диски очень активно мерли. У меня с тех времен до сих пор с десяток дисков осталось.

                      RAID-6 перенесет отказ еще одного диска, и тогда станет беззащитным.

                      И чо? Ну сдох хрен с ним. Делаем новый рейд заливаем с соседнего ящика. Вот проблема то.

                      Вы скажите я могу долго продолжать, вы не сомневайтесь ;)

                      Вот там в статье приведены циферки на брендовые решения. Как вы думаете что лучше поставить 3 ящика или один брендовый?
                      • 0
                        еще стоит учесть что эта система не для надежного хранения данных, а все го лишь для бэкапа. Какова вероятность того что бэкап сдохнет одновременно с вашим винчестером :)
                        Ну допустим они потеряли ваш бэкап — ну и не беда утелитка его снова закачает при чем так что Вы и не узнаете :)

                        Это не соответствует действительности — а лишь мое предположение
                        • 0
                          Никто им не мешает хранить 3 копии :) При такой стоимости железа я бы так и делал.
                    • НЛО прилетело и опубликовало эту надпись здесь
                  • НЛО прилетело и опубликовало эту надпись здесь
                    • –1
                      А «многократное дублирование» учтено в бюджете «анлима за 5$»? ;)
                      • НЛО прилетело и опубликовало эту надпись здесь
                        • –2
                          Так вот о чем и речь. А со всеми этими «дополнениями» цена как раз и станет «как у больших». За что боролись — на то и напоролись.
                          • +1
                            Не станет. Все равно будет раза в 3 меньше. А дублирования для не сильно критичных данных достаточно (не надо 3 копии), что делает уже в 4-5 раз дешевле.
                            А для сильно критичных данных копии на одном сервере все равно недостаточно, пусть и супербрендовом.
                            • 0
                              А как подобный сервис будет отличать критичные данные от некритичных?
                          • 0
                            Стоимость решения от больших 8 раз больше. Три ящика будут дешевле всяко.
                • +2
                  Ну, расскажите нам как специалист в чем они ошиблись. Что откажет первым? Как часто надо будет менять винты? Почему нам не следует делать также?
                  Мне, как большому специалисту по «закругленным уголкам», очень интересно, буквально. Без сарказма и иронии.
            • 0
              Это убедит?
              uptime
              17:41:59 up 261 days, 5:15, 1 user, load average: 0.00, 0.00, 0.00

              uptime приведен с сервера с Software RAID 6 на 8 дисках по террабайту. Что я делаю не так и почему у меня оно не рассыпается?
              • 0
                А в чем это должно убедить?
                Что RAID6 работает? Да, это работает.

                Что вы делаете не так? Ну например не используете по 45 дисков consumer-series на 4 SATA-адаптерах в одной материнке.
                • 0
                  Ну например не используете по 45 дисков consumer-series на 4 SATA-адаптерах в одной материнке.

                  Поздравляю, вы ошиблись. У меня они как раз висят на таких же SATA адаптерах, ну не хватило на материнке портов.
                  • 0
                    >> с сервера с Software RAID 6 на 8 дисках по террабайту

                    > У меня они как раз висят на таких же SATA адаптерах

                    Ичо?

                    Вы главного не понимаете. То что ГАИ говорит, что перебегая дорогу на красный свет пешеход в среднем бывает сбит рдин раз из 20, допустим, попыток, не значит, что можно перебегать по 19 раз абсолютно безопасно.
                    Вас может сбить на первый же раз. Но вы можете перебегать, например пустую улицу, хоть всю жизнь.
                    Правила того, что перебегать — опасно, это не отменяет.
                    Оттого, что вы перебегали много раз не следует, что это безопасно. То что у вас «все работает» не отменяет принципиальное действие законов арифметики.
                    • +1
                      То что у вас «все работает» не отменяет принципиальное действие законов арифметики.

                      А еще есть такое понятие как стоимость простоя и необходимая надежность. И далеко не всегда стоимость брендового решения соответсвует стоимости простоя и необходимой надежности.
                      • –1
                        Есть такое понятие. Даже есть люди, для которых их данные ничего не стоят вообще. Но их немного. Наберут ли обсуждаемые господа таких достаточно, чтобы хотя бы отбить затраты на проект, вот в чем вопрос?
                        • 0
                          И так вы продолжаете настаивать что это система даже с дублированием в 3 ящика не будет надежнее чем брендовая? Точнее по вашим уверениям будет совершенно не надежна. Может тогда приведете надежную систему и приведете аргументы почему она надежна и не надежна эта? Ну и еще расчеты стоимости гигабайта бы не помешали.

                • 0
                  Винты кстати тоже консамерские.
    • +1
      нагрузка на них никакая, совсем.
      + грамотное построенное распределенное хранилище.
    • +1
      А чем объективно винты по 120 баксов отличаются от винтов за 600 баксов. В их моторах используется монокристаллическая медь? Или может другая какая «супер»-технология?

      Только благодаря таким компаниям как Backblaze, хранилища от известных и надежных производителей стоят пол-миллиона рублей, а не два или даже три.
      • +1
        У них теплое ламповое шуршание, неужели не понятно?!
      • +3
        Таким параметром, который называется Unrecoverable Read-error Rate — UER (иногда Unrecoverable Bit-error Rate — UBR

        Для «бытовых» SATA он составляет вероятность сбоя чтения бита (и следовательно блока данных, равный сектору диска в случае одиночного диска, и страйпу данных в случае RAID-5 и 6) на 10^14 прочитанных бит, то есть каждые примерно 11TByte считанных данных вы, с высокой степенью вероятности словите сбой, который RAID примется «восстанавливать».

        Для enterprise class SATA, какого-нибудь WD RE3, эта величина заявляется как 10^15, то есть вдесятеро больше (правда за счет некоторых жульничеств).
        Для дисков FC и SAS — 10^16, то есть в сто раз надежнее, чем «бытовые» SATA.

        А то думаете почему SATA уже до 2TB догнали, а SAS все еще 450GB перескочить не могут. Вот поэтому в том числе.

        Читать:
        blogs.zdnet.com/storage/?p=162
        en.wikipedia.org/wiki/RAID_5#RAID_5_disk_failure_rate
        blog.aboutnetapp.ru/archives/373

        Там про RAID-5 в основном, но вы спросили чем отличаются винты. Винты отличаются вот этим в любом тип RAID.
        • НЛО прилетело и опубликовало эту надпись здесь
          • 0
            Нет, конечно. Подавляющее большинство дисков для систем хранения по прежнему идут в 3.5"
            • НЛО прилетело и опубликовало эту надпись здесь
              • 0
                Вот только не продают их в составе своих систем никто из именитых производителей систем хранения, с чего бы? ;)

                Ну вот, например, потому.

                И да, кстати, «for Tier 2/nearline environments » это, если по-русски, «для бэкапов», не для хранения критичных данных.
                • НЛО прилетело и опубликовало эту надпись здесь
                  • 0
                    > И почему их не продают? Продолжите, пожалуйста, свою мысль.
                    > Это по русски означает, что они уступают в производительности

                    Нет.

                    «They are differentiated from 3.5-inch desktop drives by offering enterprise-class reliability and superior data integrity with a UER of 1E10-15»

                    10^15, как я уже писал выше, это надежность обчного SATA-диска enterprise-серии, например WD RE3 (а desktop drive — 10^14).

                    «Нормальные» SAS и FC имеют надежность 10^16, то есть в десять раз выше (и в сто раз выше чем desktop-серия).

                    Что же касается скорости в 7200, то это означает, что они скорее всего используют конструкцию и механизмы характерные для SATA-дисков. Просто к «банке» SATA прикрутили контроллер SAS.

                    Вы же, уверен, не будете спорить с тем, что диски с оборотами 7200 и 10000-15000 отличаются не только напряжением на моторчике, который крутит блины? ;)

                    Так что они не просто уступают в производитеьности, но еще и в надежности чтения.
                    • НЛО прилетело и опубликовало эту надпись здесь
                      • 0
                        Это не я решил, это говорят производители дисков, сообщая нам вот такие данные про UER.
                        Как уж они намерили их сложный вопрос. Даже данные по UER не так чтобы уж слишком часто публикуются.

                        Что касается MTBF, то практика показывает, что это вообще параметр «ни о чем». Смотрите например тут:
                        storagemojo.com/2007/02/19/googles-disk-failure-experience/

                        Абзац: Vendor MTBF and Google AFR

                        > Так же скажите, почему вы решили, что 10^15 — это недостаточно.

                        Недостаточно смотря для чего. Для чего-то вполне достаточно. Вон большинство бытовых дисков живет на уровнях сбоев по меньшей мере в 10 раз меньше, и ничего.

                        На самом деле проблемы начинаются, когда такие диски попадают в RAID. Это для отдельно стоящего диска сбой чтения это не проблема. Мелькнул пиксел не того цвета в просматриваемом фильме. Не сошелся CRC в архиве. (Перечитали заново — сошелся). Да и то, такое диски сейчас активно пытатся востанавливать своими силами.
                        Однако это приводит к неконтролируемым и неуправляемым задержкам чтения на время попыток прочесть непрочитавшееся сходу. Опять же, для отдельного диска это не проблема. А когда таких дисков десяток в RAID? Этот диск сочтется сбойным, вывалится по таймауту чтения из массива, и RAID начнет делать rebuild. Rebuild на ныншних больших дисках то может быть надооолго. Да и скорость на нем очень сильно при этом падает.

                        Так что надежность диска для RAID лишней не бывает.
                        • НЛО прилетело и опубликовало эту надпись здесь
                          • 0
                            «У меня нэт для вас других писатэлэй» (с) Сталин.

                            Ну что делать, какие данные нам вендор привел — такими и пользуемся, других все равно нет :(

                            Если какие-то сильно выпадают из здравого смысла — не рассматриваем их.
                            Может там не за три года, а за год, например данные AFR усреднены.

                            Я ж вам не зря ссылку на разбор данных Гугла дал, там вообще много неожиданных выводов на практике получается.
                            • НЛО прилетело и опубликовало эту надпись здесь
                        • НЛО прилетело и опубликовало эту надпись здесь
                          • 0
                            Нет не путаю.
                            • НЛО прилетело и опубликовало эту надпись здесь
                              • +1
                                (устало) ну какие несколько порядков? На диске записан байт 0А, а прочлось с диска 0F.
                                Случайно читается, потому что вероятность ECC это позволяет, вот этот самый 10^14 степени UER, один бит на 12,5 терабайт считаных данных.

                                Что в результате с CRC этого архива будет, если в нем вместо одного байта другое в память разархватору прочлось?

                                Вы физический смысл UER правильно вообще поняли? Это не сбой чтения. Не Read Fault. Это неправильно прочитанные но незасеченные при этом ECC данные.
                                • НЛО прилетело и опубликовало эту надпись здесь
                                  • 0
                                    Да, все верно, я уже отправив вам ответ понял, что отвечаю вам не про тот параметр.
                        • НЛО прилетело и опубликовало эту надпись здесь
                    • НЛО прилетело и опубликовало эту надпись здесь
            • НЛО прилетело и опубликовало эту надпись здесь
    • 0
      Ну а полная копия данных на других серверах зачем? Однозначно надежнее, чем хранение данных на брендовом железе в одной копии или рейде 5-6. И даже с дублированием намного дешевле.
      • –1
        Ой совсем не однозначнее.

        Нет, правда, разговор получается уровня диалога с врачом по поводу удаления аппендицита. Я вам: «Да все непросто», вы мне — «Да чего непросто-то, вот аппендикс, вот скальпель, вот спирт, простерилизовать надо, я помню, отрезать, потом зашить. Всех делов, сам сделаю, врачи только денег столько запросят — уму непостижимо сколько!»

        Давно бы все сами все делали, если бы было так просто. Но на практике получается в результате тот же врач, только не прямым, а окольным путем, угробив по дороге нескольких пациентов :)
        • 0
          Это типа поумничали? В моих сервисах тоже используются распределенные дисковые массивы и учитывая специфику сервисов мне приходилось решать задачи по тому, как за минимальную цену сделать максимум емкости при приемлемой надежности. Только мне еще критична скорость.

          Я не использую рейды для основных серверов раздачи. И на это есть немало причин. В том числе и низкая надежность (в рейде я храню избыточную инфу на том-же сервере, а без рейдов на разных). О скорости и говорить нечего, рейд-контроллеры при высокоскоростной отдаче в тысячи потоков, можно использоваться только как надежные сата-контроллеры, построение массивов уровня 0,5,6 дает очень сильное падение скорости.

          Но вы, конечно, все знаете, вам всяко виднее…
          • –1
            Да мне и не надо умничать, я и так умный. ;)

            Ну удачи, чо. Действуйте. Учитесь на своем опыте.

            Кто то сказал: «Дураки учатся на своих ошибках, а умные — на чужих»…
            • 0
              Ладно, видимо по сути дела разговора не выходит, окей, буду учиться идти.
          • 0
            Это товарищ от брендов. Они делают решения на их железе и про остальное не знают :)
    • +1
      Я вам скажу как профессионал в этой области, много лет занимающийся как серверами, так и системами хранения. Это ппц, извините.

      Вы занимались сборкой серверов и хранищил из десктопных комплектующих? Если вы занимаетесь только брендовыми железками, то для вас это будет дико и не взлетит. Я же опираясь на свой опыт могу сказать что еще как взлетит и в случае если оно ломается починить его можно существенно быстрее и проще.

      Просто я очень хорошо знаю, что такое винты по 120$ и SATA контроллеры SiL в материнке за 300 баксов.

      И что же это такое?
  • 0
    И, да, кстати, именно вот такие устройства называются метким словом «ХОРОНИЛИЩА данных»
  • –1
    вобще не понимаю, в чем смысл данных серисов?
    засколько «небольшая компания» с анлимом 512 кбит, которые и так еле у начальства выпросили будет 50-60 гб качать? или заливать?
    • +1
      А может быть в некоторых частях света уже есть более высокая скорость, чем в Саратовской губернии?
      • –1
        во первых я гоорил про россию. а во вторых, выгодные скорости для работы с такими проектами — OVER 20 mbps есть только в ДС (ну и наерное в ДС-2) с ценой, которую себе может позволить «небольшая компания» (меньше 1000р)
        • 0
          Они врядли ориентируются на рынок штатов. И не факт, что вообще на корпорации. А по поводу скоростей, вы сильно ошибаетесь. 100мегабит не является чем-то сверхъестественным, особенно для компании в Штатах, но в данном слуае расчет идет на обычный пользователей, у которых 1-10мегаюит и они за 5 баксов не будут забивать терабайт.
          • 0
            >100мегабит не является чем-то сверхъестественным
            я имел ввиду не для дата центра, а для юзеров, которые к центру коннектаца скажем из рашки.
            • 0
              Ну если выкинуть слово «рашка» то аналогично. Думаю что на «рашку» сервис и не стремится работать.
              • 0
                не стремится работать? О_о
                а это тогда что www.backblaze.com/ru_RU/index.html?
                • 0
                  Ну это просто перевод. Может быть сделан на будущее (тут выше вроде говорили что не очень и качественно), может для того чтобы если кто-то из России таки зайдет смогли нормально воспользоваться при желании и возможностях. Однозначно из-за того, что в России плохие каналы, эти ребята сильно переживать не станут, основной рынок у них другой.
                  Вот список стран, с которых посещают из сайт

                  * 47.6% United States
                  * 10.0% Germany
                  * 7.0% United Kingdom
                  * 4.7% India
                  * 3.4% South Africa
                  * 3.1% Canada
                  * 3.1% Australia
                  * 2.0% Sweden
                  * 1.7% Italy
                  * 1.6% Pakistan
                  * 1.3% Netherlands
                  * 1.1% Finland
                  Правда, вроде как больше частью это благодаря статье о хранилищах (эдакий способ пиара), но все-равно, России там даже и близко нет.
                  • 0
                    так и пиар в россии у них только-только начался.
                    на этой неделе только по «айтишникам» прошлись.
                    • 0
                      Они везде прошлись;) Точнее просто сделали интересную статью и на этом пропиарились во всем мире.
                      Россия на самом деле на столько маленький и отличающийся рынок, что западные компании он обычно интересует когда англоязычный и некоторые другие рынки уже заняты.

                      Хотя, судя по тому что они берут 5 баксов за анлим места они сами еще не поняли, чего они хотят, освоение инвестиций, видимо, без особенной бинес-модели.
  • 0
    Хранилище, даже для бакапов, это не только дисковые массивы и др. железо, но и затраты на обслуживание, электроэнергию и самое главное — канал.

    Данные нужно бакапить, и делать это регулярно! судя по наличию отсутствия нормальных механизмов инкрементального бакапа (или я не заметил, понимаю что ручками пользователи могут и сами мутить, я говорю про готовые решения) резервируемые данные должны заливаться на сервер большими объемами (ага, компашку выслать по почте — очень надежный бакап, пакеты тут теряются неплохо и пинги исчисляются сутками и неделями). Канал в этом случае может оказаться одним из самых дорогих по 'тратам во времени', неужели 5$ в месяц это покрывает?
    • 0
      Сказано же, данные дублируются все. Зачем им инкрементные бекапы? они просто их синкают определенные винты и все.
      • 0
        А где именно сказано, что всё дублируется? Я что-то в статье не нашёл. И как в таком случае быть с волшебной ценой в 117$/Гб?
        • 0
          Сори, не говорится. Неверно прочитал фразу «Грубо говоря, каждый раз, когда один из наших клиентов покупает жесткий диск, Backblaze нужен ещё 1 жесткий диск.».
          В прочем, им бы стоило это делать. А стоимость никуда не девается, просто сервер с нужным объемом стоит столько-же. В конечный продукт вложена некая избыточность, но туда еще вложены каналы, обслуживание, электропитание и много чего такого, о чем в статье не говорится.
          • –1
            Просто проблема в том, что в цены их конкурентов из таблички это всё уже включено. А BB показывает цену только за одну голую железку. Немного нечестно.
            • –1
              Ну в таких таблицах и сравнениях честность вообще редко бывает;)
              • 0
                Ну вот вам первая нечестность. Они берут у «брендов» (NetApp и EMC) самую дорогую железку, которая, конечно же дорогая не потому что она много дисков держит, а потому что офигенно быстрая.
                Выбирают же они самую дорогую, потому что она одна держит заявленный ими петабайт емкости для сравнения.

                И сравнивают ее _одну_ с кучей (15 штук) своих дешевых боксов, которые каждый петабайт не держит, а всего лишь по 67TB, просуммировав их.

                Если бы они взяли у конкурентов из брендов не одну дорогущую и супербыструю железку, а тоже 15 поменьше и, соответственно, подешевле, то цифры были бы совсем другими.
                • +1
                  Тогда посчитайте нам столько же и дешево. А мы посмотрим во сколько это выльется. Ну и по месту тоже напишите ага.
                  • 0
                    «Столько же» не выйдет. Это как сравнивать грузоподъемность и цену 50 вазовских «копеек» с прицепами для рассады и тягача Вольво. Вольво (к счастью) не выпускает аналогов вазовских «копеек» :)
                    • +1
                      А теперь сходите на сайт товарищей и посмотрите чем они занимаются. А потом скажите мне вы возите чернозем на дачу тягачем Вольво?
                      • +1
                        На сайте калифорнийских товарищей я был еще до того, как появилась эта заметка на Хабре. Работа у меня такая, следить за такими вещами. Ну поржал, да, коллегам показал, они тоже поржали. Потом увидел тут.

                        Ну так и сравнивать надо им не с тягачом Вольво тогда, а с трактором каким-нибудь, не вводить публику в заблуждение. Такое сравнение подразумевает соответствие уровня, которого нет.

                        Но с трактором такого красивого графика не выйдет ;)
                        • +1
                          Хорошо приведите трактор. Я хочу увидеть реальную альтернативу сделанному товарищами решения. Вы же здесь очень много слов говорили о том что это плохо а у нас то ууу а нас то ооо. Но так и не сказали ничего определенного в плане альтернатив. Может вы уже приведете альтернативу и расскажете чем она лучше?

                          PS я бы хотел вам напомнить, что гугл начинался с таких же наколеночных устройств. И на данный момент сервера гугла от этих наколеночных устройств судя по пробегавшему ролику далеко не ушли.
                          • +1
                            Так не занимаюсь я говнами, уж простите великодушно :)
                            Это вам надо у тех кто занимается спрашивать.

                            Реальную альтернативу в чем? В раздаивании инвесторов на бабло? Тут я не силен, сам бы поучился.
                            Других альтернатив в попытке продавать неработоспособное решение я не вижу.

                            Не знаю куда уж пробегал тот ролик, но я видал и глазами и на картинке достаточно серьезных решений по хранению данных, они на это ничуть не похожи.

                            Не понимаю о чем мы спорим. Вам нравится — пользуйтесь на здоровье. Хочу пожать вам вашу смелую мозлистую правую руку, берите кровные 5 баксов, поддержите чувачков рублем. Мы же предпочтем по старинке.
                            • +1
                              Так не занимаюсь я говнами, уж простите великодушно :)

                              Дада я все время забываю что вы занимаетесь крутыми системами.

                              Реальную альтернативу в чем?

                              Системе хранилища в посте.

                              Не понимаю о чем мы спорим.

                              Напоминаю:
                              Я вам скажу как профессионал в этой области, много лет занимающийся как серверами, так и системами хранения. Это ппц, извините.

                              Это не то что «не взлетит», оно даже по полосе ровно не поедет.

                              Я вам привел пример того что очень даже взлетит и поедет. Но вместо каких-то внятных контраргументов мне начали рассказывать про арифметику, красный свет светофора и т.п. На ответ професиионала это не тянет.

                              Еще кроме меня дать конкретный ответ просили
                              shergin и esc
                              вот буквально тут:
                              habrahabr.ru/blogs/hardware/68832/#comment_1955783
                              habrahabr.ru/blogs/hardware/68832/#comment_1955693

                              Вот вы можете как профессионал сравнить приведенную систему с любой из указанных ими в табличке и аргументировано указать в чем она хуже их в использовании?

                              Мы же предпочтем по старинке.

                              Может уже расскажете про свою старинку?
                              • 0
                                А чего вы так возбудились, я не пойму? Я разбиваю вам вашу детскую мечту, а вы сопротивляетесь этому? ;)

                                Насчет «по существу» я довольно много написал выше, возможно не все вам. Пройдитесь по треду. Непонятно — ну извините. Занимайтесь темой, будет понятнее.

                                Она хуже в главном — она не обеспчиват надежное хранение данных, выполнение ее основной цели. Остальное после этого уже не важно.

                                Вы считаете по другому? Что-ж, давайте каждый останется при своем мнении. Я свое высказал, вы свое высказали, я не смог вас убедить в своем, что-ж, вообще говоря такой цели у меня не было, всех вокруг себя убеждать.

                                Или вы российский представитель этого вот, как он там зовется, стартапа, и отвчаете за его позитивный пиар и продвижение в России? Ну извините, что всю радугу вам тут замазал. ;)
                                • 0
                                  А чего вы так возбудились, я не пойму?

                                  Я просто задаю вопросы. Вы заявили, что вы профи, я вам задал вопросы. Вы так активно от уклоняетесь от ответов, вот мне и интересно. Особенно интересно это на фоне того, что подтверждения того что вы профи никакой.

                                  Насчет «по существу» я довольно много написал выше, возможно не все вам. Пройдитесь по треду. Непонятно — ну извините. Занимайтесь темой, будет понятнее.

                                  Извините, но кроме покупайте диски SAS и FC потому что там ниже вероятность ошибки вы ничего по существу не писали. Опять же уменьшение в 100 раз возможности сбоя не исключает его полностью и мало коррелирует к остальным параметрам системы к таким как RAID-контроллер БП и т.п.

                                  вообще говоря такой цели у меня не было, всех вокруг себя убеждать.

                                  Да ну? А как же заявления, что не взлетит?

                                  Или вы российский представитель этого вот, как он там зовется, стартапа, и отвчаете за его позитивный пиар и продвижение в России?

                                  Ошибаетесь я не представитель.
                • 0
                  Ну, согласитесь, если взять 15 брендованных поменьше, то «не-дисковая» часть цены как раз в 15 раз и вырастет. И не факт, что получится дешевле в расчёте на пресловутый петабайт.

                  Но тут уже хорошо бы переходить к конкретным ценам и моделям.
            • 0
              Включено только у сервисов. В случае устройств от Dell и Sun указывается цена на патабайт с одной железкой.
  • 0
    А может кто подсказать пару таких онлайн сервисов, только более подходящих для «IT-бэкапов», типа сливать на всякий случай зашифрованный бэкап базы на пару ГБ ежедневно?
    • 0
      Сервисов дающих от 2 до 5 TB довольно много. Зарегистрируйте сто почтовых ящиков, создайте сто логинов, вот вам уже полпетабайта.

      Сходу, из головы:

      box.net
      mozy.com
      liondrive.com
      mydisk.se
      divshare.com
    • +1
      Блог / Хабрацентр им. dobriykot -> Резервное копирование он-лайн
      Там сравнительная таблица с чуть ли не 20 подобными сервисами.

      К сожалению, большинство хабралюдей не понимает, что эти сервисы ориентированы на американских домохозяек, а не на ушлых русских айтишников.
      • 0
        А что хорошего есть для ушлых русских айтишников?
  • –1
    Кстати. Все на самом деле еще любопытнее.

    Я не поленился полазить по собственно вебсайту.

    Господа спорящие, а ведь там нигде не сказано, что данные этот самый backblaze хранит вот на этом самом вот красном ночном кошмаре сисадмина!

    Все что мы имеем:
    1. Несколько 3D-моделей конструкции.
    2. Фотографию сборки корпусов в стойку, где видно примерно две частично заполненные 19" стойки.

    Причем присмотритесь внимательно:
    а. дисков в корпусах — нет. Ни в одном из установленных в стойку корпусов. Виднеются какие-то белые детали, похожие на шлейфы. Шлейфы? Для SATA?
    б. корпуса смонтированы не на рельсы, а на зачем-то крашеные красной краской «уголки». Это значит, что выдвинуть эти корпуса из стойки будет весьма непросто. А делать это придется, причем часто.
    в. Корпус закрывается сверху крышкой целиком, а не только секция с дисками, как это у, например, Thumper, который они явно конструкивно копируют.
    Это значит, что для замены диска корпус придется выдвинуть из стойки на всю его длину, для снятия крышки, а так как рельсов нет, то это значит, что выдвинуть его будет непросто.

    Налицо критическая непродуманность конструкции.

    Лазим по сайту далее.

    Нигде на сайте не утверждается то, что данные их пользователей хранятся вот на этом!

    Зато есть следущее:

    Where Your Data is Stored
    • 365 Main Datacenter
    • Shared with Sun Micro., Cnet, Esurance
    • 24x7 Onsite Staff
    • Biometric Security
    • Diesel & Induction Power Redundancy
    • 25 Independent Telecom Providers
    • 24” Raised floor with Seismic Pedestals

    Мало похоже на описание самодельного хранилища, не так ли?
    365 датацентров, совместно с Sun, CNet…
    Совершенно очевидно, что они просто арендуют емкости хранения в обычных датацетрах, это на самом деле недорого в Америке.

    Теперь смотрим, что же предлагают наши потенциальные друзья. А они предлагат самописанну программу, которая будет бэкапить данные. И все.

    По моему весь этот шум с «самодельными петабайтами» это обычный пиар-повод.
    Тем более достаточно посмотреть на то, сколько «о нас пишут» перечислено на сайте, чтобы понять, что ребята вопросом «паблисити» всерьез озабочены.

    Итог:
    По моему нас глупо разводят. Backblaze это обычные реселлеры сетевого бэкапа, активно пиарящие себя в прессе, и продающие его через свою программку резервного копирования. 5 долларов в месяц это вполне обычные деньги для такой услуги.
    Например я пользуюсь на свем ноуте бэкапом от mozy.com, там тоже есть анлим за 5$ (даже за 4.95$;)
    Возможно они и экспериментируют с какими-то своими железками, но прямых свидетельств того, что данные на них в самом деле хранятся найти не удалось.

    Хау. :)
    • 0
      Вот тут-то вы и спалились!

      а. дисков в корпусах — нет. Ни в одном из установленных в стойку корпусов. Виднеются какие-то белые детали, похожие на шлейфы. Шлейфы? Для SATA?

      Это вентиляторы! И на схеме четко видно что с этой стороны стоит 3 вентилятора. И под этим углом их видно и будет.

      б. корпуса смонтированы не на рельсы, а на зачем-то крашеные красной краской «уголки». Это значит, что выдвинуть эти корпуса из стойки будет весьма непросто. А делать это придется, причем часто.

      Смотрим чертеж. Рельсы находятся в нижней части сервера, как под этим углом вы их хотите увидеть? Красный же уголок является основой к которой крепятся рельсы.

      в. Корпус закрывается сверху крышкой целиком, а не только секция с дисками, как это у, например, Thumper, который они явно конструкивно копируют.

      А это и не обязательно. Между корпусами оставлен небольшой зазор, достаточный для вытягивания крышки со стороны подключения питания. Я кстати так же делал при закреплении серверов с сплошной крышкой. Перед проведенеием работ крышка вытягивалась и дальше сервер выкатывался.

      Т.е. как минимум я могу сделать вывод что железо вы в стойку никогда не ставили.

      Нигде на сайте не утверждается то, что данные их пользователей хранятся вот на этом!

      Если я правильно понимаю, они их только начали ставить и делать, причем в своем датацентре. До этого они они использовали другие датацентры и системы хранилища что такого удивительного?

      Теперь смотрим, что же предлагают наши потенциальные друзья. А они предлагат самописанну программу, которая будет бэкапить данные. И все.

      У Sun IBM они тоже самописные ;))) К тому же свой набор ПО они использовали для бекапа на модные хранилища.

      По моему нас глупо разводят. Backblaze это обычные реселлеры сетевого бэкапа, активно пиарящие себя в прессе, и продающие его через свою программку резервного копирования.

      А помоему вы являетесь профессиональным продавцом систем хранения. И это кстати многое объясняет :)
      • 0
        > Вот тут-то вы и спалились!

        Пооже «ловля» меня стала для вас единственной целью посещения треда ;)

        > А помоему вы являетесь профессиональным продавцом систем хранения. И это кстати многое объясняет :)

        Я действительно являюсь «профессиональным продавцом систем хранения» но объясяет это только то, почему я оношусь к этому разводу без вашего щенячьего восторга. Просто я знаю, что «низкая цена» не дается дешево, и слишком хорошо представляю себе все их проблемы, с которыми вы еще даже и не сталкивались.
        • 0
          Пооже «ловля» меня стала для вас единственной целью посещения треда ;)

          И это тоже :]

          Я действительно являюсь «профессиональным продавцом систем хранения»

          Меня собственно это и интересовало. Продажа систем увы никак не коррелирует с их эксплуатацией и стоимостью владения.

          Просто я знаю, что «низкая цена» не дается дешево, и слишком хорошо представляю себе все их проблемы, с которыми вы еще даже и не сталкивались.

          Вообще-то у меня с полсотни серверов именно на десктопных компонентах и десктопных винчестерах. Конечно у меня есть несколько Hi-End серверов для критических к производительности и нажености сервисов, но остальная часть именно такая. В эксплуатации подобные системы в режиме нонстоп работают по несколько лет. Сбои конечно есть, но их количество не таково каким вы хотите его представить и обходятся они дешевле чем покупка брендовых серверов :)
          • 0
            > Продажа систем увы никак не коррелирует с их эксплуатацией и стоимостью владения.

            Еще как коррелируют. Продажи бывают разные, а вы понимаете их очень ограничено.

            > Вообще-то у меня с полсотни серверов именно на десктопных компонентах и десктопных винчестерах.

            Я уже предлагал пожать вам вашу крепкую и храбрую мозолистую правую руку за это, но вы что-то застеснялись.
            • +1
              Еще как коррелируют. Продажи бывают разные, а вы понимаете их очень ограничено.

              Вы не работаете непосредственно с железом. Так что единственное что вы можете рассказать про эксплуатацию и стоимость владение это то что написано в спецификациях.

              Я уже предлагал пожать вам вашу крепкую и храбрую мозолистую правую руку за это, но вы
              что-то застеснялись.

              Интересно в чем же заключается храбрость? :]
              • –1
                > Вы не работаете непосредственно с железом.

                А с чем я работаю? 8) Вот вы смешной! :)
                Пресейл в крупном интеграторе или дистрибьюторе за пару лет видит и близко знает больше разнообразного железа, чем вы за всю свою службу, потому что мы видим и используем самые новинки, а вы — только свою самодельную «полсотню».

                Давите из себя сисадминство, давите по капле, а то так и будете всю жизнь патчкорды перетыкать в своих «полсотни серверов на десктопных компонентах»
                • +1
                  Пресейл в крупном интеграторе или дистрибьюторе за пару лет видит и близко знает больше разнообразного железа, чем вы за всю свою службу, потому что мы видим и используем
                  самые новинки

                  Вот во всем этом треде, я как то не замечаю, что вы близко знаете и видите железо. Даже банально по фотографии вентиляторы не опознали.

                  Давите из себя сисадминство, давите по капле, а то так и будете всю жизнь патчкорды перетыкать в своих «полсотни серверов на десктопных компонентах»

                  А кто вам сказал, что я только пачкорды перетыкаю? :]
  • 0
    А кто-нибудь уже воспользовался сервисом? какие впечатления?
    • 0
      Я пользуюсь бесплатным планом на mozy.com. Мне нравится.
      Смысл тот же. На компе программка, висит в трее, ей указываешь что копировать, он их шифрует и раз в день на их сервера, при обнаружении наличия быстрого интернета льет. Можно так же восстановить как отдельный файл, так и скачать с веба архив всего залитого. Можно восстановить на «голую машину», например после полной потери данных или на новый ноут.
      У них тоже есть анлим за 5$. Только вот все то происходит не на якобы самодельные сервера, а как-то, по видимому, более человечески.

      В прошлом году их купила EMC, один из производителей «стррррашно дорогих» ;) стораджей, с которыми «борются» эти вот backblaze ;)
      Подозреваю, что бэкапы хранятся теперь на их стораджах. Цена не изменилась ;)
      • 0
        А что значит быстрый интернет в их понимании? На 700 исходящих килобитах комфортно будет?
        • 0
          Там по-моему настраивается. Сделано это, чтобы оно не решило побэкапить, например, на GPRS-ном модеме, и это разумно.
  • 0
    Блистеровочная Скорость
    Мы ненавидеть программное обеспечение, замедляющее наши компьютеры, поэтому наши специалисты разработали уникальную систему оптимизации качества…

    Нетребуется кредитная карта.

    У вас тысячи фотографий, загрузок музыки, и множество других файлов, и вы хотели бы все это получить обратно?

    Запятые!!! Стилистика!!! Ужас…

    Русский язык для вас родной?

    https://www.backblaze.com/ru_RU/internet-backup.html?bznetid=11231044161252301435059
    • 0
      Это машинный перевод, если ч0.
  • НЛО прилетело и опубликовало эту надпись здесь
  • 0
    Полный оригинал на Английском — blog.backblaze.com/2009/09/01/petabytes-on-a-budget-how-to-build-cheap-cloud-storage/
    • 0
      FYI, ссылка на оригинал есть в любом хабратопике-переводе.
      Чуть выше начала комментариев видите строку:
      +122 5 сентября 2009, 23:06 Tim Nufire AntonShcherbinin
      ?
      Вот в Tim Nufire кликаете и попадаете на оригинал.
      • 0
        Спасибо. Просто новый интерфейс Хабра — немного не интуитивный для меня, всё не привыкну. Ждём продолжения перевода, довольно интересно.

Только зарегистрированные пользователи могут оставлять комментарии. Войдите, пожалуйста.