Пользователь
0,0
рейтинг
15 августа 2011 в 14:13

Приключения с Clodo: про земной и заоблачный подход к работе

Мы вот очень любим делать свою работу качественно. Нравится нам, когда все красиво и при этом работает отлично, деньги приносит.

И нам кажется это естественным: если берешься за определенную работу – идешь и делаешь ее насколько можешь хорошо. Вроде как такая черта должна отличать каждого, кто предлагает что-либо на профессиональном уровне.

Оказалось, не каждого.

Вот, к примеру, в марте месяце начали мы сотрудничать с хостинг-провайдером Clodo.ru, не самым дешевым, но зато обещавшим просто с ума сойти какую надежность. «Облачный хостинг», и правда, первое время вполне себе радовал. На радостях мы перенесли туда и свой сайт, и многие сайты наших клиентов. И настроились на бесперебойную работу. Ан нет.


Началось вроде бы с малого. Смотрим мы как-то – а сайт-то наш лежит. Неприятно.

Смотрим дальше – и сайты наших друзей, нами любовно созданные и размещенные, тоже лежат. Совсем нам неприятно стало.

Мы вообще-то не скандальные и склонны с пониманием относиться ко многим вещам: все люди, и сотрудники компании, предоставляющей хостинг, тоже. Мало ли что у них произошло: замкнуло что-нибудь, и вышло пятнадцатиминутное помутнение на наших ресурсах; ничего, поправят сейчас, они же – надежные.

Подождали немного – помутнение не проходит и не проходит. Вроде как Клодо обещали не больше десяти часов простоя в год. После обеда стало ясно, что все десять часов ребята решили истратить в течение текущего дня.

Как выяснилось дальше, Клодо залезли в кредит допустимого «мертвого» времени на несколько лет вперед: наш и другие курируемые нами сайты несколько раз в течение короткого времени пропадали больше, чем на двенадцать часов.

Мы, конечно, попытались выразить свое недоумение Clodo: писали сначала вежливо, потом сердито, затем звонили сначала вежливо, потом сердито. В связи с этим вынуждены сказать, что «Техническая поддержка 24/7/365», может, и бесперебойная, но уж шибко нерасторопная: вменяемых комментариев от сотрудников техподдержки удавалось добиться далеко не с первого раза. А когда удавалось, от объяснений прибавлялось вопросов, а не ответов.

Вот, к примеру, как-то все лежало «из-за ошибки инженера» – человеческий фактор, все дела, ошибся инженер, с любым могло быть. Вот только после этого его коллеги, видимо, слишком увлеклись воспитательной работой: на внушение раскаяния провинившемуся инженеру бросились всей компанией и трудились над этим часов восемь, а иначе как объяснить, что ошибка все это время не была исправлена и сайты продолжали лежать, как лежали?

Или вот, в следующий раз Clodo переезжали в другой дата-центр. Новость в целом хорошая, только почему они делали это в разгар рабочей недели и днем, а не ночью с субботы на воскресенье, когда потери для клиентов минимальны? И, главное, отчего они настолько импульсивно собрались переехать, что не успели сделать рассылку для клиентов с предупреждением?

А потом наши друзья из Клодо меняли файловую систему. Тоже вещь полезная, ок. Опять же, меняли днем, а не когда это было бы удобнее для клиента, но к такому раскладу мы уже успели привыкнуть. Но они же – хоп! – повредили там что-то в этой системе, да так, что наши сайты мгновенно заболели и умерли. Снова, вероятно, человеческий фактор – то ли прежний перевоспитанный инженер не до конца все осознал, то ли новый сотрудник проявил бестолковость.

Это уже — ну ни в какие ворота, но если долго и трудно искать витиеватые объяснения, то тоже можно понять: возможно, порчу на них навели в этом месяце или злые враги зубами перегрызли жизненно важные секретные провода.

У нас же тоже руки из нужного места растут: ну повредилась файловая система на нашей машине, так мы потратим свое время и вернем нашим проектам все, как было, пусть только уважаемый хостинг Клодо предоставит нам наши бэкапы.

Та-да-дам! – а бэкапов-то и нет! Потерялись, заблудились, враги сожрали. Нет, и все. Классный облачный хостинг Clodo, от которого и требовалось-то только – сохранить нашу работу, как-то не удосужился позаботиться о резервировании копий.

В этой точке рассказа у нас цензурные слова кончаются. Поэтому цитировать, как мы выражали свою печаль, боль и величайшее недоумение в адрес облачного Clodo, мы не станем.

Скажем только, что в течение нескольких недель, помимо работы над реализацией текущих бизнес-потребностей наших клиентов, пришлось трудиться еще в стахановских объемах над тем, чтобы вернуть потерянный материал на круги своя. Лето, солнышко, небо ясное, гуляют люди, а работники сидят в офисе и подчищают ошибки за облачной Клодой. Потому что мы, как уже было сказано, любим делать свою работу качественно, и готовы исправлять ошибки, пусть даже и чужие, ради сохранения качественного результата. Нам – повторимся – кажется, что в этом и проявляется профессионализм. Но теперь перед тем, как начинать сотрудничество с какой-либо компанией, будем гораздо скрупулезнее выяснять, что же они подразумевают под профессионализмом, поскольку, как выяснилось, понимать это можно по-разному.

Alexander Krass @alexanderkrass
карма
27,2
рейтинг 0,0
Реклама помогает поддерживать и развивать наши сервисы

Подробнее
Реклама

Самое читаемое

Комментарии (130)

  • +15
    У скалакси тоже бекапов нет, даже вчерашней давности, вот такие вот у нас облачные сервисы…
    • +1
      А если брать услугу сопровождения — настроят? А должны ли быть вообще бекапы, если в услугах предоставляется только сам сервер?

      Вопрос философский отчасти, но мы собираемся в Скалакси переезжать, а такие посты заставляют поволноваться :(
      • 0
        Если брать их сопровождение то тогда да, будут бекапы сервера, а так их просто нет.
        • +3
          А куда бекапиться, на случай смерти всего хранилища в датацентре? Это как раз то, что они обещают — что файлы не потеряются ни в коем случае. А вот вдруг?
          • +3
            а это уже хз, но лучше прятать самим в разные места и почаще, жить будет спокойней
          • +1
            На амазон?
            • +1
              Да я на Амазон складываю, дешево и сердито
    • +1
      А я отчего-то не видел у салакси 24/7
      • 0
        это вы про что?
        • 0
          Ну как же:" У скалакси тоже бекапов нет". Ну так они и не заявляют о доступности и высокой надежности, по крайней мере денег за это не берут.
    • 0
      Профессионалы в России не хостятся. И бэкапы делают сами.
      • +2
        не слишком ли вы заносчивы? Бывают обстоятельства, бывает необходимость.
        • 0
          например? (белорашша на в счёт)
          • 0
            вам какой? по поводу необходимости? есть клиенты которые принципиальны, обстоятельства — да хоть землетрясение, хоть пожар, что не понятного в моем комментарии. или вы просто строите из себя идеалиста?
            • 0
              Конкретней пожалуйста. Принципиальные клиенты, которые не согласны коннектиться на буржуазный IP? Обстоятельства — частые пожары/землетрясения/наводнения/отключение_света в Европе по сравнению с Россией?
              • –1
                пожары/землетрясения/наводнения/отключение_света больше относятся к обстоятельствам, а у клиентов разные бывают причины
                • +1
                  Так всё-таки, приведите конкретный, хотя бы гипотетический пример :)
                  • 0
                    Госструктуры, где вопрос тайны встаёт даже там где никакой тайны нет :) Вопрос сразу отклоняется при виде забугорных айпишников и доменов отличных от корпоративных… Либо просто попу порвёте, чтобы решить вопрос положительно на всяких согласованиях.
                    • 0
                      Там и профессионализма нет, одни ритуалы.
                      • 0
                        Профессионализм есть, но «ритуалы» и энертность машины сводят все на нет :-(
                        • 0
                          Инертность (предпочтение традиций рефакторингу) — один из признаков непрофессионализма.
                          • 0
                            Вообще-то рефакторинг — это обычно крайняя мера. Все зависит от бюджета, сроков и действительной необходимости. Так что непрофессионализм тут не при чем, тут скорее не знание и не желание использовать более продвинутое.
    • +1
      Бакапы должны быть и у виртуальных серверов, мы например делаем на случай «ошибки инженера» или «враги перегрызли провода», иногда бакапы и клиентам пригождаются.
  • +18
    Да уроды они конченые, что еще сказать. Я тоже изрядно понервничала.
    Полностью согласна с вашим мнением.
    • +2
      Тоже самое, около 50 клиентов перевели, теперь им стыдно в глаза смотреть
    • +3
      habrahabr.ru/blogs/hosting/121080/#comment_3974715
       
      Я смотрю, для кого-то этот Клодо стал просто серийным источником плюсиков в кармочку.
  • +5
    Мы теперь на Amazon перешли…
    • +8
      И как? Мы вот были 5 дней в даунтайме из-за последнего инцидента в дц в Ирландии.
      • +2
        У нас вроде бы всё отлично. Но мне уже тут советуют для надежности арендовать просто два сервера в разных дц, настроить нам нормальную синхронизацию и жить с полной увернностью в том, что всё будет хорошо ).
        • 0
          Странно, что вы об этом ранее не позаботились… Ваши бэкапы — это ваш спасательный круг на случай проблем. Для критичных данных я делаю их два раза в сутки. Хрен с ним, с Клодо, — админу наваляйте. Он виноват. Не предусмотрел. А вы из-за этого, возможно, получили головную боль.

          З.Ы. Хороших провайдеров не бывает. По себе сужу.
      • +1
        В Амазоне — делайте регулярно снэпшоты.

        В итоге очень легко минимизируете время простоев. Вот, например, наш собственный пример, с вязанный как раз с последним инцидентом в Ирландии: habrahabr.ru/company/bitrix/blog/125932/
        • 0
          Они же далеко не во всех случаях они могут помочь. Ну и никогда они не дадут возможность получить консистентый бекап. Плюс у меня в проекте база данных MongoDB, а это значит, что по хорошему надо блочить в ней запись на диск, делать снепшот, а потом включать. Такой даунтайм тоже не очень приятен.
          Понятно, что надо делать репликацию базы и балансировку фронтэндов по разным AZ.
          • 0
            Не во всех, но очень во многих случаях.

            Помогают разные дополнительные инструменты. Например, freeze файловой системы (если она это поддерживает). Мы так без проблем снэпшотами бэкапим RAID-10. Задержка — единицы секунд (ночью). Для клиентов практически незаметно.

            Для восстановления MySQL — дамп, созданный mysqldump + «проигрывание» бинарных логов.

            Не знаю точно, но, наверняка, для MongoDB есть подобные инструменты.

            P.S. В общем, все это сводится к тому, что с бэкапами и репликацией в разных AZ лучше, чем без них. ;))
      • 0
        В Амазоне — делайте регулярно снэпшоты.

        В итоге очень легко минимизируете время простоев. Вот, например, наш собственный пример, с вязанный как раз с последним инцидентом в Ирландии: habrahabr.ru/company/bitrix/blog/125932/
        • 0
          Сорри за дубль. Хабр сделал его, сказав: «SQLSTATE[HY000]: General error: 2006 MySQL server has gone away»
    • –18
      Вы специально пост сопровождаете с ddos на клодо?
      Или совпало случайно?

      з.ы. имею 2 серванта на клодо и ничего общего не нахожу с вашим проплаченным постом который находится в блоге «Я пиарюсь»
      • +1
        Про проплаченный пост — толсто. Google -> clodo.ru отзывы
  • +4
    Услуга бекапов должна быть платной, либо четко прописана в договоре.
    Раз в определенное время бекапы надо проверять на возможность с них восстановить сайты, просто в один прекрасный день ты вытаскиваешь из широких штанин бекапы, а там каша и никому она не нужна.
  • +8
    И своих бэкапов, конечно же, не было. Платформа должна о них заботиться, как же. Нисколько не оправдываю хостера, но и своему сисадмину уши бы надрали.
    • +2
      Свои были, но делались они относительно нечастно… понадеялись на обещания хостера… А без этих бэкапов вообще бы вся информация пропала.
    • НЛО прилетело и опубликовало эту надпись здесь
      • +2
        Вроде основная фишка облаков это прозрачная масштабируемость.
  • +1
    У меня на Clodo был виртуальный сервер, для лично моих потребностей — «песочница». Падали они, падали, но мне не сильно критично. А когда они пользователям адреса меняли, я подумал что в любом случае ждать обновления записей домена, зашел на http://hetzner.de, и теперь радуюсь. И Google тоже «радуется»:
    image
    • +2
      Hetzner тоже ещё те ребята… У меня там сервер и VPS были на одном проекте… Канал часто глючил и в конце концов сервер практически сдох… физически ))). В общем, ушли мы от них.
      • НЛО прилетело и опубликовало эту надпись здесь
        • –1
          ДЦ в Германии, а пользователи в России.
          • НЛО прилетело и опубликовало эту надпись здесь
            • –1
              Всё возможно. Только с Linode вроде бы такого не бывает, а у них дц в Европе тоже есть…
              • НЛО прилетело и опубликовало эту надпись здесь
            • 0

              Это мониторинг hetzner за июль. Один отказ и переодическое торможение раз в несколько дней

              И это один из лучших stand alone хостеров.
              • 0
                Мы бы уже ушли из своего ДЦ при таких раскладах.
                Понятие стабильности и надежности у всех разное.
                • 0
                  Если у вас все в одном ДЦ, то не стоит тереть по понятиям :) о надежности.

                  У меня опыт наверно с десятком stand alone ДЦ. В основном в штатах, пара в англии и вот еще Hetzner — все примерно одинаковы — у всех бывают проблемы — у кого чаще, у кого реже, но они есть. Отличия лишь в том как они с ними справляются.

                  Да, до CDN мои сегодняшние клиенты еще не доросли ( или я их недодавил ) но все идет к ним, родимым.

                  Я думаю что подобный график, а то и хуже и намного, можно найти для любого отдельно взятого ДЦ.
                  • –1
                    6 точек присутствия в геокластере для раздачи и 6 стоек в ДЦ для обработки данных…
                    Я могу «тереть по понятиям».

                    А Хетзнер как был говном с десктопными компьютерами, так им и останется.
                  • 0
                    Попробуйте 1&1. Такого ужаса я там не видывал.
      • +1
        Странно. Его обычно все хвалят. Буду иметь ввиду.
        • –1
          Тут как повезёт. У меня тоже друзья на нём сидят и всё просто отлично. Мне кажется, что если попалось плохое железо, то сложно будет договориться и удовольствие будет ниже среднего, а если всё ок, то будете счастливы ).

          Когда я сам выбирал использовать его или нет, то видел тоже много хороших отзывов, но были и отрицательные.
          • 0
            Разница в надежности хорошего сервера и десктопа «аля Хетзнер» примерно 1:10000 и 1:1000.
            Т.е. вероятность скорого вылета или брака в сервере 1 к 10000 элементов, в том что предлагает Хетзнер 1 к 100.
            С одной стороны это неплохая статистика, а с другой когда проект приносит деньги эта статистика приведет к потерям превышающим стоимость серверного железа.

            К тому же серверное железо сейчас стоит не на много дороже десктопов.
            И срок окупаемости для него можно поставить намного больше.
            Потому что жить оно будет дольше.

            Эту математику уже давно посчитали и сделали выводы.
            Потому строят датацентры, а не используют склады.
            Потому покупают сервера, а не б/у железки по офисам.
  • 0
    То есть совсем все что было потеряли без возможности восстановить?
    Тогда в суд надо подавать, не иначе.
    А по поводу облачного хостинга, мне всегда Linode.com казался надёжнее отечественных. Притом, что разница в скорости не такая существенная.
    • –1
      Да, именно так. У нас должны были быть бэкапы… А нам говорят, что они тоже пропали )).
      Можно, конечно, но что мы с этого получим? А сколько потратим времени и денег?
    • 0
      Да, был выбор Linode или Amazon. Просто Amazon более гибок по части увеличения нагрузки. Linode же просто VPS дает, но надежность у него, на мой взгляд, не меньше чем у Amazon.
  • +3
    Хороший пост. Я тоже думал нечто в таком роде написать. Только у меня, тьфу-тьфу-тьфу, данные не повреждались…
  • +3
    На одного админа станет больше, который «уже делает бэкапы».
    • НЛО прилетело и опубликовало эту надпись здесь
  • 0
    Переведите своих клиентов в BURST — клодо раем покажется, а их сотрудники Энштейнами )))
  • +2
    Да что ж вас всех тянет на русские хостинги-то. Это надо ни разу не заглянуть на хостинг форумы во время выбора. Всегда так и всяк и на раскаряк было с ними.
  • +1
    Не храни все яйца в одной корзине.

    Уж сколько было похожих статей на Хабре. Бэкапы — это не та вещь, которая должна отдаваться на откуп кому-то другому.
    • +4
      Имхо, доверять бэкапам датацентра — все равно, что бэкапиться на тот же винт.
  • +3
    Отличный стиль, напомнило советские фельетоны.
  • +1
    Давно ушел от них почуяв неладное. Странные ребята, постоянные проблемы им самим не надоели? Или это запланированные теракты направленные против клиентов
  • НЛО прилетело и опубликовало эту надпись здесь
    • +1
      Видимо, нет ).
  • –8
    Можно потопчусь по трупику? )) Рекомендую www.cloudone.ru/ — проверено, бекапы есть!
    • +4
      За такие деньги? Может, лучше реальный сервер взять в аренду?
      • –2
        И ведь берут =)) мы уж и так цены вверх, а все равно берут :))
        А если по существу, то мы и таким все знаем разницу между дедиком и виртуальным сервером, их преимущества и слабые места. Так что не будет разводить холивар.
      • 0
        Уважаемый amarao.
        Раз уж Вы тут… расскажите как дела обстоят у вас, а то я стою перед нелегким выбором куда податься.
        • +2
          Работаем. Если есть конкретные вопросы — могу ответить.
          • 0
            Бакапы есть?
            А если найду?
            • +4
              Есть" наши" бэкапы на случай великой катастрофы. Клиентам они в нормальном режиме не доступны.

              Снапшоты для машин — в процессе обдумывания методов аккаунтинга (кто платит за обработку цепочки снапшотов?).
              • 0
                Мне нравится техника а-ля амазон/клодо — стоимость фактического места на диске на бакап.
                Вот только у клодо не хватает важного — кнопочки «периодичность».
                То есть я бы хотел держать два бакапа, один обновляется каждый четный час, второй каждый нечетный час.
                Таким образом даже в случае астрального краха невовремя один да окажется целостным.
                • –1
                  Кнопочка находится в процессе прикручивания.
                • +3
                  Кстати, как вы себе представляете бэкапы «раз в час» например, 2Тб диска? (А лучше несколько по 2Тб).

                  Если же речь про снапшоты, то там главный вопрос: как аккаунтить хождение по цепочке снапшотов? Если цепочка достаточно длинная, то worst case — это увеличение сложности дисковых операций на порядок.
                  • 0
                    2Тб раз в час не выйдет, хотя если снапшот то вполне.
                    А в чем проблема с цепочками? Вот у нас есть блок, помеченный снапшотом. Вот в него записали — блоков стало два. Вот и аккаунтим 2 при этом.
                    Амазон же как-то аккаунтит снапшоты без больших проблем. Только по размеру диска.

                    А усложнение дисковых операций — тут я не вижу проблем. что одна машина создаёт обращения в разные места, что 100 машин — всё равно упирается в кеш же.
                    • 0
                      Я не про место. Допустим, у нас прямые инкрементальные снапшоты. Это означает, что мы имеем o(1) запись и o(N) чтение незаписанного (worst case). Если у нас цепочка из 10 снапшотов, то операция чтения должна проверить 10 cow-таблиц перед выполнением.

                      Эту нагрузку кто терпеть будет? (Заметим, вариант с cow ещё гуманный, если использовать reverse-differencial из LVM, то будет вообще швах, o(N) каждая запись).
                      • 0
                        Нам не надо цепочки. бакап должен лежать в другом углу комнаты для защиты от метеорита.

                        Процесс бакапа:
                        1. Включили снапшот.
                        2. Копируем снапшот в бакап-спейс (можно rsync)
                        3. Убили снапшот.

                        Для ускорения пункта 2 можно ввести к блочному устройству дополнительный журнал возрастов, где для каждого 1-16-128M пространства вести счетчик числа записей. Не биты COW, а именно счетчик записей. тогда надо будет перекопировать только те блоки, чей счетчик больше чем в прошлом бакапе.
                        Так же и инкрементальные делаются.

                        А просто инкрементальные снапшоты это совсем не торт — они для хранения «на том же месте» заточены — если бакап стоит отдельные деньги, лучше его хранить в другом месте, и тогда у нас всё те же O(1).
                        Да, задержки на счетчик есть — но они уже невелики по сравнению с ведением полноценного бакапа, да и писать на диск их не обязательно часто — достаточно флага «грязности». Если счетчики помечены грязными на диске — считать всё грязным и не полагаться на них.
                        • 0
                          Если мы делаем «бэкап» в другом углу комнаты каждый час, то это те самые терабайты в час. У меня время репликации по DRBD каждого хранилища — около 12 часов. Как я могу его за час скопировать?

                          А постоянные (пусть и меняющиеся) снапшоты) — та же дилемма, что делать с ростом нагрузки на дисковую подсистему? (Кто за это платит и сколько?)
                          • 0
                            Ну что за привязка к «раз в час»? Раз в час это я для своих задач же сказал, у меня сервера прекрасно влезают на винты в 80 гиг, где запущено 4-5 виртуалок + место под бакапы другого сервера.
                            Как правило 1 виртуалка это 10 гиг.
                            10 гиг за час вообще не являются проблемой.
                            Если бакапить надо терабайт — то там и время между запусками бакапов должно быть пропорционально увеличено.
                            Скажем так — не запускать новый раньше завершения предыдущего + некая дельта.

                            Что касается стоимости — если считаются ёпсы, то ёпсы бакапа считать как обычные, имхо. Это как раз будет стимулировать не делать бакапы чаще необходимого.
                            • 0
                              Вот «ёпсах» снапшотов и есть основная проблема. Так как у блочного устройства иопсы не зависят от числа операций, которые выполнил blktap, то нужно отдельно высчитывать мультипликатор.

                              Вот тут вот я как раз и думаю.
          • +2
            Даже лучше так:
            Бакапы есть?
            А если НЕ найду?
            :)
        • +2
          Я с клодо подалась к ним, довольна очень. Были два очень кратковременных сбоя (один из них ночью — клиенты не заметили ничего), за оба начислена суточная компенсация. ТП отвечает очень оперативно и компетентно. У меня, правда, бэкапы всегда и везде свои :-)
        • +1
          Личный опыт:
          Панель управления виртуальными машинами удобная, графики красивые, консоль отличная, за два месяца — проблем не было ни разу. По телефону отвечают сразу, даже среди ночи.
          На мой тикет ответили за час (хотя там вопросы были чисто с целью поинтересоваться и статус «низкий»).
          В общем, мне нравится.
    • 0
      Откуда инфа, что есть бэкапы?
      • 0
        для меня настроили бекап раз в сутки моей машинки. Недавно сломал тикетницу — попросил, за 3 мин накатили бекап, все супер.
  • +2
    Мне кажется, проблема всех наших русских хостингов в том, что люди не привыкли нести ответственность за содеянное или случившееся. Соответственно и в случае факапов никто не напрягается.

    Рублем по ним надо бить, уходить к буржуям.
  • –5
    По-моему пост маленько устарел. Сейчас уже резервные копии есть, но платные. И еще голова болит из-за грядущего платного трафика.
  • 0
    Меня во всей этой шаражке начинает радовать ценовая политика. У меня там крутятся пара не критичных сервисов, которым падение на сутки не грозит, в общем-то, ничем. В месяц мой VPS (512Мб RAM 20Гб HDD) потребляет около 100-150 Гб трафика с соотношением 75% вход/25% исход (данные парсим, поэтому такой перевес в сторону входящего). Ну, пока их VPS стоил копейки и имел unlimited трафик, с постоянными падениями можно было мириться, но сейчас, в связи с вводом платного трафика, цена VPS становится выше, чем у аналогичного на Linode

    570 руб в месяц обходится сам VPS
    + трафик даже при минимуме в 100Гб даст 75 * 0.2 + 25 * 1 = 40
    Итого 610 рублей

    Linode 521 (512 Мб RAM, 20 Гб HDD и 200Гб включенного трафика) даже при курсе 30 рублей за 1 USD будет стоить 600 рублей.

    Таким образом, с 1 сентября для проектов, чей ежемесячный исходящий трафик превышает 30Гб, Clodo окажется дороже Linode. Мне смешно, а вам? Единственное преимущество этих товарищей это низкий пинг для России, но, честно, не уверен, что суточные падения стоят этих 40-50мс.
    • +2
      С вашими запросами и некритичностью вам на «Хетзенгер» VQ7 за 7.90 евро.
    • –2
      Вы в расчетах забыли учесть, что одновременно с введением платного трафика снижается стоимость виртуального сервера. В вашем случае как раз на 40 рублей. Для вас стоимость виртуального сервера останется на прежнем уровне.
      • +1
        Максим, давайте не будем играть с цифрами. Понижение стоимости аренды самого VPS компенсирует введение платного трафика только в моем случае. Будь у меня нормальный web-проект со средней посещаемостью и без парсинга данных, ситуация могла бы быть хуже — 100 гб с соотношением 75% выход/25% вход дают нам 80 рублей плюсом, что никак не покрывается снижением цены VPS.

        По большому счету, вы уже сейчас по ценам (учитывая курс доллара разница между вами рублей десять-пятнадцать) находитесь в прямой конкуренции с Linode. Но у Linode есть весомое преимущество — отсутствие позорных многочасовых падений в последние лет этак пять. Ну и 200 Гб трафика в комплекте, которые у вас будут стоить, в самом дешевом варианте (все на вход) — 40 рублей.
        • +1
          Я лично мониторю всех ближайших конкурентов начиная с сентября 2010 года. Это около 30 vps хостингов включая linode. Если быть точным, linode на мониторинге с 24 сентября. Смотря на статистику хоста жив/мертв (ping, get раз в минуту) я вижу 21 час простоя за срок чуть менее 11 месяцев. Среди всех vps-хостингов которые я мониторю нет ни одного кто показал на 100% устоичивую работу.
          • +1
            Ну, 21 час за 10 месяцев это грубо 99,7% uptime. За восемь месяцев downtime Clodo составил, по грубым подсчетам (то, что проскакивало на хабре):

            10 июня 2011 — 18 часов (http://habrahabr.ru/blogs/hosting/121080/)
            20 мая 2011 — 9 часов (http://habrahabr.ru/blogs/hosting/119657/)
            26 января 2011 — 1 час (http://habrahabr.ru/blogs/hosting/114073/)

            Итого 28 часов подтвержденного «лежания». Это примерно 99.5% uptime за последние восемь месяцев. А на сайте написано 99.9%.

            Еще возник такой вопрос. Вы мониторите главную страницу сервиса или у вас VPS у каждого из конкурентов? Просто, если судить по clodo.ru, то у вас действительно uptime близкий к 99,9%, т.к. если мне память не изменяет, когда в июне клиентские VPS лежали, сайт хостинга продолжал открываться (или поднялся достаточно быстро). Есть мнение, что и обратное верно, т.е. если, допустим, ваш форум на профилактике, это совершенно не сказывается на клиентских машинах.
            • 0
              Мониторю естественно не главную страницу хостинга а созданные bps с устанвленным wordpress.
              • 0
                *bps=vps
              • 0
                Ладно, спорить не стану, будем считать, что вы меня убедили в том, что у Linode с uptime тоже проблемы. Но, нельзя ли уточнить, какой максимальный срок «лежала» машина? Ну, в смысле, вряд ли падение на 21 час обошлось бы без «бурления» в интернетах, значит было несколько коротких. Так вот, которое из них, по вашей статистике, было самым длинным?

                Да и вообще, если вы ведете подобную статистику, не грех написать статью сюда. Я думаю, многим будет интересно знать реальное положение вещей, а не то, что написано на сайтах.
                • –2
                  Самый долгий получился 4ч. 38 мин. Статью писать не собираюсь ибо кокуренция подразумевает некоторую этику. Люди говорят: на чужом несчастье своего счастья не построить. Могу лишь сказать что по общему аптайму clodo держится в десятке с показателем 99,987 (с 1 октября 2010 г. По текущий момент). Не спорю, у кого то этот показатель выше, так как глобальных падений было только два. Июньские проблемы задели малую часть клиентов, но очень активных в плане «разоблачающих» статей.
                  • –2
                    Сорри, девятку лишнюю приписал, у clodo 99,87%
                  • +1
                    Клиентам, которых эти проблемы коснулись, совершенно всё равно мало таких как они или много. Они попали из-за того, что вы не соблюдаете контракт, на серьезные суммы. И ещё вопрос насколько мало таких клиентов было — очень уж много кто даже в этой статье написал о схожих проблемах.
                    • –3
                      В моем понимании таких клиентов было мало — при подробном рвзборе полетов оказалось, что менее 4% от активной клиентской базы. Я понимаю возмущение тех, кто попал в эти 4%, но 100% надежности не существует ни у одного из хостингов, ни на собственном сервере.
                      • +2
                        Это не 100% надежность. Это потеря бэкапов и подсудное дело.
  • +9
    Я всё жду, когда их сайт задефейсят красивой такой картинкой, где 99.9% зачеркнуто и рядом корявой рукой написано 80%?
  • –1
    Небольшой комментарий.

    Центральная проблема, обозначенная в записи, относится по времени к концу первой декады июня. Мы сожалеем о том, что это произошло; компания с тех пор была подвергнута ряду технических и организационных изменений, о которых мы расскажем позже, если появится интерес. Мы понимаем, что это никак не вернет потраченного времени ваших сотрудников. Мы очень старались помочь вам восстановить как можно большее количество данных и закончили работу только тогда, когда сделали все возможное.

    Возникшие трудности решала не техническая поддержка, а ведущие специалисты; с вами общались не рядовые сотрудники службы поддержки. Нам очень жаль, что до конца первой декады июня со стабильностью Clodo наблюдались те проблемы, которые наблюдались. Мы очень серьезно поработали и исправились.
    • +2
      У меня вот такой вопрос: почему вобще не было компенсации за последний раз (июнь)?
    • +1
      Спасибо за старания, но это не вернёт нам потраченных на устранение вашей ошибки денег. Я понимаю ещё сбои в работе хостинга, и то не на такие сроки… но потерянные бэкапы… Как минимум, нужно было вернуть наши затраты на хостинг за последние месяцы и извиниться.
  • +8
    Ох уж это клодо. Сначала они падали 1 раз в неделю: то их ддосят, то у них тех проблема, то еще чего. Терпел это говно, так как понравилась сначала как все устроено. Перетащил еще 7 друзей с дури. Сегодня приехал из отпуска, а мой сервер оказывается удалили. Уже 5 дней не было оплаты и сервер удалили безвозвратно. Это свинство. Месяц могу понять, но 5 дней… Как пришел на клодо, так и уйду. Всех уведу и обосру клодо в каждом комменте, где будет ключевое слово «хостинг» и «вдс».
    • 0
      3.10 В течение 14 (четырнадцати) дней с момента образования нулевого баланса на Лицевом счете Абонента учетная запись Абонента сохраняется. По истечении этого срока вся информация Абонента автоматически удаляется. При этом последние 5 (пять) дней указанного срока являются резервными, и Оператор не несет ответственности за преждевременное удаление информации Абонента. Сохранение учетной записи не означает сохранения каких-либо данных, загруженных Абонентом на серверы Оператора.

      Если между фактом образования нулевого баланса и удалением виртуалок прошло меньше 9 дней, то Clodo плохие, т.к. забили на свой же договор, если все-таки 9 или больше — то ура, может быть конкретно этот урок научит вас читать оферту хостера перед тем, как начинать пользоваться его услугами.
      • +4
        да, сам виноват. наверняка, в оферте еще было прописано, что они будут падать стабильно один раз в неделю.
        • 0
          Эээ. Уважаемый хабраюзер, вы определитесь сначала, за что хотите хаять клодо. Если за частые падения — флаг вам в руки, я тоже такое количество случившихся у них проблем не воспринял, как хорошее явление. А вот если за то, что 5 (хотя теперь вы не спорите с тем, что возможно и 9, а там глядишь выяснится, что на самом деле все 14) дней баланс был нулевым, то такого я уже не слишком понимаю.

          Зачем было сразу после окончания бетатеста заявлять такой уровень SLA и почему он не был пересмотрен после всех возникших проблем — вопрос отдельный.
          • +2
            вы должны понимать, что они не могут быть хорошими за красивый и удобный гуй и плохими за частое падение. впечатление общее. и если для меня они плохие больше, чем хорошие, то они плохие. и если кто-то это терпит, то исключительно потому, что проект малопосещаемый, либо не критичный, но никак не из-за теплых чувств по отношению к клодо.
  • +2
    не для рекламы ради, ребята переходите на ovh, я уже там сижу 2 года горя не знаю.
    • 0
      Ох, я смотрел на них совсем недавно. Расскажите, как оно там в смысле настоящей ширины канала и стабильности работы?
  • +3
    После первых падений Clodo сразу же съехал, клиентов терять не хочется и постоянно объяснять и говорить что вот вот сайты заработают надоело.
  • 0
    а у меня как-то виртуалку удалили при положительном балансе :) я в полном шоке был, денег на счету было на половину месяца
  • +3
    Съехал от клодо после 2х месяцев с таким геморроем. В итоге взял значительно более мощный дедик в Германии (форнекс) практически за те же деньги.
    • 0
      Аналогично!
  • +1
    покупал у клодо сервер несколько месяцев назад, вроде в тестовый период было все очень даже хорошо, когда купили в течении недели было множество падений, простои по нескольку часов, в итоге уже на вторую неделю поняли что это не то, выпросили в саппорта деньги за оставшийся проплаченный срок и съехали. саппорт говорил что проблемы временные, что больше такого не повторится, но как-то сложно этому верилось
  • 0
    Господа, может кто-нибудь мне, дятлу, объяснить причины хайпа в отношении облачных сервисов?

    Чем такое решение лучше какого-нибудь атома в датацентре за 30-40 мертвых президентов в месяц?

    Минусы я понимаю (виртуалка она и есть виртуалка, специфические отношения с выделением памяти, загрузкой диска, оверселл и т д), а вот плюсы?

    Знаю, что они должны быть — ten million lemmings can't be wrong как бы, но вот не чувствую.
  • +4
    О, раз тут появились представители сабжевого хостинга, можно задать один вопрос Clodo?

    Вот залез на ваш сайт, почитал SLA. Не подскажете, зачем заявлять в нем "Если оборудование выходит из строя, мы гарантируем, что восстановление или ремонт будет завершен в течение одного часа после обнаружения проблемы", если заранее известно, что после каждого незапланированного падения сторадж «стартует» около 8 часов?
  • +2
    У меня ситуация 1 в 1!
    Осталось на балансе около 12000, снять не получится, потому что компенсации и прочее снимать не предусмотрено.
    В первую очередь расходуются личные средства, а потом только виртуальные). В общем 2 сервера еле восстановили из образа 2ух недельной давности. Тарам парам
  • 0
    Спасибо, окончательно отбили у меня всё желание переезжать к другому хостеру. Мне даже стыдно немного, что у меня была мысль перейти от них :)
  • 0
    Reg.Ru — аналогичная ситуация. Не рекомендую.
  • +2
    Свежие новости от clodo :) Пришло тут письмо на почту:

    Если Вы планируете продолжать пользоваться виртуальным сервером, Вам необходимо выполнить пополнение баланса не менее чем на 6890909,59 руб.

Только зарегистрированные пользователи могут оставлять комментарии. Войдите, пожалуйста.