Скорость загрузки страниц повлияет на ранжирование

    Вполне вероятно, что уже в следующем году Google модифицирует алгоритмы ранжирования таким образом, что будет учитывать не только релевантность контента и PR, но также и скорость загрузки каждой страницы, сказал один из ведущих программистов компании Мэтт Каттс (Matt Cutts) в интервью WebProNews.com.

    Это будет очередной мерой, которые предпринимает Google для всеобщего «ускорения интернета», наряду с разработкой протокола SPDY и других инновационных технологий. Для веб-мастеров недавно открыт раздел Site Speed со списком справочных ресурсов и инструментов для оптимизации производительности сайта. Некоторые из этих инструментов (Page Speed и Closure) созданы самой компанией Google, а другие от сторонних разработчиков.

    В принципе, это вполне логичный шаг, ведь какой прок с ценной информации на сайте, если страница грузится полчаса? Вполне нормально, что перед ней в результатах поиска можно показывать страницу с таким же контентом, который загружается быстрее.

    С другой стороны, недоброжелатели могут сказать, что не дело поисковой системы оценивать скорость загрузки сайтов. Мол, это может привести к ещё большему разделению веба, потому что более крупные и богатые сайты получат преимущество над остальными.
    Метки:
    Поделиться публикацией
    Похожие публикации
    Комментарии 113
    • +4
      Уже кстати давненько для Firebug`a есть дополнение PageSpeed от гугла, весьма полезная штука
      • +22
        Российская версия для Яндекса — учитывать для ранжирования аттестацию сайта, которую проводит ФСБ.
        • –1
          не исключено

          как хорошо что есть Гугл...)
          как хорошо, что у нас не Китай с его Великим Китайским Файрволлом)
          • 0
            от любви до «нелюбви» один шаг ;)
            • +2
              В Китае тоже есть гугл. И работает он там так, как ему скажут. Не в нем дело.
              • 0
                *Случайно забрел сюда с поисковика*

                За 5 лет все поменялось. Конечно, не как у Китая, но совсем безрадостно и бесперспективно.
            • НЛО прилетело и опубликовало эту надпись здесь
              • +20
                и персональные блоги с уникальным контентом на виртуальных хостингах отранжируются ниже, чем ресурсы более богатых копирастов на вдс или дедиках?
                • +17
                  Или страницы, находящиеся на серверах в США, отранжируются выше, чем находящиеся на серверах в других странах, на отдалении 200-300 мс от робота?
                  • 0
                    Датацентры Google есть в разных точках земного шара.
                    Потом RTT далеко не самое ключевое звено в скорости загрузки сайта.

                    Например, если кто-то на своём сайте не заморочился на тему настройки компрессии gzip и правильного кеширования, так ведь страдают все пользователи.

                    Как уже было упомянуто, больше информации на code.google.com/speed/articles/

                    P.S. Данные по Рунету, по Top100 сайтам, их приводил Richard Rabbat на GDD:
                    PageSpeed: avg. page 561KB, avg. transfer 429KB (not cached), compression 40/100, img comp. 85/100
                    • 0
                      Короче, сайты Гугла будут на первых позициях. :)
                  • +6
                    Еще бы Гугл учитывал КПД сайта, соотношение полезного контента с баннерным в ранжировке.
                  • +5
                    Весьма сомнительная мера. Если мне действительно нужна информация, то скорость загрузки вряд ли будет иметь большое значение.

                    В любом случае, уверен, что этот показатель не будет играть решающую роль при определении позиции.
                    • 0
                      Интерпретировать надо несколько иначе.
                      Если есть сайты A и B, где есть информация, которая вам нужна, а
                      сайт A быстрее, чем B, то далее понятно.

                      Если B, пусть и медленный, но чуть ли не единственный, где есть эта информация, то он должен быть в топе результатов.
                    • +7
                      Хм, почему бы пользователю самому не настраивать факторы влияющие на ранжирование? Поисковик будущего?!!!
                      • 0
                        представил себе длину строки для такого поискового запроса… а оно вам надо?
                        • +6
                          Придумало ведь человечество авторизацию и меню «настройки».
                        • 0
                          Ага, платная фича — стоит 10000$ в месяц (за хранение индексов)=)
                          • 0
                            мелко берёте что-то. индекс совсем маленький будет)
                        • –3
                          Дружно ставим на свои сайты Web Optimizer :)))
                          • +3
                            Я не думаю, что степень влияния этого нового фактора на ранжирование будет слишком велика
                            • –3
                              Наверное речь идет о том, что ссылка на скачивание файла размером 500 мб будет ранжировать выше тот сайте где выше скорость.
                              • +1
                                … будет учитывать не только релевантность контента и PR...


                                А разве PR учитывается при поисковой выдаче Гуглом?
                                • 0
                                  PR уже давно (как минимум полтора месяца) не учитывается при ранжировании. Теперь играет роль чего-то на подобии Alexa rank.
                                  Тоесть если он и влияет на ранжирование то очень слабо.
                                  • 0
                                    Тогда зачем нужен PR?
                                    • 0
                                      Разве что как пузомерка. PR раньше оценивал количество и качество линков на сайт. Сейчас те же параметры работают в алгоритме, просто немного изменились и изменилось их влияние.
                                      Из Google Webmaster Tools PR уже удалили.
                                      • 0
                                        Из комментариев гугла мне стало ясно, что в webmaster tools PR был убран именно по причине того, чтобы не быть пузомеркой.

                                        Возможно, PR до сих пор учитывается как и прежде. Только он, конечно, не единственный фактор ранжирования.

                                        Поэтому нет смысла выделять его отдельно в webmaster tools.
                                        • –1
                                          Я согласен что вполне вероятно что PR учитывается. Просто судя по интервью сотрудников гугла, которые смотрел в последнее время — PR как таковой становится все менее важным. Факторы, которые учитываются при определении PR и сейчас играют свою роль при ранжировании.
                                          Сейчас он стает играть роль более аналитического инструмента. Тоесть наращивать PR ради PRа уже давно не имеет смысла.
                                          А вот для определения жырности ссылок его все еще можно использовать, ведь если у страницы большой PR, это значит что у нее много бэклинков и она обладает у поисковиков определенным трастом. Соответственно с нее иметь ссылку лучше чем со страницы с теми же параметрами но с PR пониже.
                                          P.S. среди рейтингов факторов ранжирования можно даже найти alexa rank.
                                          • +1
                                            Matt Cutts говорит, что PR — это лишь один из сотен сигналов, которые учитываются в рэнкинге.
                                            Оптимизировать лишь один из сигналов было бы странным.

                                            Так же как и скорость загрузки — один из сигналов. Данный сигнал гораздо более важный (при учёте, что контент хороший, конечно же) для владельцев сайтов, т.к. иначе посетители будут уходить.

                                            Исследование на эту тему:
                                            Google: увеличение latency на 400ms, на 0.6% уменьшение количества поисков
                                            Bing: увеличение latency на 2s, на 4.3% уменьшение прибыли
                                            en.oreilly.com/velocity2009/public/schedule/detail/8523
                                • +2
                                  страничка «Hello, word!» будет в верхних строчках)))
                                  • 0
                                    По какому запросу?
                                    • 0
                                      life universe and everything
                                    • 0
                                      Или «Under Construction»…
                                    • +2
                                      По моему это тупо. Какая разница сколько весит страница, если на ней есть ценная информация?
                                      • +2
                                        Я думаю, будет не тупая прямая зависимость скорости загрузки.
                                        Позиция будет зависеть от формулы, вроде этой:
                                        скорость загрузки * n (чем выше тем хуже)
                                        где n — количество «очков» за единицу времени — чем сложней сайт, тем меньше n. Сложность сайта должна быть в разумных пределах, конечно же. n тоже может иметь не прямо пропорциональную зависимость от кол-ва элементов на странице.
                                        • –1
                                          Тогда сайты лучших дизайнеров будут на последних местах?
                                          • 0
                                            Вообще-то дизайнер должен учитывать технологические факторы и тебования ТЗ.
                                            • +6
                                              хороший дизайн — не значит много картинок и прочего хлама
                                              • +5
                                                они будут на первых.
                                          • +18
                                            Это только мне кажется, что гугл приудмал как быстренько продвинуть свой протокол SPDY в массы? :)
                                            • +5
                                              Корпорация добра и света хочет ускорить интернет?! О неееет!
                                              • 0
                                                SPDY — это протокол общения браузера и сервера. для пользователей, чей браузер не поддерживает SPDY, наличие его на сервере на скорость не влияет. поэтому странно было бы ранжировать spdy-сайты выше.
                                              • 0
                                                Не очень хорошая затея, ведь нагрузка в разное время разная, и если робот зайдёт на сайт при высокой нагрузке естественно возможна долгая загрузка страницы, из-за этого терять PR?
                                                • +2
                                                  Робот будет проверять ваш сайт десять раз в секунду и ранжировать в зависимости от текущей скорости загрузки. Тем самым нагрузка будет автоматически балансироваться с загруженных сайтов на более свободные и быстрые :)
                                                  • +1
                                                    роботы заходят на сайты тысячи раз в неделю. все разы в пробку попадут?
                                                  • +1
                                                    В принципе, это вполне логичный шаг, ведь какой прок с ценной информации на сайте, если страница грузится полчаса? Вполне нормально, что перед ней в результатах поиска можно показывать страницу с таким же контентом, который загружается быстрее.

                                                    Хмм… с одной стороны логично, Google и Мэтт Каттс молодцы, стараются сделать полезное людям. Но с другой стороны, много ли страниц найдется с одинаковым контентом и со значительной разницей во времени загрузке, копипаст это се таки не хорошо, и его не должно быть в выдаче. Да и в любом случае, если этот фактор и будет использоваться, то далеко не во всех случаях, и он скорей всего будет заключительным и корректирующим, после всех остальных факторов ранжирования.
                                                    • +2
                                                      А конкурентам могут забивать канал.
                                                      • +1
                                                        Это уже ДДОС.
                                                        • НЛО прилетело и опубликовало эту надпись здесь
                                                          • +1
                                                            Ну может хоть примут системные меры по борьбе с ДДОСом.

                                                            Мое предложение: на всех центральных магистральных каналах, ловить ДДОСеров. При нарушении — показывать страничку, мол бросайте это дело. При последующих — бан на несколько часов.

                                                            Можно сделать, для упрощения, это на уровне сетей: если автономная система не может подавить ДДОСерский трафик из себя, временно отключать ее от сети. Так даже правильнее, и более соответствует децентрализованной структуре сети. А уж внутри сетей админы пусть сами выявляют злодеев.

                                                            А то сейчас владельцы сайтов оствлены один на один с проблемой, а хостер в лучшем случае закороет аккаунт и предложит переехать.
                                                            • НЛО прилетело и опубликовало эту надпись здесь
                                                              • НЛО прилетело и опубликовало эту надпись здесь
                                                                • НЛО прилетело и опубликовало эту надпись здесь
                                                                  • 0
                                                                    и правильно сделали. с такими проблемами надо бороться всем миром, иначе ничего не получится.
                                                                  • +1
                                                                    Никаких конфликтов небудет
                                                                    Провайдеры выпускают мусор потому что им лень отслеживать аномальную активность
                                                                    Будет как со спамом — провайдеры банят тех, кто шлет спам
                                                                    Буду банить и за DDOS.
                                                                    • НЛО прилетело и опубликовало эту надпись здесь
                                                                      • НЛО прилетело и опубликовало эту надпись здесь
                                                                        • 0
                                                                          Тоже самое, как бывает когда отрубают за спам.
                                                                      • 0
                                                                        Почему? Провайдер показывает такому юзеру на любой запрос картинку с объяснением, в чем тот виноват, и предложением вылечить компьютер.

                                                                        Хотя сейчас я подумал, правильнее защищаться все же на уровне хостингов, т.е. перед входом на хостинг должен стоять счетчик запросов, а владелец сайта в панели управления ставит лимиты на число коннектов с 1 IP/1 подсети, и какой-то API для того, чтбы сайт/его владелец могли банить негодяев.

                                                                        Возможно, также, если атака идет преимущественно из 1 региона (подсети), динамически сужать скорость канала в тот регион (т.е ограничивать трафик на/с той подсети), в большом датацентре с десятками тысяч сайтов это бы снижало нагрузку на сервера.

                                                                        Банить зомби все таки не получится, так как найдутся всякие военные, которые не позволят себя отключать, или какие-нибудь китайцы, которых миллиард человек и котрым пофиг на все абузы.
                                                              • 0
                                                                Применять Ajax — отличный способ увеличить «скорость интернета».
                                                                И если бы поисковики научились сначала аяксовые сайты индексировать, а потом уже ранжировали по скорости, было бы логичнее.
                                                                • 0
                                                                  Если бы вебмастера научились писать правильные ajax-сайты, было бы намного проще. Всем.
                                                                  • +2
                                                                    Если бы поисковики сказали, что такое «правильные ajax-сайты», веб-мастера бы их делали такими…
                                                                    • 0
                                                                      Ответ ниже
                                                                  • 0
                                                                    Что вам мешает делать индексируемые аяксовые сайты?
                                                                    В большинстве случаев это не так сложно…
                                                                    <a href="/page" onclick=«ajax_load(this); return false;»>Ссылко</a>
                                                                    Посмотрите в сторону плагина ajaxify для JQuery www.dom111.co.uk/blog/coding/jquery-ajaxify-update/191
                                                                    • 0
                                                                      И ведь тут хорошо всем — и поисковикам и параноикам без яваскрипта…
                                                                      • –1
                                                                        А кто Вам сказал, что мне что-то мешает?
                                                                        Я говорю о СКОРОСТИ !!!
                                                                        Аяксовый сайт работает быстрее, чем статический. А поисковик не видит этого.
                                                                        Хуже того, он будет считать аяксовый сайт более медленным, так как он на каждую страницу грузит скрипты, необходимые для реализации аякса.

                                                                        Ну и поскольку я вообще работаю с Extjs (не делаю сайты), то поисковик на моих страницах видит только пустой
                                                                        • 0
                                                                          у аяксового сайта загрузка первой страницы будет медленнее, чем у статического. а большинство переходов с гугла будут именно на «первую страницу». и после первой страницы пользователи уйдут. так что пользы от вашего аякса приходящим с гугла не будет.
                                                                          • 0
                                                                            Во-первых, аякс — не мой.
                                                                            Во-вторых, при нормальном показателе отказа, с первой страницы уходит меньше 50% посетителей.
                                                                            В третьих, то, что большинство переходов с гугла идет на главную — в большинстве случаев говорит о не верном подходе к оптимизации сайта. Не стоит путать «самую посещаемую страницу» и «большинство посетителей».
                                                                            Ну и последнее: я не делаю сайты с содержанием, которое грузится аяксом. Не стоит персонализировать мой комментарий.
                                                                            • 0
                                                                              Читаем здесь: stevesouders.com/docs/amazon-20091030.pptx (или вообще книги Souders'а) и не позоримся
                                                                              • 0
                                                                                спасибо. какой кадр смотреть? :)
                                                                                • 0
                                                                                  Все подряд :) Там все — про скорость загрузки ;) Еще лучше почитать HIgh Performance Web Sites и Even Faster Web Sites от него же
                                                                            • 0
                                                                              Откуда информация, что поисковик «на каждую страницу грузит скрипты, необходимые для реализации аякса»?
                                                                              • 0
                                                                                Конечно, эту информацию подтвердить я не могу.
                                                                                Но можно подумать: если нужно определить скорость загрузки страницы, то должны учитываться и загрузка рисунков и css и javascript.
                                                                        • +14
                                                                          Бедные сайты на флеше :(
                                                                          • 0
                                                                            А разве гугл не голый хтмл (ну да, еще скрипты, который он умеет парсить) грузит себе? Да и флэш он вроде как не понимает. Или Вы просто пошутили? :)
                                                                            • 0
                                                                              Кажется, Вы сегодня переработали, и Вам пора отдохнуть.
                                                                              • +2
                                                                                Черт побери, все-то Вы знаете… :)
                                                                                Не могу не согласиться.
                                                                          • +2
                                                                            полезность информации намного важнее скорости доступа к ней…

                                                                            это полезно разве что в ситуации, когда контент клонируется — когда при попытке зайти на основной сайт приходится долго ждать, дольше, чем с сайта-копипастера… но, согласитесь, не по понятиям это ставить основной источник информации ниже копипастера только потому что у последнего скорость больше получается…
                                                                            • +1
                                                                              Может быть, Гугл свой вебсервер (GWS) планирует развивать или что-то новое придумает… что-то, что могло бы потеснить Apache…

                                                                              а то… к чему все это… не верится, что всё это без задней мысли делается…
                                                                              • 0
                                                                                ага, SPDY? :)
                                                                                • +1
                                                                                  «задняя мысль» вполне себе открыта: code.google.com/speed/

                                                                                  цель сделать интернет быстрее. чтобы люди больше могли поисковых запросов за день в гугл вбить
                                                                                • +3
                                                                                  Когда я ищу рецепт яичницы, способ использования сеттеров в IE или время старта Атлантиса, мне, как пользователю, всё равно, оригинал это будет или копипаста, мне главное — чтобы сайт быстро открылся и показал нужную информацию.
                                                                                  Как раз сегодня так и было — в Гуглоновостях написали про запрет последней Call Of Duty. Тыкнул на первую ссылку — подождал минуты две, сайт так и не загрузился. Тыкнул вторую ссылку — через полминуты пришёл html сайта, но без CSS и картинок. Ткнул на третью (PC Games Hardware) — открылось моментально.
                                                                                  • +1
                                                                                    тогда создателям сайтов будет ещё проще и выгоднее делать контент из копипасты, чем самим — если разницы не будет…

                                                                                    сейчас-то как-то подразумевается, что оригинал всегда на первом месте…

                                                                                    этого ли мы хотим добиться?
                                                                                • +9
                                                                                  Народ, смотрю паника тут вовсю набирает обороты.
                                                                                  «Повлияет» — это не «будет зависеть только от»!

                                                                                  Думаю, в Гугл не идиоты, и ранжирование по скорости будет зависеть от множества факторов. Я думаю от скорости будет зависеть ранжирование именно между равноценными страницами.

                                                                                  Конечно, нюансов, наверное, будет много, но не думаю, что все так уж плохо.
                                                                                  • +1
                                                                                    Да, идея хороша если Гугл к ней подойдет с умом. Если время загрузки — это некоторое абстрактное число, влияющее на скорость, с какой пользователь получит доступ к необходимой информации. В результате некоторые задумаются, грузить ли лишние скрипты, использовать ли спрайты, кеширование, верстать на таблицах или на дивах...)
                                                                                    • 0
                                                                                      Верно, об этом полезно задумываться (всегда :)).
                                                                                      А то в начале первых секунд загрузки пользователь смотрит на пустой (белый) экран.
                                                                                      Возьмите для сравнения сайт Amazon. Там информационные блоки отображаются достаточно бысто, а потом всё остальное загружается. И т.д.
                                                                                      • 0
                                                                                        Я вот сегодня заметил что спецификация по HTML5 (Editor: Ian Hickson, Google) активно продвигается Google. Может это тоже как-то связано? (ну в плане чтобы народ активно внедрял нативные элементы для видео и аудио, например, которые не требуют скриптовой начинки)…
                                                                                  • +3
                                                                                    я верю, что Гугл может подойти к такой проблеме грамотно
                                                                                    потому что
                                                                                    1) hello world будет выше всех? нет, она вообще не попадет в основной индекс, а будет болтаться в дополнительном
                                                                                    2) дорвеи… аналогично
                                                                                    3) клонирование контента? — они и так вполне отсеивают и определяют, где оригинал, не с клонами ранжирование идет
                                                                                    4) день да день не приходится? ddos? не обязательно такую статистику один день собирать, можно и среднее вычислить с откидыванием пиков

                                                                                    в общем, если уже идет сравнение достойных сайтов в основном индексе с похожим PR, то почему бы времени загрузки не стать решающим фактором? это же удобство пользователя!

                                                                                    да, еще тут было сказано, что из-за этого вперед вылезут «дорогие» сайты? я тоже не согласен. не обязательно иметь сверхдорогой сервер, можно просто хорошо оптимизировать свой код.

                                                                                    в общем, любое начинание может быть как позитивным, так и негативным, но пока Гуглу подобные вещи удавались, так что я только за
                                                                                    • НЛО прилетело и опубликовало эту надпись здесь
                                                                                      • +1
                                                                                        а что мешает пользоваться CDN?
                                                                                        • НЛО прилетело и опубликовало эту надпись здесь
                                                                                        • +1
                                                                                          полмегабайта скриптов против грамотно соптимизированых 10 килобайт не спасет даже CDN
                                                                                      • 0
                                                                                        Снова панику подняли без повода.

                                                                                        Почему-то многие посчитали, что гугл «забудет» о основных факторах влияющих на PR сайтов, а будет ранжировать сайты только по скорости загрузки. Всё будет по-старому, только медленных сайтов останется меньше и веб-мастеры озаботятся о оптимизации скорости загрузки.
                                                                                        • 0
                                                                                          А главное, все (пользователи, владельцы сайтов, поисковики) выйграют ;)
                                                                                        • +3
                                                                                          Спасибо тебе, Google. За то, что ты мне дал работу. Теперь наконец-то появится реальный спрос на быстыре и дорогие VPS.
                                                                                          • +2
                                                                                            Наконец, мы идём к тому, что профессия вебмастера и иже с ней будут действительно квалицифированными, тяп-ляп не прокатит.
                                                                                          • +2
                                                                                            > Мол, это может привести к ещё большему разделению веба, потому что более крупные и богатые сайты получат преимущество над остальными.

                                                                                            Правильно, нефиг делать сайты на Друпале с кучей модулей, на шаред хостинге.
                                                                                            • +2
                                                                                              Вот точная цитата из западных источников:
                                                                                              «while slow page load times won't negatively impact your rankings, fast load times may have a positive effect»
                                                                                              — медленная загрузка страниц не повлияет негативно на Ваш ранкинг(если конечно не настолько медленно что помешает самой индексации сайта роботом -прим.) Быстрая же загрузка сайта, я так понимаю, просто станет одним из сотен значением в алгоритме ранжирования.
                                                                                              Кстати, Мейли Ойи из команды Гугл еще давно говорила чтоб «seo folks» следили за скоростью загрузки страниц своих сайтов.
                                                                                              • 0
                                                                                                Ну в adWords они уже давно включили скорость загрузки сайта в набор quality scores, т.е. величины, которые влияют в конечном счете на стоимость клика. Поэтому влияние скорости загрузки сайта на ранжирование такового в SERP-е более чем ожидаемо.
                                                                                                • –2
                                                                                                  изумительно ) Как же в тему тогда придется Web Optimizer
                                                                                                  • 0
                                                                                                    Это что же получается — использую jQuery — не видать первого места по запросу «Усть-Ордынские веники от производителя»?
                                                                                                    • 0
                                                                                                      Причём здесь jQuery?
                                                                                                    • +1
                                                                                                      Хороший плагин для Firebug Page Speed. Весь вечер сидел оптимизировал сайт на HostCMS :) Визуально стал бегать быстрее. Остался главный вопрос — как разрешить браузеру кэшировать файлы с сайта? Согласно code.google.com/intl/ru/speed/page-speed/docs/caching.html в заголовке ответа сервера должен быть атрибут Last-Modified или Expires. У меня такого нет. Значит они не кэшируются? Вроде бы грузятся каждый раз снова. Время жизни у css стоит очень маленькое. У картинок вообще нет таких параметров. Как добавить атрибуты? Просить хостера настроить Apache?
                                                                                                      • +1
                                                                                                        в .htaccess что-то наподобие

                                                                                                        ExpiresActive on
                                                                                                        ExpiresByType image/jpeg «access plus 1 month»
                                                                                                        ExpiresByType image/gif «access plus 1 month»
                                                                                                        ExpiresByType image/png «access plus 1 month»
                                                                                                        ExpiresByType application/x-javascript «access plus 1 month»
                                                                                                        ExpiresByType text/css «access plus 1 month»
                                                                                                        ExpiresByType text/html «now»

                                                                                                        Ну, может не у всех сработать, нужен соотв. модуль апача
                                                                                                        • –1
                                                                                                          Не сработало. Я заметил что у меня есть Etag там. Он не заменяет Expires?
                                                                                                          • –1
                                                                                                            Etag это хеш даты изменения и размера файла кажется. Если он не меняется, браузер берёт файл из кеша. Но проверка Etag'а всё равно проходит по HTTP.
                                                                                                            • 0
                                                                                                              А как сделать чтобы браузер не проверял пока не закончится время жизни?
                                                                                                        • 0
                                                                                                          или в nginx в соотвествующем локейшене для графики:
                                                                                                          expires max;
                                                                                                        • –1
                                                                                                          Получается, что все флеш сайты будут терять значимость при поиске?
                                                                                                          • +1
                                                                                                            Логичнее было бы показывать скорость загрузки страницы в результатах поиска.
                                                                                                            Пользователь вправе решать какое время в ожидании для него приемлемо.
                                                                                                            • +1
                                                                                                              Хм. Гугл отжигает своими нововведениями каждую неделю, если не каждый день
                                                                                                              Только я не понял, надо плакать или смеяться :(
                                                                                                              • +1
                                                                                                                Обновлять резюме.
                                                                                                              • 0
                                                                                                                Пока кто-то будет париться с «загрузками», СЕОшники будуть продолжать скупать гамноссылки в САПЕ и покорять ТОПы.

                                                                                                                Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.