.masterhost прислал доброе письмо. Говорит, мы обновили серверное ПО и теперь будем контролировать, как ваши сайты нагружают наши процессоры. И если больше стольки-то процентов, то вместо страниц вашего так называемого сайта посетители увидят жопу сообщение об ошибке.
Ну, чувства у меня в связи с этим двойственные.
С одной стороны, когда я переносил свои сайты к ним, я их русским по белому спрашивал: как контролируется нагрузка и какие меры принимаются к нарушителям. Ответили, что особо не контролируется и беспокоиться не о чем.
Что ж, теперь есть о чем беспокоиться. Наиболее неприятный момент, однако, состоит в том, что основную нагрузку вызывают не рядовые посетители сайта, а наглые поисковые роботы, которым подавай несколько страниц в секунду. А лысинку им не пропылесосить?..
С другой стороны, виртуальный хостинг — такая штука. Если не контролировать загрузку сервера, то один-два перегруженных сайта какого-нибудь олуха приведут к тому, что все остальные сайты, размещенные на этом сервере, будут безбожно тормозить.
Короче, чтобы посетители наших сайтов не видели жопу сообщения об ошибках при перегрузках, мы сели и написали плагин. Который просто не дает ботам Google и “Яндекса” слишком часто просматривать страницы. Пришлось, правда, с нуля учиться писать плагины для WordPress, но оно того стоило. В жизни пригодится.
P.S. Найдутся, конечно, умники, которые спросят, почему бы не дать соответствующие инструкции ботам “Яндекса” через robots.txt. Ну, вы пойдите и спросите сами у ботов, почему они на эти инструкции срать хотели…
p.s. улыбнул)
зажрался мастерхост, именно они срать хотели на обычных клиентов
Все познается в сравнении.
Петерхост, например, мне в свое время открытым текстом сказал: не прекратите создавать нагрузку — сошлем на старый сервер, и сидите там с такими же “нарушителями безобразий”. А ведь у меня тогда был один сайт на площадке. С нулевой посещаемостью — чисто для себя, познакомиться со скриптом. Послал их далеко и надолго, конечно.
Кстати, сегодня в какой-то момент была нагрузка на сайт в 10 раз выше допустимой. Ботам и не снилось… Посмотрел айпишник — а он мастерхостовский… Много думал.
Автоматизация отсечения грузчиков для обычных клиентов скорее благо.
Ведь это означает, что будет меньше тормозов из-за сайта-соседа.
Я согласен. Виртуальный хостинг – такое дело.
Только провайдер должен как-то учитывать, что не все способны для себя написать скрипт или плагин, скажем, пресекающий нашествия ботов. Человек заплатил за хостинг, нажал кнопку “Установите мне WordPress” – он не обязан разбираться в php, раз для него есть такая услуга. Но и выдавать ему ошибку 503 вместо сайта при нулевой посещаемости (!) только из-за активности поисковых роботов – это как-то несправедливо.
Еще раз: мои логи показывают, что сайт на вордпрессе способен выдержать несколько сотен посетителей в сутки без малейшего превышения допустимого уровня нагрузки на аккаунт виртуального хостинга. При условии, что не резвятся поисковые роботы и админ не занимается настройкой движка.