bhs2.1245 [noda1] [ovh]

Раньше все серверы, шареды, ноды анонсировались на проект складчин
И оплаты и графики шли именно так. Шаред обычно доли раздал, все пользуются, мало кто уходит. Текучки нету. У шареда текучка только если это именно шаред хостинг модель. А если это складчина, то все кто поверил в честную складчину точно не уходят.
С VPS же наоборот — текучки очень много.
Поэтому нужен только BILLmanager за копейку.
Итак. Заодно согласно правилам проекта VM.center — показываю, как аносируется нода. В будущем все хостеры смогут так анонсировать. С мини рассказом о себе, кто они и характеристики ноды и ее цены, локации и особенности ;)

Итак, добавлена noda1
IP — 16 штук. Куплено 4 сети по 4 IP


Доля/Тариф на 1 долю(можно соединять)

  • Старт 09-2017 год — цена 275р
  • С 09-2018 цена — далее 225р

travaux.ovh.net/vms/
OVH SYS панель, только UDP antiddos

Чтобы заказать, писать тикет panel.skladchik.ovh/billmgr
На этом проекте поддержки нет. Но у других хостеров на портале vm.center — будет, но и цены там будут другие и анонсы тоже ;)

Xeon-W процессоры

Застолбили технические домены.
www.intel.com/content/www/us/en/products/processors/xeon/w-processors.html

  • W-2133 Processor 6 Cores 12 Threads
  • W-2123 Processor 4 Cores 8 Threads
  • W-2155 Processor 10 Cores 20 Threads
  • W-2195 Processor 18 Cores 36 Threads
  • W-2102 Processor 4 Cores 4 Threads
  • W-2104 Processor 4 Cores 4 Threads

В будущем когда будем анонсировать ноды уже чтобы все красиво было.

Используются домены
xeon-w.ovh
w21.ovh

[обновление VMmanager KVM 5.124.0] [или все тоже 122 ?]

Очередной топик про неудавшиеся обновления VMmanager KVM

Итак.
Почему-то сервер с панелью VMmanager обновился до 5.124
А вот «узлы» не обновились. Примечательно то, что узел был более старый чем 122 версия. Так что возможно это все тот же косяк 122 обновления.
Написал админу, чтобы он вручную запустил.

И получили
[root@ns3061009 ~]# yum update
Loaded plugins: fastestmirror
Existing lock /var/run/yum.pid: another copy is running as pid 306.
Another app is currently holding the yum lock; waiting for it to exit...
  The other application is: yum
    Memory : 131 M RSS (1.5 GB VSZ)
    Started: Wed Sep 27 20:40:10 2017 - 02:01 ago
    State  : Sleeping, pid: 306

После этого сервер не вышел из ребута.
Только 15 минут «он пытался ребутнутся»


Далее, снова начали копировать файлы виртуалок.
В этот раз оказалось больше. Полностью заполненный сервер.


Спустя 30 минут после кривого обновления VMmanager
Только приступили к копированию, потому что не все так просто.
Потому что в этот раз решили использовать локальный бекап дата-центра, где скорость выше. Чтобы не копировать файлы по интернету. А у дата-центров такие бекапы слишком тупы и доступ туда только с IP сервера. Поэтому админу потребовалось 15 минут чтобы поднять VPN там для начала и пошло копирование.

Как и предположил alice2k — скорость качалова — в 10 раз возросла сразу.



Заметьте — если бы я не продумал систему с «отдельным атомом для панели». В топике ссылка с комментарием «итоговый пост 2017»

То для восстановления слепков — нужно знать все эти параметры, включая тариф, включая название виртуалки.
И когда вручную будем восстанавливать — все должно быть идентичное.
Если бы я не сделал архитектуру с атомом — я бы не смог узнать эти параметры, что на скрине выше :)


Далее короче скопировали все дампы
Переустановили ОС на узле.
Снова добавили узел в атом с панелью VMmanager
Вручную восстановили пользователям их заказы.

Часа 2 дрочили с восстановлением.
В западло еще сервер тормозить стал, потому что там слишком много винды было. А винда как вы знаете устанавливается оч долго.
Короче админ уже уснул к тому времени.
А по факту в итоге целую ночь будет качаться эта винда. Так как особенность винды еще в том, что нужно с нуля установиться ей. А только потом восстановление с бекапа. С линуксом можно например запустить создание VPS и остановить тут же, потом заменить файлы на диске и включить VPS. А с виндой — остановка не работает и нужно дождаться по 40 минут пока это дерьмо установится.

Все таки винда на ноде — дело не благородное. И даже честные доли наверно перестают быть честными при таком загрузе.

Итого простой составил
  • 1-45 ночи
  • 12-00 — думаю завтра утром, потом подправлю

Не одного косяка или падения за год как мы создаем VPS. Только если не обновление ISPsystem. Может и правда лучше не покупать обновлений и просто работает пусть до самого конца, пока не сгорит? А потом когда сгорит просто уже восстановиться на новом сервере, свежем.
Возможно стоит рассмотреть вариант без узлов и просто тупо оставлять ноды жить на автопилотах и пусть работают без обновлений.

Спасибо тебе ISPsystem за обновление, отлично наши бабки расходуются.


sbg2.i7-6700k [noda3] [ovh]

Раньше все серверы, шареды, ноды анонсировались на проект складчин
hostsuki.pm/blog/hostsuki-pm/
И оплаты и графики шли именно так. Шаред обычно доли раздал, все пользуются, мало кто уходит. Текучки нету.
У шареда текучка только если это именно шаред хостинг модель. А если это складчина, то все кто поверил в честную складчину точно не уходят.

С VPS же наоборот — текучки очень много.
Поэтому нужен только BILLmanager за копейку.

Итак. Заодно согласно правилам проекта VM.center — показываю, как аносируется нода. В будущем все хостеры смогут так анонсировать.
На узел sbg2.i7-6700k.ovh/vmmgr
list.skladchik.ovh (2017 год узлы смотреть)

Добавлена noda3
С штучными IP — 16 штук. Все разные — IP рассыпуха.
Не одной сетью как обычно делается. А потому что клиент отказался короче, IP остались, перенесли 13 штук на ноду, еще 3 докупили.
И собрали ноду :)

  • Старт 09-2017 год — цена 425р
  • С 09-2018 цена — далее 375р


travaux.ovh.net/vms/

OVH SYS панель, только UDP antiddos

Доля

Чтобы заказать, писать тикет panel.skladchik.ovh/billmgr
На этом проекте поддержки нет. Но у других хостеров на портале vm.center — будет, но и цены там будут другие и анонсы тоже ;)

[Архив] публикаций о VMmanager из других блогов

Не вижу смысла копировать.
Тем более скоро будет v6 уже.
Да и Дебиан не поддерживается.

Короче старые топики устареют через 2 года.
Но История важна.

2017

2016

2015

2014

2013

[обновление VMmanager KVM 5.122.0]

Решил так же документировать все баги и косяки ISPsystem.
За 1 год работы мы конечно намучались с ними нехило. При том, что это самые невыгодные панели, если делать всего на 16 долей. Но это единственное что есть на рынке. Плюс понадобилось очень много лет, пока наконец-то интернет-админы научились работать с VMmanager.

И сколько вот я наблюдаю за рынком. Постоянно куча жалоб, как рабочая, с трудом созданная система — портится после обновлений, платных чуваки обновлений. Платишь за то, чтобы тебе разрушили систему.

Итак. На текущий момент мы имеем нод(list.skladchik.ovh) и куча вечных лицензий с узлами, продленными до 2022-2023 года (фишка короче в том, что сначала покупаешь лицуху, потом продляешь обновления на 5-10-20 лет, а потом уже докупаешь узлы, и сколько бы узлов не стало, лицуха уже продлена, а если продлять лицуху потом, то она считает продление от кол-ва узлов)
Как видите их графика — ноды есть на Дебиан 7 старые. И на CentOS 7 уже новые. Так как оказалось, что Дебиан 8 они типо не поддерживают и там всегда все в говно работает.
Но и на CentOS7 не лучше. Но конечно получше чем на Дебиане.

Пришло обновление.


Везде перестали устанавливаться ОС

Притом какие-то ноды обновились нормально, какие-то нет, большинство после ребута(дада, пришлось ребутать ноду, а значит падение на 5 минут как минимум) ожили и обновление VMmanager завершилось удачно. А вот одна нода, почему-то не запустилась.

Можно видеть как потом 2 часа ушло на копирование бекапа. А считай что это — уже день насмарку. И мы платим деньги за эти обновления парни.



В итоге всего 5 долей пострадало. Но все равно — не приятно.
Что бы было, если бы вместо моей безопасной системы, из первой ссылки FAQ которая, и минимальными рисками по 16 долей, была бы например нода на 256 долей или целое облако. И оно потом так внезапно сдохло само? Был бы топик тогда, как VMmanager убивает хостинги.

4 часа ушло только на копирование.
И еще 3 часа щас восстанавливать ноду.

[hetzner] antiddos

Про OVH antiddos уже было рассказано.
Теперь вот Hetzner

Он тоже сыплется автоматически
We have indications that your server has been attacked. Those responsible for this have been asked to solve the issue and to give us a statement on the cause of the attack.
This is an information email only and does not require any further action on your part.
In some cases such an attack can place a considerable strain on network resources and, as a result, a segment of our network can be adversely affected. In such a case the IP address of the attacked server can be blocked as a precautionary measure. You will receive a separate notification with further information if this happens.
Important note:
When replying to us, please leave the abuse ID [AbuseID:3749A7:19] unchanged in the subject line.
Please note that we do not provide telephone support in our department.
If you have any questions, please send them to us by responding to this email.

Abuse Message [AbuseID:3749A7:19]: AttackInLevel: IN Attack notification for IP 148.251.xx.xx (Router: juniper4.ffm.hetzner.de) [Network-Normal]

Пишется Router и статистика из него похоже
Ддосы в Hetzner редкое явление само по себе. Так что на пальцах могу посчитать такие вот уведомления.
Direction IN
> Internal 148.251.xxx.xxx
> Threshold Traffic 2.000 MBit/s
> Sum 92,015 GByte/300s (2.512 MBit/s), 205.328.000 packets/300s (684.426 packets/s), 8 flows/300s (0 flows/s)
> External 62.205.132.151, 92,015 GByte/300s (2.512 MBit/s), 205.328.000 packets/300s (684.426 packets/s), 8 flows/300s (0 flows/s)

В панели можно выбирать такие функции.



Настройка сама вот так. Не разу не доводилось пользоваться :)


[ovh] факты как меняют детали в OVH



Написано было уже на других блогах.
Поэтому просто продублирую

Что вам нужно знать.
В OVH нету поддержки. Там все автоматически. Для примера в Hetzner как вы видите — нужно было писать тикет, отвечать, вести диалог.
В OVH все делается автоматически.

Если сервер зависает — создается авто-тикет сотруднику ДЦ, он смотрит в ближайшие 15-30 минут, диагностирует и решает проблему.
  • Если достаточно перезагрузки — он перезагружает и отписывается «сервер пингуется тикет закрыт».
  • Если ОС испорчена, то он сбрасывает сервер в режим восстановления и отписывается «конфигурация ОС должна быть исправлена заказчиком, сервер сброшен в режим восстановления».
  • Если сгорели детали какие-то, он их меняет и отписывается что именно было заменено.



Все ддос атаки — проходят так же автоматически.
На почту просто сыпятся уведомления.
Отличие анти-ддоса в панели услуги, где клиент сам все настраивает, в режиме самообслуживания описано тут.

[hetzner] факты о замене запчастей



За 1 год работы из партии в 1000 серверов
Больше всего зависало 20 серверов. ОС не устанавливалась например.
За последние 3 месяца эти 20 серверов зависли более 10 раз.

Был написал тикет на проверку серверов.
Вот отчет. С фактами и конкретикой. Как работает Hetzner.
  1. Там нету автоматического мониторинга как в OVH
  2. И зачастую нужно подтверждать согласием — ответом на тикеты.
Читать дальше