Забивается место

Billmanager v5 примерно стабильный стал с 2016 года.
Ну в 2015 он был так себе, а в 2014 вообще адище.

Так вот, пошел процесс переноса v4 на v5 примерно с 2016 года.

И вот, в 2018 вскрылась одна проблема.
Засирается место.


Решается проблема сначала командой
du -h --max-depth 1
например
du -h --max-depth 1 / 
du -h --max-depth 1 /usr
du -h --max-depth 1 /usr/local
du -h --max-depth 1 /usr/local/mgr5
du -h --max-depth 1 /usr/local/mgr5/var

итого срется сюда
/usr/local/mgr5/var/usageinfo
и еще нада смотреть
/usr/local/mgr5/var/logs

только вот в настройках есть только папка /logs


А вот папка usageinfo пишется с момента запуска биллинга и вообще не чистится похоже
Теперь я знаю даты старта каждого биллинга :)


Если вдруг у кого-то будет подобное.
Теперь вы знаете, что нужно чистить.

[ovh] факты серверов

Еще топик про OVH (про замену HDD был уже топик)
  • Очень редкий случай.
  • Поэтому вместо того чтобы удалить, хочу наскринить.

Первое.
На фактах показан автоматический цех и самообслуживание.
Сервер вдруг становится недоступен. Срабатывает мониторинг ОВХ.

Техник смотрит, видит сервер выключен.
Включает его обратно, пишет об этом.

Все само, все автоматически.

Второе. (спустя 11 дней)
Опять с этим сервером что-то не так. Срабатывает мониторинг.

Техник посмотрел, решил заменить Блок Питания. Заменил, отписался.


Третье. (спустя 12 дней)
Снова наш сервер падает.

Техник опять смотрит, сам автоматически.
И меняет ОЗУ на сервере.
[TICKET#1413971363] Operation Component replacement finished


Четвертое. (спустя 3 дня)
Опять мониторинг.

Техник в этот раз меняет CPU


История номер 2.
Был продан очень мощный сервер, двух процессорный, короче — не стандартный сервер. Такие часто не покупают.
Потом он вдруг завис.

Техник его сам, автоматически перезагрузил.


Потом снова сработал мониторинг.

Техник снова автоматически заменил Блок питания.


Через 10 дней снова сработал мониторинг.

Техник в этот раз заменил ОЗУ.


И 12 минут назад сервер снова завис.
На самом деле я знаю в чем причина — это вливают туда ддосы, не простые которые сыпятся спамом на почту, а умные и постоянные.
Но техник да об этом не знает — он меняет детали.

Но суть топика — показать, как работает автоматика.

Не каждый день увидишь замены деталей на ОВХ. Это редкие случаи. И когда прямо на сервере меняется то одно, то другое — это удивительно.

Вот хороший пример короче.

Как я, клиент, не парюсь вообще ниочем. Не одного тикета не создаю даже. Дата-центр ОВХ все сам чинит, все сам ребутает, все сам поднимает. Тем более это происходит за 15 минут после мониторинга. В любое время дня и ночи.

2.rbx.noda.ovh (OVZ)

2.rbx.noda.ovh/vemgr
Еще одна тестовая нода из 2016 года.
Это был конфиг
Xeon W3520 / 32 ddr3 / 2x 300 SSD
list.skladchik.ovh (искать файл за 2016 год)
Май 2018 — закрывается

Сначала VMmanager KVM никто не мог настроить — года 2-3 так.
Даже платные админы не умели.
Потом наконец-то наша вонь по интернету добилась своего. Некоторые люди настроили за 5000р
И процесс пошел в массы. Пошли продажи. Нам стали писать другие админы и стали просить помочь настроить эту панель. И даже хостеры и даже с SE люди писали с репутацией. Никто не умел настраивать короче. Благодаря нашей статье десяток хостингов точно научился делать VPS и теперь продает.

Так вот, сначала мы конечно же пробовали на OpenVZ, т.к. KVM не настраивалось.
Потом OpenVZ ноды отобрали у нас runabove (кстати весь проект на 200к начинался с OVZ runabove как раз; история была такова, я увидел супер дешевые runabove и подумал, а давайте все таки куплю в очередной раз говно панель VMnanager и попробуем запилить складчину, так и понеслось)
И еще вот остался апендикс — W3520

  • Во первых оказалось, что процессор слабоват.
  • Во вторых оказалось, на OpenVZ нельзя установить Windows
  • Ну и в третьих — он не вписывается в красивую архитектуру.

Поэтому еще для истории




  • Тоже была на Debian
  • Тоже не одного падения не было.
Все клиенты — перенесены на i7-6700k теперь.
Так и не сгорела сама по себе.

В будущем конечно же OpenVZ делать вообще не планируем. Да и ISPsystem ее вроде поддерживать не собираются даже.

noda2 RBX

В самом начале, когда мы еще делали ноды на Debian 7
Были собраны 4 сервера тестовых.
Первый с 120 диском
Второй на 16 озу проверка, как оно
Третий на 240 диск, какие потом стали делаться с SSD
Четвертый стандарт с sata дисками, какие потом стали популярны для винды

На этом портале нету заметок про эту ноду.

Так вот, конфиг с 16 озу — оказался апендиксом.
Точно так же как конфиг с 120 ssd — не пригоден из-за нехватки места вечного, даже шаблоны ОС постоянно засирают там все.

И сегодня нода2 — закрывается.
Для истории.
list.skladchik.ovh (искать файл за 2016 год)





На Дебиане — не одного падения не было!
Не то, что на ЦентОС

Что делать с Дебиан нодами — мы пока не решили.
Но очевидно, что либо пока не сгорят. Либо до последнего клиента, перенос на новые и закрытие.


Скорее всего вообще, любые наши ноды — будут работать пока не сгорят.
Переходить на VMmanager 6 когда он там родится в 2019 возможно — не планируем.
К 2020 — надеюсь на рынке появятся более достойные альтернативы, панели, конфиги серверов более мощные. И уже на новых конфигах с нуля будем делать по умному архитектуру. Я не любитель портить готовую архитектуру. А у VMmanager v5 как мы знаем — лучшее это вариант с узлами и Атомами оказался. И мне нравится эта архитектура, поганить ее я не хочу. Пусть живет пока не сгорит. А новую — будем уже пробовать и тестировать на новом, с новыми подходами.

[hetzner] [FI] E3-1246v3 or i7-4770 (4 доли)

  • E3-1246v3 / 32 ddr3 / 2x 240 GB — 2600р
  • i7-4770 / 32 ddr3 / 2x 240 GB — 2600р
  • 4 IP = 400/мес
  • Атом для панели = 600р
  • Vmmanager KVM = 6500р(541/мес; 216/второй)

1 год 2600+600+400+541 = 4141
2 год 2600+600+400+216 = 3816
делим на 4 ядра
32/4 = 8 озу
200/4= 50 ssd (винда жрет 21 ГБ, поэтому выделяем 30 ГБ и 10 ГБ на ОС уходит)

1 доля (на сервере всего 4 доли)
  • i7-4770/E3-1246v3 Core / 8 ddr3 / 50 SSD — 1035р/мес (второй год 954р)
  • Итого — по 1100/1000р короче, 50р с доли на админа уходит.

Возможные локации:


И думаю над красотой дизайна
  • hetzner-vm.fi
  • 4770.fi
  • 4770.hel1.fi
  • 4770.hel1.hetzner.abcdteam.fi

[ovh] E3-1245v2 (4 доли - полноценное ядро)

  • E3-1245v2 / 32 ddr3 / 120 ssd — 3000р
  • 4 IP (на этот конфиг максимум только 16) = 600р(50/мес)
  • Атом для панели = 600р — уже набралось атомов с прошлых нод, текущий тариф повторялка в теже атомы узлами по локациям
  • Vmmanager KVM = 6500р(541/мес; 216/второй)

1 год 3000+50+541 = 3591
2 год 3000+0+216 = 3216
делим на 4 ядра
32/4 = 8 озу
80/4= 20 ssd (винда жрет 21 ГБ, поэтому выделяем 30 ГБ и 10 ГБ на ОС уходит)

1 доля (на сервере всего 4 доли)
  • E3-1245v2 Core (3.4 ГГц) / 8 ddr3 / 20 SSD — 900р/мес (второй год 804р)
Итого — по 950р короче, 50р с доли на админа уходит.

Возможные локации:
Чаще всего (смотреть в анонсах)

Иногда бывает (смотреть в анонсах)


Элемент сайта

Продолжение топиков, этого и этого.

Например у того же ОВХ — просто огромная маркировка.

И иногда хочется реально заказать в том же самом ДЦ, не просто в том же самом городе, а именно ДЦ.
И вот распродажи или возможность заказа вплоть прямо до локации, будь то RBX1 или RBX5 — было бы очень удобно.
Дата-центр это интернет магазин.
А сайт это его витрина.



Биллинг, совет, глобальный поиск среди заказов

Новый дизайн ОВХ дал мне повод написать этот топик.
Из покон веков на ОВХ всегда было поле поиска. Туда можно было вводить любые ключевые слова и сразу показывался нужный заказ.
Около заказа можно было ставить свои комментарии на своем языке даже — и по ним потом искать.

Или хотя бы искать по IP
Или хотя бы искать по техническому имени

Но вот, короче — все хостеры должны иметь такое.

Как нужно
Форма поиска


Как не нужно
Хуй найдешь нужный сервер. Например если хотя бы 10 заказов в аккаунте — уже 10 раз тыкаться.


Обновление VMmanager KVM от [5.136.0] до 5.142.0

Короче, было замечено, что часть нод — не обновилось само.
И застряло на VMmanager KVM 5.136.0

Те, которые Дебиан — гладко обновились до 5.142.0

А вот те, которые как обычно Хваленная Расхваленная CentOS 7
21:01 - Vova1234: Could not create lock at /var/run/yum.pid: [Errno 28] No space left on device
21:02 - Vova1234: места нет
21:02 - Vova1234: tmpfs           1.9G  1.9G     0 100% /run

  1. Место какое-то кончилось.
  2. Начали копать о чем речь.
Я сначала подумал это на нодах — думаю, ебать нужно ноды с клиентами ребутать теперь. А это опасно. Да и вообще не айс ребутать рабочих клиентов.
Другие же хостеры как-то обходятся без ребута.
Начал уточнять у админа.

В итоге оказалось, что речь идет именно о серверах, где стоит сама VMmanager KVM — а у нас как вы знаете, т.к. я предусмотрительный человек — под панель выделены Атомы дешевые специально. (про Атомы тут и вот пример наглядно как это меня спасло)
Ребутнуть атом — не проблема.

  • Итого — после ребута временные файлы вычищались и все потом обновлялось само.
  • И узлы которые прикреплены в Атоме уже, сами ноды — так же потом начинали обновляться до последней версии 5.142.0.

Мне стало интересно, почему только 2 ГБ ?
Начали проверять разные серверы. Там где под панель был сервер с 16 озу i5-2400 допустим — там раздел tmpfs был 8 ГБ почему-то, а вот на Атоме — именно 2 ГБ.

Подумали сначала что это SWAP.
Но нет, swap если верить «информация о системе» из VMmanager у нас либо 4096, либо другие значения, но никак не 2 ГБ.

Например был сервер, где swap писало 32 ГБ
Но разметка там была
Filesystem      Size  Used Avail Use% Mounted on
rootfs          1.8T  728G  999G  43% /
/dev/root       1.8T  728G  999G  43% /
devtmpfs         32G     0   32G   0% /dev
tmpfs           6.3G  444K  6.3G   1% /run
tmpfs           5.0M     0  5.0M   0% /run/lock
tmpfs            19G     0   19G   0% /dev/shm
root@gra:~#
Так что это явно не swap никакой. И как вообще создается этот раздел — не понятно. Почему где-то 2, где-то 4, где-то 6, а где-то 8?

Так что этот вопрос мы так и не поняли, почему вдруг оно забилось, и почему именно на Атоме с 4 озу — такой размер. А на других серверах другой размер. Он как-то сам автоматически наверно делается, в зависимости от сервера? ОС наверно смотрит на мощу сервера и выделяет оптимальное что-то.

Если кто-то знает — в комменты.

22:35 — alice2k: 1,5 часа обновляли
22:35 — Vova1234: еще
22:35 — Vova1234: нет
22:35 — Vova1234: 2 осталось
22:35 — alice2k: ну эти уже мелочи
22:35 — alice2k: угу
22:35 — Vova1234: атомы долго обновляются

update
решение
mount -o remount,size=10G /run