Статьи про VMmanager
  • Дата создания
    10 июля 2017
  • Топиков
    17
  • Ограничение на постинг
    0.000
  • Категория:
    Панели

VMmanager 6 - FAQ - ОЗУ на головной сервер панели

Из тикета 11069504


Ответа я тогда не получил.

Но методом практики и тестов выявлено.
  • 2 озу хватает на 5 узлов
  • 4 озу уже на 15-20 узлов
  • 8 озу нужно ставить если у вас 30-50 узлов
  • вероятно 16 озу нужно ставить от 100 узлов
  • на 1000 узлов вероятно нужно выделить сервер уже на 64 озу или 128 озу
  • 3000 узлов допустим — наверно вообще работать не будет панель, хотя они пишут типо зачем вам несколько панелей, делайте все в одном, как помойку
Сама панель — вас не уведомит и вы даже не узнаете, что ей не хватает памяти. Но если вдруг будут замечены какие-то тормоза — скорее всего дело в этом.

История VM на базе [VMmanager 5 KVM 2017-2020 годы by кошелек alice2k]

Много истории вы уже можете видеть на портале vm.center
vm.center/blog/vmmanager/
vm.center/blog/qa-vmmanager/
Но так же есть серия топиков, честных.
И хочу чтобы они были всем доступны тоже. Поэтому скопирую, чтобы потом не искать. Вряд-ли уже напишу новые топики про VM-5, поэтому одним постом обобщаю опыт для потомков.


Но зато мы неплохо прокачали скидку ISPsystem.
И десятки хостеров были настроены нами :)
Абсолютно бесплатно!
Мы ввели в стандарт подобные «честные доли». И именно после нас все остальные начали делать VM на десктоп процессорах, т.к. мы доказали, что они работают не хуже чем энтерпрайз.
Нашу идею кто только не скопировал.

И даже VMmanager 6 — стала делать панель для модели «на базе аренда дедик ОВХ где сетка на каждом узле своя». То что мы мучались в VM-5 — было решено в VM-6.

Но это уже, совершенно другая история, про которую я напишу еще через пару лет. В историю.

bomj.cloud - 300р за узел в бесконечное облако кластеров


Кто хочет присоединиться к one-panel?
  • 1 узел/нода 300р/мес
go@bomj.cloud пишите

Была статья про VMmanager 5, теперь вот тоже самое но на VMmanager 6, еще проще, еще дешевле.

В 2020 идеальные конфиги — Райзен 7 ОВХ, Райзен 9 у 1dedic.ru и Epyc у Хетзнера.

Обновление логотипа

Как было

Как стало


Раньше когда меняешь цвет панели — favicon тоже менялся.

Тем самым в браузере когда у тебя 10 дата-центров и локаций открыто с узлами — можно было легко переключиться на нужный и сэкономить время.

Но теперь все они стали идентичные.
И теперь тратится лишние 10 секунд чтобы нащелкать и найти нужную вкладку.


Обновления выпускал человек который сам не пользовался панелью!

Обновление VMmanager KVM от [5.136.0] до 5.142.0

Короче, было замечено, что часть нод — не обновилось само.
И застряло на VMmanager KVM 5.136.0

Те, которые Дебиан — гладко обновились до 5.142.0

А вот те, которые как обычно Хваленная Расхваленная CentOS 7
21:01 - Vova1234: Could not create lock at /var/run/yum.pid: [Errno 28] No space left on device
21:02 - Vova1234: места нет
21:02 - Vova1234: tmpfs           1.9G  1.9G     0 100% /run

  1. Место какое-то кончилось.
  2. Начали копать о чем речь.
Я сначала подумал это на нодах — думаю, ебать нужно ноды с клиентами ребутать теперь. А это опасно. Да и вообще не айс ребутать рабочих клиентов.
Другие же хостеры как-то обходятся без ребута.
Начал уточнять у админа.

В итоге оказалось, что речь идет именно о серверах, где стоит сама VMmanager KVM — а у нас как вы знаете, т.к. я предусмотрительный человек — под панель выделены Атомы дешевые специально. (про Атомы тут и вот пример наглядно как это меня спасло)
Ребутнуть атом — не проблема.

  • Итого — после ребута временные файлы вычищались и все потом обновлялось само.
  • И узлы которые прикреплены в Атоме уже, сами ноды — так же потом начинали обновляться до последней версии 5.142.0.

Мне стало интересно, почему только 2 ГБ ?
Начали проверять разные серверы. Там где под панель был сервер с 16 озу i5-2400 допустим — там раздел tmpfs был 8 ГБ почему-то, а вот на Атоме — именно 2 ГБ.

Подумали сначала что это SWAP.
Но нет, swap если верить «информация о системе» из VMmanager у нас либо 4096, либо другие значения, но никак не 2 ГБ.

Например был сервер, где swap писало 32 ГБ
Но разметка там была
Filesystem      Size  Used Avail Use% Mounted on
rootfs          1.8T  728G  999G  43% /
/dev/root       1.8T  728G  999G  43% /
devtmpfs         32G     0   32G   0% /dev
tmpfs           6.3G  444K  6.3G   1% /run
tmpfs           5.0M     0  5.0M   0% /run/lock
tmpfs            19G     0   19G   0% /dev/shm
root@gra:~#
Так что это явно не swap никакой. И как вообще создается этот раздел — не понятно. Почему где-то 2, где-то 4, где-то 6, а где-то 8?

Так что этот вопрос мы так и не поняли, почему вдруг оно забилось, и почему именно на Атоме с 4 озу — такой размер. А на других серверах другой размер. Он как-то сам автоматически наверно делается, в зависимости от сервера? ОС наверно смотрит на мощу сервера и выделяет оптимальное что-то.

Если кто-то знает — в комменты.

22:35 — alice2k: 1,5 часа обновляли
22:35 — Vova1234: еще
22:35 — Vova1234: нет
22:35 — Vova1234: 2 осталось
22:35 — alice2k: ну эти уже мелочи
22:35 — alice2k: угу
22:35 — Vova1234: атомы долго обновляются

update
решение
mount -o remount,size=10G /run