v 2023.02.1 (01.02.2023) - кривое обновление

v 2023.02.1 (01.02.2023)
Новые возможности
Добавлена возможность использования двухфакторной аутентификации. Подробнее в документации: https://docs.ispsystem.com/x/mAFICg
Улучшения

Теперь вывод libvirt записывается в отдельный файл /var/log/libvirt/libvirtd.log.
Сокращена нагрузка на платформу от сервиса уведомлений.
Теперь единственная версия ОС Astra Linux, поддерживаемая для узлов кластера — Astra Linux 1.7.3.
Теперь единственная версия ОС Astra Linux, поддерживаемая для установки платформы — Astra Linux 1.7.3.
Улучшен механизм, определяющий количество ядер CPU на узле кластера.
Повышена безопасность функции "Антиспуфинг" за счёт блокировки RARP-трафика.
Исправление ошибок

Исправлена ошибка, из-за которой не удавалось выделить IPv6-подсеть после удаления VxLAN в кластере.
Исправлен текст ошибки, возникающей при коллизии MAC-адресов.
Исправлена ошибка, из-за которой при изменении гостевой ОС с Windows на Debian некорректно указывалось имя интерфейса в файле /etc/network/interfaces.
Исправлена ошибка, из-за которой включение SPICE на ВМ в кластере с типом сети IP-Fabric приводило к неработоспособности ВМ.
Исправлена ошибка, не позволявшая корректно определить тип ОС на узлах с CentOS 7.
Исправлена ошибка, не позволявшая производить настройку сети на узлах с ОС CentOS 7 из-за попытки установки ненужного пакета из репозитория.
Исправлена ошибка, из-за которой при установке параметра узла "Запретить создание VM" оставалась возможность создать ВМ по API.
Исправлена ошибка, из-за которой в кластере с типом сети IP-Fabric на узле не обновлялись сетевые маршруты после добавления IP-адреса на ВМ.
Теперь при добавлении узла в кластер, если его имя совпадает с именем другого узла в платформе, формируется корректное уведомление.

hosting.show/alice2k-hosting/gniloe-obnovlenie-vmmanager---v2023021.html

Не создается пользовать VMmanager 6

Вопрос
Не создается пользователь VMmanager, пишет ошибку


Ответ
ISPsystem обновили панель.
И теперь нельзя делать умные email которые работают «как алиас». Как у людей современных модных.


ISPsystem живет же прошлым как 15 лет назад.
И теперь нужно отдельные ящики создавать.

А вот google и yandex — живут в современном мире и умеют делать как нужно.


Обновление


Первая авария на VMmanager 6 версии (всем пострадавшим 1 месяц начислено бесплатно)

Хоть они и заявляют о стабильности, но на 2021 год — пока что это не так.


За 2020 было проделано много работы, что-то стало лучше, что-то стало хуже.
Например хуже стало то, что при создании кластера нельзя теперь указать настройки для него, например выставить лимит на канал, в итоге все ВМ создаются без ограничений и потом приходится вручную уже всем настраивать после создания ВМ. А раньше эта функция бралась из создания кластера, просто когда его создашь там указывалось.
А лучше стало наверно то, что больше функционала, все таки Март 2020, Апрель 2020 и Ноябрь 2020 — это небо и земля.

Короче по каким-то причинам часть узлов стала писаться якобы проблемы на узле.
Но узлы работали и ВМ на них работали.
Хотя в панели показывался статус что ВМ отключена и не работает.

Ради теста я перезагрузил 1 узел, он перестал писаться с ошибками. Но зато ВМ-ки на нем перестали работать.

В итоге почти сутки ISPsystem пытались разобраться в проблеме.

И до сих пор пока что проблема не исправлена.
Пишут что утечка ОЗУ, хотя сама панель их показывает что 2 ГБ в запасе.


Вероятно эта проблема случилась после обновления
Версия 6.15.0 VMmanager KVM 6


На VMmanager 5 — были похожие проблемы ранее.
Так вот, короче я перезагрузил 1 узел — и он сдох.
И вот всем кто пострадал на этом узле — 1 месяц бесплатно :)

Вот этим чувакам.

И в публичные отчеты честности для истории.
Дата подачи заявки о проблеме панели.
2021-02-05 15:39:27

Но восстановлен узел был только.
2021-02-06 19:48:21


Почти 24 часа короче.
Такие вот дела. Извиняюсь хоть это и не косяк хостера.

Обновление VMmanager KVM от [5.136.0] до 5.142.0

Короче, было замечено, что часть нод — не обновилось само.
И застряло на VMmanager KVM 5.136.0

Те, которые Дебиан — гладко обновились до 5.142.0

А вот те, которые как обычно Хваленная Расхваленная CentOS 7
21:01 - Vova1234: Could not create lock at /var/run/yum.pid: [Errno 28] No space left on device
21:02 - Vova1234: места нет
21:02 - Vova1234: tmpfs           1.9G  1.9G     0 100% /run

  1. Место какое-то кончилось.
  2. Начали копать о чем речь.
Я сначала подумал это на нодах — думаю, ебать нужно ноды с клиентами ребутать теперь. А это опасно. Да и вообще не айс ребутать рабочих клиентов.
Другие же хостеры как-то обходятся без ребута.
Начал уточнять у админа.

В итоге оказалось, что речь идет именно о серверах, где стоит сама VMmanager KVM — а у нас как вы знаете, т.к. я предусмотрительный человек — под панель выделены Атомы дешевые специально. (про Атомы тут и вот пример наглядно как это меня спасло)
Ребутнуть атом — не проблема.

  • Итого — после ребута временные файлы вычищались и все потом обновлялось само.
  • И узлы которые прикреплены в Атоме уже, сами ноды — так же потом начинали обновляться до последней версии 5.142.0.

Мне стало интересно, почему только 2 ГБ ?
Начали проверять разные серверы. Там где под панель был сервер с 16 озу i5-2400 допустим — там раздел tmpfs был 8 ГБ почему-то, а вот на Атоме — именно 2 ГБ.

Подумали сначала что это SWAP.
Но нет, swap если верить «информация о системе» из VMmanager у нас либо 4096, либо другие значения, но никак не 2 ГБ.

Например был сервер, где swap писало 32 ГБ
Но разметка там была
Filesystem      Size  Used Avail Use% Mounted on
rootfs          1.8T  728G  999G  43% /
/dev/root       1.8T  728G  999G  43% /
devtmpfs         32G     0   32G   0% /dev
tmpfs           6.3G  444K  6.3G   1% /run
tmpfs           5.0M     0  5.0M   0% /run/lock
tmpfs            19G     0   19G   0% /dev/shm
root@gra:~#
Так что это явно не swap никакой. И как вообще создается этот раздел — не понятно. Почему где-то 2, где-то 4, где-то 6, а где-то 8?

Так что этот вопрос мы так и не поняли, почему вдруг оно забилось, и почему именно на Атоме с 4 озу — такой размер. А на других серверах другой размер. Он как-то сам автоматически наверно делается, в зависимости от сервера? ОС наверно смотрит на мощу сервера и выделяет оптимальное что-то.

Если кто-то знает — в комменты.

22:35 — alice2k: 1,5 часа обновляли
22:35 — Vova1234: еще
22:35 — Vova1234: нет
22:35 — Vova1234: 2 осталось
22:35 — alice2k: ну эти уже мелочи
22:35 — alice2k: угу
22:35 — Vova1234: атомы долго обновляются

update
решение
mount -o remount,size=10G /run