2.rbx.noda.ovh (OVZ)

2.rbx.noda.ovh/vemgr
Еще одна тестовая нода из 2016 года.
Это был конфиг
Xeon W3520 / 32 ddr3 / 2x 300 SSD
list.skladchik.ovh (искать файл за 2016 год)
Май 2018 — закрывается

Сначала VMmanager KVM никто не мог настроить — года 2-3 так.
Даже платные админы не умели.
Потом наконец-то наша вонь по интернету добилась своего. Некоторые люди настроили за 5000р
И процесс пошел в массы. Пошли продажи. Нам стали писать другие админы и стали просить помочь настроить эту панель. И даже хостеры и даже с SE люди писали с репутацией. Никто не умел настраивать короче. Благодаря нашей статье десяток хостингов точно научился делать VPS и теперь продает.

Так вот, сначала мы конечно же пробовали на OpenVZ, т.к. KVM не настраивалось.
Потом OpenVZ ноды отобрали у нас runabove (кстати весь проект на 200к начинался с OVZ runabove как раз; история была такова, я увидел супер дешевые runabove и подумал, а давайте все таки куплю в очередной раз говно панель VMnanager и попробуем запилить складчину, так и понеслось)
И еще вот остался апендикс — W3520

  • Во первых оказалось, что процессор слабоват.
  • Во вторых оказалось, на OpenVZ нельзя установить Windows
  • Ну и в третьих — он не вписывается в красивую архитектуру.

Поэтому еще для истории




  • Тоже была на Debian
  • Тоже не одного падения не было.
Все клиенты — перенесены на i7-6700k теперь.
Так и не сгорела сама по себе.

В будущем конечно же OpenVZ делать вообще не планируем. Да и ISPsystem ее вроде поддерживать не собираются даже.

noda2 RBX

В самом начале, когда мы еще делали ноды на Debian 7
Были собраны 4 сервера тестовых.
Первый с 120 диском
Второй на 16 озу проверка, как оно
Третий на 240 диск, какие потом стали делаться с SSD
Четвертый стандарт с sata дисками, какие потом стали популярны для винды

На этом портале нету заметок про эту ноду.

Так вот, конфиг с 16 озу — оказался апендиксом.
Точно так же как конфиг с 120 ssd — не пригоден из-за нехватки места вечного, даже шаблоны ОС постоянно засирают там все.

И сегодня нода2 — закрывается.
Для истории.
list.skladchik.ovh (искать файл за 2016 год)





На Дебиане — не одного падения не было!
Не то, что на ЦентОС

Что делать с Дебиан нодами — мы пока не решили.
Но очевидно, что либо пока не сгорят. Либо до последнего клиента, перенос на новые и закрытие.


Скорее всего вообще, любые наши ноды — будут работать пока не сгорят.
Переходить на VMmanager 6 когда он там родится в 2019 возможно — не планируем.
К 2020 — надеюсь на рынке появятся более достойные альтернативы, панели, конфиги серверов более мощные. И уже на новых конфигах с нуля будем делать по умному архитектуру. Я не любитель портить готовую архитектуру. А у VMmanager v5 как мы знаем — лучшее это вариант с узлами и Атомами оказался. И мне нравится эта архитектура, поганить ее я не хочу. Пусть живет пока не сгорит. А новую — будем уже пробовать и тестировать на новом, с новыми подходами.

[hetzner] [FI] E3-1246v3 or i7-4770 (4 доли)

  • E3-1246v3 / 32 ddr3 / 2x 240 GB — 2600р
  • i7-4770 / 32 ddr3 / 2x 240 GB — 2600р
  • 4 IP = 400/мес
  • Атом для панели = 600р
  • Vmmanager KVM = 6500р(541/мес; 216/второй)

1 год 2600+600+400+541 = 4141
2 год 2600+600+400+216 = 3816
делим на 4 ядра
32/4 = 8 озу
200/4= 50 ssd (винда жрет 21 ГБ, поэтому выделяем 30 ГБ и 10 ГБ на ОС уходит)

1 доля (на сервере всего 4 доли)
  • i7-4770/E3-1246v3 Core / 8 ddr3 / 50 SSD — 1035р/мес (второй год 954р)
  • Итого — по 1100/1000р короче, 50р с доли на админа уходит.

Возможные локации:


И думаю над красотой дизайна
  • hetzner-vm.fi
  • 4770.fi
  • 4770.hel1.fi
  • 4770.hel1.hetzner.abcdteam.fi

[ovh] E3-1245v2 (4 доли - полноценное ядро)

  • E3-1245v2 / 32 ddr3 / 120 ssd — 3000р
  • 4 IP (на этот конфиг максимум только 16) = 600р(50/мес)
  • Атом для панели = 600р — уже набралось атомов с прошлых нод, текущий тариф повторялка в теже атомы узлами по локациям
  • Vmmanager KVM = 6500р(541/мес; 216/второй)

1 год 3000+50+541 = 3591
2 год 3000+0+216 = 3216
делим на 4 ядра
32/4 = 8 озу
80/4= 20 ssd (винда жрет 21 ГБ, поэтому выделяем 30 ГБ и 10 ГБ на ОС уходит)

1 доля (на сервере всего 4 доли)
  • E3-1245v2 Core (3.4 ГГц) / 8 ddr3 / 20 SSD — 900р/мес (второй год 804р)
Итого — по 950р короче, 50р с доли на админа уходит.

Возможные локации:
Чаще всего (смотреть в анонсах)

Иногда бывает (смотреть в анонсах)


Элемент сайта

Продолжение топиков, этого и этого.

Например у того же ОВХ — просто огромная маркировка.

И иногда хочется реально заказать в том же самом ДЦ, не просто в том же самом городе, а именно ДЦ.
И вот распродажи или возможность заказа вплоть прямо до локации, будь то RBX1 или RBX5 — было бы очень удобно.
Дата-центр это интернет магазин.
А сайт это его витрина.



Биллинг, совет, глобальный поиск среди заказов

Новый дизайн ОВХ дал мне повод написать этот топик.
Из покон веков на ОВХ всегда было поле поиска. Туда можно было вводить любые ключевые слова и сразу показывался нужный заказ.
Около заказа можно было ставить свои комментарии на своем языке даже — и по ним потом искать.

Или хотя бы искать по IP
Или хотя бы искать по техническому имени

Но вот, короче — все хостеры должны иметь такое.

Как нужно
Форма поиска


Как не нужно
Хуй найдешь нужный сервер. Например если хотя бы 10 заказов в аккаунте — уже 10 раз тыкаться.


Обновление VMmanager KVM от [5.136.0] до 5.142.0

Короче, было замечено, что часть нод — не обновилось само.
И застряло на VMmanager KVM 5.136.0

Те, которые Дебиан — гладко обновились до 5.142.0

А вот те, которые как обычно Хваленная Расхваленная CentOS 7
21:01 - Vova1234: Could not create lock at /var/run/yum.pid: [Errno 28] No space left on device
21:02 - Vova1234: места нет
21:02 - Vova1234: tmpfs           1.9G  1.9G     0 100% /run

  1. Место какое-то кончилось.
  2. Начали копать о чем речь.
Я сначала подумал это на нодах — думаю, ебать нужно ноды с клиентами ребутать теперь. А это опасно. Да и вообще не айс ребутать рабочих клиентов.
Другие же хостеры как-то обходятся без ребута.
Начал уточнять у админа.

В итоге оказалось, что речь идет именно о серверах, где стоит сама VMmanager KVM — а у нас как вы знаете, т.к. я предусмотрительный человек — под панель выделены Атомы дешевые специально. (про Атомы тут и вот пример наглядно как это меня спасло)
Ребутнуть атом — не проблема.

  • Итого — после ребута временные файлы вычищались и все потом обновлялось само.
  • И узлы которые прикреплены в Атоме уже, сами ноды — так же потом начинали обновляться до последней версии 5.142.0.

Мне стало интересно, почему только 2 ГБ ?
Начали проверять разные серверы. Там где под панель был сервер с 16 озу i5-2400 допустим — там раздел tmpfs был 8 ГБ почему-то, а вот на Атоме — именно 2 ГБ.

Подумали сначала что это SWAP.
Но нет, swap если верить «информация о системе» из VMmanager у нас либо 4096, либо другие значения, но никак не 2 ГБ.

Например был сервер, где swap писало 32 ГБ
Но разметка там была
Filesystem      Size  Used Avail Use% Mounted on
rootfs          1.8T  728G  999G  43% /
/dev/root       1.8T  728G  999G  43% /
devtmpfs         32G     0   32G   0% /dev
tmpfs           6.3G  444K  6.3G   1% /run
tmpfs           5.0M     0  5.0M   0% /run/lock
tmpfs            19G     0   19G   0% /dev/shm
root@gra:~#
Так что это явно не swap никакой. И как вообще создается этот раздел — не понятно. Почему где-то 2, где-то 4, где-то 6, а где-то 8?

Так что этот вопрос мы так и не поняли, почему вдруг оно забилось, и почему именно на Атоме с 4 озу — такой размер. А на других серверах другой размер. Он как-то сам автоматически наверно делается, в зависимости от сервера? ОС наверно смотрит на мощу сервера и выделяет оптимальное что-то.

Если кто-то знает — в комменты.

22:35 — alice2k: 1,5 часа обновляли
22:35 — Vova1234: еще
22:35 — Vova1234: нет
22:35 — Vova1234: 2 осталось
22:35 — alice2k: ну эти уже мелочи
22:35 — alice2k: угу
22:35 — Vova1234: атомы долго обновляются

update
решение
mount -o remount,size=10G /run

bhs1.1245 [noda2] [ovh]

Раньше все серверы, шареды, ноды анонсировались на проект складчин
И оплаты и графики шли именно так. Шаред обычно доли раздал, все пользуются, мало кто уходит. Текучки нету. У шареда текучка только если это именно шаред хостинг модель. А если это складчина, то все кто поверил в честную складчину точно не уходят.
С VPS же наоборот — текучки очень много. (а еще почитайте наши правила, и итоговый пост за 2017, там хорошо рассказано про НОДЫ)
Поэтому нужен только BILLmanager за копейку. (не забывайте так же, что ISPsystem ублюдская компания которая не уважает своих клиентов, и не понимает ничего в Интернет общении и этики комментирования)
Итак. Заодно согласно правилам проекта VM.center — показываю, как аносируется нода. В будущем все хостеры смогут так анонсировать. С мини рассказом о себе, кто они и характеристики ноды и ее цены, локации и особенности ;)

Итак, добавлена noda2 [BHS1]
IP — 16 штук. 2 сети на 4 штуки и 1 сеть на 8 штук.


Доля/Тариф на 1 долю (можно соединять)

  • Старт 02-2018 год — цена 275р
  • С 02-2019 цена — далее 225р



travaux.ovh.net/vms/
travaux.ovh.net/vms/index_bhs1.html

Чтобы заказать, писать тикет panel.skladchik.ovh/billmgr
На этом проекте поддержки нет. Но у других хостеров на портале vm.center — будет, но и цены там будут другие и анонсы тоже ;)

04-02-18 [noda3 gra1] 45 минут дауна

[TICKET#0118326990] OVH Monitoring (20:54)
Our monitoring system has just detected a fault on your server ns3365126.ip-37-187-75.eu.
The fault was noticed on 2018-02-04 14:50:09
Our team of technicians on site (operational 24/7), has been informed
of the fault and will intervene on your machine.
Please be aware that other interventions may currently be in progress and
an intervention lasts on average 30 minutes per machine.
We are therefore not able to give you more details on the starting time
of the intervention.
You can see a general display of the machines currently in fault and
in intervention across our network at the following address: status.ovh.ie/vms/
Your server is in rack G111A17
You will receive an email as soon as a technician takes charge of your
server. Meanwhile, you have can reboot it via your manager.
Logs:

PING ns3365126.ip-37-187-75.eu (37.187.75.20) from 213.186.33.13: 56(84) bytes of data.
From 213.186.33.13: Destination Host Unreachable
From 213.186.33.13: Destination Host Unreachable
From 213.186.33.13: Destination Host Unreachable
— 37.187.75.20 ping statistics —
10 packets transmitted, 0 packets received, +6 errors, 100% packet loss
---------------------

Пошли смотреть в чем дело.
Оказалось



Время простоя — 45 минут



[TICKET#4258299994] Operation Network connector finished (21:41)
The intervention on ns3365126.ip-37-187-75.eu has been completed.
This operation was closed at 2018-02-04 15:41:04 CET (UTC +01:00)
Here are the details of this operation:
  • Network connector
Date 2018-02-04 15:00:06 CET (UTC +01:00), kevin H made Network connector:
Operation details:
Action and result:
  • No intervention was made on the server.
  • The server is booted on disk and is on the login screen. Ping OK and services are up.?