Публичные отчеты и различная статистка по нашим нодам, что мы насоздавали от балды.
  • Дата создания
    7 ноября 2017
  • Топиков
    16
  • Ограничение на постинг
    1.000
  • Категория:
    VM.Center

[3 в 1] PL WAW1

Закрыли 3 старых сервера из 2016 года по 32 озу.
Переместили их на 1 сервер 2020 года на 128 озу.

Управились часов за 15 наверно. Начали утром. Потом я уже спать ушел. И Вова продолжал до 5 утра или до 0-00 по украине.




Проблем особо не было.
Вручную, создали аналогичные ВДС с аналогичными ОС и IP на новой ноде.
Потом удалили файлы самих ВМ.
Потом скопировали с старых серверов.
И включили виртуалки.
И разослали людям новые пароли доступа.

Методом тыка — произвели очередной перенос, ибо автоматика VMmanager импорт — хз параша делает помойку, импорт мы не осилили за 3 года пока что :) Вручную надежнее и проще.
Мы — эталон ручного продления и ВМ тоже :))



noda5.1245 Power Suply replacement

[TICKET#8046222242] Operation Power Suply replacement finished

  • Проснулся я значит с утра. Вижу там БП сгорел и его поменяли, автоматически сами в ОВХ.


  • Как видно в узлах E3-1245v2


Похоже никто не заметил даже, тикетов создано не было.
Но для истории топик. Все по честному.

Отчет про "среднее кол-во" виртуалок на нодах

Если вы сомневаетесь в честности своего хостера.
Попросите его сделать вот такие вот скрины.

Например у нас, как и было заявлено — 16 долей. И до 16 долей даже никогда не доходит, ибо самый минимальный тариф мало кто покупает. Поэтому среднее значение около 10 виртуалок получается.











И так далее, как и заявлено в правилах.

И даже при условии что там виндоусы больше половины. Все равно никто не жалуется.

Так что я думаю подобный сервер легко выдержит и 32 доли или даже и больше, как раз как делают другие хостеры.

noda3 6700k

Днем 23/06/2019 сдохла нода3 из GRA2 узлов.
Оказалось сотрудник ОВХ хотел что-то обновить в CPU дырках intel
Stable kernel, hz1000 — 64bit (includes up-to-date intel microcodes)
Но убил ОС
И сбросил ее типо ОС должна быть исправлена заказчиком.


Пришлось восстанавливать



Пришлось переустанавливать ОС с нуля и накатывать из бекапа.
Копирование данных. 21-23 00-40, т.е почти 3 часа выкачивали



Пол часа переустановка ОС, настройка узла.
И восстановление. 02-33, 03-39, копирование оказалось быстрее.



Итого на все про все ушло. 8 часов :) Закладывали 10.


Статистка по ОС №2

Первая статистика была в самом начале
Решил вести паблик примеры [Осень 2017]

Теперь статистика на март 2019
Нагрузку мы так и не поняли как нужно считать, поэтому просто положили хуй короче. Как говорится работает и ладно :) Оптимизацией не занимаемся.
Как и написано в правилах услуги.


А теперь факты, просто факты.
















SMART отчет №2


Первый был летом 2018
SSD Total Bytes Written

Точно так же смотрим только ноды, где 1 SSD без raid1
Потому что там сгорание равносильно смерти узла.

SBG i7-6700k
noda1 — 272379466896 — 126.84 TB — 0 ошибок
noda2 — 295425295251 — 137.57 TB — 0 ошибок
noda3 — 766966834999 — 357.15 TB — 0 ошибок
noda4 — 185514307689 — 86.39 TB — 0 ошибок
noda5 — 181434747397 — 84.49 TB — 0 ошибок
noda6 — 558204424554 — 259.93 TB — 0 ошибок
noda01 2016 — 378695466309 — 176.34 TB — 0 ошибок
noda02 2016 — 165944088769 — 77.27 TB — 0 ошибок

GRA i7-6700k
noda1 — 172324367138 — 80.24 TB — 0 ошибок
noda2 — 53503605961 — 24.91 TB — 0 ошибок
noda3 — 50002184870 — 23.28 TB (меняли ноду) — 0 ошибок
noda4 — 233938 — 0 ТБ (либо ошибка, либо так и осталось с прошлого замера) — 0 ошибок
noda5 — 106640635623 — 49.66 TB (меняли ноду) — 0 ошибок
noda6 — 86617391991 — 40.33 TB — 0 ошибок
noda7 — 38769693909 — 18.05 TB — 0 ошибок
noda8 — 13825987528 — 6.44 TB — 0 ошибок
noda01 2016 — 266791112841 — 124.23 TB — 0 ошибок
noda02 2016 — 250296977064 — 116.55 TB — 0 ошибок

Так же было решено сохранить для будущего понимания.
Полноценные смарты.
И в конце 2019 года сохранить еще раз.
И сравнить какие показатели увеличились, какие наоборот уменьшились.
Чтобы понять что происходит со временем.

Судя по всему, возможно мы так и не увидим собственными глазами как сгорят эти ноды :)
Быстрее процессоры потеряют актуальность.
Читать дальше

bhs.i7k => bhs6.i7-4790k.ovh

Как вы уже знаете из старых топиков, ISP закрывает Debian ноды.
Поэтому процесс переезда.

Еще одна нода переезжала из Debian 7 на CentOS 7
Она была создана еще в 2016 году в самом начале, и вот в январе 2019 переехала.

И даже оказалось, что там диск один сгорел.

Raid1 был, 2 диска, один издох, а все работало на втором и никто не заметил даже.


Переезд занял вот столько. Около 2 часов.
Никто даже не заметил, так как 3 января :)



Старый сервер работал

Operation Motherboard replacement finished (noda2 sbg2.i7-6700k)

[TICKET#8492399526] OVH Monitoring
06:08 (7 ч. назад)
Mūsų technikai (dirbantys 24 val./24, 7 d./7) buvo informuoti ir
prisijungs prie Jūsų serverio.
Šiuo metu gali būti atliekamos kitos intervencijos, vidutiniškai jos trunka
30 minučių.
Sutrikimo priežastį žinosime tik pradėję intervenciją.
Bendrą sutrikusių serverių kiekį ir vykdomas intervencijas galite
matyti šiuo adresu:
darbai.ovh.lt/vms/
Jūsų serveris yra spintoje 75A33.
Kai technikas ims tikrinti Jūsų serverį, gausite pranešimą apie tai.
Šiuo metu galite perkrauti serverį tvarkytuve.
Logs:

PING ns3054529.ip-164-132-205.eu (164.132.205.111) from 213.186.33.13: 56(84) bytes of data.
From 213.186.33.13: Destination Host Unreachable
From 213.186.33.13: Destination Host Unreachable
From 213.186.33.13: Destination Host Unreachable
— 164.132.205.111 ping statistics —
10 packets transmitted, 0 packets received, +6 errors, 100% packet loss
---------------------

[TICKET#4862680610] Operation Motherboard replacement finished
07:47 (5 ч. назад)
Operacija baigta 2019-01-02 01:47:11 CET (UTC +01:00).
Toliau pateikiamos intervencijos detalės:
Motherboard replacement
Date 2019-01-02 00:30:55 CET (UTC +01:00), jonas B made Motherboard replacement: Diagnosis:
HS motherboard
Actions:
Replacing the motherboard.
Updating the MAC address for DHCP.
Server restart on the OVH kernel «BZimage» because when boot on disk it stuck on «GRUB interface».
Result:
DHCP OK. Boot on the OVH kernel. Server on login screen. Ping OK, services started.
OVH как всегда все сделало само
Сгорела мать, поменяли мать, перезапустили сервер.
Ты с утра проснулся, увидел что что-то падало и что все уже работает :)

SSD Total Bytes Written

Решил собрать статистику по записанному на наши ноды.
Не на все ноды, а только на SSD 480
Потому что только на них 1 диск без raid.
Итак поехали



SBG i7-6700k
noda1 — 237188120396 — 110.45 TB — 0 ошибок
noda2 — 225563838822 — 105.04 TB — 0 ошибок
noda3 — 705543486450 — 328.54 TB — 0 ошибок
noda4 — 123513899388 — 57.52 TB — 0 ошибок
noda5 — 161425790769 — 75.17 TB — 0 ошибок
noda6 — 542676301010 — 252.70 TB — 0 ошибок

GRA i7-6700k
noda1 — 95814997413 — 44.62 TB — 0 ошибок (но есть CRC Error Count 2, хоть это не считается плохим)
noda2 — 20698304512 — 9.64 TB — 0 ошибок (свежая была новый диск и недавний перенос с Дебина)
noda3 — 100699200328 — 46.89 TB — 0 ошибок
noda4 — 14811 — 0 ТБ ?? — 0 ошибок (новый диск, месяца нет, перенос с Дебиана был на новый сервер)
noda5 — 239684042104 — 111.61 TB — 0 ошибок

остальные не проверял, там везде raid или sata диски, а у sata нету такого показателя.
потом в новый год проверю все.

  • Итак, вопрос, когда же 480 SSD выйдут из строя ?
  • На каком показателе ?
  • SAMSUNG MZ7WD480HAGM-00003