Обновление proxmox 6 до 7

Восстановление конфигурации хранилища

После перезагрузки копируем из резервной копии файл storage.cfg:

cp -r /root/pve-backup/storage.cfg /etc/pve/

1 cp-rrootpve-backupstorage.cfgetcpve

Открываем файл при помощи консольного редактора:

nano -w /etc/pve/storage.cfg

1 nano-wetcpvestorage.cfg

Если эта нода не являлась мастером, тогда удаляем все хранилища которые не содержать nodes , после чего на каждом хранилище удаляем эту строку.

Если нода являлась мастером, тогда удаляем все хранилища которы содержать nodes .

Копируем файлы файлы виртуальных машин, если Вы не собираетесь добавлять ноду в кластер:

cp -r /root/pve-backup/nodes//qemu-server/* /etc/pve/qemu-server/
cp -r /root/pve-backup/nodes//lxc/* /etc/pve/lxc/
cp -r /root/pve-backup/nodes//openvz/* /etc/pve/openvz/

1
2
3

cp-rrootpve-backupnodesназваниенодыqemu-server*etcpveqemu-server

cp-rrootpve-backupnodesназваниенодыlxc*etcpvelxc

cp-rrootpve-backupnodesназваниенодыopenvz*etcpveopenvz

Если вы собрались добавить ноду в кластер, тогда добавляем и в случае успешного добавления копируем виртуальные машины:

cp -r /root/pve-backup/nodes//qemu-server/* /etc/pve/nodes//qemu-server/
cp -r /root/pve-backup/nodes//lxc/* /etc/pve/nodes//lxc/
cp -r /root/pve-backup/nodes//openvz/* /etc/pve/nodes//openvz/

1
2
3

cp-rrootpve-backupnodesназваниенодыqemu-server*etcpvenodesназваниенодыqemu-server

cp-rrootpve-backupnodesназваниенодыlxc*etcpvenodesназваниенодыlxc

cp-rrootpve-backupnodesназваниенодыopenvz*etcpvenodesназваниенодыopenvz

Открываем WEB-интерфейс, проверям наличие хранилища и виртуальных машин. 

Виды сетевых соединений в Proxmox VE

  • Linux Bridge — способ соединения двух сегментов Ethernet на канальном уровне, то есть без использования протоколов более высокого уровня, таких как IP. Поскольку передача выполняется на канальном уровне (уровень 2 модели OSI), все протоколы более высокого уровня прозрачно проходят через мост.
  • Linux Bond — метод агрегации нескольких сетевых интерфейсов в единый логический bonded интерфейс. Таким образом, bond обеспечивает балансировку нагрузки либо горячий резерв по определённому сценарию.
  • Linux VLAN – реализация на ядре Linux виртуальной локальной компьютерной сети.
  • OVS Bridge – реализация моста на базе Open vSwitch.
  • OVS Bond – реализация балансировки на базе Open vSwitch. Отличается от реализованной в ядре Linux балансировки режимами.
  • OVS IntPort — реализация VLAN на базе Open vSwitch.

Обнуляем ноду PROXMOX

Смотрим текущий статус кластера:

pvecm status

1 pvecm status

Все машины которые кроме этой ноды — удаляем:

pvecm delnode

1 pvecm delnodeИмянодыилиIPадрес

Останавливаем все сервисы:

systemctl stop pvestatd.service
systemctl stop pvedaemon.service
systemctl stop pve-cluster.service
systemctl stop corosync

1
2
3
4

systemctl stop pvestatd.service

systemctl stop pvedaemon.service

systemctl stop pve-cluster.service

systemctl stop corosync

Заходим базу данных кластера:

sqlite3 /var/lib/pve-cluster/config.db

1 sqlite3varlibpve-clusterconfig.db

Удаляем конфигурацию:

SQLite version 3.27.2 2019-02-25 16:06:06
Enter «.help» for usage hints.
sqlite> delete from tree where name = ‘corosync.conf’;
sqlite> .quit

1
2
3
4

SQLite version3.27.22019-02-25160606

Enter».help»forusage hints.

sqlite>delete from tree where name=’corosync.conf’;

sqlite>.quit

Сносим остальные файлы конфигурации:

pmxcfs -l
rm /etc/pve/corosync.conf
rm /etc/corosync/*
rm /var/lib/corosync/*
rm -rf /etc/pve/nodes/*

1
2
3
4
5

pmxcfs-l

rmetcpvecorosync.conf

rmetccorosync*

rmvarlibcorosync*

rm-rfetcpvenodes*

Перезагружаем ноду т.к. поднять остановленные сервисы у Вас врятли получится без перезагрузки.

Резервная копия конфигурации ноды

Заходим на сервер по SSH, смотреть на pvecm status особого смысла нет т.к. все у нас лежит. На всякий случай делаем бэкап того, что мы имеем:

mkdir /root/pve-backup && cp -r /etc/pve/{storage.cfg,nodes}

1 mkdirrootpve-backup&&cp-retcpve{storage.cfg,nodes}

Бывает, что /etc/pve не доступен из-за падения служб или их зависанием. Настоятельно рекомендую добиться того, чтобы скопировать текущие файлы кластера перезапустив кластер systemctl restart pve-cluster.service. После перезапуска пытаемся сделать резервную копию. Если не получилось идем на другой сервер который в этом кластере и пытаемся сделать тоже самое т.к. если кластер работал то конфигурация машин и хранилища будут всех нод.

Рейтинг
( Пока оценок нет )
Понравилась статья? Поделиться с друзьями:
Техноарена
Добавить комментарий

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!: