Nous allons dans cette page installer oVirt sur un noeud (1 host ou hyperviseur), et utiliserons l'interface de management, appelée oVirt Engine, sous la forme d'une VM.
Nous avons deux méthodes d'installation :
Deux points sont importants dans notre installation :
Point montage | Taille | Part type | FS |
---|---|---|---|
/boot | 1 GB | Physical | ext4 |
/ | 6 GB | LVM Thin | xfs |
/home | 1 GB | LVM Thin | xfs |
/tmp | 1 GB | LVM Thin | xfs |
/var | 15 GB | LVM Thin | xfs |
/var/crash | 10 GB | LVM Thin | xfs |
/var/log | 8 GB | LVM Thin | xfs |
/var/log/audit | 2 GB | LVM Thin | xfs |
swap | 1 GB | LVM | xfs |
Note importante : le format LVM à utiliser doit être LVM Thin. Dans le cas contraire, vous aurez une erreur à la fin du processus d'installation.
Afin de pouvoir stocker les VMs et les images ISO, nous allons créer un partage NFS sur l'hôte 1. La documentation se trouve à cette adresse.
Pour que les briques de notre système puissent communiquer, il nous faut ouvrir les ports de communication à l'aide d'Iptables. Une page dédiée se trouve à cette adresse.
Nous récupérons l'iso sur le site oVirt. Pour la version 4.4.1 utilisée pour notre lab :
wget https://resources.ovirt.org/pub/ovirt-4.4/iso/ovirt-node-ng-installer/4.4.1-2020080418/el8/ovirt-node-ng-installer-4.4.1-2020080418.el8.iso
Nous insérons la clé USB et vérifions quel est son nom
sudo dmesg
Nous devrions avoir ce genre de chose
[94994.232134] usb 2-1: new SuperSpeed Gen 1 USB device number 2 using xhci_hcd [94994.253302] usb 2-1: New USB device found, idVendor=1b1c, idProduct=1a09, bcdDevice= 1.00 [94994.253307] usb 2-1: New USB device strings: Mfr=1, Product=2, SerialNumber=3 [94994.253311] usb 2-1: Product: Voyager GT 3.0 [94994.253313] usb 2-1: Manufacturer: Corsair [94994.253316] usb 2-1: SerialNumber: 07087B1D23BD1244 [94994.256102] usb-storage 2-1:1.0: USB Mass Storage device detected [94994.259348] scsi host4: usb-storage 2-1:1.0 [94995.264966] scsi 4:0:0:0: Direct-Access Corsair Voyager GT 3.0 000A PQ: 0 ANSI: 6 [94995.265517] sd 4:0:0:0: Attached scsi generic sg2 type 0 [94995.265825] sd 4:0:0:0: [sdc] 61800448 512-byte logical blocks: (31.6 GB/29.5 GiB) [94995.266669] sd 4:0:0:0: [sdc] Write Protect is off [94995.266672] sd 4:0:0:0: [sdc] Mode Sense: 2b 00 00 08 [94995.267459] sd 4:0:0:0: [sdc] Write cache: disabled, read cache: enabled, doesn't support DPO or FUA [94995.357815] sdc: sdc1 [94995.361400] sd 4:0:0:0: [sdc] Attached SCSI removable disk
Ici, notre clé est sdc. Il est possible aussi d'avoir cette information en saisissant cette commande
sudo fdisk -l
Rechercher le disque qui a la taille de votre clé, ici
Device Boot Start End Sectors Size Id Type /dev/sdc1 2048 61800447 61798400 29,5G 7 HPFS/NTFS/exFAT
Nous copions l'iso sur la clé USB
sudo dd if=ovirt-node-ng-installer-4.3.9-2020031917.el7.iso of=/dev/sdc bs=4M status=progress && sync
Nous insérons
À venir
Nous ajoutons le dépôt ovirt
sudo yum install https://resources.ovirt.org/pub/yum-repo/ovirt-release44.rpm
Nous mettons à jour la liste des paquets
sudo yum update
Nous installons copckpit
sudo yum install cockpit-ovirt-dashboard
Nous activons et démarrons le service cockpit
sudo systemctl enable cockpit.socket sudo systemctl start cockpit.socket
Plutôt que d'installer la surface de management sur le premier hyperviseur, nous allons installer l'appliance, qui est une solution plus simple, car nous pourrons déplacer cette VM à notre convenance.
Avant de lancer l'installation depuis le cockpit, nous allons installer le paquet ovirt-engine-appliance
sudo yum install ovirt-engine-appliance
Si lors du lancement de l'installation vous avez un message du genre : “Delta RPMs disabled because /usr/bin/applydeltarpm not installed.”, installez deltarpm avec la commande
sudo yum install deltarpm
Ensuite, connectez-vous au cockpit à l'adresse :
https://your_fqdn:9090
Maintenant que le nœud principal est installé, nous allons installer le client qui va gérer le cluster et les VMs. Il s'agit du hosted engine. Accéder à la page de l'installation de l'hosted engine