-
Crear clúster de Proxmox para alta disponibilidad
Lo primero que tenemos que hacer es seguir este hack para poner en marcha un clúster distribuido. Una vez que terminamos ese hack procedemos con activar la alta disponibilidad.
Para tener la alta disponibilidad de Proxmox funcionando, es necesario contar con un almacenamiento distribuido entre los tres nodos que formarán nuestro clúster. Aquí es donde entra Ceph en acción. Eso si, es necesario tener un disco extra en cada uno de los nodos para que este sea utilizado como parte del almacenamiento Ceph. Y ese disco no tiene que estar en una controladora que esté funcionando en modo RAID.
CEPH EN EL NODO 1
Para activar Ceph en nuestro clúster de Proxmox, vamos a la web de administración del nodo 1, hacemos click sobre «Ceph»y le damos al botón azul que pone «Install Ceph».
Se nos abrirá una nueva ventana en la cual nos cercioraremos de que esté seleccionada la última versión de Ceph (17.2 al momento de redactar este hack) y haremos click en el nuevo botón azul que pone «Start quincy installation».
Se abrirá una terminal de Debian en la cuál tendremos que presionar la letra «Y» y luego darle al «Enter» para que se proceda con la instalación.
Al acabar la instalación de los paquetes se activará el botón «Siguiente», que podremos ver en azul, abajo a la derecha de la ventana que estamos viendo. Hacemos click en ese botón.
En la siguiente ventana podremos seleccionar la red pública y la red del clúster. Lo hacemos y le damos a siguiente.
Eso concluiría la instalación de Ceph en el nodo 1. Para finalizar, simplemente hacemos click sobre el botón azul que pone «Finalizar».
CEPH EN EL NODO 2
Para activar Ceph en el nodo 2, vamos a su web de administración, hacemos click sobre «Ceph»y le damos al botón azul que pone «Install Ceph».
Se nos abrirá una nueva ventana en la cual nos cercioraremos de que esté seleccionada la última versión de Ceph (17.2 al momento de redactar este hack) y haremos click en el nuevo botón azul que pone «Start quincy installation».
Se abrirá una terminal de Debian en la cuál tendremos que presionar la letra «Y» y luego darle al «Enter» para que se proceda con la instalación.
Al acabar la instalación de los paquetes se activará el botón «Siguiente», que podremos ver en azul, abajo a la derecha de la ventana que estamos viendo. Hacemos click en ese botón.
En la siguiente ventana no podremos seleccionar la red pública y la red del clúster, como hemos hecho en el nodo 1 porque, justamente, al haberla configurado en el nodo 1, ya está configurada. Simplemente le damos a siguiente.
Eso concluiría la instalación de Ceph en el nodo 2. Para finalizar, simplemente hacemos click sobre el botón azul que pone «Finalizar».
CEPH EN LOS SIGUIENTES NODOS
Para activar Ceph en los siguientes nodos, seguimos los pasos del nodo 2.
MONITORES
En la web de administración del clúster, vamos al nodo 1, desplegamos el menú de «Ceph» y hacemos click en «Monitor». Veremos que sólo está configurado como monitor el nodo 1. Para agregar los otros nodos hacemos click en el botón «Crear» y creamos un monitor para el nodo 2 y otro para el nodo 3 (y siguientes) .
OSDs
Deberemos utilizar los discos extra que hemos instalado en cada proxmox para crear un OSD en cada uno de los nodos. Para ello, en la web de administración del clúster, y por cada uno de los nodos, desplegamos el menú de «Ceph» y hacemos click en «OSD».
En la siguiente ventana le damos al botón «Crear OSD». Se nos auto-seleccionará el disco sin utilizar que tenemos disponible y le damos al botón azul que pone «Crear». Así por cada uno de los nodos que formen parte del cluster y que tengan Ceph activado.
Pool
Lo siguiente es la creación del pool de almacenamiento utilizando todos los OSDs que hemos creado antes. Para ello en la web de administración del clúster, vamos al nodo 1, desplegamos el menú de «Ceph», hacemos click en «Pools» y, cuando accedamos al panel de las pools, podremos ver que no hay ninguna creada.
Lógicamente, para crear una pool, le daremos al botón «Crear», y asignaremos un nombre a esa pool. Por ejemplo, en mi caso, suelo llamarla «PoolCeph». Es mejor no tildar la casilla «Avanzado» y dejar que la pool se cree con los valores por defecto. Si lo hacemos así, la pool se agregará automáticamente al almacenamiento del centro de datos.
CREACIÓN DE MVs Y LXCs
Para que la alta disponibilidad funcione, es necesario que los discos de las máquinas virtuales y los contenedores se creen en la pool que acabamos de crear. Por ello, siempre utilizaremos la pool para almacenar MVs y LXCs.
MARCAR MVs y LXCs COMO ALTA DISPONIBILIDAD
Es posible que no queramos que todas las máquinas virtuales y contenedores estén en modo alta disponibilidad. Por ello, para marcar las IDs que queremos que estén en alta disponibilidad vamos a ir a la web de administración del clúster, haremos click en «Centro de datos», bajaremos hasta la parte del menú que dice «HA» y, en «Recursos» agregaremos cada una de las IDs que nos interese que se mantenga activa cuando su nodo caiga.
Los hacks de hacks4geeks son minitutoriales rápidos pensados para geeks con conocimiento informático avanzado. Si no entiendes o no consigues ejecutar un hack de esta web considera suscribirte a Premium para solicitar asistencia sobre el mismo.