Error Red Hat Cluster Local machine trying to enable service:httpd…Temporary failure; try again

En esta entrada vamos a ver como solventar este gran problema el cual nos suece a la hora de iniciar o intentar migrar un servicio de un nodo a otro.

Intentamos levantar el servicio y nos aparece el siguiente error:

# clusvcadm -e service:httpd
Local machine trying to enable service:httpd…Temporary failure; try again

Tras fallar al iniciar el servicio intentamos migrar al otro nodo el servicio, el cual nos muestra el siguiente error:

# clusvcadm -r service:httpd -m nodo02
Trying to relocate service:httpd1 to nodo02…Invalid operation for resource

Comprobamos que el servicio está bloqueado, esta información se puede obtener de las siguientes formas:

 

# clusvcadm -l service:httpd
Resource groups locked

After Status

Service Information
——- ———–

Service Name      : service:httpd
Current State   : started (112)

 

# clusvcadm -S service:httpd

Resource groups locked

 

Desbloqueamos el recurso

 

clusvcadm -u service:httpd

Resource groups unlocked

 

 

Una vez desbloqueado ya podemos mover el recurso

 

clusvcadm -r httpd -m nodo02

 

un saludo.

Comandos basicos Cluster Pacemaker

Estos son los comandos básicos para controlar un cluster Pacemaker desde línea de comandos. Ver el estado del Cluster,  arrancar/parar/reiniciar/mover recursos y servicios, etc.

Ver el estado del cluster:

 

pcs cluster status

 

Ver el estado de los recursos

pcs status resources

Iniciar  un recurso

Sintaxis:

 pcs resource start <Cluster IP>

Ejemplo:

pcs resource start clusterIP

 

Tambien se puede realizar mediante el comando: crm_resource

crm_resource start clusterbd

 

Parar un recurso

pcs resource stop clusterIP

 

Tambien se puede realizar mediante el comando: crm_resource

 

crm_resource stop clusterbd

Mover los recursos

 

pcs resource move <RECURSO>  <NODO>

 

Ejemplo:

pcs resource move clusterbd node02

 

*NOTA: Tras mover siempre el recurso se debe ejecutar:

 

pcs resource clear <ClusterIP>

 

Tambien se puede realizar mediante el comando: crm_resource

 

crm_resource  –resource clusterIP –move –node node02

 

Forzar  para que se mueva el recurso 

 

crm_resource –force –resource clusterIP –move –node node02   –quiet

 

*NOTA: Tras mover siempre el recurso se debe ejecutar:

 

pcs resource clear clusterbd

 

Eliminar errores

 

pcs resource cleanup

 

Consultar las constraint

 

pcs constraint location –full

Location Constraints:

Resource: clusterIP

Enabled on: nodo02 (score:INFINITY) (id:location-clusterIP-nodo02-INFINITY)

 

Mostrar solo las location constraint:

 

pcs constraint location –full

Location Constraints:

Resource: clusterbd

Enabled on: nodo02 (score:INFINITY) (id:location-clusterIP-nodo02-INFINITY)

 

Poner un nodo en mantenimiento

 

pcs cluster standby <NODO>

 

Quitar el modo mantenimiento de un nodo

 

pcs node unstandby <NODO>

 

Un saludo.

Añadir un nuevo disco a un volumen ya existente

En esta entrada vamos a ver como añadir un disco nuevo a un volumen ya existente para aumentar el tamaño del VG ya que no queda espacio libre para aumentar mas espacio.

Una vez añadido el disco, mediante el comando dmesg intentamos comprobar si lo a detectado.

 

sdf: Write Protect is off

sdf: Mode Sense: 31 00 00 00

sdf: cache data unavailable

sdf: assuming drive cache: write through

SCSI device sdf: 104857600 512-byte hdwr sectors (53687 MB)

sdf: Write Protect is off

sdf: Mode Sense: 31 00 00 00

sdf: cache data unavailable

sdf: assuming drive cache: write through

sdf: unknown partition table

sd 0:0:5:0: Attached scsi disk sdf

sd 0:0:5:0: Attached scsi generic sg5 type 0

 

En caso de no detector el disco procedemos a realizar un rescan

 

echo – – – > /sys/class/scsi_host/host0/scan

 

Creamos el volumen físico con el nuevo disco

 

pvcreate /dev/sdb1

 

Agregamos el disco al VG

Para comprobar el VG a donde queremos añadir el disco utilizamos el comando vgdisplay

 

vgextend vg_datos  /dev/sdf

 

Verificamos mediante el comando lvscan el LV al que queremos añadir el nuevo disco

 

lvscan

ACTIVE            ‘/dev/system/lv_root’ [10.00 GB] inherit

 

  ACTIVE            ‘/dev/datos/lv_datos’ [100.00 GB] inherit

 

 

Extendemos el volumen con el tamaño que queramos

 

lvextend -L +10G  /dev/datos/lv_datos

 

 

Redimensionamos el disco

 

  resize2fs /dev/mapper/datos/lv_datos

 

 

  En caso de las Suse nos podría dar el siguiente error:

 

  /dev/mapper/vuelingprd-lv_oracle_VLP_sapdata3 is mounted; can’t resize a mounted filesystem!

 

 

  Para solventar el problema ejecutamos el siguiente comando.

 

resize_reiserfs /dev/mapper/datos/lv_datos

 

Un saludo.

Crear volumen en LVM con varios discos.

Crear los volúmenes físicos (PV – pvcreate)

Lo primero que debemos es crear un volumen físico (PV) con todos los discos que queremos agregar. Para ello empleamos el comando pvcreate

 

pvcreate /dev/sdd /dev/sde

Crear el grupo de volúmen (VG – vgcreate)

Ahora que ya tenemos creado el volumen fisico, tenemos que crear un grupo de volumenes (VG) indicandole todos los discos que queremos añadir.

vgcreate vg_datos /dev/sdd /dev/sde

 

Crear  volumen logico (LV– lvcreate)

Finalmente solo nos falta crear el volumen logico y añadirlo al sistema de ficheros.

 

lvcreate -l+100%FREE -n lv_datos vg_datos

 

Damos formato y montamos

 

mkfs.ext4 /dev/vg_datos/lv_datos

mount /dev/vg_datos/lv_datos /datos

 

Un saludo.

:wq!

 

 

XenServer – ERROR: configuration failed host operation cannot be performed with external authentication enabled

Tras agregar una nueva tarjeta de red y intentar configurarla en XenServer 6.2 me mostraba el siguiente error:

 

configuration failed host operation cannot be performed with external authentication enabled

 

Para solventar este problema basta con desactivar la autentificación external.

 

Nos conectamos mediante ssh al servidor y ejecutamos el siguiente comando:

 

xe pool-disable-external-auth

 

un saludo

:wq!

 

 

Un saludo.

Instalación y configuración de ISCSI DM-Multipath en GNU/linux

¿Que es iSCSI?

iSCSI (Abreviatura de Internet SCSI) es un estándar que permite el uso del protocolo SCSI sobre redesTCP/IP. iSCSI es un protocolo de la capa de transporte definido en las especificaciones SCSI-3. Otros protocolos en la capa de transporte son SCSI Parallel Interface y canal de fibra.

La adopción del iSCSI en entornos de producción corporativos se ha acelerado en estos momentos gracias al aumento del Gigabit Ethernet. La fabricación de almacenamientos basados en iSCSI (red de área de almacenamiento) es menos costosa y está resultando una alternativa a las soluciones SAN basadas en Canal de fibra.

¿Que es Multipathing?

Multipathing es el uso de componentes de red de almacenamiento responsables del proceso de transferencia de datos entre el servidor y el almacenamiento. Estos componentes incluyen cables, adaptadores y los interruptores y el software que permite esta característica.  Ello además permite el poder acceder a una serie de recursos de forma simultánea, para cierto tipo de dispositivos como iSCSI es necesaria la activación de este modo de acceso.
Multi-path es una técnica muy utilizada para conectar un servidor a un dispositivo de almacenamiento con dos conexiones en lugar de una. Esto proporciona una vía alternativa de conexión en caso de fracaso de este modo permite una mayor disponibilidad del almacenamiento ante un fallo y una alternativa de acceso a la misma. También proporciona hasta el doble de datos en entornos de gran acceso a los mismos y ofrece capacidad de balanceo de carga para maximizar el uso de cada una de las rutas asignadas.

Leer más

Configurar interfaz de red en BSD

Para configurar una IP estática, puerta de enlace y DNS en BSD es muy sencillo, en esta ocasión vamos a ver como configurar la interfaz de red en FreeBSD y OpenBSD.

 

FreeBSD

Para configurar el direccionamiento ip y el gateway debemos añadir lo siguiente en el fichero /etc/rc.conf

ifconfig_em0=»inet 192.168.1.110 netmask 255.255.255.0″
defaultrouter=»192.168.1.1″

Para configurar la resolución DNS es en /etc/resov.conf

search red-orbita.com
nameserver 192.168.1.10
nameserver 192.168.1.11

Reiniciamos el servicio de red

/etc/rc.d/netif restart

OpenBSD

En caso de OpenBSD, para configurar el direccionamiento IP debemos añadir lo siguiente en /etc/hostname.em0

cat /etc/hostname.em0

inet 192.168.1.110 255.255.255.0 192.0.0.255

Para configurar el gateway creamos el fichero /etc/mygate

cat /etc/hostname.em0
192.168.1.1

Para configurar la resolución DNS es en /etc/resov.conf

search red-orbita.com
nameserver 192.168.1.10
nameserver 192.168.1.11
lookup file bind

 

Reiniciamos el servicio de red

sh /etc/netstart

 

un saludo.

:wq!

 

Añadir un disco ya existente en vmware

En esta entrada vamos a ver como podemos montar un disco de una maquina virtual en otra.

De esta forma podemos mover una gran cantidad de datos o migrar dichos datos de un servidor a otro dentro de nuestro cloud.

Para ello, primero vamos al servidor donde esta sirviendo ahora el disco boton derecho > Edit Setting > Seleccionamos el disco y damos a remove > Dentro de remove debemos seleccionar la opción Remove from virtual machine

 

Leer más

Ejecución de comandos GNU/Linux en FortiOS

¿Que es fnsysctl?

 

fnsysctl es un comando CLI que Forti lo tiene un poco oculto con el cual podemos ejecutar diversos comandos GNU/Linux

Sintaxis: 

fnsysctl <comando linux>

¿Que nos permite ejecutar?

comandos_fnsysctl

 

Como podemos ver, este comando nos sirve para realizar multiples cosas tales como: cambiar permisos, buscar arcivos o directorios, copiar, listar o matar procesos… etc.

 

un saludo.