Está en la página 1de 31

TRABAJO DE INVESTIGACIN IMPLEMENTACIN DE CLSTER ASIGNATURA:

ARQUITECTURA DEL COMPUTADOR

ALUMNO:
CUMPN CUYA, CHRISTIAN A.

DOCENTE:
RODRIGUEZ VICUA, JULIO JOSE 2011 I LIMA, PER

1. PROCESO DEL DESARROLLO DE UN CLUSTER PARA EL CASO DE LINUX USANDO CENTOS 5.3

Introduccin.
Este documento describe los procedimientos de configuracin de un agrupamiento (cluster) de alta disponibilidad utilizando Heartbeat.

Se asume que se dispone de dos equipos o mquinas virtuales, las cuales sern los dos nodos del agrupamiento, y tiene las siguientes caractersticas: Nodo 1: Sistema operativo: CentOS 5.4 Direccin IP eth0: 192.168.1.101/255.255.255.0, conectado a la LAN o hacia Internet, y con el nombre de anfitrin asociado a nombre.publico.nodo2.com. Direccin IP eth1: 192.168.2.1/255.255.255.248, conectado con cable cruzado o a un switch o concentrador dedicado exclusivamente para los nodos del agrupamiento, o bien interfaz de Intranet en VirtualBox, y con el nombre de anfitrin asociado a nombre.privado.nodo1.com. El nombre del anfitrin (hostname), definido en el fichero /etc/sysconfig/network, debe ser nombre.privado.nodo1.com. Nodo 2: Sistema operativo: CentOS 5.4 Direccin IP eth0: 192.168.1.102/255.255.255.0, conectado a la LAN o hacia Internet, y con el nombre de anfitrin asociado a nombre.publico.nodo2.com. Direccin IP eth1: 192.168.2.2/255.255.255.248, conectado con cable cruzado o bien hacia un switch o concentrador dedicado exclusivamente para la comunicacin entre los nodos del agrupamiento, o bien interfaz de Intranet en VirtualBox, y con el nombre de anfitrin asociado a nombre.privado.nodo2.com. El nombre del anfitrin (hostname), definido en el fichero /etc/sysconfig/network, debe ser nombre.privado.nodo2.com.

Ambos nodos pueden ser diferentes en cuanto a arquitectura, capacidad y componentes. Ambos nodos formarn un agrupamiento (cluster) de alta disponibilidad que responder por la direccin IP 192.168.1.100/255.255.255.0, asociada al nombre nombre.publico.cluster.com.

Acerca de Heartbeat.
Heartbeat es un servicio que provee servicios de infraestructura de agrupamiento (cluster) a clientes. Permite a los clientes saber si uno de los nodos est presente o ausente, intercambiado fcilmente mensajes entre stos. Est especficamente diseado para funcionar como agrupamiento de alta disponibilidad para cualquier tipo de servicio.

Sitio de Internet: http://www.linux-ha.org/

Procedimientos.
Servicios que deben desactivarse.
En ambos nodos, si estuviesen presentes, deben estar desactivados los servicios avahi-daemon y avahi-dnsconfd, as como cualquier otro servicio que intente utilizar la interfaz eth1, misma que debe estar completamente dedicada a las comunicaciones de Heartbeat.
service avahi-daemon stop service avahi-dnsconfd stop chkconfig avahi-daemon off chkconfig avahi-dnsconfd off

Es importante tambin desactivar el cortafuegos predeterminando del sistema en ambos nodos, debido a que ste interfiere con la comunicacin entre los nodos de heartbeat:
service iptables stop service ip6tables stop chkconfig iptables off chkconfig ip6tables off

El muro cortafuegos de ambos nodos puede ser fcilmente gestionado a travs de Shorewall, como se explica ms adelante.

SELinux y Heartbeat.
Lamentablemente, de modo predeterminado la implementacin de SELinux incluida en CentOS 5.x carece de polticas que permitan funcionar al servicio heartbeat, a menos que se generen manualmente las necesarias o bien se ponga SELinux en modo permisivo o se desactive por completo ste.

Configuracin del sistema con SELinux activo.


Particularmente recomiendo crear las polticas necesarias para SELinux. Es relativamente simple. El siguiente procedimiento deber realizarse en ambos nodos. Lo primero es cambiarse al directorio /usr/share/selinux/packages.
cd /usr/share/selinux/packages

Se crea un subdirectorio que ser denominado heartbeat:


mkdir heartbeat

Se cambia a este nuevo subdirectorio:


cd heartbeat

Suponiendo que se van a configurar los servicios shorewall (o bien iptables), httpd, named y vsftpd, descargue el fichero heartbeat1.te desde Alcance Libre: wget -N http://www.alcancelibre.org/linux/secrets/heartbeat1.te El edite el fichero heartbeat1.te que se acaba de descargar:
vim heartbeat1.te

Y verifique que tenga el siguiente contenido:

module heartbeat1 1.0; require { type proc_t; type urandom_device_t; type ftpd_t; type httpd_t; type iptables_t; type ndc_t; type initrc_t; type named_t; class unix_stream_socket { read write }; class file read; class chr_file read; } #============= ftpd_t ============== allow ftpd_t initrc_t:unix_stream_socket { read write }; #============= httpd_t ============== allow httpd_t initrc_t:unix_stream_socket { read write }; #============= iptables_t ============== allow iptables_t initrc_t:unix_stream_socket { read write }; #============= named_t ============== allow named_t initrc_t:unix_stream_socket { read write }; #============= ndc_t ============== allow ndc_t initrc_t:unix_stream_socket { read write }; allow ndc_t proc_t:file read; allow ndc_t urandom_device_t:chr_file read;

Lo anterior, que fue obtenido de la salida del mandato dmesg|grep audit|audit2allow -m heartbeat1>heartbeat1.te en un sistema donde SELinux impeda a Heartbeat iniciar los servicios anteriormente mencionados. En si, define que se permite el modo de lectura y escritura cuando los servicios del directorio /etc/init.d sean iniciados por un zcalo generado por Heartbeat. A continuacin, se genera un el fichero de mdulo para SELinux (heartbeat1.mod) utilizando el mandato checkmodule de la siguiente forma:

checkmodule -M -m -o heartbeat1.mod heartbeat1.te

Luego, se procede a empaquetar el fichero heartbeat1.mod como el fichero heartbeat1.pp:


semodule_package -o heartbeat1.pp -m heartbeat1.mod

Finalmente se vincula el fichero heartbeat1.pp obtenido con las polticas actuales de SELinux y se cargan stas en el ncleo en ejecucin:

semodule -i /usr/share/selinux/packages/heartbeat/heartbeat1.pp

Una vez cargadas las nuevas polticas, se pueden eliminar los ficheros heartbeat1.te y heartbeat1.mod, pues solo ser necesario que exista el fichero binario heartbeat1.pp. Todo lo anterior se puede repetir utilizando otro nombre de fichero distinto para poder aadir ms servicios. Es decir, si se van a aadir ms servicios par a ser gestionados por Heartbeat, configurar stos en el fichero /etc/ha.d/haresources, como se describe ms adelante en este mismo documento, reiniciar el servicio y realizar el siguiente procedimiento:
cd /usr/share/selinux/packages/heartbeat/ dmesg|grep audit|audit2allow -m heartbeat2>heartbeat2.te checkmodule -M -m -o heartbeat2.mod heartbeat2.te semodule_package -o heartbeat2.pp -m heartbeat2.mod semodule -i /usr/share/selinux/packages/heartbeat/heartbeat2.pp rm -f heartbeat2.te heartbeat2.mod service heartbeat restart

Configuracin del sistema con SELinux en modo permisivo.


Si se desea, puede ponerse SELinux en modo permisivo en ambos nodos con el fin de evitarse tener que realizar los procedimientos anteriores. Edite el fichero /etc/sysconfig/selinux:
vim /etc/sysconfig/selinux

Cambie SELINUX=enforcing por SELINUX=permissive, a fin de mantener funcionado SELinux, y preservar todos los contextos de ste en el sistema de ficheros, pero sin interferir con el funcionamiento de Heartbeat:
# This file controls the state of SELinux on the system. # SELINUX= can take one of these three values: # enforcing - SELinux security policy is enforced. # permissive - SELinux prints warnings instead of enforcing. # disabled - SELinux is fully disabled. SELINUX=permissive # SELINUXTYPE= type of policy in use. Possible values are: # targeted - Only targeted network daemons are protected. # strict - Full SELinux protection. SELINUXTYPE=targeted # SETLOCALDEFS= Check local definition changes SETLOCALDEFS=0

Reinicie el sistema en ambos nodos.


reboot

Realmente es poco recomendable desactivar por completo SELinux, siendo que las polticas necesarias pudieran aparecer en alguna actualizacin del paquete selinux-policy-targeted, o bien pudiera ser necesario recurrir a la proteccin que brinda esta implementacin en un futuro a fin de evitar potenciales incidentes de seguridad que normalmente se evitaran utilizando SELinux. En versiones recientes de Fedora, es posible evitar los problemas con SELinux, de manera fcil, ejecutando lo siguiente para permitir a heartbeat trabajar en modo sin confinar:

semanage fcontext -a -t unconfined_exec_semanaget /usr/lib/heartbeat/heartbeat

El contexto unconfined_exec_semanaget es inexistente en CentOS 5 y Red Hat Enterprise Linux 5.

CONFIGURACIN DEL NODO 1


Ingresar como root o bien cambiar al usuario root.
su -l

Editar el fichero /etc/hosts:


vim /etc/hosts

Y definir los nombres asociados a la direccin IP pblica del agrupamiento (cluster) y las direcciones IP de las interfaces eth0, las cuales corresponden a las interfaces publicas de los nodos:
# Do not remove the following line, or various programs # that require network functionality will fail. 127.0.0.1 localhost.localdomain localhost ::1 192.168.1.100 192.168.1.101 192.168.1.102 localhost6.localdomain6 localhost6 nombre.publico.cluster.com nombre.publico.nodo1.com nombre.publico.nodo2.com

Para complementar lo anterior, debe haber un DNS que se encargue de resolver estos nombres para la red local y/o hacia Internet.

Editar el fichero /etc/hosts y definir los nombres asociados a las direcciones IP de las interfaces eth1, las cuales corresponden a las interfaces privadas del cluster, a travs de la cual se comunican los nodos:

# Do not remove the following line, or various programs # that require network functionality will fail. 127.0.0.1 localhost.localdomain localhost ::1 192.168.1.100 192.168.1.101 192.168.1.102 192.168.2.1 192.168.2.2 localhost6.localdomain6 localhost6 nombre.publico.cluster.com nombre.publico.nodo1.com nombre.publico.nodo2.com nombre.privado.nodo1.com nombre.privado.nodo2.com

Instalar los servicios que se van a gestionar a travs del agrupamiento (cluster):
yum -y install httpd php vsftpd wget

Utilizando un editor de texto simple, crear el fichero /var/www/html/index.php:


vim /var/www/html/index.php

Y aadir el siguiente contenido:


<html> <head> <title>Este es el nodo 1</title> </head> <body> <h1>Este es el nodo 1</h1> <p>Este es el servidor principal que se presenta normalmente.</p> </body> </html>

Crear el fichero /etc/httpd/conf.d/cluster.conf con el siguiente contenido:


# Definir valores con el nombre pblico y la direccin # IP pblica del cluster NameVirtualHost 192.168.1.100:80 <VirtualHost 192.168.1.100:80> ServerName nombre.publico.cluster.com DocumentRoot /var/www/html ErrorLog logs/cluster-error_log CustomLog logs/cluster-access_log combined ServerAdmin alguien@algo.com </VirtualHost>

Utilice cualquier editor de texto sobre el fichero /etc/vsftpd/vsftpd.conf:


vim /etc/vsftpd/vsftpd.conf

Y aadir al final de ste lo siguiente:


ftpd_banner=Bienvenido al servicio FTP del Nodo 1. chroot_local_user=YES chroot_list_enable=YES chroot_list_file=/etc/vsftpd/chroot_list

Genere con el mandato touch el fichero /etc/vsftpd/chroot_list:


touch /etc/vsftpd/chroot_list

Instale el depsito YUM de Alcance Libre que incluye Shorewall:


cd /etc/yum.repos.d/ wget http://www.alcancelibre.org/al/server/AL-Server.repo

Instale Shorewall:
yum -y install shorewall

Cambie al directorio /etc/shorewall:


cd /etc/shorewall

Edite con vim el fichero /etc/shorewall/shorewall.conf y cambie STARTUP_ENABLED=No por STARTUP_ENABLED=yes:


STARTUP_ENABLED=Yes

A fin de que exista una comunicacin sin restricciones entre ambos nodos cuando el cortafuegos est detenido, defina el siguiente contenido en el fichero /etc/shorewall/routesstoped:
eth0 192.168.1.102 critical eth1 192.168.2.2 critical #LAST LINE -- ADD YOUR ENTRIES BEFORE THIS ONE -- DO NOT REMOVE

Defina las zonas del mudo cortafuegos en el fichero /etc/shorewall/zones:


fw net loc firewall ipv4 ipv4

#LAST LINE - ADD YOUR ENTRIES ABOVE THIS ONE - DO NOT REMOVE

Defina que interfaces de red corresponden a las zonas establecidas en el fichero /etc/shorewall/interfaces:
net eth0 detect dhcp,blacklist loc eth1 detect #LAST LINE -- ADD YOUR ENTRIES BEFORE THIS ONE -- DO NOT REMOVE

Defina las siguientes polticas en el fichero /etc/shorewall/policy:


fw loc loc net all fw net all ACCEPT ACCEPT REJECT DROP info info

#LAST LINE -- DO NOT REMOVE

Considerando que se estn configurando los servicios shorewall, vsftpd y httpd, se administrarn ambos servidores a travs de SSH, limitando los pings desde cualquier zona a 5 conexiones por segundo con rfagas de 2, defina las siguientes reglas para el fichero /etc/shorewall/rules:
ACCEPT ACCEPT ACCEPT ACCEPT ACCEPT all all all all all fw fw fw fw fw tcp tcp tcp tcp icmp 20,21 80,443 3306 22 8 -

#LAST LINE -- ADD YOUR ENTRIES BEFORE THIS ONE -- DO NOT REMOVE

Debido a un error en el guin %pre (pre-instalacin) de los paquetes de heartbeat que son distribuidos a travs de los depsitos YUM de CentOS, es importante crear previamente el usuario y grupo que utilizar heartbeat, o de otro modo fallar la instalacin:
groupadd -g 496 haclient useradd -M -g haclient -u 498 -d /var/lib/heartbeat/cores/hacluster hacluster

Instalar el paquete heartbeat. Se instalarn automticamente como dependencias los paquetes heartbeat-stonith y heartbeat-pils:
yum -y install heartbeat

Cambiarse al directorio /etc/ha.d


cd /etc/ha.d

Copiar los ficheros de ejemplo para configuracin de heartbeat.


cp /usr/share/doc/heartbeat-*/ha.cf ./ha.cf cp /usr/share/doc/heartbeat-*/haresources ./haresources cp /usr/share/doc/heartbeat-*/authkeys ./authkeys

Aadir al final del fichero authkeys algo similar a lo siguiente:


# Define el esquema de autenticacin por SHA1 y una clave de acceso. auth 2 2 sha1 p0n3r-aqu1-un4-clav3-d3-acceso-s3gur4

Puede generar el contenido del fichero /etc/ha.d/authkeys, con un criptograma adecuado, utilizando el siguiente guin:
( echo -ne "auth 2n2 sha1 "; \ dd if=/dev/urandom bs=512 count=1 | openssl md5 ) > /etc/ha.d/authkeys

Por motivos de seguridad, este fichero solo debe tener permisos de lectura y escritura para el usuario root. Cambiar el permiso de ste ejecutando lo siguiente:
chmod 600 authkeys

Editar el fichero ha.cf:


vim ha.cf

Aadir al final del fichero ha.cf lo siguiente:


logfile /var/log/ha-log logfacility local0 keepalive 2 # Tiempo de espera para iniciar servicios si nodo principal deja de # responder. Puede ajustarse a cualquier tiempo razonable. Ejemplo: 10 segundos. deadtime 20 initdead 90 # interfaz de comunicacin ente nodos bcast eth1 udpport 694 auto_failback on # Nombres de los nodos que participarn en el cluster. # Deben ser diferentes a los nombres de anfitrin utilizados para las IP # pblicas de la las interfaces eth0. Solo son para uso interno. # Los nombres deben estar resueltos en el fichero /etc/hosts

# con direcciones IP privadas en las interfaces eth1, la cuales corresponden a # las interfaces privadas del cluster, a travs de la cual se comunican los # nodos del cluster. node nombre.privado.nodo1.com node nombre.privado.nodo2.com

Editar el fichero haresources:


vim haresources

Aadir al final del fichero haresources lo siguiente, donde se define el nombre del nodo 1, direccin IP que utilizar Heartbeat para servir los recursos, mscara de subred en formato de bits, nombre de interfaz de red donde se crear la interfaz virtual, direccin de difusin de la red (broadcast) y los servicios a controlar:
# En el ejemplo a continuacin: # nombre.privado.nodo1.com = nombre de anfitrin del nodo principal # 192.168.1.100 = direccin IP pblica del cluster # 24 = mscara en formato de bits # eth0 = interfaz pblica del cluster # 192.168.1.101 = direccin IP del nodo principal a supervisar # vsftpd httpd = servicios a brindar a travs del cluster nombre.privado.nodo1.com vsftpd httpd 192.168.1.100/24/eth0/192.168.1.255 shorewall

Desactivar los servicios que se van a gestionar a travs del agrupamiento (cluster):
chkconfig httpd off chkconfig vsftpd off chconfig shorewall off

Iniciar el servicio heartbeat:


service heartbeat start

Aadir el servicio heartbeat al arranque del sistema:


chkconfig heartbeat on

Los servicios shorewall, httpd y vsftpd iniciarn automticamente poco despus de iniciar el servicio heartbeat.

CONFIGURACIN DEL NODO 2


Ingresar como root o bien cambiar al usuario root.
su -l

Instalar los servicios que se van a gestionar a travs del agrupamiento (cluster):
yum -y install httpd php vsftpd

Utilizando un editor de texto simple, crear el fichero /var/www/html/index.php:


vim /var/www/html/index.php

Y aadir el siguiente contenido:


<html>< head>< title>Este es el nodo 2</title>< /head>< body>< h1>Este es el nodo 2</h1>< p>Este es el servidor secundario que se presenta cuando falla o se apaga el <b>nodo 1</b>.</p>< /body>< /html>

A travs de SCP, copiar desde el nodo 1 el fichero /etc/httpd/conf.d/cluster.conf dentro del directorio /etc/httpd/conf.d/ local:
scp -p 192.168.1.101:/etc/httpd/conf.d/cluster.conf /etc/httpd/conf.d/

Utilice cualquier editor de texto sobre el fichero /etc/vsftpd/vsftpd.conf:


vim /etc/vsftpd/vsftpd.conf

Y aadir al final de ste lo siguiente:


ftpd_banner=Bienvenido al servicio FTP del Nodo 2. chroot_local_user=YES chroot_list_enable=YES chroot_list_file=/etc/vsftpd/chroot_list

Genere con el mandato touch el fichero /etc/vsftpd/chroot_list:


touch /etc/vsftpd/chroot_list

Instale Shorewall:
yum -y install shorewall

Cambie al directorio /etc/shorewall:


cd /etc/shorewall

Edite con vim el fichero /etc/shorewall/shorewall.conf y cambie STARTUP_ENABLED=No por STARTUP_ENABLED=yes:


STARTUP_ENABLED=Yes

A fin de que exista una comunicacin sin restricciones entre ambos nodos cuando el cortafuegos est detenido, defina el siguiente contenido en el fichero /etc/shorewall/routesstoped:
eth0 192.168.1.101 critical eth1 192.168.2.1 critical #LAST LINE -- ADD YOUR ENTRIES BEFORE THIS ONE -- DO NOT REMOVE

Defina las zonas del mudo cortafuegos en el fichero /etc/shorewall/zones:


fw firewall net ipv4 loc ipv4 #LAST LINE - ADD YOUR ENTRIES ABOVE THIS ONE - DO NOT REMOVE

Defina que interfaces de red corresponden a las zonas establecidas en el fichero /etc/shorewall/interfaces:
net eth0 detect dhcp,blacklist loc eth1 detect #LAST LINE -- ADD YOUR ENTRIES BEFORE THIS ONE -- DO NOT REMOVE

Defina las siguientes polticas en el fichero /etc/shorewall/policy:


fw all loc fw loc net net all #LAST LINE -- ADD YOUR ENTRIES BEFORE ACCEPT ACCEPT REJECT info DROP info THIS ONE -- DO NOT REMOVE

Defina las siguientes reglas para el fichero /etc/shorewall/rules:


ACCEPT all fw tcp ACCEPT all fw tcp ACCEPT all fw tcp ACCEPT all fw tcp ACCEPT all fw icmp #LAST LINE -- ADD YOUR ENTRIES BEFORE THIS ONE -- DO NOT 20,21 80,443 3306 22 8 REMOVE

Crear el usuario y grupo que utilizar heartbeat:


groupadd -g 496 haclient useradd -M -g haclient -u 498 -d /var/lib/heartbeat/cores/hacluster hacluster

Instalar el paquete heartbeat:


yum -y install heartbeat

A travs de SCP, copiar desde el nodo 1 el fichero /etc/hosts para reemplazar el fichero /etc/hosts local:
scp -p 192.168.1.101:/etc/hosts /etc/hosts

A travs de SCP, copiar desde el nodo 1 el contenido completo del directorio /etc/ha.d dentro de /etc
scp -p 192.168.1.101:/etc/ha.d/* /etc/ha.d/

Desactivar los servicios que se van a gestionar a travs del agrupamiento (cluster):
chkconfig httpd off chkconfig vsftpd off chkconfig shorewall off

Iniciar el servicio heartbeat:


service heartbeat start

Aadir el servicio heartbeat al arranque del sistema:


chkconfig heartbeat on

Los servicios shorewall, httpd y vsftpd iniciarn automticamente solo cuando heartbeat detecte que ha fallado el nodo 1 o se ha perdido conectividad con ste.

Verificando el agrupamiento (cluster).


La mejor forma de verificar que todo funciona correctamente es acceder con el navegador hacia http://nombre.publico.cluster.com/ o http://192.168.1.100/, o bien acceder a travs de un cliente FTP hacia nombre.publico.cluster.com o 192.168.1.100. Deber de responder el nodo 1. Apague el nodo 1 o detenga el servicio heartbeat en el nodo 1, espere 20 a 30 segundos e intente acceder hacia las direcciones anteriores. Deber de responder el nodo 2. Volviendo a encender el nodo 1 o iniciando de nuevo el servicio heartbeat, espere 20 a 30 segundos e intente acceder nuevamente hacia las direcciones. Deber de responder el nodo 1.

Mantener sincronizados los directorios.


Es importante resaltar que las interfaces eth1 de ambos nodos deben ser excluidas para realizar cualquier actividad. Deben ser utilizadas exclusivamente por el servicio de heartbeat. Utilice las interfaces eth0 para realizar sincronizacin de datos. En le caso del nodo 2, se puede generar una tarea programada para que se ejecute cada cierto tiempo, utilizando rsync y configurando la cuenta de root de ambos nodos para utilizar SSH sin clave de acceso. En el siguiente ejemplo para entrada el fichero /etc/crontab, se sincroniza cada hora el /var/ftp/pub del nodo 2, a partir del directorio /var/ftp/pub del nodo 1:
SHELL=/bin/bash PATH=/sbin:/bin:/usr/sbin:/usr/bin MAILTO=root HOME=/ # run-parts 01 * * * * root run-parts /etc/cron.hourly 02 4 * * * root run-parts /etc/cron.daily 22 4 * * 0 root run-parts /etc/cron.weekly 42 4 1 * * root run-parts /etc/cron.monthly 00 * * * * root rsync -avz \ --exclude '*log' --exclude '*tmp/*' -e ssh --delete-after \ root@192.168.1.101:/var/ftp/pub /var/ftp/pub

En el caso de el nodo 1, se asume que si este falla y es apagado, al iniciar sincroniza con el nodo 2, el cual estuvo trabajando y funcionando en ausencia del nodo 1. Puede agregarse el siguiente ejemplo al fichero /etc/rc.local, lo que corresponde a la sincronizacin de datos del los directorios /var/ftp/pub a partir de el nodo 2 hacia el nodo 1 que se asume acaba de iniciar:
#!/bin/sh # # This script will be executed *after* all the other init scripts. # You can put your own initialization stuff in here if you don't # want to do the full Sys V style init stuff. touch /var/lock/subsys/local rsync -avz \ --exclude '*log' --exclude '*tmp/*' -e ssh --delete-after \ root@192.168.1.102:/var/ftp/pub /var/ftp/pub

PROCESO PARA EL CLUSTER EN WINDOWS USANDO WINDOWS 2003 SERVER


Antes de instalar clsteres de SQL Server 2005, primero debe instalar Windows Server 2003 clustering services. Una vez correctamente instalado y probado, a continuacin, puede instalar clsteres de SQL Server 2005. En este artculo, nos tomamos un enfoque paso a paso para la instalacin y configuracin de clsteres de Windows 2003. En un artculo posterior, vamos a aprender cmo instalar clsteres de SQL Server 2005.

Antes de instalar clsteres de Windows 2003


Antes de instalar clsteres de Windows 2003, tenemos que realizar una serie de pasos de preparacin importante. Esto es especialmente importante si no construir los nodos del clster, como para asegurarse que todo funciona correctamente antes de comenzar la instalacin de clster real. Una vez est completas, a continuacin, puede instalar clsteres de Windows 2003. stos son los pasos que debe seguir:
y

y y y y

y y y y y y

Doble comprobacin para asegurarse de que todos los nodos estn trabajando correctamente y estn configurados de forma idntica (hardware, software, controladores, etc.). Compruebe que cada nodo puede ver los datos y unidades de qurum en el conjunto compartido o SAN. Recuerde, slo un nodo puede ser en un momento hasta que se instale la organizacin por clsteres de Windows 2003. Compruebe que ninguno de los nodos se ha configurado como controlador de dominio. Control para comprobar que todas las unidades NTFS y no estn comprimidas. Asegrese de que las redes pblicas y privadas estn correctamente instaladas y configuradas. Hacer ping a cada nodo de las redes pblicas y privadas para asegurarse de que tiene buenas conexiones. Tambin ping al servidor de controlador de dominio y DNS para comprobar que estn disponibles. Compruebe que han deshabilitado NetBIOS para todas las tarjetas de red privada. Compruebe que no no hay recursos compartidos de red en cualquiera de las unidades compartidas. Si va a utilizar el cifrado de SQL Server, instalar el certificado de servidor con el nombre DNS completo del servidor virtual en todos los nodos del clster. Compruebe todos los registros de error para garantizar que no hay sorpresas desagradables. Si hay, resolverlos antes de continuar con la instalacin de clster. Agregar las cuentas de servicio SQL Server y Clustering al grupo de administradores locales de todos los nodos del clster. Control para comprobar que no se ha instalado ningn software antivirus en los nodos. Software antivirus puede reducir la disponibilidad de clsteres y no debe estar instalado en ellos. Si desea buscar posibles virus en un clster, puede siempre instalar el software en un nodo no y ejecutar anlisis en los nodos del clster de forma remota.

y y y

Control para comprobar que el proveedor de servicios criptogrficos de Windows est habilitado en cada uno de los nodos. Control para comprobar que el servicio Programador de tareas de Windows se ejecuta en cada uno de los nodos. Si va a ejecutar SQL Server 2005 Reporting Services, entonces debe instalar IIS 6.0 y ASP.NET 2.0 en cada nodo del clster.

Son muchas cosas que usted debe comprobar, pero cada uno de estos es importante. Si se omite, uno de estos pasos puede impedir que el clster de instalacin o funciona correctamente.

Cmo instalar Windows Server 2003 Clustering


Ahora que todos los nodos fsicos y conjunto compartido o SAN est listo, ya est listo para instalar clsteres de Windows 2003. En esta seccin, nos fijamos en el proceso, de principio a fin. Para empezar, debe iniciar el Asistente de Clustering de Microsoft Windows 2003 de uno de los nodos. Mientras que no tiene ninguna diferencia con el software que nodo fsico se utiliza para iniciar la instalacin, generalmente seleccione uno de los nodos fsicos para ser mi nodo principal (activo) y empezar a trabajar all. De esta forma, yo no potencialmente se confunda al instalar el software. Si utiliza un conjunto compartido de SCSI, y para muchos arreglos de discos SAN compartido, debe asegurarse de que el segundo nodo fsico del clster se desactiva al instalar servicios de cluster en el primer nodo fsico. Esto es porque Windows 2003 no sabe cmo tratar un disco compartido hasta servicios de Cluster Server est instalado. Una vez haya instalado Servicios de cluster en el primer nodo fsico, puede activar el segundo nodo fsico, arrancarla y luego contine con la instalacin de servicios de cluster en el segundo nodo.

Instalar el primer nodo de clster


Para comenzar la instalacin de SQL Server 2003 Clustering, abra el administrador de clsteres. Si este es el primer cluster, se le presentar la siguiente ventana.

En el cuadro de lista desplegable accin, seleccione Crear nuevo clster y haga clic en Aceptar. Aparece el nuevo Asistente de clster de servidor, como mostrar a continuacin.

Haga clic en siguiente para iniciar al asistente.

Los prximos pasos parecen fciles debido a la naturaleza del asistente, pero si elige las opciones mal, pueden tener consecuencias negativas en la lnea. Debido a esto, es importante que piense cuidadosamente a travs de cada una de sus respuestas. Idealmente, usted ya habr hecho estas opciones durante la etapa de planificacin La primera eleccin que debe hacer es el dominio en que ser el clster. Si tiene un solo dominio, esta es una opcin fcil. Si tienes ms de un dominio, seleccione el dominio que todos los nodos del clster residen en. La segunda opcin es el nombre que asigne el clster virtual. ste es el nombre del clster virtual, no el nombre del servidor SQL virtual. Acerca de la nica vez que se va a utilizar este nombre es cuando se conecta con el clster mediante el administrador de clsteres. Clientes de SQL Server 2005 no se conectarn al clster utilizando este nombre virtual. Una vez que se introduce la informacin, haga clic en siguiente para continuar.

Ahora, tenemos que decirle al asistente el nombre fsico del nodo de que queremos instalar clsteres. Suponiendo que ejecuta al Asistente para clster en el nodo principal del clster, el nombre del equipo que se ve en la pantalla anterior ser el nombre del nodo fsico en que est instalando. Si est instalando desde un nodo, pero desea instalar el clster en un nodo distinto, se puede, pero slo obtiene confuso si lo hace. Es mucho ms fcil de instalar en el mismo nodo. Observe el botn Avanzadas en la pantalla superior. Si hace clic en l, ver el siguiente.

Opciones de configuracin avanzadas permiten elegir de entre una tpica y una configuracin avanzada. En casi todos los casos, la configuracin tpica funciona bien y que es la opcin que utilizamos en este ejemplo. La opcin de configuracin avanzada slo es necesaria para configuraciones complejas de SAN y est fuera del alcance de este artculo. As que haga clic en Cancelar para volver al asistente, introduzca el nodo fsico correcto, si necesita ser y haga clic en siguiente.

Este paso es muy importante. Lo que hace el Asistente para clster es comprobar que todo est listo antes de comenzar la instalacin real del servicio de clster en el nodo. Como pueden ver arriba, el asistente pasa por muchos pasos y si todos su preparacin correctamente, cuando la prueba se realiza, ver una barra de color verde en tareas completado, y estar preparado para continuar. Pero si no han realizado todos los pasos preliminares correctamente, ver los iconos amarillos o rojos junto a uno o ms de los muchos pasos probados, y complet una barra verde o roja en tareas. Idealmente, desea ver resultados similares a la figura anterior, con una barra de color verde y ningn icono amarillo junto a los pasos de la prueba. En algunos casos, puede ver los iconos de advertencia amarillo junto a uno o ms de las medidas de prueba, pero todava aparece una barra verde en la parte inferior. Mientras que la barra verde indica que puede continuar, no significa el clster se completar correctamente o se configurar como desea que sea completado. Si ves los iconos de advertencia amarillo, puede profundizar en ellos y ver cul es exactamente la advertencia. Lea cuidadosamente cada

advertencia. Si la advertencia es algo sin importancia para usted, se puede ignorar. Pero en la mayora de los casos, deben abordarse las advertencias de color amarillas. Esto puede significar que tendr que cancelar la instalacin del servicio de clster en este momento para solucionar el problema. A continuacin, intente instalar de nuevo. Si recibe cualquier rojo iconos de advertencia junto a cualquiera de los pasos de prueba, entonces tambin obtendr una barra roja en la parte inferior, lo que significa que tiene un problema importante que debe ser corregido antes de continuar. Desglosar para ver el mensaje y actuar en consecuencia. Probablemente, debers cancelar la instalacin, solucionar el problema y vuelva a intentar la instalacin de nuevo. Suponiendo que la instalacin es verde y est listo para continuar, haga clic en siguiente.

El siguiente paso es introducir la direccin IP de nuestro cluster virtual. Esta es la direccin IP del clster, no el servidor virtual de SQL. La direccin IP debe estar en la misma subred que todos los nodos del clster. Haga clic en siguiente.

A continuacin se escriba el nombre de la cuenta de dominio que desea utilizar como la cuenta de servicio de Cluster Server. Tambin deber especificar el nombre del dominio donde se cre la cuenta y contrasea de la cuenta. Esta cuenta debe ya en su dominio y en todos los nodos del clster en el Grupo Local de administradores. Haga clic en siguiente.

El siguiente paso del Asistente para clster es la configuracin del clster propuesto. Pero antes de hacer clic en siguiente, haga clic en el botn de qurum y comprueba qu unidad el Asistente para clster ha seleccionado para el qurum. En este caso la unidad q ha sido elegida, que es correcta. La mayora de las veces, el Asistente para clster seleccionar la unidad correcta para el qurum, pero no siempre. Por eso, es importante comprobar si fue elegida la unidad correcta. Ya he nombrado a mi unidad de qurum "Q", es muy fcil para m determinar que la unidad correcta fue elegida por el administrador de clsteres. Por eso suger antes que nombre de la unidad de qurum "Q". Suponiendo que todo est bien, haga clic en Aceptar para aceptar la unidad de qurum y, a continuacin, haga clic en siguiente. En este momento, el Asistente para clster se reanalizar el clster, otra vez en busca de los posibles problemas. Si no encuentra ninguno, haga clic en siguiente y, a continuacin, haga clic en Finalizar para completar la instalacin de clster de SQL Server 2003 en el primer nodo.

Instalar el segundo nodo del clster


Una vez haya instalado el primer nodo del clster, es hora de instalar el segundo nodo. Como el primer nodo, se instala el segundo nodo desde el administrador de clsteres. Ya existe el clster, slo estamos agregando el segundo nodo al clster actualmente existente. Puede instalar el segundo nodo desde el primer nodo o segundo nodo. Personalmente, lo hago desde el segundo nodo para que no se confundan Para instalar el segundo nodo, convertirlo (que debera haber sido apagado mientras que instal el primer nodo) y abrir el administrador de clsteres. Obtendr la misma ventana como pudo ver cuando instal el primer nodo. Desde aqu, seleccione Agregar nodos al clster. Aparecer el Asistente para agregar nodos, que es muy similar a la Asistente de clster de servidor nuevo anterior solo nos falt, excepto que tiene menos opciones. Como procede el asistente, deber especificar el nombre del nodo fsico para agregar al clster actual, despus de que una serie de pruebas se ejecutar automticamente para comprobar que el nodo est listo a agruparse. Como antes, si tiene algn problema, amarillas o rojas advertencias debe corregirlos primero antes de continuar. Una vez que se han corregido todos los problemas, entonces se le pedir que introduzca la contrasea para la cuenta de servicio de clster (demostrar que tiene permiso para agregar un nodo al clster) y se agrega el nodo al clster.

Verificacin de los nodos con el administrador de clsteres


Una vez que se han instalado correctamente los dos nodos del clster, es una buena idea para ver los nodos desde el administrador de clsteres. Cuando usted abrir Administrador de clsteres por primera vez despus de crear un clster, tendr que decirle que abrir una conexin al Cluster y escriba el nombre del clster virtual que acaba de crear. Una vez que haya hecho esto, la prxima vez que abra el administrador de clsteres abre automticamente este clster para usted de forma predeterminada. Despus de abrir el administrador de clsteres, lo que se ve ser muy similar a la siguiente figura.

Observe que se han creado dos grupos de recursos para usted: grupo de clsteres y grupo 0. El grupo de clsteres incluye tres recursos de clster: direccin IP del clster, el nombre de clster y la unidad de qurum. Estos se crean automticamente por el Asistente para clster. Hablaremos ms acerca de grupo 0 un poco ms tarde. Cuando se observa junto a cada recurso de clster, el estado de cada recurso debe ser Online. Si no es as, entonces el clster puede tener un problema que es necesario corregir. Como una tcnica rpida solucin de problemas, si cualquiera de los recursos no estn en lnea, haga clic derecho en el recurso y elija poner en conexin. En algunos casos, esto traer el recurso y no se tiene ms problemas. Pero si esto no funciona, entonces es necesario comenzar a solucionar problemas de clster.

Tambin, junto a cada recurso es el propietario del recurso de la lista. Todos los recursos de un grupo de recursos siempre tendr el mismo propietario. Esencialmente, el propietario es el nodo fsico donde se estn ejecutando los recursos de clster. En el ejemplo anterior, el nodo fsico se ejecutan en es SQL2005A, que ser el primero en mi cluster de dos nodos. Si se produce una conmutacin por error, todos los recursos en el grupo de recursos se cambiarn por otro nodo del clster.

Cmo configurar Windows Server 2003 para la agrupacin


Antes de instalar clsteres de SQL Server, hay un pequeo paso que debe realizar, y que es preparar a un grupo de recursos para los recursos de SQL Server que se crea cuando se instala SQL Server. Es muy probable que, al crear el clster, como anteriormente, ver un grupo de recursos llamado grupo 0. Este grupo de recursos se cre cuando se cre el cluster, y probablemente incluye el recurso compartido para bases de datos SQL Server utilizar. Consulte a continuacin.

En mi ejemplo, disco F, el conjunto compartido para SQL Server, es en grupo 0. Si lo desea, puede dejar el grupo de recursos con este nombre, pero no es muy informativa. Sugiero que renombrar grupo 0 a grupo de SQL Server. Puede hacerlo haciendo clic en el grupo 0 y seleccione Cambiar nombre.

En algunos casos, el Asistente para clster puede poner la matriz de disco compartido de SQL Server en el grupo de recursos de clster de grupo y no crear un grupo 0. Si este es el caso, ser necesario crear un nuevo grupo de recursos y, a continuacin, mover la matriz de disco compartido de SQL Server desde el grupo de clsteres para el recin creado grupo de recursos de SQL Server. Aqu es cmo crear un nuevo grupo de recursos mediante el administrador de clsteres:
y y y y

Iniciar el administrador de clsteres. En el men Archivo, seleccione Nuevo y, a continuacin, seleccione el grupo. Esto inicia al Asistente para nuevo grupo. Introduzca el nombre del grupo, "Grupo de SQL Server." Si lo desea, tambin puede introducir una descripcin de este grupo. Haga clic en siguiente. Ahora, debe seleccionar qu nodos del clster se que ejecuta SQL Server. Por supuesto se trata todos los nodos. Los nodos aparecen en la parte izquierda del asistente. CTRL + clic en cada uno de los nodos en la izquierda y, a continuacin, seleccione Agregar. Esto pasar los nodos seleccionados desde el lado izquierdo del asistente a la derecha. Haga clic en Finalizar.

Se ha creado el nuevo grupo de recursos del grupo de SQL Server. Ahora que se ha creado el grupo, debe ponerse en lnea. Aqu es cmo.
y y

Desde el administrador de clsteres, haga clic derecho en el grupo de recursos de SQL Server (tendr un punto rojo junto a l) y seleccione conectar. Desaparece el punto rojo junto al nombre del grupo de recursos, y el grupo de recursos del grupo de SQL Server est ahora en lnea y listos para su uso.

Ahora, el siguiente paso es mover los recursos de disco desde el grupo de clsteres (excepto la unidad de qurum) para el grupo de SQL Server. Se trata de una simple cuestin de arrastrar y colocar los recursos de disco del clster de grupo a grupo de SQL Server. Una vez hecho esto, est listo para el siguiente paso.

Prueba, prueba y prueba otra vez


Una vez instalado Windows 2003 clustering en los nodos, es necesario probar exhaustivamente la instalacin antes de instalar el clster de SQL Server 2005. Si no lo hace, y ms tarde surgen problemas con la organizacin por clsteres de Windows 2003, tendr que quitar SQL Server 2005 clustering para solucionarlo, por lo que tambin puede identificar los posibles problemas y resolverlos ahora. A continuacin se muestran una serie de pruebas que puede realizar para comprobar que funciona correctamente el clster de Windows 2003. Despus de realizar cada prueba,

compruebe si obtiene los resultados esperados (failover de xito). Tambin asegrese de comprobar los archivos de registro de sucesos de Windows para detectar posibles problemas. Si encuentra un problema durante una prueba, resolverlo antes de proceder a la prxima prueba. Una vez haya realizado todas estas pruebas con xito, ests listo para continuar con la instalacin de clster.

Preparacin de las pruebas


Antes de comenzar la prueba, identificar una estacin de trabajo con el administrador de clsteres en l y utilizar esta copia del administrador de clsteres para interactuar con el clster durante la prueba. Obtendr una prueba mejor utilizando una copia remota del administrador de clsteres que tratar de utilizar una copia que se ejecuta en uno de los nodos del clster.
Mover grupos entre nodos

La prueba ms fcil realizar es utilizar el administrador de clsteres para mover manualmente el grupo de clsteres y grupos de recursos de SQL Server desde el nodo activo a un nodo pasivo y vuelva. Para ello, haga clic derecho en el grupo de clsteres y, a continuacin, seleccione Mover grupo. Una vez que el grupo se ha movido con xito desde el nodo activo a un nodo pasivo, utilice el mismo procedimiento anterior para mover el grupo volver al nodo original. Los movimientos deben ser bastante rpido y sin incidentes. Utilice el administrador de clsteres para ver el failover y failback y comprobar los registros de sucesos para posibles problemas. Despus de mover los grupos, todos los recursos de cada grupo deben ser en el estado en lnea. Si no es as, tiene un problema que debe ser identificado y corregido.
Iniciar manualmente una conmutacin por error en el administrador de clsteres

Esta prueba se realiza tambin desde el administrador de clsteres. Seleccione cualquiera de los recursos que se encuentran en el grupo de clsteres grupo de recursos (no el clster propio grupo), con el botn derecho en l y seleccione Iniciar error. Dado que el servicio de Cluster Server siempre intenta recuperarse hasta tres veces de un error, si es posible, tendr que seleccionar esta opcin cuatro veces antes de inicia un failover de prueba. Ver la conmutacin por error de administrador de clsteres. Despus de failover y failback utilizando el mismo procedimiento descrito, viendo de nuevo la actividad de administrador de clsteres. Comprobar los registros de sucesos para posibles problemas. Tras esta prueba, todos los recursos de cada grupo deben ser en el estado en lnea. Si no es as, tiene un problema que debe ser identificado y corregido.

Nodos de conmutacin por error manual si les desactiva

Esta vez, utilizaremos slo el administrador de clsteres para ver la actividad de conmutacin por error, no para iniciarlo. En primer lugar, desactivar el nodo activo si desactiva duro. Una vez que esto ocurra, ver la conmutacin por error en el administrador de clsteres. Una vez que se produce la conmutacin por error, encienda el nodo activo ex y esperar hasta que se inicia completamente. Apague el nodo activo ahora actual si desactiva duro. Y una vez ms, la conmutacin por error en el administrador de clsteres. Despus de la conmutacin por error, traer el nodo apagado en. Comprobar los registros de sucesos para posibles problemas. Tras esta prueba, todos los recursos de cada grupo deben ser en el estado en lnea. Si no es as, tiene un problema que debe ser identificado y corregido.
Nodos de conmutacin por error manual rompiendo las conexiones de red pblica

En esta prueba, vamos a ver lo que sucede si se produce un error en la conectividad de red. En primer lugar, deben ser ambos nodos que se est probadas en. En segundo lugar, desconecte la conexin de la red pblica desde el nodo activo. Esto provocar una conmutacin por error a un nodo pasivo, que puede ver en el administrador de clsteres. En tercer lugar, conecte la conexin de la red pblica en el servidor. En cuarto lugar, desconecte la conexin de la red pblica desde el nodo activo. Esto provocar una conmutacin por error para el nodo pasivo actual, que puede ver en el administrador de clsteres. Una vez finalizado el ensayo, enchufe la conexin de red en el servidor. Comprobar los registros de sucesos para posibles problemas. Tras esta prueba, todos los recursos de cada grupo deben ser en el estado en lnea. Si no es as, tiene un problema que debe ser identificado y corregido.
Nodos de conmutacin por error manual rompiendo la conexin de conjunto compartido

Esta prueba siempre es emocionante, ya que es la prueba ms apta identificar posibles problemas. En primer lugar, desde el nodo activo, eliminar la conexin de conjunto compartido. Esto provocar una conmutacin por error que se puede ver en el administrador de clsteres. Ahora vuelva a conectar la conexin interrumpida. En segundo lugar, desde el nodo activo, eliminar la conexin de conjunto compartido. Ver la conmutacin por error en el administrador de clsteres. Cuando haya terminado, vuelva a conectar la conexin interrumpida. Comprobar los registros de sucesos para posibles problemas. Tras esta prueba, todos los recursos de cada grupo deben ser en el estado en lnea. Si no es as, tiene un problema que debe ser identificado y corregido. Como he mencionado antes, si cualquier prueba particular produce problemas inesperados, como failover no funciona o errores se encuentran en el evento registros, identificar y resolverlos ahora antes de continuar con la siguiente prueba. Una vez que haya resuelto los problemas, asegrese de repetir la prueba que originalmente indic el problema a fin de verificar que se haya fijado. Ahora que ha finalizado la instalacin de clster de Windows 2003 y han probado, est listo para instalar y configurar el Coordinador de transacciones distribuidas de Microsoft.

Configuracin de Microsoft Coordinador de transacciones distribuidas


Aunque no es necesario, se recomienda instalar el Coordinador de transacciones distribuidas de Microsoft (MSDTC) en cada uno de los nodos del clster antes de instalar clsteres de SQL Server 2005. Esto es debido a que SQL Server 2005 requiere este servicio para realizar algunas funciones, incluidas las consultas distribuidas, las transacciones de confirmacin en dos fases y algunos aspectos de la replicacin. MS DTC debe instalarse despus de instalar clsteres de Windows 2003, pero antes de instalar clsteres de SQL Server 2005.

Instalar MS DTC mediante el administrador de clsteres


Mientras que MS DTC puede configurarse para la agrupacin de la lnea de comandos, es mucho ms fcil utilizar el administrador de clsteres, como se describe a continuacin. Esto es porque este procedimiento configura automticamente MS DTC en todos los nodos del clster, al mismo tiempo. Tmese su tiempo para garantizar que usted hacerlo bien la primera vez.
y y y

Iniciar el administrador de clsteres. Haga clic derecho en el grupo de recursos de clster de grupo, seleccione Nuevo y, a continuacin, recursos. Esto inicia al Asistente para nuevos recursos. En la primera pantalla del Asistente de recursos, escriba el nombre del recurso que est creando, que sera "Recurso MSDTC." Si lo desea, tambin puede introducir una descripcin opcional de este recurso. En el tipo de recurso, seleccione Coordinador de transacciones distribuidas. En grupo, grupo de clsteres ya debe mostrarse. Haga clic en siguiente. En el cuadro de dilogo posibles propietarios, ver que todos los nodos del clster se enumeran bajo posibles propietarios. Esto es correcto y no se debe cambiar. Haga clic en siguiente. En el cuadro de dilogo dependencias, presione y mantenga presionada la tecla CTRL en el recurso de disco de qurum y el nombre de clster y, a continuacin, haga clic en Agregar. Haga clic en Finalizar.

En este momento, se crea el recurso MSDTC. Ahora que se ha creado el recurso, debe ponerse en lnea. Aqu es cmo.
y

Desde el administrador de clsteres, haga clic en el recurso de MSDTC (tendr un punto rojo junto a l) y seleccione conectar.

Desaparece el punto rojo junto al nombre del recurso, y el recurso MSDTC est ahora en lnea y listos para su uso. Si el nuevo recurso no entren en lnea, elimnelo y vuelva a intentarlo.

Como servicio se instalara SQL Server 2005


Por ltimo, est listo para instalar clsteres de SQL Server 2005.

También podría gustarte