Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Trabajo de Investigación
Trabajo de Investigación
ALUMNO:
CUMPN CUYA, CHRISTIAN A.
DOCENTE:
RODRIGUEZ VICUA, JULIO JOSE 2011 I LIMA, PER
1. PROCESO DEL DESARROLLO DE UN CLUSTER PARA EL CASO DE LINUX USANDO CENTOS 5.3
Introduccin.
Este documento describe los procedimientos de configuracin de un agrupamiento (cluster) de alta disponibilidad utilizando Heartbeat.
Se asume que se dispone de dos equipos o mquinas virtuales, las cuales sern los dos nodos del agrupamiento, y tiene las siguientes caractersticas: Nodo 1: Sistema operativo: CentOS 5.4 Direccin IP eth0: 192.168.1.101/255.255.255.0, conectado a la LAN o hacia Internet, y con el nombre de anfitrin asociado a nombre.publico.nodo2.com. Direccin IP eth1: 192.168.2.1/255.255.255.248, conectado con cable cruzado o a un switch o concentrador dedicado exclusivamente para los nodos del agrupamiento, o bien interfaz de Intranet en VirtualBox, y con el nombre de anfitrin asociado a nombre.privado.nodo1.com. El nombre del anfitrin (hostname), definido en el fichero /etc/sysconfig/network, debe ser nombre.privado.nodo1.com. Nodo 2: Sistema operativo: CentOS 5.4 Direccin IP eth0: 192.168.1.102/255.255.255.0, conectado a la LAN o hacia Internet, y con el nombre de anfitrin asociado a nombre.publico.nodo2.com. Direccin IP eth1: 192.168.2.2/255.255.255.248, conectado con cable cruzado o bien hacia un switch o concentrador dedicado exclusivamente para la comunicacin entre los nodos del agrupamiento, o bien interfaz de Intranet en VirtualBox, y con el nombre de anfitrin asociado a nombre.privado.nodo2.com. El nombre del anfitrin (hostname), definido en el fichero /etc/sysconfig/network, debe ser nombre.privado.nodo2.com.
Ambos nodos pueden ser diferentes en cuanto a arquitectura, capacidad y componentes. Ambos nodos formarn un agrupamiento (cluster) de alta disponibilidad que responder por la direccin IP 192.168.1.100/255.255.255.0, asociada al nombre nombre.publico.cluster.com.
Acerca de Heartbeat.
Heartbeat es un servicio que provee servicios de infraestructura de agrupamiento (cluster) a clientes. Permite a los clientes saber si uno de los nodos est presente o ausente, intercambiado fcilmente mensajes entre stos. Est especficamente diseado para funcionar como agrupamiento de alta disponibilidad para cualquier tipo de servicio.
Procedimientos.
Servicios que deben desactivarse.
En ambos nodos, si estuviesen presentes, deben estar desactivados los servicios avahi-daemon y avahi-dnsconfd, as como cualquier otro servicio que intente utilizar la interfaz eth1, misma que debe estar completamente dedicada a las comunicaciones de Heartbeat.
service avahi-daemon stop service avahi-dnsconfd stop chkconfig avahi-daemon off chkconfig avahi-dnsconfd off
Es importante tambin desactivar el cortafuegos predeterminando del sistema en ambos nodos, debido a que ste interfiere con la comunicacin entre los nodos de heartbeat:
service iptables stop service ip6tables stop chkconfig iptables off chkconfig ip6tables off
El muro cortafuegos de ambos nodos puede ser fcilmente gestionado a travs de Shorewall, como se explica ms adelante.
SELinux y Heartbeat.
Lamentablemente, de modo predeterminado la implementacin de SELinux incluida en CentOS 5.x carece de polticas que permitan funcionar al servicio heartbeat, a menos que se generen manualmente las necesarias o bien se ponga SELinux en modo permisivo o se desactive por completo ste.
Suponiendo que se van a configurar los servicios shorewall (o bien iptables), httpd, named y vsftpd, descargue el fichero heartbeat1.te desde Alcance Libre: wget -N http://www.alcancelibre.org/linux/secrets/heartbeat1.te El edite el fichero heartbeat1.te que se acaba de descargar:
vim heartbeat1.te
module heartbeat1 1.0; require { type proc_t; type urandom_device_t; type ftpd_t; type httpd_t; type iptables_t; type ndc_t; type initrc_t; type named_t; class unix_stream_socket { read write }; class file read; class chr_file read; } #============= ftpd_t ============== allow ftpd_t initrc_t:unix_stream_socket { read write }; #============= httpd_t ============== allow httpd_t initrc_t:unix_stream_socket { read write }; #============= iptables_t ============== allow iptables_t initrc_t:unix_stream_socket { read write }; #============= named_t ============== allow named_t initrc_t:unix_stream_socket { read write }; #============= ndc_t ============== allow ndc_t initrc_t:unix_stream_socket { read write }; allow ndc_t proc_t:file read; allow ndc_t urandom_device_t:chr_file read;
Lo anterior, que fue obtenido de la salida del mandato dmesg|grep audit|audit2allow -m heartbeat1>heartbeat1.te en un sistema donde SELinux impeda a Heartbeat iniciar los servicios anteriormente mencionados. En si, define que se permite el modo de lectura y escritura cuando los servicios del directorio /etc/init.d sean iniciados por un zcalo generado por Heartbeat. A continuacin, se genera un el fichero de mdulo para SELinux (heartbeat1.mod) utilizando el mandato checkmodule de la siguiente forma:
Finalmente se vincula el fichero heartbeat1.pp obtenido con las polticas actuales de SELinux y se cargan stas en el ncleo en ejecucin:
semodule -i /usr/share/selinux/packages/heartbeat/heartbeat1.pp
Una vez cargadas las nuevas polticas, se pueden eliminar los ficheros heartbeat1.te y heartbeat1.mod, pues solo ser necesario que exista el fichero binario heartbeat1.pp. Todo lo anterior se puede repetir utilizando otro nombre de fichero distinto para poder aadir ms servicios. Es decir, si se van a aadir ms servicios par a ser gestionados por Heartbeat, configurar stos en el fichero /etc/ha.d/haresources, como se describe ms adelante en este mismo documento, reiniciar el servicio y realizar el siguiente procedimiento:
cd /usr/share/selinux/packages/heartbeat/ dmesg|grep audit|audit2allow -m heartbeat2>heartbeat2.te checkmodule -M -m -o heartbeat2.mod heartbeat2.te semodule_package -o heartbeat2.pp -m heartbeat2.mod semodule -i /usr/share/selinux/packages/heartbeat/heartbeat2.pp rm -f heartbeat2.te heartbeat2.mod service heartbeat restart
Cambie SELINUX=enforcing por SELINUX=permissive, a fin de mantener funcionado SELinux, y preservar todos los contextos de ste en el sistema de ficheros, pero sin interferir con el funcionamiento de Heartbeat:
# This file controls the state of SELinux on the system. # SELINUX= can take one of these three values: # enforcing - SELinux security policy is enforced. # permissive - SELinux prints warnings instead of enforcing. # disabled - SELinux is fully disabled. SELINUX=permissive # SELINUXTYPE= type of policy in use. Possible values are: # targeted - Only targeted network daemons are protected. # strict - Full SELinux protection. SELINUXTYPE=targeted # SETLOCALDEFS= Check local definition changes SETLOCALDEFS=0
Realmente es poco recomendable desactivar por completo SELinux, siendo que las polticas necesarias pudieran aparecer en alguna actualizacin del paquete selinux-policy-targeted, o bien pudiera ser necesario recurrir a la proteccin que brinda esta implementacin en un futuro a fin de evitar potenciales incidentes de seguridad que normalmente se evitaran utilizando SELinux. En versiones recientes de Fedora, es posible evitar los problemas con SELinux, de manera fcil, ejecutando lo siguiente para permitir a heartbeat trabajar en modo sin confinar:
Y definir los nombres asociados a la direccin IP pblica del agrupamiento (cluster) y las direcciones IP de las interfaces eth0, las cuales corresponden a las interfaces publicas de los nodos:
# Do not remove the following line, or various programs # that require network functionality will fail. 127.0.0.1 localhost.localdomain localhost ::1 192.168.1.100 192.168.1.101 192.168.1.102 localhost6.localdomain6 localhost6 nombre.publico.cluster.com nombre.publico.nodo1.com nombre.publico.nodo2.com
Para complementar lo anterior, debe haber un DNS que se encargue de resolver estos nombres para la red local y/o hacia Internet.
Editar el fichero /etc/hosts y definir los nombres asociados a las direcciones IP de las interfaces eth1, las cuales corresponden a las interfaces privadas del cluster, a travs de la cual se comunican los nodos:
# Do not remove the following line, or various programs # that require network functionality will fail. 127.0.0.1 localhost.localdomain localhost ::1 192.168.1.100 192.168.1.101 192.168.1.102 192.168.2.1 192.168.2.2 localhost6.localdomain6 localhost6 nombre.publico.cluster.com nombre.publico.nodo1.com nombre.publico.nodo2.com nombre.privado.nodo1.com nombre.privado.nodo2.com
Instalar los servicios que se van a gestionar a travs del agrupamiento (cluster):
yum -y install httpd php vsftpd wget
Instale Shorewall:
yum -y install shorewall
A fin de que exista una comunicacin sin restricciones entre ambos nodos cuando el cortafuegos est detenido, defina el siguiente contenido en el fichero /etc/shorewall/routesstoped:
eth0 192.168.1.102 critical eth1 192.168.2.2 critical #LAST LINE -- ADD YOUR ENTRIES BEFORE THIS ONE -- DO NOT REMOVE
#LAST LINE - ADD YOUR ENTRIES ABOVE THIS ONE - DO NOT REMOVE
Defina que interfaces de red corresponden a las zonas establecidas en el fichero /etc/shorewall/interfaces:
net eth0 detect dhcp,blacklist loc eth1 detect #LAST LINE -- ADD YOUR ENTRIES BEFORE THIS ONE -- DO NOT REMOVE
Considerando que se estn configurando los servicios shorewall, vsftpd y httpd, se administrarn ambos servidores a travs de SSH, limitando los pings desde cualquier zona a 5 conexiones por segundo con rfagas de 2, defina las siguientes reglas para el fichero /etc/shorewall/rules:
ACCEPT ACCEPT ACCEPT ACCEPT ACCEPT all all all all all fw fw fw fw fw tcp tcp tcp tcp icmp 20,21 80,443 3306 22 8 -
#LAST LINE -- ADD YOUR ENTRIES BEFORE THIS ONE -- DO NOT REMOVE
Debido a un error en el guin %pre (pre-instalacin) de los paquetes de heartbeat que son distribuidos a travs de los depsitos YUM de CentOS, es importante crear previamente el usuario y grupo que utilizar heartbeat, o de otro modo fallar la instalacin:
groupadd -g 496 haclient useradd -M -g haclient -u 498 -d /var/lib/heartbeat/cores/hacluster hacluster
Instalar el paquete heartbeat. Se instalarn automticamente como dependencias los paquetes heartbeat-stonith y heartbeat-pils:
yum -y install heartbeat
Puede generar el contenido del fichero /etc/ha.d/authkeys, con un criptograma adecuado, utilizando el siguiente guin:
( echo -ne "auth 2n2 sha1 "; \ dd if=/dev/urandom bs=512 count=1 | openssl md5 ) > /etc/ha.d/authkeys
Por motivos de seguridad, este fichero solo debe tener permisos de lectura y escritura para el usuario root. Cambiar el permiso de ste ejecutando lo siguiente:
chmod 600 authkeys
# con direcciones IP privadas en las interfaces eth1, la cuales corresponden a # las interfaces privadas del cluster, a travs de la cual se comunican los # nodos del cluster. node nombre.privado.nodo1.com node nombre.privado.nodo2.com
Aadir al final del fichero haresources lo siguiente, donde se define el nombre del nodo 1, direccin IP que utilizar Heartbeat para servir los recursos, mscara de subred en formato de bits, nombre de interfaz de red donde se crear la interfaz virtual, direccin de difusin de la red (broadcast) y los servicios a controlar:
# En el ejemplo a continuacin: # nombre.privado.nodo1.com = nombre de anfitrin del nodo principal # 192.168.1.100 = direccin IP pblica del cluster # 24 = mscara en formato de bits # eth0 = interfaz pblica del cluster # 192.168.1.101 = direccin IP del nodo principal a supervisar # vsftpd httpd = servicios a brindar a travs del cluster nombre.privado.nodo1.com vsftpd httpd 192.168.1.100/24/eth0/192.168.1.255 shorewall
Desactivar los servicios que se van a gestionar a travs del agrupamiento (cluster):
chkconfig httpd off chkconfig vsftpd off chconfig shorewall off
Los servicios shorewall, httpd y vsftpd iniciarn automticamente poco despus de iniciar el servicio heartbeat.
Instalar los servicios que se van a gestionar a travs del agrupamiento (cluster):
yum -y install httpd php vsftpd
A travs de SCP, copiar desde el nodo 1 el fichero /etc/httpd/conf.d/cluster.conf dentro del directorio /etc/httpd/conf.d/ local:
scp -p 192.168.1.101:/etc/httpd/conf.d/cluster.conf /etc/httpd/conf.d/
Instale Shorewall:
yum -y install shorewall
A fin de que exista una comunicacin sin restricciones entre ambos nodos cuando el cortafuegos est detenido, defina el siguiente contenido en el fichero /etc/shorewall/routesstoped:
eth0 192.168.1.101 critical eth1 192.168.2.1 critical #LAST LINE -- ADD YOUR ENTRIES BEFORE THIS ONE -- DO NOT REMOVE
Defina que interfaces de red corresponden a las zonas establecidas en el fichero /etc/shorewall/interfaces:
net eth0 detect dhcp,blacklist loc eth1 detect #LAST LINE -- ADD YOUR ENTRIES BEFORE THIS ONE -- DO NOT REMOVE
A travs de SCP, copiar desde el nodo 1 el fichero /etc/hosts para reemplazar el fichero /etc/hosts local:
scp -p 192.168.1.101:/etc/hosts /etc/hosts
A travs de SCP, copiar desde el nodo 1 el contenido completo del directorio /etc/ha.d dentro de /etc
scp -p 192.168.1.101:/etc/ha.d/* /etc/ha.d/
Desactivar los servicios que se van a gestionar a travs del agrupamiento (cluster):
chkconfig httpd off chkconfig vsftpd off chkconfig shorewall off
Los servicios shorewall, httpd y vsftpd iniciarn automticamente solo cuando heartbeat detecte que ha fallado el nodo 1 o se ha perdido conectividad con ste.
En el caso de el nodo 1, se asume que si este falla y es apagado, al iniciar sincroniza con el nodo 2, el cual estuvo trabajando y funcionando en ausencia del nodo 1. Puede agregarse el siguiente ejemplo al fichero /etc/rc.local, lo que corresponde a la sincronizacin de datos del los directorios /var/ftp/pub a partir de el nodo 2 hacia el nodo 1 que se asume acaba de iniciar:
#!/bin/sh # # This script will be executed *after* all the other init scripts. # You can put your own initialization stuff in here if you don't # want to do the full Sys V style init stuff. touch /var/lock/subsys/local rsync -avz \ --exclude '*log' --exclude '*tmp/*' -e ssh --delete-after \ root@192.168.1.102:/var/ftp/pub /var/ftp/pub
y y y y
y y y y y y
Doble comprobacin para asegurarse de que todos los nodos estn trabajando correctamente y estn configurados de forma idntica (hardware, software, controladores, etc.). Compruebe que cada nodo puede ver los datos y unidades de qurum en el conjunto compartido o SAN. Recuerde, slo un nodo puede ser en un momento hasta que se instale la organizacin por clsteres de Windows 2003. Compruebe que ninguno de los nodos se ha configurado como controlador de dominio. Control para comprobar que todas las unidades NTFS y no estn comprimidas. Asegrese de que las redes pblicas y privadas estn correctamente instaladas y configuradas. Hacer ping a cada nodo de las redes pblicas y privadas para asegurarse de que tiene buenas conexiones. Tambin ping al servidor de controlador de dominio y DNS para comprobar que estn disponibles. Compruebe que han deshabilitado NetBIOS para todas las tarjetas de red privada. Compruebe que no no hay recursos compartidos de red en cualquiera de las unidades compartidas. Si va a utilizar el cifrado de SQL Server, instalar el certificado de servidor con el nombre DNS completo del servidor virtual en todos los nodos del clster. Compruebe todos los registros de error para garantizar que no hay sorpresas desagradables. Si hay, resolverlos antes de continuar con la instalacin de clster. Agregar las cuentas de servicio SQL Server y Clustering al grupo de administradores locales de todos los nodos del clster. Control para comprobar que no se ha instalado ningn software antivirus en los nodos. Software antivirus puede reducir la disponibilidad de clsteres y no debe estar instalado en ellos. Si desea buscar posibles virus en un clster, puede siempre instalar el software en un nodo no y ejecutar anlisis en los nodos del clster de forma remota.
y y y
Control para comprobar que el proveedor de servicios criptogrficos de Windows est habilitado en cada uno de los nodos. Control para comprobar que el servicio Programador de tareas de Windows se ejecuta en cada uno de los nodos. Si va a ejecutar SQL Server 2005 Reporting Services, entonces debe instalar IIS 6.0 y ASP.NET 2.0 en cada nodo del clster.
Son muchas cosas que usted debe comprobar, pero cada uno de estos es importante. Si se omite, uno de estos pasos puede impedir que el clster de instalacin o funciona correctamente.
En el cuadro de lista desplegable accin, seleccione Crear nuevo clster y haga clic en Aceptar. Aparece el nuevo Asistente de clster de servidor, como mostrar a continuacin.
Los prximos pasos parecen fciles debido a la naturaleza del asistente, pero si elige las opciones mal, pueden tener consecuencias negativas en la lnea. Debido a esto, es importante que piense cuidadosamente a travs de cada una de sus respuestas. Idealmente, usted ya habr hecho estas opciones durante la etapa de planificacin La primera eleccin que debe hacer es el dominio en que ser el clster. Si tiene un solo dominio, esta es una opcin fcil. Si tienes ms de un dominio, seleccione el dominio que todos los nodos del clster residen en. La segunda opcin es el nombre que asigne el clster virtual. ste es el nombre del clster virtual, no el nombre del servidor SQL virtual. Acerca de la nica vez que se va a utilizar este nombre es cuando se conecta con el clster mediante el administrador de clsteres. Clientes de SQL Server 2005 no se conectarn al clster utilizando este nombre virtual. Una vez que se introduce la informacin, haga clic en siguiente para continuar.
Ahora, tenemos que decirle al asistente el nombre fsico del nodo de que queremos instalar clsteres. Suponiendo que ejecuta al Asistente para clster en el nodo principal del clster, el nombre del equipo que se ve en la pantalla anterior ser el nombre del nodo fsico en que est instalando. Si est instalando desde un nodo, pero desea instalar el clster en un nodo distinto, se puede, pero slo obtiene confuso si lo hace. Es mucho ms fcil de instalar en el mismo nodo. Observe el botn Avanzadas en la pantalla superior. Si hace clic en l, ver el siguiente.
Opciones de configuracin avanzadas permiten elegir de entre una tpica y una configuracin avanzada. En casi todos los casos, la configuracin tpica funciona bien y que es la opcin que utilizamos en este ejemplo. La opcin de configuracin avanzada slo es necesaria para configuraciones complejas de SAN y est fuera del alcance de este artculo. As que haga clic en Cancelar para volver al asistente, introduzca el nodo fsico correcto, si necesita ser y haga clic en siguiente.
Este paso es muy importante. Lo que hace el Asistente para clster es comprobar que todo est listo antes de comenzar la instalacin real del servicio de clster en el nodo. Como pueden ver arriba, el asistente pasa por muchos pasos y si todos su preparacin correctamente, cuando la prueba se realiza, ver una barra de color verde en tareas completado, y estar preparado para continuar. Pero si no han realizado todos los pasos preliminares correctamente, ver los iconos amarillos o rojos junto a uno o ms de los muchos pasos probados, y complet una barra verde o roja en tareas. Idealmente, desea ver resultados similares a la figura anterior, con una barra de color verde y ningn icono amarillo junto a los pasos de la prueba. En algunos casos, puede ver los iconos de advertencia amarillo junto a uno o ms de las medidas de prueba, pero todava aparece una barra verde en la parte inferior. Mientras que la barra verde indica que puede continuar, no significa el clster se completar correctamente o se configurar como desea que sea completado. Si ves los iconos de advertencia amarillo, puede profundizar en ellos y ver cul es exactamente la advertencia. Lea cuidadosamente cada
advertencia. Si la advertencia es algo sin importancia para usted, se puede ignorar. Pero en la mayora de los casos, deben abordarse las advertencias de color amarillas. Esto puede significar que tendr que cancelar la instalacin del servicio de clster en este momento para solucionar el problema. A continuacin, intente instalar de nuevo. Si recibe cualquier rojo iconos de advertencia junto a cualquiera de los pasos de prueba, entonces tambin obtendr una barra roja en la parte inferior, lo que significa que tiene un problema importante que debe ser corregido antes de continuar. Desglosar para ver el mensaje y actuar en consecuencia. Probablemente, debers cancelar la instalacin, solucionar el problema y vuelva a intentar la instalacin de nuevo. Suponiendo que la instalacin es verde y est listo para continuar, haga clic en siguiente.
El siguiente paso es introducir la direccin IP de nuestro cluster virtual. Esta es la direccin IP del clster, no el servidor virtual de SQL. La direccin IP debe estar en la misma subred que todos los nodos del clster. Haga clic en siguiente.
A continuacin se escriba el nombre de la cuenta de dominio que desea utilizar como la cuenta de servicio de Cluster Server. Tambin deber especificar el nombre del dominio donde se cre la cuenta y contrasea de la cuenta. Esta cuenta debe ya en su dominio y en todos los nodos del clster en el Grupo Local de administradores. Haga clic en siguiente.
El siguiente paso del Asistente para clster es la configuracin del clster propuesto. Pero antes de hacer clic en siguiente, haga clic en el botn de qurum y comprueba qu unidad el Asistente para clster ha seleccionado para el qurum. En este caso la unidad q ha sido elegida, que es correcta. La mayora de las veces, el Asistente para clster seleccionar la unidad correcta para el qurum, pero no siempre. Por eso, es importante comprobar si fue elegida la unidad correcta. Ya he nombrado a mi unidad de qurum "Q", es muy fcil para m determinar que la unidad correcta fue elegida por el administrador de clsteres. Por eso suger antes que nombre de la unidad de qurum "Q". Suponiendo que todo est bien, haga clic en Aceptar para aceptar la unidad de qurum y, a continuacin, haga clic en siguiente. En este momento, el Asistente para clster se reanalizar el clster, otra vez en busca de los posibles problemas. Si no encuentra ninguno, haga clic en siguiente y, a continuacin, haga clic en Finalizar para completar la instalacin de clster de SQL Server 2003 en el primer nodo.
Observe que se han creado dos grupos de recursos para usted: grupo de clsteres y grupo 0. El grupo de clsteres incluye tres recursos de clster: direccin IP del clster, el nombre de clster y la unidad de qurum. Estos se crean automticamente por el Asistente para clster. Hablaremos ms acerca de grupo 0 un poco ms tarde. Cuando se observa junto a cada recurso de clster, el estado de cada recurso debe ser Online. Si no es as, entonces el clster puede tener un problema que es necesario corregir. Como una tcnica rpida solucin de problemas, si cualquiera de los recursos no estn en lnea, haga clic derecho en el recurso y elija poner en conexin. En algunos casos, esto traer el recurso y no se tiene ms problemas. Pero si esto no funciona, entonces es necesario comenzar a solucionar problemas de clster.
Tambin, junto a cada recurso es el propietario del recurso de la lista. Todos los recursos de un grupo de recursos siempre tendr el mismo propietario. Esencialmente, el propietario es el nodo fsico donde se estn ejecutando los recursos de clster. En el ejemplo anterior, el nodo fsico se ejecutan en es SQL2005A, que ser el primero en mi cluster de dos nodos. Si se produce una conmutacin por error, todos los recursos en el grupo de recursos se cambiarn por otro nodo del clster.
En mi ejemplo, disco F, el conjunto compartido para SQL Server, es en grupo 0. Si lo desea, puede dejar el grupo de recursos con este nombre, pero no es muy informativa. Sugiero que renombrar grupo 0 a grupo de SQL Server. Puede hacerlo haciendo clic en el grupo 0 y seleccione Cambiar nombre.
En algunos casos, el Asistente para clster puede poner la matriz de disco compartido de SQL Server en el grupo de recursos de clster de grupo y no crear un grupo 0. Si este es el caso, ser necesario crear un nuevo grupo de recursos y, a continuacin, mover la matriz de disco compartido de SQL Server desde el grupo de clsteres para el recin creado grupo de recursos de SQL Server. Aqu es cmo crear un nuevo grupo de recursos mediante el administrador de clsteres:
y y y y
Iniciar el administrador de clsteres. En el men Archivo, seleccione Nuevo y, a continuacin, seleccione el grupo. Esto inicia al Asistente para nuevo grupo. Introduzca el nombre del grupo, "Grupo de SQL Server." Si lo desea, tambin puede introducir una descripcin de este grupo. Haga clic en siguiente. Ahora, debe seleccionar qu nodos del clster se que ejecuta SQL Server. Por supuesto se trata todos los nodos. Los nodos aparecen en la parte izquierda del asistente. CTRL + clic en cada uno de los nodos en la izquierda y, a continuacin, seleccione Agregar. Esto pasar los nodos seleccionados desde el lado izquierdo del asistente a la derecha. Haga clic en Finalizar.
Se ha creado el nuevo grupo de recursos del grupo de SQL Server. Ahora que se ha creado el grupo, debe ponerse en lnea. Aqu es cmo.
y y
Desde el administrador de clsteres, haga clic derecho en el grupo de recursos de SQL Server (tendr un punto rojo junto a l) y seleccione conectar. Desaparece el punto rojo junto al nombre del grupo de recursos, y el grupo de recursos del grupo de SQL Server est ahora en lnea y listos para su uso.
Ahora, el siguiente paso es mover los recursos de disco desde el grupo de clsteres (excepto la unidad de qurum) para el grupo de SQL Server. Se trata de una simple cuestin de arrastrar y colocar los recursos de disco del clster de grupo a grupo de SQL Server. Una vez hecho esto, est listo para el siguiente paso.
compruebe si obtiene los resultados esperados (failover de xito). Tambin asegrese de comprobar los archivos de registro de sucesos de Windows para detectar posibles problemas. Si encuentra un problema durante una prueba, resolverlo antes de proceder a la prxima prueba. Una vez haya realizado todas estas pruebas con xito, ests listo para continuar con la instalacin de clster.
La prueba ms fcil realizar es utilizar el administrador de clsteres para mover manualmente el grupo de clsteres y grupos de recursos de SQL Server desde el nodo activo a un nodo pasivo y vuelva. Para ello, haga clic derecho en el grupo de clsteres y, a continuacin, seleccione Mover grupo. Una vez que el grupo se ha movido con xito desde el nodo activo a un nodo pasivo, utilice el mismo procedimiento anterior para mover el grupo volver al nodo original. Los movimientos deben ser bastante rpido y sin incidentes. Utilice el administrador de clsteres para ver el failover y failback y comprobar los registros de sucesos para posibles problemas. Despus de mover los grupos, todos los recursos de cada grupo deben ser en el estado en lnea. Si no es as, tiene un problema que debe ser identificado y corregido.
Iniciar manualmente una conmutacin por error en el administrador de clsteres
Esta prueba se realiza tambin desde el administrador de clsteres. Seleccione cualquiera de los recursos que se encuentran en el grupo de clsteres grupo de recursos (no el clster propio grupo), con el botn derecho en l y seleccione Iniciar error. Dado que el servicio de Cluster Server siempre intenta recuperarse hasta tres veces de un error, si es posible, tendr que seleccionar esta opcin cuatro veces antes de inicia un failover de prueba. Ver la conmutacin por error de administrador de clsteres. Despus de failover y failback utilizando el mismo procedimiento descrito, viendo de nuevo la actividad de administrador de clsteres. Comprobar los registros de sucesos para posibles problemas. Tras esta prueba, todos los recursos de cada grupo deben ser en el estado en lnea. Si no es as, tiene un problema que debe ser identificado y corregido.
Esta vez, utilizaremos slo el administrador de clsteres para ver la actividad de conmutacin por error, no para iniciarlo. En primer lugar, desactivar el nodo activo si desactiva duro. Una vez que esto ocurra, ver la conmutacin por error en el administrador de clsteres. Una vez que se produce la conmutacin por error, encienda el nodo activo ex y esperar hasta que se inicia completamente. Apague el nodo activo ahora actual si desactiva duro. Y una vez ms, la conmutacin por error en el administrador de clsteres. Despus de la conmutacin por error, traer el nodo apagado en. Comprobar los registros de sucesos para posibles problemas. Tras esta prueba, todos los recursos de cada grupo deben ser en el estado en lnea. Si no es as, tiene un problema que debe ser identificado y corregido.
Nodos de conmutacin por error manual rompiendo las conexiones de red pblica
En esta prueba, vamos a ver lo que sucede si se produce un error en la conectividad de red. En primer lugar, deben ser ambos nodos que se est probadas en. En segundo lugar, desconecte la conexin de la red pblica desde el nodo activo. Esto provocar una conmutacin por error a un nodo pasivo, que puede ver en el administrador de clsteres. En tercer lugar, conecte la conexin de la red pblica en el servidor. En cuarto lugar, desconecte la conexin de la red pblica desde el nodo activo. Esto provocar una conmutacin por error para el nodo pasivo actual, que puede ver en el administrador de clsteres. Una vez finalizado el ensayo, enchufe la conexin de red en el servidor. Comprobar los registros de sucesos para posibles problemas. Tras esta prueba, todos los recursos de cada grupo deben ser en el estado en lnea. Si no es as, tiene un problema que debe ser identificado y corregido.
Nodos de conmutacin por error manual rompiendo la conexin de conjunto compartido
Esta prueba siempre es emocionante, ya que es la prueba ms apta identificar posibles problemas. En primer lugar, desde el nodo activo, eliminar la conexin de conjunto compartido. Esto provocar una conmutacin por error que se puede ver en el administrador de clsteres. Ahora vuelva a conectar la conexin interrumpida. En segundo lugar, desde el nodo activo, eliminar la conexin de conjunto compartido. Ver la conmutacin por error en el administrador de clsteres. Cuando haya terminado, vuelva a conectar la conexin interrumpida. Comprobar los registros de sucesos para posibles problemas. Tras esta prueba, todos los recursos de cada grupo deben ser en el estado en lnea. Si no es as, tiene un problema que debe ser identificado y corregido. Como he mencionado antes, si cualquier prueba particular produce problemas inesperados, como failover no funciona o errores se encuentran en el evento registros, identificar y resolverlos ahora antes de continuar con la siguiente prueba. Una vez que haya resuelto los problemas, asegrese de repetir la prueba que originalmente indic el problema a fin de verificar que se haya fijado. Ahora que ha finalizado la instalacin de clster de Windows 2003 y han probado, est listo para instalar y configurar el Coordinador de transacciones distribuidas de Microsoft.
Iniciar el administrador de clsteres. Haga clic derecho en el grupo de recursos de clster de grupo, seleccione Nuevo y, a continuacin, recursos. Esto inicia al Asistente para nuevos recursos. En la primera pantalla del Asistente de recursos, escriba el nombre del recurso que est creando, que sera "Recurso MSDTC." Si lo desea, tambin puede introducir una descripcin opcional de este recurso. En el tipo de recurso, seleccione Coordinador de transacciones distribuidas. En grupo, grupo de clsteres ya debe mostrarse. Haga clic en siguiente. En el cuadro de dilogo posibles propietarios, ver que todos los nodos del clster se enumeran bajo posibles propietarios. Esto es correcto y no se debe cambiar. Haga clic en siguiente. En el cuadro de dilogo dependencias, presione y mantenga presionada la tecla CTRL en el recurso de disco de qurum y el nombre de clster y, a continuacin, haga clic en Agregar. Haga clic en Finalizar.
En este momento, se crea el recurso MSDTC. Ahora que se ha creado el recurso, debe ponerse en lnea. Aqu es cmo.
y
Desde el administrador de clsteres, haga clic en el recurso de MSDTC (tendr un punto rojo junto a l) y seleccione conectar.
Desaparece el punto rojo junto al nombre del recurso, y el recurso MSDTC est ahora en lnea y listos para su uso. Si el nuevo recurso no entren en lnea, elimnelo y vuelva a intentarlo.