Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Sun Microsystems, Inc. UBRM05-104 500 Eldorado Blvd. Broomfield, CO 80021 EE.UU. Revisin C
Copyright 2008 Sun Microsystems, Inc. 4150 Network Circle, Santa Clara, California 95054, EE.UU. Todos los derechos reservados. Este producto o documento est protegido por derechos de autor y se distribuye en virtud de licencias que restringen su utilizacin, copia, distribucin y descompilacin. Ninguna parte de este producto o documento puede ser reproducida de forma o por medio alguno sin la autorizacin previa por escrito de Sun y los cedentes de la licencia, si los hubiera. El software de otros fabricantes, incluida la tecnologa de tipos de letra, est protegido por copyright y los distribuidores de Sun otorgan la licencia correspondiente. Sun, Sun Microsystems, el logotipo de Sun, Solaris, JumpStart, Web Start, Solstice DiskSuite, SunBlade, SunSolve, Ultra, OpenBoot, Java, Sun Ray, Java Card, Sun Enterprise Authentication Mechanism e iPlanet son marcas comerciales o marcas comerciales registradas de Sun Microsystems, Inc. en Estados Unidos y otros pases. Todas las marcas SPARC se utilizan bajo licencia y son marcas comerciales o marcas registradas de SPARC International, Inc. en Estados Unidos y otros pases. Los productos que llevan marcas SPARC estn basados en una arquitectura desarrollada por Sun Microsystems, Inc. UNIX es una marca registrada en Estados Unidos y otros pases, y ha sido cedida bajo licencia exclusiva de X/Open Company, Ltd. La interfaz grfica de usuario OPEN LOOK y Sun ha sido desarrollada por Sun Microsystems, Inc. para sus usuarios y titulares de licencia. Sun reconoce los esfuerzos de Xerox como pionera en la investigacin y el desarrollo del concepto de interfaz visual o interfaz grfica de usuario para la industria informtica. Sun dispone de licencia no exclusiva sobre la interfaz grfica de usuario de Xerox, licencia que cubre tambin a entidades con licencia de Sun para la implementacin de interfaces grficas de usuario OPEN LOOK y a quienes cumplen con los acuerdos de licencia escritos de Sun. Adquisiciones federales: Software comercial Los usuarios del gobierno estn sujetos a las condiciones y los trminos de licencia estndar. Leyes de exportacin. Los productos, servicios y datos tcnicos entregados por Sun pueden estar sujetos a la normativa de control de las exportaciones de Estados Unidos o las leyes de otros pases. El Cliente se compromete a cumplir con dichas leyes y a obtener las licencias de exportacin y re-exportacin o importacin, lo que fuera aplicable. El Cliente se compromete a no exportar o re-exportar productos, servicios y datos tcnicos a entidades incluidas en las listas de exclusin de exportaciones de Estados Unidos o a cualquier pas sujeto a embargo o controles de terrorismo por parte de Estados Unidos. El Cliente se compromete a no utilizar o prestar los productos, servicios y datos tcnicos para uso en armamento nuclear, misiles o armas qumicas. ESTA DOCUMENTACIN SE ENTREGA TAL CUAL, SIN GARANTA DE NINGUNA CLASE, NI EXPRESA NI IMPLCITA, LO QUE INCLUYE CUALQUIER GARANTA IMPLCITA DE COMERCIALIZACIN, ADECUACIN A UN PROPSITO ESPECFICO O NO INFRACCIN, HASTA EL LMITE EN QUE TALES EXENCIONES NO SE CONSIDEREN VLIDAS EN TRMINOS LEGALES. STE ES UN MANUAL DE REFERENCIA DISEADO PARA UTILIZARSE EN CURSOS PRESENCIALES. EL MANUAL NO ES UNA HERRAMIENTA DE FORMACIN INDEPENDIENTE. NO SE RECOMIENDA ESTUDIAR SU CONTENIDO SIN ASISTIR AL CURSO. Nmero de clasificacin de control de exportaciones (ECCN): 12 diciembre 2001
Papel reciclable
Contenido
Acerca de este curso ............................................................ Prlogo-i Finalidad del curso ................................................................ Prlogo-i Mapa del curso ....................................................................... Prlogo-ii Temas no incluidos ...............................................................Prlogo-iii Est preparado? .................................................................... Prlogo-v Presentaciones .......................................................................Prlogo-vi Cmo utilizar los materiales del curso .............................Prlogo-vii Convenciones.......................................................................Prlogo-viii Iconos ...........................................................................Prlogo-viii Convenciones tipogrficas.......................................... Prlogo-ix Descripcin de la configuracin de interfaz ..................................1-1 Objetivos............................................................................................. 1-1 Control y monitorizacin de las interfaces de red ........................ 1-2 Obtencin de la direccin MAC.............................................. 1-2 Obtencin de la direccin IP .................................................. 1-3 Desactivacin de una interfaz Ethernet ................................. 1-3 Envo de paquetes ICMP ECHO_REQUEST.............................. 1-4 Captura e inspeccin de paquetes de red............................. 1-5 Configuracin de interfaces IPv4 durante el arranque ................ 1-6 Introduccin a los archivos de la interfaz IPv4 .................... 1-6 Cambio del nombre del host del sistema ........................... 1-11 Ejercicio: comandos de red de Solaris........................................... 1-14 Preparacin .............................................................................. 1-14 Tarea.......................................................................................... 1-14 Resumen del ejercicio ...................................................................... 1-16 Soluciones del ejercicio: comandos de red de Solaris ................. 1-17 Preparacin .............................................................................. 1-17 Tareas y soluciones ................................................................ 1-17 Descripcin del modelo cliente-servidor .......................................2-1 Objetivos............................................................................................. 2-1 Introduccin a los procesos cliente-servidor ................................. 2-2 Introduccin a los procesos del cliente .................................. 2-2 Introduccin a los procesos del servidor.............................. 2-4
1
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
Service Management Facility ........................................................... 2-6 Servicios SMF............................................................................. 2-6 Identificadores de servicios .................................................... 2-8 Estados de los servicios.......................................................... 2-11 Estados gua............................................................................. 2-13 Demonio svc.startd............................................................ 2-15 Repositorio de configuracin de servicios ......................... 2-16 Inicio de los procesos del servidor ................................................ 2-17 Introduccin al demonio de los servicios de Internet (inetd)................................................................................... 2-17 Impacto de SMF en los servicios de red ....................................... 2-20 Introduccin a los puertos de red........................................ 2-22 Inicio de los servicios que utilizan un puerto bien conocido ................................................................................ 2-23 Inicio de los servicios RPC.................................................... 2-26 Uso de los comandos rpcinfo.............................................. 2-29 Ejercicio: supervisin de redes Solaris .......................................... 2-31 Preparacin .............................................................................. 2-31 Tareas........................................................................................ 2-31 Resumen del ejercicio ...................................................................... 2-35 Soluciones del ejercicio: supervisin de redes Solaris ................ 2-36 Preparacin .............................................................................. 2-36 Tareas y soluciones ................................................................. 2-36 Introduccin al servicio Sun Connection ...................................... 3-1 Objetivos............................................................................................. 3-1 Recursos adicionales.......................................................................... 3-3 Directiva de acceso a los parches de Solaris 10.............................. 3-4 Introduccin a Sun Connection ....................................................... 3-5 Administracin de parches...................................................... 3-6 Modos de Sun Connection...................................................... 3-7 Uso de Update Manager ................................................................. 3-17 Configuracin de una cuenta en lnea de Sun .................... 3-17 Obtencin de un plan de servicios de Sun (opcional) ....... 3-17 Descarga e instalacin del software cliente Update Manager................................................................................. 3-18 Primir inicio de Update Manager......................................... 3-18 Instalacin de actualizaciones con Update Manager.................. 3-27 Configuracin de preferencias de Update Manager................... 3-30 Proxy de Update Manager.............................................................. 3-31 Registro..................................................................................... 3-31 Obtencin, instalacin y configuracin inicial del proxy de Update Manager................................................. 3-32 Configuracin de clientes para utilizar el proxy de Update Manager ........................................................................... 3-34 Administracin de parches desde la lnea de comandos (CLI) ................................................................................................ 3-37
Uso del comando smpatch ............................................................. 3-39 Fases de aplicacin de las actualizaciones........................... 3-39 Ejemplos de comandos........................................................... 3-40 Configuracin del entorno de administracin de parches......... 3-43 Ejemplos de comandos........................................................... 3-43 Uso de la directiva de actualizacin para aplicar actualizaciones..................................................................... 3-45 Ejemplo de uso de la directiva de actualizacin ................ 3-48 Operaciones con varias actualizaciones .............................. 3-53 Autorizacin y autenticacin ................................................ 3-54 Ms informacin .............................................................................. 3-55 Introduccin a la aplicacin web de Sun Connection ................ 3-56 Uso de la aplicacin web de Sun Connection .............................. 3-58 Uso de la funcin de sistemas afectados ............................. 3-67 Administracin de la configuracin de la memoria de intercambio .......................................................................................4-1 Objetivos............................................................................................. 4-1 Introduccin a la memoria virtual................................................... 4-2 RAM fsica.................................................................................. 4-2 Espacio de intercambio ........................................................... 4-3 Sistema de archivos swapfs .................................................... 4-4 Paginacin................................................................................. 4-5 Configuracin del espacio de intercambio..................................... 4-7 Visualizacin de la configuracin de intercambio actual........................................................................................ 4-7 Adicin de espacio de intercambio ........................................ 4-9 Eliminacin de espacio de intercambio ............................... 4-10 Ejercicio: administracin de la configuracin de la utilidad swap.................................................................................. 4-12 Preparacin .............................................................................. 4-12 Tarea.......................................................................................... 4-13 Resumen del ejercicio ...................................................................... 4-16 Soluciones del ejercicio: administracin de la configuracin de la utilidad swap........................................................................ 4-17 Tareas y soluciones ................................................................ 4-18 Administracin de volcados por fallo del sistema y de archivos del ncleo central .............................................................5-1 Objetivos............................................................................................. 5-1 Administracin del comportamiento de los volcados por fallo del sistema............................................................................... 5-2 Volcado por fallo del sistema .................................................. 5-2 Visualizacin de la configuracin de volcado actual........... 5-3 Cambio de la configuracin de volcado por fallo del sistema .................................................................................... 5-4
3
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
Administracin del comportamiento de los archivos del ncleo central................................................................................... 5-6 Archivos del ncleo central ..................................................... 5-6 Visualizacin de la configuracin actual de los archivos del ncleo central ................................................... 5-7 Cambio de configuracin de los archivos del ncleo central.......................................................................... 5-9 Ejercicio: recopilacin de volcados por fallo del sistema y de archivos del ncleo central..................................................... 5-15 Preparacin .............................................................................. 5-15 Tareas........................................................................................ 5-16 Resumen del ejercicio ...................................................................... 5-18 Soluciones del ejercicio: recopilacin de volcados por fallo del sistema y de archivos del ncleo central.................... 5-19 Preparacin .............................................................................. 5-19 Tareas y soluciones ................................................................. 5-20 Configuracin de NFS ..................................................................... 6-1 Introduccin a las ventajas de NFS ................................................. 6-2 Ventajas del acceso a archivos centralizados ....................... 6-3 Ventajas del acceso a software comn ................................... 6-3 Introduccin a los conceptos fundamentales del sistema de archivos distribuido NFS.......................................................... 6-4 Servidor NFS............................................................................. 6-5 Cliente NFS ................................................................................ 6-6 Versin 4 de NFS (NFSv4) ................................................................ 6-7 Seudosistema de archivos........................................................ 6-7 Seguridad optimizada .............................................................. 6-9 Procedimientos compuestos.................................................. 6-10 Atributos extendidos .............................................................. 6-11 Gestores de archivo ................................................................ 6-11 Delegacin................................................................................ 6-12 Configuracin de un servidor NFSv4 .................................. 6-13 Configuracin de un cliente NFSv4 ..................................... 6-15 Administracin de un servidor NFS ............................................. 6-16 Archivos del servidor NFS .................................................... 6-16 Demonios del servidor NFS ................................................. 6-19 Administracin de los demonios del servidor NFS........... 6-22 Comandos del servidor NFS ................................................. 6-23 Configuracindel servidor NFS para compartir recursos ..... 6-24 Administracin del cliente NFS ..................................................... 6-29 Archivos del cliente NFS........................................................ 6-29 Demonios del cliente NFS...................................................... 6-30 Administracin de los demonios del cliente NFS ............. 6-31 Comandos del cliente NFS..................................................... 6-32 Configuracin del cliente NFS para montar recursos ...... 6-33
Habilitacin del registro de eventos del servidor NFS............... 6-38 Principios bsicos del registro de eventos del servidor NFS ......................................................................... 6-38 Configuracin de las rutas de los archivos de registro NFS ......................................................................... 6-39 Inicio del registro NFS........................................................... 6-41 Configuracin del comportamiento del demonio nfslogd................................................................................ 6-42 Administracin de NFS con las herramientas de la carpeta de almacenamiento de Solaris Management Console ............. 6-43 Adicin de un directorio compartido al servidor NFS.........6-43 Montaje de un directorio compartido en el cliente NFS........................................................................................ 6-45 Solucin de errores NFS.................................................................. 6-47 El error rpcbind failure ..................................................... 6-47 Error server not responding ............................................. 6-48 Error NFS client fails a reboot.................................. 6-48 Error service not responding......................................... 6-49 Error program not registered......................................... 6-49 Error stale NFS file handle ............................................. 6-50 Error unknown host............................................................... 6-50 Error mount point .................................................................. 6-50 Error no such file.............................................................. 6-51 Ejercicio: configuracin de NFS ..................................................... 6-52 Preparacin .............................................................................. 6-52 Tareas........................................................................................ 6-52 Resumen del ejercicio ...................................................................... 6-55 Soluciones del ejercicio: configuracin de NFS ........................... 6-56 Preparacin .............................................................................. 6-56 Tareas y soluciones ................................................................. 6-56 Configuracin de AutoFS ................................................................7-1 Objetivos............................................................................................. 7-1 Introduccin a los conceptos fundamentales del sistema de archivos AutoFS......................................................................... 7-2 Sistema de archivos AutoFS .................................................... 7-3 Demonio automountd............................................................. 7-4 Comando automount ............................................................... 7-4 Uso de mapas de montaje automtico ............................................ 7-5 Configuracin del mapa maestro ........................................... 7-6 Identificacin de puntos de montaje para mapas especiales................................................................................. 7-7 Adicin de entradas de mapa directo .................................... 7-8 Adicin de entradas de mapa indirecto............................... 7-11 Actualizacin de los mapas de montaje automtico.......... 7-13 Detencin e inicio del sistema de montaje automtico ..... 7-15
5
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
Ejercicio: uso de la utilidad de montaje automtico ................... 7-17 Preparacin .............................................................................. 7-17 Tareas........................................................................................ 7-17 Resumen del ejercicio ...................................................................... 7-21 Soluciones del ejercicio: uso de la utilidad de montaje automtico...................................................................................... 7-22 Preparacin .............................................................................. 7-22 Tareas y soluciones ................................................................. 7-22 Descripcin de RAID y de Solaris Volume Manager................. 8-1 Objetivos............................................................................................. 8-1 Introduccin a RAID ......................................................................... 8-2 RAID 0 ........................................................................................ 8-2 RAID 1 ........................................................................................ 8-6 RAID 5 ..................................................................................... 8-14 Configuraciones de almacenamiento.................................. 8-17 Introduccin a los conceptos del software Solaris Volume Manager.......................................................................................... 8-21 Volumen lgico ....................................................................... 8-21 Particiones de software .......................................................... 8-22 Introduccin a la base de datos de estado........................... 8-24 Introduccin a las reposiciones en caliente y los grupos de reposiciones en caliente.................................... 8-27 Configuracin del software Solaris Volume Manager.................. 9-1 Objetivos............................................................................................. 9-1 Conceptos de Solaris Volume Manager.......................................... 9-2 Rplicas de la base de datos de estado ........................................... 9-3 Creacin de la base de datos de estado ................................. 9-3 Configuracin de RAID-0 ............................................................... 9-14 Volmenes fraccionados RAID-0 .................................................. 9-15 Creacin de un volumen RAID-0 ........................................ 9-16 Configuracin de RAID-1 ............................................................... 9-29 Creacin de una duplicacin del sistema de archivos raz (/)............................................................................................. 9-32 Escenario ................................................................................. 9-33 Creacin de volmenes RAID-0 ........................................... 9-33 Creacin de volmenes RAID-1 ........................................... 9-45 Configuracin de un sistema x86 para la recuperacin de fallos mediante duplicacin .......................................... 9-62 Desduplicacin del sistema de archivos root (/) ............. 9-69 Ejercicio: duplicacin del sistema de archivos root (/) en sistemas SPARC ............................................................................ 9-71 Preparacin .............................................................................. 9-71 Tarea......................................................................................... 9-72 Resumen del ejercicio ...................................................................... 9-76
Soluciones del ejercicio: duplicacin del sistema de archivos root (/) en sistemas SPARC ....................................................... 9-77 Preparacin .............................................................................. 9-77 Tarea......................................................................................... 9-78 Ejercicio: duplicacin del sistema de archivos root (/) en sistemas x86/x64........................................................................... 9-86 Preparacin .............................................................................. 9-86 Tarea.......................................................................................... 9-87 Resumen del ejercicio ...................................................................... 9-91 Soluciones del ejercicio: duplicacin del sistema de archivos root (/) en sistemas x86/x64 ...................................... 9-92 Preparacin .............................................................................. 9-92 Tarea.......................................................................................... 9-93 Configuracin del control de acceso basado en roles (RBAC).............................................................................................10-1 Objetivos........................................................................................... 10-1 Nociones fundamentales sobre RBAC.......................................... 10-2 Archivos fundamentales de RBAC....................................... 10-2 Roles.......................................................................................... 10-3 Asignacin de perfiles de derechos a los usuarios............ 10-4 Asignacin de perfiles de derechos a roles ........................ 10-8 Asignacin de roles a usuarios .......................................... 10-11 Uso de los roles..................................................................... 10-12 Autorizaciones................................................................................ 10-13 Asignacin de autorizaciones ............................................. 10-15 Asignacin de autorizaciones a cuentas de usuario ....... 10-16 Asignacin de autorizaciones a roles................................. 10-17 Asignacin de autorizaciones a los perfiles de derechos.............................................................................. 10-18 Resumen de los archivos de configuracin de RBAC .............. 10-19 Archivo /etc/user_attr ................................................... 10-19 Archivo /etc/security/prof_attr ............................... 10-20 Archivo /etc/security/exec_attr ............................... 10-22 Archivo /etc/security/auth_attr .............................. 10-24 Administracin de RBAC con Solaris Management Console ......................................................................................... 10-26 Nociones fundamentales sobre la administracin de RBAC .............................................................................. 10-26 Ejercicio: configuracin de RBAC................................................ 10-59 Preparacin ............................................................................ 10-59 Tareas..................................................................................... 10-59 Resumen del ejercicio .................................................................... 10-64 Soluciones del ejercicio: configuracin de RBAC...................... 10-65 Preparacin ............................................................................ 10-65 Tareas y soluciones .............................................................. 10-65
7
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
Administracin de los mensajes del sistema ............................. 11-1 Objetivos........................................................................................... 11-1 Introduccin a la funcin syslog.................................................. 11-2 Concepto de la funcin syslog ............................................ 11-2 Archivo /etc/syslog.conf................................................ 11-3 Demonio syslogd y procesador de macros m4 ................. 11-8 Configuracin del archivo /etc/syslog.conf........................ 11-11 Direccionamiento de los mensajes...................................... 11-11 Detencin e inicio del demonio syslogd.......................... 11-12 Configuracin de la administracin de mensajes de syslog....11-13 Habilitacin del rastreo TCP ............................................... 11-13 Monitorizacin de un archivo syslog en tiempo real .... 11-15 Adicin de entradas de una lnea a un archivo de registro del sistema ........................................................... 11-17 Uso del visualizador de registros de Solaris Management Console................................................................. 11-19 Apertura del visualizador de registros de Solaris Management Console........................................................ 11-19 Visualizacin de un archivo de mensajes de syslog ...... 11-20 Visualizacin de un archivo de registro de Management Tools ............................................................ 11-22 Examen del contenido de un archivo de registro de Management Tools ...................................................... 11-25 Visualizacin de datos de las entradas de registro de Management Tools ....................................................... 11-27 Copia de seguridad de los archivos de registro de Management Tools ........................................................... 11-29 Ejercicio: uso de la funcin syslog y las utilidades de auditora ....................................................................................... 11-33 Preparacin ............................................................................ 11-33 Tareas...................................................................................... 11-33 Resumen del ejercicio .................................................................... 11-39 Soluciones del ejercicio: uso de la funcin syslog y las utilidades de auditora ............................................................... 11-40 Preparacin ............................................................................ 11-40 Tareas y soluciones ............................................................... 11-40 Uso de los servicios de nombres................................................. 12-1 Objetivos........................................................................................... 12-1 Introduccin al concepto de servicio de nombres....................... 12-2 Sistema de nombres de dominio (DNS) .............................. 12-4 NIS (Network Information Service) .................................... 12-6 NIS+ (Network Information Service Plus) ......................... 12-8 LDAP (Lightweight Directory Access Protocol) ................ 12-9 Resumen de caractersticas de los servicios de nombres ............................................................................... 12-11
Introduccin al archivo de cambio de servicio de nombres .......12-12 Fuentes de las bases de datos ............................................. 12-14 Cdigos de estado................................................................. 12-15 Acciones.................................................................................. 12-15 Configuracin el demonio de cach del servicio de nombres (nscd)............................................................................ 12-17 Demonio nscd ....................................................................... 12-17 Configuracin del demonio nscd....................................... 12-17 Detencin e inicio del demonio nscd................................. 12-19 Recuperacin de la informacin del servicio de nombres ....... 12-21 Comando getent.................................................................. 12-21 Uso del comando getent ................................................... 12-22 Ejercicio: repaso de los servicios de nombres ............................ 12-23 Preparacin ............................................................................ 12-23 Tareas...................................................................................... 12-23 Resumen del ejercicio .................................................................... 12-25 Soluciones de las tareas....................................................... 12-26 Configuracin de los clientes del servicio de nombres .............13-1 Objetivos........................................................................................... 13-1 Configuracin de un cliente DNS.................................................. 13-2 Configuracin del cliente DNS durante la instalacin ...... 13-2 Edicin de los archivos de configuracin de clientes DNS.......................................................................... 13-5 Configuracin de un cliente LDAP ............................................... 13-7 Autenticacin de clientes ....................................................... 13-7 Perfil de cliente y cuenta proxy............................................. 13-8 Inicializacin de clientes ........................................................ 13-8 Configuracin del cliente LDAP durante la instalacin ............................................................................ 13-9 Inicializacin del cliente Native LDAP.............................. 13-12 Copia del archivo /etc/nsswitch.ldap en el archivo /etc/nsswitch.conf......................................... 13-14 Visualizacin de las entradas de LDAP............................. 13-15 Desconfiguracin de un cliente LDAP............................... 13-16 Ejercicio: configuracin de un sistema para que utilice DNS y LDAP................................................................................ 13-17 Preparacin ............................................................................ 13-17 Tarea........................................................................................ 13-17 Resumen del ejercicio .................................................................... 13-19 Soluciones del ejercicio: configuracin de un sistema para que utilice DNS y LDAP ................................................... 13-20 Preparacin ............................................................................ 13-20 Tareas y soluciones ............................................................... 13-20
9
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
Configuracin del servicio NIS (Network Information Service) .... 14-1 Objetivos........................................................................................... 14-1 Nociones fundamentales de NIS ................................................... 14-2 Informacin del espacio de nombres de NIS ...................... 14-2 Dominios NIS .......................................................................... 14-4 Procesos de NIS...................................................................... 14-6 Configuracin del archivo de cambio de servicio de nombres .......................................................................................... 14-9 Cambio de las peticiones de bsqueda para pasar de los archivos locales a NIS ............................................ 14-10 Cambio de las peticiones de bsqueda para pasar de NIS a los archivos locales ............................................ 14-11 Introduccin a la seguridad de NIS ............................................ 14-13 Archivo securenets............................................................ 14-13 Archivo passwd.adjunct ................................................... 14-14 Configuracin del dominio NIS................................................... 14-15 Generacin de los mapas de NIS ........................................ 14-15 Configuracin del servidor NIS maestro........................... 14-19 Comprobacin del servicio NIS .......................................... 14-22 Configuracin del cliente NIS ............................................. 14-23 Configuracin del servidor NIS esclavo............................ 14-24 Actualizacin del mapa de NIS .......................................... 14-26 Actualizacin del mapa de contraseas de NIS ............... 14-26 Actualizacin del mapa timezone de NIS........................ 14-27 Creacin de mapas de NIS personalizados................................ 14-31 Uso del comando make......................................................... 14-31 Edicin del archivo Makefile de NIS .............................. 14-32 Solucin de problemas de NIS ..................................................... 14-36 Examen de los mensajes de error de los servidores NIS .................................................................... 14-36 Solucin de los mensajes de error de los clientes NIS ......................................................................... 14-39 Ejercicio: configuracin de NIS .................................................... 14-41 Preparacin ............................................................................ 14-41 Tareas..................................................................................... 14-42 Resumen del ejercicio .................................................................... 14-50 Soluciones del ejercicio: configuracin de NIS .......................... 14-51 Preparacin ............................................................................ 14-51 Tareas y soluciones .............................................................. 14-52 Introduccin a las zonas ............................................................... 15-1 Objetivos........................................................................................... 15-1 Introduccin a Zonas de Solaris..................................................... 15-2 Soluciones de consolidacin de servidores ......................... 15-2 Uso de recursos compartidos ................................................ 15-3 Caractersticas de las zonas ................................................... 15-4
10
Conceptos sobre las zonas .............................................................. 15-6 Tipos de zonas ......................................................................... 15-6 Demonios de las zonas .......................................................... 15-8 Sistemas de archivos de las zonas ........................................ 15-8 Configuracin de red de las zonas ..................................... 15-10 Estados de las zonas ............................................................. 15-11 Configuracin de las zonas........................................................... 15-13 Identificacin de los componentes de la zona .................. 15-13 Asignacin del espacio para los sistemas de archivos........15-13 Uso del comando zonecfg .................................................. 15-14 Parmetros de los recursos de zonecfg ............................ 15-16 Proceso de configuracin de zonas ................................... 15-18 Visualizacin de la configuracin de las zonas ................ 15-21 Uso del comando zoneadm ........................................................... 15-22 Verificacin de una zona configurada ............................... 15-22 Instalacin de una zona configurada ................................. 15-23 Arranque de una zona.......................................................... 15-23 Detencin de una zona......................................................... 15-24 Reinicio de una zona ............................................................ 15-24 Inicio de sesin y operaciones en la zona.......................... 15-24 Traslado de una zona ........................................................... 15-26 Migracin de una zona.................................................................. 15-27 Supresin de una zona ......................................................... 15-29 Instalacin de paquetes en las zonas........................................... 15-30 Operaciones posibles con los paquetes en la zona global.................................................................................... 15-32 Operaciones posibles con los paquetes en una zona no global .............................................................................. 15-33 Actualizacin de sistemas Solaris 10 que tienen zonas no globales instaladas................................................................. 15-34 Discos de instalacin de Solaris .......................................... 15-34 Actualizacin de Solaris 10.................................................. 15-35 Ejercicio: configuracin de zonas................................................. 15-39 Preparacin ............................................................................ 15-39 Tarea 1: creacin e instalacin de una zona no global..... 15-40 Tarea 2: administracin de usuarios y datos en las zonas .............................................................................. 15-42 Tarea 3: instalacin de paquetes de software en las zonas ............................................................................. 15-43 Tarea 4: supresin de zonas................................................. 15-44 Resumen del ejercicio .................................................................... 15-45 Soluciones del ejercicio.................................................................. 15-46 Preparacin ............................................................................ 15-46 Tarea 1: creacin e instalacin de una zona no global..... 15-47 Tarea 2: administracin de usuarios y datos en las zonas .............................................................................. 15-53
11
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
Tarea 3: instalacin de paquetes de software en las zonas ................................................................................... 15-55 Tarea 4: supresin de zonas................................................. 15-59 Introduccin al sistema de archivos ZFS .................................... 16-1 Objetivos........................................................................................... 16-1 Qu es ZFS ........................................................................................ 16-2 Grupos de almacenamiento de ZFS ..................................... 16-2 Semntica transaccional ........................................................ 16-3 Sumas de comprobacin y reparacin automtica ............ 16-3 Capacidad de ampliacin incomparable ............................. 16-3 Instantneas de ZFS................................................................ 16-4 Administracin ms sencilla ................................................. 16-4 Terminologa de ZFS ....................................................................... 16-5 Nomenclatura de los componentes de ZFS.................................. 16-7 Requisitos y recomendaciones sobre el software y el hardware para ZFS ..................................................................... 16-7 Creacin de un sistema de archivos ZFS bsico.......................... 16-8 Componentes de un grupo de almacenamiento de ZFS ............ 16-9 Uso de los discos en un grupo de almacenamiento de ZFS .................................................................................... 16-9 Uso de los archivos en un grupo de almacenamiento de ZFS .................................................................................. 16-10 Dispositivos virtuales en el grupo de almacenamiento ................................................................. 16-11 Funciones de rplica de los grupos de almacenamiento de ZFS ........................................................................................... 16-12 Configuracin de grupos de almacenamiento duplicados........................................................................... 16-12 Grupos de almacenamiento en configuracin RAID-Z ...... 16-12 Reparacin automtica de los datos en una configuracin replicada..................................................... 16-13 Configuracin del grupo de almacenamiento en bandas dinmicas............................................................... 16-14 Creacin y destruccin de grupos de almacenamiento de ZFS ........................................................................................... 16-15 Creacin de un grupo de almacenamiento de ZFS .......... 16-15 Manejo de los errores de creacin de grupos de almacenamiento de ZFS .................................................... 16-17 Destruccin de grupos de almacenamiento de ZFS......... 16-18 Consulta del estado de los grupos de almacenamiento de ZFS ........................................................................................... 16-19 Informacin bsica sobre los grupos de almacenamiento de ZFS .................................................... 16-19 Visualizacin de las estadsticas de grupos de almacenamiento concretos................................................ 16-20
12
Estado de los grupos de almacenamiento de ZFS..................... 16-21 Estado bsico de los grupos de almacenamiento ............. 16-22 Estado detallado.................................................................... 16-22 Creacin y destruccin de sistemas de archivos ZFS ............... 16-23 Creacin de un sistema de archivos ZFS ........................... 16-23 Destruccin de un sistema de archivos ZFS ..................... 16-24 Cambio de nombre de un sistema de archivos ZFS......... 16-25 Propiedades de ZFS ....................................................................... 16-27 Propiedades de slo lectura de ZFS ................................... 16-35 Propiedades configurables de ZFS ..................................... 16-35 Consulta de la informacin de los sistemas de archivos ZFS........ 16-37 Visualizacin de la informacin bsica de ZFS ................ 16-37 Creacin de consultas complejas de ZFS........................... 16-38 Administracin de las propiedades de ZFS ............................... 16-40 Configuracin de las propiedades de ZFS ........................ 16-40 Herencia de las propiedades de ZFS.................................. 16-41 Consulta de las propiedades de ZFS.................................. 16-42 Montaje de sistemas de archivos ZFS ......................................... 16-44 Administracin de puntos de montaje en ZFS ................. 16-44 Montaje de sistemas de archivos ZFS ................................ 16-46 Propiedades de montaje temporales .................................. 16-47 Desmontaje de los sistemas de archivos ZFS.................... 16-48 Administracin de ZFS mediante una interfaz web ................. 16-49 Instantneas de ZFS....................................................................... 16-50 Creacin y destruccin de instantneas de ZFS ............... 16-50 Visualizacin y acceso a las instantneas de ZFS............. 16-52 Restablecimiento de una instantnea anterior de ZFS .... 16-53 Clones de ZFS ................................................................................. 16-54 Creacin de un clon de ZFS................................................. 16-54 Destruccin de un clon de ZFS ........................................... 16-55 Sustitucin de un sistema de archivos ZFS por un clon ................................................................................. 16-55 Uso de ZFS en un sistema Solaris con zonas instaladas........... 16-57 Adicin de sistemas de archivos ZFS a una zona no global .............................................................................. 16-57 Delegacin de los conjuntos de datos a una zona no global .............................................................................. 16-58 Uso de los grupos de almacenamiento de ZFS dentro de una zona......................................................................... 16-59 Administracin de propiedades dentro de una zona...... 16-59 Descripcin de la propiedad zoned ................................... 16-61 Ejercicio: introduccin al sistema de archivos ZFS ................... 16-63 Preparacin ............................................................................ 16-63 Resumen del ejercicio ........................................................... 16-63 Tarea 1: creacin y destruccin de grupos de almacenamiento de ZFS .................................................... 16-64
13
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
Tarea 2: creacin y destruccin de sistemas de archivos ZFS ...................................................................... 16-67 Tarea 3: operaciones con las propiedades de ZFS........... 16-69 Tarea 4: montaje de sistemas de archivos ZFS................. 16-72 Tarea 5: operaciones con instantneas y clones de ZFS ................................................................................. 16-74 Tarea 6: operaciones con conjuntos de datos ZFS en las zonas no globales ........................................................ 16-76 Tarea 7: supresin de la zona y la configuracin de ZFS ................................................................................. 16-80 Resumen del ejercicio .................................................................... 16-81 Soluciones del ejercicio: introduccin al sistema de archivos ZFS ................................................................................ 16-82 Preparacin ............................................................................ 16-82 Resumen del ejercicio .......................................................... 16-83 Tarea 1: creacin y destruccin de grupos de almacenamiento de ZFS .................................................... 16-83 Tarea 2: creacin y destruccin de sistemas de archivos ZFS ...................................................................... 16-90 Tarea 3: operaciones con las propiedades de ZFS........... 16-93 Tarea 4: montaje de sistemas de archivos ZFS................. 16-99 Tarea 5: operaciones con instantneas y clones de ZFS ............................................................................... 16-103 Tarea 6: operaciones con conjuntos de datos de ZFS en las zonas no globales ................................................. 16-109 Tarea 7: supresin de la zona y la configuracin de ZFS ............................................................................... 16-120
14
Prlogo
Describir los conceptos bsicos de las redes. Administrar sistemas de archivos virtuales y volcados del ncleo del sistema. Administrar volmenes de almacenamiento. Controlar los accesos y configurar el servicio de mensajera del sistema. Configurar los servicios de nombres. Realizar procedimientos de instalacin avanzados.
Prlogo-i
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
Configuring NFS
Configuring AutoFS
Configuring Virtualization
Introduction to Zones
Configuring ZFS
Prlogo-ii
Temas no incluidos
Temas no incluidos
En este curso no se tratan los temas indicados a continuacin. Muchos de ellos forman parte de otros cursos que ofrecen los Servicios de Formacin Sun.
Comandos bsicos de UNIX (curso SA-100-S10): Administracin de Sistemas Solaris 10: Nivel Bsico Editor vi (curso SA-100-S10): Administracin de Sistemas Solaris 10: Nivel Bsico Proteccin de archivos bsica de UNIX (curso SA-100-S10): Administracin de Sistemas Solaris 10: Nivel Bsico Administracin de paquetes de software (curso SA-200-S10): Administracin de Sistemas Solaris 10: Nivel Intermedio Mantenimiento de parches (curso SA-200-S10): Administracin de Sistemas Solaris 10: Nivel Intermedio Incorporacin de usuarios mediante el software Solaris Management Console (curso SA-200-S10): Administracin de Sistemas Solaris 10: Nivel Intermedio Medidas bsicas de seguridad del sistema (curso SA-100-S10): Administracin de Sistemas Solaris 10: Nivel Bsico Administracin de archivos de inicializacin (curso SA-200-S10): Administracin de Sistemas Solaris 10: Nivel Intermedio Permisos de archivos avanzados (curso SA-200-S10): Administracin de Sistemas Solaris 10: Nivel Intermedio Copia de seguridad y recuperacin de datos (curso SA-200-S10): Administracin de Sistemas Solaris 10: Nivel Intermedio Servicio de impresin lp y comandos de impresin (curso SA-200-S10): Administracin de Sistemas Solaris 10: Nivel Intermedio Control de procesos (curso SA-200-S10): Administracin de Sistemas Solaris 10: Nivel Intermedio Funciones nuevas de Solaris 10 (curso SA-225S10): Solaris 10 para Administradores de Sistemas con Experiencia Solucin de problemas de hardware o software (curso ST-350): Anlisis de errores del sistema Optimizacin del sistema (curso SA-400): Monitorizacin y Optimizacin de Sistemas Solaris
Prlogo-iii
Temas no incluidos
Programacin shell detallada (curso SA-245): Programacin Shell para Administradores de Sistemas Conceptos detallados de administracin de redes (curso SA-300-S10): Administracin de Redes Solaris 10 Consulte el catlogo de Sun Services para obtener informacin detallada sobre los cursos y la inscripcin.
Prlogo-iv
Est preparado?
Est preparado?
Si responde afirmativamente a las siguientes preguntas, se puede considerar preparado para realizar el curso.
Sabe instalar e iniciar el sistema operativo Solaris 10 (SO Solaris 10) en una estacin de trabajo independiente? Sabe implementar las medidas bsicas de seguridad del sistema? Sabe agregar usuarios al sistema con Solaris Management Console? Sabe cmo utilizar el comando pkgadd para agregar paquetes de software? Es capaz de monitorizar y montar sistemas de archivos? Sabe administrar dispositivos de disco y procesos? Sabe hacer copias de seguridad y restaurar datos?
Prlogo-v
Presentaciones
Presentaciones
Despus de esta introduccin sobre el curso, ha llegado el momento de presentarse a los dems alumnos y al profesor. Para ello, indique lo siguiente:
Nombre Empresa Cargo, funcin y responsabilidad Experiencia relacionada con los temas de este curso Razones para inscribirse en el curso Expectativas del curso
Prlogo-vi
Objetivos: despus de cubrir una parte del contenido del curso, debera estar en disposicin de cumplir los objetivos. Los objetivos permiten alcanzar la meta y lograr otros objetivos ms altos. Clase terica: el profesor ofrecer informacin relacionada con el objetivo del mdulo. Esta informacin ayudar a adquirir los conocimientos necesarios para realizar correctamente las actividades. Actividades: las actividades son de diversa ndole, como ejercicios, autoevaluaciones, discusiones y demostraciones. El objetivo de las actividades es facilitar el dominio de una materia. Ayuda visual: el profesor puede utilizar este tipo de ayuda para explicar de forma grfica un concepto, como un proceso. La ayuda visual suele constar de grficos, imgenes animadas y vdeo.
Nota Muchas tareas de administracin de Solaris se pueden llevar a cabo de varias maneras. Durante el curso se aplicarn las prcticas que recomiendan los Servicios de Formacin Sun.
Prlogo-vii
Convenciones
Convenciones
En este curso se usan convenciones para representar varios elementos de formacin y recursos de aprendizaje alternativos.
Iconos
Discusin Indica que es aconsejable entablar un debate general o en grupos reducidos sobre el tema actual.
!
?
Nota Indica la existencia de informacin adicional que puede ayudar al alumno, pero que no es crucial para entender el concepto que se est explicando. El alumno debera ser capaz de entender el concepto o de realizar la tarea sin esta informacin. En las notas se incluyen los mtodos abreviados del teclado y los ajustes menores del sistema, entre otros. Atencin Indica que existe el riesgo de causar lesiones personales por causas no elctricas, o daos irreversibles en los datos, el software o el sistema operativo. Advierte de un posible riesgo (del que no se tiene certeza), que depende de la accin que realice el usuario. Usuario avanzado Indica la existencia de otros temas, ideas o datos opcionales relacionados con la materia.
Prlogo-viii
Convenciones
Convenciones tipogrficas
El tipo de letra que se utiliza en los nombres de comandos, archivos, directorios, usuarios y sistemas, as como en el cdigo de programacin y los mensajes del sistema en pantalla, es Courier; por ejemplo: Utilice ls -al para ver la lista completa de archivos. host1# cd /home Los nmeros y caracteres que introduce el usuario aparecen en Courier negrita; por ejemplo: Para ver la lista de archivos de este directorio, escriba: # ls Las variables y los marcadores de la lnea de comandos que se reemplazan por un nombre o valor real aparecen en Courier cursiva; por ejemplo: Para eliminar un archivo, utilice el comando rm nombrearchivo. Las variables cuyos valores debe introducir el alumno durante un ejercicio aparecen en Courier cursiva y negrita; por ejemplo: Escriba chmod a+rwx nombrearchivopara garantizar derechos de lectura, escritura y ejecucin sobre nombrearchivo. El uso de Palatino cursiva indica que se trata de ttulos de libros, palabras o trminos nuevos o palabras en las que se quiere hacer nfasis; por ejemplo: Consulte el Captulo 6 del Manual del usuario. Se denominan opciones de clase.
Prlogo-ix
Mdulo 1
Controlar y monitorizar las interfaces de red. Configurar la versin 4 del protocolo de Internet (IPv4) durante el arranque.
1-1
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
Con el comando ifconfig -a Con el comando banner de la PROM (memoria de slo lectura programable) de arranque
Nota El acceso a la direccin MAC slo est permitido al usuario root. # ifconfig -a lo0: flags=1000849<UP,LOOPBACK,RUNNING,MULTICAST,IPv4,VIRTUAL> mtu 8232 index 1 inet 127.0.0.1 netmask ff000000 nge0: flags=1000843<UP,BROADCAST,RUNNING,MULTICAST,IPv4> mtu 1500 index 2 inet 192.168.30.41 netmask ffffff00 broadcast 192.168.30.255 ether 8:0:20:93:c9:af En este ejemplo, la direccin MAC es 8:0:20:93:c9:af. Si ejecuta el comando banner en el indicador ok, puede obtener la direccin MAC de un sistema SPARC que todava no se ha iniciado. ok banner Sun Ultra 5/10 UPA/PCI (UltraSPARC-IIi 300MHz), Keyboard Present OpenBoot 3.31 256 MB (60ns) memory installed, Serial #9685423. Ethernet address 8:0:20:93:c9:af, Host ID: 8093c9af.
1-2
Obtencin de la direccin IP
El comando ifconfig -a muestra la configuracin actual de las interfaces de red. Si se agrega la opcin -a, el comando ifconfig presenta la configuracin actual de todas las interfaces de red del sistema. # ifconfig -a lo0: flags=1000849<UP,LOOPBACK,RUNNING,MULTICAST,IPv4,VIRTUAL> mtu 8232 index 1 inet 127.0.0.1 netmask ff000000 nge0: flags=1000843<UP,BROADCAST,RUNNING,MULTICAST,IPv4> mtu 1500 index 2 inet 192.168.30.41 netmask ffffff00 broadcast 192.168.30.255 ether 8:0:20:93:c9:af En este ejemplo, la interfaz loopback (lo0) est activada, funcionando y configurada con la direccin IP de 127.0.0.1. La interfaz nge0 tambin est activada y funcionando y tiene la direccin IP de 192.168.30.41.
1-3
Control y monitorizacin de las interfaces de red En el ejemplo siguiente se muestra la aparicin del estado UP en el campo de marcas de la salida del comando ifconfig cuando la interfaz est activa: # ifconfig nge0 up # ifconfig -a lo0: flags=1000849<UP,LOOPBACK,RUNNING,MULTICAST,IPv4,VIRTUAL> mtu 8232 index 1 inet 127.0.0.1 netmask ff000000 nge0: flags=1000843<UP,BROADCAST,RUNNING,MULTICAST,IPv4> mtu 1500 index 2 inet 192.168.30.41 netmask ffffff00 broadcast 192.168.30.255 ether 8:0:20:93:c9:af
La interfaz debe estar abierta. La interfaz debe estar configurada. La interfaz debe estar activa. La interfaz debe estar fsicamente conectada. La interfaz debe tener configuradas rutas vlidas.
Para obtener ms informacin sobre el comando ifconfig y las interfaces abiertas, consulte la pgina del comando man de ifconfig. Nota La configuracin de las rutas se trata en los niveles avanzados. Los conceptos detallados de administracin de redes se describen en el curso SA300: Administracin de Redes Solaris 10.
1-4
1-5
Servicio svc:/network/physical:default
El servicio svc:/network/physical:default ejecuta la secuencia de comandos del mtodo /lib/svc/method/net-physical. Se trata de una de las secuencias de inicio que se ejecuta cada vez que se arranca el sistema. Esta secuencia emplea la utilidad ifconfig para configurar cada interfaz con una direccin IP, adems de otra informacin necesaria de la red. La secuencia busca los archivos denominados hostname.xxn en el directorio /etc, donde xx corresponde a un tipo de interfaz y n es la instancia de la interfaz. Por cada archivo /etc/hostname.xxn que encuentra, la secuencia utiliza el comando ifconfig con la opcin plumb a fin de preparar al kernel para que se comunique con este tipo de interfaz. Luego utiliza otras opciones del comando ifconfig para configurar la interfaz designada. El archivo /etc/hostname.nge0 constituye un ejemplo de archivo de configuracin de interfaz. Nota El archivo /etc/rcS.d/S30network.sh desempea la misma funcin en Solaris 8 y 9. Antes de Solaris 8 se utilizaba el archivo /etc/rcS.d/S30rootusr.sh.
1-6
Archivo /etc/hostname.xxn
El archivo /etc/hostname.xxn contiene una entrada para configurar la interfaz correspondiente. La variable que aparece en el nombre del archivo se reemplaza por un tipo de interfaz y un nmero que identifican una interfaz entre varias de las interfaces del mismo tipo que hay configuradas en el sistema. En la Tabla 1-1 se muestran ejemplos de entradas de archivos correspondientes a interfaces Ethernet que suelen encontrarse en los sistemas Sun. Tabla 1-1 Entradas del archivo /etc/hostname.xxn e interfaces correspondientes Entrada /etc/hostname.e1000g0 /etc/hostname.e1000g1 /etc/hostname.bge0 /etc/hostname.bge1 /etc/hostname.ce0 /etc/hostname.qfe0 /etc/hostname.hme0 /etc/hostname.eri0 /etc/hostname.nge0 Interfaz Primera interfaz Ethernet e1000g (controlador Intel PRO/1000 Gigabit) del sistema Segunda interfaz Ethernet e1000g del sistema Primera interfaz Ethernet bge (controlador Broadcom Gigabit Ethernet) del sistema Segunda interfaz Ethernet bge del sistema Primera interfaz Ethernet ce (controlador Cassini GigabitEthernet) del sistema Primera interfaz Ethernet qfe (controlador Quad FastEthernet) del sistema Primera interfaz Ethernet hme (controlador Fast-Ethernet) del sistema Primera interfaz Ethernet eri (controlador eri Fast-Ethernet) del sistema Primera interfaz Ethernet nge (controlador Nvidia Gigabit Ethernet) del sistema
Los cdigos de los tipos de interfaz son cdigos de producto y tienen distinto origen. Por ejemplo, el cdigo e1000g corresponde a Intel PRO/1000 Gigabit, mientras que el cdigo bge es la abreviatura de Broadcom Gigabit Ethernet.
1-7
NOTAS:
Realice una pausa para atender a los comentarios del profesor antes de continuar.
El archivo /etc/hostname.nge0 incluye el nombre del host o la direccin IP del sistema que contiene la interfaz nge0. El archivo /etc/inet/hosts debe contener el nombre del host incluido en el archivo para que sea posible asignarle una direccin IP durante el arranque del sistema. El archivo /etc/hostname.nge0 se puede modificar para que contenga el nombre del host o la direccin IP que aparece en el archivo /etc/inet/hosts.
1-8
Configuracin de interfaces IPv4 durante el arranque # cat /etc/hostname.nge0 sys41 o bien # cat /etc/hostname.nge0 192.168.30.41
Archivo /etc/inet/hosts
El archivo /etc/inet/hosts es una base de datos local que asocia las direcciones IP de los hosts con sus nombres. El archivo /etc/inet/hosts se puede utilizar con otras bases de datos de host, o en lugar de ellas, lo que incluye el servicio de nombres de dominio (DNS), el mapa de sistemas de Network Information Service (NIS) y la tabla de sistemas de Network Information Service Plus (NIS+). Los programas utilizan interfaces de biblioteca para acceder a la informacin del archivo /etc/inet/hosts. El archivo /etc/inet/hosts contiene la informacin de loopback y del host como mnimo. Adems, dispone de una entrada para cada direccin IP de cada host. Si el host tiene varias direcciones IP, el archivo incluye una entrada para cada direccin en lneas separadas. El formato de cada lnea es el siguiente: direccin-IP nombre-host-oficial [alias]. . . Cada elemento se separa mediante una serie de espacios o caracteres de tabulacin. El primer elemento de cada lnea es la direccin IP del host. La segunda entrada corresponde al nombre oficial del host. Las entradas siguientes de la misma lnea corresponden a los nombres alternativos de la misma mquina, tambin conocidos como sobrenombres. Los sobrenombres son opcionales. # cat /etc/inet/hosts . <output truncated> . 127.0.0.1 localhost . <output truncated> . 192.168.30.41 sys41 . <output truncated> .
loghost
Nota El nombre SVr4 (sistema V, versin 4) oficial del archivo hosts es /etc/inet/hosts. La existencia del enlace simblico /etc/inet/hosts garantiza la compatibilidad BSD (Berkeley Software Distribution).
1-9
Archivo /etc/inet/ipnodes
El archivo ipnodes es una base de datos local que asocia los nombres de los nodos con sus direcciones IP (Protocolo de Internet). El archivo ipnodes se puede utilizar con otras bases de datos ipnodes, o en lugar de ellas, lo que incluye el servicio de nombres de dominio (DNS), el mapa de ipnodes de NIS y LDAP. El archivo ipnodes incluye una entrada para cada direccin IP de cada nodo y puede contener direcciones IPv4 o IPv6. Si un nodo tiene varias direcciones IP, el archivo incluye una entrada para cada direccin en lneas consecutivas. El formato de cada lnea es el siguiente: direccin-IP nombre-nodo-oficial sobrenombres... Cada elemento se separa mediante una serie de espacios o caracteres de tabulacin. El primer elemento de cada lnea es la direccin IP del host. La segunda entrada corresponde al nombre oficial del host. Las entradas siguientes de la misma lnea corresponden a los nombres alternativos de la misma mquina, tambin conocidos como sobrenombres. Los sobrenombres son opcionales. # cat /etc/inet/ipnodes # # Internet host table # ::1 localhost 127.0.0.1 localhost 192.168.30.41 sys41
loghost
Las direcciones IP se pueden definir en el archivo ipnodes o en el archivo hosts. La bsqueda comienza en el archivo ipnodes y contina en el archivo hosts.
1-10
Nota Cuando se habilita el volcado por fallo del sistema, el nombre del sistema se cambia en /var/crash. Las versiones anteriores de Solaris tambin incluan el hostname en archivos del directorio /etc/net/tic*/*.
1-11
Comando sys-unconfig
El comando /usr/sbin/sys-unconfig permite deshacer la configuracin de un sistema. El comando /usr/sbin/sys-unconfig se puede utilizar para desconfigurar el sistema y dejarlo listo para configurarlo de nuevo.
1-12
Configuracin de interfaces IPv4 durante el arranque El comando sys-unconfig realiza las siguientes funciones:
Guarda la informacin del archivo /etc/inet/hosts actual en el archivo /etc/inet/hosts.saved. Si el archivo /etc/vfstab actual contiene entradas para montar sistemas de archivos de red (NFS), lo guarda en el archivo /etc/vfstab.orig. Restaura el archivo /etc/inet/hosts predeterminado. Suprime de los archivos /etc/hostname.xxn el nombre de host predeterminado de todas las interfaces configuradas. Suprime el nombre de dominio predeterminado del archivo /etc/defaultdomain. Restaura PST8PDT como zona horaria en el archivo /etc/TIMEZONE. Restablece los servicios de nombres en los archivos locales. Suprime el archivo /etc/inet/netmasks. Suprime el archivo /etc/defaultrouter. Suprime la contrasea del usuario root definida en el archivo /etc/shadow. Suprime el archivo /etc/.rootkey correspondiente a NIS+. Ejecuta todas las aplicaciones de configuracin del sistema. Estas aplicaciones se definen en ejecuciones anteriores del comando sysidconfig -a. Suprime el archivo /etc/resolv.conf correspondiente a clientes DNS. Inhabilita LDAP (Protocolo de acceso a directorios ligeros) mediante la eliminacin de los siguientes archivos:
Cuando el comando sys-unconfig termina de ejecutarse, el sistema se cierra. El uso del comando sys-unconfig puede resultar peligroso, por lo que slo debe ejecutarlo el usuario root. Cuando se reinicia el sistema, una secuencia de configuracin insta a configurar la informacin del sistema. El comando sys-unconfig no est disponible en clientes sin disco.
1-13
Preparacin
Para preparar este ejercicio, lleve a cabo las siguientes tareas:
Compruebe que aparecen dos sistemas en cada archivo /etc/inet/hosts de cada sistema. Trabaje con un compaero y realice todos los pasos de este ejercicio en ambos sistemas, a menos que se indique lo contrario.
Tarea
Para realizar los pasos siguientes, use la utilidad ifconfig, el comando ping y la utilidad snoop. Nota Trabaje en estrecho contacto con su compaero para asegurarse de realizar los mismos pasos. 1. Inicie la sesin como usuario root en ambos sistemas y abra una ventana de terminal. Utilice el comando ifconfig -a para mostrar la informacin de configuracin bsica de las interfaces de red. Qu muestra el comando ifconfig en los atributos siguientes de la interfaz principal (por ejemplo, nge0)? Indique los valores en la Tabla 1-2. Tabla 1-2 Valores de la interfaz principal Atributo Direccin IP Direccin Ethernet Interfaz activa/inactiva 2. Abra una ventana de terminal nueva en ambos sistemas. Introduzca el comando snoop en la nueva ventana para visualizar solamente el trfico de red entre los dos sistemas con los que trabaja. Utilice el comando ping para verificar que su sistema puede establecer el contacto con la interfaz de red del sistema de su compaero. Valor
3.
1-14
Ejercicio: comandos de red de Solaris 4. Examine la salida del comando snoop. Qu protocolo utiliza el comando ping? __________________________________________________________ La salida de snoop contiene solicitudes y respuestas (s o no)? Solicitudes: 5. Respuestas: Utilice el comando ifconfig en un sistema para marcar su interfaz principal como inactiva. A continuacin, vuelva a usarlo para mostrar la informacin de configuracin. Advierta a su compaero de que la interfaz del sistema se desactivar. Ha experimentado algn cambio la informacin que muestra el comando ifconfig? __________________________________________________________ 6. Intente utilizar el comando ping en el sistema cuya interfaz permanece activa para establecer el contacto con el sistema cuya interfaz est inactiva. Qu informacin presenta el comando ping? __________________________________________________________ 7. Examine la salida de la utilidad snoop en ambos sistemas. Qu diferencias presentan la salida de snoop y la salida del comando ping antes y despus de marcar la interfaz como inactiva? __________________________________________________________ Cuntos solicitudes enva el comando ping de forma predeterminada? __________________________________________________________ Detecta el sistema de destino las solicitudes del comando ping? En caso afirmativo, qu tratamiento reciben estas solicitudes? __________________________________________________________ 8. Utilice el comando ifconfig en el sistema cuya interfaz est inactiva para marcar su interfaz principal como activa. Compruebe que se ha efectuado el cambio. Utilice el comando ping en el sistema cuya interfaz ha permanecido activa para establecer el contacto con el otro sistema. Qu informacin presenta el comando ping? __________________________________________________________ Presenta la utilidad snoop una respuesta del host de destino? __________________________________________________________
9.
1-15
!
?
1-16
Preparacin
Para preparar este ejercicio, lleve a cabo las siguientes tareas:
Compruebe que aparecen dos sistemas en cada archivo /etc/inet/hosts de cada sistema. Trabaje con un compaero y realice todos los pasos de este ejercicio en ambos sistemas, a menos que se indique lo contrario.
Tareas y soluciones
En esta seccin se describen las tareas realizadas y se proporcionan las soluciones. Para realizar los pasos siguientes, use la utilidad ifconfig, el comando ping y la utilidad snoop. Nota Trabaje en estrecho contacto con su compaero para asegurarse de realizar los mismos pasos. 1. Inicie la sesin como usuario root en ambos sistemas y abra una ventana de terminal. Utilice el comando ifconfig -a para mostrar la informacin de configuracin bsica de las interfaces de red. Qu muestra el comando ifconfig en los atributos siguientes de la interfaz principal (por ejemplo, nge0)? Indique los valores en la Tabla 1-3. Tabla 1-3 Valores de la interfaz principal Atributo Direccin IP Direccin Ethernet Interfaz activa/inactiva Valor Vara en funcin del sistema que se utiliza. Vara en funcin del sistema que se utiliza. La interfaz debera estar activa (UP).
1-17
Soluciones del ejercicio: comandos de red de Solaris 2. Abra una ventana de terminal nueva en ambos sistemas. Introduzca el comando snoop en la nueva ventana para visualizar solamente el trfico de red entre los dos sistemas con los que trabaja. Utilice el comando ping para verificar que su sistema puede establecer el contacto con la interfaz de red del sistema de su compaero. Examine la salida del comando snoop. Qu protocolo utiliza el comando ping? ICMP La salida de snoop contiene solicitudes y respuestas (s o no)? Solicitudes: S 5. Respuestas: S Utilice el comando ifconfig en un sistema para marcar su interfaz principal como inactiva. A continuacin, vuelva a usarlo para mostrar la informacin de configuracin. Advierta a su compaero de que la interfaz del sistema se desactivar.
# ifconfig nge0 down # ifconfig nge0 Ha experimentado algn cambio la informacin que muestra el comando ifconfig? El comando ifconfig no presenta la interfaz como activa (UP). 6. Intente utilizar el comando ping en el sistema cuya interfaz permanece activa para establecer el contacto con el sistema cuya interfaz est inactiva. Qu informacin presenta el comando ping? Despus de un intervalo mximo de tiempo, el comando ping indica no answer from host. 7. Examine la salida de la utilidad snoop en ambos sistemas. Qu diferencias presentan la salida de snoop y la salida del comando ping antes y despus de marcar la interfaz como inactiva? La utilidad snoop slo muestra las solicitudes del comando ping, pero no incluye las respuestas. Cuntos solicitudes enva el comando ping de forma predeterminada? Veinte Detecta el sistema de destino las solicitudes del comando ping? En caso afirmativo, qu tratamiento reciben estas solicitudes? S, pero no enva respuesta.
1-18
Soluciones del ejercicio: comandos de red de Solaris 8. Utilice el comando ifconfig en el sistema cuya interfaz est inactiva para marcar su interfaz principal como activa. Compruebe que se ha efectuado el cambio.
# ifconfig nge0 up # ifconfig nge0 9. Utilice el comando ping en el sistema cuya interfaz ha permanecido activa para establecer el contacto con el otro sistema. Qu informacin presenta el comando ping? El host est activo. Presenta la utilidad snoop una respuesta del host de destino? S
1-19
Mdulo 2
2-1
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
Client
Client
Client
Figura 2-1
2-2
Introduccin a los procesos cliente-servidor En Solaris 10 se encuentran los siguientes ejemplos de clientes:
En los servicios de nombres, el cliente es un host que utiliza la funcin de bsqueda del servicio de nombres NIS+, NIS, DNS o LDAP, que proporciona el servidor del servicio de nombres. En los sistemas de archivos, el cliente es un sistema que accede de forma remota a los recursos de un servidor de almacenamiento, como un servidor con gran capacidad de disco y red. En el caso de aplicaciones como sendmail o Calendar Manager, el cliente accede a los servicios mediante un proceso del servidor.
2-3
Client 1
Client 4
Printer A
Printer B
Printer C
Storage Array 1
Storage Array 2
Figura 2-2
2-4
Introduccin a los procesos cliente-servidor En Solaris 10 se encuentran los siguientes ejemplos de servidores:
Un host que proporciona servicios de nombres a una red en NIS+, NIS, DNS y LDAP Un host que proporciona espacio en el disco a la red, como un servidor con gran capacidad de disco y red Un host que proporciona servicios de ventanas a las aplicaciones. El cliente y el servidor pueden ejecutarse en el mismo sistema o en sistemas separados. Un host que proporciona servicios web a sistemas cliente
2-5
Un mecanismo para establecer y formalizar las relaciones de dependencia entre los servicios. Informacin sobre los procedimientos para iniciar, detener y reiniciar los servicios. Un repositorio centralizado de informacin sobre el comportamiento de inicio y el estado de los servicios. Un mecanismo estructurado para administrar los errores de los servicios del sistema. Informacin detallada sobre los servicios mal configurados, lo que incluye una explicacin de las razones que impiden que se ejecuten. Archivos de registro (logs) independientes para cada servicio
Servicios SMF
En SMF, la unidad bsica de administracin es el servicio. El servicio se puede describir de forma genrica como una entidad que proporciona una lista conocida de funciones a otros servicios locales y remotos. No se trata necesariamente de un proceso en ejecucin, como podra ser un servidor web. Un servicio tambin puede ser el estado del software de un dispositivo, como un dispositivo de red configurado, o un sistema de archivos montado. En un sistema puede haber varias instancias de un mismo servicio en ejecucin. Por ejemplo, puede tener varias interfaces de red configuradas o varios sistemas de archivos montados.
2-6
Service Management Facility Los servicios se representan como nodos de instancias que tienen su origen en los nodos de servicios. Un servicio puede tener varias instancias, como un servidor web en mltiples puertos. Tanto los nodos de servicios como los nodos de instancias pueden tener propiedades. Si una instancia no tiene la propiedad X, se utiliza la propiedad X del servicio. En la Figura 2-3 se muestra la relacin de los nodos de servicios e instancias.
Figura 2-3
2-7
Identificadores de servicios
En SMF, cada instancia de un servicio tiene un nombre, que se conoce como identificador de servicio (Service Identifier). Este identificador adopta la forma de un FMRI (Fault Management Resource Identifier) o identificador de recursos de administracin de errores. El FMRI indica el tipo o categora del servicio, as como el nombre y la instancia del mismo. Tabla 2-1 se muestran las categoras de los servicios. Tabla 2-1 Categoras de los servicios Categora milestone device system Descripcin Servicios sintticos para instrucciones de dependencia completas Servicios generales de dispositivos Servicios relacionados con funciones no configuradas en red y centradas en el host (host-centric) Servicios de bajo nivel centrados en el host que implementan funciones de seguridad Servicios relacionados con funciones de la infraestructura de la red centradas en el host Servicios generales de software Servicios que implementan funciones de administracin Servicios que implementan funciones de seguridad de alto nivel Servicios que implementan software en un sitio concreto Servicios que implementan software de una plataforma concreta
2-8
El prefijo svc indica que se trata de un servicio administrado por SMF. La categora del servicio es system. El servicio en s es un sistema de archivos (filesystem). La instancia del servicio es el sistema de archivos raz (root). La palabra default la identifica como la primera, en este caso la nica, instancia del servicio.
El prefijo lrc (Legacy Run Control) indica que se trata de un servicio no administrado por SMF. La ruta de acceso /etc/rc3_d es el directorio donde se ha almacenado una secuencia de comandos para controlar este servicio. El nombre de dicha secuencia es S90samba.
2-9
2-10
UNINITALIZED Cant read config Administrator intervention Re-read config data Dependency not met or start failed MAINTENANCE OFFLINE Unresolvable error or thresholds reached Service shutdown, restart or disable Unresolvable error or thresholds reached Dependency met and service enabled ONLINE Service shutdown, restart or disable Start service Re-read config data
No improvement in service
Figura 2-4
2-11
Service Management Facility El comando svcs puede utilizarse para ver la lista de identificadores de los servicios y el estado de cada instancia de servicio. Un servicio puede estar habilitado o inhabilitado y presentar los siguientes estados:
offline La instancia del servicio se ha habilitado, pero el servicio no se est ejecutando an o no est disponible para ejecutarse.
legacy_run Los servicios tradicionales no se administran a travs de SMF, pero es posible observarlos. Slo este tipo de servicios utilizan este estado.
uninitialized Este estado es el que presentan inicialmente todos los servicios antes de que se lea su configuracin.
maintenance La instancia del servicio ha detectado un error que debe resolver el administrador.
degraded La instancia del servicio est habilitada pero se est ejecutando con funcionalidad limitada.
2-12
Estados gua
Un estado gua (milestone) es un tipo de servicio especial formado por otra serie de servicios definidos. Un estado gua puede considerarse como un estado que el sistema debe alcanzar. Este estado precisa la ejecucin de un conjunto definido de servicios. Tales servicios dependen de la disponibilidad de otros servicios. Por tanto, existe una jerarqua de relaciones de dependencia. ste es uno de los aspectos fundamentales administrados por SMF. En la actualidad hay seis estados gua:
milestone
network
system
application
name-services
net-physical
filesystem
X11
/usr
/var
Figura 2-5
2-13
milestone
multiuser
exec /sbin/rc3
dependency list
dependency list
method
/lib/svc/method/fs-local
Figura 2-6
Para determinar cules son los estados gua actuales: # svcs | grep milestone online 9:58:42 svc:/milestone/name-services:default online 9:58:53 svc:/milestone/network:default online 9:58:54 svc:/milestone/devices:default online 9:59:09 svc:/milestone/single-user:default online 9:59:13 svc:/milestone/sysconfig:default online 9:59:42 svc:/milestone/multi-user:default online 9:59:51 svc:/milestone/multi-user-server:default
2-14
Demonio svc.startd
El demonio svc.startd es el proceso responsable de mantener los servicios del sistema. Se encarga de que el sistema arranque en el estado gua adecuado. Si no se especifica ningn estado gua al arranque, svc.startd arranca en el estado all, que incluye todos los servicios del sistema. En la actualidad, los estados gua que pueden utilizarse al arrancar son los siguientes:
Para arrancar el sistema en un estado gua especfico, la opcin -m de OBP se pasa al comando de arranque. ok> boot -m milestone=single-user El demonio svc.startd se puede considerar como el reiniciador de procesos maestro porque su misin es garantizar que los servicios del sistema se ejecuten, inicien y reinicien correctamente. Asimismo, puede obtener informacin sobre los servicios del repositorio. El demonio svc.startd puede delegar sus responsabilidades sobre los servicios en otros reiniciadores como, por ejemplo, el demonio inetd.
2-15
2-16
2-17
NOTAS:
Realice una pausa para atender a los comentarios del profesor.
2-18
NOTAS:
Realice una pausa para atender a los comentarios del profesor.
2-19
Para inhabilitar el servicio telnet: # inetadm -d telnet # inetadm | grep telnet disabled disabled
svc:/network/telnet:default
Para habilitar el servicio telnet: # inetadm -e telnet # inetadm | grep telnet enabled online
svc:/network/telnet:default
2-20
Impacto de SMF en los servicios de red Para ver el estado actual de todos los recursos de la red: # inetadm ENABLED STATE FMRI enabled online svc:/network/rpc/gss:default enabled online svc:/network/rpc/mdcomm:default enabled online svc:/network/rpc/meta:default enabled online svc:/network/rpc/metamed:default enabled online svc:/network/rpc/metamh:default disabled disabled svc:/network/rpc/rex:default enabled online svc:/network/rpc/rstat:default enabled online svc:/network/rpc/rusers:default disabled disabled svc:/network/rpc/spray:default disabled disabled svc:/network/rpc/wall:default enabled online svc:/network/security/ktkt_warn:default disabled disabled svc:/network/tname:default enabled online svc:/network/telnet:default enabled online svc:/network/nfs/rquota:default disabled disabled svc:/network/chargen:dgram disabled disabled svc:/network/chargen:stream disabled disabled svc:/network/daytime:dgram disabled disabled svc:/network/daytime:stream disabled disabled svc:/network/discard:dgram disabled disabled svc:/network/discard:stream disabled disabled svc:/network/echo:dgram disabled disabled svc:/network/echo:stream disabled disabled svc:/network/time:dgram disabled disabled svc:/network/time:stream svc:/network/ftp:default disabled disabled svc:/network/comsat:default svc:/network/finger:default disabled disabled svc:/network/login:eklogin disabled disabled svc:/network/login:klogin svc:/network/login:rlogin disabled disabled svc:/network/rexec:default svc:/network/shell:default disabled disabled svc:/network/shell:kshell disabled disabled svc:/network/talk:default (output omitted) Nota Cuando un servicio de la red se ve afectado, los servicios relacionados tambin. Al inhabilitar un servicio pueden dejar de estar disponibles otros servicios.
2-21
Nmeros de puerto
Los mtodos que se emplean para asignar puertos son principalmente dos:
Autoridad central:
Todos los usuarios deben estar de acuerdo en que la autoridad central asigne todos los nmeros de puerto. La autoridad central es responsable de publicar la lista en la que se asignan los nmeros de puerto, lo que se conoce como asignaciones de puertos bien conocidos. Las asignaciones de puertos bien conocidos incluyen en los requisitos de software del sistema.
Enlace dinmico:
El cliente conoce los puertos de antemano. El software del sistema asigna dinmicamente los puertos a los programas que los necesitan. Para obtener la asignaciones actuales de los puertos de cualquier ordenador, el software solicita a la mquina de destino la informacin relacionado con los nmeros de los puertos. Entonces la mquina de destino proporciona el nmero de puerto. Estas asignaciones de nmeros de puerto se consideran efmeras debido a su corta duracin, ya que desaparecen al reiniciar el sistema.
2-22
Impacto de SMF en los servicios de red Muchas aplicaciones del sistema admiten servicios de red. Cada servicio de red utiliza un puerto, que representa el espacio de direcciones reservado para ese servicio. Si el nmero de puerto no se asigna previamente, el sistema operativo permite a una aplicacin elegir un nmero de puerto que no est en uso. Los clientes suelen comunicarse con el servidor a travs de un puerto bien conocido. Los puertos bien conocidos se almacenan en el archivo /etc/inet/services. Para ver el puerto bien conocido que utiliza el servicio telnet, ejecute este comando: # grep telnet /etc/inet/services telnet 23/tcp En este ejemplo, el servicio telnet utiliza el puerto 23 y el protocolo TCP.
Servicios que se inician de forma predeterminada al arrancar el sistema Servicios que no se inician automticamente durante el arranque, sino que se inician bajo demanda
El proceso sendmail se inicializa a travs de la secuencia de inicio /lib/svc/method/smtp-sendmail cuando se arranca el sistema operativo Solaris 10. Como el proceso sendmail utiliza el puerto 25, empieza a recibir correo inmediatamente despus del arranque. No es necesario que el demonio inetd establezca la conexin con el puerto 25 para recibir solicitudes de entrada de sendmail o para que sendmail empiece a ejecutarse, puesto que el proceso sendmail ya se est ejecutando.
2-23
Figura 2-7
Time
23
telnet ...in.telnetd
= port number n
2-24
Impacto de SMF en los servicios de red Los pasos que se realizan para conectarse al servicio telnet son: 1. El host que inicia la conexin (sys41) ejecuta el servicio de red para solicitar la conexin a un host receptor (sys42). Para esto, utiliza el comando telnet sys42. telnet es un servicio bien conocido. El puerto que corresponde a este servicio es el puerto 23. El paquete telnet que solicita la conexin se dirige al puerto 23 del host sys42. Inicialmente, el demonio inetd recibe el servicio telnet a travs del puerto 23. El comando telnet sys42 en sys41 enva una solicitud al puerto 23, que inetd identifica como una solicitud del servicio telnet gracias a la entrada de configuracin del archivo /etc/inet/services. El servicio telnet no se ejecuta de forma continua mientras un sistema en espera de establecer la conexin. El demonio inetd debe iniciar el servicio telnet de forma dinmica cuando se solicita. El demonio inetd ejecuta el proceso in.telnetd. El demonio in.telnetd asume el control de la comunicacin de la sesin telnet actual. El demonio in.telnetd recibe el trfico de esta sesin y se ejecuta en el puerto 23 hasta que la sesin telnet termina.
2. 3. 4.
5.
6.
7.
2-25
Servicios que se inician de forma predeterminada al arrancar el sistema Servicios que no se inician automticamente durante el arranque, sino que se inician bajo demanda
Si un cliente desea realizar una llamada RPC a un nmero de programa determinado, debe ponerse en contacto con el servicio rpcbind del servidor para obtener la direccin del puerto antes de enviar solicitudes RPC. Si el servicio RPC ha registrado su nmero de puerto actual con el demonio rpcbind durante el arranque, el cliente recibir el nmero de puerto actual del servicio RPC. Al iniciar Solaris 10, la secuencia de inicio /lib/svc/method/rpc-bind inicializa el servicio rpcbind. El nmero de puerto que utiliza el demonio rpcbind aparece en el archivo /etc/inet/services. Una vez que el sistema arranca, el demonio rpcbind empieza a recibir en el puerto 111. Para ver el nmero de puerto y el protocolo, ejecute el siguiente comando: # grep rpcbind /etc/services sunrpc 111/udp sunrpc 111/tcp rpcbind rpcbind
2-26
Host 1 (Client)
Host 2 (Server)
Time
111 nnnnn nnnnn spray/1... rpc.sprayd rpc.sprayd (port nnnnn) nnnnn 6 nnnnn
= port number n
Figura 2-8
2-27
Impacto de SMF en los servicios de red Los servicios RPC bajo demanda, como sprayd, se implementan como sigue: 1. Una secuencia de inicio inicia el demonio rpcbind en todos los sistemas. El servicio sprayd aparece en el archivo /etc/rpc. Su asignacin actual de puertos y nmero de programa queda registrada en el proceso rpcbind durante el arranque. Un usuario del host1 enva un comando spray al host2. La solicitud spray se dirige inicialmente al puerto 111, y contiene el nmero de programa del servicio sprayd. El demonio rpcbind del servidor host2 lee el nmero de programa y determina que se trata de una solicitud relacionada con el servicio sprayd. El demonio rpcbind devuelve el nmero de puerto actual del servicio sprayd al cliente host1. El cliente host1 enva una segunda solicitud al nmero de puerto del servicio sprayd del servidorhost2. El demonio inetd recibe la solicitud. El demonio rpc.sprayd toma el control de la comunicacin de la sesin spray.
2.
3.
4.
5.
2-28
Nmero de programa Nmero de versin del programa RPC Protocolo RPC Nmero de puerto Servicio RPC
Nota Con el comando rpcinfo -p host se obtiene informacin sobre los servicios RPC registrados en el host especificado. El uso de rpcinfo -p. host obliga al proceso rpcinfo a dirigirse a localhost si hostname y nodename no coinciden.
2-29
2-30
Preparacin
Para preparar este ejercicio, lleve a cabo las siguientes tareas:
Compruebe que aparecen dos sistemas en el archivo /etc/hosts de cada sistema. Compruebe las entradas correspondientes al usuario root en el archivo /etc/ftpd/ftpusers para asegurarse de que el usuario root no tiene limitado el uso del servicio FTP en ambos sistemas. Trabaje con un compaero y realice todos los pasos de este ejercicio en ambos sistemas, a menos que se indique lo contrario. Asegrese de que el proceso sprayd se est ejecutando. Para esto, utilice el siguiente comando:
Tareas
Lleve a cabo las siguientes tareas.
2.
2-31
Ejercicio: supervisin de redes Solaris 3. Utilice el comando pgrep para comprobar si el demonio ftp est ejecutndose. Se est ejecutando? __________________________________________________________ Nota Determine qu sistema acta como cliente FTP y cul funciona como servidor FTP. En el servidor FTP debe inhabilitar la entrada root del archivo /etc/ftpd/ftpusers. 4. 5. En una ventana del cliente FTP, establezca una conexin FTP con el servidor FTP. En otra ventana del cliente FTP, compruebe los demonios o las aplicaciones que estn relacionados con el servicio FTP. Qu informacin presenta el comando pgrep? __________________________________________________________ 6. En una ventana disponible del servidor FTP, compruebe los demonios y las aplicaciones que estn relacionados con el servicio FTP. Qu informacin presenta el comando pgrep? __________________________________________________________ 7. 8. En el cliente FTP, interrumpa la conexin FTP con el servidor. Compruebe los demonios y las aplicaciones que estn relacionados con el servicio FTP tanto en el cliente como en el servidor FTP. Qu informacin presenta el comando pgrep? __________________________________________________________ 9. Examine la salida de la utilidad snoop en ambos sistemas. Qu informacin de inicio de sesin relacionada con el servicio FTP presenta el comando snoop? __________________________________________________________ 10. Cambie las funciones cliente-servidor de los dos sistemas y repita del paso 4 al paso 9.
2-32
7.
2-33
Ejercicio: supervisin de redes Solaris 8. Pida a su compaero que ejecute el comando spray y que especifique otra vez su sistema como destino. Qu mensaje presenta el comando spray? __________________________________________________________ 9. Utilice el comando svcadm para volver a habilitar el servicio spray completo. Qu nmero de puerto utiliza ahora el servicio sprayd? __________________________________________________________ Coincide el nmero de programa que utiliza el servicio sprayd con el que apareca en el paso 3? __________________________________________________________ 11. Para asegurarse de que el servicio sprayd puede conectarse con su sistema, pida a su compaero que ejecute el comando spray y que especifique su sistema como destino. 12. Interrumpa los procesos snoop que se estn ejecutando en ambos sistemas.
2-34
!
?
2-35
Preparacin
Para preparar este ejercicio, lleve a cabo las siguientes tareas:
Compruebe que aparecen dos sistemas en el archivo /etc/hosts de cada sistema. Compruebe las entradas correspondientes al usuario root en el archivo /etc/ftpd/ftpusers para asegurarse de que el usuario root no tiene limitado el uso del servicio FTP en ambos sistemas. Trabaje con un compaero y realice todos los pasos de este ejercicio en ambos sistemas, a menos que se indique lo contrario. Asegrese de que el proceso sprayd se est ejecutando. Para esto, utilice el siguiente comando:
Tareas y soluciones
En esta seccin se describen las tareas realizadas y se proporcionan las soluciones.
2-36
Soluciones del ejercicio: supervisin de redes Solaris Es as? S. Utiliza el puerto 21. 3. # pgrep -xl ftpd # Se est ejecutando? No. Todava no debera ejecutarse. Nota Determine qu sistema acta como cliente FTP y cul funciona como servidor FTP. En el servidor FTP debe inhabilitar la entrada root del archivo /etc/ftpd/ftpusers. 4. En una ventana del cliente FTP, establezca una conexin FTP con el servidor FTP. Utilice el comando pgrep para comprobar si el demonio ftp est ejecutndose.
# ftp host1 Connected to host1. 220 host1 FTP server ready. Name (host1:root):root 331 Password required for root. Password:xxxxxxx 230 User root logged in. Remote system type is UNIX. Using binary mode to transfer files. ftp> 5. # pgrep -l ftp nnn ftp Qu informacin presenta el comando pgrep? Si el sistema funciona como cliente FTP, en la salida del comando pgrep debera aparecer la aplicacin FTP. 6. # pgrep -l ftp nnnn in.ftpd Qu informacin presenta el comando pgrep? Cuando el sistema acta como servidor FTP, el comando pgrep debera mostrar el demonio in.ftpd. En una ventana disponible del servidor FTP, compruebe los demonios y las aplicaciones que estn relacionados con el servicio FTP. En otra ventana del cliente FTP, compruebe los demonios o las aplicaciones que estn relacionados con el servicio FTP.
2-37
Soluciones del ejercicio: supervisin de redes Solaris 7. ftp> bye 8. # pgrep -l ftp Qu informacin presenta el comando pgrep? Nada. La aplicacin FTP y el demonio del servidor FTP han dejado de ejecutarse. 9. Examine la salida de la utilidad snoop en ambos sistemas. Qu informacin de inicio de sesin relacionada con el servicio FTP presenta el comando snoop? El nombre y la contrasea de inicio de sesin en texto claro. 10. Cambie las funciones cliente-servidor de los dos sistemas y repita del paso 4 al paso 9. Compruebe los demonios y las aplicaciones que estn relacionados con el servicio FTP tanto en el cliente como en el servidor FTP. En el cliente FTP, interrumpa la conexin FTP con el servidor.
# rpcinfo -p |grep rpcbind 100000 4 tcp 111 100000 3 tcp 111 100000 2 tcp 111 100000 4 udp 111 100000 3 udp 111 100000 2 udp 111
Qu nmero de puerto utiliza el proceso rpcbind? 111 Qu protocolos utiliza el proceso rpcbind? TCP y UDP 2. Compruebe que el servicio rpcbind aparece en el archivo /etc/services, y que el nmero de puerto coincide con el que se muestra en la salida del comando rpcinfo en el paso 1. rpcbind rpcbind
2-38
Soluciones del ejercicio: supervisin de redes Solaris Utilice el comando rpcinfo para mostrar la informacin relacionada con el servicio sprayd. # rpcinfo -p |grep sprayd 100012 1 udp 32777 sprayd Qu nmero de puerto utiliza el servicio sprayd? Vara en funcin del sistema. Qu nmero de programa utiliza el servicio sprayd? 100012 Examine el archivo /etc/services para determinar si se ha asignado un nmero de puerto bien conocido al servicio sprayd. # grep sprayd /etc/services # Tiene un nmero de puerto bien conocido? No Compruebe el archivo /etc/rpc para saber si aparece el servicio sprayd. # grep sprayd /etc/rpc sprayd 100012 spray Aparece? S 6. Asegrese de que su sistema responde a los solicitudes del servicio sprayd. Pida a su compaero que ejecute el comando spray y que indique su sistema como destino. 5. 4. 3.
# spray host1 Utilice el comando rpcinfo cancelar el registro del nmero de puerto del servicio sprayd. Verifique que el servicio sprayd ya no aparece como nmero de puerto registrado. # rpcinfo -d sprayd 1 # rpcinfo -p | grep sprayd 8. Pida a su compaero que ejecute el comando spray y que especifique otra vez su sistema como destino. Qu mensaje presenta el comando spray? # spray host1 spray: cannot clnt_create host:netpath: RPC: Program not registered Utilice el comando svcadm para volver a habilitar el servicio spray completo. # svcadm disable svc:/network/rpc/spray:default # svcadm enable svc:/network/rpc/spray:default 9. 7.
2-39
Soluciones del ejercicio: supervisin de redes Solaris 10. Verifique que el servicio sprayd aparece como servicio registrado. # rpcinfo -p | grep sprayd 100012 1 udp 32841 sprayd
Qu nmero de puerto utiliza ahora el servicio sprayd? Vara en funcin del sistema. Coincide el nmero de programa que utiliza el servicio sprayd con el que apareca en el paso 3? 100012 11. Para asegurarse de que el servicio sprayd puede conectarse con su sistema, pida a su compaero que ejecute el comando spray y que especifique su sistema como destino. # spray host1 12. Interrumpa los procesos snoop que se estn ejecutando en ambos sistemas. Pulse Ctrl-C.
2-40
Mdulo 3
Implementar la administracin de parches utilizando el servicio Sun Connection, incluido el software cliente Update Manager, la lnea de comandos de smpatch y la aplicacin web de Sun Connection.
3-1
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Enterprise Services, Revisin C
Objetivos
Relevancia
Discusin La siguiente pregunta es importante para entender la administracin de los parches o actualizaciones y de los paquetes:
!
?
Qu soluciones existen para administrar muchos parches y actualizaciones de cientos de sistemas Sun?
3-2
Recursos adicionales
Recursos adicionales
Recursos adicionales En las referencias siguientes se proporciona informacin adicional sobre los temas descritos en este mdulo:
System Administration Guide: Basic Administration, PN 817-1985 System Administration Guide: Advanced Administration, PN 817-0403 Application Packaging Developers Guide (Solaris 9 Update 5) Adding and Removing Signed Packages (Task Map) en System Administration Guide: Basic Administration, PN 817-1985 Sun Update Connection 1.0.8 Administration Guide, PN 819-4687 Sun Update Manager 1.0 Administration Guide, PN 835-0615 Documentacin tcnica: Patch Management Solutions for the Solaris 10 Operating System Sun Connection, noviembre de 2005
3-3
No se requiere un plan de servicios para actualizar los controladores de seguridad, integridad de datos o hardware. Para instalar los dems parches, incluidos los clsteres de parches, se requiere un plan de servicios. Para obtener parches a travs de Sun Connection se necesita una cuenta en lnea de Sun.
3-4
Notificaciones para que los administradores sepan en qu momento se ponen a disposicin nuevas actualizaciones para sus sistemas Procedimientos automticos que simplifican en gran medida las tareas de actualizacin del sistema Comprobaciones rpidas e inteligentes de dependencias de software que permiten implementar las actualizaciones automticamente y actualizar las dependencias consideradas requisitos previos Cach local opcional de actualizaciones que minimiza el trfico de la red y mejora la seguridad de los procesos de actualizacin Un servicio web que presenta los sistemas conectados en una vista centralizada y permite aplicar las actualizaciones en varios sistemas de forma coherente
3-5
Administracin de parches
Solaris 10 presenta un nuevo conjunto formado por herramientas y una estructura para administrar los parches (que ahora se denominan actualizaciones de software). A este conjunto se denomina Sun Connection. En las herramientas de Sun Connection se incluyen:
Interfaz grfica de usuario (GUI) del software cliente Update Manager Aplicacin web de Sun Connection Interfaz de lnea de comandos del software cliente Update Manager (smpatch)
Sun Connection 1.0.x se ha diseado para utilizarse con Solaris 10. En Solaris 8 y Solaris 9 se sigue utilizando Sun Patch Manager 2.0 para administrar las actualizaciones.
3-6
Administracin local de sistemas individuales mediante el software cliente Update Manager o la interfaz CLI de smpatch Administracin remota y centralizada de varios sistemas mediante la aplicacin web de Sun Connection
3-7
Introduccin a Sun Connection En la Figura 3-1 se muestra que el mtodo de actualizacin local permite la interaccin de cada sistema con Sun Connection de forma independiente. Con Sun Connection pueden interaccionar varios sistemas a la vez.
Customer Business Applications and Infrastructure Customer Firewall Update Manager Client or smpatch CLI System A Sun Connection Services
Figura 3-1
Update Manager
Update Manager es un software cliente basado en la aplicacin Solaris Patch Manager, introducida en Solaris 8, que ahora se ha integrado en la distribucin del sistema operativo Solaris 10. Incorpora una versin actualizada del motor de anlisis PatchPro y una nueva interfaz de usuario que permite a los usuarios realizar las siguientes tareas bsicas con mens de tipo sealar y hacer clic:
Analizar los sistemas para conocer las actualizaciones disponibles. Ver la lista de actualizaciones actualmente disponibles que se pueden aplicar al sistema. Ver detalles sobre una actualizacin concreta. Instalar las actualizaciones seleccionadas.
3-8
Introduccin a Sun Connection Como se muestra en la Figura 3-2 en la pgina 3-10, Update Manager presenta una lista con todas los parches de Sun actualmente disponibles que se pueden instalar en un sistema Solaris 10 determinado. En la ficha Available Updates (actualizaciones disponibles) se proporciona informacin sobre cada parche, lo que incluye la identificacin del parche, un resumen, la fecha de publicacin, el tamao de la descarga y cualquier requisito de tratamiento especial. En la ficha Installed Updates (actualizaciones instaladas) se indican las actualizaciones que se han instalado. Para iniciar Update Manager, utilice el comando siguiente: # /usr/bin/updatemanager Nota Tambin puede hacer clic en el icono de notificacin de Java Desktop para iniciar Update Manager.
3-9
Figura 3-2
Cuando se elige instalar las actualizaciones, se solicita aprobar las dependencias para que se instalen todos los parches necesarios en el orden correcto. Una vez que se aprueban las dependencias, se aplican automticamente y en tiempo real todas las actualizaciones, excepto las que requieren un tratamiento especial. Cuando las actualizaciones requieren reiniciar el sistema o deben aplicarse mientras el sistema se encuentra en el modo monousuario, la instalacin se pospone hasta que el usuario reinicia el sistema. Estas actualizaciones se aplican de forma automtica durante el siguiente reinicio del sistema. Update Manager tambin incluye un historial completo de las actualizaciones instaladas en el sistema y ofrece un mtodo efectivo para desinstalar las actualizaciones si fuese necesario.
3-10
Analizar y crear una lista de parches recomendados para un sistema con el comando smpatch update. Descargar uno o varios parches en un sistema con el comando smpatch download. Agregar uno o varios parches a un sistema con el comando smpatch add. Desinstalar los parches no deseados con el comando smpatch remove.
Los comandos de la interfaz CLI de smpatch tambin se pueden incorporar a las secuencias de comandos de shell de varios sistemas diferentes para aplicar una serie de actualizaciones de sistema de forma consecutiva, lo que permitir aumentar la eficacia del proceso. Nota De acuerdo con las buenas prcticas, no es aconsejable intentar utilizar a la vez la interfaz grfica de usuario de Update Manager y la interfaz CLI de smpatch. Aunque no presentan problemas cuando se utilizan por separado, pueden generar problemas de sincronizacin y hacer que los datos del cliente Update Manager queden obsoletos. En tales casos, es preciso reiniciar la aplicacin cliente de Update Manager.
3-11
Figura 3-3
3-12
Introduccin a Sun Connection El proxy de Update Manager es un proxy de cach que funciona como intermediario entre los sistemas cliente de Sun Connection y los servidores de Sun Connection. Los sistemas cliente se pueden configurar para que obtengan los parches del proxy, con lo que todas las solicitudes de parches y metadatos se dirigirn al proxy de Update Manager. Si el proxy puede satisfacer la solicitud con los datos almacenados en su cach local, responde a la solicitud. Si no dispone del parche solicitado, lo recupera, lo almacena en su cach para futuras situaciones y luego responde a la solicitud del cliente original. Una vez que el parche o los metadatos actuales se encuentran en la memoria cach del proxy, muchos clientes locales pueden acceder a ellos. Adems de contribuir a reducir el trfico externo de la red, esto puede hacer que disminuya el tiempo medio de aplicacin de los parches. El sofware del proxy de Update Manager se encuentra disponible como parche de Solaris 10 y puede descargarse desde Sun Connection o SunSolve. Tras instalar el proxy, el cliente Update Manager puede reconfigurarse para que busque las actualizaciones en el servidor proxy, en lugar de en Sun Connection. Cuando se utiliza el proxy de Update Manager, el software cliente Update Manager funciona de la manera antes descrita, pero recupera los parches, los metadatos y los mdulos de anlisis de una ubicacin diferente. Los metadatos almacenados en el proxy de Update Manager se sincronizan con Sun Connection para que los hosts accedan siempre a una copia actualizada de los metadatos. Los metadatos se transfieren a los sistemas locales cada vez que se utiliza Update Manager para realizar un anlisis en el host.
3-13
Introduccin a Sun Connection En la Figura 3-4 se muestra la ubicacin y el uso de la aplicacin web de Sun Connection.
Figura 3-4
La aplicacin web de Sun Connection incluye todas las funciones del cliente Update Manager, pero adems ofrece la posibilidad de administrar varios sistemas utilizando comandos que se ejecutan en mltiples sistemas a la vez en una sola operacin. Este servicio funciona con el mismo software cliente que Update Manager y el comando smpatch. La aplicacin web de Sun Connection est disponible para todos los sistemas Solaris 10 que cuentan con un plan de servicios.
3-14
Introduccin a Sun Connection La aplicacin web de Sun Connection es ms eficaz porque permite ver el estado de las actualizaciones en varios sistemas y aplicarlas en ms de una mquina con un solo comando. En lugar de analizar y actualizar por separado cada sistema, puede seleccionar varios sistemas para aplicarles la misma actualizacin. Adems de ahorrar tiempo, esto tambin puede simplificar la administracin de cambios, ya que ayuda a mantener la coherencia entre un grupo de sistemas relacionados en cuanto a sistema operativo y niveles de actualizacin. La aplicacin web de Sun Connection supervisa y evala todos los sistemas registrados para determinar si necesitan actualizarse. Como el anlisis se realiza en segundo plano, no desva la atencin de otras tareas. Cuando lo considere oportuno, podr utilizar el portal web para aplicar actualizaciones especficas o revisar los detalles de las actualizaciones disponibles, las tareas pendientes o el historial de actualizaciones de sistemas concretos. Adems, la aplicacin web de Sun Connection permite administrar las actualizaciones centrndose en el sistema o en los parches. La vista centrada en el sistema permite examinar las actualizaciones que necesita un cierto sistema. En la vista centrada en los parches se puede seleccionar un parche y ver qu sistema de los que se estn administrando necesita ese parche. A continuacin, basta con hacer un clic con el ratn para implementar el parche en todos los sistemas afectados. Para conectarse con la aplicacin web de Sun Connection, utilice la siguiente direccin URL: http://updates.sun.com/
3-15
Introduccin a Sun Connection En la Figura 3-5 se muestra una pantalla de la aplicacin web de Sun Connection de ejemplo.
Figura 3-5
3-16
3-17
Sun Download Center: el software cliente de Sun Connection se suministra con un programa de instalacin que puede utilizarse para instarlo. SunSolve (en forma de parche)
3-18
Uso de Update Manager Aparece la pantalla inicial de Update Manager que se muestra en la Figura 3-6 y la informacin del sistema se carga automticamente.
Figura 3-6
3-19
Registro de sistemas
El servicio Sun Connection slo puede administrar a distancia los sistemas registrados en Update Manager. Cuando la informacin del sistema se carga de forma automtica, aparece la pantalla del asistente de registro de la Figura 3-7.
Figura 3-7
Configurar el sistema para que recupere las actualizaciones de un origen local. Esta opcin sirve para conectar el sistema a un proxy de Update Manager, como se muestra en la Figura 3-3. Antes de utilizar esta opcin para realizar la conexin, es preciso que el servidor proxy est instalado y configurado.
3-20
Configurar el proxy de la red. Si el sistema se conecta directamente a los servidores de Sun Connection sin utilizar un proxy interno, es posible que tenga que configurar el cliente Update Manager de manera que emplee un proxy para acceder a Internet.
Crear una cuenta en lnea de Sun. Cuando haya configurado la conexin, puede utilizar esta opcin para conectarse a Sun y configurar la cuenta de forma gratuita.
Si ya tiene una cuenta en lnea de Sun, introduzca el nombre de usuario y la contrasea y haga clic en Next (siguiente). Si no ha configurado el proxy de la red para Update Manager, aparecer la pantalla de la Figura 3-8.
Figura 3-8
La aparicin de este mensaje se debe a que Update Manager no dispona de la informacin de proxy necesaria para atravesar uno de los servidores de seguridad corporativos cuando ha intentado enviar informacin del sistema al sitio web de Sun Connection a travs de Internet. Puede hacer clic en el vnculo para configurar un proxy o utilizar los servicios de un proxy de Update Manager instalado internamente, con lo que se evitar configurar un proxy para Update Manager.
3-21
Figura 3-9
Cuando termine de configurar el proxy, volver a aparecer la pantalla de la cuenta en lnea de Sun (Figura 3-7 en la pgina 3-20). Vuelva a hacer clic en Next en esa pantalla para que se solicite el nmero del plan de servicios.
3-22
3-23
Confirmacin de registro
En la Figura 3-11 se muestra la informacin de registro que se enviar al servicio Sun Connection para terminar de registrar el sistema. Tambin existe una opcin de registro automtico que resulta til para registrar varios sistemas. Haga clic en Finish (finalizar) para terminar de registrar el sistema.
3-24
Registro completado
Cuando la barra de progreso que representa el almacenamiento de la informacin del sistema llega al final, aparece la pantalla de la Figura 3-12.
Figura 3-12 Update Manager: registro completado Cuando el sistema local termina de registrarse, existen dos posibilidades: cerrar la ventana y empezar a administrar el sistema mediante Update Manager o utilizar el vnculo para abrir Sun Update Services. Esta ltima opcin iniciara el navegador y mostrara la aplicacin web de Sun Connection empleada para administrar todos los sistemas registrados. Nota Los sistemas tambin se pueden registrar desde la lnea de comandos usando la utilidad sconadm y un perfil de registro. Consulte los detalles en:
http://sunsolve.sun.com/search/document.do?assetkey=1-9-82688-1
3-25
Uso de Update Manager En este ejemplo se opta por cerrar la ventana de registro completado y utilizar la aplicacin cliente Update Manager para administrar las actualizaciones. Se realiza un anlisis inicial del sistema y las actualizaciones disponibles se muestran como en la Figura 3-13.
3-26
Figura 3-14 Update Manager: lista de actualizaciones disponibles El botn Check for Updates (buscar actualizaciones) permite buscar las actualizaciones disponibles en cualquier momento. Si utiliza el entorno Java Desktop, un icono le alertar cuando haya nuevas actualizaciones disponibles. Cuando se hace clic en una entrada de actualizacin del panel inferior (como se muestra en la Figura 3-14), Update Manager presenta informacin relacionada con la actualizacin, lo que incluye el ID, el tamao, los parches que estn obsoletos o generan conflictos con la actualizacin, la lista de archivos de la actualizacin, los problemas que soluciona, el nmero de parche de la versin x86, etc.
3-27
Instalacin de actualizaciones con Update Manager Las entradas marcadas con el icono Download Only (slo descarga, flecha debajo en la columna 4) no se instalarn automticamente cuando haga clic en el botn Install Item Now (instalar ahora). Es preciso que consulte las instrucciones del archivo Readme de cada actualizacin para instalarlas manualmente. Las actualizaciones que aparecen marcadas con el icono Restart Required (obligatorio reiniciar, flecha circular en la columna 4) tampoco se instalarn cuando pulse el botn Install Item (instalar). Se descargarn, pero se instalarn la prxima vez que se reinicie el sistema. Las actualizaciones que se encuentran en ese estado (descargadas sin instalar) presentan un guin (-) en la primera columna de la ficha Updates Available de Update Manager. Nota El men Help (ayuda) de Update Manager contiene una opcin en la que aparece una lista completa de iconos. Despus de hacer clic en las casillas situadas junto a las actualizaciones que se quieren instalar, haga clic en el botn Install Updates (instalar actualizaciones) para descargarlas e instalarlas. Se realizar un anlisis del sistema, se descargarn las actualizaciones y se instalarn las que se puedan instalar. Si una actualizacin est asociada otras actualizaciones, tambin se descargarn e instalarn. El estado de la operacin se indicar cuando termine. En la pantalla de la Figura 3-15 se muestra un ejemplo de un resumen de instalacin despus de actualizar el sistema.
3-28
Instalacin de actualizaciones con Update Manager Cuando una actualizacin presenta la marca de slo descarga, la instalacin se debe realizar de forma manual. Esas actualizaciones continan apareciendo en la ficha Available Updates (como se muestra en la Figura 3-16) y se descargan en el directorio /var/sadm/spool. Otras actualizaciones se incluyen entre las que requieren reiniciar el sistema y aparecen marcadas como tal (reinicio pendiente). Para reiniciar el sistema se puede utilizar la casilla de verificacin Restart system now (reiniciar sistema ahora). Las actualizaciones siguen presentando un guin en la primera columna de la ficha Available Updates hasta que se reinicia el sistema, como se muestra en la Figura 3-16. Las actualizaciones que no llevan la marca de instalacin manual o reinicio del sistema se aplican e incluyen en el resumen de instalacin, donde aparecen como actualizaciones instaladas correctamente, segn se muestra en la Figura 3-15.
3-29
Actualizar el origen de las actualizaciones (Sun Source o un origen local, como un CD o el proxy de Update Manager que se ha establecido). El nombre del proxy de Update Manager, la direccin IP y los detalles de autenticacin. El directorio en el que se van a descargar las actualizaciones. (El directorio predeterminado es /var/sadm/spool.) Anular la configuracin del directorio de datos (utilizada durante la desinstalacin de actualizaciones). Habilitar el icono de notificacin de nuevas actualizaciones disponibles de Java Desktop. (No disponible para CDE.) Habilitar el anlisis diario automtico de actualizaciones (como tarea en segundo plano). Se recomienda utilizar esta funcin.
Desde el men File tambin se puede adquirir una suscripcin y recibir una clave de suscripcin para acceder a otros parches, adems de las actualizaciones de controladores de seguridad y hardware, y administrarlos. (Para esto se utilizan las credenciales de la cuenta en lnea de Sun.) El men File tambin permite abrir un navegador para administrar actualizaciones en la aplicacin web de Sun Connection.
3-30
Registro
Si administra localmente un sistema que es cliente de un proxy de Update Manager en la intranet, no necesita registrar el sistema cliente. (Debe registrar el sistema que funciona como proxy.) Sin embargo, si el servicio Sun Connection tambin administra directamente el sistema cliente a distancia (aplicacin web o software cliente Update Manager local configurado para conectarse directamente al servicio Sun Connection y obtener las actualizaciones, por ejemplo), es preciso registrar el sistema cliente.
3-31
3-32
3-33
3-34
Configuracin de clientes para utilizar el proxy de Update Manager En cuanto aparece la pantalla inicial, se carga la informacin del sistema y se muestra una barra de progreso. Cuando la barra de progreso llega al final, se abre la pantalla de la Figura 3-17.
Figura 3-17 Inicio de sesin de Update Manager No es necesario que rellene los campos User Name (nombre de usuario) o Password (contrasea), puesto que en este ejemplo no es preciso registrar el sistema cliente. El cliente se va a configurar para utilizar un proxy de Update Manager previamente configurado.
3-35
Configuracin de clientes para utilizar el proxy de Update Manager Haga clic en el vnculo Configure the system to retrieve updates from a local source (configurar el sistema para recuperar actualizaciones de un origen local). Aparecer la pantalla de la Figura 3-18, en la que se solicitar la direccin URL del origen de las actualizaciones.
Figura 3-18 Update Manager: uso de un origen de actualizaciones local La direccin URL que proporcione deber incluir el nombre de ese proxy: http://proxy-nombrehost:3816/solaris/ Haga clic en el botn Finish (finalizar) de la parte inferior de la pantalla. Update Manager analizar automticamente el sistema cliente, se pondr en contacto con el proxy y recuperar la lista de actualizaciones disponibles que se adecuen al cliente. La administracin del cliente puede comenzar en ese momento.
3-36
Actualizaciones estndar: son actualizaciones que solucionan problemas concretos del sistema operativo Solaris y de otros productos de software y hardware de Sun. Parches recomendados: son actualizaciones de Solaris que solucionan problemas que podran presentarse en un gran porcentaje de sistemas. Clsteres de actualizaciones: son grupos de actualizaciones estndar, recomendadas o de seguridad que se han integrado en un solo archivo para facilitar su descarga e instalacin.
Nota En las versiones anteriores de Solaris tambin existan actualizaciones de mantenimiento. Se trataba de series de parches probados y agrupados para instalarse en un solo paso, que slo estaban a disposicin de los clientes con contrato de servicios. Ahora se han sustituido por las versiones de Solaris de Solaris Express Program. Estas actualizaciones se pueden descargar de forma gratuita cada mes. Consulte los detalles relacionados con Solaris Express program en: http://www.sun.com/software/solaris/solaris-express/
3-37
Administracin de parches desde la lnea de comandos (CLI) La actualizacin est organizada como un directorio y se identifica mediante un nmero nico. El nmero asignado a la actualizacin incluye un cdigo bsico, seguido de un guin y un nmero que representa el nmero de revisin de la actualizacin. Por ejemplo, en un directorio de actualizacin denominado 105050-01, 105050 es el cdigo y 01 corresponde al nmero de revisin. Con anterioridad a Solaris 9, las actualizaciones se suministraban en formato zip; por ejemplo, 105050-01.zip. En la actualidad se encuentran en formato jar; por ejemplo, 105050-01.jar. Nota No se deben instalar todas las actualizaciones disponibles de Sun Microsystems. Instale solamente las actualizaciones recomendadas, las actualizaciones de seguridad y cualquier actualizacin necesaria para solucionar un problema especfico del sistema.
3-38
El modo local slo puede ejecutarse en el sistema local. Este modo puede utilizarse mientras el sistema se encuentra en el modo monousuario o multiusuario.
El modo remoto puede utilizarse para realizar tareas en sistemas remotos. Para ejecutar estos comandos en sistemas remotos, suele agregarse la opcin -n nombre_sistema al comando smpatch.
El comando smpatch se ejecuta en el modo local de forma predeterminada. En el modo local no existen opciones de autenticacin ni opciones relacionadas con sistemas remotos. El comando smpatch slo puede ejecutarse de forma local en Solaris 8. Si especifica alguna opcin de autenticacin o remota (excepto -L), se utiliza el modo remoto (en versiones anteriores a Solaris 10). Solaris 10 no admite el modo remoto.
El comando smpatch update realiza las tres funciones. Este comando se ejecuta en el modo multiusuario y no aplica actualizaciones que tienen configurada la propiedad interactiva. La directiva de actualizacin determina la aplicacin de las actualizaciones.
3-39
Los comandos smpatch analyze y smpatch update realizan las tres funciones. Si desea analizar el sistema para seguidamente descargar y aplicar las actualizaciones en un solo paso, utilice primero el comando smpatch analyze seguido del comando smpatch update. El comando smpatch analyze se ejecuta en el modo multiusuario. El comando smpatch update tambin descarga los parches considerados como requisito previo a la actualizacin.
Los comandos smpatch analyze, smpatch download y smpatch add realizan las tres funciones. Si desea analizar el sistema, descargar las actualizaciones e instalarlas en el sistema en tres pasos, primero utilice el comando smpatch analyze y luego ejecute el comando smpatch download seguido de smpatch add. El comando smpatch add se puede ejecutar en los modos monousuario o multiusuario. El comando smpatch add no tiene en cuenta la directiva de actualizacin.
Ejemplos de comandos
Aplicacin de una actualizacin en tres pasos
El uso de los tres comandos ofrece ms flexibilidad y control a la hora de aplicar un parche. 1. Suponga que desea tener las actualizaciones ms recientes para Norteamrica. El siguiente comando analizar el sistema local y determinar qu actualizaciones disponibles se pueden aplicar. (No las descargar ni aplicar.) El comando escribir la lista de actualizaciones en el archivo plist. Luego podr consultar las actualizaciones relacionadas con la configuracin regional en el archivo plist.
3-40
Uso del comando smpatch # smpatch analyze > plist # vi plist ... 119397-06 SunOS 5.10: patch for North America region locales issues ... El comando patchadd -p muestra las actualizaciones que se han aplicado al sistema. Utilice este comando para verificar que el sistema todava no se ha actualizado con la configuracin regional del archivo plist: # patchadd -p | grep 119397 # Nota Para conseguir el mismo resultado con ms rapidez, puede ejecutar el comando showrev -p. 2. El siguiente comando descargar (pero no aplicar) la nueva actualizacin correspondiente a la configuracin regional:
# smpatch download -i 119397-06 119379-06 has been validated. La actualizacin se ha descargado en el rea de descarga y se ha validado. El directorio predeterminado es /var/sadm/spool. Si el directorio cambia, puede consultar al sistema mediante el comando smpatch get para determinar la nueva ubicacin. En el ejemplo siguiente, la ubicacin predeterminada no ha cambiado. # smpatch get | grep download patchpro.download.directory /var/sadm/spool
Al ejecutar el siguiente comando se comprueba que la actualizacin descargada es un archivo *.jar: # cd /var/sadm/spool; ls 119397-06.jar ... 3. Para aplicar o instalar la actualizacin, utilice el siguiente comando smpatch add:
# smpatch add -i 119397-06 add patch 119397-06 Patch 119397-06 has been successfully installed.
3-41
Uso del comando smpatch Verifique que el parche se ha instalado en el sistema con este comando: # patchadd -p | grep 119397-06 Patch: 119397-06 Obsoletes: Requires: 121734-01 Incompatibles: Packages: SUNWnameos SUNWnamdt SUNWnamow Un anlisis posterior del sistema reflejar que esta actualizacin no es adecuada: # smpatch analyze | grep 119397-06 # Las actualizaciones se desinstalan fcilmente. Para desinstalar la actualizacin que se acaba de aplicar, utilice este comando: # smpatch remove -i 119397-06 remove patch 119397-06 Transition old-style patching. Patch 119397-06 has been backed out. El anlisis del sistema pone de manifiesto que esta actualizacin se considera de nuevo apropiada y que est disponible: # smpatch analyze | grep 119397-06 119397-06 SunOS 5.10: patch for North America region locales issues
3-42
smpatch get muestra la configuracin actual de los parmetros del entorno. smpatch set cambia los valores de los parmetros. Como los nuevos valores no se validan, es preciso verificar los cambios. smpatch unset aplica los valores predeterminados de los parmetros.
Ejemplos de comandos
Para ver los valores actuales de los parmetros del entorno, ejecute este comando:
# smpatch get patchpro.backout.directory "" patchpro.baseline.directory /var/sadm/spool patchpro.download.directory /var/sadm/spool patchpro.install.types rebootafter:reconfigafter:standard patchpro.patch.source http://192.168.201.1:3816/solaris/ https://getupdates1.sun.com/solaris/ patchpro.patchset current patchpro.proxy.host "" patchpro.proxy.passwd **** **** patchpro.proxy.port 8080 patchpro.proxy.user ""
Nota La pgina del comando man de smpatch(1M) contiene una descripcin detallada de los parmetros del entorno. Los comandos smpatch set y get permite configurar el origen de las actualizaciones en un valor nuevo. (Este es el procedimiento que suele utilizarse para remitir al cliente local a un nuevo servidor proxy de actualizacin.)
# smpatch set patchpro.patch.source=http://newproxy.apex.com:3816/solaris/
3-43
Tambin puede definir un directorio local o remoto como origen de de las actualizaciones, como se muestra en los ejemplos siguientes: # smpatch set patchpro.patch.source=file:/net/sys-04/export/updates # smpatch set patchpro.patch.source=file:/local/updates # smpatch set patchpro.patch.source=file:/cdrom/cdrom0 El parmetro patchpro.patch.source recupera el valor predeterminado con el comando siguiente:
# smpatch unset patchpro.patch.source # smpatch get patchpro.backout.directory "" patchpro.baseline.directory /var/sadm/spool patchpro.download.directory /var/sadm/spool patchpro.install.types rebootafter:reconfigafter:standard patchpro.patch.source https://getupdates1.sun.com/solaris/ patchpro.patchset current patchpro.proxy.host "" patchpro.proxy.passwd **** **** patchpro.proxy.port 8080 patchpro.proxy.user ""
Es posible configurar un conjunto de actualizaciones en el que se defina el subconjunto de actualizaciones con el que van a trabajar los comandos. Por ejemplo, con los comandos siguientes slo se analizarn las actualizaciones recomendadas: # smpatch set patchpro.patchset=recommended # smpatch analyze
3-44
Actualizaciones estndar de aplicacin inmediata que no requieren reiniciar el sistema Actualizaciones que requieren reiniciar el sistema Actualizaciones de aplicacin manual
El uso del comando smpatch update para actualizar el sistema ofrece una ventaja, que radica en que se dispone de las directrices establecidas por los desarrolladores de actualizaciones (parches) en cuanto a la mejor forma de aplicarlas. No obstante, es posible personalizar la directiva para aplicar las actualizaciones utilizando el parmetro patchpro.install.types.
3-45
Configuracin del entorno de administracin de parches En la Tabla 3-1 se muestra la correspondencia entre los valores del parmetro patchpro.install.types y los iconos de la ficha Available Updates de Update Manager. En la tabla tambin se describen los valores, y si forma parte de la directiva de actualizacin predeterminada. Tabla 3-1 Valores del parmetro Install Type e iconos de Update Manager patchpro. install. types valor standard Icono de Update Manager Standard
Descripcin
Valor predeterminado. Se puede aplicar en el modo multiusuario. Est visible de inmediato, a menos que la aplicacin que se est actualizando est ejecutndose mientras se aplica la actualizacin. En este caso, los efectos de la actualizacin se aprecian despus de reiniciar la aplicacin. Valor predeterminado. Los efectos de la actualizacin no se aprecian hasta que se reinicia el sistema. Valor predeterminado. Los efectos de la actualizacin no se aprecian hasta que se realiza un arranque de reconfiguracin (boot -r). Consulte la pgina del comando man de boot(1M). El sistema se vuelve inestable (comportamiento impredecible o posible prdida de datos) hasta que se reinicia. El sistema se vuelve inestable (comportamiento impredecible o posible prdida de datos) hasta que se realiza un arranque de reconfiguracin (boot -r). La actualizacin no se aplica en el modo multiusuario. La actualizacin se debe aplicar en un sistema no interactivo sin trfico de red y actividad de entrada/salida muy limitada. La actualizacin slo se descarga en el sistema y debe instalarse manualmente conforme a las instrucciones del archivo README. La actualizacin slo se aplica en clientes sin disco e indica la parte del sistema de archivos del cliente a la que afecta (clientroot indica / y clientuser, /usr).
rebootafter reconfigafter
rebootimmediate
reconfigimmediate
singleuser
interactive
Download Only
clientroot | clientuser
3-46
Configuracin del entorno de administracin de parches En la Figura 3-19 se muestra la lista de iconos del men Help de la interfaz GUI de Update Manager. Los dos primeros iconos corresponden a actualizaciones que slo se descargan y que requieren reiniciar el sistema, respectivamente.
Figura 3-19 Update Manager Icon Legend (leyenda de iconos de Update Manager)
3-47
Configuracin del entorno de administracin de parches El valor predeterminado de este parmetro se puede obtener con el comando smpatch get: # smpatch get patchpro.install.types patchpro.install.types rebootafter:reconfigafter:standard
3-48
Averige si hay alguna versin anterior de la actualizacin de wanboot en el sistema: # patchadd -p | grep 119681 Patch: 119681-05 Obsoletes: Requires: Incompatibles: Packages: SUNWcakr Slo est instalada la versin 05 (anterior) de esta actualizacin. Descargue la actualizacin de wanboot ms reciente, pero no la aplique: # smpatch download -i 119681-06 119681-06 has been validated. Utilice el comando smpatch add para aplicar el parche: # smpatch add -i 119681-06 add patch 119681-06 ... Validating patches... Loading patches installed on the system... Done! Loading patches requested to install. Done! Checking patches that you specified for installation. Done! Approved patches will be installed in this order: 119681-06 Patch 119681-06 has been successfully installed.
Asegrese de que el parche se ha instalado en el sistema: # patchadd -p | grep 119681 Patch: 119681-05 Obsoletes: Requires: Incompatibles: Packages: SUNWcakr Patch: 119681-06 Obsoletes: Requires: Incompatibles: Packages: SUNWcakr
3-49
Configuracin del entorno de administracin de parches Un anlisis posterior del sistema reflejar que esta actualizacin no es adecuada: # smpatch analyze | grep 119681-06 #
Siempre se recomienda leer la informacin relacionada con la actualizacin, sobre todo cuando se utiliza el comando smpatch add. Vaya al rea de administracin de colas de descarga y averige qu informacin se ofrece sobre la actualizacin: # cd /var/sadm/spool; ls 119681-06.jar cache patchpro_dnld_2006.02.13@10:10:29:MST.txt # cat *.txt This patch bundle was generated by PatchPro. Please refer to the README file within each patch for installation instructions. To properly patch your system, the following patches should be installed in the listed order:
1) 119681-06 !!! IMMEDIATE REBOOT !!! Los archivos *.txt y otros archivos readme suelen contener informacin importante. En este caso, la advertencia de que es preciso reiniciar de inmediato significa que el valor de PATCH_PROPERTIES correspondiente al tipo de instalacin es reconfigimmediate o rebootimmediate. Para ver el valor del tipo de instalacin de esta actualizacin, utilice la secuencia de comandos siguiente: # cd /var/adm # jar xvf 119681-06.jar 119681-06/patchinfo inflated: 119681-06/patchinfo # grep PROP 119681-06/patchinfo PATCH_PROPERTIES='reconfigimmediate' Para que el sistema vuelva a ser establece, es preciso realizar un arranque de reconfiguracin (boot -r). Nota En el archivo /var/adm/messages se identifican los problemas que surgen al aplicar un parche en el sistema.
3-50
Recuerde que el comando smpatch add informa de que es preciso reiniciar el sistema en el archivo *.txt del rea de administracin de colas de descarga. Por su parte, el comando smpatch update muestra esta informacin en la salida estndar, crea un archivo disallowed_patch_list y proporciona instrucciones de reinicio. # cat /var/sadm/spool/disallowed_patch_list 119681-06 Parte del comando smpatch update aplica las actualizaciones. Las actualizaciones que no se pueden aplicar por algn motivo se incluyen en disallowed_patch_list. Las actualizaciones de este archivo se consultan manualmente. Verifique que la nica versin de esta actualizacin instalada en el sistema es la versin anterior (05): # patchadd -p | grep 119681 Patch: 119681-05 Obsoletes: Requires: Incompatibles: Packages: SUNWcakr
3-51
Configuracin del entorno de administracin de parches En el anlisis posterior del sistema, este parche seguir estando disponible y todava se considerar adecuado. El parche se encuentra en el rea de administracin de colas en espera de que se instale y se reinicie el sistema. # smpatch analyze | grep wanboot 119681-06 SunOS 5.10: wanboot patch Agregue el parche de forma manual: # smpatch add -i 119681-06 Validating patches... Loading patches installed on the system... Done! Loading patches requested to install. Architecture for package SUNWcakr from directory SUNWcakr.v in patch 119681-06 differs from the package installed on the system. Architecture for package SUNWcakr from directory SUNWcakr.us in patch 119681-06 differs from the package installed on the system. Done! Checking patches that you specified for installation. Done! Approved patches will be installed in this order: 119681-06 Patch 119681-06 has been successfully installed. Verifique que se ha instalado: # patchadd -p | grep 119681 Patch: 119681-05 Obsoletes: Requires: Incompatibles: Packages: SUNWcakr Patch: 119681-06 Obsoletes: Requires: Incompatibles: Packages: SUNWcakr Analice el sistema para confirmar que ya no es apropiado ni est disponible: # smpatch analyze | grep wanboot # Como la actualizacin est marcada como reconfigimmediate, reinicie el sistema con la opcin -r: ok boot -r ... Para asegurarse de que ha terminado de administrar esta actualizacin, elimine la entrada correspondiente del archivo disallowed_patch_list: # cat /var/sadm/spool/disallowed_patch_list #
3-52
3-53
Autorizacin y autenticacin
El superusuario puede administrar las actualizaciones. Tambin puede asignar la realizacin de estas tareas a otros usuarios, pero deben asumir una funcin que incluya el perfil de instalacin de software o la autorizacin solaris.admin.patchmgr.*. El siguiente comando muestra un comando smpatch get que requiere asumir la funcin (-r) denominada patchman: sys-01> smpatch get -r patchman Nota Esta funcin de delegacin no es posible en la aplicacin cliente Update Manager. La autenticacin para realizar tareas de administracin tambin puede requerir la introduccin de un nombre de usuario y una contrasea: # smpatch set patchpro.sun.user=user-name # smpatch set patchpro.sun.passwd Sun User Password: contrasea Despus habra que utilizar las opciones -u (nombreusuario) y -p (contrasea) con los comandos de administracin. (La contrasea se solicitar cuando la opcin -p no aparezca en la lnea de comandos.)
3-54
Ms informacin
Ms informacin
En la pgina docs.sun.com se incluyen muchas otras tareas, que se exponen brevemente en la Tabla 3-2 junto con su direccin.
Tabla 3-2 Otros recursos relacionados con las tareas de administracin Tarea Cmo descargar y aplicar una actualizacin de forma manual Cmo cambiar la directiva de aplicacin de parches (lnea de comandos) Cmo importar un certificado fiable en el repositorio de claves de paquetes Solucin de problemas de Patch Manager URL http://docs.sun.com/app/docs/doc/ 817-1985/6mhm8o62f?a=view http://docs.sun.com/app/docs/doc/ 817-1985/6mhm8o62p?a=view http://docs.sun.com/app/docs/doc/ 817-1985/6mhm8o60l?a=view http://docs.sun.com/app/docs/doc/ 817-1985/6mhm8o62t?a=view
3-55
Figura 3-20 Aplicacin web de Sun Connection Antes de que pueda administrar los sistemas con el servicio Sun Connection, necesita utilizar el asistente de registro de Update Manager para registrarlos y especificar si las actualizaciones se van a administrar de forma remota. El servicio Sun Connection permite administrar de forma remota y de una sola vez las actualizaciones de todos los sistemas Solaris 10 registrados desde una interfaz web comn.
3-56
Introduccin a la aplicacin web de Sun Connection Cada uno de los sistemas registrados accede al sitio web de Sun Connection o al proxy de Update Manager a intervalos de tiempo determinados. Cuando esto ocurre, se ejecutan los trabajos de la cola correspondientes al sistema. Cada trabajo es un actividad de administracin de actualizaciones que se ejecuta en uno o varios de los sistemas administrados. Nota No utilice la interfaz grfica de usuario de Update Manager, la aplicacin web de Sun Connection, el comando smpatch y el comando patchadd a la vez para administrar las actualizaciones del sistema. Es posible utilizar todos estos mtodos, pero por separado.
3-57
Figura 3-21 Pgina de resumen de la aplicacin web de Sun Connection Las cuatro fichas que presenta (Summary, Systems, Updates y Jobs) son las categoras principales en las que se dividen las tareas de administracin en esta interfaz. En esta pantalla de resumen se puede identificar a simple vista lo siguiente:
Las actualizaciones de seguridad y recomendadas que hay disponibles El nmero de sistemas registrados y cuntos de ellos no han accedido al servidor de actualizaciones de Sun El estado de los trabajos de actualizacin, incluido el nmero de trabajos fallidos y con xito
3-58
Uso de la aplicacin web de Sun Connection Cuando se hace clic en la ficha System (sistema), se muestra el nivel de detalle de la Figura 3-22.
Figura 3-22 Pgina de sistemas de la aplicacin web de Sun Connection En esta pgina puede ver:
La hora del ltimo acceso (por sistema) Las actualizaciones disponibles (por sistema) El estado de los trabajos (por sistema) Una lista de los trabajos agregados en esta sesin de conexin (mostrada como 0 en este ejemplo) El mismo estado de los trabajos de todos los sistemas que aparece en la pantalla de resumen
3-59
Uso de la aplicacin web de Sun Connection Puede seleccionar un sistema en la columna de la izquierda y luego hacer clic en View Available Updates (ver actualizaciones disponibles) para localizar los detalles relacionados con las actualizaciones del sistema. En la Figura 3-23 se muestran los detalles.
Figura 3-23 Sun Connection con actualizaciones disponibles para el sistema seleccionado La columna Dependencies (dependencias) permite saber rpidamente el nmero de dependencias de las actualizaciones seleccionadas. Puede hacer clic en el encabezado de la columna 2 (Type) y ordenar las filas en funcin de esos valores. De esta forma, las actualizaciones de seguridad aparecern al principio de la lista, seguidas por los parches recomendados. Las actualizaciones que no sean crticas ocuparn el final de la lista.
3-60
Uso de la aplicacin web de Sun Connection Cada valor de Update ID (ID de actualizacin) y cadena Synopsis (sumario) es un vnculo. Cuando se hace clic en uno de ellos, aparecen los detalles de la actualizacin en cuestin, como se muestra en la Figura 3-24.
Figura 3-24 Sun Connection con detalles de la actualizacin seleccionada Se trata de la informacin que normalmente se incluye en el archivo README de cada actualizacin. En la pantalla Available Updates (actualizaciones disponibles), seleccione las actualizaciones que quiere aplicar para iniciar el proceso. Cuando haya seleccionado las actualizaciones, haga clic en Apply Updates (aplicar actualizaciones) para planificar el trabajo. Cada trabajo planificado es un trabajo.
3-61
Uso de la aplicacin web de Sun Connection Por ejemplo, en la Figura 3-25 se muestra una pantalla de actualizaciones disponibles ordenada de manera que las actualizaciones de seguridad aparezcan al principio de la lista. Tambin se muestra una de las actualizaciones de seguridad seleccionadas, que no tiene dependencias, adems de otras dos actualizaciones seleccionadas (que no aparecen), una de las cuales presenta una dependencia.
3-62
Uso de la aplicacin web de Sun Connection Despus de hacer clic en el botn Apply Updates (aplicar actualizaciones), los trabajos se planifican como se muestra en la Figura 3-26. En la pantalla de dependencias necesarias se puede averiguar qu otras actualizaciones requieren las actualizaciones seleccionadas. Si es necesario, puede cancelarlas. En caso contrario, haga clic en el botn Install (instalar) para enviar los trabajos.
Figura 3-26 Sun Connection con trabajos de actualizacin planificados y detalles de dependencia
3-63
Uso de la aplicacin web de Sun Connection Cuando est seguro de que desea aplicar las actualizaciones, haga clic en el botn Install. Aparecer la pantalla de la Figura 3-27 para que confirme la operacin antes de planificar los trabajos.
Figura 3-27 Pantalla de confirmacin de la planificacin de trabajos de Sun Connection La pgina de confirmacin se puede imprimir. En los cuatro trabajos de la tabla All Jobs (todos los trabajos) aparece Pending (pendiente) (se han seleccionado tres actualizaciones, una de las cuales tiene una dependencia, lo que suma cuatro).
3-64
Uso de la aplicacin web de Sun Connection Cuando se hace clic en la ficha Jobs (trabajos), aparecen detalles los detalles de los trabajos relacionados con esta y otras sesiones, como se muestra en la Figura 3-28.
Figura 3-28 Pantalla de trabajos de Sun Connection con trabajos pendientes Antes de que un trabajo de actualizacin termine de realizarse, su estado se registra como pendiente o en progreso. En este ejemplo, en la columna Systems Affected (sistemas afectados) aparece 1 (host07), pero puede aplicar fcilmente las actualizaciones a varios sistemas. En el caso de los trabajos pendientes, en la columna de tiempo aparece la hora UTC en que se enviaron los trabajos. El trmino Pending indica que el trabajo se ha enviado, pero est en cola esperando a que el sistema administrado lo recupere. In progress significa que el sistema administrado ha recibido el trabajo, pero no ha generado un mensaje de estado para notificar si se ha realizado con xito o no. Los trabajos pendientes se pueden cancelar.
3-65
Uso de la aplicacin web de Sun Connection El intervalo de acceso predeterminado es de dos horas. Aunque se puede cambiar, nunca puede configurarse en menos de dos horas. Si deja abierta la sesin, se desconectar. Vuelva a iniciar la sesin en el servicio Sun Connection para comprobar el estado de los trabajos. En la Figura 3-29 puede ver lo que aparece.
Figura 3-29 Pantalla de trabajos de Sun Connection con trabajos correctos Cuando se inicia la sesin y se comprueba la ficha Jobs (trabajos), se advierte que los trabajos que antes estaban pendientes se han realizado correctamente. La hora UTC de estos trabajos es la hora en la que se han completado. La tabla Job Summary (resumen de trabajos) se actualiza. El nmero que aparece en Added this Session (agregado a esta sesin) cambia a 0 cuando se cierra y vuelve a iniciar la sesin. Con el tiempo, la pantalla de la ficha Jobs (trabajos) incluir muchas filas de informacin. Para archivar los ms antiguos, haga clic en el icono situado junto al estado Succeeded (con xito) de cada trabajo. Tambin puede utilizar la casilla de verificacin de la primera columna para seleccionar varios trabajos y hacer clic en el botn Archive Jobs (archivar trabajos).
3-66
Figura 3-30 Actualizaciones ordenadas de Sun Connection Cada uno de los parches recomendados que se ha seleccionado tiene dos dependencias. Si desea saber a qu sistemas se aplican estos parches, haga clic en el botn View Systems Affected (ver sistemas afectados).
3-67
Uso de la aplicacin web de Sun Connection En la Figura 3-31 se muestra la pantalla que aparece.
Figura 3-31 Sun Connection con funcin sistemas afectados En la pantalla Systems Affected (sistemas afectados) se muestra una lista de todos los sistemas registrados a los que se pueden aplicar las actualizaciones. A continuacin se proporcionan detalles a tener en cuenta sobre la informacin de esta pantalla:
De forma predeterminada, todas las casillas de verificacin de la columna izquierda presentan una marca, aunque es posible anular la seleccin de todo, de una actualizacin o de un sistema. La ltima columna presenta las versiones anteriores de las actualizaciones seleccionadas que estn instaladas en el sistema. El pequeo icono triangular situado junto al nombre de la actualizacin permite contraer la informacin anidada.
3-68
Uso de la aplicacin web de Sun Connection Una vez que haya seleccionado los sistemas y las actualizaciones que quiere aplicar, haga clic en el botn Apply Updates (aplicar actualizaciones) para crear trabajos relacionados con las actualizaciones. En la Figura 3-32 se muestra la siguiente pantalla que aparece.
Figura 3-32 Sun Connection con dependencias de sistemas Esta pantalla de dependencias es similar a la anterior, pero en ella se muestra la informacin relacionada con todos los sistemas que se van a actualizar. Haga clic en el botn Install de la parte inferior de la pantalla (no mostrado) para planificar los trabajos.
3-69
Uso de la aplicacin web de Sun Connection En la Figura 3-33 se muestra la pgina de confirmacin que aparece.
Figura 3-33 Pgina de confirmacin de trabajos de Sun Connection La pgina de confirmacin incluye un cuadro de resumen de todos los trabajos en el que se muestra el nmero de trabajos pendientes. Como tambin se indica la hora en que deben ejecutarse los trabajos planificados, es posible volver a iniciar la sesin en un momento determinado para comprobar el estado del trabajo.
3-70
Mdulo 4
4-1
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
RAM fsica
La memoria fsica es la RAM que se encuentra instalada en el ordenador. Cuando se trabaja con el espacio de intercambio, la RAM es el recurso ms importante del sistema. La cantidad de memoria fsica vara en funcin del sistema en el que se ejecuta Solaris 10. Para que se pueda ejecutar, es preciso incluir el cdigo de cada proceso activo y cualquier dato requerido por cada proceso en la memoria fsica.
4-2
Espacio de intercambio
La cantidad de memoria fsica de un sistema es fija, pero el uso de esta memoria vara. Es frecuente que se produzcan conflictos entre procesos para determinar cul de ellos accede a la memoria fsica. A veces, un proceso debe ceder a otro proceso parte del espacio de memoria que tiene asignado y, por tanto, algunas de sus pginas no estn disponibles en RAM. Las pginas de memoria annimas se sitan en una zona de intercambio, cosa que no ocurre con las pginas de sistemas de archivos sin modificar, ya que los datos del sistema de archivos estn almacenados de forma permanente en el disco y se pueden eliminar de la memoria fsica.
Slices de intercambio
El principal espacio de intercambio del sistema es el slice del disco. En Solaris 10, la ubicacin predeterminada del espacio de intercambio principal es el slice 1 del disco de arranque, que empieza en el cilindro 0 de forma predeterminada. La ubicacin predeterminada se puede cambiar durante la instalacin personalizada. Cada vez que se reinicia el sistema, una entrada del archivo /etc/vfstab determina la configuracin de la particin de intercambio. Conforme se necesita espacio de intercambio adicional, se pueden configurar otros slices de intercambio, cuya ubicacin se debe planificar con cuidado. Si dispone de espacio de almacenamiento adicional fuera del disco del sistema, site el slice de intercambio en una unidad adicional para reducir la carga de la unidad de disco del sistema.
Archivos de intercambio
El espacio de intercambio del sistema tambin se puede ampliar mediante el uso de archivos de intercambio. Los archivos de intercambio son archivos que residen en un sistema de archivos creados con el comando mkfile. Estos archivos pueden resultar tiles en ciertas ocasiones. Por ejemplo, los archivos de intercambio son tiles cuando se requiere espacio de intercambio adicional pero todos los slices del disco estn ocupados y no resulta prctico volver a segmentar un disco para agregar ms espacio de intercambio. Los archivos de intercambio se pueden incluir de manera permanente en la configuracin de intercambio. Para esto, se puede crear una entrada para el archivo de intercambio en el archivo /etc/vfstab.
4-3
Swap Slice
RAM
Figura 4-1
Espacio de intercambio
4-4
Paginacin
La paginacin consiste en transferir las pginas de memoria seleccionadas entre la RAM y las reas de intercambio. Cuando se transfieren datos privados a espacios de intercambio, la RAM fsica queda disponible para que la utilicen otros procesos. Las pginas que se han movido se pueden recuperar del espacio intercambio y asignar de nuevo a la memoria fsica. La nueva incorporacin de estas pginas a la RAM puede requerir que se transfieran otros procesos para dejar espacio. El intercambio es el proceso por el que todas las pginas de la memoria de datos modificadas asociadas con un proceso se transfieren entre la RAM y un disco. Para ver el tamao de una pgina de memoria en bytes, utilice el comando pagesize. En sistemas SPARC en los que se ejecuta Solaris 10, el tamao de pgina predeterminado es de 8192 bytes. # pagesize 8192 En los sistema x86 de Sun, las pginas tienen un tamao predeterminado de 4096 bytes. # pagesize 4096 Para ejecutar aplicaciones tradiciones con pginas de memoria de mayor tamao, puede utilizar el servicio Multiple Page Size Support (MPSS). El uso de tamaos de pgina mayores puede mejorar considerablemente el rendimiento de los programas que consumen grandes cantidades de memoria. Las pginas grandes se deben asignar a direcciones que son mltiplos del tamao de pgina. Para ver todos los tamaos de pgina que se admiten, utilice el comando pagesize. En sistemas SPARC: # pagesize -a 8192 65536 524288 4194304 En sistemas x86: # pagesize -a 4096 2097152
4-5
Introduccin a la memoria virtual En Solaris no suele producirse intercambio. La cantidad de espacio de intercambio que se necesita vara en funcin del sistema. El espacio de intercambio disponible debe cumplir dos criterios:
Debe bastar para complementar la memoria RAM fsica y satisfacer las necesidades de los procesos que se ejecutan al mismo tiempo. Debe ser suficiente para contener un volcado por fallo del sistema (en un solo slice), a menos que se haya utilizado dumpadm(1m) para especificar un dispositivo de volcado fuera del espacio de intercambio.
4-6
Allocated
Reserved
Available Arrow up: swap -d subtracts the amount of available swap space Arrow down: swap -a adds the amount of available swap space
Figura 4-2
4-7
Configuracin del espacio de intercambio Para ver cmo est asignado el espacio de intercambio, lleve a cabo los pasos siguientes: 1. Obtenga un resumen del espacio de intercambio virtual del sistema. # swap -s total: 41776k bytes allocated + 5312k reserved = 47088k used, 881536k available 2. # swap -l swapfile /dev/dsk/c0t0d0s1 Obtenga los detalles de las reas de intercambio fsico del sistema. dev swaplo blocks free 136,9 16 1048304 1048304
Nota Las salidas de swap -s y swap -l pueden presentar diferencias en cuanto al tamao del espacio de intercambio disponible y libre. En la salida del comando swap -s no se tiene en cuenta el espacio de intercambio previamente asignado que todava no ha utilizado ningn proceso. En la salida del comando swap -l, los valores aparecen expresados en bloques de 512 bytes. Sin embargo, en la salida del comando swap -s, los valores se expresan en Kbytes. El valor de swaplo que presenta el comando swap -l indica el nmero de bloques de 512 bytes que corresponde al tamao de pgina del sistema. El valor de swaplo impide que se efecten operaciones de paginacin o intercambio en los bloques del disco que puedan contener la VTOC del disco o el bloque de arranque.
4-8
Para crear el slice de intercambio, agregue la lnea siguiente. swap no Utilice el comando swap -a para agregar un rea de intercambio adicional.
# swap -a /dev/dsk/c1t3d0s1 Nota Cuando se vuelve a reiniciar el sistema, el nuevo slice de intercambio (/dev/dsk/c1t3d0s1) se incluye automticamente como parte del espacio de intercambio debido a que se ha agregado la entrada al archivo /etc/vfstab.
2. 3.
# mkdir -p /usr/local/swap
4-9
Configuracin del espacio de intercambio 4. Agregue el archivo de intercambio al espacio de intercambio del sistema. Obtenga los detalles del espacio de intercambio del sistema modificado.
# swap -a /usr/local/swap/swapfile 5.
# swap -l swapfile dev swaplo blocks free /dev/dsk/c0t0d0s1 136,9 16 1048304 1048304 /usr/local/swap/swapfile 16 40944 40944 6. Obtenga un resumen del espacio de intercambio del sistema modificado.
# swap -s total: 41672k bytes allocated + 5416k reserved = 47088k used, 901200k available 7. Para que se utilice un archivo de intercambio cuando se vuelva a reiniciar el sistema, agregue una entrada para el archivo de intercambio al archivo /etc/vfstab. mount point FS type swap fsck pass no mount at boot mount options
4-10
# rm /usr/local/swap/swapfile 3.
Nota En la salida del comando df -h se muestra el espacio utilizado por el archivo de intercambio hasta su eliminacin.
4-11
Preparacin
Para preparar este ejercicio:
Todos los alumnos deben desconfigurar el espacio de intercambio adicional antes de terminar la prctica. Todos los alumnos deben utilizar el slice 1 del disco de reserva de su sistema durante este ejercicio. En este ejercicio se da por supuesto que el alumno sabe cmo usar la utilidad format para crear particiones fdisk de Solaris y slices del disco. En este ejercicio se utilizan ejemplos basados en un sistema SPARC. Asegrese de utilizar nombres de dispositivo correctos en funcin de la arquitectura del sistema. En los sistemas x86/x64, utilice el men fdisk de la utilidad format para crear una particin fdisk de Solaris que ocupe todo el disco de reserva. Asegrese de que la particin fdisk de Solaris que cree en el disco de reserva no sea la particin activa.
Nota Las estadsticas de intercambio variarn en funcin de la configuracin del sistema. Para particionar el disco de reserva, o la particin fdisk de Solaris del disco de reserva, consulte la informacin de la Tabla 4-1. Tabla 4-1 Informacin de particin Slice 0 1 3 4 Tamao 512 Mbytes 512 Mbytes 8 Mbytes 8 Mbytes Uso Intercambio / volcado Intercambio / volcado No asignado No asignado
4-12
Ejercicio: administracin de la configuracin de la utilidad swap Tabla 4-1 Informacin de particin (Continuacin) Slice 5 6 7 Tamao 6000 Mbytes (o resto del disco) 0 Mbytes 0 Mbytes Uso Sistema de archivos No asignado No asignado
Tarea
Lleve a cabo los pasos siguientes: 1. Ejecute el comando swap -s. a. Cul es el nmero total de bytes asignados y actualmente en uso? Qu cantidad total de bytes se han asignado pero no estn en uso, sino que estn reservados por los procesos para un posible uso futuro? Cul es la cantidad total de espacio de intercambio asignado y reservado? Qu cantidad total del espacio de intercambio actualmente disponible se puede reservar y asignar en el futuro?
____________________________________________________________ b.
____________________________________________________________ c.
____________________________________________________________ d.
____________________________________________________________ 2. Ejecute el comando swap -l. Acceda a la informacin del dispositivo de intercambio fsico configurado en el sistema. ____________________________________________________________ a. Cunto espacio de intercambio hay en total en el dispositivo de intercambio? Cunto espacio hay disponible para el dispositivo?
____________________________________________________________ b. ____________________________________________________________
4-13
Ejercicio: administracin de la configuracin de la utilidad swap 3. Ejecute el comando df -h. Tiene el sistema de archivos /usr suficiente espacio para agregar 20 Mbytes de espacio de intercambio? ____________________________________________________________ 4. 5. 6. 7. Si no existe el directorio /usr/local/swap, crelo. Cree un archivo de intercambio de 20 Mbytes en el directorio /usr/local/swap y agrguelo al espacio de intercambio del sistema. Utilice el comando swap -l para cerciorarse de que el nuevo espacio de intercambio est disponible. Utilice el comando swap -s para verificar que el nuevo espacio de intercambio est disponible. En qu se diferencian las salidas de los comandos swap -l y swap -s? ____________________________________________________________ ____________________________________________________________ 8. 9. Elimine el archivo de intercambio que ha creado en el paso 5. Use la utilidad swap para verificar que el espacio de intercambio ha dejado de estar disponible.
10. Agregue la particin 1 del segundo disco al espacio de intercambio existente y utilice un nombre de dispositivo del sistema correcto. 11. Verifique que se ha agregado el nuevo espacio de intercambio. 12. Agregue la nueva particin de intercambio al archivo /etc/vfstab para convertirla en particin permanente. Para verificar el cambio necesita reiniciar el sistema. 13. Tras reiniciar el sistema, use la utilidad swap para verificar que existe el espacio de intercambio adicional. Coincide la nueva particin de intercambio que aparece con la que ha agregado al archivo /etc/vfstab? ____________________________________________________________ 14. Para verificar que el espacio de intercambio adicional existe, utilice el comando df -h. Por qu el espacio de intercambio recin creado aparece en el archivo /etc/vfstab, pero no en la salida del comando df -h? ____________________________________________________________ ____________________________________________________________
4-14
Ejercicio: administracin de la configuracin de la utilidad swap 15. Elimine el espacio de intercambio adicional con el comando swap -d para que el sistema recupere la configuracin de intercambio inicial. 16. Elimine la entrada del espacio de intercambio adicional del archivo /etc/vfstab para que el sistema mantenga la configuracin de intercambio inicial despus de reiniciarse. 17. Utilice el comando swap -l para cerciorarse de que el espacio de intercambio adicional se ha desconfigurado.
4-15
!
?
4-16
Preparacin
Para preparar este ejercicio:
Todos los alumnos deben desconfigurar el espacio de intercambio adicional antes de terminar la prctica. Todos los alumnos deben utilizar el slice 1 del disco de reserva de su sistema durante este ejercicio. En este ejercicio se da por supuesto que el alumno sabe cmo usar la utilidad format para crear particiones fdisk de Solaris y slices del disco. En este ejercicio se utilizan ejemplos basados en un sistema SPARC. Asegrese de utilizar nombres de dispositivo correctos en funcin de la arquitectura del sistema. En los sistemas x86/x64, utilice el men fdisk de la utilidad format para crear una particin fdisk de Solaris que ocupe todo el disco de reserva. Asegrese de que la particin fdisk de Solaris que cree en el disco de reserva no sea la particin activa.
Nota Las estadsticas de intercambio variarn en funcin de la configuracin del sistema. Para particionar el disco de reserva, o la particin fdisk de Solaris del disco de reserva, consulte la informacin de la Tabla 4-2. Tabla 4-2 Informacin de particin Slice 0 1 3 4 Tamao 512 Mbytes 512 Mbytes 8 Mbytes 8 Mbytes Uso Intercambio / volcado Intercambio / volcado No asignado No asignado
4-17
Soluciones del ejercicio: administracin de la configuracin de la utilidad swap Tabla 4-2 Informacin de particin (Continuacin) Slice 5 6 7 Tamao 6000 Mbytes (o resto del disco) 0 Mbytes 0 Mbytes Uso Sistema de archivos No asignado No asignado
Tareas y soluciones
En esta seccin se describen los pasos que ha realizado y se proporcionan las soluciones. Lleve a cabo los pasos siguientes: 1. Ejecute el comando swap -s. # swap -s total: 49024k bytes allocated + 4704k reserved = 53728k used, 875280k available a. Cul es el nmero total de bytes asignados y actualmente en uso? Qu cantidad total de bytes se han asignado pero no estn en uso, sino que estn reservados por los procesos para un posible uso futuro? Cul es la cantidad total de espacio de intercambio asignado y reservado? Qu cantidad total del espacio de intercambio actualmente disponible se puede reservar y asignar en el futuro?
4-18
Soluciones del ejercicio: administracin de la configuracin de la utilidad swap 2. # swap -l swapfile /dev/dsk/c0t0d0s1 Ejecute el comando swap -l. dev swaplo blocks free 136,1 16 1049312 1049312 Acceda a la informacin del dispositivo de intercambio fsico configurado en el sistema. /dev/dsk/c0t0d0s1 en este ejemplo. a. Cunto espacio de intercambio hay en total en el dispositivo de intercambio? Cunto espacio hay disponible para el dispositivo?
1.049.312 bloques en este ejemplo. b. 3. # df -h Filesystem /dev/dsk/c0t0d0s0 /devices ctfs proc mnttab swap objfs /dev/dsk/c0t0d0s6 fd /dev/dsk/c0t0d0s3 swap swap /dev/dsk/c0t0d0s7 1.049.312 bloques en este ejemplo. Ejecute el comando df -h. size 470M 0K 0K 0K 0K 854M 0K 4.8G 0K 479M 853M 853M 2.1G used 194M 0K 0K 0K 0K 880K 0K 2.9G 0K 57M 0K 40K 2.1M avail capacity 229M 46% 0K 0% 0K 0% 0K 0% 0K 0% 853M 1% 0K 0% 1.9G 61% 0K 0% 375M 14% 853M 0% 853M 1% 2.0G 1% Mounted on / /devices /system/contract /proc /etc/mnttab /etc/svc/volatile /system/object /usr /dev/fd /var /tmp /var/run /export
Tiene el sistema de archivos /usr suficiente espacio para agregar 20 Mbytes de espacio de intercambio? S 4. 5. Si no existe el directorio /usr/local/swap, crelo. Cree un archivo de intercambio de 20 Mbytes en el directorio /usr/local/swap y agrguelo al espacio de intercambio del sistema. # mkdir -p /usr/local/swap
4-19
Soluciones del ejercicio: administracin de la configuracin de la utilidad swap 6. Utilice el comando swap -l para cerciorarse de que el nuevo espacio de intercambio est disponible.
# swap -l swapfile dev swaplo blocks free /dev/dsk/c0t0d0s1 136,1 16 1049312 1049312 /usr/local/swap/swapfile 16 40944 40944 7. Utilice el comando swap -s para verificar que el nuevo espacio de intercambio est disponible.
# swap -s total: 49104k bytes allocated + 4624k reserved = 53728k used, 895040k available En qu se diferencian las salidas de los comandos swap -l y swap -s? En la salida del comando swap -l se muestra cada espacio, mientras que la salida del comando swap -s slo presenta un informe acumulado. 8. Elimine el archivo de intercambio que ha creado en el paso 5. # swap -d /usr/local/swap/swapfile # rm /usr/local/swap/swapfile 9. Use la utilidad swap para verificar que el espacio de intercambio ha dejado de estar disponible.
# swap -l swapfile dev swaplo blocks free /dev/dsk/c0t0d0s1 136,1 16 1049312 1049312 # swap -s total: 49088k bytes allocated + 4640k reserved = 53728k used, 874568k available 10. Agregue la particin 1 del segundo disco al espacio de intercambio existente y utilice un nombre de dispositivo del sistema correcto. # swap -a /dev/dsk/c0t1d0s1 11. Verifique que se ha agregado el nuevo espacio de intercambio. # swap -l swapfile dev swaplo blocks free /dev/dsk/c0t0d0s1 136,1 16 1049312 1049312 /dev/dsk/c0t1d0s1 136,9 16 1049312 1049312 # swap -s total: 49120k bytes allocated + 4608k reserved = 53728k used, 1399224k available
4-20
Soluciones del ejercicio: administracin de la configuracin de la utilidad swap 12. Agregue la nueva particin de intercambio al archivo /etc/vfstab para convertirla en particin permanente. Para verificar el cambio necesita reiniciar el sistema. # vi /etc/vfstab (add entry that matches your configuration) /dev/dsk/c0t1d0s1 - - swap - no # init 6 13. Tras reiniciar el sistema, use la utilidad swap para verificar que existe el espacio de intercambio adicional. # swap -l swapfile /dev/dsk/c0t0d0s1 /dev/dsk/c0t1d0s1 dev swaplo blocks free 136,1 16 1049312 1049312 136,9 16 1049312 1049312 Coincide la nueva particin de intercambio que aparece con la que ha agregado al archivo /etc/vfstab? S 14. Para verificar que el espacio de intercambio adicional existe, utilice el comando df -h. Por qu el espacio de intercambio recin creado aparece en el archivo /etc/vfstab, pero no en la salida del comando df -h? # df -h Filesystem /dev/dsk/c0t0d0s0 /devices ctfs proc mnttab swap objfs /dev/dsk/c0t0d0s6 fd /dev/dsk/c0t0d0s3 swap swap /dev/dsk/c0t0d0s7 # size 470M 0K 0K 0K 0K 1.3G 0K 4.8G 0K 479M 1.3G 1.3G 2.1G used 194M 0K 0K 0K 0K 968K 0K 2.9G 0K 57M 0K 40K 2.1M avail capacity 229M 46% 0K 0% 0K 0% 0K 0% 0K 0% 1.3G 1% 0K 0% 1.9G 61% 0K 0% 375M 14% 1.3G 0% 1.3G 1% 2.0G 1% Mounted on / /devices /system/contract /proc /etc/mnttab /etc/svc/volatile /system/object /usr /dev/fd /var /tmp /var/run /export
En la salida df -h no aparece ninguna entrada para los dispositivos de intercambio adicionales. Sin embargo, el espacio de intercambio agregado aparece reflejado en el espacio de intercambio total.
4-21
Soluciones del ejercicio: administracin de la configuracin de la utilidad swap 15. Elimine el espacio de intercambio adicional con el comando swap -d para que el sistema recupere la configuracin de intercambio inicial. # swap -d /dev/dsk/c0t1d0s1 16. Elimine la entrada del espacio de intercambio adicional del archivo /etc/vfstab para que el sistema mantenga la configuracin de intercambio inicial despus de reiniciarse. # vi /etc/vfstab 17. Utilice el comando swap -l para cerciorarse de que el espacio de intercambio adicional se ha desconfigurado. # swap -l swapfile dev swaplo blocks 136,1 free 16 1049312 1049312
/dev/dsk/c0t0d0s1
4-22
Mdulo 5
Administracin de volcados por fallo del sistema y de archivos del ncleo central
Objetivos
Cuando se produce un error grave en el sistema operativo, se genera un archivo de volcado (volcado por fallo del sistema). Sin embargo, cualquier error grave en un proceso genera un archivo del ncleo central. El estudio de este mdulo le proporcionar los conocimientos necesarios para:
Administrar el comportamiento de los volcados por fallo del sistema. Administrar el comportamiento de los archivos del ncleo central.
5-1
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
El comando savecore introduce la informacin central del kernel en el archivo /var/crash/nombrenodo/vmcore.X, en el que nombrenodo corresponde al nombre que devuelve uname -n y X es el nmero entero que identifica el volcado. El comando savecore introduce la informacin de la lista de nombres y de la tabla de smbolos en el archivo /var/crash/nombrenodo/unix.X.
Nota En el directorio de volcados por fallo del sistema se crea un archivo llamado bounds. El archivo bounds contiene un nmero que se utiliza como sufijo en el siguiente volcado que se guarda.
5-2
Administracin del comportamiento de los volcados por fallo del sistema Todos estos archivos de datos juntos forman el volcado por fallo del sistema que se guarda. El comando dumpadm permite configurar la ubicacin del dispositivo de volcado y del directorio savecore. El dispositivo de volcado suele ser el espacio en el disco que se reserva para almacenar la informacin de volcado por fallo del sistema. De forma predeterminada, el dispositivo de volcado del sistema es un slice de intercambio. Cuando sea posible, se debera configurar una particin del disco alternativa como dispositivo de volcado dedicado para incrementar la fiabilidad de los volcados y la velocidad de reinicio del sistema despus de un fallo del sistema.
El volcado slo contiene las pginas de memoria del kernel. El dispositivo de volcado es una particin de intercambio del disco. El directorio de los archivos savecore es /var/crash/sys-02. El comando savecore est configurado para ejecutarse automticamente durante el reinicio.
En el ejemplo siguiente, la configuracin actual se encuentra en el archivo /etc/dumpadm.conf: # cat /etc/dumpadm.conf # # dumpadm.conf # # Configuration parameters for system crash dump. # Do NOT edit this file by hand -- use dumpadm(1m) instead. # DUMPADM_DEVICE=/dev/dsk/c0t0d0s1 DUMPADM_SAVDIR=/var/crash/sys-02 DUMPADM_CONTENT=kernel DUMPADM_ENABLE=yes
Administracin de volcados por fallo del sistema y de archivos del ncleo central
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
5-3
-y
-c tipo-contenido
-d dispositivo-volcado Modifica la configuracin de volcado para utiliza un dispositivo de volcado concreto. El dispositivo de volcado puede ser un nombre de ruta absoluta o swap.
5-4
Administracin del comportamiento de los volcados por fallo del sistema -m mink -m minm -m min% Crea un archivo minfree en el directorio savecore-dir actual, lo que indica que el comando savecore debe mantener al menos la cantidad de espacio libre especificada en el sistema de archivos en el que se encuentra el directorio savecore-dir: k: entero positivo con unidad k (kilobytes) como sufijo. m: entero positivo con unidad m (megabytes) como sufijo. %: smbolo de porcentaje (%), que indica que el valor de minfree es un porcentaje determinado del tamao total actual del sistema de archivos que contiene el directorio savecore-dir. -r root-dir Especifica un directorio raz alternativo, en el que el comando dumpadm debe crear los archivos. Si no se especifica el argumento -r, se utiliza el directorio raz predeterminado (/). Modifica la configuracin de volcado de manera que se utilice el directorio especificado para guardar los archivos que genera el comando savecore. El directorio predeterminado de savecore-dir es /var/crash/nombrehost, donde nombrehost corresponde a la salida del comando uname -n.
-s savecore-dir
Administracin de volcados por fallo del sistema y de archivos del ncleo central
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
5-5
5-6
Nota Los nmeros de lnea que aparecen en el ejemplo no forman parte de la configuracin; slo sirven para facilitar la descripcin del archivo. En la lnea 1 de la salida se indica el nombre que se debe asignar a los archivos del ncleo central incluidos en un directorio global. En la lnea 2 de la salida se indica que los archivos del ncleo central contienen la configuracin predeterminada. El archivo del ncleo central resultante contiene la informacin de todos los procesos involucrados en la depuracin. En la lnea 3 de la salida se indica el nombre predeterminado que deben utilizar los archivos por proceso. En este caso, se configura el nombre del proceso init, que heredan los dems procesos del sistema. En la lnea 4 se indica que el archivo del ncleo central init presenta la estructura de contenido predeterminada. En la lnea 5 se indica que los archivos del ncleo central globales estn inhabilitados. En la lnea 6 se indica que la generacin de archivos del ncleo central en el directorio de trabajo actual est habilitada. En la lnea 7 se indica que est inhabilitada la generacin de archivos del ncleo central globales con permisos setuid o setgid.
Administracin de volcados por fallo del sistema y de archivos del ncleo central
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
5-7
Administracin del comportamiento de los archivos del ncleo central En la lnea 8 se indica que est inhabilitada la generacin de archivos del ncleo central por proceso con permisos setuid o setgid. En la lnea 9 se indica si est habilitado el registro de volcados del ncleo globales. Atencin Los procesos que tienen un modo setuid presentan problemas de seguridad en lo que se refiere al volcado de los archivos del ncleo central. Estos archivos pueden contener informacin confidencial en el espacio de direcciones, a la que no debe acceder el propietario actual del proceso por no disponer de privilegios. Los archivos del ncleo central setuid no se generan de forma predeterminada por razones de seguridad. Visualizando el archivo /etc/coreadm.conf se puede verificar que contiene los mismos parmetros de configuracin que se muestran con el comando coreadm. # cat /etc/coreadm.conf # # coreadm.conf # # Parameters for system core file configuration. # Do NOT edit this file by hand -- use coreadm(1) instead. # COREADM_GLOB_PATTERN= COREADM_GLOB_CONTENT=default COREADM_INIT_PATTERN=core COREADM_INIT_CONTENT=default COREADM_GLOB_ENABLED=no COREADM_PROC_ENABLED=yes COREADM_GLOB_SETID_ENABLED=no COREADM_PROC_SETID_ENABLED=no COREADM_GLOB_LOG_ENABLED=no
5-8
Administracin de volcados por fallo del sistema y de archivos del ncleo central
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
5-9
-e option
global: habilita los volcados del ncleo utilizando el modelo global. process: habilita los volcados utilizando el modelo per-process. del ncleo
global-setid: habilita los volcados del ncleo setid utilizando el modelo global. proc-setid: habilita los volcados del ncleo setid utilizando el modelo per-process. log: genera un mensaje syslog (3) cada vez que un usuario intenta generar un archivo del ncleo central global.
-d option
Inhabilita la opcin especificada; consulte la descripcin de las posibles opciones en -e opcin. En la lnea de comandos se pueden especificar varias opciones -e y -d. Actualiza las opciones de los archivos del ncleo central en todo el sistema a partir del contenido del archivo de configuracin /etc/coreadm.conf. Si falta el archivo de configuracin o contiene valores no vlidos, los valores predeterminados se sustituyen. Tras la actualizacin, el archivo de configuracin se vuelve a sincronizar con la configuracin de los archivos del ncleo central del sistema.
-u
5-10
Administracin del comportamiento de los archivos del ncleo central -g modelo Define el modelo de nombre de los archivos del ncleo central globales como modelo. El modelo deben empezar con una barra diagonal (/) y puede contener cualquiera de las variables integradas especiales que se describen en la Tabla 5-1 en la pgina 5-11. Define el modelo de nombre de los archivos del ncleo central por proceso como modelo para cada uno de los ID de proceso (PID) especificados. El modelo puede contener cualquiera de las variables integradas especiales que se describen en la Tabla 5-1 y no es necesario que empiece con una barra diagonal (/). Si el modelo no empieza con /, se evala con respecto al directorio vigente en el momento en que el proceso genera un archivo del ncleo central. Los usuarios sin privilegios slo pueden aplicar la opcin -p a los procesos de su propiedad. Los superusuarios pueden aplicar la opcin -p a cualquier proceso. -G contenido Define el contenido de los archivos del ncleo central globales. Para especificar el contenido se utilizan las opciones de modelo de la Tabla 5-1.
-p modelo
El archivo del ncleo central que se denomina modelo es el nombre de ruta de un sistema de archivos con variables integradas. Las variables integradas llevan delante un carcter de porcentaje (%). Cuando el sistema operativo genera un archivo del ncleo central, ampla estas variables a partir de los valores en vigor. Las variables que se pueden utilizar se enumeran en la Tabla 5-1. Tabla 5-1 Opciones de modelo del comando coreadm Opcin %p %u %g %f %n %m %t Significado PID ID de usuario efectivo (EUID) ID de grupo efectivo (EGID) Nombre de archivo ejecutable Nombre de nodo del sistema (uname -n) Nombre de hardware de mquina (uname -m) Tiempo en segundos desde medianoche del 1 de enero de 1970
Administracin de volcados por fallo del sistema y de archivos del ncleo central
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
5-11
Administracin del comportamiento de los archivos del ncleo central Tabla 5-1 Opciones de modelo del comando coreadm (continuacin) %d %z %% Directorio/nombre de archivo ejecutable Nombre de zona % literal
En la Tabla 5-2 se muestran las opciones de modelo correspondientes al contenido de los archivos del ncleo central globales. Tabla 5-2 Opciones de modelo para el contenido de archivos del ncleo central globales Opcin anon ctf data dism heap ism rodata shanon shfile shm stack symtab text Significado Asignaciones privadas annimas, incluidas pilas de subprocesos que no son principales Secciones de informacin CTF para archivos de objetos cargados Asignaciones de archivos privados modificables Asignaciones DISM Montn de procesos Asignaciones ISM Asignaciones de archivos de slo lectura Asignaciones compartidas annimas Asignaciones compartidas respaldadas por archivos Memoria compartida de System V Pila de procesos Secciones de la tabla de smbolos para objeto cargado Asignaciones de archivos que se pueden leer y ejecutar
5-12
Administracin de volcados por fallo del sistema y de archivos del ncleo central
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
5-13
Administracin del comportamiento de los archivos del ncleo central Para verificar que este parmetro forma parte de la configuracin del archivo del ncleo central, ejecute de nuevo el comando coreadm: # coreadm global global init init core file pattern: core file content: core file pattern: core file content: global core dumps: per-process core dumps: global setid core dumps: per-process setid core dumps: global core dump logging: /var/core/core.%f.%p default core default enabled enabled disabled disabled disabled
Ejemplo 4: comprobacin de PID concretos en la configuracin de los archivos del ncleo central Cuando se ejecuta el comando coreadm con una lista de PID, se muestra el modelo de nombre de los archivos del ncleo central por proceso correspondiente a cada proceso; por ejemplo: # coreadm 228 507 228: core default 507: /usr/local/swap/corefiles/%n.%f.%p
default
Slo el propietario del proceso o el superusuario puede consultar un proceso utilizando el comando coreadm con una lista de PID. Ejemplo 5: configuracin del sistema para generar archivos del ncleo central en el repositorio global solamente cuando los ejecutables se ejecutan desde /usr/bin o /usr/sbin # mkdir -p /var/core/usr/bin # mkdir -p /var/core/usr/sbin # coreadm -G all -g /var/core/%d/%f %p %n Cuando se utiliza la opcin all (todo) en el comando anterior, los ejemplos de archivos del ncleo central contienen: anon = asignaciones privadas annimas data = asignaciones de archivos privados modificables stack = pila de procesos symtab = secciones de la tabla de smbolos para archivos de objetos cargados
5-14
Ejercicio: recopilacin de volcados por fallo del sistema y de archivos del ncleo
Ejercicio: recopilacin de volcados por fallo del sistema y de archivos del ncleo central
En este ejercicio configurar volcados por fallo del sistema y archivos del ncleo central.
Preparacin
Para realizar el ejercicio es preciso crear particiones especficas en el disco de reserva. Es posible que disponga de las particiones creadas en ejercicios anteriores.
En este ejercicio se da por supuesto que el alumno sabe cmo usar la utilidad format para crear particiones fdisk de Solaris, y slices de disco, si es necesario. En este ejemplo se utilizan ejemplos basados en sistemas x86/x64. Asegrese de utilizar nombres de dispositivo correctos en funcin de la arquitectura del sistema. En los sistemas x86/x64, asegrese de que el disco de reserva contiene una particin fdisk de Solaris que ocupa todo el disco. De no ser as, utilice el men fdisk de la utilidad format para crear una particin fdisk de Solaris que ocupe el disco entero. Asegrese de que la particin fdisk de Solaris que ha creado en el disco de reserva no es la particin activa.
Verifique que el disco de reserva presenta las particiones definidas en la Tabla 5-4. Si necesitase particionar el disco de reserva, o la particin fdisk de Solaris del disco de reserva, consulte la informacin de la Tabla 5-4. Tabla 5-3 Informacin de particin Slice 0 1 3 4 5 6 7 Tamao 512 Mbytes 512 Mbytes 8 Mbytes 8 Mbytes 6000 Mbytes (o resto del disco) 0 Mbytes 0 Mbytes Uso Intercambio / volcado Intercambio / volcado No asignado No asignado Sistema de archivos No asignado No asignado
Administracin de volcados por fallo del sistema y de archivos del ncleo central
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
5-15
Ejercicio: recopilacin de volcados por fallo del sistema y de archivos del ncleo
Tareas
Para configurar los volcados por fallo del sistema y los archivos del ncleo central, lleve a cabo las tareas siguientes.
Tarea 1: uso del comando dumpadm para mostrar la ubicacin del directorio de archivos del ncleo central
Lleve a cabo los pasos siguientes: 1. 2. Utilice el comando dumpadm sin argumentos para ver la configuracin de volcado actual. Indique los parmetros de configuracin que ha presentado el comando dumpadm en el paso anterior: Contenido del volcado: Dispositivo de volcado: Directorio savecore: Est savecore habilitado? 3. 4. Utilice el comando dumpadm para cambiar el dispositivo de volcado al slice 5 de la segunda unidad de disco. Ejecute el comando sync para purgar del disco todos los bferes del sistema sin datos, y asegrese de que se guardan todos los cambios efectuados en los archivos hasta ese momento. Obligue al kernel a guardar una instantnea en tiempo real del sistema en ejecucin y escriba una nueva serie de archivos de volcado del sistema utilizando el comando savecore -L. Utilice el comando file para asegurarse de que el volcado se ha realizado correctamente e identificar los archivos del directorio savecore. Utilice el comando dumpadm para configurar el dispositivo de volcado en el valor original.
5.
6.
7.
5-16
Ejercicio: recopilacin de volcados por fallo del sistema y de archivos del ncleo
Tarea 2: uso del comando coreadm para configurar la posicin de almacenamiento de los archivos del ncleo central
Lleve a cabo los pasos siguientes: 1. 2. Utilice el comando coreadm para mostrar la configuracin predeterminada de los archivos del ncleo central. Cree un directorio para los archivos del ncleo central y habilite una ruta de archivo del ncleo central global en la que se utilice el directorio creado. Active el registro de volcados del ncleo globales para que se genere un mensaje cuando el sistema cree un archivo del ncleo central global. Acceda a la informacin de configuracin de los archivos del ncleo central para verificar los cambios. Abra otra ventana de terminal. En esta ventana, cree un directorio nuevo que se denomine /var/tmp/dir y cambie a ese directorio. Verifique que el directorio de trabajo actual es /var/tmp/dir. Ejecute el comando ps para mostrar el PID del shell asociado con la nueva ventana de terminal. A continuacin, utilice el comando kill para enviar una seal SIGFPE (seal 8) al shell. (SIGFPE hace que se cree un archivo del ncleo central.)
3.
4. 5. 6. 7.
Nota El comando kill -8 interrumpe la actividad del shell y de la ventana de terminal en la que se ejecuta. 8. En la ventana de terminal original, compruebe que el directorio de trabajo actual del shell antiguo presenta un archivo del ncleo central. Utilice el comando file para verificar que el archivo del ncleo central pertenece al shell anterior. Utilice el comando ls para localizar un archivo del ncleo central en el directorio /var/core.
9.
10. Lea el mensaje que se genera en la ventana de la consola y el archivo /var/adm/messages a causa de la habilitacin del registro de coreadm.
Administracin de volcados por fallo del sistema y de archivos del ncleo central
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
5-17
!
?
5-18
Soluciones del ejercicio: recopilacin de volcados por fallo del sistema y de archivos
Soluciones del ejercicio: recopilacin de volcados por fallo del sistema y de archivos del ncleo central
En este ejercicio configurar volcados por fallo del sistema y archivos del ncleo central.
Preparacin
Para realizar el ejercicio es preciso crear particiones especficas en el disco de reserva. Es posible que disponga de las particiones creadas en ejercicios anteriores.
En este ejercicio se da por supuesto que el alumno sabe cmo usar la utilidad format para crear particiones fdisk de Solaris, y slices de disco, si es necesario. En este ejemplo se utilizan ejemplos basados en sistemas x86/x64. Asegrese de utilizar nombres de dispositivo correctos en funcin de la arquitectura del sistema. En los sistemas x86/x64, asegrese de que el disco de reserva contiene una particin fdisk de Solaris que ocupa todo el disco. De no ser as, utilice el men fdisk de la utilidad format para crear una particin fdisk de Solaris que ocupe el disco entero. Asegrese de que la particin fdisk de Solaris que ha creado en el disco de reserva no es la particin activa.
Verifique que el disco de reserva presenta las particiones definidas en la Tabla 5-4. Si necesitase particionar el disco de reserva, o la particin fdisk de Solaris del disco de reserva, consulte la informacin de la Tabla 5-4. Tabla 5-4 Informacin de particin Slice 0 1 3 4 5 6 7 Tamao 512 Mbytes 512 Mbytes 8 Mbytes 8 Mbytes 6000 Mbytes (o resto del disco) 0 Mbytes 0 Mbytes Uso Intercambio / volcado Intercambio / volcado No asignado No asignado Sistema de archivos No asignado No asignado
Administracin de volcados por fallo del sistema y de archivos del ncleo central
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
5-19
Soluciones del ejercicio: recopilacin de volcados por fallo del sistema y de archivos
Tareas y soluciones
En esta seccin se describen las tareas que debe realizar y se proporcionan las soluciones.
Tarea 1: uso del comando dumpadm para mostrar la ubicacin del directorio de archivos del ncleo central
Lleve a cabo los pasos siguientes: 1. Utilice el comando dumpadm sin argumentos para ver la configuracin de volcado actual. kernel pages /dev/dsk/c1d0s1 (swap) /var/crash/sys01 yes
Indique los parmetros de configuracin que ha presentado el comando dumpadm en el paso anterior: Contenido del volcado: kernel pages Dispositivo de volcado: /dev/dsk/c1d0s1 (swap) Directorio savecore: /var/crash/sys01 Est savecore habilitado? S
3.
Utilice el comando dumpadm para cambiar el dispositivo de volcado al slice 5 de la segunda unidad de disco.
# dumpadm -d /dev/dsk/c2d0s5 Dump content: kernel pages Dump device: /dev/dsk/c2d0s5 (dedicated) Savecore directory: /var/crash/sys01 Savecore enabled: yes # 4. Ejecute el comando sync para purgar del disco todos los bferes del sistema sin datos, y asegrese de que se guardan todos los cambios efectuados en los archivos hasta ese momento.
# sync
5-20
Soluciones del ejercicio: recopilacin de volcados por fallo del sistema y de archivos 5. Obligue al kernel a guardar una instantnea en tiempo real del sistema en ejecucin y escriba una nueva serie de archivos de volcado del sistema utilizando el comando savecore -L.
# savecore -L dumping to /dev/dsk/c2d0s5, offset 65536, content: kernel 100% done: 63380 pages dumped, compression ratio 4.28, dump succeeded System dump time: Fri Apr 20 13:40:20 2007 Constructing namelist /var/crash/sys01/unix.0 Constructing corefile /var/crash/sys01/vmcore.0 100% done: 63380 of 63380 pages saved # 6. Utilice el comando file para asegurarse de que el volcado se ha realizado correctamente e identificar los archivos del directorio savecore. La salida debera ser similar a la siguiente si utiliza un sistema x86/x64: # cd /var/crash/sys01 # ls bounds unix.0 vmcore.0 # file vmcore.0 vmcore.0: SunOS 5.10 Generic_118855-33 64-bit Intel crash dump from '' # La salida debera ser similar a la siguiente si utiliza un sistema SPARC: vmcore.0:SunOS 5.10 Generic_118855-33 64-bit SPARC crash dump from 7. Utilice el comando dumpadm para configurar el dispositivo de volcado en el valor original.
# dumpadm -d /dev/dsk/c1d0s1 Dump content: kernel pages Dump device: /dev/dsk/c1d0s1 (swap) Savecore directory: /var/crash/sys01 Savecore enabled: yes #
Administracin de volcados por fallo del sistema y de archivos del ncleo central
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
5-21
Soluciones del ejercicio: recopilacin de volcados por fallo del sistema y de archivos
Tarea 2: uso del comando coreadm para configurar la posicin de almacenamiento de los archivos del ncleo central
Lleve a cabo los pasos siguientes: 1. # coreadm global global init init Utilice el comando coreadm para mostrar la configuracin predeterminada de los archivos del ncleo central.
core file pattern: core file content: core file pattern: core file content: global core dumps: per-process core dumps: global setid core dumps: per-process setid core dumps: global core dump logging: # 2.
Cree un directorio para los archivos del ncleo central y habilite una ruta de archivo del ncleo central global en la que se utilice el directorio creado.
# mkdir /var/core # coreadm -e global -g /var/core/core.%f.%p 3. # coreadm -e log 4. # coreadm global global init init Acceda a la informacin de configuracin de los archivos del ncleo central para verificar los cambios. /var/core/core.%f.%p default core default enabled enabled disabled disabled enabled Active el registro de volcados del ncleo globales para que se genere un mensaje cuando el sistema cree un archivo del ncleo central global.
core file pattern: core file content: core file pattern: core file content: global core dumps: per-process core dumps: global setid core dumps: per-process setid core dumps: global core dump logging: # 5.
Abra otra ventana de terminal. En esta ventana, cree un directorio nuevo que se denomine /var/tmp/dir y cambie a ese directorio. # mkdir /var/tmp/dir # cd /var/tmp/dir
5-22
Soluciones del ejercicio: recopilacin de volcados por fallo del sistema y de archivos 6. # pwd /var/tmp/dir 7. Ejecute el comando ps para mostrar el PID del shell asociado con la nueva ventana de terminal. A continuacin, utilice el comando kill para enviar una seal SIGFPE (seal 8) al shell. (SIGFPE hace que se cree un archivo del ncleo central.) TIME CMD 0:00 ksh 0:00 ps Verifique que el directorio de trabajo actual es /var/tmp/dir.
Nota El comando kill -8 interrumpe la actividad del shell y de la ventana de terminal en la que se ejecuta. 8. En la ventana de terminal original, compruebe que el directorio de trabajo actual del shell antiguo presenta un archivo del ncleo central. Utilice el comando file para verificar que el archivo del ncleo central pertenece al shell anterior.
# cd /var/tmp/dir # ls core # file core core: ELF 32-bit LSB core file 80386 Version 1, from 'sh' En un sistema SPARC, el resultado sera parecido al siguiente: core: 9. # ls /var/core core.sh.1204 10. Lea el mensaje que se genera en la ventana de la consola y el archivo /var/adm/messages a causa de la habilitacin del registro de coreadm. # tail /var/adm/messages ... Apr 20 13:58:46 sys01 genunix: [ID 603404 kern.notice] NOTICE: core_log: sh[1204] core dumped: /var/core/core.sh.1204 ELF 32-bit MSB core file SPARC Version 1, from sh Utilice el comando ls para localizar un archivo del ncleo central en el directorio /var/core.
Administracin de volcados por fallo del sistema y de archivos del ncleo central
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
5-23
Mdulo 6
Configuracin de NFS
Objetivos
El sistema de archivos de red (NFS) es un servicio cliente-servidor que permite ver, almacenar y actualizar archivos de un ordenador remoto como si estuviesen en un ordenador local. El estudio de este mdulo le proporcionar los conocimientos necesarios para:
Describir las ventajas de NFS. Describir los conceptos fundamentales del sistema de archivos distribuido NFS. Administrar un servidor NFS. Administrar un cliente NFS. Activar el registro de eventos del servidor NFS. Administrar NFS con las herramientas de la carpeta de almacenamiento de Solaris Management Console. Solucionar los errores NFS.
6-1
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
Ofrece la posibilidad de que varios equipos utilicen los mismos archivos, con lo que todos los usuarios de la red tienen acceso a los mismos datos. Reduce los costes de almacenamiento porque los equipos comparten las aplicaciones, en lugar de asignar espacio en el disco local a cada aplicacin del usuario. Garantiza la coherencia y la fiabilidad de los datos, ya que todos los usuarios tienen acceso a la misma serie de archivos. Se puede utilizar en entornos heterogneos, incluidos los de los ordenadores personales (PC). Reduce la carga adicional indirecta que supone administrar el sistema.
Nota Desarrollado por Sun Microsystems, el servicio NFS se ha convertido en un servidor de archivos de referencia. En el protocolo se emplea el mtodo de comunicacin RPC (llamada a distancia) entre los equipos conectados en Internet. En http://docs.sun.com/app/docs/prod/solaris.10#hic encontrar informacin sobre NFS. Para obtener informacin sobre NFSV4 en Linux, visite la pgina http://www.citi.umich.edu.
6-2
Configuracin de NFS
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
6-3
En Solaris 10 se pueden utilizar las versiones 2, 3 y 4 de NFS a la vez. Sin embargo, para compartir un directorio o acceder a un archivo compartido, se utiliza NFSv4 de forma predeterminada. Cuando un host cliente intenta acceder a un archivo compartido de un servidor, se realizan las comprobaciones correspondientes a la versin empleada. Si se ha instalado Solaris 10 en todos los hosts de la red, todos deberan utilizar el protocolo NFSv4 de forma predeterminada.
6-4
Servidor NFS
El servidor NFS contiene los recursos de archivos que se comparten con otros sistemas de la red. El ordenador que pone los archivos y directorios de su disco duro a disposicin de los dems equipos conectados en red acta como servidor. En la Configuracin del servidor NFS se muestra cmo se ponen a disposicin de los clientes NFS los archivos y directorios de un servidor NFS. El servidor NFS permite el uso compartido del directorio /export/rdbms a travs del servicio NFS, como se muestra en la Figura 6-1.
NFS Server (Host 1) NFS Client (Host 2)
export
opt
rdbms
rdbms
bin
lib
share
Figura 6-1
Configuracin de NFS
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
6-5
Cliente NFS
El cliente NFS monta los recursos de archivos que se comparten a travs de la red y los presenta a los usuarios como si fuesen archivos locales. En la Configuracin del cliente NFS se muestra cmo utiliza un cliente NFS los archivos y directorios compartidos del servidor NFS. El directorio /export/rdbms, de uso compartido en el servidor NFS, se monta en el punto de montaje /opt/rdbms del cliente NFS. El punto de montaje del recurso se encuentra en el cliente NFS, y el servidor NFS comparte los recursos de archivos con otros equipos de la red, como se muestra en la Figura 6-2.
NFS Server (Host 1) NFS Client (Host 2)
export
opt
rdbms
rdbms
bin
lib
share
Figura 6-2
6-6
Conexiones con datos de estado Protocolo nico, con reduccin del nmero de demonios del lado del servicio Mejor compatibilidad de servidores de seguridad. NFSv4 utiliza el famoso nmero de puerto 2049 Seudosistemas de archivos que garantizan el acceso total del cliente NFS a todos los objetos exportados del servidor, y evitan que el cliente pueda ver las partes de un sistema de archivos del servidor que no se han exportado de forma explcita Seguridad optimizada Atributos extendidos Delegacin. En la versin NFSv4 de Solaris 10, el servidor NFS puede delegar la administracin de un archivo compartido en el cliente que solicita el archivo. El servidor decide si aplica o no la delegacin. Al delegar el control de la administracin de lectura o escritura en el cliente, se puede reducir en gran medida el trfico de la red que originaran las consultas de los clientes sobre el estado actual de un archivo compartido.
Seudosistema de archivos
En versiones anteriores de NFS se requera el protocolo mountd, que no utiliza puertos asignados. Esto dificultaba el empleo de NFS a travs de un servidor de seguridad. La implementacin de NFSv4 debe ser compatible con el protocolo TCP/IP (Protocolo de control de transmisin/Protocolo de Internet Protocol) para que resulte posible controlar la congestin. Como NFSv4 utiliza el puerto bien conocido 2049, supone una mejora en cuanto a compatibilidad con los servidores de seguridad. NFSv4 asigna gestores de archivo a nombres de ruta, algo de lo que se encargaba el protocolo mountd en versiones de NFS anteriores. En NFSv4, el servidor proporciona un gestor de archivo raz que representa el principio del sistema de archivos que ha exportado el servidor. El servidor NFS conserva un seudosistema de archivos, que contiene la ruta completa de cada sistema de archivos exportado.
Configuracin de NFS
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
6-7
Versin 4 de NFS (NFSv4) El seudosistema de archivos, de cuya creacin y mantenimiento se encargan los servidores NFSv4, permite a los clientes acceder sin problemas a todos los objetos exportados del servidor. Este seudosistema de archivos no exista en las versiones anteriores a NFSv4. Los clientes tenan que montar cada sistema de archivos compartido del servidor para obtener acceso. En la Figura 6-3 se muestra un ejemplo.
Exported directories
export_fs
export_fs
local
projects
payroll
local
projects
nfs4x
nfs4
nfs4
Figura 6-3
En la Figura 6-3, el cliente no puede ver los directorios payroll y nfs4x debido a que no se han exportado y no conducen a los directorios exportados. Sin embargo, el cliente puede ver el directorio local porque se trata de un directorio exportado. El cliente tambin puede ver el directorio projects porque remite al directorio exportado nfs4. Por consiguiente, las partes del espacio de nombre del servidor que no se han exportado explcitamente se vinculan con un seudosistema de archivos que slo considera los directorios exportados y los directorios que remiten a exportaciones del servidor. Este seudosistema de archivos es una estructura que crea el servidor y solamente contiene directorios. El seudosistema de archivos permite a un cliente examinar la jerarqua de sistemas de archivos exportados. Por tanto, la vista del seudosistema de archivos que se muestra al cliente es restringida y slo contiene las rutas de los sistemas de archivos exportados.
6-8
Versin 4 de NFS (NFSv4) En las versiones anteriores de NFS no se permita al cliente recorrer los sistemas de archivos del servidor sin montar cada uno de ellos. En NFSv4, el espacio de nombre del servidor desempea las siguientes funciones:
Limita la vista de sistemas de archivos del cliente a los directorios que remiten a exportaciones del servidor. Proporciona a los clientes total acceso a las exportaciones del servidor sin necesidad de montar cada sistema de archivos subyacente. Consulte el ejemplo de la Figura 6-3 en la pgina 6-8. A pesar de esto, es posible que el cliente tenga que montar cada sistema de archivos del servidor en funcin del sistema operativo que se utilice.
NFSv4 es la versin predeterminada de NFS en Solaris 10. En el archivo nfs(4) del directorio /etc/default se configuran el cliente o el servidor para que utilicen las versiones 2, 3 o 4 de NFS. Para montar un sistema de archivos solamente con la versin especificada, el comando mount (mount_nfs (1M)) puede ir acompaado de la opcin vers=nmero_versin.
Seguridad optimizada
NFSv4 utiliza el procedimiento de llamadas a distancia (RPC) del servicio general de seguridad (GSS) para ampliar la seguridad bsica de RPC. Esto proporciona mecanismos de autenticacin y mantenimiento de la integridad y la privacidad entre el cliente y el servidor. Las implementaciones de RPC tradicionales incluyen AUTH_NONE, AUTH_SYS, AUTH_DH y AUTH_KRB4 como propiedades de seguridad. En esta versin se ha incorporado un mtodo de seguridad adicional de RPCSEC_GSS que emplea la interfaz de programacin de aplicaciones de servicios genricos de seguridad (GSSAPI). Gracias a esto, la capa RPC utiliza varios mecanismos de seguridad sin la carga de implementacin adicional que supone agregar nuevas propiedades de seguridad. Nota El modelo de seguridad RPCSEC_GSS exigido en NFSv4 coincide con el de Solaris 2.6. El principal modelo de seguridad de RPCSEC_GSS es Kerberos V5. En NFSv4 es preciso utilizar el mtodo RPCSEC_GSS para habilitar el mecanismo de seguridad obligatorio. Tambin se pueden implementar otras propiedades, como AUTH_NONE, AUTH_SYS y AUTH_DH. El cliente NFS negocia con el servidor NFS para determinar el mecanismo de seguridad que cumple los requisitos del cliente y el servidor. La estructura RPCSEC_GSS proporciona autenticacin de software Sun Enterprise Authentication Mechanism (SEAM).
Configuracin de NFS
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
6-9
Versin 4 de NFS (NFSv4) La posibilidad de mezclar mecanismos de seguridad en un solo servidor permite aplicar la seguridad por recurso compartido. Para configurar un servidor NFSv4 en Solaris 10 a fin de utilizar la propiedad RPCSEC_GSS con el programa SEAM, el administrador tiene que habilitar el modo de seguridad necesario editando primero el archivo /etc/nfssec.conf en los modos de seguridad nfssec que se describen en la pgina del comando man denfssec(5). El servidor NFSv4 comparte entonces el sistema de archivos con la opcin sec=mode. El sistema tambin se debe configurar como cliente Kerberos. Por ejemplo: # share -F nfs -o sec=krb5 /export/home
Procedimientos compuestos
Para mejorar el rendimiento y el acceso a Internet, el cliente NFSv4 combina varias operaciones en una llamada a distancia. Mediante los procedimientos compuestos, los clientes pueden combinar operaciones LOOKUP, OPEN y READ en una sola solicitud. El servidor desglosa la solicitud en una lista de solicitudes separadas, repite la lista y realiza cada una de las operaciones que incluye hasta que llega al final de la lista o se produce un fallo. Entonces remite los resultados de las operaciones al cliente. A continuacin se ofrece un ejemplo simplificado de los procedimientos compuestos. Al leer el archivo /export/testdata, las versiones 3 y 4 de NFS generan las siguientes llamadas RPC. NFS versin 3 -> LOOKUP "export" <- OK ->LOOKUP "testdata" <- OK -> ACCESS "testdata" <- OK -> READ "testdata" <- OK (sends data) La respuesta de NFS es ms rpida cuando el nmero de llamadas RPC es menor. Esto permite al cliente adecuar correctamente su solicitud al entorno, lo que mejora la interoperabilidad entre plataformas. NFS versin 4 ->OPEN "export/testdata" READ <- OPEN OK READ OK (sends data)
6-10
Atributos extendidos
En versiones anteriores de NFS se utilizaba una serie fija de atributos de archivo y sistema de archivos basados en los archivos y sistemas de archivos UNIX. Los clientes o servidores con sistema operativo distinto de UNIX tenan que simular esos atributos, lo que dificultaba su implementacin en esos. NFSv4 introduce tres categoras de atributos: obligatorios, recomendados y con nombre. A fin de garantizar un nivel mnimo de interoperabilidad, todos los clientes y servidores NFSv4 admiten los atributos obligatorios. Sin embargo, no todos los clientes y servidores admiten los atributos recomendados. Gracias a esto, cada servidor utiliza los atributos correspondientes a su entorno operativo. Cuando el servidor no admite un atributo recomendado concreto, el cliente determina la forma de proceder. El atributo con nombre es el flujo de bytes asociado a un archivo o sistema de archivos, al que se alude por un nombre de cadena. Este tipo de atributo permite al cliente asociar datos a un archivo o sistema de archivos especfico.
Gestores de archivo
Los gestores de archivo se crean en el servidor y contienen informacin que identifica archivos y directorios exclusivamente. En las versiones 2 y 3 de NFS, el servidor devolva gestores de archivo persistentes. Esto supona que el cliente poda garantizar que el servidor generara un gestor de archivo siempre referido al mismo archivo. He aqu un ejemplo:
Si un archivo se borraba y reemplazaba por otro archivo con el mismo nombre, el servidor generaba un nuevo gestor para el archivo nuevo. Si el cliente utilizaba el gestor de archivo anterior, el servidor generaba un mensaje de error indicando que el gestor de archivo estaba obsoleto. Si se asignaba otro nombre a un archivo, el gestor de archivo no cambiaba. Cuando haba que reiniciar el servidor, los gestores de archivo permanecan igual.
Cuando el servidor reciba una solicitud de un cliente que inclua un gestor de archivo, la resolucin era directa y el gestor de archivo siempre se refera al archivo correcto.
Configuracin de NFS
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
6-11
Versin 4 de NFS (NFSv4) Este mtodo de identificacin de archivos y directorios de operaciones NFS funciona bien en gran parte de los servidores UNIX, pero no se puede implementar en servidores que se basan en otros mtodos de identificacin, como el nombre de ruta del archivo. Para solucionar este problema, el protocolo NFSv4 permite a un servidor declarar que sus gestores de archivo son voltiles. Por consiguiente, los gestores de archivo pueden cambiar. Cuando un gestor de archivo cambia, el cliente debe encontrar el nuevo gestor. Al igual que las versiones 2 y 3 de NFS, la versin 4 de NFS en Solaris siempre proporciona gestores de archivo persistentes. Sin embargo, los clientes NFSv4 de Solaris que acceden a servidores NFSv4 sin Solaris deben estar preparados para admitir gestores de archivo voltiles si el servidor los usa. En concreto, cuando el servidor informa al cliente de que el gestor de archivo es voltil, el cliente debe almacenar en cach el nombre de ruta asignado al gestor de archivo. El cliente utiliza el gestor de archivo voltil hasta que caduca. Cuando esto ocurre, el cliente realiza lo siguiente:
Borra de la cach la informacin relacionada con el gestor de archivo. Busca el nuevo gestor de archivo de ese archivo. Intenta realizar de nuevo la operacin.
Delegacin
NFSv4 permite la delegacin tanto en el cliente como en el servidor. La delegacin es la tcnica por la que el servidor delega la administracin de un archivo en un cliente. Por ejemplo, el servidor puede otorgar a un cliente las delegaciones de lectura o escritura. Es posible otorgar delegaciones de lectura a varios clientes al mismo tiempo, ya que esto no provocan ningn conflicto. Sin embargo, slo se puede otorgar la delegacin de escritura a un nico cliente debido a que puede producirse un conflicto con cualquier archivo al que acceda otro cliente. Mientras tiene delegada la escritura, el cliente no enviar varias operaciones al servidor porque se le ha garantizado el acceso exclusivo a un archivo. De forma similar, el cliente no enviar varias operaciones al servidor mientras se le haya delegado la lectura, ya que el servidor impide que cualquier cliente abra el archivo en el modo de escritura.
6-12
Versin 4 de NFS (NFSv4) El servidor toma la decisin de otorgar una delegacin sin que ningn cliente lo solicite. La decisin se basa en el esquema de acceso al archivo. Si varios clientes han accedido recientemente a un archivo en el modo de escritura, es posible que el servidor no otorgue ninguna delegacin debido a que el esquema de acceso revela la posibilidad de futuros conflictos. El conflicto se produce cuando un cliente accede a un archivo incumpliendo las delegaciones actualmente otorgadas en relacin con ese archivo. Por ejemplo, si se concede a un cliente una delegacin de escritura sobre un archivo y un segundo cliente abre ese archivo para realizar operaciones de lectura o escritura, el servidor revoca la delegacin de escritura del primer cliente. Algo similar ocurre cuando se otorga a un cliente la delegacin de lectura y otro cliente abre el mismo archivo para realizar operaciones de escritura. Entonces el servidor revoca la delegacin de lectura. Un servidor no soluciona los conflictos de acceso a un archivo almacenado en otro servidor. Por consiguiente, un servidor NFS slo resuelve los conflictos ocasionados por los archivos que contiene. Adems, slo puede iniciar la revocacin en el cliente que ejecuta NFSv4 en respuesta a los conflictos causados por clientes que ejecutan varias versiones de NFS. El servidor NFS no puede iniciar revocaciones en clientes que ejecutan versiones anteriores de NFS. Nota La delegacin del servidor se habilita de forma predeterminada al iniciar NFSv4.
Configuracin de NFS
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
6-13
Versin 4 de NFS (NFSv4) Aunque se pueden utilizar muchos parmetros, aqu slo se tienen en cuenta los que sirven para configurar el servidor NFSv4. Consulte la lista completa de posibles parmetros en la pgina del comando man de nfs(4). NFS_SERVER_VERSMIN=nm NFS_SERVER_VERSMAX=nm El servidor NFS slo utiliza versiones de NFS incluidas en el intervalo especificado por estas variables. Los valores o versiones vlidos son: 2, 3 y 4. Estas variables no estn especificadas (inhabilitadas) de forma predeterminada. La versin mnima predeterminada que debe tener el cliente es la versin 2, mientras que la versin mxima es la versin 4. 3. Si es necesario, agregue la siguiente entrada: NFS_SERVER_DELEGATION=off Esta variable est inhabilitada de forma predeterminada y el servidor NFS otorga delegaciones al cliente. Para desactivar las delegaciones de todos los sistemas de archivos exportados, el usuario puede configurar esta variable en off (se distingue maysculas de minsculas). Esta variable slo es aplicable a NFSv4. 4. Si es necesario, agregue la siguiente entrada: NFSMAPID_DOMAIN=my.comany.com El demonio nfsmapid utiliza el servicio de nombres de dominio (DNS) del sistema de forma predeterminada. Esta configuracin anula el valor predeterminado. Este dominio sirve para identificar cadenas de atributos de usuario y grupo en el protocolo NFSv4. Para que la operacin se lleve a cabo con normalidad, los clientes y servidores deben pertenecer a este dominio. Esta variable slo es aplicable a NFSv4. 5. Determine si el servidor NFS est funcionando: # svcs network/nfs/server Si est habilitado, debe utilizar el siguiente comando para detener el servicio: # svcadm disable network/nfs/server 6. Para habilitar el servicio NFS: # svcadm enable network/nfs/server
6-14
Monte un sistema de archivos. # mount nombre_servidor:punto_compartir dir_local nombre_servidor: nombre del servidor punto_compartir: ruta del directorio remoto que se va a compartir dir_local: ruta del punto de montaje local
Nota Si est situando los montajes NFS en /etc/vfstab, habilite los servicios del cliente mediante la ejecucin del comando svcadm enable network/nfs/client. De lo contrario no se montarn si el sistema operativo dispone de Secure By Default.
Configuracin de NFS
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
6-15
/etc/dfs/fstypes /etc/rmtab
/etc/nfs/nfslog.conf
/etc/default/nfslogd
/etc/default/nfs
6-16
Archivo /etc/dfs/dfstab
El archivo /etc/dfs/dfstab contiene los comandos que comparten los directorios locales. Cada lnea del archivo dfstab consta de un comando share. # cat /etc/dfs/dfstab # Place share(1M) commands here for automatic execution # on entering init state 3. # # Issue the command svcadm enable network/nfs/server to # run the NFS daemon processes and the share commands, after adding # the very first entry to this file. # # share [-F fstype] [ -o options] [-d "<text>"] <pathname> [resource] # .e.g, # share -F nfs -o rw=engineering -d "home dirs" /export/home2 share -F nfs -o ro share -F nfs -o rw,root=sys-01 -d "Shared data files" -d "Database files" /usr/local/data /rdbms_files
Nota El servicio svc:/network/nfs/server no inicia los demonios del servidor NFS si no encuentra ningn comando share en el archivo /etc/dfs/dfstab. El contenido del archivo /etc/dfs/dfstab se lee en los casos siguientes:
El sistema entra en el estado gua multi-user-server. El superusuario ejecuta el comando shareall. Los demonios de NFS deben estar en ejecucin para compartir directorios. El superusuario habilita el servicio svc:/network/nfs/server.
Archivo /etc/dfs/sharetab
En el archivo /etc/dfs/sharetab se guardan los resultados de los comandos share. Este archivo contiene una tabla de los recursos locales que se comparten. He aqu un ejemplo de dos recursos nfs que se comparten en el modo de slo lectura. # cat /etc/dfs/sharetab /usr/local/data nfs /rdbms_files nfs ro Shared data files ro,root=sys01 Database files
Configuracin de NFS
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
6-17
Archivo /etc/dfs/fstypes
El archivo /etc/dfs/fstypes contiene informacin sobre los tipos de sistemas de archivos distribuidos de un sistema. A cada tipo de sistema de archivo distribuido corresponde una lnea que empieza con el tipo de sistema de archivo y se utiliza con la opcin -F de los comandos share y mount. El tipo de sistema de archivo que aparece en la primera lnea de este archivo es el que se utiliza de forma predeterminada cuando se introducen comandos de administracin DFS sin la opcin -F fstypes. # cat /etc/dfs/fstypes nfs NFS Utilities autofs AUTOFS Utilities cachefs CACHEFS Utilities
Archivo /etc/rmtab
El archivo /etc/rmtab contiene una tabla de los sistemas de archivos montados de forma remota por los clientes NFS. Cuando un cliente completa una solicitud de montaje de NFS con xito, el demonio mountd del servidor crea una entrada en el archivo /etc/rmtab. Este archivo tambin incluye un entrada para cada directorio montado de forma remota que se ha desmontado correctamente, pero el demonio mountd reemplaza el primer carcter de la entrada por el carcter (#). Por ejemplo: # The format of this file follows the syntax # hostname:fsname # cat /etc/rmtab sys-03:/usr/local/data sys-02:/export/config #ys-02:/export/config Durante el inicio del sistema, el demonio mountd suprime las entradas de los directorios sin montar, que se indican mediante la inclusin de la marca (#) en el primer carcter del nombre del sistema.
Archivo /etc/default/nfs
En el archivo /etc/default/nfs se enumeran los parmetros del demonio y los protocolos NFS que se pueden configurar. Cada entrada incluye una descripcin del elemento y el valor predeterminado, si el elemento est inhabilitado. En la pgina del comando man de nfs se proporcionan detalles de cada entrada de este archivo.
6-18
En NFSv4, las funciones que proporcionan los demonios mountd y lockd forman parte del protocolo NFSv4. Esto reduce el nmero de demonios necesarios en el servidor y facilita la implementacin y administracin del servidor NFS. En NFSv2 y NFSv3 es el demonio mountd, que no utiliza un nmero de puerto bien conocido, el que implementa el protocolo mount, lo que dificulta el uso de NFS a travs de un servidor de seguridad. Esto ha mejorado en INFSv4, porque incluye el protocolo mount y utiliza el conocido nmero de puerto 2049.
Configuracin de NFS
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
6-19
Demonio mountd
El demonio mountd se encarga de las solicitudes de montaje de sistemas de archivos NFS procedentes de sistemas remotos, y proporciona control de acceso. Este demonio comprueba el archivo /etc/dfs/sharetab para determinar si un archivo o directorio concreto es de uso compartido y si el cliente que hace la solicitud tiene permiso para acceder al recurso compartido. Cuando un cliente NFS enva una solicitud de montaje NFS, el comando mount del cliente se pone en contacto con el demonio mountd del servidor, que proporciona un gestor de archivo al cliente. Los gestores de archivo son referencias de cliente que identifican un archivo o directorio del servidor de forma exclusiva. En los gestores de archivo se encuentra codificado el nmero de inode, el nmero de generacin de inode y el nmero del dispositivo de disco de un archivo. En NFSv4, la asignacin del gestor de archivo y el nombre de ruta forma parte del protocolo NFSv4, por lo que ya no se necesita un demonio mountd separado. El demonio mountd slo es necesario en NFSv3 y NFSv2. El proceso de montaje del cliente NFS introduce el gestor de archivo en el archivo /etc/mnttab, junto con otra informacin sobre el recurso montado. El servicio svc:/network/nfs/server inicia el demonio mountd.
Demonio nfsd
Cuando un proceso del cliente intenta acceder a un recurso de archivo remoto, el demonio nfsd del servidor NFS recibe la solicitud y el gestor de archivo del recurso. Luego realiza la operacin solicitada. El demonio devuelve la informacin al proceso del cliente que realiza la solicitud. El demonio nfsd tambin se encarga de las solicitudes de datos de sistemas de archivos procedentes de clientes. Slo el superusuario puede iniciar el demonio nfsd. El servicio svc:/network/nfs/server inicia el demonio nfsd.
6-20
Demonio statd
El demonio statd funciona con el demonio lockd del administrador de bloqueo a fin de proporcionar funciones de recuperacin de fallos. El demonio statd del servidor realiza el seguimiento de los clientes que provocan bloqueos en el servidor NFS. Cuando el servidor NFS se reinicia tras un fallo, el demonio statd del servidor se pone en contacto con el demonio statd del cliente, que informa al demonio lockd para que corrija los bloqueos del servidor. Cuando el cliente NFS se reinicia tras un fallo, el demonio statd del cliente se pone en contacto con el demonio statd del servidor, que ejecuta el demonio lockd para eliminar los procesos del clientes anteriores que estn bloqueados en el servidor. El servicio svc:/network/nfs/status inicia el demonio statd. NFSv4 no utiliza el demonio statd.
Demonio lockd
El demonio lockd admite operaciones de bloqueo de registros en archivos NFS. El demonio enva las solicitudes de bloqueo del cliente NFS al servidor NFS. Entonces, el demonio lockd del servidor habilita el bloqueo local en el servidor NFS. El servicio svc:/network/nfs/lockmgr inicia el demonio lockd. A diferencia de NFSv3 y NFSv2, NFSv4 ofrece informacin de estado y bloqueo de archivos. El demonio lockd no se utiliza en NFSv4.
Demonio nfslogd
El demonio nfslogd permite registrar las operaciones del servidor NFS. El registro de NFS se habilita cuando se ponen a disposicin recursos compartidos. El mdulo kernel de NFS registra todas las operaciones de sistemas de archivos con registro habilitado en un archivo de bfer. El demonio nfslogd procesa peridicamente el contenido de los archivos de bfer para generar archivos de registro ASCII (Cdigo normalizado americano para el intercambio de informacin), segn lo definido en el contenido del archivo /etc/default/nfslogd. El demonio nfslogd tambin se encarga de asignar gestores de archivo a nombres de ruta. El demonio lleva el control de estas asignaciones en una tabla gestor-archivo-a-ruta. Tras el posprocesado, los registros se almacenan en los archivos de registro ASCII. En NFSv4 no se admite el registro de NFS. El servicio svc:/network/nfs/server inicia el demonio nfslogd.
Configuracin de NFS
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
6-21
Demonio nfsmapid
El demonio nfsmapid se implementa en NFSv4. Este demonio asigna identificadores de propietario y grupo que utilizan el cliente y el servidor NFSv4. Aunque carece de interfaz de usuario, los parmetros de este demonio se pueden configurar en el archivo /etc/default/nfs. El servicio svc:/network/nfs/mapid inicia el demonio nfsmapid.
6-22
Configuracin de NFS
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
6-23
Nota Si no especifica una opcin con el comando share (por ejemplo, F nfs), el sistema utiliza el tipo de sistema de archivos que aparece en la primera lnea del archivo /etc/dfs/fstypes. Para compartir un recurso de archivo desde la lnea de comandos, puede utilizar el comando share. Por ejemplo, para compartir el directorio /usr/local/data como recurso compartido de slo lectura, ejecute el comando: # share -o ro /usr/local/data De forma predeterminada, los recursos NFS montados tienen privilegios de lectura y escritura asociados, basados en los permisos estndar de Solaris. Para conceder o denegar el acceso se realiza una comparacin del ID de usuario (UID) del cliente y el propietario.
6-24
Administracin de un servidor NFS Las opciones del comando share que se muestran en la Tabla 6-4 limitan las posibilidades de lectura y escritura de los clientes NFS y permiten al superusuario acceder a los recursos montados. Tabla 6-4 Opciones del comando share Opciones ro rw root=lista-acceso Definicin Informa a los clientes de que el servidor slo acepta solicitudes de lectura. Permite al servidor aceptar solicitudes de lectura y escritura del cliente. Informa a los clientes de que el superusuario del sistema cliente o los sistemas especificados puede realizar solicitudes con privilegios de superusuario en el recurso compartido. Admite solicitudes de lectura procedentes de la lista de acceso especificada. Admite solicitudes de lectura y escritura procedentes de la lista de acceso especificada, como se muestra en la Tabla 6-5. Configura n como ID de usuario efectivo (EUID) de los usuarios annimos. A los usuarios annimos se les asigna el identificador EUID 60001 de forma predeterminada (UID_NOBODY). Si n se configura en -1, se deniega el acceso. En la Tabla 6-5 se enumeran las opciones de la lista de acceso. Tabla 6-5 Opciones de la lista de acceso Opcin listaacceso=cliente:cliente lista-acceso=@red Descripcin Se basa en una lista de elementos separados por dos puntos para permitir el acceso a uno o varios clientes. Se utiliza un nmero de red (por ejemplo, @192.168.100) o un nombre de red (por ejemplo, @mynet.com) para permitir el acceso. El nombre de red debe estar definido en el archivo /etc/networks. Se utiliza un dominio DNS para permitir el acceso; el punto (.) indica que los valores pertenecen al dominio DNS. Se utiliza un grupo de red configurado (Servicio de informacin de la red [NIS] o NIS+ solamente) para permitir el acceso.
lista-acceso=.dominio listaacceso=nombre_grupored
Configuracin de NFS
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
6-25
Administracin de un servidor NFS Las opciones se pueden combinar si se separan mediante comas, con lo que se definen restricciones de acceso complejas. En los ejemplos siguientes se muestran algunas de las opciones que se usan con ms frecuencia: # share -F nfs -o ro directorio Este comando limita el acceso a los recursos NFS montados, -que slo pueden leerse. # share -F nfs -o ro,rw=client1 directorio Este comando limita el acceso a los recursos NFS montados -a slo lectura; sin embargo, el servidor NFS acepta solicitudes de lectura y escritura del cliente denominado client1. # share -F nfs -o root=client2 directorio Este comando permite al usuario root del cliente client2 disponer de acceso de superusuario a los recursos NFS montados. # share -F nfs -o ro,anon=0 directorio Cuando se utiliza la opcin anon=0, el EUID de acceso a los recursos compartidos de un usuario annimo se configura en 0. El acceso tambin se define como de slo lectura. # share -F nfs \ -o ro=client1:client2,rw=client3:client4,root=client4 directorio Este comando garantiza el uso compartido del directorio a los cuatro hosts con nombre. Los hosts client1 y client2 tienen acceso de slo lectura, mientras que los hosts client3 y client4 disponen de acceso de lectura-escritura. El superusuario del host client4 disfruta de privilegios de acceso root al directorio compartido y su contenido. El comando share introduce informacin sobre todos los recursos de archivos compartidos en el archivo /etc/dfs/sharetab. El archivo contiene una tabla de los recursos compartidos locales. Nota Si no se especifica ningn argumento, el comando share presenta una lista de todos los recursos de archivos actualmente compartidos.
# share -
6-26
nombreruta
Por ejemplo, si quiere que el directorio /export/sys44_data ya no est disponible para operaciones de montaje en el lado cliente, ejecute este comando: # unshare /usr/local/data
Configuracin de NFS
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
6-27
TRANSPORT -
Si se especifican uno o varios nombres de servidor como argumentos, el comando dfshares tambin presenta los recursos de archivos que comparten otros servidores. Por ejemplo: # dfshares sys-01 RESOURCE sys-01:/usr/share/man SERVER ACCESS sys-01 TRANSPORT -
Nota Puesto que el comando dfmounts utiliza el demonio mountd para mostrar los recursos NFS actualmente compartidos, no presenta recursos compartidos de NFSv4.
6-28
/etc/dfs/fstypes /etc/default/nfs
Archivo /etc/vfstab
Para montar recursos de archivos remotos durante el arranque, agregue las entradas adecuadas al archivo /etc/vfstab del cliente. Por ejemplo:
#device device #to mount to fsck # sys-02:/usr/local/data mount point /usr/remote_data FS fsck type pass nfs mount mount at boot options yes soft,bg
Configuracin de NFS
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
6-29
Archivo /etc/mnttab
El sistema de archivos /etc/mnttab proporciona acceso de slo lectura a la tabla de sistemas de archivos montados del host actual. Cuando se monta un sistema de archivos, se agrega una entrada a la tabla de sistemas de archivos montados. La entrada de la tabla se elimina cuando se desmonta el sistema de archivos correspondiente. La informacin de la tabla de sistemas de archivos montados se actualiza cuando se vuelve a montar un sistema de archivos. El kernel mantiene una lista de las operaciones de montaje por orden cronolgico. El primer sistema de archivos montado aparece al principio de la lista, mientras que el ltimo sistema de archivos montado se incluye al final. Aunque es un punto de montaje del sistema de archivos mntfs, el archivo /etc/mnttab se muestra como un archivo normal que contiene la informacin de la tabla de montaje actual. La secuencia de comandos /lib/svc/method/fs-user establece el sistema de archivos mntfs durante el proceso de arranque.
Archivo /etc/dfs/fstypes
Al igual que el servidor NFS, el cliente NFS utiliza el archivo /etc/dfs/fstypes para determinar la compatibilidad de los sistemas de archivos distribuidos. # cat /etc/dfs/fstypes nfs NFS Utilities autofs AUTOFS Utilities cachefs CACHEFS Utilities
6-30
Configuracin de NFS
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
6-31
umountall
6-32
-o opciones
Configuracin de NFS
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
6-33
Administracin del cliente NFS Para acceder a un recurso de archivo remoto, utilice el comando mount. Por ejemplo: # mount sys-02:/rdbms_files /rdbms_files Cuando se monta un recurso remoto de slo lectura es posible especificar una lista de -orgenes del recurso separados por coma. Los orgenes de la lista se utilizan como recursos de recuperacin de fallos. Este proceso funciona cuando el recurso montado de todos los servidores de la lista es el mismo. Por ejemplo: # mount -o ro sys-45,sys-43,sys-41:/multi_homed_data /remote_shared_data En este ejemplo, si el servidor sys-45 no est disponible, la solicitud pasa al siguiente servidor de la lista (sys-43) y luego al servidor sys-41.
6-34
Los campos del archivo /etc/vfstab son: device to mount device to fsck mount point FS type fsck pass Nombre del servidor y de la ruta del recurso de archivo remoto. El nombre del servidor y el nombre del recurso compartido estn separados por dos puntos (:). El cliente no comprueba los recursos NFS porque el sistema de archivos no es un sistema de archivos local del cliente. Este campo es (-) para los recursos NFS. Punto de montaje del recurso Tipo de sistema de archivos que se va a montar El cliente no comprueba los recursos NFS porque el sistema de archivos no es un sistema de archivos local del cliente. Este campo es (-) para los recursos NFS.
Configuracin de NFS
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
6-35
Administracin del cliente NFS mount at boot mount options Este campo puede contener los valores yes o no. Cuando se define el valor yes, el recurso especificado se monta cada vez que se ejecuta el comando mountall. Lista de opciones de montaje separada por coma. Consulte la descripcin de cada opcin en la Tabla 6-9 en la pgina 6-36.
Nota Si el archivo /etc/vfstab contiene el recurso de archivo, el superusuario puede especificar el servidor:nombreruta o el punto_montaje en la lnea de comandos porque el comando mount comprueba el archivo /etc/vfstab para obtener ms informacin. Tabla 6-9 Opciones del comando mount Opcin rw|ro Descripcin Determina si el recurso se monta con propiedades de lectura/escritura o slo lectura. El valor predeterminado es lectura/escritura. Si el primer intento de montaje falla durante una solicitud de montaje NFS, se realiza un nuevo intento en primer o segundo plano. El intento se realiza en primer plano de forma predeterminada. Cuando se alcanza el nmero de retransmisiones especificado en la opcin retrans=n, el sistema de archivos montado con la opcin soft genera un error en la solicitud y sta deja de intentar procesarse. Los sistemas de archivos montados con la opcin hard generan un mensaje de advertencia y los intentos de procesar la solicitud prosiguen. En el montaje se utiliza la opcin hard de forma predeterminada. Aunque las opciones soft y bg no son los valores predeterminados, la combinacin de ambas suele acelerar el inicio del cliente cuando surgen problemas durante el montaje NFS.
bg|fg
soft|hard
6-36
Administracin del cliente NFS Tabla 6-9 Opciones del comando mount (Continuacin) Opcin intr|nointr Descripcin Habilita o inhabilita el uso de interrupciones por teclado para detener un proceso bloqueado mientras se espera la respuesta de un sistema de archivos montado con la opcin hard. El valor predeterminado es intr. No es imprescindible usar la opcin intr con la opcin soft, ya que esta opcin permite que el montaje NFS se interrumpa y falle si el proceso de montaje no se realiza correctamente dentro de los lmites de tiempo establecidos por retry/retrans. Cuando intr se utiliza con la opcin hard, el usuario puede pulsar las teclas Ctrl-C para interrumpir manualmente la instruccin de montaje ejecutada, que no produce el resultado deseado. El uso de la opcin nointr con la opcin hard permite que la operacin tarde el tiempo que necesite para realizarse correctamente. La opcin intr no puede utilizarse durante el arranque, ya que la operacin de montaje corre a cargo de un proceso demonio que no puede enviar el carcter Ctrl-C al proceso de montaje NFS. suid|nosuid Indica si se debe habilitar la ejecucin de setuid. La ejecucin de setuid se habilita de forma predeterminada. Establece el tiempo de espera en n dcimas de segundo. El valor predeterminado es 11 dcimas de segundo (0,1 segundo) para UDP (Protocolo de datagramas de usuario) y 600 dcimas de segundo para TCP (Protocolo de control de transmisin). Establece el nmero de veces que se puede volver a intentar la operacin de montaje. El valor predeterminado es 10.000. Establece el nmero de retransmisiones NFS en n. El valor predeterminado es 5 para UDP. Esta opcin no produce efecto con el protocolo TCP orientado a conexin.
timeo=n
retry=n
retrans=n
Configuracin de NFS
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
6-37
Realizar un seguimiento de los accesos a archivos remotos de la red. Facilitar la depuracin de fallos de NFS.
Demonio nfslogd
El demonio nfslogd realiza varias funciones:
Convierte los datos no procesados de la operacin de registro en registros ASCII y los almacena en archivos de registro ASCII. Asocia las direcciones IP a nombres de host y los UID a nombres de usuario. Asigna los gestores de archivo a nombres de ruta y registra estas asignaciones en una tabla gestor-archivo-a-ruta. Cada etiqueta del archivo /etc/nfs/nfslog.conf corresponde a una tabla de asignaciones.
Nota Los cambios en las asignaciones de la tabla gestor-archivo-a-ruta no se registran si el demonio nfslogd no est en ejecucin.
6-38
log=ruta_archregistro
fhtable=tabla_ruta
Configuracin de NFS
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
6-39
Habilitacin del registro de eventos del servidor NFS buffer= ruta_archbfer logformat= bsico|extendido Especifica la ruta absoluta y relativa y el nombre de archivo del archivo de bfer no procesado. Especifica el formato que se utiliza para crear archivos de registro que pueda leer el usuario. El formato bsico genera un archivo de registro similar al del demonio FTP. El formato extendido ofrece una vista ms detallada.
Si no se especifica una ruta absoluta en los parmetros, el demonio nfslogd agrega el nombre asignado a la ruta por el parmetro defaultdir. Utilice una ruta absoluta para anular el valor especificado por el parmetro defaultdir. Para identificar fcilmente los archivos de registro de diferentes recursos compartidos, colquelos en directorios separados. Por ejemplo: # cat /etc/nfs/nfslog.conf #ident "@(#)nfslog.conf 1.5 99/02/21 SMI" # . . # NFS server log configuration file. # global defaultdir=/var/nfs \ log=nfslog fhtable=fhtable buffer=nfslog_workbuffer public defaultdir=/var/nfs/public \ log=nfslog fhtable=fhtable buffer=nfslog_workbuffer Nota Cree el directorio /var/nfs/public antes de iniciar el registro de eventos del servidor NFS. En el ejemplo anterior, cualquier sistema de archivos compartido con log=public utiliza los siguientes valores:
El directorio predeterminado es /var/nfs/public. El registro se almacena en el archivo /var/nfs/public/nfslog. El archivo /var/nfs/public/fhtables contiene la base de datos gestor-archivo-a-ruta. El archivo /var/nfs/public/nfslog_workbuffer contiene el bfer.
6-40
Edite los valores predeterminados de todos los sistemas de archivos mediante el cambio de los datos correspondientes a la etiqueta global. Agregue una etiqueta nueva para el sistema de archivos concreto.
Si no necesita efectuar estos cambios, no edite el archivo. 3. Para compartir sistemas de archivos utilizando el registro de eventos del servidor NFS, primero necesita habilitarlo. Edite el archivo /etc/dfs/dfstab con el fin de agregar la entrada correspondiente a los sistemas de archivos para los que desea habilitar el registro de eventos del servidor NFS. A continuacin, tiene dos opciones:
Puede especificar una etiqueta. Utilice la opcin log=tag para introducir la etiqueta de desee utilizar en el archivo /etc/dfs/dfstab.
Utilice la opcin log sin especificar ninguna etiqueta. Esto hace que la opcin utilice la etiqueta global de forma predeterminada. En el ejemplo siguiente, la etiqueta global presenta los valores predeterminados: share -F nfs -o log /export/sys44_data
4.
Para iniciar o reiniciar los demonios mountd, nfsd y nfslogd, si no se estn ejecutando, utilice el siguiente comando: # svcadm enable svc:/network/nfs/server Si existe el archivo /etc/nfs/nfslog.conf y ejecuta la secuencia de comandos nfs.server, la secuencia inicia el demonio nfslogd. 5. # share 6. Ejecute el comando share para verificar que aparecen las opciones adecuadas. /export/sys44_data ro,log ""
Si agrega entradas adicionales al archivo /etc/dfs/dfstab, reinicie el sistema o introduzca el comando shareall para compartir el sistema de archivos.
# shareall
Configuracin de NFS
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
6-41
MIN_PROCESSING_SIZE Establece el nmero mnimo de bytes que debe tener el archivo de bfer antes de que se procese y se introduzca en el archivo de registro. El valor predeterminado es 524.288 bytes. El aumento de este nmero puede mejorar el rendimiento porque reduce la cantidad de veces que se procesa el archivo de bfer. Los parmetros MIN_PROCESSING_SIZE y IDLE_TIME determinan la frecuencia con que se procesa el archivo de bfer. UMASK CYCLE_FREQUENCY Especifica los permisos sobre los archivos de registro que define el demonio nfslogd. El valor predeterminado es 0137. Determina la cantidad de tiempo que debe transcurrir antes de que se borren los archivos de registro. El valor predeterminado es 24 horas. Para evitar que el tamao de los archivos de registro aumente demasiado, utilice el parmetro CYCLE_FREQUENCY. Determina el nmero de archivos de registro que se va a guardar. El valor predeterminado es 10.
MAX_LOGS_PRESERVE
6-42
Administracin de NFS con las herramientas de la carpeta de almacenamiento de Solaris Management Console
El sistema NFS se puede administrar utilizando las herramientas de la carpeta de almacenamiento que presenta el cuadro de herramientas de Solaris Management Console. La herramienta Mounts and Shares (montados y compartidos) permite ver, crear y administrar varios tipos de recursos montados y compartidos. En este mdulo se emplean los siguientes trminos:
Compartido se refiere a poner un directorio de un ordenador a disposicin de otros ordenadores. Montado hace referencia al acto de conectar un archivo o directorio a un directorio compartido.
Nota En los pasos siguientes se muestra el contenido de la carpeta Shared (compartido) de la herramienta Mounts and Shares. 2. Haga clic en el icono de palanca para que se muestre el cuadro de herramientas predeterminado, denominado This Computer (este PC) (nfs_nombreservidor). Haga de nuevo clic en el icono para mostrar la carpeta Storage (almacenamiento).
3.
Nota Cuando acceda a una herramienta por primera vez tras abrir Solaris Management Console, inicie la sesin en Solaris Management Console para autenticar sus derechos de acceso. 4. Haga clic en el icono de palanca para acceder a la herramienta Mounts and Shares.
Configuracin de NFS
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
6-43
Administracin de NFS con las herramientas de la carpeta de almacenamiento de 5. Haga clic en el icono Shares para que aparezcan los recursos actualmente compartidos de la carpeta Shares. Se abre la carpeta Shared. En los pasos restantes se va a agregar un directorio compartido a la lista de recursos compartidos. 6. Para iniciar el asistente Add Shared Directory, seleccione Add Shared Directory (agregar directorio compartido) en el men Action (accin). Para especificar el nombre del directorio, elija una de las siguientes opciones:
7.
Introduzca el nombre del recurso compartido en Directory (directorio). Introduzca la descripcin del recurso en Description (descripcin). Las opciones de uso compartido se pueden configurar como sigue: 1. 2. Compartir solamente este directorio o compartir este directorio y sus subdirectorios. Compartir este directorio en cada arranque o compartir este directorio en funcin de la demanda.
8.
Para especificar la forma de acceder al directorio, lleve a cabo los pasos siguientes: a. Seleccione Basic (bsico) para otorgar permisos de lectura o lectura/escritura a todos los usuarios y sistemas que tienen acceso al directorio compartido. Seleccione Advanced (avanzado) para definir mtodos de autenticacin. Consulte la funcin Help Index (ndice de la ayuda) de Solaris Management Console para definir los mtodos de autenticacin.
b.
9.
Especifique los atributos de acceso al directorio como de lectura/escritura o slo lectura. a. b. Si desea realizar cambios, haga clic en Back (atrs) para retroceder y modificar una entrada. Si est satisfecho, haga clic en Finish (finalizar) para crear el directorio compartido.
11. Regrese a la carpeta Shared de Solaris Management Console, en la que ahora aparece el nuevo directorio compartido. Ya puede acceder al directorio compartido a travs de los montajes NFS.
6-44
Nota En los pasos siguientes se muestra el contenido de la carpeta Mounts (montados) de la herramienta Mounts and Shares. 2. Haga clic en el icono de palanca para que se muestre el cuadro de herramientas predeterminado, denominado This Computer (este PC) (nfs_nombrecliente). Haga de nuevo clic en el icono para mostrar la carpeta Storage (almacenamiento). Haga clic en el icono Mount and Share (montar y compartir) para acceder a la herramienta Mounts and Shares. Haga clic en el icono de palanca para que se muestre la herramienta Mounts and Shares. Haga clic en el icono Mount para mostrar los recursos actualmente montados de la carpeta Mounts. Se abre la carpeta Mounts. En los pasos restantes se va a agregar un directorio NFS montado a la lista de recursos montados. 7. 8. 9. Para iniciar el asistente Add NFS Mount, seleccione la opcin Add NFS Mount (agregar montaje NFS) del men Action (accin). Para identificar el ordenador que comparte el directorio, introduzca el nombre del servidor NFS en el campo Computer (PC). Para especificar el punto de montaje, introduzca el nombre del directorio del cliente NFS en el que se va a incluir el contenido del directorio compartido. Si el directorio del punto de montaje no existe en el cliente NFS, es preciso crearlo. 10. Especifique si el directorio se va a montar durante el arranque o de forma manual antes de intentar acceder a l. 11. Especifique el tipo de atributos de acceso del directorio, es decir, lectura/escritura o slo lectura. Nota Los derechos de acceso a los montajes de clientes NFS no pueden ser superiores a los definidos en el servidor NFS para ese recurso compartido.
3. 4. 5. 6.
Configuracin de NFS
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
6-45
Administracin de NFS con las herramientas de la carpeta de almacenamiento de 12. Revise las opciones seleccionadas: a. b. Si desea realizar cambios, haga clic en Back (atrs) para retroceder y modificar una entrada. Si est satisfecho, haga clic en Finish (finalizar) para agregar el punto de montaje NFS.
13. Seleccione la carpeta Mounts de Solaris Management Console, en la que ahora aparece el punto de montaje recin creado. Puede acceder al directorio NFS montado de la misma manera que a los sistemas de archivos locales.
6-46
El error rpcbind failure El error server not responding El error NFS client fails a reboot El error service not responding El error program not registered El error stale file handle El error unknown host El error mount point El error no such file
La combinacin de una direccin de Internet incorrecta y un nombre de host o nodo correcto en el archivo de base de datos hosts que utiliza el nodo del cliente. El archivo de base de datos hosts que utiliza el cliente tiene un nodo de servidor correcto, pero este nodo se detiene temporalmente debido a una sobrecarga.
Para solucionar el error rpcbind failure mientras el nodo del servidor est operativo, determine si el servidor se ha quedado sin recursos crticos (por ejemplo, memoria, espacio de intercambio o espacio en el disco).
Configuracin de NFS
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
6-47
La red entre el sistema local y el servidor est fuera de servicio. Para verificar que la red est fuera de servicio, introduzca el comando ping (ping servidor2). El servidor (servidor2) est fuera de servicio.
Nota Cuando el servidor NFS no est disponible, en lugar de inhabilitar la entrada del archivo /etc/vfstab se puede utilizar la opcin de montaje bg para que la secuencia de arranque se ejecute a la vez que el intento de realizar el montaje NFS.
6-48
2.
2.
3.
Configuracin de NFS
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
6-49
6-50
Configuracin de NFS
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
6-51
Preparacin
Elija un compaero para realizar el ejercicio. Determine qu sistemas se van a configurar como servidor NFS y cliente NFS. Verifique la existencia de las entradas correspondientes a ambos sistemas en el archivo /etc/hosts de cada sistema. Consulte los apuntes tomados en clase cuando sea necesario para realizar los pasos siguientes.
Tareas
Realice las tareas siguientes.
6-52
Ejercicio: configuracin de NFS 3. 4. 5. Verifique que el servicio del cliente NFS est en lnea. Monte el directorio /usr/share/man del servidor. Verifique que las pginas del comando man estn disponibles. Estn disponibles? ____________________________________________________________ 6. Utilice el comando mount para mostrar las opciones de montaje correspondientes al directorio /usr/share/man. Indique las opciones de lectura y escritura que presenta el comando mount. Introduzca un archivo en el sistema de archivos NFS montado. Qu ocurre cuando intenta escribir en el sistema de archivos NFS montado? ____________________________________________________________ Qu conclusiones pueden extraerse de este ejercicio? ____________________________________________________________ 8. Desmonte el directorio /usr/share/man.
7.
Configuracin de NFS
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
6-53
6-54
!
?
Configuracin de NFS
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
6-55
Preparacin
Elija un compaero para realizar el ejercicio. Determine qu sistemas se van a configurar como servidor NFS y cliente NFS. Verifique la existencia de las entradas correspondientes a ambos sistemas en el archivo /etc/hosts de cada sistema. Consulte los apuntes tomados en clase cuando sea necesario para realizar los pasos siguientes.
Tareas y soluciones
Esta seccin contiene las soluciones del ejercicio.
share -o ro /usr/share/man 2. 3. # svcadm enable svc:/network/nfs/server # svcs -a | grep nfs disabled 09:04 online 09:04 online 09:04 online 09:04 online 09:04 online 09:04 online 09:04
6-56
Soluciones del ejercicio: configuracin de NFS 4. # share - /usr/share/man Verifique que el directorio /usr/share/man es un directorio compartido y que no hay montajes NFS. ro ""
SERVER server
ACCESS -
TRANSPORT -
# mv /usr/share/man /usr/share/man.orig # man ls No manual entry for ls. # Qu mensaje presenta el comando man? Ninguna entrada manual para ls. 2. # cd /usr/share # mkdir man 3. Verifique que el servicio del cliente NFS est en lnea. svc:/network/nfs/rquota:ticlts svc:/network/nfs/rquota:udp svc:/network/nfs/server:default svc:/network/nfs/cbd:default svc:/network/nfs/mapid:default svc:/network/nfs/status:default svc:/network/nfs/nlockmgr:default svc:/network/nfs/client:default # svcs -a | grep nfs disabled 18:10:23 disabled 18:10:24 disabled 18:10:56 online 18:10:12 online 18:10:12 online 18:10:12 online 18:10:14 online 18:10:32 4. Cree un directorio man nuevo (/usr/share/man) para utilizarlo como punto de montaje.
Configuracin de NFS
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
6-57
Soluciones del ejercicio: configuracin de NFS 5. # man ls Estn disponibles? S 6. Utilice el comando mount para mostrar las opciones de montaje correspondientes al directorio /usr/share/man. Indique las opciones de lectura y escritura que presenta el comando mount. La opcin ro | rw del comando mount es de lectura/escritura (rw) de forma predeterminada. 7. Introduzca un archivo en el sistema de archivos NFS montado. # touch /usr/share/man/test touch: /usr/share/man/test cannot create Qu ocurre cuando intenta escribir en el sistema de archivos NFS montado? No es posible escribir en el sistema de archivos. Qu conclusiones pueden extraerse de este ejercicio? Aunque el montaje del sistema de archivos tenga propiedades de lectura/escritura, el el permiso ro | rw es de slo lectura de forma predeterminada, segn se ha definido al compartir el directorio en el servidor NFS. 8. Desmonte el directorio /usr/share/man. # umount /usr/share/man Verifique que las pginas del comando man estn disponibles.
# mount
6-58
Configuracin de NFS
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
6-59
Mdulo 7
Configuracin de AutoFS
Objetivos
El sistema de archivos AutoFS proporciona un mecanismo para montar automticamente sistemas de archivos NFS bajo demanda y para desmontarlos de forma automtica despus de un periodo de inactividad determinado. Para especificar los puntos de montaje se emplean mapas de montaje automtico locales o distribuidos. El estudio de este mdulo le proporcionar los conocimientos necesarios para:
Describir los conceptos fundamentales del sistema de archivos AutoFS. Utilizar mapas de montaje automtico.
7-1
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
Montar sistemas de archivos bajo demanda. Desmontar sistemas de archivos de forma automtica. Centralizar la administracin de los montajes AutoFS mediante el uso de un servicio de nombres, que puede reducir drsticamente el tiempo adicional indirecto de administracin. Crear varios recursos de montaje para sistemas de archivos de lectura/escritura o slo lectura.
7-2
Introduccin a los conceptos fundamentales del sistema de archivos AutoFS La utilidad de montaje automtico contiene tres componentes, como se muestra en la Figura 7-1:
RAM
AutoFS automount -v Automount Maps
automountd
Figura 7-1
Funciones de AutoFS
Configuracin de AutoFS
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
7-3
Demonio automountd
La secuencia de comandos /lib/svc/method/svc-autofs inicia el demonio automountd, que monta los sistemas de archivos cuando se solicita y desmonta los puntos de montaje inactivos. Nota El demonio automountd es completamente independiente del comando automount. Gracias a esto, es posible agregar, eliminar o cambiar la informacin de los mapas sin necesidad de detener e iniciar el proceso del demonio automountd.
Comando automount
El comando automount, que se ejecuta durante el arranque del sistema, lee el mapa maestro para crear una serie inicial de montajes AutoFS. Estos montajes AutoFS no se montan automticamente durante el arranque, sino que son los punto de montaje bajo los cuales se montan los sistemas de archivos a solicitud.
7-4
etc
auto_master /net /home /auto_direct /opt/moreapps pluto: /export/opt/apps -hosts auto_home auto_direct [options] [options] [options]
Figura 7-2
Mapa maestro: presenta los dems mapas utilizados para establecer el sistema de archivos AutoFS. El comando automount lee este mapa durante el arranque. Mapa directo: presenta los puntos de montaje como nombres de rutas absolutas. En este mapa se indica explcitamente el punto de montaje en el cliente.
Configuracin de AutoFS
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
7-5
Mapa indirecto: presenta los puntos de montaje como nombres de rutas relativas. En este mapa se utiliza una ruta relativa para establecer el punto de montaje en el cliente. Especial: permite acceder a los servidores NFS mediante sus nombres de host.
Los mapas de montaje automtico pueden proceder de archivos de datos ASCII, mapas NIS, tablas NIS+ o bases de datos LDAP. Juntos, estos mapas proporcionan informacin similar a la que se especifica en el archivo /etc/vfstab correspondiente a los recursos de archivos remotos. La entrada automount del archivo /etc/nsswitch.conf determina el origen de los mapas de montaje automtico. Por ejemplo, la entrada: automount: archivos indica al comando automount que debe buscar la informacin de configuracin en el directorio /etc. El uso de nis en lugar de archivos indica al comando automount que debe consultar la informacin de configuracin en los mapas NIS.
-nosuid,nobrowse -nobrowse
La sintaxis general de cada entrada del mapa auto_master es: punto de montaje nombre de mapa opciones de montaje
7-6
Uso de mapas de montaje automtico donde: punto de montaje Nombre de ruta completo de un directorio. Si el directorio no existe, el servicio AutoFS lo crea (en caso de que sea posible). Nombre de un mapa directo o indirecto. Estos mapas proporcionan informacin de montaje. Si la ruta que aparece en este campo es relativa, AutoFS necesita consultar la ubicacin del mapa en el archivo /etc/nsswitch.conf.
nombre de mapa
opciones de montaje Opciones generales del mapa. Las opciones de montaje son similares a las utilizadas en los montajes NFS estndar. Sin embargo, la opcin de montaje nobrowse es exclusiva de AutoFS.
Nota En este archivo, la aparicin del smbolo de suma (+) al principio de la lnea +auto_master dirige la bsqueda del demonio automountd hacia NIS, NIS+ o bases de datos LDAP antes de que lea el resto del mapa. Si la lnea est inhabilitada, slo se busca en los archivos locales, a menos que el archivo /etc/nsswitch.conf especifique que es preciso buscar en NIS, NIS+ o LDAP.
Configuracin de AutoFS
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
7-7
Uso de mapas de montaje automtico Los dos mapas especiales son: -hosts Proporciona acceso a todos los recursos compartidos de los servidores NFS. Los recursos compartidos de un servidor se montan en el directorio /net/hostname, o en el directorio /net/IPaddress si slo se conoce la direccin IP del servidor. No es preciso que el servidor aparezca en la base de datos de hosts para que este mecanismo funcione. Este mapa proporciona el mecanismo que permite a los usuarios acceder a los directorios $HOME centralizados.
auto_home
7-8
Uso de mapas de montaje automtico El punto de montaje /- es un indicador que permite a la utilidad automount saber que los nombres de ruta completos se encuentran en el archivo especificado por nombre_mapa (el archivo /etc/auto_direct en este ejemplo). Nota La entrada /- no existe en el mapa maestro predeterminado, sino que se ha agregado aqu a modo de ejemplo. El archivo auto_master ya contiene las dems entradas de este ejemplo. Aunque la entrada map_name se defina como auto_direct, la utilidad automount buscar automticamente todos los archivos relacionados con los mapas en el directorio /etc; por consiguiente, basndonos en la entrada automount del archivo /etc/nsswitch.conf, el archivo auto_direct es el archivo /etc/auto_direct. Cuando el archivo auto_direct se vaya a almacenar en otro directorio, habr que utilizar el nombre de ruta absoluta del archivo. Nota Los mapas maestros de NIS o NIS+ slo pueden tener una entrada de mapa directo. Los mapas maestros que son archivos locales pueden tener cualquier nmero de entradas.
Configuracin de AutoFS
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
7-9
Uso de mapas de montaje automtico La sintaxis de los mapas directos es: clave [ opciones-montaje] ubicacin donde: clave Opciones-montaje ubicacin Nombre de ruta completo del punto de montaje de los mapas directos Opciones especficas de una entrada determinada Ubicacin del recurso de archivo especificado en la notacin servidor:nombreruta.
La siguiente entrada del mapa directo indica que el cliente monta el directorio /usr/share/man con atributos de slo lectura de los servidores server3, server4 o server5 (el que est disponible). /usr/share/man -ro server3,server4,server5:/usr/share/man
Para especificar un funcin automount ms funcional (varias ubicaciones para un recurso de archivo), esta entrada utiliza una notacin especial: una lista de servidores separados por comas. El demonio automountd monta automticamente el directorio /usr/share/man de los servidores server3, server4 o server5 como resulta necesario (la seleccin del servidor depende de la proximidad de ste y de las responsabilidades definidas por el administrador). Si el servidor ms prximo no responde en el intervalo de tiempo especificado, se selecciona el primer servidor en responder. Las entradas del mapa que especifican mltiples recursos de sistemas de archivos deben incluir la opcin de slo lectura (-ro). Nota Los criterios de seleccin aplicables a los servidores, como la proximidad del servidor y las responsabilidades definidas por el administrador, se describen en la seccin Replicated File Systems de la pgina del comando man de automount.
7-10
-nosuid,nobrowse -nobrowse
Las versiones de Solaris 2.6 a Solaris 10 permiten buscar mapas indirectos y mapas especiales con la opcin -browse. Gracias a esto todos los posibles puntos de montaje estn visibles, con independencia de si estn montados. La opcin -nobrowse inhabilita la bsqueda de mapas indirectos. Por consiguiente, en este ejemplo el punto de montaje automtico /home no proporciona funciones de bsqueda de directorios que no sean los actualmente montados. El valor predeterminado de esta opcin es -browse.
Configuracin de AutoFS
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
7-11
Uso de mapas de montaje automtico donde: clave Indica el nombre de ruta del punto de montaje relacionado con el principio del nombre de ruta especificado en el mapa maestro. Especifica las opciones de una entrada determinada. Indica la ubicacin del recurso de archivo especificado en la notacin servidor:nombreruta.
opcionesmontaje ubicacin
.
NFS Server "mars" NFS Client "venus"
export home home mary ernie mary autofs autofs Mount on Demand by automountd auto_home etc
Figura 7-3
Puntos de montaje
7-12
Uso de mapas de montaje automtico En la Figura 7-4 se utiliza el carcter de comodn (*) en esta entrada para representar cualquier clave. El comodn no se puede utilizar junto con otros caracteres. El carcter de sustitucin (&) del final de la ubicacin se puede reemplazar por cualquier clave que coincida. Los caracteres de comodn y sustitucin slo sirven cuando todos los directorios de inicio se encuentran en un nico servidor (en este ejemplo, server1).
* server1:/export/home/&
Figura 7-4
-v
Aunque es posible modificar las entradas del mapa maestro o agregar entradas para mapas nuevos, es preciso ejecutar el comando automount para que se apliquen los cambios. Como el demonio automountd no dispone de datos de estado, no es necesario detenerlo y reiniciarlo despus de efectuar cambios en las entradas del mapa directo. Las entradas del mapa directo se pueden modificar en cualquier momento. Los nuevos datos se utilizan la siguiente vez que el demonio automountd accede a la entrada del mapa para efectuar un montaje.
Configuracin de AutoFS
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
7-13
Uso de mapas de montaje automtico El demonio automountd utiliza automticamente las modificaciones realizadas en los mapas indirectos. Por modificacin se entiende el cambio efectuado en las opciones o los recursos. Cualquier cambio de clave (punto de montaje) o lnea completamente nueva supone la adicin o eliminacin de una entrada, o ambos. Utilice la Tabla 7-1 para determinar si debera ejecutar (o volver a ejecutar) el comando automount. Tabla 7-1 Cundo ejecutar el comando automount Mapa de montaje automtico Mapa maestro Mapa directo Mapa indirecto Ejecutar si se agrega o elimina la entrada S S No Ejecutar si se modifica la entrada S No No
7-14
Uso de mapas de montaje automtico Para obtener una instantnea de los sistemas de archivos montados, incluidos los montados como AutoFS, puede abrir el archivo /etc/mnttab. # grep autofs /etc/mnttab -hosts /net autofs nosuid,indirect,ignore,nobrowse,dev=4e00001 1099678245 auto_home /home autofs indirect,ignore,nobrowse,dev=4e00002 1099678245 -hosts /net/sys-02/rdbms_files autofs nosuid,ignore,nest,nobrowse,dev=4e000031099679619 -hosts /net/sys-02/usr autofs nosuid,ignore,nest,nobrowse,dev=4e00004 1099679619
Configuracin de AutoFS
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
7-15
7-16
Preparacin
Elija un compaero para realizar el ejercicio y determine qu sistema se va a configurar como servidor NFS y qu sistema se va a usar como cliente NFS. Verifique la existencia de las entradas correspondientes a ambos sistemas en el archivo /etc/hosts de cada sistema. Consulte los apuntes tomados en clase cuando sea necesario para realizar los pasos indicados.
Tareas
Lleve a cabo las siguientes tareas.
Tarea 1: en el servidor
Lleve a cabo los pasos siguientes: 1. 2. Edite el archivo /etc/dfs/dfstab y agregue una lnea para compartir las pginas del comando man. Utilice el comando pgrep para determinar si el demonio mountd est funcionando.
Si el demonio mountd no se est ejecutando, incielo. Si el demonio mountd est en ejecucin, comparta el nuevo directorio.
Tarea 2: en el cliente
Lleve a cabo los pasos siguientes: 1. 2. Cambie el nombre del directorio /usr/share/man para que no sea posible ver las pginas del comando man instaladas en el cliente. Haga una copia de seguridad del archivo /etc/auto_master que se denomine /etc/_auto_master. A continuacin, edite el archivo /etc/auto_master y agregue una entrada para un mapa directo. Utilice el editor vi para crear un archivo nuevo que se denomine /etc/auto_direct, y agrguele una entrada para compartir las pginas del comando man.
3.
Configuracin de AutoFS
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
7-17
Ejercicio: uso de la utilidad de montaje automtico 4. 5. Ejecute el comando automount para actualizar la lista de directorios que administra el demonio automountd. Pruebe la configuracin y verifique que existe un punto de montaje para el directorio /usr/share/man despus de acceder a las pginas del comando man. Qu le indica que la operacin de automount se ha realizado correctamente? ____________________________________________________
Tarea 3: en el servidor
Lleve a cabo los pasos siguientes: 1. 2. Verifique que existe el directorio /export/home. Si no existe, crelo. Agregue una cuenta de usuario con las siguientes caractersticas:
ID de usuario: 3001 Grupo principal: 10 Directorio de inicio: /export/home/usera Shell de inicio de sesin:/bin/ksh Nombre de usuario: usera
3.
Configure la contrasea de usera de manera que este usuario tenga que definir una contrasea nueva (123pass) la prxima vez que inicie la sesin. Para esto, ejecute el comando passwd -f usera.
Tarea 4: en el cliente
Lleve a cabo los pasos siguientes: 1. 2. Verifique que existe el directorio /export/home. Si no existe, crelo. Agregue una cuenta de usuario con las siguientes caractersticas:
ID de usuario: 3001 Grupo principal: 10 Directorio de inicio: /export/home/usera Shell de inicio de sesin: /bin/ksh Nombre de usuario: usera
3.
Configure la contrasea de usera de manera que este usuario tenga que definir una contrasea nueva (123pass) la prxima vez que inicie la sesin. Para esto, ejecute el comando passwd -f usera.
7-18
Tarea 6: en el servidor
Lleve a cabo los pasos siguientes: 1. 2. Edite el archivo /etc/dfs/dfstab y agregue una lnea para compartir el directorio /export/home. Utilice el comando pgrep para determinar si el demonio mountd est funcionando.
Si el demonio mountd no se est ejecutando, incielo. Si el demonio mountd est en ejecucin, comparta el nuevo directorio.
Configuracin de AutoFS
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
7-19
Tarea 8: en el cliente
Lleve a cabo los pasos siguientes: 1. 2. Elimine la entrada correspondiente a usera del mapa /etc/auto_home. Elimine la entrada correspondiente al mapa auto_direct del mapa /etc/auto_master y suprima el archivo /etc/auto_direct que ha creado antes. Reinicie el cliente. Elimine el directorio /usr/share/man. Cambie el nombre del directorio /usr/share/man.orig por /usr/share/man.
3. 4. 5.
Tarea 9: en el servidor
Lleve a cabo los pasos siguientes: 1. Despus de reiniciar el cliente segn lo descrito en el paso 3 de la Tarea 8: en el cliente, elimine la entrada correspondiente a usera del mapa /etc/auto_home. Elimine estas entradas del archivo /etc/dfs/dfstab. Deje de compartir los directorios montados.
2. 3.
7-20
!
?
Configuracin de AutoFS
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
7-21
Preparacin
Elija un compaero para realizar el ejercicio y determine qu sistema se va a configurar como servidor NFS y qu sistema se va a usar como cliente NFS. Verifique la existencia de las entradas correspondientes a ambos sistemas en el archivo /etc/hosts de cada sistema. Consulte los apuntes tomados en clase cuando sea necesario para realizar los pasos indicados.
Tareas y soluciones
En esta seccin se ofrecen las soluciones a las tareas.
Tarea 1: en el servidor
Lleve a cabo los pasos siguientes: 1. Edite el archivo /etc/dfs/dfstab y agregue una lnea para compartir las pginas del comando man. Utilice el comando pgrep para determinar si el demonio mountd est funcionando.
share -o ro /usr/share/man 2.
Si el demonio mountd no se est ejecutando, incielo. Si el demonio mountd est en ejecucin, comparta el nuevo directorio.
# shareall
7-22
Tarea 2: en el cliente
Lleve a cabo los pasos siguientes: 1. # cd /usr/share/ # mv man man.orig 2. Haga una copia de seguridad del archivo /etc/auto_master que se denomine /etc/_auto_master. A continuacin, edite el archivo /etc/auto_master y agregue una entrada para un mapa directo. Cambie el nombre del directorio /usr/share/man para que no sea posible ver las pginas del comando man instaladas en el cliente.
# cp /etc/auto_master /etc/_auto_master # vi /etc/auto_master /auto_direct 3. Utilice el editor vi para crear un archivo nuevo que se denomine /etc/auto_direct, y agrguele una entrada para compartir las pginas del comando man.
# vi /etc/auto_direct /usr/share/man servidor:/usr/share/man 4. # automount -v 5. Pruebe la configuracin y verifique que existe un punto de montaje para el directorio /usr/share/man despus de acceder a las pginas del comando man. Ejecute el comando automount para actualizar la lista de directorios que administra el demonio automountd.
# man ls <-- output from man command -- > # mount | grep man /usr/share/man on sys44:/usr/share/man remote/read/write/setuid/dev=42c0003 on Thu Jan 6 08:07:26 2005 Qu le indica que la operacin de automount se ha realizado correctamente? En esta operacin, el directorio en el que estn almacenados los manuales debera montarse automticamente. Es decir, el comando man debera funcionar.
Configuracin de AutoFS
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
7-23
Tarea 3: en el servidor
Lleve a cabo los pasos siguientes: 1. Verifique que existe el directorio /export/home. Si no existe, crelo. # ls /export/home Nota Si el directorio /export/home no existe, ejecute el siguiente comando.
# mkdir /export/home 2. Agregue una cuenta de usuario con las siguientes caractersticas:
ID de usuario: 3001 Grupo principal: 10 Directorio de inicio: /export/home/usera Shell de inicio de sesin:/bin/ksh
Nombre de usuario: usera # useradd -u 3001 -g 10 -m -d /export/home/usera -s /bin/ksh usera 3. Configure la contrasea de usera de manera que este usuario tenga que definir una contrasea nueva (123pass) la prxima vez que inicie la sesin. Para esto, ejecute el comando passwd -f usera.
Tarea 4: en el cliente
Lleve a cabo los pasos siguientes: 1. Verifique que existe el directorio /export/home. Si no existe, crelo. # ls /export # mkdir /export/home 2. Agregue una cuenta de usuario con las siguientes caractersticas:
ID de usuario: 3001 Grupo principal: 10 Directorio de inicio: /export/home/usera Shell de inicio de sesin: /bin/ksh
Nombre de usuario: usera # useradd -u 3001 -g 10 -m -d /export/home/usera -s /bin/ksh usera 3. Configure la contrasea de usera de manera que este usuario tenga que definir una contrasea nueva (123pass) la prxima vez que inicie la sesin. Para esto, ejecute el comando passwd -f usera.
7-24
# cp /etc/auto_home /etc/_auto_home 3.
Tarea 6: en el servidor
Lleve a cabo los pasos siguientes: 1. Edite el archivo /etc/dfs/dfstab y agregue una lnea para compartir el directorio /export/home. Utilice el comando pgrep para determinar si el demonio mountd est funcionando.
share /export/home 2.
Si el demonio mountd no se est ejecutando, incielo. Si el demonio mountd est en ejecucin, comparta el nuevo directorio.
# shareall
Configuracin de AutoFS
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
7-25
Soluciones del ejercicio: uso de la utilidad de montaje automtico Cierre la sesin del usuario usera. # exit Qu directorio est montado y en qu punto de montaje? # mount
Tarea 8: en el cliente
Lleve a cabo los pasos siguientes: 1. 2. Elimine la entrada correspondiente a usera del mapa /etc/auto_home. Elimine la entrada correspondiente al mapa auto_direct del mapa /etc/auto_master y suprima el archivo /etc/auto_direct que ha creado antes. Reinicie el cliente. Elimine el directorio /usr/share/man. Cambie el nombre del directorio /usr/share/man.orig por /usr/share/man.
3. # init 6 4. 5.
# rmdir /usr/share/man
# mv /usr/share/man.orig /usr/share/man
Tarea 9: en el servidor
Lleve a cabo los pasos siguientes: 1. Despus de reiniciar el cliente segn lo descrito en el paso 3 de la Tarea 8: en el cliente, elimine la entrada correspondiente a usera del mapa /etc/auto_home. Elimine estas entradas del archivo /etc/dfs/dfstab. Deje de compartir los directorios montados.
2. 3. # unshareall
7-26
Mdulo 8
Describir RAID. Describir los conceptos del software Solaris Volume Manager.
8-1
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
Introduccin a RAID
Introduccin a RAID
RAID es un mtodo de clasificacin orientado a la copia de seguridad y el almacenamiento de datos en varias unidades de disco. Adems de los seis niveles de RAID, existe una matriz no redundante de discos independientes (RAID 0). El software Solaris Volume Manager utiliza metadispositivos (definiciones especficas de producto de los volmenes lgicos de almacenamiento) para implementarRAID 0, RAID 1, RAID 1+0 y RAID 5:
RAID 0: matriz no redundante de discos independientes (concatenacin y fraccionamiento) RAID 1: matriz de discos duplicados RAID 5: fraccionamiento de entrelazado de bloques con paridad distribuida
RAID 0
Los volmenes RAID-0, incluidas las fracciones y concatenaciones, estn formados por slices y permiten ampliar la capacidad de almacenamiento del disco. Estos volmenes pueden utilizarse directamente o como bloques de construccin de volmenes RAID-1 (duplicaciones). Existen dos tipos de volmenes RAID-0:
Volmenes concatenados (o concatenaciones) Los volmenes concatenados escriben datos en el primer slice disponible. Cuando el primer slice se llena, el volumen registra los datos en el siguiente slice disponible.
Volmenes fraccionados (o fracciones) Las fracciones distribuyen los datos de manera uniforme por todos los slices de la fraccin.
Los volmenes RAID-0 constituyen un mtodo eficaz para ampliar la capacidad de almacenamiento del disco. No proporcionan redundancia de datos. Cuando se produce un fallo en un slice de un volumen RAID-0, se inhabilita el acceso a todo el volumen.
8-2
Introduccin a RAID
Volmenes concatenados
Figura 8-1 se muestra la organizacin de los datos en un volumen RAID 0 concatenado. Los datos estn repartidos en los slices del disco formando una unidad lgica de almacenamiento.
RAID 0 (Concatenation) Logical Volume Physical Slice A
Physical Slice B
Physical Slice C
Figura 8-1
Concatenacin RAID-0
En la concatenacin se combinan las capacidades de varios slices para obtener una capacidad de almacenamiento mayor. Se pueden agregar ms slices a la concatenacin conforme aumenta la demanda de almacenamiento. Los slices se pueden agregar en cualquier momento, incluso cuando hay otros slices activos.
8-3
Introduccin a RAID De forma predeterminada, los volmenes RAID-0 concatenados llenan un componente fsico del volumen antes de empezar a almacenar los datos en los siguientes componentes del volumen concatenado. Sin embargo, el comportamiento predeterminado de los sistemas de archivos UFS de Solaris es otro, ya que la carga se distribuye entre los dispositivos asignados al volumen que contiene un sistema de archivos. Esto produce la sensacin de que los volmenes RAID-0 concatenados distribuyen los datos entre los componentes del volumen por turnos y de forma entrelazada. El entrelazado de datos es una funcin del sistema de archivos UFS montado en el volumen concatenado, pero que no es propia de l. La concatenacin tambin se puede utilizar para ampliar cualquier sistema de archivos UFS activo y montado sin necesidad de apagar el sistema. La capacidad de una concatenacin equivale al tamao total de sus slices.
8-4
Introduccin a RAID
Volmenes fraccionados
En la Figura 8-2 se muestra la distribucin de un volumen RAID-0 fraccionado. En los volmenes RAID 0 configurados como fracciones, los datos se reparten en dos o ms slices. El fraccionamiento distribuye segmentos de datos de igual tamao de forma alterna entre dos o ms slices, que forman una unidad lgica de almacenamiento. Estos segmentos se entrelazan por -turnos para crear espacio combinado alternativamente a partir de cada slice.
Physical Slice A Interlace 1 Interlace 4 Physical Slice B Interlace 2 Interlace 5 Physical Slice C Interlace 3 Interlace 6
Interlace 1 Interlace 4
Interlace 2 Interlace 5
Interlace 3 Interlace 6
Figura 8-2
Fraccin RAID-0
Como permite recuperar datos de varios discos a la vez, el fraccionamiento garantiza el acceso paralelo a los datos. Esto mejora el rendimiento de las entradas y salidas (E/S), ya que son varios los discos del volumen los que se encargan de satisfacer al mismo tiempo las solicitudes de E/S.
8-5
Introduccin a RAID No es posible transformar directamente un sistema de archivos existente en fraccin. Primero es necesario hacer una copia de seguridad del sistema de archivos y crear la fraccin para luego restaurar el sistema de archivos en la fraccin. Para realizar operaciones de E/S consecutivas en una fraccin, Solaris Volume Manager lee todos los bloques de un entrelazado. El entrelazado es el segmento formado por el grupo de bloques de un slice determinado. Solaris Volume Manager contina leyendo todos los bloques del entrelazado del segundo slice y as sucesivamente. El entrelazado tiene el tamao de los bloques de datos lgicos de la fraccin. Son varios los valores de entrelazado que pueden incrementar el rendimiento con la configuracin existente en funcin de la aplicacin. El aumento del rendimiento se debe a que varios ensambladores de cabezal de disco (HDA) realizan operaciones de E/S al mismo tiempo. Cuando la solicitud de E/S supera el tamao de entrelazado, se puede obtener mejor rendimiento. El valor de entrelazado se puede configurar al crear la fraccin, pero no se puede cambiar una vez creada. Puede crear una copia de seguridad en la fraccin, eliminarla, crear otra fraccin con un valor de entrelazado nuevo y luego restaurar los datos.
RAID 1
Los volmenes RAID-1, tambin conocidos como volmenes de duplicacin en Solaris Volume Manager, suelen constar de volmenes RAID-0 y ofrecen la redundancia de datos como ventaja. Sin embargo, el alto coste de los dos dispositivos RAID-1 que se requieren cuando se duplica un dispositivo RAID-0 plantea una desventaja. Cuando se configuran duplicaciones es conveniente tener en cuenta lo siguiente:
Ventajas y desventajas del uso de duplicaciones Uso de varias subduplicaciones RAID 0+1 RAID 1+0 Opciones de lectura, escritura y sincronizacin de duplicaciones Directrices de configuracin de duplicaciones
8-6
Introduccin a RAID
8-7
Introduccin a RAID Una subduplicacin se puede asociar o disociar de una duplicacin en cualquier momento, aunque siempre debe haber al menos una subduplicacin asociada a la duplicacin. Por lo general, se empieza creando una duplicacin con una sola subduplicacin, pero luego se le pueden asociar otras subduplicaciones, como se muestra en la Figura 8-3.
Submirror 1 Interlace 1 Interlace 2 Interlace 3 Interlace 4 Solaris Volume Manager Submirror 1
Int 1 Int 2 Int 3 Int 4
Submirror 2
Int 1 Int 2 Int 3 Int 4
Figura 8-3
Duplicacin RAID-1
Solaris Volume Manager hace copias duplicadas de los datos de varios discos fsicos y presenta un disco virtual a la aplicacin. Todas las operaciones de escritura en disco se duplican, y las operaciones de lectura de disco proceden de una de las subduplicaciones subyacentes. Si las subduplicaciones no tienen el mismo tamao, la capacidad total de la duplicacin queda limitada al tamao de la subduplicacin ms pequea.
8-8
Introduccin a RAID
RAID 0+1
En los volmenes RAID-0+1, las fracciones se duplican entre s. En una configuracin RAID-0+1 pura, el fallo de un slice causara el fallo de toda la subduplicacin. En la Figura 8-4 se muestra un ejemplo de configuracin RAID-0+1. Un fallo en el slice A, B o C hace que falle toda la subduplicacin 1. Un fallo en el slice D, E o F provoca el fallo de toda la subduplicacin 2. El fallo de cada una de las subduplicaciones de la duplicacin RAID 0+1 provoca el fallo de la duplicacin entera.
Physical Slice A Physical Slice B Physical Slice C Physical Slice D Physical Slice E Physical Slice F
Figura 8-4
8-9
Introduccin a RAID
RAID 1+0
Los volmenes RAID-1+0 constan de varias duplicaciones fraccionadas. RAID 1+0 garantiza mayor proteccin de los datos, ya que el fallo de un nico slice del disco fsico slo afecta a la mitad de una de las subduplicaciones, con lo que gran parte de la redundancia de datos de la configuracin permanece intacta. En la Figura 8-5 se muestra un ejemplo de configuracin de un volumen RAID-1+0. En este ejemplo hay tres slices, cada uno de los cuales se duplica a s mismo. La fraccin RAID 0 tolera tres fallos simultneos del slice fsico, uno en cada duplicacin RAID-1, antes de que se considere que la fraccin RAID-0 entera ha fallado. Si se compara con la duplicacin RAID-0+1, esta configuracin es ms tolerante a fallos. Cuando fallan ambas subduplicaciones de cualquier duplicacin, se pierde un tercio de los datos y se considera que el volumen RAID-1+0 tambin ha fallado.
Physical Slice A RAID 1 (Mirror) Logical Volume Physical Slice B RAID 1 (Mirror) Logical Volume Physical Slice C RAID 1 (Mirror) Logical Volume
Physical Slice D
Physical Slice E
Physical Slice F
Figura 8-5
8-10
Introduccin a RAID
Opciones de duplicacin
El rendimiento de la duplicacin se puede modificar mediante el uso de las opciones siguientes:
Nota Las opciones de duplicacin aqu indicadas son representativas de las que aparecen cuando se configuran duplicaciones RAID-1 con Solaris Volume Manager. Las opciones de duplicacin se pueden definir cuando se crea inicialmente la duplicacin o despus de configurarla. Para mejorar el rendimiento, puede distribuir la carga entre las subduplicaciones. En la Tabla 8-1 se describen las directivas de lectura que se pueden configurar. Tabla 8-1 Directivas de lectura de duplicaciones Directiva de lectura Round Robin (predeterminado) Geometric Descripcin Distribuye la carga de forma equilibrada entre las subduplicaciones. Permite al sistema dividir las operaciones de lectura entre subduplicaciones basndose en una direccin de bloque del disco lgico. Dirige todas las operaciones de lectura a la primera subduplicacin.
First
8-11
Introduccin a RAID Mediante la rplica simultnea de todas las subduplicaciones se puede mejorar el rendimiento de las operaciones de escritura. Cuando se produce un fallo durante la escritura, todas las subduplicaciones se encuentran en un estado desconocido. En la Tabla 8-2 se describen las directivas de escritura que se pueden configurar. Tabla 8-2 Directivas de escritura de duplicaciones Directiva de escritura Parallel (predeterminado) Serial Descripcin Repite una operacin de escritura en una duplicacin y remite la operacin a todas las subduplicaciones a la vez. Especifica que es preciso completar las operaciones de escritura en una subduplicacin antes de iniciar otras operaciones de escritura en la siguiente subduplicacin.
Cuando una subduplicacin est fuera de lnea, se hace un seguimiento de las operaciones de escritura en la duplicacin en un registro de zonas deterioradas. Una vez que la subduplicacin vuelve a estar en lnea, es preciso actualizar o resincronizar esas zonas.
Mantenga los slices de subduplicaciones diferentes en discos y controladores diferentes para proteger mejor los datos. La organizacin de las subduplicaciones en controladores separados reduce el impacto que produce el fallo de un controlador y mejora el rendimiento de la duplicacin. Utilice el mismo tipo de discos y controladores en la duplicacin. En particular, en los dispositivosSCSI (Interfaz reducida de sistemas de ordenador) antiguos puede producirse una variacin del rendimiento en funcin del modelo o la marca de los discos o los controladores. La diferencia de niveles de rendimiento puede ocasionar una reduccin del rendimiento general. Para reducir el espacio no usado en el disco, utilice subduplicaciones del mismo tamao.
8-12
Introduccin a RAID
Monte directamente el dispositivo de duplicacin. No intente montar la subduplicacin directamente, a menos que est desconectada y montada con atributos de slo lectura. No monte un slice que forme parte de una subduplicacin si no quiere destruir los datos y hacer que el sistema se caiga. La duplicacin mejora el rendimiento de lectura, pero reduce el rendimiento de escritura. Sin embargo, la mejora del rendimiento de lectura slo se produce en operaciones de E/S multihilo o asncronas. El rendimiento no mejora en operaciones de lectura del volumen de un nico subproceso. Para mejorar el rendimiento, experimente con las directivas de lectura. Por ejemplo, cuando se utiliza Solaris Volume Manager, el modo de lectura predeterminado alterna por turnos las operaciones de lectura entre discos. Este modo es el predeterminado porque es el que mejor funciona con operaciones UFS multiproceso y multiusuario. La opcin de lectura geomtrica mejora el rendimiento en algunos casos porque reduce al mnimo el movimiento del cabezal y el tiempo de acceso. Esta opcin resulta ms eficaz cuando slo hay un slice por disco, el sistema de archivos es utilizado por un solo proceso cada vez, los patrones de E/S son secuenciales o todos los accesos son de lectura. Utilice el comando swap -l para buscar todos los dispositivos de intercambio. Duplique los slices especificados por separado como intercambio. Utilice solamente subduplicaciones con configuracin similar en una duplicacin. Cuando se crea una duplicacin con una subduplicacin sin etiqueta, no es posible asociar subduplicaciones que no contienen etiquetas de disco.
8-13
Introduccin a RAID
RAID 5
Los volmenes RAID-5 son volmenes fraccionados en los que se emplea un esquema de paridad distribuida para proteger los datos. Para entender bien los volmenes RAID-5, es preciso conocer lo siguiente:
Volmenes RAID-5 estndar Requisitos de los volmenes RAID-5 Sugerencias sobre los volmenes RAID-5
8-14
Introduccin a RAID En la Figura 8-6 se muestra la escritura de los tres primeros entrelazados de datos en los slices A, B y C. El siguiente elemento que se introduce es la paridad en la unidad D. El patrn de escritura de datos y los resultados de paridad (tanto en datos como en paridad) se distribuyen a travs de todos los discos del volumen RAID-5. Es posible realizar operaciones de lectura por separado en cada unidad. La paridad ofrece proteccin en caso de que falle un solo disco. En Paridad distribuida RAID-5, el volumen RAID-5 tendra una capacidad total de 6 Gbytes si cada disco fuera de 2 Gbytes. La informacin de paridad ocupa el espacio equivalente a una unidad.
Interlace 1
Physical Slice A
P(4-6) Interlace 7
Physical Slice B
Interlace 3
Physical Slice C
P(1-3)
Physical Slice D
Figura 8-6
8-15
Introduccin a RAID
Cree un volumen RAID-5 con un mnimo de tres slices. Cuanto mayor es el nmero de slices de un volumen RAID-5, ms tardan en realizarse las operaciones de lectura y escritura en caso de fallo de un slice. No fraccione, concatene ni duplique los volmenes RAID-5. No cree ningn volumen RAID-5 a partir de un slice que contenga un sistema de archivos existente; los datos se borrarn durante el proceso de inicializacin de RAID-5. Al crear un volumen RAID-5 se puede definir el valor de entrelazado. Si no especifica ningn valor, se asignar el valor predeterminado de 16 Kbytes. Los volmenes RAID-5 (sin reposiciones en caliente) slo son capaces de manejar el fallo de un slice. Para optimizar el rendimiento, utilice slices de controladores separados cuando cree los volmenes RAID-5. Utilice slices de disco del mismo tamao. Cuando se crea un volumen RAID-5 con slices de diferente tamao, queda espacio del disco sin usar en los slices de mayor tamao.
Dada la complejidad de los clculos de paridad, se recomienda no configurar los volmenes con ms del 20 por ciento de operaciones de escritura como volmenes RAID-5. Si necesita redundancia de datos en un volumen con muchas operaciones de escritura, plantese utilizar la duplicacin. Si los slices del volumen RAID-5 residen en diferentes controladores y al volumen se accede principalmente en grandes accesos secuenciales, la configuracin del valor de entrelazado en 32 Kbytes puede mejorar el rendimiento.
8-16
Introduccin a RAID
Configuraciones de almacenamiento
Cuando se planifica la configuracin de administracin del almacenamiento es preciso tener en cuenta las ventajas y desventajas en cuanto a rendimiento, disponibilidad y costes de hardware de cada aplicacin. Es posible que necesite probar las distintas alternativas para determinar cul es la que mejor funciona con la configuracin que utiliza. Existen unas cuantas categoras de informacin que deben tenerse en cuenta durante la fase de planificacin:
Directrices generales de almacenamiento Determinacin de las caractersticas de almacenamiento Directrices de rendimiento del almacenamiento
Nota La incorporacin de un nmero mayor de unidades a la configuracin incrementa la redundancia, adems del tiempo medio entre fallos (MTBF) debido a que existe ms hardware.
Caractersticas de almacenamiento
Cuando se clasifican las caractersticas de almacenamiento, se proporcionan directrices para trabajar con volmenes RAID-0 (concatenacin y fraccionamiento), RAID-1 (duplicacin) y RAID-5 (fraccionamiento con paridad distribuida) de Solaris Volume Manager. Elija los tipos de dispositivos de almacenamiento que se van a utilizar durante la creacin del plan de administracin del almacenamiento. Las directrices relacionadas con las caractersticas del almacenamiento permiten comparar y contrastar los distintos mecanismos de almacenamiento, y ayudan a elegir el ms adecuado.
8-17
Introduccin a RAID Nota Los mecanismos de almacenamiento recogidos en la Tabla 8-3 no son excluyentes entre s, sino que se pueden combinar para lograr varios objetivos. Por ejemplo, se puede crear un volumen RAID-1 para obtener redundancia y luego crear particiones de software en l con el fin de aumentar el nmero de posibles sistemas de archivos discretos. Tabla 8-3 Eleccin de los mecanismos de almacenamiento Concatenacin RAID-0 No No Fraccionamiento RAID-0 No S Duplicacin RAID-1 S Dependencia del dispositivo subyacente No Fraccionamiento con paridad RAID-5 S S
Caracterstica
No
No
Cuando se optimiza el almacenamiento redundante hay que tener en cuenta muchos factores. En la Tabla 8-4 se compara la velocidad de las operaciones de escritura y de lectura aleatoria, as como el coste global del hardware subyacente, de los volmenes RAID-1 y RAID-5. Tabla 8-4 Optimizacin del almacenamiento redundante Factores Operaciones de escritura Lectura aleatoria Coste de hardware Rendimiento durante fallos RAID 1 (duplicacin) Ms rpidas Ms lenta Mximo ptimo RAID 5 Ms lentas Ms rpida Ms alto Deficiente No redundante Indiferente Indiferente Mnimo Prdida de datos
8-18
Introduccin a RAID
Los dispositivos RAID-0 (fraccionamiento y concatenacin) no proporcionan redundancia de datos. La concatenacin funciona bien con operaciones de E/S aleatorias de poca envergadura. El fraccionamiento es adecuado para operaciones de E/S grandes en secuencia y para distribuciones de E/S aleatorias. La duplicacin mejora el rendimiento de las operaciones de lectura. Como los volmenes RAID-5 tienen propiedades de lectura, modificacin y escritura, se recomienda no configurar los volmenes con ms del 20 por ciento de operaciones de escritura como volmenes RAID 5. En estos casos, debe plantearse la posibilidad de utilizar la duplicacin cuando sea necesario proteger los datos. Las operaciones de escritura de RAID 5 no son tan rpidas como las operaciones de escritura duplicadas, y estas ltimas son ms lentas que las operaciones de escritura desprotegidas.
Directrices de rendimiento
Cuando se disea la configuracin de almacenamiento, es preciso tener en cuenta estas directrices de rendimiento:
Siempre que sea posible, distribuya los dispositivos de almacenamiento en varios controladores, cables y dispositivos de E/S. El fraccionamiento suele ofrecer las mejores caractersticas de rendimiento, pero no proporciona proteccin de datos. En aplicaciones con muchas operaciones de escritura, RAID 1 ofrece mejores resultados que RAID 5. Los volmenes RAID-1 y RAID-5 incrementan la disponibilidad de los datos. La duplicacin mejora el rendimiento de las operaciones de lectura aleatoria. Los volmenes RAID-5 conllevan menos costes de hardware que los volmenes RAID-1, mientras que los volmenes RAID-0 no conllevan ningn coste de hardware adicional. Identifique los datos a los que se accede con ms frecuencia y aumente el ancho de banda de acceso a los mismos mediante la duplicacin o el fraccionamiento.
8-19
Introduccin a RAID
Tanto los fraccionamientos como los volmenes RAID-5 distribuyen los datos entre varias unidades de disco y ayudan a equilibrar la carga de E/S. Tambin puede utilizar volmenes RAID-1 para repartir la carga de E/S de forma equilibrada. Para identificar los datos a los que se accede con ms frecuencia, utilice funciones y herramientas genricas de monitorizacin del rendimiento, como el comando iostat. A continuacin, fraccione los volmenes RAID-1 o RAID-5 para incrementar el ancho de banda de acceso de los datos de uso ms frecuente. Aunque las fracciones ofrecen mejor rendimiento que los volmenes RAID 5, no proporcionan redundancia de datos. El rendimiento de los volmenes RAID 5 es menor que el de las fracciones en operaciones de escritura. Esto se debe a que los volmenes RAID-5 requieren varias operaciones de E/S para calcular y almacenar la paridad. Las fracciones y los volmenes RAID-5 ofrecen un rendimiento comparable en las operaciones de E/S de lectura aleatoria de datos bsicos. Tanto las fracciones como los volmenes RAID-5 dividen los datos en varios discos; adems, los clculos de paridad de los volmenes RAID-5 no repercuten en las operaciones de lectura, excepto cuando falla un componente.
8-20
Aumentar la capacidad de almacenamiento. Aumentar la disponibilidad de los datos. Facilitar la administracin de dispositivos de almacenamiento de gran tamao.
Solaris Volume Manager tambin contribuye a mejorar el rendimiento de E/S en algunos casos.
Volumen lgico
Solaris Volume Manager utiliza discos virtuales, denominados volmenes lgicos, para administrar los discos fsicos y los datos que contienen. Tradicionalmente se ha considerado que el volumen lgico es idntico al slice fsico desde el punto de vista funcional. Sin embargo, el volumen lgico puede extenderse a travs de varios miembros de disco. Solaris Volume Manager convierte las solicitudes de E/S dirigidas a un volumen en solicitudes de E/S que se dirigen a los discos miembro subyacentes. Los volmenes de Solaris Volume Manager se pueden crear a partir de slices (particiones de disco) o de otros volmenes de Solaris Volume Manager. Una forma sencilla de crear volmenes consiste en utilizar la interfaz grfica de usuario de Solaris Management Console. La herramienta Enhanced Storage (almacenamiento avanzado) de Solaris Management Console presenta una lista de todos los volmenes existentes. Si se siguen los pasos del asistente de la herramienta se puede crear cualquier tipo de volmenes o componentes de Solaris Volume Manager. Tambin se pueden emplear las utilidades de la lnea de comandos de Solaris Volume Manager para crear y modificar volmenes.
8-21
Introduccin a los conceptos del software Solaris Volume Manager Solaris Volume Manager tambin sirve para crear ms capacidad de almacenamiento en un solo volumen. Esto se consigue haciendo que el sistema maneje una serie formada por muchos slices pequeos como si se tratase de un slice o dispositivo de gran tamao. Tras crear un volumen grande a partir de estos slices, puede empezar a utilizarse de inmediato de la misma manera que cualquier otro slice o dispositivo. Mediante el uso de volmenes RAID-1 y RAID-5, Solaris Volume Manager puede incrementar la fiabilidad y disponibilidad de los datos. Las reposiciones en caliente de Solaris Volume Manager proporcionan otro nivel de disponibilidad de datos para volmenes RAID-1 y RAID-5. Nota Solaris Volume Manager se conoca como Solstice DiskSuite en versiones anteriores de Solaris, en las que se denominaba metadispositivos a los volmenes lgicos Y gran parte de las herramientas de la lnea de -comandos empiezan con el prefijo meta. Los dispositivos lgicos se encuentran en el directorio /dev/md.
Particiones de software
A medida que los discos van aumentando de tamao y que las matrices de discos presentan dispositivos lgicos ms grandes en Solaris, es imprescindible subdividir los discos o volmenes lgicos en ms de ocho secciones. Por lo general el objetivo es crear sistemas de archivos o particiones manejables. Las particiones de software sirven para dividir los espacios de almacenamiento de gran tamao en secciones ms pequeas y manejables. Por ejemplo, la adicin de grandes cantidades de almacenamiento proporciona almacenamiento redundante de muchos gigabytes, pero en la mayora de los casos no se necesita tanto espacio. Las particiones de software permiten subdividir ese espacio de almacenamiento en varias secciones manejables, cada una de las cuales puede tener un sistema de archivos completo. Por ejemplo, puede crear 1000 particiones de software sobre un volumen RAID-1 o RAID-5 para que cada usuario disponga de un directorio de inicio en un sistema de archivos separado. El tamao de la particin de software se puede incrementar si un usuario necesita ms espacio posteriormente.
8-22
Introduccin a los conceptos del software Solaris Volume Manager Nota Solaris Volume Manager admite un mximo de 8192 volmenes lgicos por cada conjunto de discos, pero se configura para 128 (d0d127) de forma predeterminada. Consulte las instrucciones para incrementar el nmero de volmenes lgicos en Solaris Volume Manager Administration Guide (referencia 806-6111-10). Utilice particiones de software para dividir un slice o volumen en tantas partes como necesite. Asigne un nombre a cada divisin o particin de software, de la misma forma que hara con otros volmenes de almacenamiento, como fracciones o duplicaciones. Las aplicaciones, incluidos los sistemas de archivos, pueden acceder directamente a las particiones de software con nombre mientras no estn incluidas en otro volumen. Despus de particionar un disco y de crear un sistema de archivos en los slices resultantes, no es posible ampliar un slice sin modificar o destruir el formato de disco. Mientras hay espacio en el dispositivo subyacente, las particiones de software permiten ampliar porciones sin mover ni destruir los datos de otras particiones de software.
Es posible crear particiones de software en los slices. La forma ms eficaz de utilizar particiones de software en el disco consiste en crear un nico slice que ocupe todo el disco y luego crear particiones de software en ese slice. Para expandir y administrar el espacio de almacenamiento, cree fracciones en los slices del disco y luego genere particiones de software en las fracciones. Para utilizar el espacio disponible de un volumen, puede aumentar el tamao de las particiones de software. Para garantizar una flexibilidad mxima y ms disponibilidad, cree un volumen RAID-1 o RAID-5 y defina particiones de software en el volumen.
8-23
Base de datos de estado de Solaris Volume Manager Recomendaciones relacionadas con las rplicas de la base de datos de estado Sugerencias relacionadas con las rplicas de la base de datos de estado
8-24
Introduccin a los conceptos del software Solaris Volume Manager Cuando el sistema pierde una rplica de la base de datos de estado, Solaris Volume Manager debe determinar cules son las rplicas que todava contienen -datos no daados. Para esto, Solaris Volume Manager utiliza un algoritmo de consenso mayoritario. Este algoritmo exige que la mayora (la mitad + 1) de las rplicas de la base de datos de estado estn disponibles y concuerden entre s antes de que cualquiera de ellas se considere no daada. Para que este algoritmo funcione, deberan crearse al menos tres rplicas de la base de datos de estado cuando se configura el disco. El consenso es posible mientras estn disponibles dos de las tres rplicas, como mnimo. Durante el arranque, Solaris Volume Manager ignora las rplicas que estn daadas. En algunos casos, Solaris Volume Manager intenta reescribir las rplicas daadas; de lo contrario, las bases de datos se ignoran hasta que estn reparadas. Si una rplica de la base de datos de estado resulta daada debido a un error en el slice, necesita repararla o reemplazar el slice y volver a crear la rplica. La prdida de todas las rplicas de la base de datos de estado puede suponer la prdida de todos los datos almacenados en los volmenes de Solaris Volume Manager. Para evitar la prdida total de datos sera conveniente crear un nmero suficiente de rplicas en unidades separadas y controladores. Tambin habra que guardar la informacin de configuracin inicial y los datos de particin del disco. Cuando se trata de proteger los datos, Solaris Volume Manager no funciona a menos que la mitad de las rplicas de la base de datos de estado estn disponibles. Las principales funciones del algoritmo de consenso mayoritario son:
El sistema sigue en ejecucin cuando al menos la mitad de las rplicas est disponible. El sistema genera un error cuando hay menos de la mitad de las rplicas disponibles. El sistema no inicia el software Solaris Volume Manager a menos que la mayora (la mitad + 1) de las rplicas estn disponibles.
8-25
Debera crear rplicas de la base de datos de estado en un slice dedicado (al menos 4 Mbytes por rplica). Puede situar las rplicas en slices no usados y luego utilizarlas en volmenes RAID-0, RAID-1 o RAID-5. No puede crear rplicas de la base de datos de estado en los slices en uso. Se recomienda contar con un mnimo de tres rplicas de la base de datos de estado. Es aconsejable seguir las siguientes directrices:
Para un sistema con una sola unidad: site las tres rplicas en un slice. Para un sistema con entre dos y cuatro unidades: site dos rplicas en cada unidad. Para un sistema con cinco o ms unidades: site una rplica en cada unidad.
Asegrese de que dispone de al menos dos rplicas adicionales por duplicacin. En cualquier momento se pueden agregar rplicas adicionales al sistema. Las rplicas adicionales contribuyen a garantizar la disponibilidad de Solaris Volume Manager.
8-26
Introduccin a los conceptos del software Solaris Volume Manager Atencin Si actualiza Solstice DiskSuite a Solaris Volume Manager y existen rplicas de la base de datos de estado al principio de los slices (en lugar de en slices separados), no elimine las rplicas existentes y reemplcelas en la misma ubicacin por otras nuevas. En Solaris Volume Manager, cada rplica tiene un tamao predeterminado de 8192 bloques; sin embargo, el tamao predeterminado de cada rplica en Solstice DiskSuite era de 1034 bloques. Si elimina una rplica con tamao predeterminado de Solstice DiskSuite y agrega una rplica nueva de otro tamao predeterminado con Solaris Volume Manager, sobrescribir los primeros 7158 bloques de cualquier sistema de archivos que ocupe el resto del slice compartido, con lo que destruir los datos.
Reposiciones en caliente
La reposicin en caliente es un slice (no un volumen) funcional y disponible que no est en uso. Se reserva para reemplazar el slice de una subduplicacin o volumen RAID-5 cuando falla. La reposicin en caliente no puede contener datos ni rplicas de la base de datos de estado hasta que se asigna como miembro. La reposicin en caliente debe estar preparada para utilizarse de inmediato en caso de que falle un slice del volumen, con el que est asociada. Para utilizar las reposiciones en caliente hay que invertir en discos adicionales, adems de los que el sistema necesita para funcionar.
8-27
Mdulo 9
Describir los conceptos del software Solaris Volume Manager. Crear un volumen RAID-0 (concatenado). Crear un volumen RAID-1 (duplicacin) para el sistema de archivos raz (/).
9-1
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
RAID 0: matriz no redundante de discos (concatenacin y fraccionamiento) RAID 1: matriz de discos duplicados
9-2
Garantiza el funcionamiento del sistema cuando al menos la mitad de las rplicas de la base de datos estn disponibles. Provoca un fallo crtico en el sistema cuando hay menos de la mitad de las rplicas disponibles. Impide que el sistema inicie Solaris Volume Manager a menos que la mayora de las rplicas estn disponibles.
Si el nmero de rplicas disponible es insuficiente, es preciso iniciar el sistema en el modo monousuario y eliminar la cantidad necesaria de rplicas daadas para lograr un consenso mayoritario. Las rplicas de la base de datos de estado se almacenan en slices del propio disco.
9-3
-c n -l nnnn slice_disco
Nota El comando metadb sin opciones permite conocer el estado de todas las rplicas. He aqu un ejemplo de creacin de rplicas de la base de datos de estado: # metadb -a -f c0t0d0s4 c0t0d0s5 c1t0d0s0 c1t0d0s1 # metadb flags first blk block count a u 16 8192 a u 16 8192 a u 16 8192 a u 16 8192
En el ejemplo aparecen las cuatro rplicas que se acaban de crear. Cada una de ellas comienza en el bloque 16 del slice del disco asignado y tiene 8192 bloques (o 4 Mbytes). Los indicadores sealan que la rplica est activa y actualizada. La aparicin de letras maysculas en el campo de indicadores indica que la rplica est daada. Nota En el ejemplo anterior, las rplicas de la base de datos se sitan en controladores de discos diferentes. Esta configuracin es la adecuada para entornos de produccin.
9-4
Figura 9-1 2.
Utilice el panel Navigation (navegacin) para desplazarse por la estructura de Solaris Management Console hasta que encuentre la herramienta Enhanced Storage. Haga clic en This Computer (este PC). Seleccione Storage (almacenamiento).
3. 4.
9-5
Rplicas de la base de datos de estado 5. Haga clic en Enhanced Storage, como se muestra en la Figura 9-2, para mostrar el contenido de esta herramienta.
Figura 9-2
Nota Despus de iniciar Solaris Management Console y de abrir la primera herramienta, es preciso iniciar la sesin. 6. Haga clic en el icono State Database Replica (rplica de base de datos de estado).
9-6
Rplicas de la base de datos de estado Si la base de datos de estado ya contiene rplicas, aparecen en el panel de visualizacin. Este panel aparece vaco cuando no existen rplicas, como se muestra en la Figura 9-3.
Figura 9-3
9-7
Rplicas de la base de datos de estado 7. Para crear una rplica, seleccione Create Replicas (crear rplicas) en el men Action (accin), como se muestra en la Figura 9-4, y siga las instrucciones.
Figura 9-4
En las ventanas que aparecen se indica cmo crear la base de datos de estado.
9-8
Rplicas de la base de datos de estado 8. Cuando haya conjuntos de discos adicionales, seleccione conjuntos alternativos, como se muestra en la Figura 9-5. Como en esta configuracin no existen conjuntos de discos adicionales, elija el valor predeterminado, que es <none> (ninguno).
Figura 9-5
Ventana Create Replicas: Select Disk Set (crear rplicas: seleccionar conjunto de discos)
Nota El conjunto de discos est formado por una serie de unidades de disco compartidas que contienen objetos lgicos de Volume Manager de uso compartido entre uno o varios hosts, pero no al mismo tiempo. Los conjuntos de discos hacen posible la recuperacin en caso de fallo del host. 9. Haga clic en Next (siguiente) para continuar.
Nota Los conjuntos de discos se describen en el documento ES-222: Solaris Volume Manager Administration.
9-9
Rplicas de la base de datos de estado Elija al menos tres slices del disco para almacenar las rplicas de la base de datos de estado. En la Figura 9-6 se muestra que es posible elegir tantos slices como se necesiten en funcin del tamao del disco del sistema configurado. El mecanismo de particin de la utilidad format predetermina el tamao de estos slices del disco.
Figura 9-6
10. Seleccione un slice. 11. Haga clic en Add (agregar). 12. Contine agregando slices hasta que haya seleccionado todos los slices necesarios. Nota Para seleccionar varios slices a la vez puede mantener pulsada la tecla Ctrl. 13. Haga clic en Next (siguiente) para continuar.
9-10
Rplicas de la base de datos de estado Cada rplica tiene un tamao predeterminado de 8192 bloques o 4 Mbytes. Como se muestra en la Figura 9-7, esta ventana permite aumentar el tamao de las rplicas y el nmero de rplicas por slice.
Figura 9-7
Ventana Create Replicas: Set Length and Count (crear rplicas: definir longitud y cantidad)
14. A menos que las limitaciones del equipo exijan asignar varias rplicas a un dispositivo, acepte el nmero predeterminado de 1 rplica. 15. Haga clic en Next (siguiente) para continuar.
9-11
Rplicas de la base de datos de estado En la Figura 9-8 se muestran los valores elegidos para las rplicas de la base de datos de estado. En esta ventana tambin se muestran los comandos que utiliza Storage Volume Manager para generar la configuracin seleccionada.
Figura 9-8
16. Compruebe los valores que ha elegido para asegurarse de que satisfacen los criterios de las rplicas de la base de datos de estado. Nota Antes de hacer clic en Finish (finalizar), haga clic en Show Commands (mostrar comandos) para ver y posiblemente registrar los comandos utilizados para realizar las operaciones de la herramienta Enhanced Storage. 17. Haga clic en Finish para terminar la operacin.
9-12
Rplicas de la base de datos de estado Figura 9-9 se muestra que las rplicas recin configuradas aparecen en el panel de visualizacin de Solaris Management Console.
Figura 9-9
Ventana de Solaris Management Console: New State Database Replicas (nuevas rplicas de base de datos de estado)
Cuando se configuran al menos tres rplicas en discos separados, el sistema tolera el fallo de un disco y sigue mantenimiento el consenso mayoritario. Este algoritmo es necesario para que el sistema siga funcionando o para que se reinicie en el modo multiusuario cuando sea preciso. Nota La configuracin presentada en este ejemplo no responde a las mejores prcticas de Sun Microsystems. Las rplicas de la base de datos de estado deberan distribuirse en varios dispositivos y controladores de disco en la medida de los posible.
9-13
Configuracin de RAID-0
Configuracin de RAID-0
Los volmenes RAID-0 constituyen un mtodo eficaz para ampliar la capacidad de almacenamiento del disco, pero no proporcionan redundancia de datos. En un volumen RAID-0, el fallo de un slice provoca la prdida de datos. Los volmenes RAID-0 presenta dos formatos: fracciones y concatenaciones.
Volmenes concatenados (o concatenaciones) Los volmenes concatenados escriben datos en el primer slice disponible. Cuando el primer slice se llena, el volumen registra los datos en el siguiente slice disponible.
Volmenes fraccionados (o fracciones) Las fracciones distribuyen los datos de manera uniforme por todos los slices de la fraccin.
9-14
Interlace 1 Interlace 4
Interlace 2 Interlace 5
Interlace 3 Interlace 6
Figura 9-10 Fraccin RAID-0 Como permite acceder a los datos a varios controladores a la vez, el fraccionamiento garantiza el acceso paralelo a los datos. Esto mejora el rendimiento de las entradas y salidas (E/S), ya que son varios los discos del volumen los que satisfacen las solicitudes de E/S al mismo tiempo. No es posible transformar directamente un sistema de archivos existente en un volumen en stripe. Primero hay que hacer una copia de seguridad del sistema de archivos y crear el volumen en stripe para luego restaurar el sistema de archivos en este volumen.
9-15
Si las metabases de datos no estn configuradas, es preciso configurarlas antes de crear metadispositivos. # metadb -a -f -c 2 c3t2d0s7 c3t3d0s7 # metadb flags first blk a u 16 a u 8208 a u 16 a u 8208
El volumen concatenado debe estar asociado a un nombre de metadispositivo. Los metadispositivos se crean con el comando metainit, cuya sintaxis es la siguiente: metainit -f concat/fracc nmfracc ancho componente... donde: -f Obliga al comando metainit a continuar, incluso cuando uno de los slices contiene un sistema de archivos montado o se usa como espacio de intercambio. Esta opcin es til cuando se configuran duplicaciones o concatenaciones en sistemas de archivos raz (/), swap y /usr. Especifica el nombre del volumen de la concatenacin o fraccin que se est definiendo.
concat/fracc
9-16
Volmenes fraccionados RAID-0 nmfracc Especifica el nmero de fracciones separadas del metadispositivo. La variable nmfracc siempre tiene el valor 1 cuando se trata de una fraccin simple. En el caso de la concatenacin, nmfracc equivale al nmero total de slices. Especifica el nmero de slices que componen una fraccin. Los slices estn fraccionados cuando el valor de ancho es mayor que 1. Especifica el nombre lgico del slice fsico (particin) de una unidad de disco, como /dev/dsk/c0t0d0s1.
ancho
componente
Los metadispositivos se identifican por la presencia de la letra d seguida de un nmero. El nuevo metadispositivo se denominar d0. Como uno de los slices que se van a incluir en el volumen concatenado est montado, es preciso utilizar la opcin -f. Por tratarse de una concatenacin, el nmero de fracciones es el nmero de slices que se va a agregar (2 en este caso). El nmero de slices de cada fraccin es uno, por lo que antes de cada slice aparece 1: # metainit -f d0 2 1 c0t0d0s7 1 c3t2d0s0 d0: Concat/Stripe is setup The metastat command is used to check the configuration: # metastat d0: Concat/Stripe Size: 3118752 blocks (1.5 GB) Stripe 0: Device Start Block Dbase c0t0d0s7 0 No Stripe 1: Device Start Block Dbase c3t2d0s0 2160 No
Device Relocation Information: Device Reloc Device ID c0t0d0 Yes id1,dad@AST38420A=7AZ0VMFG c3t2d0 Yes id1,sd@SFUJITSU_MAB3045S_SUN4.2G00F50615____ Se muestra el metadispositivo d0 con las dos fracciones que conforman la concatenacin. El nuevo dispositivo se representa mediante archivos de dispositivo especial de bloques y caracteres: # ls -lL /dev/md/dsk total 0 brw-r----1 root
sys
85,
0 Oct 25 12:35 d0
9-17
sys
85,
0 Oct 25 12:35 d0
Se ha creado el nuevo metadispositivo (d0), pero todava no se utiliza. El sistema de archivos /export/home sigue montado como un slice de disco normal: # df -h /export/home Filesystem /dev/dsk/c0t0d0s7 size 470M used 395M avail capacity 28M 94% Mounted on /export/home
Es preciso volver a montarlo utilizando los nuevos archivos de metadispositivo. Identifique la entrada del archivo /etc/vfstab que permite montar el sistema de archivos durante el arranque: /dev/dsk/c0t0d0s7 /dev/rdsk/c0t0d0s7 /export/home ufs 2 yes Cambie los archivos de dispositivo por archivos de metadispositivo: /dev/md/dsk/d0/dev/md/rdsk/d0 /export/home ufs 2 yes -
Then un-mount and re-mount the file system using the new device files: # umount /export/home # mount /export/home # df -h /export/home Filesystem /dev/md/dsk/d0
size 470M
used 395M
Mounted on /export/home
El sistema de archivos se monta utilizando el archivo de metadispositvo. No parece que haya aumentado el sistema de archivos, y su capacidad sigue al 94 por ciento. El sistema de archivos existente necesita expandirse al nuevo espacio. Esta operacin se realiza con el comando growfs. Para espcificar un punto de montaje, utilice la opcin -M: # growfs -M /export/home /dev/md/rdsk/d0 /dev/md/rdsk/d0: 3118752 sectors in 3094 cylinders of 16 tracks, 63 sectors 1522.8MB in 194 cyl groups (16 c/g, 7.88MB/g, 3776 i/g) super-block backups (for fsck -F ufs -o b=#) at: 32, 16224, 32416, 48608, 64800, 80992, 97184, 113376, 129568, 145760, 2968096, 2984288, 3000480, 3016672, 3032864, 3049056, 3065248, 3081440, 3096608, 3112800, El sistema de archivos ocupa todo el espacio del metadispositivo d0: # df -h /export/home Filesystem /dev/md/dsk/d0
9-18
size 1.4G
used 395M
Mounted on /export/home
Figura 9-11 Seleccin de Create Volume Cada vez que se crea un volumen nuevo, se pueden crear rplicas adicionales de la base de datos de estado. Por lo general, no es preciso crear rplicas adicionales cuando se crean volmenes RAID-0.
9-19
Volmenes fraccionados RAID-0 3. Seleccione Dont Create State Database Replicas (no crear rplicas de la base de datos de estado) en la ventana Create Volume (crear volumen), como se muestra en la Figura 9-12.
Figura 9-12 Ventana Create Volume 4. Haga clic en Next (siguiente) para continuar.
9-20
Volmenes fraccionados RAID-0 Como se muestra en la Figura 9-13, cada volumen nuevo que se crea puede reubicarse en conjuntos de discos alternativos.
Figura 9-13 Ventana Create Volume: Select Disk Set (crear volumen: seleccionar conjunto de discos)
9-21
Volmenes fraccionados RAID-0 5. Seleccione el valor predeterminado <none> (ninguno) y haga clic en Next para continuar. Figura 9-14 se muestra una seleccin de las configuraciones de volumen que puede crear.
Figura 9-14 Ventana Create Volume: Select Volume Type (crear volumen: seleccionar tipo de volumen)
9-22
Volmenes fraccionados RAID-0 6. Seleccione Concatenation (RAID 0) y haga clic en Next para continuar. Puede asignar nombre al volumen, como se muestra en la Figura 9-15. En este ejemplo se est utiliza d0:
Figura 9-15 Ventana Create Volume: Name Volume (crear volumen: nombre de volumen)
9-23
Volmenes fraccionados RAID-0 7. Asigne nombre al volumen d0 y haga clic en Next para continuar. Seleccione el slice que se est utilizando y otro que no est en uso, como se muestra en la Figura 9-16.
Figura 9-16 Ventana Create Volume: Select Components (crear volumen: seleccionar componentes) 8. 9. Seleccione el slice existente y haga clic en Add (agregar) para trasladarlo a la lista Selected (seleccionado). Seleccione un slice no usado y haga clic en Add para trasladarlo a la lista Selected.
9-24
Volmenes fraccionados RAID-0 10. Haga clic en Next (siguiente) para continuar. Puede seleccionar el orden de presentacin de los slices dentro del volumen, como se muestra en la Figura 9-17.
Figura 9-17 Ventana Create Volume: Select Components (crear volumen: seleccionar componentes) 11. Haga clic en Next (siguiente) para continuar. Usuario avanzado Un grupo de reposiciones en caliente es un conjunto de slices que permite mejorar la tolerancia a los fallos del sistema. Como las reposiciones en caliente se introducen automticamente desde la memoria para sustituir al slice que ha fallado, garantizan el acceso continuado a los datos del volumen fallido hasta que resulta posible reemplazar el slice causante del problema. Cuando se reemplaza el slice que ha fallado, se sustituye la reposicin en caliente, como se muestra en la Figura 9-18 en la pgina 9-26.
9-25
Volmenes fraccionados RAID-0 El volumen RAID-0 no ofrece redundancia de datos. Tampoco se han creado grupos de reposiciones en caliente. En la Figura 9-18 se muestra la ventana Use Hot Spare Pool (uso de grupo de reposiciones en caliente).
Figura 9-18 Ventana Create Volume: Use Hot Spare Pool (crear volumen: uso de grupo de reposiciones en caliente)
9-26
Volmenes fraccionados RAID-0 12. Seleccione No Hot Spare Pool (ningn grupo de reposiciones en caliente) y haga clic en Next para continuar. En la ventana Create Volume se pueden confirmar los valores elegidos. En esta ventana tambin se muestra un resumen de los comandos necesarios para realizar la misma tarea desde la lnea de comandos, como se muestra en la Figura 9-19.
9-27
Volmenes fraccionados RAID-0 13. Haga clic en Finish (finalizar). Figura 9-20 se muestra el metadispositivo correspondiente al volumen RAID-0 recin creado.
Figura 9-20 Ventana de Solaris Management Console: Volumes (volmenes) Con este procedimiento se ha creado el metadispositivo d0 concatenado. Para que el espacio adicional est disponible, es preciso cambiar el archivo /etc/vfstab y volver a montar y expandir el sistema de archivos. En primer lugar, cambie los archivos de dispositivo estndar por los archivos de metadispositivo: /dev/dsk/c0t0d0s7 /dev/rdsk/c0t0d0s7 /export/home ufs 2 yes /dev/md/dsk/d0 /dev/md/rdsk/d0 /export/home ufs 2 yes -
# mount /export/home # growfs -M /export/home /dev/md/rdsk/d0 /dev/md/rdsk/d0: 3118752 sectors in 3094 cylinders of 16 tracks, 63 sectors 1522.8MB in 194 cyl groups (16 c/g, 7.88MB/g, 3776 i/g) super-block backups (for fsck -F ufs -o b=#) at: 32, 16224, 32416, 48608, 64800, 80992, 97184, 113376, 129568, 145760, 2968096, 2984288, 3000480, 3016672, 3032864, 3049056, 3065248, 3081440, 3096608, 3112800, # df -h /export/home Filesystem size used avail capacity Mounted on /dev/md/dsk/d0 1.4G 395M 988M 29% /export/home
9-28
Configuracin de RAID-1
Configuracin de RAID-1
Los volmenes RAID-1 tambin se conocen como duplicaciones y proporcionan redundancia de datos. En las duplicaciones de dos vas, los datos se escriben en dos slices de disco del mismo tamao. Si falla un disco, el otro contiene una copia actualizada de los datos. Cada volumen RAID-1 contiene copias idnticas de los datos de varios volmenes RAID-0. En la duplicacin se necesitan ms discos. El espacio en el disco que se requiere es, como mnimo, el doble de la cantidad de datos que se van a duplicar. La duplicacin configurada se puede utilizar como si fuese un slice fsico. Con varias copias de los datos y directivas de lectura y escritura correctamente configuradas se reduce el tiempo de acceso a los datos. Es posible duplicar cualquier sistema de archivos, incluidos los sistemas de archivos existentes.
9-29
Configuracin de RAID-1
Opciones de duplicacin
El rendimiento de la duplicacin se puede modificar mediante el uso de las opciones siguientes:
Nota Las opciones de duplicacin aqu incluidas son representativas de las que aparecen cuando se configuran duplicaciones RAID-1 con Solaris Volume Manager. Las opciones de duplicacin se pueden definir cuando se crea inicialmente la duplicacin o despus de configurarla. Para mejorar el rendimiento de las operaciones de lectura, se puede distribuir la carga entre las subduplicaciones. En la Tabla 9-1 se describen las directivas de lectura que se pueden configurar. Tabla 9-1 Directivas de lectura de duplicaciones Directiva de lectura Round Robin (predeterminado) Geometric Descripcin Distribuye la carga de forma equilibrada entre las subduplicaciones. Permite al sistema dividir las operaciones de lectura entre subduplicaciones basndose en una direccin de bloque del disco lgico. Dirige todas las operaciones de lectura a la primera subduplicacin.
First
9-30
Configuracin de RAID-1 Mediante la rplica simultnea de todas las subduplicaciones se puede mejorar el rendimiento de las operaciones de escritura. Cuando se produce un error durante esta operacin de escritura, la subduplicacin que ha fallo se pone en estado de mantenimiento (estado de error). En la Tabla 9-2 se describen las directivas de escritura que se pueden configurar. Tabla 9-2 Directivas de escritura de duplicaciones Directiva de escritura Parallel (predeterminado) Serial Descripcin Repite una operacin de escritura en una duplicacin y remite la operacin a todas las subduplicaciones a la vez. Especifica que es preciso completar las operaciones de escritura en una subduplicacin antes de iniciar otras operaciones de escritura en la siguiente subduplicacin.
Cuando una subduplicacin est fuera de lnea, las operaciones de escritura efectuadas en la duplicacin se registran en un registro de zonas deterioradas. Una vez que la subduplicacin vuelve a estar en lnea, es preciso actualizar o resincronizar esas zonas.
9-31
5. 6. 7.
9-32
Escenario
En este caso, el sistema de archivos raz (/) se encuentra en el slice c0t0d0s0. 1. 2. 3. Se crea un volumen RAID-0 denominado d11 a partir del slice c0t0d0s0. Se crea un segundo volumen RAID-0 como metadispositivo d12 en c3t3d0s1 a partir de un slice del disco de reserva. Se crea un volumen RAID-1 denominado d10 con los volmenes RAID-0 llamados d11 y d12, como se muestra en la Figura 9-21.
RAID 1 Volume
@
@
RAID 0 Volume
@
RAID 0 Volume
9-33
Creacin de una duplicacin del sistema de archivos raz (/) Atencin Para evitar la prdida de datos cuando se convierte un sistema de archivos existente en volumen RAID-0, los argumentos nmfracc y ancho deben presentar el valor 1. La lnea de comandos obliga a crear el volumen d11. A su vez, el volumen d11 crea una concatenacin formada por una sola fraccin (del tamao de un slice) que se almacena en el slice /dev/dsk/c0t0d0s0 del disco. Nota En este ejemplo, el sistema de archivos raz (/) se almacena en el slice /dev/dsk/c0t0d0s0. Dada la ubicacin en la que se almacena el sistema de archivos raz (/), es preciso utilizar la opcin -f para que se genere un volumen en la particin montada. Si quiere crear un volumen RAID-0 adicional para la subuplicacin secundaria del sistema de archivos raz, utilice la herramienta Enhanced Storage (almacenamiento avanzado) de Solaris Management Console. Para crear volmenes adicionales desde la lnea de comandos, ejecute de nuevo el comando metainit: # metainit d12 1 1 c3t3d0s1 d12: Concat/Stripe is setup Para crear el mismo metadispositivo mediante la GUI, lleve a cabo los pasos siguientes: 1. Haga clic en el icono Volumes (volmenes).
9-34
Creacin de una duplicacin del sistema de archivos raz (/) En el panel de visualizacin aparecen los volmenes de metadispositivo configurados, como se muestra en la Figura 9-22. Este panel queda vaco si no hay ningn volumen de metadispositivo configurado.
9-35
Creacin de una duplicacin del sistema de archivos raz (/) 2. Seleccione Create Volume (crear volumen) en el men Action (accin), como se muestra en la Figura 9-23.
Figura 9-23 Solaris Management Console: men Action 3. Realice las acciones oportunas en la ventana del asistente de creacin de volmenes. Cada vez que se crea un volumen nuevo, se pueden crear rplicas adicionales de la base de datos de estado. Por lo general, no es preciso crear rplicas adicionales cuando se crean volmenes RAID-0.
9-36
Creacin de una duplicacin del sistema de archivos raz (/) 4. Seleccione Dont Create State Database Replicas (no crear rplicas de la base de datos de estado) en la ventana Create Volume (crear volumen), como se muestra en la Figura 9-24.
9-37
Creacin de una duplicacin del sistema de archivos raz (/) 5. Haga clic en Next (siguiente) para continuar. Como se muestra en la Figura 9-25, cada volumen nuevo que se crea puede reubicarse en conjuntos de discos alternativos.
Figura 9-25 Ventana Create Volume: Select Disk Set (crear volumen: seleccionar conjunto de discos) 6. Si en el sistema slo existe un conjunto de discos, seleccione el valor predeterminado <none>.
9-38
Creacin de una duplicacin del sistema de archivos raz (/) 7. Haga clic en Next (siguiente) para continuar. En la Figura 9-26 se muestra una seleccin de las configuraciones de volumen que puede crear.
Figura 9-26 Ventana Create Volume: Select Volume Type (crear volumen: seleccionar tipo de volumen) 8. Seleccione Concatenation (RAID 0).
9-39
Creacin de una duplicacin del sistema de archivos raz (/) 9. Haga clic en Next (siguiente) para continuar. Puede asignar nombre al volumen, como se muestra en la Figura 9-27. En este procedimiento, cree una duplicacin que se denomine d10 y que contenga las subduplicaciones d11 (primera subduplicacin) y d12 (segunda subduplicacin). Ya ha creado el volumen d11 a partir del slice que contiene el sistema de archivos raz (/); por consiguiente, ste es el volumen d12, que contiene una duplicacin del sistema de archivos raz (/).
Figura 9-27 Ventana Create Volume: Name Volume (crear volumen: nombre de volumen) 10. Asigne nombre al volumen d12.
9-40
Creacin de una duplicacin del sistema de archivos raz (/) 11. Haga clic en Next (siguiente) para continuar. Tambin puede seleccionar el slice que va a ocupar el nuevo volumen, como se muestra en la Figura 9-28. Este volumen es la subduplicacin secundaria de una duplicacin y, por lo tanto, este slice debe tener un tamao mayor o igual que la subduplicacin principal de la duplicacin.
Figura 9-28 Ventana Create Volume: Select Components (crear volumen: seleccionar componentes) 12. Seleccione un slice de tamao mayor o igual que el volumen RAID-0 de la subduplicacin principal. 13. Haga clic en Add (agregar) para trasladarlo a la lista Selected (seleccionado).
9-41
Creacin de una duplicacin del sistema de archivos raz (/) 14. Haga clic en Next (siguiente) para continuar. Si est duplicando un sistema de archivos que puede abarcar mltiples slices, puede seleccionar el orden de presentacin de los slices dentro del volumen, como se muestra en la Figura 9-29.
Figura 9-29 Ventana Create Volume: Select Components (crear volumen: seleccionar componentes) Nota Cuando se duplica el sistema de archivos raz (/), no se puede extender a varios slices. 15. Haga clic en Next (siguiente) para continuar. Un grupo de reposiciones en caliente es un conjunto de slices que permite mejorar la tolerancia a los fallos del sistema. Como las reposiciones en caliente se introducen automticamente desde la memoria para sustituir al slice que ha fallado, garantizan el acceso continuado a los datos del volumen fallido hasta que resulta posible reemplazar el slice causante del problema. Cuando se reemplaza el slice que ha fallado, se sustituye la reposicin en caliente.
9-42
Creacin de una duplicacin del sistema de archivos raz (/) 16. Como no se han creado grupos de reposiciones en caliente, seleccione No Hot Spare Pool, igual que se muestra en la Figura 9-30.
Figura 9-30 Ventana Create Volume: Use Hot Spare Pool (crear volumen: uso de grupo de reposiciones en caliente)
9-43
Creacin de una duplicacin del sistema de archivos raz (/) 17. Haga clic en Next (siguiente) para continuar. En la ventana Create Volume: Review se pueden confirmar los valores elegidos. En esta ventana tambin aparece un resumen de los comandos necesarios para realizar la misma tarea desde la lnea de comandos, como se muestra en la Figura 9-31.
9-44
Creacin de una duplicacin del sistema de archivos raz (/) 18. Haga clic en Finish (finalizar). En la Figura 9-32 se muestra el metadispositivo correspondiente al volumen RAID-0 recin creado.
Figura 9-32 Ventana de Solaris Management Console: Volumes (volmenes) En este procedimiento se crean dos volmenes RAID-0: d11 y d12. El volumen d11 contiene el slice en el que se encuentra almacenado el sistema de archivos raz (/), mientras que el volumen d12 contiene espacio para una copia del sistema de archivos raz (/).
El comando metainit La herramienta Enhanced Storage (almacenamiento avanzado) de Solaris Management Console
Comando metainit
La sintaxis del comando metainit que permite crear volmenes RAID-1 es: metainit duplicacin -m subduplicacin [opciones_lectura] [opciones_escritura] [nm_orden]
9-45
Creacin de una duplicacin del sistema de archivos raz (/) donde: duplicacin -m subduplicacin Especifica el nombre de volumen de la duplicacin. El argumento -m indica que se trata de una duplicacin. La subduplicacin es un volumen (fraccin o concatenacin) que forma parte de la duplicacin de una va inicial. Las opciones de lectura de las duplicaciones que estn disponibles son: -g: habilita la opcin de lectura geomtrica, que acelera el rendimiento durante las lecturas en serie. -r: centra todas las operaciones de lectura en la primera subduplicacin. La opcin -r slo se utiliza cuando los dispositivos que componen la primera subduplicacin son bastante ms rpidos que los de la segunda duplicacin. La opcin -r no se puede utilizar con la opcin -g. opciones_ escritura Las opciones de escritura disponibles son: S: realiza operaciones de escritura en serie en las duplicaciones. El valor predeterminado de esta opcin es la escritura paralela. nm_orden Es el nmero (09) que aparece al final de la entrada que define una duplicacin, y que determina el orden en que se resincronizacin la duplicacin durante un reinicio. El valor predeterminado es 1. Primero se resincronizan las duplicaciones con el nmero ms bajo. Las duplicaciones que presentan el mismo nmero se ejecutan a la vez. Cuando el valor es 0, se omite la resincronizacin. El valor 0 slo se utiliza con duplicaciones montadas con atributos de slo lectura o como espacio de intercambio.
opciones_ lectura
Nota Si no especifica la opcin -g ni la opcin -r, las operaciones de lectura se realizan por turnos en todas las subduplicaciones de la duplicacin. Este proceso permite distribuir la carga de forma equilibrada entre las subduplicaciones.
9-46
Creacin de una duplicacin del sistema de archivos raz (/) En el siguiente ejemplo de la lnea de comandos se crea un volumen en mirror denominado d10, y se utiliza el volumen d11 para asociar una duplicacin de una va. El volumen d11 es una subduplicacin de la duplicacin denominada d10. # /usr/sbin/metainit d10 -m d11 d10: Mirror is setup
9-47
Creacin de una duplicacin del sistema de archivos raz (/) 2. Seleccione Create Volume (crear volumen) en el men Action (accin), como se muestra en la Figura 9-34.
Figura 9-34 Ventana de Solaris Management Console: men Action Como las rplicas de la base de datos de estado incluyen registros de zonas deterioradas que permiten saber qu bloques de datos de las subduplicaciones se han modificado, es posible agregar rplicas adicionales cuando se crean volmenes RAID-1. Aunque no es imprescindible que cree rplicas adicionales, los resultados de la duplicacin pueden sufrir las consecuencias.
9-48
Creacin de una duplicacin del sistema de archivos raz (/) 3. Dadas las limitaciones que presentan los equipos utilizados en clase, seleccione Dont Create State Database Replicas (no crear rplicas de la base de datos de estado), como se muestra en la Figura 9-35.
Figura 9-35 Ventana Create Volume: Create State Database Replicas (crear volumen: crear rplicas de la base de datos de estado) 4. Haga clic en Next (siguiente) para continuar. Puede reubicar la duplicacin en conjuntos de discos alternativos.
9-49
Creacin de una duplicacin del sistema de archivos raz (/) 5. Si en el sistema slo existe un conjunto de discos, seleccione el valor predeterminado <none>, como se muestra en la Figura 9-36.
Figura 9-36 Ventana Create Volume: Select Disk Set (crear volumen: seleccionar conjunto de discos) 6. Haga clic en Next (siguiente) para continuar.
Nota Cuando se duplica el sistema de archivos raz, es preciso utilizar el conjunto de discos local.
9-50
Creacin de una duplicacin del sistema de archivos raz (/) En la ventana Create Volume: Select Volume Type se muestran las configuraciones de volumen que puede crear, como en la Figura 9-37.
Figura 9-37 Ventana Create Volume: Select Volume Type (crear volumen: seleccionar tipo de volumen) 7. Elija Mirror (RAID 1).
9-51
Creacin de una duplicacin del sistema de archivos raz (/) 8. Haga clic en Next (siguiente) para continuar. En la ventana Create Volume: Name Volume puede introducir un nombre de volumen, como se muestra en la Figura 9-38. Elija un modelo que sea fcil de recordar y que permita identificar los tipos de volmenes sin dificultad. Por ejemplo, los nombres de los volmenes RAID-1 podran acabar en cero, como d10. Despus puede numerar las subduplicaciones o los volmenes RAID-0, como d11 en el caso de la primera subduplicacin y d12 en el caso de la segunda subduplicacin.
Figura 9-38 Ventana Create Volume: Name Volume (crear volumen: nombre de volumen) 9. Introduzca 10 en el campo Volume Name d (nombre de volumen d).
9-52
Creacin de una duplicacin del sistema de archivos raz (/) 11. Seleccione el metadispositivo d11 para utilizarlo como subduplicacin principal, igual que en la Figura 9-39.
Figura 9-39 Ventana Create Volume: Select Primary Submirror (crear volumen: seleccionar subduplicacin principal) 12. Haga clic en Next (siguiente) para continuar.
9-53
Creacin de una duplicacin del sistema de archivos raz (/) 13. Sltese la Ventana Create Volume: Select Remaining Submirrors (crear volumen: seleccionar subduplicaciones restantes) que aparece en la Figura 9-40. Como est duplicando la particin raz, debe asociar la subduplicacin secundaria a travs de la lnea de comandos.
Cuando se duplica la particin raz (/), es preciso realizar unos cuantos pasos adicionales antes de asociar la subduplicacin secundaria. Cuando se crea una duplicacin que no contiene datos, se puede seleccionar la subduplicacin secundaria, como se muestra en la Figura 9-40.
Figura 9-40 Ventana Create Volume: Select Remaining Submirrors (crear volumen: seleccionar subduplicaciones restantes)
9-54
Creacin de una duplicacin del sistema de archivos raz (/) 14. Haga clic en Next (siguiente) para continuar. La ventana Create Volume: Set Mirror Parameters permite definir los parmetros de duplicacin, como se muestra en la Figura 9-41. Estos parmetros se describen en el ejemplo del comando metainit que se ha utilizado para configurar un volumen RAID-1.
Figura 9-41 Ventana Create Volume: Set Mirror Parameters (crear volumen: definir parmetros de duplicacin)
9-55
Creacin de una duplicacin del sistema de archivos raz (/) 15. Haga clic en Next (siguiente) para aceptar los valores predeterminados y continuar. Utilice la ventana Create Volume: Review para revisar las opciones seleccionadas, como se muestra en la Figura 9-42. Adems de utilizarse para confirmar los valores elegidos, en esta ventana se muestra un resumen de los comandos necesarios para realizar la misma tarea desde la lnea de comandos.
9-56
Creacin de una duplicacin del sistema de archivos raz (/) 16. Haga clic en Finish (finalizar). Se crea el volumen RAID-1 denominado d10 y el panel de visualizacin se actualiza, como se muestra en la Figura 9-43. La subduplicacin principal (d11) est asociada a la duplicacin (d10), pero el proceso de creacin de la particin duplicada no se ha completado.
Figura 9-43 Solaris Management Console: Volumes (volmenes) 17. Vaya a la lnea de comandos y ejecute el comando metaroot para terminar de crear la duplicacin del sistema de archivos raz (/), como se describe en Ejecucin del comando metaroot en la pgina 9-58.
9-57
ufs
no
Adems de modificar el archivo /etc/vfstab para actualizar el indicador del sistema de archivos raz (/), el comando metaroot actualiza el archivo /etc/system de manera que admita volmenes lgicos. Por ejemplo: # tail /etc/system rootdev:/pseudo/md@0:0,10,blk Es necesario reiniciar el sistema para que se asocie la subduplicacin secundaria. Durante el arranque, el sistema utiliza el archivo de metadipositivo para montar el sistema de archivos raz. Escriba el comando init para reiniciar el sistema: # init 6 Cuando el sistema arranca, el sistema de archivos raz aparece montado en el metadispositivo d10: # df -h / Filesystem /dev/md/dsk/d10 size 141M used 111M avail capacity 15M 88% Mounted on /
9-58
Creacin de una duplicacin del sistema de archivos raz (/) El comando metastat muestra el estado de los metadispositivos. Observe que slo aparece una subduplicacin en el metadispositivo d10: # metastat d10: Mirror Submirror 0: d11 State: Okay Pass: 1 Read option: roundrobin (default) Write option: parallel (default) Size: 307440 blocks (150 MB) d11: Submirror of d10 State: Okay Size: 307440 blocks (150 MB) Stripe 0: Device Start Block Dbase c0t0d0s0 0 No (output omitted)
Utilice el comando metattach para asociar la subduplicacin secundaria: # metattach d10 d12 d10: submirror d12 is attached Atencin Cree una duplicacin de una va con el comando metainit y luego utilice el comando metattach para asociar las subduplicaciones adicionales. Si no utiliza el comando metattach, no se producir la resincronizacin. Esto podra dar lugar a que los datos se daen debido a que Solaris Volume Manager presupone que ambos lados de la duplicacin son idnticos y pueden intercambiarse. El comando metastat muestra la sincronizacin de duplicacin que tiene lugar. # metastat d10 d10: Mirror Submirror 0: d11 State: Okay Submirror 1: d12 State: Resyncing Resync in progress: 83 % done Pass: 1 Read option: roundrobin (default) Write option: parallel (default) Size: 307440 blocks (150 MB)
9-59
d11: Submirror of d10 State: Okay Size: 307440 blocks (150 MB) Stripe 0: Device Start Block Dbase c0t0d0s0 0 No d12: Submirror of d10 State: Resyncing Size: 2097360 blocks (1.0 GB) Stripe 0: Device Start Block Dbase c3t3d0s1 0 No
Nota Todas las consideraciones normalmente relacionadas con el qurum mddb se aplican a los sistemas x86, de la misma manera que a los sistemas SPARC.
9-60
Creacin de una duplicacin del sistema de archivos raz (/) Por ejemplo, en una estacin de trabajo Ultra 5, el controlador PCI-SCSI devuelve: /pci@1f,0/pci@1/scsi@4,1/sd@2,0:b desde el directorio /devices; sin embargo, el comando show-disks de OpenBoot PROM devuelve: /pci@1f,0/pci@1/scsi@4,1/disk luego la ruta de arranque alternativa debe ser: /pci@1f,0/pci@1/scsi@4,1/disk@2,0:b Si no se produce la adaptacin al cambio cuando se intenta arrancar el sistema desde el dispositivo de arranque alternativo, se genera el siguiente error: cant open boot device Para lograr que el sistema utilice automticamente el dispositivo de arranque alternativo en caso de fallo de la subduplicacin principal del sistema de archivos raz, lleve a cabo los pasos siguientes: 1. Utilice el comando nvalias de OpenBoot para definir un alias de dispositivo backup_root para la duplicacin secundaria del sistema de archivos raz. Por ejemplo: Vuelva a definir la variable boot-device para que haga referencia a las subduplicaciones principal y sencundaria, en el orden en que desee acceder a ellas. Por ejemplo:
ok printenv boot-device boot-device= disk net ok setenv boot-device disk backup_root net boot-device= disk backup_root net Si el disco raz principal falla, el sistema se inicia automticamente desde la subduplicacin secundaria. Para comprobar esta subduplicacin, arranque el sistema de forma manual como sigue: ok boot backup_root
9-61
BIOS
La BIOS de los sistemas x86 es similar al intrprete de PROM de los sistemas SPARC. La BIOS se encarga de encontrar el dispositivo adecuado desde el que iniciar el sistema, y de cargar y ejecutar el registro de arranque maestro de ese dispositivo. La BIOS se puede configurar parcialmente. En general, se puede seleccionar el orden de los dispositivos con los que quiere que pruebe la BIOS (por ejemplo, disquete, disco IDE, disco SCSI, red), pero pueden encontrarse limitaciones de configuracin a un nivel ms granular. La BIOS controla el sistema antes de que se inicie el ncleo. Normalmente es posible configurar la BIOS para seleccionar el orden de los dispositivos en funcin del registro de arranque. Adems, las implementaciones de la BIOS ms modernas permiten configurar los dispositivos para que se utilice automticamente la subduplicacin secundaria en caso de fallo. Si la BIOS del sistema no cuenta con esta funcin y la subduplicacin principal falla, hay que acceder a la BIOS durante el arranque del sistema para configurarlo de manera que arranque desde el slice raz secundario.
9-62
Particionamiento fdisk
Los sistemas x86 de Sun utilizan particiones fdisk en los discos del sistema. En los sistemas x86 con sistema operativo Solaris instalado, los esquemas de particionamiento fdisk ms comunes son dos, uno de los cuales utiliza dos particiones fdisk. Segn este esquema, existe una particin fdisk de Solaris y otra ms pequea, de aproximadamente 10 Mbytes, denominada particin de arranque x86. Esta particin tiene un valor de ID de 190. El software de instalacin de Solaris crea una configuracin con estas dos particiones fdisk de forma predeterminada. La particin de arranque x86 se necesita en algunos casos, como cuando se quieren realizar actualizaciones durante la ejecucin en la configuracin de un solo disco, pero plantea problemas cuando se duplica el sistema de archivos raz. El software de instalacin de Solaris slo admite una particin de arranque x86 para todo el sistema, y sita los datos importantes en esa particin fdisk. Para determinar si el sistema dispone de una particin de arranque x86 separada, compruebe el archivo /etc/vfstab. La particin de arranque x86 existe si el archivo contiene una entrada similar a la siguiente: /dev/dsk/c0t0d0p0:boot - /boot pcfs - no Como esta particin fdisk no pertenece a la particin fdisk de Solaris, SVM no puede crear un duplicado de la misma. Adems, representa un punto de fallo nico porque slo existe una copia de la particin fdisk. Para utilizar SVM con el fin de duplicar el sistema de archivos raz, el sistema de archivos debe utilizar la particin fdisk de Solaris. Si la particin de arranque x86 ya existe, elimnela con el comando fdisk y vuelva a instalar Solaris. La particin de arranque no se vuelve a crear al reinstalar el software de Solaris.
9-63
Descripcin Primer disquete, segundo disquete Dispositivo de red Primera y segunda particin fdisk del primer disco de la BIOS Primera y segunda particin fdisk del segundo disco de la BIOS Slices 0 y 1 de Solaris/BSD en la primera particin fdisk del primer disco de la BIOS
(hd0,0,b)
9-64
Creacin de una duplicacin del sistema de archivos raz (/) En los componentes funcionales de GRUB se incluyen los programas stage1 y stage2, as como el archivo menu.lst. El programa stage1 se instala en el primer sector de la particin fdisk de Solaris de forma predeterminada. El programa stage2 se instala a partir del sector 50 del primer cilindro de la particin fdisk de Solaris, y abarca 233 sectores.
Disk Cylinders
0 1
Sector 0 = mboot + fdisk Partition table Sector 0 = stage1 Sector 1 + 2 = disk label + VTOC
Figura 9-44 Ubicacin de los programas de arranque en sistemas x86/x64 Los programas stage1 y stage2 ocupan el cilindro 0 (normalmente el cilindro de disco 1) de la particin fdisk de Solaris y permanecen protegidos por el espacio asignado al slice 8 dentro de esa misma particin. Para lograr que un disco sea inicializable, tiene que utilizar el comando installgrub para instalar los programas stage1 y stage2 en estas ubicaciones. Por ejemplo: # /sbin/installgrub /boot/grub/stage1 /boot/grub/stage2 /dev/rdsk/c2d0p0
9-65
Creacin de una duplicacin del sistema de archivos raz (/) La etiqueta del disco situada en el sector 0 del cilindro del disco 0 contiene el programa mboot de forma predeterminada. La utilidad fdisk instala automticamente el programamboot en esta ubicacin cuando se define una tabla de particiones fdisk. El programa mboot localiza la particin fdisk activa al principio del proceso de arranque. Para hacer que un disco sea inicializable, es posible que tenga que instalar el programa mboot de forma manual. Para esto, utilice el comando fdisk como en el ejemplo y especifique el dispositivo de disco adecuado: # fdisk -b /usr/lib/fs/ufs/mboot -n /dev/rdsk/c2d0p0 menu.lst se encuentra en el directorio /boot/grub y lo lee el programa stage2 de GRUB. En la Figura 9-44 se muestra la estructura que tienen los programas mboot, stage1 y stage2 en el disco de un sistema x86/x64. La siguiente descripcin puede ser de utilidad para entender cmo participan estos objetos del disco en el proceso de arranque de un sistema x86/x64. 1. La BIOS carga MBR. El programa que se carga normalmente es mboot, pero tambin se puede cargar el programa stage1 de GRUB. El programa mboot identifica la particin activa y luego carga y ejecuta el primer sector del programa stage1 de GRUB. El programa stage1 de GRUB tiene la ubicacin fsica no modificable del programa stage2 de GRUB, a una distancia de 0x44 del inicio del sector de arranque de la particin. El programa installgrub sita ah esta direccin y el programa stage1. 2. Una vez que se dispone de la direccin de bloque en la que empieza el programa stage2 de GRUB en el disco, el programa stage1 carga y ejecuta stage2. El programa stage2 contiene cdigo que le permite desplazarse por la estructura UFS del sistema de archivos raz. El programa stage2 localiza el archivo de configuracin de GRUB /boot/grub/menu.lst. A partir de este punto, se presenta un men al usuario basado en el contenido de /boot/grub/menu.lst. Para Solaris, el archivo /boot/grub/menu.lst suele contener una lnea kernel y otra module. La lnea module est vinculada al archivo de arranque. El archivo de arranque es un sistema de archivos raz bsico que contiene el ncleo, los mdulos del ncleo y una serie de archivos de configuracin necesarios para arrancar el ncleo, como /etc/system.
3. 4.
9-66
Creacin de una duplicacin del sistema de archivos raz (/) 5. 6. 7. El archivo de arranque se carga por completo en la memoria como un disco RAM. El ncleo se carga desde el archivo de arranque. A continuacin, el ncleo se ejecuta, determina qu es realmente el sistema de archivos root mediante la propiedad bootpath del archivo /boot/solaris/bootenv.rc incluido en el registro de arranque, monta el dispositivo especificado como dispositivo raz y contina con el proceso de arranque. La memoria utilizada por GRUB y el disco RAM se libera posteriormente.
8.
La ejecucin del programa installgrub permite preparar todos los componentes para que el proceso de arranque (Figura 9-44 en la pgina 9-65) se realice correctamente. El comando installgrub realiza las siguientes operaciones: 1. Copia el programa stage1 de GRUB en el sector de arranque de la particin (primer sector de la particin fdisk de Solaris). El programa installgrub modifica esta copia del programa stage1 para vincularla con la ubicacin fsica del programa stage2 en el disco. Copia el programa stage2 de GRUB que comienza a una distancia de 50 sectores del principio de la particin fdisk de Solaris. Si se especifica la opcin -m, el programa stage1 se copia en MBR.
2. 3.
2. 3.
9-67
Creacin de una duplicacin del sistema de archivos raz (/) 4. Convierta el disco secundario en inicializable. Por ejemplo:
# /sbin/installgrub /boot/grub/stage1 /boot/grub/stage2 /dev/rdsk/c2d0p0
5. 6.
Identifique el slice que contiene el sistema de archivos root (/) existente que se va a duplicar. Cree un nuevo volumen RAID-0 en el slice mencionado en el paso anterior. Para crear el volumen puede utilizar la herramienta Enhanced Storage (almacenamiento avanzado) de Solaris Management Console o el comando metainit. Consulte Creacin de volmenes RAID-0 en la pgina 9-33.
7. 8.
Cree un segundo volumen RAID-0 (c1t1d0s0 en este ejemplo) en un slice no usado para que acte como subduplicacin secundaria. Cree una duplicacin de una va. Para crear esta duplicacin puede utilizar la herramienta Enhanced Storage (almacenamiento avanzado) de Solaris Management Console o el comando metainit. Consulte Creacin de volmenes RAID-1 en la pgina 9-45.
9.
# metaroot nombre-volumen # reboot 10. Asocie la subduplicacin secundaria. # metattach nombre-volumen nombre-subduplicacin 11. Defina la ruta de arranque alternativa en el archivo /boot/grub/menu.lst. Para que el sistema puede iniciarse desde el disco que contiene la subduplicacin secundaria, configrelo de manera que considere el disco como dispositivo de arranque alternativo. En este ejemplo de menu.lst, la ruta alternativa corresponde al primer slice de la primera particin fdisk del segundo disco de la BIOS. # vi /boot/grub/menu.lst .... title alternate boot root (hd1,0,a) kernel /boot/multiboot module /boot/x86.miniroot-safe
9-68
# metastat d10 d10: Mirror Submirror 0: d11 State: Okay Submirror 1: d12 State: Okay Pass: 1 Read option: roundrobin (default) Write option: parallel (default) Size: 307440 blocks (150 MB) d11: Submirror of d10 State: Okay Size: 307440 blocks (150 MB) Stripe 0: Device Start Block Dbase c0t0d0s0 0 No
d12: Submirror of d10 State: Okay Size: 2097360 blocks (1.0 GB) Stripe 0: Device Start Block Dbase c3t3d0s1 0 No
Device Relocation Information: Device Reloc Device ID c0t0d0 Yes id1,dad@AST38420A=7AZ0VMFG c3t3d0 Yes id1,sd@SFUJITSU_MAB3045S_SUN4.2G00F52267____
9-69
Creacin de una duplicacin del sistema de archivos raz (/) 2. Ejecute el comando metadetach en la duplicacin para generar una duplicacin de una va.
# metadetach d10 d12 d10: submirror d12 is detached 3. Como se trata de una duplicacin del sistema de archivos raz (/), ejecute el comando metaroot para actualizar los archivos /etc/vfstab y etc/system.
# metaroot /dev/dsk/c0t0d0s0 # grep c0t0d0s0 /etc/vfstab /dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0 / ufs 1 no 4. # init 6 5. Ejecute el comando metaclear para borrar la duplicacin y las subduplicaciones. La opcin -r elimina de forma recurrente los metadispositivos y grupos de reposiciones en caliente asociados con los metadispositivos de destino que se especifican en el comando metaclear. Reinicie el sistema.
# metaclear -r d10 d10: Mirror is cleared d11: Concat/Stripe is cleared # metaclear d12 d12: Concat/Stripe is cleared 6. Si ha cambiado el contenido de la variable boot-device por una ruta de arranque alternativa, restablezca el valor original.
9-70
Configurar el software Solaris Volume Manager y crear rplicas de la base de datos de estado. Duplicar el sistema de archivos raz (/). Actualizar el dispositivo de arranque predeterminado. Desduplicar el sistema de archivos raz (/).
Preparacin
Dadas las diferencias existentes en la arquitectura de los sistemas SPARC y x86, este ejercicio slo puede realizarse en los sistemas SPARC. Si utiliza un sistema x86, realice las tareas descritas en Ejercicio: duplicacin del sistema de archivos root (/) en sistemas x86/x64 en la pgina 9-86. Durante este ejercicio va a duplicar el sistema de archivos raz (/) del disco de arranque del sistema. Para realizar el ejercicio necesita un segundo disco que no se est utilizando. En los pasos del ejercicio se le va a pedir que particione el segundo disco de manera que contenga dos particiones de tamao mayor o igual que la particin raz (/) del disco de arranque. Al menos dos particiones se van a destinar a las rplicas de la base de datos de estado. Este ejercicio se lleva a cabo de forma individual, por lo que no necesita trabajar con un compaero. La mayora de los pasos se ejecutan en la lnea de comandos. La herramienta Enhanced Storage de Solaris Management Console se utiliza para supervisar el desarrollo del ejercicio. Este ejercicio requiere conocimientos sobre el uso de la utilidad format para particionar discos.
9-71
Tarea
Lleve a cabo los pasos siguientes: 1. Abra Solaris Management Console y realice este procedimiento: a. Abra la herramienta Enhanced Storage de Solaris Management Console y djela abierta durante todo el ejercicio para usarla como herramienta de monitorizacin. Utilice las herramientas de Enhanced Storage para ver los objetos que cree mediante los comandos de la lnea de comandos.
b.
# smc & Nota Como cada paso de las tareas se puede llevar a cabo mediante el uso de la lnea de comandos, se emplea el mismo mtodo para presentar las soluciones. 2. Utilice el comando df -h para ver la lista de sistemas de archivos que se estn utilizando. Use la utilidad format para mostrar la tabla de particiones del disco de arranque del sistema. Indique la siguiente informacin:
Slice del disco utilizado para el sistema de archivos raz (/) y tamao del mismo en megabytes. Este slice se convertir en la subduplicacin principal: _______________________________________________________ Empieza en el cilindro 0 del disco de arranque el slice utilizado para el sistema de archivos raz (/)? _______________________________________________________ Slice del disco correspondiente a la rplica de la base de datos de estado 1: _______________________________________________________ Slice del disco correspondiente a la rplica de la base de datos de estado 2: _______________________________________________________
9-72
Ejercicio: duplicacin del sistema de archivos root (/) en sistemas SPARC 3. Use la utilidad format para particionar el disco de reserva de manera que incluya las particiones de la lista:
Defina el slice 0 para que tenga un tamao mayor o igual que el slice del disco correspondiente al sistema de archivos raz (/). Este slice puede convertirse en la subduplicacin secundaria. Defina el slice 1 para que tenga un tamao mayor o igual que el slice del disco correspondiente al sistema de archivos raz (/). Este slice puede convertirse en la subduplicacin secundaria. Defina el tamao del slice 6 en 4 Mbytes, como mnimo. Este slice va a contener la rplica de la base de datos de estado 3. Defina el tamao del slice 7 en 4 Mbytes, como mnimo. Este slice va a contener la rplica de la base de datos de estado 4.
4.
Determine el nombre de los objetos de Solaris Volume Manager que va a utilizar en este ejercicio:
Volumen para asignar a la subduplicacin principal del sistema de archivos raz (/): _______________________________________________________ Volumen para asignar a la subduplicacin secundaria del sistema de archivos raz (/): _______________________________________________________ Volumen para asignar a la duplicacin del sistema de archivos raz (/): _______________________________________________________
5.
Cree un nmero adecuado de rplicas de la base de datos de estado para utilizar el algoritmo de consenso mayoritario de Solaris Volume Manager. Cul es el nmero mnimo de rplicas de la base de datos de estado que necesita este algoritmo? ____________________________________________________________
6.
Cree un volumen RAID-0 para utilizarlo como subduplicacin principal del sistema de archivos raz (/).
9-73
Ejercicio: duplicacin del sistema de archivos root (/) en sistemas SPARC 7. Cree un volumen RAID 0 en la unidad secundaria para utilizarlo como subduplicacin secundaria del sistema de archivos raz (/). Consulte el paso 2 para determinar cul de las siguientes condiciones es verdadera. a. Si el slice raz del disco de arranque empieza en el cilindro 0, el slice 0 del segundo disco se utiliza como suduplicacin secundaria. Si el slice raz del disco de arranque no empieza en el cilindro 0, el slice 1 del segundo disco se utiliza como suduplicacin secundaria.
b.
8.
Cree un volumen RAID-1 como duplicacin de una va utilizando la subduplicacin principal del sistema de archivos raz (/) como origen de los datos de la duplicacin. Actualice el archivo /etc/vfstab para utilizar el volumen RAID-1 como punto de montaje del sistema de archivos raz (/) y examine los cambios que se producen en los archivos /etc/vfstab y /etc/system.
9.
10. Reinicie el sistema e inicie la sesin como usuario root. 11. Abra Solaris Management Console y realice este procedimiento: a. b. Abra la herramienta Enhanced Storage de Solaris Management Console. Utilice las herramientas de Enhanced Storage para ver los objetos que cree mediante los comandos de la lnea de comandos.
12. Asocie el volumen RAID-0 que se utiliza como subduplicacin secundaria del sistema de archivos raz (/) al volumen RAID-1 y espere a que se produzca la sincronizacin antes de continuar. Cul es la razn principal por la que se utiliza la lnea de comandos para asociar una subduplicacin secundaria a una duplicacin? ____________________________________________________________ ____________________________________________________________ Nota Para ver el estado del proceso de resincronizacin, utilice el comando /usr/sbin/metastat | grep Resync. 13. Determine cul es la ruta de dispositivo fsica del dispositivo de arranque alternativo (/) que ha seleccionado en el paso 7 (segn indica Solaris 10). Vara en funcin del sistema. Utilice el comando ls -l.
9-74
Ejercicio: duplicacin del sistema de archivos root (/) en sistemas SPARC 14. Utilice el comando init 0 para apagar el sistema y que vuelva a aparecer el indicador de OpenBoot PROM. Luego use el comando show-disks para determinar la ruta del dispositivo de arranque alternativo (/) (segn indica OpenBoot PROM). 15. Defina un alias para el dispositivo raz (/) de copia de seguridad. 16. Agregue el alias del dispositivo backup_root a la variable bootdevice. Debera conservar el alias del disco de arranque principal. 17. Compruebe si es posible iniciar la subduplicacin secundaria del sistema de archivos raz (/) e inicie la sesin como usuario root cuando el proceso de arranque termine. 18. Verifique el estado de las subduplicaciones del sistema de archivos raz (/). 19. Desasocie una subduplicacin para convertir la duplicacin del sistema de archivos raz (/) en una duplicacin de una va. 20. Actualice el archivo /etc/vfstab para volver a definir el punto de montaje raz (/) utilizando el slice del disco original. Para eliminar las instrucciones forceload, actualice el archivo /etc/system. 21. Ponga el sistema en el nivel OBP. 22. Si ha cambiado el contenido de la variable boot-device por una ruta de arranque alternativa, lleve a cabo los pasos siguientes: a. b. Restablezca la configuracin predeterminada. Inicie el sistema en el estado gua multi-user.
23. Borre la duplicacin y las subduplicaciones. 24. Suprima todas las rplicas de la base de datos de estado.
9-75
!
?
9-76
Soluciones del ejercicio: duplicacin del sistema de archivos root (/) en sistemas
Soluciones del ejercicio: duplicacin del sistema de archivos root (/) en sistemas SPARC
En este ejercicio, realizar las siguientes tareas:
Configurar el software Solaris Volume Manager y crear rplicas de la base de datos de estado. Duplicar el sistema de archivos raz (/). Actualizar el dispositivo de arranque predeterminado. Desduplicar el sistema de archivos raz (/).
Preparacin
Dadas las diferencias existentes en la arquitectura de los sistemas SPARC y x86, este ejercicio slo puede realizarse en los sistemas SPARC. Si utiliza un sistema x86, realice las tareas descritas en Ejercicio: duplicacin del sistema de archivos root (/) en sistemas x86/x64 en la pgina 9-86. Durante este ejercicio va a duplicar el sistema de archivos raz (/) del disco de arranque del sistema. Para realizar el ejercicio necesita un segundo disco que no se est utilizando. En los pasos del ejercicio se le va a pedir que particione el segundo disco de manera que contenga dos particiones de tamao mayor o igual que la particin raz (/) del disco de arranque. Al menos dos particiones se van a destinar a las rplicas de la base de datos de estado. Este ejercicio se lleva a cabo de forma individual, por lo que no necesita trabajar con un compaero. La mayora de los pasos se ejecutan en la lnea de comandos. La herramienta Enhanced Storage de Solaris Management Console se utiliza para supervisar el desarrollo del ejercicio. Este ejercicio requiere conocimientos sobre el uso de la utilidad format para particionar discos.
9-77
Soluciones del ejercicio: duplicacin del sistema de archivos root (/) en sistemas
Tarea
Esta seccin contiene las soluciones de cada tarea. 1. Abra Solaris Management Console y realice este procedimiento: a. Abra la herramienta Enhanced Storage de Solaris Management Console y djela abierta durante todo el ejercicio para usarla como herramienta de monitorizacin. Utilice las herramientas de Enhanced Storage para ver los objetos que cree mediante los comandos de la lnea de comandos.
b. # smc &
Nota Como cada paso de las tareas se puede llevar a cabo mediante el uso de la lnea de comandos, se emplea el mismo mtodo para presentar las soluciones. 2. Utilice el comando df -h para ver la lista de sistemas de archivos que se estn utilizando. Use la utilidad format para mostrar la tabla de particiones del disco de arranque del sistema. Indique la siguiente informacin:
Slice del disco utilizado para el sistema de archivos raz (/) y tamao del mismo en megabytes. Este slice se convertir en la subduplicacin principal: Segn lo predefinido para su sistema. (Slice 0 y 500.78 Mbytes, en este ejemplo.)
Empieza en el cilindro 0 del disco de arranque el slice utilizado para el sistema de archivos raz (/)? Segn lo predefinido para su sistema. (No, en este ejemplo empieza en el cilindro 363.) Esta informacin se necesita en este ejercicio para determinar el slice del segundo disco que se va a utilizar como subduplicacin secundaria.
Slice del disco correspondiente a la rplica de la base de datos de estado 1: Segn lo predefinido para su sistema. (Slice 4 y 4,23 Mbytes en este ejemplo.)
Slice del disco correspondiente a la rplica de la base de datos de estado 2: Segn lo predefinido para su sistema. (Slice 5 y 4,23 Mbytes en este ejemplo.)
9-78
Soluciones del ejercicio: duplicacin del sistema de archivos root (/) en sistemas
# df -h Filesystem size /dev/dsk/c0t0d0s0 471M /devices 0K ctfs 0K proc 0K mnttab 0K swap 1.1G objfs 0K /dev/dsk/c0t0d0s6 6.7G fd 0K /dev/dsk/c0t0d0s3 479M swap 1.1G swap 1.1G /dev/dsk/c0t0d0s7 25G # # format Searching for disks...done
avail capacity 269M 37% 0K 0% 0K 0% 0K 0% 0K 0% 1.1G 1% 0K 0% 1.8G 74% 0K 0% 351M 19% 1.1G 1% 1.1G 1% 25G 1%
Mounted on / /devices /system/contract /proc /etc/mnttab /etc/svc/volatile /system/object /usr /dev/fd /var /tmp /var/run /export
AVAILABLE DISK SELECTIONS: 0. c0t0d0 <SUN36G cyl 24620 alt 2 hd 27 sec 107> /pci@1f,0/pci@1/scsi@8/sd@0,0 1. c0t1d0 <SUN36G cyl 24620 alt 2 hd 27 sec 107> /pci@1f,0/pci@1/scsi@8/sd@1,0 Specify disk (enter its number): 0 selecting c0t0d0 [disk formatted] (output omitted) format> partition (output omitted) partition> print Current partition table (original): Total disk cylinders available: 24620 + 2 (reserved cylinders) Part Tag 0 root 1 swap 2 backup 3 var 4 unassigned 5 unassigned 6 usr 7 unassigned partition> q (output omitted) format> q # Flag wm wu wm wm wm wm wm wm Cylinders 363 717 0 362 0 - 24619 718 - 1079 1080 - 1082 1083 - 1085 1086 - 6048 6049 - 24619 Size 500.78MB 512.06MB 33.92GB 510.65MB 4.23MB 4.23MB 6.84GB 25.58GB Blocks (355/0/0) 1025595 (363/0/0) 1048707 (24620/0/0) 71127180 (362/0/0) 1045818 (3/0/0) 8667 (3/0/0) 8667 (4963/0/0) 14338107 (18571/0/0) 53651619
9-79
Soluciones del ejercicio: duplicacin del sistema de archivos root (/) en sistemas 3. Use la utilidad format para particionar el disco de reserva de manera que incluya las particiones de la lista:
Defina el slice 0 para que tenga un tamao mayor o igual que el slice del disco correspondiente al sistema de archivos raz (/). Este slice puede convertirse en la subduplicacin secundaria. Defina el slice 1 para que tenga un tamao mayor o igual que el slice del disco correspondiente al sistema de archivos raz (/). Este slice puede convertirse en la subduplicacin secundaria. Defina el tamao del slice 6 en 4 Mbytes, como mnimo. Este slice va a contener la rplica de la base de datos de estado 3. Defina el tamao del slice 7 en 4 Mbytes, como mnimo. Este slice va a contener la rplica de la base de datos de estado 4.
AVAILABLE DISK SELECTIONS: 0. c0t0d0 <SUN36G cyl 24620 alt 2 hd 27 sec 107> /pci@1f,0/pci@1/scsi@8/sd@0,0 1. c0t1d0 <SUN36G cyl 24620 alt 2 hd 27 sec 107> /pci@1f,0/pci@1/scsi@8/sd@1,0 Specify disk (enter its number): 1 selecting c0t1d0 [disk formatted] partition> print Current partition table (original): Total disk cylinders available: 24620 + 2 (reserved cylinders) Part Tag 0 unassigned 1 unassigned 2 backup 3 unassigned 4 unassigned 5 unassigned 6 unassigned 7 unassigned partition> q (output omitted) format> q # Flag wm wu wu wm wm wm wm wm Cylinders 0 362 363 725 0 - 24619 0 726 - 24613 0 24614 - 24616 24617 - 24619 Size 512.06MB 512.06MB 33.92GB 0 32.91GB 0 4.23MB 4.23MB Blocks (363/0/0) 1048707 (363/0/0) 1048707 (24620/0/0) 71127180 (0/0/0) 0 (23888/0/0) 69012432 (0/0/0) 0 (3/0/0) 8667 (3/0/0) 8667
9-80
Soluciones del ejercicio: duplicacin del sistema de archivos root (/) en sistemas 4. Determine el nombre de los objetos de Solaris Volume Manager que va a utilizar en este ejercicio:
Volumen para asignar a la subduplicacin principal del sistema de archivos raz (/): Segn lo definido para su sistema. (En los ejemplos se utiliza d11.) Volumen para asignar a la subduplicacin secundaria del sistema de archivos raz (/): Segn lo definido para su sistema. (En los ejemplos se utiliza d12.) Volumen para asignar a la duplicacin del sistema de archivos raz (/): Segn lo definido para su sistema. (En los ejemplos se utiliza d10.)
5.
Cree un nmero adecuado de rplicas de la base de datos de estado para utilizar el algoritmo de consenso mayoritario de Solaris Volume Manager.
# # # # #
Ejemplo: /usr/sbin/metadb -a -f c0t0d0s4 /usr/sbin/metadb -a c0t0d0s5 /usr/sbin/metadb -a c0t1d0s6 /usr/sbin/metadb -a c0t1d0s7 Cul es el nmero mnimo de rplicas de la base de datos de estado que necesita este algoritmo? Lo ms recomendable es utilizar tres rplicas de la base de datos de estado como mnimo.
Cree un volumen RAID-0 para utilizarlo como subduplicacin principal del sistema de archivos raz (/). # /usr/sbin/metainit -f d11 1 1 c0t0d0s0 d11: Concat/Stripe is setup # (La variable hace referencia al slice raz (/).) 7. Cree un volumen RAID 0 en la unidad secundaria para utilizarlo como subduplicacin secundaria del sistema de archivos raz (/). Consulte el paso 2 para determinar cul de las siguientes condiciones es verdadera. Si el slice raz del disco de arranque empieza en el cilindro 0, el slice 0 del segundo disco se utiliza como suduplicacin secundaria. # /usr/sbin/metainit d12 1 1 c0t1d0s0 d12: Concat/Stripe is setup # a.
6.
9-81
Soluciones del ejercicio: duplicacin del sistema de archivos root (/) en sistemas Si el slice raz del disco de arranque no empieza en el cilindro 0, el slice 1 del segundo disco se utiliza como suduplicacin secundaria. # /usr/sbin/metainit d12 1 1 c0t1d0s1 d12: Concat/Stripe is setup # Cree un volumen RAID-1 como duplicacin de una va utilizando la subduplicacin principal del sistema de archivos raz (/) como origen de los datos de la duplicacin. # /usr/sbin/metainit d10 -m d11 d10: Mirror is setup # 9. Actualice el archivo /etc/vfstab para utilizar el volumen RAID-1 como punto de montaje del sistema de archivos raz (/) y examine los cambios que se producen en los archivos /etc/vfstab y /etc/system. 8. b.
# cat /etc/vfstab (output omitted) fd /dev/fd fd no /proc /proc proc no /dev/dsk/c0t0d0s1 swap /dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0 / (output omitted) # cat /etc/system (output omitted - the file contains only comments) # /usr/sbin/metaroot d10 # cat /etc/vfstab (output omitted) fd /dev/fd fd no /proc /proc proc no /dev/dsk/c0t0d0s1 swap /dev/md/dsk/d10 /dev/md/rdsk/d10 / ufs (output omitted) # cat /etc/system (output omitted) * Begin MDD root info (do not edit) rootdev:/pseudo/md@0:0,10,blk * End MDD root info (do not edit) #
no ufs
no
no 1
no
10. Reinicie el sistema e inicie la sesin como usuario root. # init 6 11. Abra Solaris Management Console y realice este procedimiento: a. b. Abra la herramienta Enhanced Storage de Solaris Management Console. Utilice las herramientas de Enhanced Storage para ver los objetos que cree mediante los comandos de la lnea de comandos.
9-82
Soluciones del ejercicio: duplicacin del sistema de archivos root (/) en sistemas 12. Asocie el volumen RAID-0 que se utiliza como subduplicacin secundaria del sistema de archivos raz (/) al volumen RAID-1 y espere a que se produzca la sincronizacin antes de continuar. # /usr/sbin/metattach d10 d12 d10: submirror d12 is attached # Cul es la razn principal por la que se utiliza la lnea de comandos para asociar una subduplicacin secundaria a una duplicacin? La razn principal por la que se utiliza la lnea de comandos para asociar una subduplicacin secundaria a una duplicacin es forzar una resincronizacin de los datos entre la subduplicacin principal y la subduplicacin secundaria. Nota Para ver el estado del proceso de resincronizacin, utilice el comando /usr/sbin/metastat | grep Resync. 13. Determine cul es la ruta de dispositivo fsica del dispositivo de arranque alternativo (/) que ha seleccionado en el paso 7 (segn indica Solaris 10). Vara en funcin del sistema. Utilice el comando ls -l. # ls -l /dev/dsk/c0t1d0s1 lrwxrwxrwx 1 root root 44 Mar 18 16:54 /dev/dsk/c0t1d0s1 > ../../devices/pci@1f,0/pci@1/scsi@8/sd@1,0:b 14. Utilice el comando init 0 para apagar el sistema y que vuelva a aparecer el indicador de OpenBoot PROM. Luego use el comando show-disks para determinar la ruta del dispositivo de arranque alternativo (/) (segn indica OpenBoot PROM). Vara en funcin del sistema. Por ejemplo: # init 0 (output omitted) ok ok show-disks a) /pci@1f,0/pci@1/scsi@8,1/disk b) /pci@1f,0/pci@1/scsi@8/disk c) /pci@1f,0/pci@1,1/ide@d/cdrom d) /pci@1f,0/pci@1,1/ide@d/disk e) /pci@1f,0/pci@1,1/ebus@c/SUNW,lomh@14,200000 q) NO SELECTION Enter Selection, q to quit: b /pci@1f,0/pci@1/scsi@8/disk has been selected. Type ^Y ( Control-Y ) to insert it in the command line.
9-83
Soluciones del ejercicio: duplicacin del sistema de archivos root (/) en sistemas e.g. ok nvalias mydev ^Y for creating devalias mydev for /pci@1f,0/pci@1/scsi@8/disk ok 15. Defina un alias para el dispositivo raz (/) de copia de seguridad. Vara en funcin del sistema. Utilice el comando nvalias. Por ejemplo: ok nvalias backup_root /pci@1f,0/pci@1/scsi@8/disk/sd@1,0:b 16. Agregue el alias del dispositivo backup_root a la variable bootdevice. Debera conservar el alias del disco de arranque principal. Vara en funcin del sistema. Utilice los comandos printenv y setenv combinados. ok printenv boot-device boot-device = disk net ok setenv boot-device disk backup_root boot-device = disk net 17. Compruebe si es posible iniciar la subduplicacin secundaria del sistema de archivos raz (/) e inicie la sesin como usuario root cuando el proceso de arranque termine. ok boot backup_root 18. Verifique el estado de las subduplicaciones del sistema de archivos raz (/). # /usr/sbin/metastat d10
d10: Mirror Submirror 0: d11 State: Okay Submirror 1: d12 State: Okay Pass: 1 Read option: roundrobin (default) Write option: parallel (default) Size: 1025595 blocks (500 MB) d11: Submirror of d10 State: Okay Size: 1025595 blocks (500 MB) Stripe 0: Device Start Block Dbase c0t0d0s0 0 No
d12: Submirror of d10 State: Okay Size: 1048707 blocks (512 MB) Stripe 0:
9-84
Soluciones del ejercicio: duplicacin del sistema de archivos root (/) en sistemas
Device c0t1d0s1 Start Block 0 Dbase No State Reloc Hot Spare Okay Yes
Device Relocation Information: Device Reloc Device ID c0t0d0 Yes id1,sd@SFUJITSU_MAP3367N_SUN36G_00N0713F____ c0t1d0 Yes id1,sd@SFUJITSU_MAP3367N_SUN36G_00N06V96____ #
19. Desasocie una subduplicacin para convertir la duplicacin del sistema de archivos raz (/) en una duplicacin de una va. # /usr/sbin/metadetach d10 d12 d10: submirror d12 is detached 20. Actualice el archivo /etc/vfstab para volver a definir el punto de montaje raz (/) utilizando el slice del disco original. Para eliminar las instrucciones forceload, actualice el archivo /etc/system. # /usr/sbin/metaroot /dev/dsk/c0t0d0s0 21. Ponga el sistema en el nivel OBP. # init 0 22. Si ha cambiado el contenido de la variable boot-device por una ruta de arranque alternativa, lleve a cabo los pasos siguientes: a. b. Restablezca la configuracin predeterminada. Inicie el sistema en el estado gua multi-user.
ok set-default boot-device ok boot 23. Borre la duplicacin y las subduplicaciones. # /usr/sbin/metaclear -r d10 d10: Mirror is cleared d11: Concat/Stripe is cleared # /usr/sbin/metaclear d12 d12: Concat/Stripe is cleared # 24. Suprima todas las rplicas de la base de datos de estado. # # # # /usr/sbin/metadb /usr/sbin/metadb /usr/sbin/metadb /usr/sbin/metadb -d -d -d -d c0t0d0s4 c0t0d0s5 c0t1d0s6 -f c0t1d0s7
9-85
Configurar el software Solaris Volume Manager y crear rplicas de la base de datos de estado. Duplicar el sistema de archivos root (/). Hacer que el disco duplicado se pueda iniciar. Desduplicar el sistema de archivos root (/).
Preparacin
Este ejercicio slo se puede realizar en sistema x86. Si utiliza un sistema SPARC, realice las tareas descritas en Ejercicio: duplicacin del sistema de archivos root (/) en sistemas SPARC en la pgina 9-71. En este ejercicio se supone que el alumno sabe usar la utilidad format para crear particiones fdisk y slices de disco, si es necesario. El disco de reserva debe tener definidas estas estructuras:
Una particin fdisk de Solaris que ocupe todo el disco de reserva Un slice de tamao mayor o igual que el slice root (/) del disco del sistema Dos slices pequeos para las rplicas de la base de datos de estado
En la Tabla 9-4 se define el tamao de los slices 0 o 1 de la duplicacin del sistema de archivos raz, y de los slices 3 y 4 en los que se van a situar las rplicas de la base de datos de estado. Es posible que el disco de reserva ya incluya la particin fdisk de Solaris y slices de un ejercicio anterior. Tabla 9-4 Informacin de slices Slice 0 1 3 Tamao 512 Mbytes 512 Mbytes 8 Mbytes Uso Posible duplicacin del sistema de archivos raz Posible duplicacin del sistema de archivos raz Rplica la base de datos de estado
9-86
Ejercicio: duplicacin del sistema de archivos root (/) en sistemas x86/x64 Tabla 9-4 Informacin de slices (Continuacin) Slice 4 5 6 7 Tamao 8 Mbytes 6000 Mbytes (o resto del disco) 0 Mbytes 0 Mbytes Uso Rplica la base de datos de estado No asignado No asignado No asignado
Este ejercicio se lleva a cabo de forma individual, por lo que no es necesario trabajar con un compaero. Para presentar las soluciones de cada paso de este ejercicio se utilizan los comandos de la lnea de comandos. La razn por la que se utiliza la herramienta Enhanced Storage de Solaris Volume Manager en este ejercicio es presentar un registro visual de las actividades de este software.
Tarea
Lleve a cabo los pasos siguientes: 1. Abra Solaris Management Console y realice este procedimiento: a. Abra la herramienta Enhanced Storage de Solaris Management Console y djela abierta durante todo el ejercicio para usarla como herramienta de monitorizacin. Utilice las herramientas de Enhanced Storage para ver los objetos que cree mediante los comandos de la lnea de comandos.
b.
Nota Como cada paso de las tareas se puede llevar a cabo mediante el uso de la lnea de comandos, se emplea el mismo mtodo para presentar las soluciones. 2. Utilice el comando df para generar la lista de sistemas de archivos que se estn usando. En la salida del comando df, verifique que el nico disco cuyos sistemas de archivo estn en uso es el disco de arranque. Use la utilidad format para obtener la siguiente informacin:
3.
Indique el nombre del disco de reserva que va a utilizar para duplicar el sistema de archivos root. _______________________________________________________
9-87
Qu tamao tiene el slice utilizado para el sistema de archivos raz (/) en megabytes? Este slice se convertir en la subduplicacin principal: _______________________________________________________ Qu dos slices del disco de arranque ocupan menos de 16 Mbytes? _______________________________________________________
4.
En caso necesario, use la utilidad format para definir la particin fdisk de Solaris y los slices requeridos. Para esto, lleve a cabo los pasos siguientes: a. b. En la utilidad format, seleccione el disco de reserva y acceda al men fdisk. Cuando aparezca el siguiente mensaje, acepte la particin fdisk predeterminada. A continuacin, entre en el men fdisk.
No existe ninguna tabla de particiones fdisk. La particin predeterminada del disco es: a 100% "SOLARIS System" partition Type "y" to accept the default partition, otherwise type "n" to edit the partition table. y format> fdisk
c.
Cuando existe una particin fdisk de Solaris, aparece en el men fdisk. Asegrese de que la particin fdisk de Solaris est configurada como se describe abajo y utilice el men fdisk para hacer las correcciones necesarias. Guarde los cambios que efecte.
Verifique que la particin fdisk de Solaris ocupa el 100% del disco. Verifique que la particin fdisk de Solaris no aparece marcada como la particin activa en la columna Status.
La particin fdisk de Solaris que aparece en el men fdisk est correctamente configurada, como se describe en este ejemplo:
Total disk size is 30400 cylinders Cylinder size is 16065 (512 byte) blocks Cylinders Start End Length ===== === ====== 1 30399 30399
Partition ========= 1
Status ======
% === 100
SELECT ONE OF THE FOLLOWING: 1. Create a partition 2. Specify the active partition
9-88
d.
Si los slices del disco de reserva no estn bien definidos, utilice el men partition de la utilidad format para crear slices en la particin fdisk de Solaris. Utilice la informacin de la Tabla 9-5 para determinar cul es el tamao correcto de los slices. Si ha definidos slices nuevos en el disco de reserva, introduzca la tabla de particiones en el disco y salga de la utilidad format.
e. 5. 6.
Utilice el comando installgrub para instalar los programas stage1 y stage2 en la particin fdisk de Solaris del disco de reserva. Determine el nombre de los objetos de Solaris Volume Manager que va a utilizar en este ejercicio:
Volumen para asignar a la subduplicacin principal del sistema de archivos raz (/): _______________________________________________________ Volumen para asignar a la subduplicacin secundaria del sistema de archivos raz (/): _______________________________________________________ Volumen para asignar a la duplicacin del sistema de archivos raz (/): _______________________________________________________
7.
Cree un nmero adecuado de rplicas de la base de datos de estado para utilizar el algoritmo de consenso mayoritario de Solaris Volume Manager. Cul es el nmero mnimo de rplicas de la base de datos de estado que necesita este algoritmo? ___________________________________________________________
8. 9.
Cree un volumen RAID-0 para utilizarlo como subduplicacin principal del sistema de archivos raz (/). Cree un volumen RAID-0 para utilizarlo como subduplicacin secundaria del sistema de archivos raz (/).
10. Cree un volumen RAID-1 como duplicacin de una va utilizando la subduplicacin principal del sistema de archivos raz (/) como origen de los datos de la duplicacin.
9-89
Ejercicio: duplicacin del sistema de archivos root (/) en sistemas x86/x64 11. Utilice el comando metaroot para actualizar el archivo /etc/vfstab y usar el volumen RAID-1 como punto de montaje del sistema de archivos raz (/). Examine los cambios que se producen en los archivos /etc/vfstab y /etc/system. 12. Reinicie el sistema e inicie la sesin como usuario root. 13. Abra Solaris Management Console y realice este procedimiento: a. b. Abra la herramienta Enhanced Storage de Solaris Management Console. Utilice las herramientas de Enhanced Storage para ver los objetos que cree mediante los comandos de la lnea de comandos.
14. Asocie el volumen RAID-0 que se utiliza como subduplicacin secundaria del sistema de archivos raz (/) al volumen RAID-1 y espere a que se produzca la sincronizacin antes de continuar. Cul es la razn principal por la que se utiliza la lnea de comandos para asociar una subduplicacin secundaria a una duplicacin? ____________________________________________________________ Nota Para ver el estado del proceso de resincronizacin, utilice el comando /usr/sbin/metastat | grep Resync. 15. Utilice el comando metastat para ver el estado de las subduplicaciones del sistema de archivos raz (/). Verifique que todas las subduplicaciones presentan el estado Okay. 16. Desasocie la subduplicacin secundaria para convertir la duplicacin del sistema de archivos raz (/) en una duplicacin de una va. 17. Utilice el comando metaroot para volver a definir el dispositivo raz (/) en el archivo /etc/vfstab de manera que emplee el slice del disco original y elimine las instrucciones forceload del archivo /etc/system. 18. Reinicie el sistema. 19. Utilice el comando metaclear para eliminar la duplicacin y las subduplicaciones, y el comando metastat para verificar que han dejado de existir. 20. Suprima todas las rplicas de la base de datos de estado.
9-90
!
?
9-91
Soluciones del ejercicio: duplicacin del sistema de archivos root (/) en sistemas
Soluciones del ejercicio: duplicacin del sistema de archivos root (/) en sistemas x86/x64
En este ejercicio, realizar las siguientes tareas:
Configurar el software Solaris Volume Manager y crear rplicas de la base de datos de estado. Duplicar el sistema de archivos root (/). Hacer que el disco duplicado se pueda iniciar. Desduplicar el sistema de archivos root (/).
Preparacin
Este ejercicio slo se puede realizar en sistema x86. Si utiliza un sistema SPARC, realice las tareas descritas en Ejercicio: duplicacin del sistema de archivos root (/) en sistemas SPARC en la pgina 9-71. En este ejercicio se supone que el alumno sabe usar la utilidad format para crear particiones fdisk y slices de disco, si es necesario. El disco de reserva debe tener definidas estas estructuras:
Una particin fdisk de Solaris que ocupe todo el disco de reserva Un slice de tamao mayor o igual que el slice root (/) del disco del sistema Dos slices pequeos para las rplicas de la base de datos de estado
En la Tabla 9-5 se define el tamao de los slices 0 o 1 de la duplicacin del sistema de archivos raz, y de los slices 3 y 4 en los que se van a situar las rplicas de la base de datos de estado. Es posible que el disco de reserva ya incluya la particin fdisk de Solaris y slices de un ejercicio anterior. Tabla 9-5 Informacin de slices Slice 0 1 Tamao 512 Mbytes 512 Mbytes Uso Posible duplicacin del sistema de archivos raz Posible duplicacin del sistema de archivos raz
9-92
Soluciones del ejercicio: duplicacin del sistema de archivos root (/) en sistemas Tabla 9-5 Informacin de slices (Continuacin) Slice 3 4 5 6 7 Tamao 8 Mbytes 8 Mbytes 6000 Mbytes (o resto del disco) 0 Mbytes 0 Mbytes Uso Rplica la base de datos de estado Rplica la base de datos de estado No asignado No asignado No asignado
Este ejercicio se lleva a cabo de forma individual, por lo que no es necesario trabajar con un compaero. Para presentar las soluciones de cada paso de este ejercicio se utilizan los comandos de la lnea de comandos. La razn por la que se utiliza la herramienta Enhanced Storage de Solaris Volume Manager en este ejercicio es presentar un registro visual de las actividades de este software.
Tarea
Esta seccin contiene las soluciones de cada paso del ejercicio. 1. Abra Solaris Management Console y realice este procedimiento: a. Abra la herramienta Enhanced Storage de Solaris Management Console y djela abierta durante todo el ejercicio para usarla como herramienta de monitorizacin. Utilice las herramientas de Enhanced Storage para ver los objetos que cree mediante los comandos de la lnea de comandos.
b. # smc &
Nota Como cada paso de las tareas se puede llevar a cabo mediante el uso de la lnea de comandos, se emplea el mismo mtodo para presentar las soluciones. 2. Utilice el comando df para ver la lista de sistemas de archivos que se estn utilizando. En la salida del comando df, verifique que el nico disco cuyos sistemas de archivo estn en uso es el disco de arranque.
9-93
Soluciones del ejercicio: duplicacin del sistema de archivos root (/) en sistemas En este ejemplo slo se utiliza c1d0: # df -h Filesystem size used /dev/dsk/c1d0s0 470M 233M /devices 0K 0K ctfs 0K 0K proc 0K 0K mnttab 0K 0K swap 3.4G 720K objfs 0K 0K /dev/dsk/c1d0s6 6.7G 2.5G /usr/lib/libc/libc_hwcap2.so.1 6.7G 2.5G fd 0K 0K /dev/dsk/c1d0s3 484M 53M swap 3.4G 168K swap 3.4G 32K /dev/dsk/c1d0s7 221G 64M # 3.
avail capacity 191M 55% 0K 0% 0K 0% 0K 0% 0K 0% 3.4G 1% 0K 0% 4.1G 39% 4.1G 0K 383M 3.4G 3.4G 219G 39% 0% 13% 1% 1% 1% Mounted on / /devices /system/contract /proc /etc/mnttab /etc/svc/volatile /system/object /usr /lib/libc.so.1 /dev/fd /var /tmp /var/run /export
Indique el nombre del disco de reserva que va a utilizar para duplicar el sistema de archivos root. La salida del comando format en este ejemplo indica la existencia de dos discos en el sistema: c1d0 y c2d0. La salida del comando df -h indica que no hay sistemas de archivos de c2d0 montados, por lo que c2d0 es el disco de reserva.
Qu tamao tiene el slice utilizado para el sistema de archivos raz (/) en megabytes? Este slice se convertir en la subduplicacin principal: Segn lo predefinido para su sistema. (Slice 0 y 500,06 Mbytes en este ejemplo.)
Qu dos slices del disco de arranque ocupan menos de 16 Mbytes? Segn lo predefinido para su sistema. (En este ejemplo, los slices 4 y 5 utilizan 7,88 Mbytes cada uno. Se trata de los slices reservados en el disco de arranque para las rplicas de la base de datos de estado.)
AVAILABLE DISK SELECTIONS: 0. c1d0 <DEFAULT cyl 60548 alt 2 hd 128 sec 63> /pci@0,0/pci-ide@7/ide@0/cmdk@0,0 1. c2d0 <DEFAULT cyl 30398 alt 2 hd 255 sec 63> /pci@0,0/pci-ide@7/ide@1/cmdk@0,0
9-94
Soluciones del ejercicio: duplicacin del sistema de archivos root (/) en sistemas
Specify disk (enter its number): 0 selecting c1d0 (output omitted) format> part (output omitted) partition> print Current partition table (original): Total disk cylinders available: 60548 + 2 (reserved cylinders) Part Tag 0 root 1 swap 2 backup 3 var 4 unassigned 5 unassigned 6 usr 7 unassigned 8 boot 9 alternates partition> q (output omitted) format Flag wm wu wm wm wm wm wm wm wu wu Cylinders 134 260 3 133 0 - 60547 261 391 392 393 394 395 396 - 2173 2174 - 60547 0 0 1 2 Size 500.06MB 515.81MB 232.82GB 515.81MB 7.88MB 7.88MB 6.84GB 224.46GB 3.94MB 7.88MB Blocks (127/0/0) 1024128 (131/0/0) 1056384 (60548/0/0) 488259072 (131/0/0) 1056384 (2/0/0) 16128 (2/0/0) 16128 (1778/0/0) 14337792 (58374/0/0) 470727936 (1/0/0) 8064 (2/0/0) 16128
4.
En caso necesario, use la utilidad format para definir la particin fdisk de Solaris y los slices requeridos. Lleve a cabo los pasos siguientes: a. En la utilidad format, seleccione el disco de reserva y acceda al men fdisk.
format> disk
AVAILABLE DISK SELECTIONS: 0. c1d0 <DEFAULT cyl 60548 alt 2 hd 128 sec 63> /pci@0,0/pci-ide@7/ide@0/cmdk@0,0 1. c2d0 <DEFAULT cyl 30398 alt 2 hd 255 sec 63> /pci@0,0/pci-ide@7/ide@1/cmdk@0,0 Specify disk (enter its number)[0]: 1 selecting c2d0 Controller working list found [disk formatted, defect list found] format> fdisk
9-95
Soluciones del ejercicio: duplicacin del sistema de archivos root (/) en sistemas b. Cuando aparezca el siguiente mensaje, acepte la particin fdisk predeterminada. A continuacin, entre en el men fdisk.
No existe ninguna tabla de particiones fdisk. La particin predeterminada del disco es: a 100% "SOLARIS System" partition Type "y" to accept the default partition, otherwise type "n" to edit the partition table. y format> fdisk
c.
Cuando existe una particin fdisk de Solaris, aparece en el men fdisk. Asegrese de que la particin fdisk de Solaris est configurada como se describe abajo y utilice el men fdisk para hacer las correcciones necesarias. Guarde los cambios que efecte.
Verifique que la particin fdisk de Solaris ocupa el 100% del disco. Verifique que la particin fdisk de Solaris no aparece marcada como la particin activa en la columna Status.
La particin fdisk de Solaris que aparece en el men fdisk est correctamente configurada, como se describe en este ejemplo:
Total disk size is 30400 cylinders Cylinder size is 16065 (512 byte) blocks Cylinders Start End Length ===== === ====== 1 30399 30399
Partition ========= 1
Status ======
% === 100
SELECT ONE OF THE FOLLOWING: 1. Create a partition 2. Specify the active partition 3. Delete a partition 4. Change between Solaris and Solaris2 Partition IDs 5. Exit (update disk configuration and exit) 6. Cancel (exit without updating disk configuration) Enter Selection:
d.
Si los slices del disco de reserva no estn bien definidos, utilice el men partition de la utilidad format para crear slices en la particin fdisk de Solaris. Utilice la informacin de la Tabla 9-5 para determinar cul es el tamao correcto de los slices. La lista de slices correcta se asemeja mucho a la de este ejemplo de estacin Ultra 20:
Cylinders 3 68 69 134 0 - 30396 Size 517.72MB 517.72MB 232.85GB Blocks (66/0/0) 1060290 (66/0/0) 1060290 (30397/0/0) 488327805
art 0 1 2
Flag wm wu wu
9-96
Soluciones del ejercicio: duplicacin del sistema de archivos root (/) en sistemas
3 4 5 6 7 8 9 unassigned unassigned unassigned usr unassigned boot alternates wm wm wm wm wm wu wm 135 137 139 0 0 0 1 136 138 - 30396 15.69MB 15.69MB 231.79GB 0 0 7.84MB 15.69MB (2/0/0) 32130 (2/0/0) 32130 (30258/0/0) 486094770 (0/0/0) 0 (0/0/0) 0 (1/0/0) 16065 (2/0/0) 32130
0 2
e. 5.
Si ha definidos slices nuevos en el disco de reserva, introduzca la tabla de particiones en el disco y salga de la utilidad format.
Utilice el comando installgrub para instalar los programas stage1 y stage2 en la particin fdisk de Solaris del disco de reserva.
# installgrub /boot/grub/stage1 /boot/grub/stage2 /dev/rdsk/c2d0s0 Solaris boot partition inactive. stage1 written to partition 0 sector 0 (abs 16065) stage2 written to partition 0, 233 sectors starting at 50 (abs 16115) # 6. Determine el nombre de los objetos de Solaris Volume Manager que va a utilizar en este ejercicio:
Volumen para asignar a la subduplicacin principal del sistema de archivos raz (/): Segn lo definido para su sistema. (En los ejemplos se utiliza d11.) Volumen para asignar a la subduplicacin secundaria del sistema de archivos raz (/): Segn lo definido para su sistema. (En los ejemplos se utiliza d12.) Volumen para asignar a la duplicacin del sistema de archivos raz (/): Segn lo definido para su sistema. (En los ejemplos se utiliza d10.)
7.
Cree un nmero adecuado de rplicas de la base de datos de estado para utilizar el algoritmo de consenso mayoritario de Solaris Volume Manager. Por ejemplo: -a -a -a -a -f c1d0s4 c1d0s5 c2d0s3 c2d0s4
# # # # #
Cul es el nmero mnimo de rplicas de la base de datos de estado que necesita este algoritmo? Lo ms recomendable es utilizar tres rplicas de la base de datos de estado como mnimo.
9-97
Soluciones del ejercicio: duplicacin del sistema de archivos root (/) en sistemas 8. Cree un volumen RAID-0 para utilizarlo como subduplicacin principal del sistema de archivos raz (/).
# /usr/sbin/metainit -f d11 1 1 c1d0s0 d11: Concat/Stripe is setup (La variable hace referencia al slice raz (/).) 9. Cree un volumen RAID-0 para utilizarlo como subduplicacin secundaria del sistema de archivos raz (/).
# /usr/sbin/metainit d12 1 1 c2d0s0 d12: Concat/Stripe is setup # 10. Cree un volumen RAID-1 como duplicacin de una va utilizando la subduplicacin principal del sistema de archivos raz (/) como origen de los datos de la duplicacin. # /usr/sbin/metainit d10 -m d11 d10: Mirror is setup 11. Utilice el comando metaroot para actualizar el archivo /etc/vfstab y usar el volumen RAID-1 como punto de montaje del sistema de archivos raz (/). Examine los cambios que se producen en los archivos /etc/vfstab y /etc/system. # cat /etc/vfstab (output omitted) fd /dev/fd fd /proc /proc proc /dev/dsk/c1d0s1 swap /dev/dsk/c1d0s0 /dev/rdsk/c1d0s0 (output omitted) # cat /etc/system (output omitted - no new entries exist) # /usr/sbin/metaroot d10 # cat /etc/vfstab (output omitted) fd /dev/fd fd /proc /proc proc /dev/dsk/c1d0s1 swap /dev/md/dsk/d10 /dev/md/rdsk/d10 (output omitted) # cat /etc/system (output omitted) * Begin MDD root info (do not edit) rootdev:/pseudo/md@0:0,10,blk * End MDD root info (do not edit) #
no no /
no ufs
no
no no /
no ufs
no
9-98
Soluciones del ejercicio: duplicacin del sistema de archivos root (/) en sistemas 12. Reinicie el sistema e inicie la sesin como usuario root. # init 6 13. Abra Solaris Management Console y realice este procedimiento: a. b. Abra la herramienta Enhanced Storage de Solaris Management Console. Utilice las herramientas de Enhanced Storage para ver los objetos que cree mediante los comandos de la lnea de comandos.
14. Asocie el volumen RAID-0 que se utiliza como subduplicacin secundaria del sistema de archivos raz (/) al volumen RAID-1 y espere a que se produzca la sincronizacin antes de continuar. # /usr/sbin/metattach d10 d12 d10: submirror d12 is attached # Cul es la razn principal por la que se utiliza la lnea de comandos para asociar una subduplicacin secundaria a una duplicacin? La razn principal por la que se utiliza la lnea de comandos para asociar una subduplicacin secundaria a una duplicacin es forzar una resincronizacin de los datos entre la subduplicacin principal y la subduplicacin secundaria. Nota Para ver el estado del proceso de resincronizacin, utilice el comando /usr/sbin/metastat | grep Resync. 15. Utilice el comando metastat para ver el estado de las subduplicaciones del sistema de archivos raz (/). Verifique que todas las subduplicaciones presentan el estado Okay.
# /usr/sbin/metastat d10: Mirror Submirror 0: d11 State: Okay Submirror 1: d12 State: Okay Pass: 1 Read option: roundrobin (default) Write option: parallel (default) Size: 1024128 blocks (500 MB) d11: Submirror of d10 State: Okay Size: 1024128 blocks (500 MB) Stripe 0: Device Start Block Dbase c1d0s0 0 No
9-99
Soluciones del ejercicio: duplicacin del sistema de archivos root (/) en sistemas
d12: Submirror of d10 State: Okay Size: 1060290 blocks (517 MB) Stripe 0: Device Start Block Dbase c2d0s0 0 No
Device Relocation Information: Device Reloc Device ID c2d0 Yes id1,cmdk@AHITACHI_HDS7225SBSUN250G_0619NMKGXK=VDK41GT5EMKGXK c1d0 Yes id1,cmdk@AHITACHI_HDS7225SBSUN250G_0619NM889K=VDK41GT5EM889K #
16. Desasocie la subduplicacin secundaria para convertir la duplicacin del sistema de archivos raz (/) en una duplicacin de una va. # /usr/sbin/metadetach d10 d12 17. Utilice el comando metaroot para volver a definir el dispositivo raz (/) en el archivo /etc/vfstab de manera que emplee el slice del disco original y elimine las instrucciones forceload del archivo /etc/system. # /usr/sbin/metaroot /dev/dsk/c1d0s0 18. Reinicie el sistema. # init 6 19. Utilice el comando metaclear para eliminar la duplicacin y las subduplicaciones, y el comando metastat para verificar que han dejado de existir. # /usr/sbin/metaclear -r d10 d10: Mirror is cleared d11: Concat/Stripe is cleared # /usr/sbin/metaclear d12 d12: Concat/Stripe is cleared # metastat # 20. Suprima todas las rplicas de la base de datos de estado. # # # # /usr/sbin/metadb /usr/sbin/metadb /usr/sbin/metadb /usr/sbin/metadb -d -d -d -d c1d0s4 c1d0s5 c2d0s3 -f c2d0s4
9-100
Mdulo 10
Explicar los fundamentos de RBAC. Describir la interaccin de componentes dentro del modelo RBAC. Administrar RBAC mediante Solaris Management Console (consola de administracin de Solaris). Administrar RBAC desde la lnea de comandos.
10-1
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
Archivo user_attr
/etc/user_attr contiene informacin sobre roles y usuarios que sirve de complemento a la de los archivos /etc/passwd y /etc/shadow. El archivo /etc/user_attr contiene la lista de perfiles de derechos y autorizaciones asociados a los diferentes usuarios y roles. Cuando se crea una cuenta de usuario nueva sin perfiles de derechos, autorizaciones o roles, no se agrega nada al archivo: # useradd -m -d /export/home/chris chris 64 blocks
10-2 Administracin de Sistemas Solaris 10, Parte 2
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
Nociones fundamentales sobre RBAC # grep chris /etc/user_attr # A medida que vayamos explicando las caractersticas de RBAC, iremos mostrando las modificaciones automticas que se van realizando en este archivo.
Roles
Un rol es una forma de identidad, similar a la de la cuenta de usuario, utilizada para ejecutar aplicaciones o comandos con privilegios que slo pueden asumir los usuarios que han recibido el rol. Aunque Solaris 10 no se entrega con roles predefinidos, s puede haber perfiles de derechos o grupos de privilegios predefinidos asociados a los roles. Para definir un rol, basta asignar los perfiles de derechos al rol, como se muestra en la Figura 10-1.
Perfil de derechos derecho derecho Perfil de derechos derecho Usuario Juan Rol Operator derecho
Figura 10-1 Rol con dos perfiles de derechos No es posible iniciar la sesin bajo la identidad de un rol. El rol slo puede utilizarse pasando de la cuenta de usuario al rol con el comando su. El comando roles presenta una lista de los roles asignados a un usuario: # roles root No roles # roles chris No roles Nota Tambin es posible configurar el usuario root como un rol a travs de un procedimiento manual. Esto impide que los usuarios puedan iniciar la sesin directamente como root. Mediante este procedimiento, deben iniciar la sesin bajo su identidad habitual y luego utilizar el comando su para asumir el rol.
10-3
Perfil de derechos derecho derecho Perfil de derechos derecho Usuario Juan derecho
Figura 10-2 Perfil de derechos El sistema operativo Solaris 10 se entrega con numerosos ejemplos de perfiles de derechos. Los nombres y las descripciones de estos derechos se definen en el archivo /etc/security/prof_attr. Es posible crear perfiles nuevos editando este archivo o utilizando Solaris Management Console (SMC). En este ejemplo se muestran algunas lneas del archivo. # cat /etc/security/prof_attr (salida omitida) All:::Execute any command as the user or role:help=RtAll.html Log Management:::Manage log files:help=RtLogMngmnt.html Media Backup:::Backup files and file systems:help=RtMediaBkup.html Media Restore:::Restore files and file systems from backups:help=RtMediaRestore.html (salida omitida) Cada lnea comienza por el nombre del perfil. Los campos intermedios no se utilizan y los dos ltimos campos son un comentario y un puntero a un archivo de ayuda. Los archivos de ayuda estn escritos en lenguaje HTML (Hypertext Markup Language) y pueden personalizarse si es necesario. Estos archivos HTML residen en el directorio /usr/lib/help/auths/locale/C.
10-4
Nociones fundamentales sobre RBAC Los perfiles de derechos asignados a un usuario pueden verse con el comando profiles o mediante la consola de administracin de Solaris. En este ejemplo se muestran los perfiles predeterminados asignados a cada cuenta de usuario nueva: # profiles chris Basic Solaris User All Cada cuenta tiene el perfil de derechos All. Con l, es posible ejecutar cualquier comando pero con atributos de seguridad especiales. Otros perfiles de derechos otorgados a todas las cuentas de usuario nuevas se definen en el archivo /etc/security/policy.conf. El perfil Basic Solaris User est incluido en este archivo: # grep 'PROFS' /etc/security/policy.conf PROFS_GRANTED=Basic Solaris User Los perfiles de derechos pueden asignarse a las cuentas de usuario con el comando usermod o con la consola de administracin de Solaris (SMC). En este ejemplo puede verse cmo se asigna el perfil Printer Management a la cuenta de usuario chris: # usermod -P "Printer Management" chris # profiles chris Printer Management Basic Solaris User All Esto actualiza automticamente el archivo /etc/user_attr, como se ilustra a continuacin: # grep chris /etc/user_attr chris::::type=normal;profiles=Printer Management La nueva lnea del usuario chris muestra la nueva asignacin del perfil. En el archivo se utiliza el signo de dos puntos (:) para separar los campos en cada lnea. El primer campo es el nombre de usuario, tal y como aparece en los archivos /etc/passwd y /etc/shadow. Los campos intermedios estn reservados para uso futuro y el ltimo campo es una lista de pares de valores clave separados por el signo de punto y coma (;) con los que se describen los atributos de seguridad que deben aplicarse cuando el usuario ejecuta los comandos.
10-5
Nociones fundamentales sobre RBAC El contenido de cada perfil de derechos puede examinarse desde la lnea de comandos con la opcin -l del comando profiles o en la consola de administracin de Solaris (SMC). # profiles -l chris Printer Management: /etc/init.d/lp stop /usr/bin/cancel euid=lp, uid=lp /usr/bin/lpset egid=14 /usr/bin/lpstat euid=0 /usr/lib/lp/local/accept uid=lp /usr/lib/lp/local/lpadmin uid=lp, gid=8 /usr/lib/lp/ postscript /usr/sbin/accept euid=lp, uid=lp /usr/sbin/lpadmin egid=14, uid=lp, gid=8 /usr/sbin/lpfilter euid=lp, uid=lp /usr/sbin/lpforms euid=lp /usr/sbin/lpmove euid=lp /usr/sbin/lpshut euid=lp /usr/sbin/lpusers euid=lp /usr/ucb/lpq euid=0 /usr/ucb/lprm euid=0 All: * Es posible ver cada comando del perfil junto con los atributos de seguridad especiales con los que se ejecuta. En este ejemplo se observa cmo el usuario chris tiene la posibilidad de habilitar e inhabilitar una impresora.
10-6
Archivo /etc/security/exec_attr
El archivo /etc/security/exec_attr contiene los atributos de ejecucin. Cada atributo de ejecucin est asociado a un nombre de perfil de derechos. Un atributo de ejecucin puede ser un comando sin opciones o una secuencia de comandos que contiene un comando con opciones. La nica forma de agregar opciones a un comando es usar una secuencia de comandos. Puede usar el carcter de comodn (*). Los comandos deben especificarse con la ruta de acceso completa. Los atributos de seguridad especiales se refieren a atributos como UID, EUID, GID y EGID, que pueden agregarse a un proceso cuando se ejecuta el comando. Slo los usuarios y roles que tienen asignado acceso a este perfil de derechos pueden ejecutar el comando con atributos de seguridad especiales. A continuacin, figuran los comandos y atributos de seguridad especiales correspondientes al perfil Printer Management: # grep 'Printer Management' /etc/security/exec_attr Printer Management:suser:cmd:::/etc/init.d/lp:euid=0;uid=0 Printer Management:suser:cmd:::/usr/bin/cancel:euid=lp;uid=lp Printer Management:suser:cmd:::/usr/bin/lpset:egid=14 Printer Management:suser:cmd:::/usr/bin/lpstat:euid=0 Printer Management:suser:cmd:::/usr/lib/lp/local/accept:uid=lp Printer Management:suser:cmd:::/usr/lib/lp/local/lpadmin:uid=lp;gid=8 Printer Management:suser:cmd:::/usr/lib/lp/lpsched:uid=0 Printer Management:suser:cmd:::/usr/sbin/accept:euid=lp;uid=lp Printer Management:suser:cmd:::/usr/sbin/lpadmin:egid=14;uid=lp;gid=8 Printer Management:suser:cmd:::/usr/sbin/lpfilter:euid=lp;uid=lp Printer Management:suser:cmd:::/usr/sbin/lpforms:euid=lp Printer Management:suser:cmd:::/usr/sbin/lpmove:euid=lp Printer Management:suser:cmd:::/usr/sbin/lpshut:euid=lp Printer Management:suser:cmd:::/usr/sbin/lpusers:euid=lp Printer Management:suser:cmd:::/usr/ucb/lpq:euid=0 Printer Management:suser:cmd:::/usr/ucb/lprm:euid=0
10-7
Perfil de derechos derecho derecho Perfil de derechos derecho Usuario Juan Rol level 1 derecho
Creacin de un rol
El comando roleadd crea la entrada de un rol en los archivos /etc/passwd, /etc/shadow y /etc/user_attr. Entre las opciones ms comunes se incluyen: -c comentario -d dir -m -P perfil Cadena de texto que proporciona una breve descripcin del rol. Indica el directorio de inicio del nuevo rol. Crea el directorio de inicio del nuevo rol, si no existe ya uno. Asigna perfiles de derechos al rol. Utilice comas (,) para separar entre s los perfiles.
# roleadd -m -d /export/home/level1 -c "Asistencia tcnica de nivel 1" \ -P "Printer Management,Media Backup,Media Restore" level1 64 blocks
10-8
Nociones fundamentales sobre RBAC # passwd level1 New Password: level1 Re-enter new Password: level1 passwd: password successfully changed for level1 En este ejemplo, el comando roleadd crea un nuevo rol denominado level1, genera el directorio de inicio y asigna el rol con los perfiles de derechos Printer Management, Media Backup y Media Restore. El rol no puede utilizarse hasta que se le aplica una contrasea. Nota La instalacin de Solaris 10 tiene los perfiles Printer Management, Media Backup y Media Restore ya definidos en los archivos /etc/security/exec_attr y /etc/security/prof_attr. Los cambios en los archivos /etc/passwd, /etc/shadow y /etc/user_attr se muestran a continuacin: # grep level1 /etc/passwd level1:x:102:1:Level One Support:/export/home/level1:/bin/pfsh # grep level1 /etc/shadow level1:CUs8aQ64vTrZ.:12713:::::: # grep level1 /etc/user_attr level1::::type=role;profiles=Printer Management,Media Backup,Media Restore Esta cuenta es del tipo rol (type=role) e incluye los perfiles de derechos Printer Management, Media Backup y Media Restore.
Modificacin de un rol
Para modificar la informacin de acceso de un rol en un sistema, se utiliza el comando rolemod. El comando rolemod cambia la definicin del rol especificado y efecta los cambios correspondientes en los datos de inicio de sesin del archivo del sistema y el sistema de archivos. Los campos del comando rolemod son: -e caducidad Indica la fecha de caducidad del rol.
10-9
Nociones fundamentales sobre RBAC -P perfil Indica uno o varios perfiles de derechos separados por comas, tal y como estn definidos en el archivo /etc/security/prof_attr. Indica la ruta de acceso completa del programa que se utiliza como shell del rol cuando se inicia la sesin. Estos shells son versiones especiales de los shells de Bourne (sh), C (csh) y Korn (ksh).
-s shell
En este ejemplo se modifican los perfiles de derechos del rol. # rolemod -P pefil1,perfil2 -s /usr/bin/pfksh level1 En el ejemplo, el comando rolemod asigna los perfiles perfil1 y perfil2, junto con el shell de perfil /usr/bin/pfksh, al rol denominado level1.
10-10
10-11
10-12
Autorizaciones
Autorizaciones
Las autorizaciones otorgan acceso a funciones restringidas en aplicaciones conformes con RBAC. Algunas aplicaciones y comandos de Solaris 10 se escriben de forma que comprueben las autorizaciones del usuario que trata de ejecutarlos. Usted no puede crear autorizaciones nuevas, pero puede crear y asignar autorizaciones para nuevas aplicaciones. Las autorizaciones predefinidas figuran en el archivo de configuracin de atributos de autorizacin denominado /etc/security/auth_attr.
# cat /etc/security/auth_attr (salida omitida) solaris.jobs.:::Job Scheduler::help=JobHeader.html solaris.jobs.admin:::Manage All Jobs::help=AuthJobsAdmin.html solaris.jobs.grant:::Delegate Cron & At Administration::help=JobsGrant.html solaris.jobs.user:::Manage Owned Jobs::help=AuthJobsUser.html (salida omitida)
Este archivo permite identificar, mediante una cadena exclusiva, qu autorizacin se est otorgando. Por ejemplo, el comando crontab exige que un usuario posea la autorizacin solaris.jobs.admin para poder editar el archivo crontab de otro usuario. Es posible establecer una jerarqua de autorizaciones. En la Tabla 10-1 se indica la forma de hacerlo. Tabla 10-1 Relaciones de los roles y las autorizaciones Autorizacin solaris.admin.usermgr.read Accin Proporciona acceso de lectura pero no de escritura a los archivos de configuracin de los usuarios. Proporciona acceso de lectura y escritura a los archivos de configuracin de los usuarios. No permite cambiar las contraseas. Proporciona acceso de lectura, escritura y cambio de contraseas a los archivos de configuracin de los usuarios.
solaris.admin.usermgr.read solaris.admin.usermgr.write
Atencin Las autorizaciones que terminan con el sufijo grant permiten al usuario delegar en otros usuarios las autorizaciones asignadas que empiecen con su mismo prefijo.
10-13
Autorizaciones Por ejemplo, un rol con las autorizaciones: solaris.admin.usermgr.grant solaris.admin.usermgr.read Puede delegar la autorizacin solaris.admin.usermgr.read en otro usuario. Un rol con las autorizaciones: solaris.admin.usermgr.grant solaris.admin.usermgr.* Puede delegar en otros usuarios cualquiera de las autorizaciones que tengan el prefijo solaris.admin.usermgr.
Autorizaciones predeterminadas
Todos los usuarios tienen asignado el perfil Basic Solaris User de forma predeterminada. # profiles chris Printer Management Basic Solaris User All El perfil Basic Solaris User otorga a los usuarios acceso a todas las autorizaciones de la lista. El campo profiles=All otorga acceso sin restricciones a todos los comandos de Solaris que no estn sujetos a restricciones por la definicin de una autorizacin previa en la lista. # grep Basic Solaris User /etc/security/prof_attr Basic Solaris User:::Automatically assigned rights: auths=solaris.profmgr.read,solaris.jobs.users,solaris.mail.m ailq, solaris.admin.usermgr.read,solaris.admin.logsvc.read, solaris.admin.fsmgr.read,solaris.admin.serialmgr.read, solaris.admin.diskmgr.read,solaris.admin.procmgr.user, solaris.compsys.read,solaris.admin.printer.read, solaris.admin.prodreg.read,solaris.admin.dcmgr.read, solaris.snmp.read,solaris.project.read,solaris.admin.patchmg r.read, solaris.network.hosts.read,solaris.admin.volmgr.read;profile s=All; help=RtDefault.html Es posible definir otras autorizaciones predeterminadas para cada usuario en el archivo /etc/security/policy.conf: # grep 'AUTHS' /etc/security/policy.conf AUTHS_GRANTED=solaris.device.cdrw
10-14
Autorizaciones Esta autorizacin se encuentra en el archivo /etc/security/policy.conf predeterminado que se instala con Solaris 10.
Asignacin de autorizaciones
Es posible asignar autorizaciones a las cuentas de usuario. Tambin pueden asignarse a los roles o incorporarse a un perfil de derechos que luego puede asignarse a un usuario o un rol. En la Figura 10-4 se muestran las permutaciones posibles de la asignacin de autorizaciones.
Autorizacin
Usuario Juan
Autorizacin
Usuario Juan
Rol Operator
10-15
Autorizaciones
10-16
Autorizaciones Con esta autorizacin, el usuario puede ver o modificar los archivos crontab de otro usuario: # su - chris Sun Microsystems Inc. SunOS 5.10 s10_68 Sep. 20, 2004 $ crontab -l root #ident "@(#)root 1.21 04/03/23 SMI" # # The root crontab should be used to perform accounting data collection. # # (salida omitida) $ exit
# profiles level2 Mail Management Basic Solaris User All # auths level2 solaris.admin.usermgr.* (salida omitida)
10-17
Autorizaciones
10-18
Archivo /etc/user_attr
En la Figura 10-6 puede verse cmo estn asociados los roles y usuarios dentro del archivo.
10-19
Resumen de los archivos de configuracin de RBAC En la Figura 10-7 se muestra una parte del archivo /etc/user_attr. El usuario johndoe es una cuenta de usuario normal. Este usuario ha recibido el role sysadmin. El rol sysadmin es una cuenta role. Al asumir el rol sysadmin, johndoe tiene acceso a perfiles de derechos especficos, los definidos como Device Management, Filesystem Management y Printer Management.
Archivo /etc/security/prof_attr
El archivo /etc/security/prof_attr contiene los perfiles de derechos, como se muestra en la Figura 10-8.
10-20
Resumen de los archivos de configuracin de RBAC En el ejemplo siguiente, el perfil de derechos Printer Management es un perfil suplementario que se asigna a los perfiles de derechos Operator y System Administrator. # grep 'Printer Management' /etc/security/prof_attr Operator:::Can perform simple administrative tasks:profiles=Printer Management,Media Backup,All;help=RtOperator.html Printer Management:::Manage printers, daemons, spooling:help=RtPrntAdmin.html;auths=solaris.admin.printer.read,solaris.a dmin.printer.modify,solaris.admin.printer.delete System Administrator:::Can perform most non-security administrative tasks:profiles=Audit Review,Printer Management,Cron Management,Device Management,File System Management,Mail Management,Maintenance and Repair,Media Backup,Media Restore,Name Service Management,Network Management,Object Access Management,Process Management,Software Installation,User Management,All;help=RtSysAdmin.html La Figura 10-9 muestra una relacin entre los archivos /etc/security/prof_attr y /etc/user_attr. El perfil Printer Management, que est definido en el archivo /etc/security/prof_attr, se encuentra asignado al rol sysadmin en el archivo /etc/user_attr.
From the /etc/security/prof_attr database:
root::::type=normal;auth=solaris.*,solaris.grant sysadmin::::type=role;profile=Device Management,Printer Management ... Figura 10-9 Asociacin entre usuarios y perfiles
10-21
Resumen de los archivos de configuracin de RBAC En la Figura 10-10 se muestra la relacin entre los archivos /etc/security/prof_attr y /etc/security/auth_attr. El perfil Printer Management est definido en el archivo /etc/security/prof_attr, donde tiene asignadas todas la autorizaciones, empezando por la correspondiente a la cadena solaris.admin.printer. A su vez, estas autorizaciones estn definidas en el archivo /etc/security/auth_attr.
From the /etc/security/prof_attr database:
solaris.admin.printer.modify:::Update Printer Information:: \ help=AuthPrinterModify.html solaris.admin.printer.delete:::Delete Printer Information:: \ help=AuthPrinterDelete.html solaris.admin.printer.:::Printer Information::help=AuthPrinterHeader.html solaris.admin.printer.read:::View Printer Information:: \ help=AuthPrinterRead.html
Figura 10-10 Asociacin entre perfiles y autorizaciones
Archivo /etc/security/exec_attr
En la Figura 10-11 puede verse el archivo /etc/security/exec_attr.
10-22
Resumen de los archivos de configuracin de RBAC En la Figura 10-12 se muestra la relacin entre los archivos /etc/security/exec_attr y /etc/security/prof_attr.
From the /etc/security/prof_attr database:
Printer Printer Printer Printer Printer Printer Printer Printer Printer Printer Printer Printer Printer Printer Printer Printer Printer Printer
Management:suser:cmd:::/usr/sbin/accept:euid=lp Management:suser:cmd:::/usr/ucb/lpq:euid=0 Management:suser:cmd:::/etc/init.d/lp:euid=0 Management:suser:cmd:::/usr/bin/lpstat:euid=0 Management:suser:cmd:::/usr/lib/lp/lpsched:uid=0 Management:suser:cmd:::/usr/sbin/lpfilter:euid=lp Management:suser:cmd:::/usr/bin/lpset:egid=14 Management:suser:cmd:::/usr/sbin/lpadmin:egid=14 Management:suser:cmd:::/usr/sbin/lpsystem:uid=0 Management:suser:cmd:::/usr/sbin/lpmove:euid=lp Management:suser:cmd:::/usr/sbin/lpshut:euid=lp Management:suser:cmd:::/usr/bin/cancel:euid=0 Management:suser:cmd:::/usr/bin/disable:euid=lp Management:suser:cmd:::/usr/sbin/lpforms:euid=lp Management:suser:cmd:::/usr/sbin/reject:euid=lp Management:suser:cmd:::/usr/ucb/lprm:euid=0 Management:suser:cmd:::/usr/bin/enable:euid=lp Management:suser:cmd:::/usr/sbin/lpusers:euid=lp
Figura 10-12 Asociacin entre perfiles y atributos de ejecucin El perfil de derechos Printer Management contiene una lista de comandos con los atributos de seguridad apropiados asignados en el archivo /etc/security/exec_attr.
10-23
Archivo /etc/security/auth_attr
En la Figura 10-13 puede verse el archivo /etc/security/auth_attr.
Figura 10-13 Archivo auth_attr A continuacin figura un ejemplo del archivo /etc/security/auth_attr con algunos valores habituales: solaris.*:::Primary Administrator::help=PriAdmin.html solaris.grant:::Grant All Rights::help=PriAdmin.html ... solaris.device.:::Device Allocation::help=DevAllocHeader.html solaris.device.allocate:::Allocate Device::help=DevAllocate.html solaris.device.config:::Configure Device Attributes::help=DevConfig.html solaris.device.grant:::Delegate Device Administration::help=DevGrant.html solaris.device.revoke:::Revoke or Reclaim Device::help=DevRevoke.html Nota La entrada solaris.device. est definida como una cabecera porque finaliza con un punto (.). La interfaz grfica utiliza las cabeceras para organizar familias de autorizaciones.
10-24
Resumen de los archivos de configuracin de RBAC En la Figura 10-14 se muestra la relacin entre los archivos /etc/security/auth_attr y /etc/user_attr. La autorizacin solaris.system.date, que est definida en el archivo /etc/security/auth_attr, est asignada al usuario johndoe en el archivo /etc/user_attr.
From the /etc/security/auth_attr database:
johndoe::::type=normal;auths=solaris.system.date;roles=sysadmin
Figura 10-14 Asociacin entre usuarios, roles y autorizaciones En la Figura 10-15 puede verse cmo se relacionan entre s los campos de los cuatro archivos.
From the /etc/security/auth_attr database:
10-25
Nota El Paso 1 no es necesario si se van a asignar esos perfiles y roles a usuarios ya existentes. 2. 3. Cree los perfiles de derechos necesarios para responder a los requisitos del acceso basado en privilegios. Cree el rol que proporcionar acceso a los perfiles de derechos correspondientes a los usuarios designados.
10-26
Administracin de RBAC con Solaris Management Console En el ejemplo siguiente, se otorga a un usuario comn derechos administrativos sobre comandos de administracin de paquetes para los que se precisa acceso de superusuario: En la Figura 10-16 se observa cmo el acceso a las funciones de RBAC empieza con Solaris Management Console.
Figura 10-16 Solaris Management Console: ventana de usuarios Para acceder a las funciones de RBAC, realice estos pasos: 1. 2. 3. 4. Seleccione Management Tools (herramientas de administracin). Haga clic en This Computer (este PC). Seleccione System Configuration (configuracin del sistema). Haga doble clic en el icono Users (usuarios).
10-27
Administracin de RBAC con Solaris Management Console 5. Inicie la sesin como usuario root, tal y como se muestra en la ventana Log In: User Name.
Figura 10-17 Ventana Log In: User Name Mediante este tipo de acceso, dispondr de los permisos necesarios para configurar usuarios, trabajar con los servicios de nombres y asignar perfiles de derechos y roles a otros usuarios. Nota Una vez que los otros usuarios hayan recibido los permisos de acceso necesarios, podr acceder con esos nombres de usuario en sucesivas sesiones.
10-28
Administracin de RBAC con Solaris Management Console Tras iniciar la sesin, el panel de visualizacin muestra una serie de herramientas utilizadas para realizar las tareas de administracin de usuarios tradicionales y las tareas de RBAC, como puede verse en la Figura 10-18.
Figura 10-18 Solaris Management Console: ventana de herramientas de administracin de usuarios En la Tabla 10-2 se definen las herramientas de administracin de usuarios. Tabla 10-2 Herramientas de administracin de usuarios Nombre User Accounts (cuentas de usuarios) User Templates (plantillas de usuario) Rights (perfiles de derechos) Descripcin Permite agregar o modificar cuentas de usuarios de diversas formas: individualmente, en grupos o a partir de una plantilla. Se usa para crear plantillas. Si necesita crear varios usuarios con atributos parecidos, puede crear primero una plantilla para ese tipo de usuarios. Se utiliza para designar un conjunto de derechos que incluya tres componentes: comandos, autorizaciones y otros perfiles de derechos creados con anterioridad.
10-29
Administracin de RBAC con Solaris Management Console Tabla 10-2 Herramientas de administracin de usuarios (Continuacin) Nombre Administrative Roles (roles administrativos) Descripcin Permite configurar una cuenta de rol con un conjunto de derechos de administracin concretos. Debe utilizar el comando su para acceder a los roles, ya que no es posible abrir una sesin con la identidad de un rol. Se utiliza para administrar el acceso a los grupos. Permite agregar una lista de correo nueva. Tambin puede usar esta herramienta para ver, agregar o borrar destinatarios de una lista de correo existente.
6.
Haga doble clic en el icono User Accounts para elegir las funciones de cuentas de usuario. El panel de visualizacin mostrar los usuarios existentes, tal y como se ilustra en la Figura 10-19.
10-30
10-31
Administracin de RBAC con Solaris Management Console 2. Seleccione la opcin With Wizard (con asistente) del submen Add User.
Nota El asistente de adicin de usuarios funciona igual que el comando useradd y herramientas grficas anteriores tales como AdminTool. Se abre la primera ventana del asistente, Add User Wizard: Step 1, como se ilustra en la Figura 10-21.
Figura 10-21 Ventana Add User Wizard: Step 1 3. Introduzca la informacin siguiente: User Name (nombre del usuario) Full Name (nombre completo) Description (descripcin) Nombre de acceso que utilizar esta cuenta de usuario. Introduzca user1 como nombre de usuario. Cadena descriptiva con la que se identifica al propietario de la cuenta. Introduzca RBAC user1 como nombre completo. Es un campo similar al del nombre completo. Se utiliza para identificar mejor al propietario de la cuenta. Con esta entrada se rellena el campo gecos del archivo /etc/passwd. Especifique Added user for RBAC como descripcin.
10-32
Administracin de RBAC con Solaris Management Console 4. Haga clic en Next (siguiente) para continuar. El nmero de ID de usuario (UID) es el nmero con el que se identifica de forma exclusiva a ese usuario en el sistema. El nmero que aparece es el siguiente UID disponible para ese sistema. Si es posible acceder a esa cuenta de usuario en diferentes sistemas independientes, el UID debera ser igual en todos para evitar problemas en cuanto a la propiedad de los archivos entre esos sistemas. 5. Acepte el ID de usuario predeterminado, tal y como aparece en la segunda ventana del asistente, Add User Wizard: Step 2, que se muestra en la Figura 10-22.
10-33
Administracin de RBAC con Solaris Management Console 6. Haga clic en Next para continuar. En la ventana Add User Wizard: Step 3 hay dos opciones relativas a las contraseas, como puede verse en la Figura 10-23. Con la primera opcin, se solicita al nuevo usuario que establezca la contrasea al iniciar la sesin por primera vez. Como alternativa, la segunda opcin le permite asignar la contrasea de la cuenta de forma inmediata.
Figura 10-23 Ventana Add User Wizard: Step 3 7. Pulse Intro y confirme 123pass como contrasea, tal y como se indica en la Figura 10-23.
10-34
Administracin de RBAC con Solaris Management Console 8. Haga clic en Next para continuar. La pertenencia a un grupo permite a este usuario compartir los permisos de acceso con otros usuarios del mismo grupo, como se muestra en la ventana Add User Wizard: Step 4 de la Figura 10-24. Despus de crear la cuenta, puede agregar el usuario a otros grupos adicionales con caractersticas comunes. Cada usuario puede pertenecer a 15 grupos adicionales, conocidos tambin como grupos secundarios. 9. Cuando deba elegir el grupo principal al que pertenecer el nuevo usuario, acepte la asignacin de grupo predeterminada, tal y como se muestra en la Figura 10-24.
10-35
Administracin de RBAC con Solaris Management Console 10. Haga clic en Next para continuar. La ruta de acceso del directorio de inicio indica dnde se almacenan los archivos personales del usuario, como puede verse en la ventana Add User Wizard: Step 5 de la Figura 10-25. Cuando se crea la cuenta, el nuevo nombre de usuario se agrega a la ruta de acceso del directorio de inicio definido en este campo. Por ejemplo, si este usuario se denomina user1, el directorio de inicio pasa a llamarse /export/home/user1.
Figura 10-25 Ventana Add User Wizard: Step 5 11. Especifique el nombre del directorio en el que se crear el directorio de inicio del usuario (/export/home) como se muestra en la Figura 10-25.
10-36
Administracin de RBAC con Solaris Management Console 12. Haga clic en Next para continuar. Al crear una cuenta de usuario nueva, es habitual crear tambin una cuenta de correo, tal como se observa en la ventana Add User Wizard: Step 6 de la Figura 10-26. Para hacerlo, proporciona al usuario un archivo en el servidor de correo que acta como buzn de correo (tambin conocido como buzn de entrada) en el que se almacenan todos los mensajes que reciba.
10-37
Administracin de RBAC con Solaris Management Console 13. Haga clic en Next para aceptar los valores predeterminados, como se muestra en la Figura 10-26. 14. Revise cada campo para comprobar si se ha producido algn error, como se muestra en la ventana Add User Wizard: Step 7 de la Figura 10-27. Si detecta algn error, retroceda hasta la pgina adecuada para corregirlo y vuelva a avanzar hasta la ventana de confirmacin (Review).
10-38
Administracin de RBAC con Solaris Management Console 15. Cuando considere que los valores de los campos son correctos, haga clic en Finish (finalizar) para terminar de crear la cuenta. Al concluir con la operacin, vuelve a aparecer la ventana de Solaris Management Console con la cuenta recin creada, como puede verse en la Figura 10-28.
Figura 10-28 Solaris Management Console: ventana de cuentas de usuario Para comprobar la cuenta de usuario, lleve a cabo los pasos siguientes: 1. Inicie la sesin con el nombre de usuario que acaba de crear.
# telnet sys44 Trying 127.0.0.1... Connected to sys44. Escape character is ^]. login: user1 Password: Sun Microsystems Inc. SunOS 5.10 s10_68
10-39
Administracin de RBAC con Solaris Management Console 2. $ who root root user1 Ejecute unos cuantos comandos para comprobar si la cuenta funciona tal y como se ha creado.
console Oct 22 13:45 (:0) pts/4 Oct 22 09:29 (:0.0) pts/5 Oct 22 14:32 (sys44)
.profile
Ahora que ha verificado el funcionamiento de los comandos bsicos de Solaris con la nueva cuenta de usuario, pruebe a usarla para ejecutar comandos ms especializados. Utilice los comandos pkginfo (informacin de paquetes) y pkgrm (supresin de paquetes). En estos ejemplos se utiliza el paquete SUNWpppg.
$ pkginfo -l PKGINST: NAME: CATEGORY: ARCH: VERSION: BASEDIR: VENDOR: DESC: PSTAMP: INSTDATE: HOTLINE: STATUS: FILES:
SUNWman SUNWpppg GNU utilities for PPP system sparc 11.10.0,REV=2004.09.20.13.52 / Sun Microsystems, Inc. Optional GNU utilities for use with PPP gaget20040920135926 Oct 15 2004 18:15 Please contact your local service provider completely installed 12 installed pathnames 8 shared pathnames 8 directorios 3 executables 190 blocks used (approx)
10-40
Administracin de RBAC con Solaris Management Console Nota El comando pkginfo est almacenado en el directorio /usr/bin, que se incluye en la variable PATH predeterminada de las cuentas de usuario comunes. pkgrm se guarda en el directorio /usr/sbin, que no se encuentra en la variable PATH predeterminada de las cuentas de usuario comunes. Puede modificar la variable PATH para que incluya la ruta de acceso del comando o puede introducir la ruta de acceso absoluta en la lnea de comandos. $ /usr/sbin/pkgrm SUNWpppg pkgrm ERROR: You must be "root" for pkgrm to execute properly. $ La cuenta user1 puede ejecutar el comando pkginfo porque no se precisan privilegios especiales para obtener informacin sobre los paquetes instalados. Por el contrario, la supresin de paquetes de software exige tener permisos de usuario root, lo que significa que debe proporcionar al usuario user1 acceso de superusuario o darle acceso a una cuenta de rol restringida que disponga de esos derechos concretos. Primero deber crear el conjunto de derechos necesarios y luego crear un rol al que asignar esos derechos.
Los grupos de tareas predeterminados se adaptan a su organizacin de TI, en cuyo caso puede pasar directamente a crear roles para que sus usuarios los adopten cuando sea necesario llevar esas tareas a cabo. Es preciso crear otros conjuntos de tareas para subdividir los grupos predeterminados. En este caso, deber crear perfiles de derechos nuevos antes de crear los roles.
En el ejemplo anterior, user1 necesitaba permisos para acceder al conjunto de comandos de administracin de paquetes. Puede crear un perfil de derechos denominado Administracin de paquetes y agregarlo a los perfiles predeterminados suministrados con Solaris 10.
10-41
Administracin de RBAC con Solaris Management Console Para agregar o crear un perfil de derechos, lleve a cabo los pasos siguientes: 1. Haga doble clic en la opcin Rights (derechos) del panel de navegacin. El panel de visualizacin de la consola de administracin de Solaris (SMC) presenta algunas categoras de los grupos de tareas de administracin de sistemas, como se muestra en la ventana Rights que se ilustra en la Figura 10-29.
10-42
Administracin de RBAC con Solaris Management Console 2. Seleccione la opcin Add Right (agregar derecho) en el men Action, como se indica en la Figura 10-30.
10-43
Administracin de RBAC con Solaris Management Console Aparece la ventana Add Right con la ficha General abierta. Como puede verse en la Figura 10-31, la ventana contiene cuatro fichas. En cada una de ellas se configuran uno o varios aspectos de un perfil de derechos.
Figura 10-31 Ventana Add Right: ficha General 3. Seleccione la ficha General y rellene los campos de la forma siguiente: Name (nombre) Nombre con el que se identifica el perfil de derechos en la ventana de derechos. Se corresponde con el nombre especificado en la entrada de la base de datos /etc/security/prof_attr. Esta descripcin tambin est incluida en el archivo /etc/security/prof_attr a modo de definicin del perfil. Se trata de un campo obligatorio. Seala a un archivo HTML del directorio /usr/lib/help/profiles/locale/C. Puede copiar y editar un archivo existente para cumplir con este requisito.
10-44
Administracin de RBAC con Solaris Management Console Nota Debera crear el archivo de ayuda antes de hacer referencia a l en esta ventana. 4. Seleccione la ficha Commands (comandos), como se muestra en la Figura 10-32, y elija los comandos que se incluirn en el perfil de derechos de la manera siguiente:
Figura 10-32 Ventana Add Right: ficha Commands a. Por cada comando que quiera poder ejecutar mediante el perfil, seleccinelo y haga clic en Add (agregar). El comando se trasladar a la lista Commands Permitted (comandos permitidos). b. Haga clic en Set Security Attributes (configurar atributos de seguridad).
10-45
Administracin de RBAC con Solaris Management Console Se abre la ventana de configuracin de atributos de seguridad, como se muestra en la Figura 10-33. Esta ventana tambin aparece al hacer doble clic en cualquier comando de la lista Permitted Commands.
Figura 10-33 Ventana Set Security Attributes c. Defina los atributos de seguridad por cada comando permitido. Debe asignar los permisos de UID, EUID, GID y EGID.
Nota Las pginas del comando man no siempre indican los permisos de ejecucin necesarios. No obstante, el archivo /etc/security/exec_attr es una buena fuente de referencia para conocer los permisos de ejecucin adecuados para la mayora de los comandos. 5. Busque el comando pkgrm en el archivo /etc/security/exec_attr y configure el atributo de propiedad de la forma adecuada.
10-46
Administracin de RBAC con Solaris Management Console 6. Haga clic en OK para continuar. El panel de visualizacin de la consola de administracin de Solaris se actualiza para incluir el perfil Package Administrator, como se muestra en la Figura 10-34.
Figura 10-34 Solaris Management Console: ventana de derechos 7. Si necesita efectuar alguna modificacin en este perfil de derechos, haga doble clic en la entrada Package Administrator recin creada para volver a las ventanas de creacin de derechos. Una vez creado el perfil, puede asignarse a un usuario o a un rol existente. Nota Para poder ejecutar los comandos incluidos en un perfil de derechos asignado, el usuario debe estar ejecutando un shell de perfil.
10-47
Figura 10-35 Solaris Management Console: ventana de roles administrativos Nota Solaris 10 no tiene ningn rol definido en la configuracin predeterminada.
10-48
Administracin de RBAC con Solaris Management Console 2. Para crear un rol, seleccione Add Administrative Role (agregar rol administrativo) en el men Action como se muestra en la Figura 10-36.
10-49
Administracin de RBAC con Solaris Management Console Aparece la ventana Add Administrative Role: Step 1, tal y como se muestra en la Figura 10-37.
Figura 10-37 Ventana Add Administrative Role: Step 1 3. Rellene los campos de la Ventana Add Administrative Role: Step 1 como sigue: Role Name (nombre del rol) Es el nombre que utilizar para asumir un rol especfico con el comando su. Este nombre se corresponde con las entradas de los archivos /etc/passwd y /etc/shadow, y la base de datos /etc/user_attr. Es una entrada opcional. Si la utiliza, debe ser un valor exclusivo de este rol. Este campo debe explicar con claridad la finalidad del rol. Con esta entrada se rellena el campo gcos del archivo /etc/passwd. Al igual que el UID de las cuentas de usuario, este nmero permite al sistema identificar el rol de forma exclusiva. Estos shells permiten al comando pfexec ejecutar los comandos especificados con atributos de proceso predefinidos tales como los ID de usuarios o grupos concretos.
Full Name (nombre completo) Description (descripcin) Role ID Number (nmero de ID del rol) Role Shell (shell del rol)
10-50
Administracin de RBAC con Solaris Management Console 4. Haga clic en Next para continuar. Se abre la ventana Add Administrative Role: Step 2, como se ilustra en la Figura 10-38.
Figura 10-38 Ventana Add Administrative Role: Step 2 Las contraseas de los roles siguen las mismas reglas que las de las cuentas de usuario comunes. La contrasea debe tener entre 6 y 15 caracteres (letras con distincin entre maysculas y minsculas, nmeros o caracteres especiales). Slo se utilizan los 6 primeros caracteres para la autenticacin, pero se habilitan 15 para aquellos usuarios que quieran disponer de contraseas ms largas. 5. 6. Introduzca la contrasea y confrmela. Haga clic en Next para continuar.
10-51
Administracin de RBAC con Solaris Management Console 7. Para crear los derechos administrativos correspondientes al rol, haga clic en el perfil Package Administrator de la columna izquierda, como se muestra en la ventana Add Administrative Role: Step 3 de la Figura 10-39.
Figura 10-39 Ventana Add Administrative Role: Step 3 8. Haga clic en Add (agregar). Los derechos se agregan a la columna Granted Rights (derechos otorgados) de la derecha. Nota El texto de ayuda disponible en esta ventana se extrae de los archivos de ayuda indicados en la ventana Right Properties: Package Administration.
10-52
Administracin de RBAC con Solaris Management Console 9. Haga clic en Next para continuar. Como puede verse en la Figura 10-40, la ventana Add Administrative Role: Step 4 permite definir el servidor y el directorio donde se ubicar el directorio de inicio del rol administrativo.
10-53
Administracin de RBAC con Solaris Management Console 10. Haga clic en Next para aceptar los valores predeterminados, que crean un directorio de inicio basado en el nombre del rol. En la ventana Add Administrative Role: Step 5, Figura 10-41, puede proporcionar acceso al rol para una serie de usuarios. Esos usuarios son los que podrn asumir el rol utilizando el comando su.
Figura 10-41 Ventana Add Administrative Role: asignacin de usuarios 11. Lleve a cabo uno de los pasos siguientes:
Para agregar un usuario, introduzca un nombre de usuario vlido y haga clic en Add. Para borrar un usuario, haga clic en el nombre de usuario que aparece en el campo inferior y haga clic en Delete (suprimir).
10-54
Administracin de RBAC con Solaris Management Console 13. Examine los valores de los campos en la ventana Add Administrative Role de revisin para ver si hay algn error. Si detecta algn error, retroceda hasta la ventana adecuada para corregirlo y vuelva a avanzar hasta la ventana de confirmacin, como se ilustra en la Figura 10-42.
10-55
Administracin de RBAC con Solaris Management Console 14. Cuando considere que los valores de los campos son correctos, haga clic en Finish (finalizar) para terminar de crear la cuenta de rol. El nuevo rol aparece en el panel de visualizacin de la consola de administracin de Solaris, como se muestra en la Figura 10-43. Es posible introducir modificaciones en el rol haciendo doble clic en la entrada del rol y pasando por las sucesivas ventanas para efectuar los cambios apropiados.
Figura 10-43 Solaris Management Console: ventana de roles administrativos Para comprobar el rol, lleve a cabo los pasos siguientes: 1. Inicie la sesin como user1. # telnet sys44 Trying 127.0.0.1... Connected to sys44. Escape character is ^]. acceso user1 Contrasea: Sun Microsystems Inc. SunOS 5.10 s10_68 2. $ who root root user1
console Oct 28 13:45 (:0) pts/6 Oct 2214:49 (:0.0) pts/7 Oct 2215:47 (sys44)
10-56
Administracin de RBAC con Solaris Management Console $ id uid=4001(user1) gid=10(staff) $ ls $ ls -a . .. .cshrc .login 3.
.profile
$ /usr/sbin/pkgrm SUNWpppg pkgrm ERROR: You must be "root" for pkgrm to execute properly. 4. La supresin de paquetes de software exige tener permisos de usuario root. Tendr que dar a user1 acceso a la cuenta de rol pkguser que contiene esos derechos concretos.
$ su - pkguser Password: 5. Compruebe si ha cambiado a la cuenta de rol. $ /usr/ucb/whoami pkguser $ id uid=5001(pkguser) gid=14(sysadmin) $ echo $SHELL /bin/ksh $ 6. Ejecute el comando pkgrm utilizando la cuenta de rol pkguser. $ /usr/sbin/pkgrm SUNWpppg The following package is currently installed: SUNWpppg GNU utilities for PPP (sparc) 11.9.0,REV=2002.02.12.18.33 Do you want to remove this package? [y,n,?,q] y ## Removing installed package instance <SUNWpppg> ## Verifying package dependencies. ## Processing package information. ## Removing pathnames in class <none> /usr/share/man/man1m <shared pathname not removed> /usr/share/man <shared pathname not removed> /usr/share <shared pathname not removed> /usr/lib/inet/ppp/passprompt.so /usr/lib/inet/ppp/minconn.so /usr/lib/inet/ppp <shared pathname not removed> /usr/lib/inet <shared pathname not removed>
10-57
Administracin de RBAC con Solaris Management Console /usr/lib <shared pathname not removed> /usr/bin /usr/bin <shared pathname not removed> /usr <shared pathname not removed> ## Updating system information. Removal of <SUNWpppg> was successful. $ Nota Una ltima prueba para verificar el acceso de la cuenta de rol es tratar de ejecutar un comando para el que se necesitan privilegios que el rol no posee. 7. Ejecute el comando date.
$ date Fri Oct 22 16:02:57 BST 2004 8. Cambie la hora del sistema con el comando date. $ date Fri Oct 22 16:02:57 BST 2004 $ date 10221600 date: Not owner usage: date [-u] mmddHHMM[[cc]yy][.SS] date [-u] [+format] date -a [-]sss[.fff] En resumen, ha creado una cuenta de usuario comn denominada user1. Esta cuenta tiene derechos para ejecutar comandos de los usuarios comunes. Sin embargo, cuando es necesario suprimir paquetes de software, algo que requiere derechos de acceso de root, el usuario user1 debe cambiar a un rol que tenga asignado el perfil de ejecucin adecuado. Al asumir el rol de pkguser y utilizar el perfil de derechos Package Administrator, user1 adquiere los derechos necesarios para suprimir paquetes de software. Pero es el rol el que posee los derechos para suprimir los paquetes. El rol pkguser no est configurado con acceso de superusuario. Por tanto, cuando trata de cambiar la fecha del sistema con este rol, no lo consigue. La imposibilidad de acceder a todos los comandos de superusuario demuestra la ventaja de utilizar RBAC en lugar de proporcionar este derecho mediante acceso de superusuario. De este modo, puede configurar el acceso de cada administrador de forma que realice nicamente las tareas necesarias para su trabajo y el acceso a otras tareas siga estando protegido.
10-58
Preparacin
En algunos pasos de este ejercicio se le pide que ejecute comandos que no funcionan para demostrar la forma en que los usuarios que tienen una sesin abierta deben utilizar RBAC. Asegrese de que exista el directorio /export/home y de que todos los usuarios puedan escribir en l. Si este directorio no existe, crelo y cambie su modo de permisos a 777. Repase la forma de usar los comandos auths, profiles y roles de RBAC para determinar los privilegios de los usuarios.
Tareas
En la seccin siguiente se describen las tareas que debe realizar.
10-59
Ejercicio: configuracin de RBAC 6. 7. 8. 9. Compruebe los atributos de los roles correspondientes a user9. Asigne el comando shutdown al perfil Shut. Utilice el comando su para cambiar la identidad del usuario por la de user9. Trate de cerrar el sistema como user9 sin asumir el nuevo rol. Cul es el resultado del intento y por qu? ____________________________________________________________ ____________________________________________________________ 10. Ejecute el comando profiles para determinar qu perfiles de RBAC tiene asociados el usuario user9. 11. Ejecute el comando roles para averiguar qu roles de RBAC tiene asociados user9. 12. Asuma el rol sdown. 13. Cierre el sistema con el comando init. Cul es el resultado del intento y por qu? ____________________________________________________________ ____________________________________________________________ 14. Abra la lista de comandos que puede ejecutar el perfil sdown. 15. Cierre el sistema con el comando shutdown. Nota Responda n al mensaje que presenta el comando shutdown para impedir que se cierre el sistema. Cul es el resultado del intento y por qu? ____________________________________________________________ ____________________________________________________________ 16. Salga del rol sdown. 17. Salga del shell de user9.
10-60
Nombre: user11 Nombre completo: cuenta user11 ID de usuario: acepte el valor predeterminado. Contrasea: establzcala como user11. Grupo principal: utilice el valor predeterminado. Directorio de inicio: /export/home/user11 (introduzca /export/home en el campo Path). Buzn de correo: /var/mail/user11 (en este sistema)
2. 3.
Confirme los atributos de la cuenta haciendo doble clic en la entrada user11 y recorriendo las fichas de atributos. Desde la lnea de comandos, compruebe la entrada de user11 en el archivo /etc/passwd. Por qu user11 aparece en el archivo /etc/passwd, pero no en el archivo /etc/user_attr? ____________________________________________________________ ____________________________________________________________
4.
Cree un rol administrativo denominado tarback con las especificaciones siguientes: Utilice el asistente Add Administrative Role (agregar rol administrativo) de Solaris Management Console.
Nombre del rol: tarback Nmero de ID del rol: el siguiente disponible Shell del rol: uno cualquiera de los shells de administrador Contrasea: abc123 Derechos: elija los derechos que debe incluir. Los derechos apropiados son Media Backup (copia de seguridad de medios de almacenamiento) y Media Restore (restauracin de medios de almacenamiento).
10-61
Ejercicio: configuracin de RBAC Nota Un administrador de copias de seguridad debe encargarse de realizar todas las copias de seguridad en soportes de almacenamiento y cualquier recuperacin necesaria de los datos.
Directorio de inicio: /export/home/tarback (introduzca /export/home en el campo Path). Asignar usuarios: user11
5. 6.
Confirme los atributos de la cuenta haciendo doble clic en la entrada tarback y recorriendo las fichas de atributos. Desde la lnea de comandos, compruebe la correcta creacin del usuario y el rol. Por qu user11 ahora aparece en el archivo /etc/user_attr? ____________________________________________________________ ____________________________________________________________ El rol tarback aparece tanto en el archivo /etc/passwd como en el archivo /etc/user_attr? ____________________________________________________________ ____________________________________________________________
7. 8. 9.
Para probar el rol, inicie la sesin como user11. Ejecute varios comandos para verificar que la cuenta funciona con normalidad. Ejecute el comando tar para hacer la copia de seguridad del archivo .profile. Puede hacerla? ____________________________________________________________
10. Ejecute el comando tar para hacer la copia de seguridad del archivo /etc/shadow. Puede hacerla? ____________________________________________________________ 11. Cambie al rol tarback. 12. Ejecute varios comandos para verificar que la cuenta funciona con normalidad.
10-62
Ejercicio: configuracin de RBAC 13. Ejecute el comando tar para hacer la copia de seguridad del archivo /etc/shadow. Puede hacerla? ____________________________________________________________ Cul es la diferencia, si la hay, entre ejecutar el comando tar como user11 y ejecutarlo despus de asumir el rol tarback? ____________________________________________________________ ____________________________________________________________ 14. Vea la lista de comandos de RBAC que puede ejecutar el rol tarback. $ profiles -l
Media Backup: /usr/bin/mt euid=0 /usr/lib/fs/ufs/ufsdump euid=0, gid=sys /usr/sbin/tar euid=0 Media Restore: /usr/bin/cpio euid=0 /usr/bin/mt euid=0 /usr/lib/fs/ufs/ufsrestore euid=0 /usr/sbin/tar euid=0 All: * $ 15. Salga del rol tarback y de los shells de user11. 16. Salga de SMC.
10-63
!
?
10-64
Preparacin
En algunos pasos de este ejercicio se le pide que ejecute comandos que no funcionan para demostrar el modo de utilizar RBAC. Asegrese de que exista el directorio /export/home y de que todos los usuarios puedan escribir en l. Si este directorio no existe, crelo y cambie su modo de permisos a 777. Repase la forma de usar los comandos auths, profiles y roles de RBAC para determinar los privilegios de los usuarios.
Tareas y soluciones
En la seccin siguiente se describen los ejercicios que es preciso realizar y se ofrecen las soluciones correspondientes.
# roleadd -u 5000 -g 10 -m -d /export/home/sdown sdown 64 blocks # passwd sdown (salida omitida) 2. Cree un perfil llamado Shut agregando una lnea al archivo prof_attr.
# vi /etc/security/prof_attr (salida omitida) Shut:::Able to shutdown the system: 3. Aada el perfil Shut al rol sdown. # rolemod -P Shut sdown
10-65
Soluciones del ejercicio: configuracin de RBAC 4. Asegrese de que el rol sdown se haya incluido en el archivo /etc/user_attr.
# more /etc/user_attr (salida omitida) sdown::::type=role;profiles=Shut 5. Cree un usuario denominado user9 y proporcinele acceso al rol sdown. Asigne a este usuario el ID de usuario 4009 y el ID de grupo 10.
# useradd -u 4009 -g 10 -m -d /export/home/user9 -s /bin/ksh \ -R sdown user9 64 blocks # passwd user9 (salida omitida) 6. Compruebe los atributos de los roles correspondientes a user9. # grep user9 /etc/user_attr user9::::type=normal;roles=sdown 7. Asigne el comando shutdown al perfil Shut. # vi /etc/security/exec_attr Shut:suser:cmd:::/usr/sbin/shutdown:uid=0 8. # su user9 9. Trate de cerrar el sistema como user9 sin asumir el nuevo rol. $ /usr/sbin/shutdown -i 6 -g 0 /usr/sbin/vold Only root can run /usr/sbin/shutdown Cul es el resultado del intento y por qu? El intento de cierre falla porque user9 no ha asumido an el rol sdown y, como usuario comn, no tiene el perfil de derechos necesario para ejecutar el comando shutdown. 10. Ejecute el comando profiles para determinar qu perfiles de RBAC tiene asociados el usuario user9. $ profiles Basic Solaris User All 11. Ejecute el comando roles para averiguar qu roles de RBAC tiene asociados user9. $ roles sdown Utilice el comando su para cambiar la identidad del usuario por la de user9.
10-66
Soluciones del ejercicio: configuracin de RBAC 12. Asuma el rol sdown. $ su sdown Password: $ 13. Cierre el sistema con el comando init. $ /usr/sbin/init 0 Insufficient privileges. Los sistemas x86/x64 presentan este mensaje: bootadm: you must be root to run this program Segn el shell que se est utilizando, el mensaje tambin puede ser Must be super-user. Cul es el resultado del intento y por qu? Este intento de cierre del sistema fracasa porque, aunque ha asumido el rol sdown, user9 no tiene el atributo de seguridad necesario para ejecutar el comando init. En funcin del shell del usuario, el mensaje tambin puede ser Must be super-user. 14. Vea la lista de comandos que puede ejecutar el perfil sdown. $ profiles -l Shut: /usr/sbin/shutdown All: *
uid=0
15. Cierre el sistema con el comando shutdown. $ /usr/sbin/shutdown -i 6 -g 0 Shutdown started. Sun Apr 29 17:30:10 MDT 2007 Do you wish to continue? (y or n): n Cul es el resultado del intento y por qu? Esta accin se realiza con xito porque el rol sdown tiene permiso de ejecucin del comando shutdown. 16. Salga del rol sdown. $ exit $ 17. Salga del shell de user9. $ exit #
10-67
Nombre: user11 Nombre completo: cuenta user11 ID de usuario: acepte el valor predeterminado. Contrasea: configrela como user11. Grupo principal: utilice el valor predeterminado. Directorio de inicio: /export/home/user11 (introduzca /export/home en el campo Path). Buzn de correo: /var/mail/user11 (en este sistema)
2. 3.
Confirme los atributos de la cuenta haciendo doble clic en la entrada user11 y recorriendo las fichas de atributos. Desde la lnea de comandos, compruebe la entrada de user11 en el archivo /etc/passwd.
# grep user11 /etc/passwd user11:x:4011:10:user for tarback role:/home/user11:/bin/sh # grep user11 /etc/user_attr # Por qu user11 aparece en el archivo /etc/passwd, pero no en el archivo /etc/user_attr? Cuando se crea una cuenta de usuario, aparece un registro de ese usuario en los archivos /etc/passwd y /etc/shadow. El citado registro no aparece en el archivo /etc/user_attr hasta que se asocia un rol a un usuario. 4. Cree un rol administrativo denominado tarback con las especificaciones siguientes: Utilice el asistente Add Administrative Role (agregar rol administrativo) de Solaris Management Console.
Nombre del rol: tarback Nmero de ID del rol: el siguiente disponible Shell del rol: uno de los shells de administrador Contrasea: abc123
10-68
Derechos: elija los derechos que debe incluir. Los derechos apropiados son Media Backup (copia de seguridad de medios de almacenamiento) y Media Restore (restauracin de medios de almacenamiento).
Nota Un administrador de copias de seguridad debe encargarse de realizar todas las copias de seguridad en soportes de almacenamiento y cualquier recuperacin necesaria de los datos.
Directorio de inicio: /export/home/tarback (introduzca /export/home en el campo Path). Asignar usuarios: user11
5. 6.
Confirme los atributos de la cuenta haciendo doble clic en la entrada tarback y recorriendo las fichas de atributos. Desde la lnea de comandos, compruebe la correcta creacin del usuario y el rol.
# grep user11 /etc/user_attr user11::::roles=tarback;type=normal # grep tarback /etc/passwd tarback:x:100:14:can tar the shadow file:/home/tarback:/bin/pfsh # grep tarback /etc/user_attr tarback::::profiles=Media Backup,Media Restore;type=role user11::::roles=tarback;type=normal Por qu user11 ahora aparece en el archivo /etc/user_attr? Despus de asociar user11 al rol tarback, debera aparecer una entrada en el archivo /etc/user_attr para reflejar esta relacin. El rol tarback aparece tanto en el archivo /etc/passwd como en el archivo /etc/user_attr? Dado que es un rol, tarback aparece en ambos archivos. 7. Para probar el rol, inicie la sesin como user11. # telnet localhost Trying 127.0.0.1... Connected to localhost. Escape character is '^]'. login: user11 Password: Sun Microsystems Inc. SunOS 5.10 Welcome to SA200-S10_B on nombrehost $
10-69
Soluciones del ejercicio: configuracin de RBAC 8. Ejecute varios comandos para verificar que la cuenta funciona con normalidad.
$ id -a uid=100(user11) gid=10(staff) groups=10(staff) $ pwd /home/user11 9. Ejecute el comando tar para hacer la copia de seguridad del archivo .profile.
$ tar cvf .profile.tar .profile a .profile 1K Puede hacerla? S puede hacerse la copia de seguridad del archivo .profile. 10. Ejecute el comando tar para hacer la copia de seguridad del archivo /etc/shadow. $ tar cvf /etc/shadow.tar /etc/shadow tar /etc/shadow.tar: Permission denied Puede hacerla? Un usuario comn no puede hacer la copia de seguridad del archivo /etc/shadow. 11. Cambie al rol tarback. $ su - tarback Password: abc123 $ 12. Ejecute varios comandos para verificar que la cuenta funciona con normalidad. $ id -a uid=101(tarback) gid=14(sysadmin) groups=14(sysadmin) $ pwd /home/tarback 13. Ejecute el comando tar para hacer la copia de seguridad del archivo /etc/shadow. $ tar cvf /etc/shadow.tar /etc/shadow a /etc/shadow 1K Puede hacerla? S. Cul es la diferencia, si la hay, entre ejecutar el comando tar como user11 y ejecutarlo despus de asumir el rol tarback?
10-70
Soluciones del ejercicio: configuracin de RBAC El rol tarback tiene asociados derechos de administrador del sistema para efectuar la copia de seguridad y recuperacin de datos de medios de almacenamiento. Esto derechos permiten a cualquier usuario que asuma el rol tarback realizar copias de seguridad de cualquier archivo o restaurarlo. 14. Vea la lista de comandos de RBAC que puede ejecutar el rol tarback. $ profiles -l
Media Backup: /usr/bin/mt euid=0 /usr/lib/fs/ufs/ufsdump euid=0, gid=sys /usr/sbin/tar euid=0 Media Restore: /usr/bin/cpio euid=0 /usr/bin/mt euid=0 /usr/lib/fs/ufs/ufsrestore euid=0 /usr/sbin/tar euid=0 All: * $ 15. Salga del rol tarback y de los shells de user11. $ exit $ exit Connection to localhost closed by foreign host. # 16. Salga de SMC.
10-71
Mdulo 11
Describir los conceptos fundamentales de la funcin syslog. Configurar el archivo /etc/syslog.conf. Configurar la administracin de mensajes de syslog. Utilizar el visualizador de registros de Solaris Management Console.
11-1
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
Escribir mensajes en un registro del sistema. Reenviar mensajes a un host de registros central. Reenviar mensajes a una lista de usuarios. Escribir mensajes en la consola del sistema.
Mensajes Demonio kernel Procesos de usuario Comando logger Demonio syslogd Destino Archivo de registro Consola Usuario Host de registros central
m4 lee /etc/syslog.conf
11-2
Archivo /etc/syslog.conf
Cada entrada de configuracin del archivo /etc/syslog.conf se compone de dos campos separados por un tabulador: selector y accin. El campo selector incluye dos componentes, una utilidad y un nivel escritos con el formato: utilidad.nivel. Las utilidades representan categoras de procesos del sistema que pueden generar mensajes. Los niveles representan el grado de importancia o gravedad del mensaje. El campo accin determina dnde debe enviarse el mensaje. Por ejemplo, si se escribe la siguiente entrada en el archivo /etc/syslog.conf, se envan al archivo /var/adm/messages los mensajes de error generados por todas las utilidades: *.err /var/adm/messages Donde: *.err Es el campo selector. El asterisco (*) es la utilidad y el punto (.), el delimitador. El campo err indica el nivel del mensaje. Es el campo accin.
/var/adm/messages
Atencin Slo pueden utilizarse tabuladores para insertar espacios en blanco en el archivo /etc/syslog.conf. El sistema operativo Solaris accede al archivo /usr/include/sys/syslog.h para determinar el orden correcto de la secuencia utilidad.nivel.
11-3
Campo selector
Este campo se compone de una lista de especificaciones de prioridad separadas por el signo de punto y coma. Tiene el siguiente formato: utilidad.nivel;utilidad.nivel En la sintaxis del campo selector, utilidad representa una utilidad del sistema. En la Tabla 11-1 figuran los valores que puede contener este campo (utilidad). Tabla 11-1 Opciones de utilidad en el campo selector Campo kern user Descripcin Mensajes generados por el kernel. Mensajes generados por los procesos de usuario. Este archivo no incluye la prioridad predeterminada de mensajes procedentes de programas o utilidades. El sistema de correo. Demonios del sistema como in.ftpd y telnetd. El sistema de autorizacin, que incluye los comandos login, su y ttymon. Mensajes internos generados por el demonio syslogd. El sistema de administracin de los procesos de impresin, como los comandos lpr y lpc. Archivos reservados para el sistema de noticias de red USENET. El sistema UUCP (UNIX-to-UNIX copy) no utiliza la funcin syslog. Las utilidades cron y at, lo que incluye crontab, at y cron. Campos reservados para uso local. ltima vez que se guard el mensaje. Los mensajes se producen internamente mediante el demonio syslogd. Todas las utilidades excepto mark.
mail demonio auth syslog lpr news uucp cron local0-7 mark *
Nota Puede utilizar el asterisco (*) para seleccionar todas las utilidades (por ejemplo, *.err), pero no para seleccionar todos los niveles de una utilidad (por ejemplo, kern.*).
11-4
Introduccin a la funcin syslog En la sintaxis del campo selector, nivel representa el grado de gravedad o importancia del mensaje. Cada nivel incluye todos los niveles situados por encima (de gravedad superior). En la Tabla 11-2 figuran todos los niveles clasificados por orden de gravedad descendente. Tabla 11-2 Opciones de nivel en el campo selector Nivel emerg alert Prioridad 0 1 Descripcin Errores graves que normalmente se comunican a todos los usuarios. Situaciones que deberan corregirse de inmediato, tales como la existencia de una base de datos del sistema daada. Avisos de situaciones crticas, como la existencia de errores de dispositivos de hardware. Errores distintos de los que se producen en los dispositivos de hardware. Mensajes de advertencia. Situaciones que no se consideran de error pero que podran necesitar un tratamiento especial. Mensajes informativos. Mensajes que normalmente slo se utilizan al depurar un programa. Mensajes que no se envan desde la utilidad indicada al archivo seleccionado.
2 3 4 5 6 7 8
Nota No todos los niveles de gravedad se implementan de la misma manera para todas las utilidades. Para obtener ms informacin, consulte las pginas del comando man en lnea.
11-5
Campo accin
Este campo indica dnde debe enviarse el mensaje. Slo puede tener una de las siguientes entradas: /nombreruta @host Ruta de acceso completa al archivo de destino. El signo de arroba, @, indica que el mensaje debe enviarse a un host remoto. Los mensajes se envan al demonio syslogd del host remoto. Las entradas user1 y user2 reciben mensajes si tienen la sesin abierta. Todos los usuarios que tengan una sesin abierta reciben mensajes.
user1, user2 *
11-6
# If a non-loghost machine chooses to have authentication messages # sent to the loghost machine, un-comment out the following line: #auth.notice ifdef(LOGHOST,/var/log/authlog, @loghost) mail.debug ifdef(LOGHOST,/var/log/syslog, @loghost)
# # Non-loghost machines will use the following lines to cause "user" # log messages to be logged locally. # ifdef(LOGHOST, user.err /dev/sysmsg user.err /var/adm/messages user.alert root, operator user.emerg * )
11-7
Proceso
Conceptualmente, las fases se describen as: 1. 2. 3. El demonio syslogd ejecuta el procesador de macros m4. El procesador m4 lee el archivo /etc/syslog.conf, procesa cualquier sentencia m4 en la entrada y pasa la salida al demonio syslogd. El demonio syslogd utiliza la informacin de configuracin enviada por el procesador m4 para dirigir los mensajes a los destinos adecuados.
syslog.conf
m4
Campo selector
Campo accin
syslogd
11-8
Introduccin a la funcin syslog syslogd no lee el archivo /etc/syslog.conf directamente. Este demonio obtiene su informacin de la forma siguiente: 1. 2. El demonio syslogd inicia el procesador m4, que analiza el archivo /etc/syslog.conf en busca de comandos m4 que pueda interpretar. Si el procesador m4 no reconoce ningn comando m4 en las lneas del archivo, pasa la salida al demonio syslogd con un formato de dos columnas. A continuacin, el demonio syslogd utiliza esas dos columnas para enviar mensajes al destino adecuado.
3.
Si el procesador m4 encuentra alguna sentencia ifdef en el archivo /etc/syslog.conf, la evala para determinar la condicin de True o False. A continuacin, los mensajes se dirigen a su destino en funcin de los resultados de la prueba.
Fase 1 de la operacin
En los mensajes siguientes, el demonio syslogd se ejecuta en el sistema host1. Esta seccin contiene dos ejemplos del archivo /etc/hosts contenido en el sistema host1. Los ejemplos del archivo /etc/hosts que se incluyen en esta seccin son extractos del archivo /etc/hosts/. Ejemplo A de /etc/hosts: 192.9.200.1 host1 loghost 192.9.200.2 host2 Ejemplo B de /etc/hosts: 192.9.200.1 host1 192.9.200.2 host2 loghost Cuando syslogd se inicia al arrancar el sistema, el demonio evala el archivo /etc/hosts y comprueba la direccin IP (Internet Protocol) asociada al nombrehost comparndola con la direccin IP asociada a loghost. En el Ejemplo A, host1 y loghost tienen asociada la direccin IP 192.9.200.1. Por tanto, el demonio syslogd ejecuta la primera lnea de comando: /usr/ccs/bin/m4 -D LOGHOST, lo que hace que la variable LOGHOST de m4 se defina como TRUE al analizar el archivo /etc/syslog.conf.
11-9
Introduccin a la funcin syslog En el Ejemplo B, host1 tiene asociada la direccin IP 192.9.200.1, en tanto que host2 y loghost tienen asociada la direccin 192.9.200.2. En este ejemplo, el demonio syslogd ejecuta la segunda lnea de comando, /usr/ccs/bin/m4 (sin -D LOGHOST), lo que hace que la variable LOGHOST de m4 quede sin definir durante el anlisis del archivo /etc/syslog.conf.
Fase 2 de la operacin
En la fase 2, el procesador de macros m4 analiza el archivo /etc/syslog.conf. En cada lnea que analiza, este procesador busca sentencias m4 tales como ifdef. Si no encuentra ninguna sentencia ifdef en la lnea, pasa la lnea al demonio syslogd. Si el procesador m4 encuentra una lnea con la sentencia ifdef, la evala de la forma siguiente:
El comando ifdef (LOGHOST, truefield, falsefield) comprueba si la variable LOGHOST est definida. Si la variable LOGHOST est definida, se utilizan las entradas del campo truefield, de lo contrario, se utilizan las entradas del campo falsefield.
Por ejemplo: mail.debug ifdef(LOGHOST, /var/log/syslog, @loghost) Si la variable LOGHOST se defini en la fase 1, el procesador m4 devuelve: mail.debug /var/log/syslog Si la variable LOGHOST se evalu como FALSE en la fase 1, el procesador m4 devuelve: mail.debug @loghost En cualquiera de los dos casos, la salida tiene una entrada en el campo selector y otra en el campo accin. A continuacin, el procesador m4 pasa la salida al demonio syslogd.
Fase 3 de la operacin
Por cada lnea analizada en el archivo /etc/syslog.conf durante la fase 2, el procesador m4 genera un resultado en forma de un campo de dos columnas: el campo selector y el campo accin. La salida se enva al demonio syslogd, que utiliza esa informacin para dirigir los mensajes a los destinos adecuados. Una vez configurada la informacin, este demonio contina ejecutndose con esa configuracin.
11-10
Nota Dentro del archivo /etc/syslog.conf, utilice el nivel err en el campo selector para indicar que todos los eventos que contengan la prioridad de error (o superior) deben registrarse en el destino indicado por el campo accin. En la lnea 1, cada evento de error (*.err) y todos los eventos del kernel y de la utilidad de autorizacin de nivel notice, que no son condiciones de error pero podran necesitar un tratamiento especial, escribir un mensaje en el archivo /dev/sysmsg. En la lnea 2, cada evento de error (*.err), todos los eventos de la utilidad kernel que tengan el nivel debug, todos los eventos de la utilidad demonio que tengan el nivel notice y todos los eventos de correo de nivel crtico registrarn un mensaje en el archivo /var/adm/messages. Por tanto, los errores se registran en ambos archivos. La lnea 3 indica que todos los eventos que tengan el nivel alert, incluidos los eventos con nivel de error de las utilidades kernel y demonio, se envan al usuario operator, si tiene abierta una sesin. En la lnea 4 se indica que todos los eventos con nivel alert se envan al usuario root, si tiene abierta la sesin.
11-11
Configuracin del archivo /etc/syslog.conf En la lnea 5 se indica que cualquier evento que el sistema interprete como urgente, deber registrarse en el terminal de cada usuario que tenga abierta una sesin. Para modificar el mecanismo de registro de eventos, edite el archivo /etc/syslog.conf y reinicie el demonio syslogd.
11-12
11-13
Configuracin de la administracin de mensajes de syslog failrate_interval=60 inherit_env=TRUE tcp_trace=TRUE tcp_wrappers=FALSE Nota El demonio de Internet, inetd, proporciona servicios para numerosos protocolos de red, incluidos Telnet y FTP (File Transfer Protocol). Es posible habilitar la opcin de rastreo de cada servicio inetd-managed para que enve mensajes al demonio syslogd. Utilice el comando inetadm para modificar la configuracin del servicio a fin de habilitar el rastreo TCP. Cuando se habilita, esta opcin utiliza daemon.notice para registrar la direccin IP y el nmero de puerto TCP del cliente, as como el nombre del servicio. Para habilitar el rastreo automtico de conexiones TCP, es posible habilitar la funcin de rastreo de cada servicio por separado. Por ejemplo, para permitir el rastreo de sesiones telnet, se ejecuta el siguiente comando: # inetadm -m telnet tcp_trace=TRUE # inetadm -l telnet SCOPE NAME=VALUE name="telnet" endpoint_type="stream" proto="tcp6" isrpc=FALSE wait=FALSE exec="/usr/sbin/in.telnetd" user="root" default bind_addr="" default bind_fail_max=-1 default bind_fail_interval=-1 default max_con_rate=-1 default max_copies=-1 default con_rate_offline=-1 default failrate_cnt=40 default failrate_interval=60 default inherit_env=TRUE tcp_trace=TRUE default tcp_wrappers=FALSEgrep inetd /etc/init.d/inetsvc Nota El cambio se reconoce de inmediato. No es necesario reiniciar el proceso de ningn demonio.
11-14
Configuracin de la administracin de mensajes de syslog El archivo /etc/syslog.conf configura el demonio syslogd para distribuir de forma selectiva los mensajes que haya recibido del demonio inetd. # grep daemon.notice /etc/syslog.conf *.err;kern.debug;daemon.notice;mail.crit /var/adm/messages Todos los mensajes de demonio que tengan el nivel notice o superior se envan al archivo /var/adm/messages a causa de la entrada daemon.notice del archivo /etc/syslog.conf. Nota Es preciso que exista el archivo /var/adm/messages. Si no existe, crelo y luego detenga e inicie el demonio syslogd. De lo contrario, los mensajes no se escribirn en el archivo.
Jun 14 13:15:39 host1 inetd[2359]:[ID 317013 daemon.notice] telnet[2361] from 192.9.200.1 45800
11-15
Tabla 11-3 Descripcin de la entrada registrada por syslogd Nmero 1 2 3 4 5 6 7 8 Campo Fecha/hora Nombre del host local Nombre del proceso/nmero de PID Nmero de ID de mensaje/selector utilidad.nivel Peticin entrante Nmero de PPID Direccin IP Nmero de puerto Resultado Jun 14 13:15:39 host1 inetd[2359] [ID 317013 daemon.notice] telnet [2361] 192.9.200.1 45800
Para salir del archivo /var/adm/messages, pulse Control-C. Nota Si se produce alguna actividad inusual, utilice secuencias de comandos para analizar automticamente los archivos de registro y enve la informacin al personal de asistencia tcnica.
11-16
Es posible especificar la prioridad del mensaje mediante el par de componentes utilidad.nivel. Por ejemplo, -p local3.info asigna al mensaje una prioridad de nivel info en la utilidad local3. La prioridad predeterminada es user.notice. Por tanto, en el ejemplo siguiente se registra el mensaje System rebooted en el demonio syslogd utilizando la prioridad predeterminada de nivel notice y la utilidad user: # logger System rebooted Si en el archivo /etc/syslog.conf est configurado el campo selector user.notice, el mensaje se registra en el archivo designado para user.notice. Si el campo user.notice no est configurado en el archivo /etc/syslog.conf, puede agregar dicho campo al archivo /etc/syslog.conf o puede priorizar la salida de la forma siguiente: # logger -p user.err System rebooted
11-17
Configuracin de la administracin de mensajes de syslog Al cambiar la prioridad del mensaje a user.err, el mensaje se enva al archivo /var/adm/messages, tal y como se indica en el archivo /etc/syslog.conf. La prioridad de los mensajes tambin puede expresarse numricamente. Por ejemplo, logger -i -p 2 crit crea una entrada en el registro de mensajes que identifica el par utilidad.nivel user.crit de la forma siguiente: Nov 3 09:49:34 hostname root[2838]: [ID 702911 user.crit] crit
11-18
Figura 11-4 Solaris Management Console: visualizador de registros El visualizador presenta las entradas de registro de Management Tools contenidas en el directorio /var/sadm/wbem/log.
11-19
Figura 11-5 Lista de archivos de registro Para ver un registro de mensajes de syslog, lleve a cabo los pasos siguientes: 1. 2. Haga clic en el icono de flecha del cuadro de seleccin de Log File. Seleccione el registro /var/adm/messages que quiera ver. El registro seleccionado aparece en el panel de visualizacin de la consola de administracin de Solaris, como se muestra en la Figura 11-6 en la pgina 11-21. Nota Usted no puede manipular registros de mensajes de syslog. Slo puede verlos en el orden cronolgico en el que se hayan generado.
11-20
Figura 11-6 Ventana del archivo de mensajes generado por syslog Nota Es posible ordenar y filtrar los registros de mensajes utilizando herramientas de clasificacin y filtrado de la lnea de comandos tales como los comandos sort y grep.
11-21
Figura 11-7 Men Action Seleccione Open Log Files en el men Action para abrir la ventana correspondiente. La ventana Open Log Files contiene la misma lista de archivos que proporciona el men desplegable Log File del visualizador de registros. Para ver los archivos de registro asociados a Solaris Management Console, debe cargar uno de los archivos wbem_log. El directorio predeterminado de los archivos wbem_log es /var/sadm/wbem/log. El registro ms reciente se denomina wbem_log.
11-22
Uso del visualizador de registros de Solaris Management Console Para abrir el archivo wbem_log, seleccione el archivo RegistroMM/DD/AO.HH:MM:SS y haga clic en Open (abrir), como se ilustra en la Figura 11-8.
Figura 11-8 Ventana Open Log File del men Action El archivo de registro de la Figura 11-8 se denomina Log09/25/2001.11:07:41, que indica la fecha y hora de creacin del mismo. El visualizador de registros permite ver y administrar los archivos de registro de las herramientas y eventos de Solaris Managemente Console. Por ejemplo, las entradas de cada registro se generan por eventos de apertura y cierre de sesin, y autenticacin fallida y correcta.
11-23
Uso del visualizador de registros de Solaris Management Console La vista de registros tambin puede utilizarse para seleccionar eventos especficos, como se muestra en la Figura 11-9. Para ver eventos especficos, seleccione una opcin del men View.
11-24
Figura 11-10 Men View La ventana Log Filter (fitro de registros) que aparece en la Figura 11-11 en la pgina 11-26 permite delimitar el informe de eventos registrados segn los criterios siguientes:
La fecha y hora a las que se inician y detienen las entradas del registro. Las propiedades del registro:
Tipo: clase de eventos registrados, que incluyen eventos informativos, de advertencia o de error. Identificacin: eventos registrados creados por un usuario o sistema especfico. Categora: fuente que genera el evento, como una aplicacin, el sistema o el mecanismo de seguridad.
11-25
Figura 11-11 Ventana Log Filter A continuacin, el visualizador de registros filtra el archivo seleccionado. En la Figura 11-11 puede verse cmo el archivo de registro seleccionado se identifica en el recuadro Log File de la barra de iconos del visualizador. Puede volver a cargar la vista para mostrar nicamente los eventos que encajan en los criterios del filtro. Para volver al visualizador de registros, haga clic en Close (cerrar).
11-26
11-27
Uso del visualizador de registros de Solaris Management Console La ventana Log Entry Details (detalles de la entrada de registro), que se muestra en la Figura 11-13, permite seleccionar datos sobre el evento del registro que se haya seleccionado, as como pasar al evento siguiente o anterior de la forma siguiente:
Haga clic en la flecha abajo para seleccionar el siguiente evento registrado. Haga clic en la flecha arriba para seleccionar el evento anterior.
Figura 11-13 Ventana Log Entry Details Para volver a la ventana del visualizador de registros, haga clic en Close.
11-28
Figura 11-14 Copia de seguridad del archivo de mensajes wbem_log 2. Aparece una ventana nueva similar a la de la Figura 11-15, en la que se advierte del cambio de nombre del registro existente.
11-29
Uso del visualizador de registros de Solaris Management Console Atencin Si ha alcanzado el nmero mximo de copias archivadas y desea conservar el registro ms antiguo del archivo de almacenamiento, copie dicho registro antes de continuar con el procedimiento de copia de seguridad. 3. Haga clic en Backup (copia de seguridad) para continuar. El nombre del registro cambia para reflejar la fecha y hora actuales. Las entradas posteriores se graban en el archivo wbem_log actual. La ventana del nuevo archivo de mensajes wbem_log generado, ilustrada en la Figura 11-16, muestra que el registro antiguo se ha trasladado a wbem_log.1 y que la vista del visualizador de registros est vaca.
11-30
Uso del visualizador de registros de Solaris Management Console 4. Seleccione Log File Settings (configuracin de los archivos de registro) en el men Action para modificar la configuracin de copia de seguridad automtica de cualquier registro, como se ilustra en la Figura 11-17.
Figura 11-17 Men Action: Log File Settings 5. En la ventana Log File Settings (Figura 11-18) puede hacer lo siguiente: a. b. c. d. Especificar un directorio alternativo en el que almacenar los archivos wbem_log. Modificar el tamao mximo del archivo de registro. Especificar cuntos archivos wbem_log deben mantenerse en las copias de seguridad. Habilitar o inhabilitar el registro de eventos del sistema, como se muestra en la Figura 11-18.
11-31
Uso del visualizador de registros de Solaris Management Console 6. Realice una de estas acciones: a. b. 7. Haga clic en Cancel (cancelar) para volver a la ventana del visualizador de registros. Haga clic en OK para aceptar los cambios.
Para salir del visualizador de registros, seleccione Exit (salir) en el men Console (consola), como se muestra en la Figura 11-19.
11-32
Preparacin
Para hacer este ejercicio es preciso tener instaladas las pginas del comando man y disponer de dos sistemas que se hagan referencia mutua en el archivo /etc/hosts. Asegrese de que la variable CONSOLE est inhabilitada con un signo de comentario en el archivo /etc/default/login de ambos sistemas. Salvo en los casos en que se especifique lo contrario, todos los pasos deben realizarse en ambos sistemas. Consulte los apuntes tomados en clase cuando sea necesario para realizar los pasos indicados.
Tareas
Lleve a cabo las tareas siguientes.
11-33
Ejercicio: uso de la funcin syslog y las utilidades de auditora 4. 5. Abra una nueva ventana de terminal y utilice el comando tail para ver las entradas que van registrndose en el archivo /var/adm/messages. En una ventana disponible, utilice el comando telnet para conectarse a su propio sistema. Salga de la sesin de telnet cuando la haya iniciado correctamente. Observe la ventana en la que est ejecutando el comando tail. Aparece algn mensaje nuevo relativo a telnet en el archivo /var/adm/messages? (s o no) ____________________________________________________________ 7. 8. 9. Modifique el servicio inetd y cambie el valor predeterminado de la opcin tcp_trace por TRUE: Verifique si el demonio inetd se est ejecutando con la opcin de rastreo habilitada. Repita el paso 5 y el paso 6. Aparecen mensajes nuevos relativos a telnet en el archivo /var/adm/messages? En caso afirmativo, enumrelos. ____________________________________________________________ ____________________________________________________________
6.
Tarea 2: uso del comando logger para demostrar cmo funcionan los niveles
Lleve a cabo los pasos siguientes: 1. Edite el archivo /etc/syslog.conf de forma que incluya la lnea siguiente: Cree un archivo llamado /var/log/local0.log. Mande un comando refresh al demonio syslogd para forzarlo a leer de nuevo el archivo /etc/syslog.conf. Detenga el proceso tail en la ventana donde se est ejecutando el comando tail. Reinicie este comando de forma que muestre el final del archivo /var/log/local0.log. En una ventana disponible, ejecute el comando logger para enviar un mensaje usando la utilidad local0 y el nivel notice. Que nuevos mensajes presenta el comando tail, en caso de que muestre alguno? ____________________________________________________________ ____________________________________________________________
5.
11-34
Ejercicio: uso de la funcin syslog y las utilidades de auditora 6. En una ventana disponible, ejecute el comando logger para enviar un mensaje usando la utilidad local0 y el nivel crit. Que nuevos mensajes presenta el comando tail, en caso de que muestre alguno? ____________________________________________________________ ____________________________________________________________ 7. Ejecute el comando logger del paso 5 tres veces. Examine la salida del comando tail en la otra ventana. Cuntos mensajes nuevos aparecen en el archivo /var/log/local0.log? ____________________________________________________________ ____________________________________________________________ 8. Ejecute el comando logger con el mensaje de nivel crit en lugar del mensaje de nivel notice. Qu mensajes nuevos aparecen en el archivo /var/log/local0.log? ____________________________________________________________ ____________________________________________________________ 9. Detenga el comando tail en la ventana donde se est ejecutando.
11-35
local0.notice<TAB>@sistema2 2. 3.
Nota Si an no ha editado el archivo /etc/syslog.conf en el sistema2 de la tarea anterior, hgalo ahora. El archivo /etc/syslog.conf de sistema2 debe dirigir los mensajes de prioridad local0.notice a /var/log/local0.log. Asimismo, actualice el servicio system/system-log en sistema2. 4. En sistema2, abra una nueva ventana de terminal y utilice el comando tail para ver las nuevas entradas que van llegando al archivo /var/log/local0.log. En sistema1, utilice el comando logger para generar un mensaje utilizando el par de utilidad y nivel local0.notice. En sistema2, qu mensaje aparece en la ventana que ejecuta el comando tail? ____________________________________________________________ ____________________________________________________________ 7. Despus de asegurarse de que sistema1 haya pasado los mensajes correctamente a sistema2, detenga el comando tail en sistema2.
5. 6.
11-36
auth.notice
6.
11-37
Ejercicio: uso de la funcin syslog y las utilidades de auditora 7. Cambie al directorio /etc/inet de sistema2 y realice una copia de seguridad del archivo /etc/inet/hosts. Edite el archivo /etc/inet/hosts para suprimir el alias loghost de la entrada correspondiente a sistema2 y agregarlo a la entrada correspondiente a sistema1. Edite el archivo /etc/inet/ipnodes de sistema2 para suprimir el alias loghost de la entrada correspondiente a ese sistema. En sistema2, utilice svcadm para forzar al demonio syslogd a releer el archivo /etc/syslog.conf.
8. 9.
10. Utilice el comando rlogin en sistema2 para acceder a su propio sistema y cierre la conexin. Aparece algn mensaje nuevo en la ventana de sistema2 que ejecuta el comando tail? (s o no) ____________________________________________________________ En sistema1, qu mensaje aparece en la ventana que ejecuta el comando tail? ____________________________________________________________ ____________________________________________________________
11-38
!
?
11-39
Preparacin
Para hacer este ejercicio, es preciso tener instaladas pginas del comando man y disponer de dos sistemas que se hagan referencia mutua en el archivo /etc/hosts. Asegrese de que la variable CONSOLE est inhabilitada con un signo de comentario en el archivo /etc/default/login de ambos sistemas. Salvo en los casos en que se especifique lo contrario, todos los pasos deben realizarse en ambos sistemas. Consulte los apuntes tomados en clase cuando sea necesario para realizar los pasos indicados.
Tareas y soluciones
En la seccin siguiente se indican los ejercicios que es preciso realizar y las soluciones correspondientes.
# cd /etc # cp syslog.conf syslog.conf.bak 2. Abra la pgina del comando man del proceso inetd y verifique la utilidad y el nivel utilizados por el proceso inetd cuando lo ejecuta con la opcin -tcptrace. Qu utilidad y nivel est utilizando el demonio inetd? daemon.notice
# man inetd
11-40
Soluciones del ejercicio: uso de la funcin syslog y las utilidades de auditora 3. Examine el archivo /etc/syslog.conf y determine si el demonio syslogd reconocera los mensajes de rastreo de inetd. El demonio syslogd reconoce los mensajes de rastreo de inetd (s o no)? S A qu destino enva el demonio syslogd los mensajes? Al archivo /var/adm/messages. 4. Abra una nueva ventana de terminal y utilice el comando tail para ver las entradas que van registrndose en el archivo /var/adm/messages. En una ventana disponible, utilice el comando telnet para conectarse a su propio sistema. Salga de la sesin de telnet cuando la haya iniciado correctamente.
# tail -f /var/adm/messages 5.
# telnet host Trying nnn.nnn.nnn.nnn... Connected to host. Escape character is '^]'. login: root Password: (salida omitida) # exit 6. Observe la ventana en la que est ejecutando el comando tail. Aparece algn mensaje nuevo relativo a telnet en el archivo /var/adm/messages? (s o no) Antes de iniciar el servicio inetd con rastreo de telnet, no. 7. Modifique el servicio inetd y cambie el valor predeterminado de la opcin tcp_trace por TRUE: Verifique si el demonio inetd se est ejecutando con la opcin de rastreo habilitada.
# inetadm -M tcp_trace=TRUE 8.
11-41
Soluciones del ejercicio: uso de la funcin syslog y las utilidades de auditora failrate_cnt=40 failrate_interval=60 inherit_env=TRUE tcp_trace=TRUE tcp_wrappers=FALSE 9. Repita el paso 5 y el paso 6. Aparecen mensajes nuevos relativos a telnet en el archivo /var/adm/messages? En caso afirmativo, enumrelos. Aparece un mensaje similar al siguiente: Nov 6 14:19:21 sys-02 inetd[224]: [ID 317013 daemon.notice] telnet[1181] from 192.168.201.21 32795
Tarea 2: uso del comando logger para demostrar cmo funcionan los niveles
Lleve a cabo los pasos siguientes: 1. Edite el archivo /etc/syslog.conf de forma que incluya la lnea siguiente: Cree un archivo llamado /var/log/local0.log. Mande un comando refresh al demonio syslogd para forzarlo a releer el archivo /etc/syslog.conf. Detenga el proceso tail en la ventana donde se est ejecutando el comando tail. Reinicie este comando de forma que muestre el final del archivo /var/log/local0.log. En una ventana disponible, ejecute la utilidad logger para enviar un mensaje usando la utilidad local0 y el nivel notice. Que nuevos mensajes presenta el comando tail, en caso de que muestre alguno? Aparece un mensaje similar al siguiente: Nov 04 15:21:49 host root: [ID 702911 local0.notice] Notice-level message
# tail -f /var/log/local0.log 5.
11-42
Soluciones del ejercicio: uso de la funcin syslog y las utilidades de auditora 6. En una ventana disponible, ejecute el comando logger para enviar un mensaje usando la utilidad local0 y el nivel crit. Que nuevos mensajes presenta el comando tail, en caso de que muestre alguno? Nov 04 15:24:43 host1 root: [ID 702911 local0.crit] Crit-level message Aparece un mensaje similar a ste porque crit es un nivel superior al de notice y el demonio syslogd est configurado para reconocer el nivel notice y los niveles superiores asociados a la utilidad local0. 7. Ejecute el comando logger del paso 5 tres veces. Examine la salida del comando tail en la otra ventana. Cuntos mensajes nuevos aparecen en el archivo /var/log/local0.log? Uno. El demonio syslogd no informar de las mltiples instancias del mismo mensaje hasta que se registre otro mensaje o se alcance el intervalo mark de syslogd. 8. Ejecute el comando logger con el mensaje de nivel crit en lugar del mensaje de nivel notice. Qu mensajes nuevos aparecen en el archivo /var/log/local0.log? Uno donde se indica que el mensaje anterior se ha repetido una serie de veces y el nuevo mensaje, por ejemplo: Nov 04 16:44:03 host last message repeated 4 times Nov 04 16:44:38 host root: [ID 702911 local0.notice] "New notice-level message" 9. Detenga el comando tail en la ventana donde se est ejecutando.
11-43
local0.notice<TAB>@sistema2 2.
# touch /var/log/local0.log Nota Si an no ha editado el archivo /etc/syslog.conf en el sistema2 de la tarea anterior, hgalo ahora. El archivo /etc/syslog.conf de sistema2 debe dirigir los mensajes de prioridad local0.notice a /var/log/local0.log. Asimismo, actualice el servicio system/system-log en sistema2. 4. En sistema2, abra una nueva ventana de terminal y utilice el comando tail para ver las nuevas entradas que van llegando al archivo /var/log/local0.log. En sistema1, utilice el comando logger para generar un mensaje utilizando el par de utilidad y nivel local0.notice. En sistema2, qu mensaje aparece en la ventana que ejecuta el comando tail? Un mensaje similar al siguiente: Nov 06 13:07:49 sistema1 root: [ID 702911 local0.notice] Mensaje del sistema1 7. Despus de asegurarse de que sistema1 haya pasado los mensajes correctamente a sistema2, detenga el comando tail en sistema2.
# tail -f /var/log/local0.log 5.
11-44
auth.notice
# /usr/ccs/bin/m4 -D LOGHOST /etc/syslog.conf auth.notice /var/log/authlog # /usr/ccs/bin/m4 /etc/syslog.conf auth.notice @loghost 5. Abra una ventana de terminal en ambos sistemas y utilice el comando tail para ver las nuevas entradas que van llegando al archivo /var/log/authlog.
# tail -f /var/log/authlog
11-45
Soluciones del ejercicio: uso de la funcin syslog y las utilidades de auditora 6. # rlogin sistema2 Password: xxxxxx ... # exit En sistema2, qu mensaje aparece en la ventana que ejecuta el comando tail? Aparece un mensaje similar al siguiente: Mar 31 09:15:23 sistema2 login: [ID 254462 auth.notice] ROOT LOGIN /dev/pts/7 FROM sistema2 Aparece algn mensaje nuevo en la ventana de sistema1 que ejecuta el comando tail? (s o no) No. 7. Cambie al directorio /etc/inet de sistema2 y realice una copia de seguridad del archivo /etc/inet/hosts. Edite el archivo /etc/inet/hosts para suprimir el alias loghost de la entrada correspondiente a sistema2 y agregarlo a la entrada correspondiente a sistema1. On Utilice el comando rlogin en sistema2 para acceder a su propio sistema y cierre la conexin.
# cd /etc/inet # cp hosts hosts.bak # vi hosts 8. 9. On Edite el archivo /etc/inet/ipnodes de sistema2 para suprimir el alias loghost de la entrada correspondiente a ese sistema.
En sistema2, utilice svcadm para forzar al demonio syslogd a releer el archivo /etc/syslog.conf. # svcadm refresh system/system-log 10. Utilice el comando rlogin en sistema2 para acceder a su propio sistema y cierre la conexin. # rlogin sistema2 Password: xxxxxx ... # exit Aparece algn mensaje nuevo en la ventana de sistema2 que ejecuta el comando tail? (s o no) No. En sistema1, qu mensaje aparece en la ventana que ejecuta el comando tail? Aparece un mensaje similar al siguiente: Nov 06 09:34:46 sistema2 login: [ID 254462 auth.notice] ROOT LOGIN /dev/pts/7 FROM sistema2
11-46
11-47
Mdulo 12
Describir el concepto de servicio de nombres. Describir el archivo de cambio de servicio de nombres, /etc/nsswitch.conf. Describir el demonio de cach del servicio de nombres (nscd) Obtener la informacin del servicio de nombres.
12-1
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
/etc/nsswitch.conf
12-2
Introduccin al concepto de servicio de nombres El proceso bsico es como sigue: 1. El cliente solicita datos administrativos a los que debe acceder debido a la peticin de algn proceso. El cliente hace referencia a su archivo de cambio de servicio de nombres local para determinar las posibles fuentes de servicios de nombres que deben examinarse. El archivo de cambio de servicio de nombres da instrucciones al cliente para buscar la informacin primero en los archivos locales. Cuando la informacin no se encuentra en los archivos locales, el archivo de cambio de servicio de nombres del cliente redirige la bsqueda a un servidor de nombres de red. El servidor de nombres busca la informacin en su base de datos. Cuando la encuentra, la enva al cliente que la ha solicitado.
2. 3.
4. 5.
Un nico punto de administracin de los datos del servicio de nombres Informacin de servicio de nombres homognea para todos los sistemas incluidos en el dominio Capacidad de los clientes para acceder a los datos modificados Seguridad de que los clientes no perdern ninguna actualizacin En un esquema basado en archivos, las actualizaciones distribuidas mediante FTP (File Transfer Protocol) podran no llegar a realizarse si un host dejase de funcionar o se desconectase de la red en el momento de propagar los cambios.
Los servidores secundarios eliminan la existencia de puntos nicos de fallo Aunque slo se necesita un nico servidor maestro, el esquema de servicios de nombres permite crear servidores secundarios (algunas veces llamados esclavos o rplicas). Estos servidores secundarios mantienen una copia de la base de datos del servidor maestro, reciben cambios y actualizaciones de la base de datos desde el sistema maestro y participan en la solucin de las consultas de los clientes. Por tanto, no slo resuelven el problema del punto nico de fallo, sino que tambin desempean un papel importante en mejorar el rendimiento del servicio de nombres, ya que equilibran la carga de trabajo generado al responder a las peticiones de los clientes en mltiples sistemas.
12-3
edu
com
mil
acme
sun
aus
eng
uk
corp
solaris
solaris.corp.sun.com
Introduccin al concepto de servicio de nombres La administracin de los dominios de nivel superior es responsabilidad de varias organizaciones que responden ante la autoridad competente en la materia, denominada ICANN (Internet Corporation for Assigned Names and Numbers). La administracin de los dominios de nivel inferior se ha delegado en varias organizaciones que son miembros de los nombres de dominio registrados dentro del dominio de nivel superior. El dominio de nivel superior que seleccione depender de cul responda mejor a las necesidades de su organizacin. Las organizaciones de gran tamao tienden a usar los dominios de organizacin, mientras que empresas o individuos a menudo eligen un cdigo de pas. Cualquier elemento que se site bajo la conexin con el dominio cae en una zona de autoridad mantenida por esa conexin con el dominio. Por ejemplo, cualquier cosa situada bajo sun.com reside dentro de la zona de autoridad correspondiente a Sun Microsystems, Inc. y por tanto, la mantiene Sun Microsystems, Inc. Los servidores de nombres DNS almacenan la informacin de los hosts y las direcciones IP en archivos denominados archivos de zona. Si se ha configurado el servidor DNS, el servicio svc:/network/dns/server:default lo inicia durante el proceso de arranque. Nota La configuracin de servidores DNS se cubre en el curso SA-300-S10, Administracin de redes Solaris 10.
12-5
hosts.byaddr hosts.byname
Nota Puede obtener la lista de todos los mapas de un sistema configurado con NIS ejecutando el comando ypwhich -m. NIS utiliza dominios para definir quin puede acceder a los nombres de hosts, la informacin de los usuarios y otros datos administrativos de su espacio de nombres. Sin embargo, NIS no utiliza ninguna jerarqua de dominios para guardar sus datos, lo que significa que su espacio de nombres es plano. No es posible buscar direcciones en Internet utilizando nicamente NIS. No obstante, las organizaciones que quieren utilizar NIS y tambin quieren localizar direcciones en Internet pueden combinar NIS con DNS. Por tanto, puede utilizar NIS para administrar toda la informacin local y DNS para buscar hosts en Internet. Solaris tambin permite configurar el archivo /etc/nsswitch.conf de forma que las peticiones de bsqueda de hosts hagan lo siguiente:
12-6
Interrogar a DNS y luego a NIS, en caso de que DNS no pueda responder a la peticin. Interrogar a NIS y luego a DNS, en caso de que NIS no pueda responder a la peticin.
NIS utiliza un modelo cliente-servidor similar al de DNS. Los servidores NIS replicados proporcionan servicios a los clientes NIS. El servidor principal se denomina servidor maestro y, para mayor fiabilidad, posee un servidor secundario o esclavo. Tanto los servidores maestros como los esclavos utilizan el software de obtencin de informacin de NIS y almacenan mapas de NIS. Cada servidor implementa NIS ejecutando el demonio ypserv. Todos los clientes y servidores NIS deben ejecutar el demonio ypbind para intercambiar la informacin de NIS. El servicio svc:/network/nis/server:default inicia el servidor NIS durante el proceso de arranque. Los procesos de NIS slo se inician si se ha configurado este servidor. El servicio svc:/network/nis/client:default inicia el cliente NIS durante el proceso de arranque.
12-7
12-8
Introduccin al concepto de servicio de nombres NIS+ incluye un sofisticado sistema de seguridad para proteger la estructura del espacio de nombres y su informacin. Utiliza procesos de autenticacin y autorizacin para verificar si debe responder a la peticin de informacin de un cliente. La autenticacin determina si el emisor de la peticin de informacin es un usuario vlido en la red. La autorizacin determina si a un determinado usuario se le permite recibir o modificar la informacin solicitada. Cada servidor implementa NIS+ ejecutando el demonio rpc.nisd. Los clientes y servidores NIS+ ejecutan el demonio nis_cachemgr para mejorar el rendimiento del acceso a los datos. El servicio svc:/network/rpc/nisplus:default inicia el servicio de nombres NIS+ durante el proceso de arranque. Los procesos de NIS+ slo se inician si se ha configurado y habilitado un servidor NIS+ con el comando svcadm enable svc:/network/rpc/nisplus:default.
12-9
Entradas de directorio
El servidor de directorio almacena los datos en un rbol denominado rbol de informacin del directorio (Directory Information Tree o DIT). Los clientes pueden solicitar informacin al servidor de directorio o realizar cambios en la informacin que ste contiene. La jerarqua del rbol de directorio es parecida a la del sistema de archivos de UNIX. Las entradas se designan mediante un nombre distintivo (DN) en funcin de la posicin que ocupan en esta estructura del rbol. El DN es similar a un nombre de ruta de acceso absoluta de UNIX. Un nombre distintivo relativo (RDN) es parecido a un nombre de ruta de acceso relativa de UNIX. Como en el sistema de archivos UNIX, las entradas de directorio del mismo nivel deben tener RDN nicos. Una entrada de directorio se compone de atributos que constan de un tipo y uno o varios valores. La sintaxis de cada atributo define los valores admitidos, o el tipo de datos permitido para los valores de atributo, como pueden ser caracteres ASCII (American Standard Code for Information Interchange) o datos numricos. LDAP tambin define cmo se interpretan esos valores durante una operacin del directorio, por ejemplo, determinar si en una bsqueda o comparacin se diferencia entre maysculas y minsculas. Como en el espacio de nombres de DNS, los nombres de las entradas de directorio LDAP (o DN) empiezan (desde la izquierda) por el componente menos significativo y continan por ese orden hasta el ms significativo. En otras palabras, aquellos situados justo debajo de la raz o root. El DN se construye concatenando la secuencia de componentes hasta la entrada raz del rbol. En la Figura 12-3 se ofrece un ejemplo de un rbol de informacin de directorio LDAP de Solaris.
Directorio raz
dc=suned, dc=com
ou = Gente
ou = Hosts
ou = Servicios
cn = Juan Lopez
cn = mailserver
cn = telnet
12-10
IP WAN
12-11
El siguiente es un ejemplo del archivo /etc/nsswitch.conf configurado para utilizar el servicio de nombres NIS mediante la plantilla /etc/nsswitch.nis. # # # # # # # # /etc/nsswitch.nis: An example file that could be copied over to /etc/nsswitch.conf; it uses NIS (YP) in conjunction with files. "hosts:" and "services:" in this file are used only if the /etc/netconfig file has a "-" for nametoaddr_libs of "inet" transports.
# NIS service requires that svc:/network/nis/client:default be enabled # and online. # the following two lines obviate the "+" entry in /etc/passwd and /etc/group. passwd: files nis group: files nis # consult /etc "files" only if nis is down. hosts: nis [NOTFOUND=return] files
12-12
# Note that IPv4 addresses are searched for in all of the ipnodes databases before searching the hosts databases. ipnodes: files #ipnodes: networks: protocols: rpc: ethers: netmasks: bootparams: publickey: netgroup: automount: aliases: nis [NOTFOUND=return] files nis nis nis nis nis nis nis nis files nis files nis [NOTFOUND=return] [NOTFOUND=return] [NOTFOUND=return] [NOTFOUND=return] [NOTFOUND=return] [NOTFOUND=return] [NOTFOUND=return] files files files files files files files
# for efficient getservbyname() avoid nis services: files nis sendmailvars: files printers: user files nis auth_attr: prof_attr: project: files nis files nis files nis El archivo /etc/nsswitch.conf contiene una lista de bases de datos que actan como fuente de referencia para obtener la informacin sobre direcciones IP, usuarios y grupos. Estos datos pueden proceder de diversas fuentes. Por ejemplo, los nombres y direcciones de los hosts se almacenan en el archivo /etc/inet/hosts, NIS, NIS+, LDAP o DNS. Cada base de datos tiene cero recursos o ms. Tanto los recursos como el orden en que se consultan se especifican en el archivo /etc/nsswitch.conf.
12-13
Las fuentes de informacin aparecen enumeradas en el orden con el que se consultan y se definen en la Tabla 12-3. Tabla 12-3 Fuentes de informacin Fuentes de informacin files Descripcin Indica que las entradas se obtienen de un archivo almacenado en el directorio /etc del cliente. Por ejemplo, /etc/hosts. Indica que las entradas se obtienen de una tabla de NIS+. Por ejemplo, la tabla hosts. Indica que las entradas se obtienen de un mapa de NIS. Por ejemplo, el mapa hosts. Indica que la informacin sobre los hosts se obtiene de DNS. Indica que las entradas se obtienen del directorio LDAP. Indica que la informacin de impresoras se obtiene del archivo ${HOME}/.printers.
Puede haber slo una fuente de informacin en la lista, en cuyo caso la bsqueda finaliza si no se encuentra la informacin. Si aparecen dos o ms fuentes, la bsqueda se inicia por la primera de ellas y luego se pasa a la siguiente. Las relaciones entre estas claves de servicios de nombres, cuando estn incluidas en el archivo nsswitch.conf, se explica con ms detalle en la Tabla 12-4 en la pgina 12-15 y la Tabla 12-5 en la pgina 12-15.
12-14
Cdigos de estado
Cuando se especifican varias fuentes de informacin, a veces es necesario definir con precisin las circunstancias bajo las que se consulta cada una de ellas. Cuando se hace referencia a un servicio de nombres, el intento de efectuar la bsqueda en esa fuente puede dar como resultado uno de los cdigos de estado que se explican en la Tabla 12-4. Tabla 12-4 Cdigos de los mensajes de estado Mensaje de estado SUCCESS UNAVAIL Significado del mensaje La entrada solicitada se ha encontrado en la fuente especificada. La fuente no est configurada en el sistema y no puede utilizarse. En otras palabras, no ha sido posible encontrar ni contactar con los procesos de NIS o NIS+. El recurso ha respondido con el mensaje No such entry (no existe esa entrada). En otras palabras, se ha accedido a la tabla, el mapa o el archivo, pero no contena la informacin necesaria. La fuente est ocupada. Podra responder si se intentase de nuevo. En otras palabras, el servicio de nombres se est ejecutando y se ha podido contactar con l, pero no ha podido responder a la consulta en ese momento.
NOTFOUND
TRYAGAIN
Acciones
Por cada cdigo de estado, existen dos posibles acciones, como se indica en la Tabla 12-5. Tabla 12-5 Acciones asociadas al cdigo de estado Accin return continue Significado de la accin Dejar de buscar la informacin. Buscar en la siguiente fuente, si la hay.
12-15
Introduccin al archivo de cambio de servicio de nombres Cuando no se especifica ninguna accin, la accin predeterminada es proseguir con la bsqueda utilizando la siguiente fuente de la lista, como se muestra a continuacin:
Por ejemplo: ipnodes: files En este ejemplo, el archivo /etc/inet/ipnodes se examina en busca de la primera entrada que coincida con el nombre de host solicitado. Si no se encuentra ninguna coincidencia, se devuelve el mensaje de error apropiado y no se contina la bsqueda en otras fuentes de informacin. Otro ejemplo: passwd: files nis En este caso, la entrada de contrasea solicitada se busca en los archivos apropiados del directorio /etc. Si no se encuentra en esos archivos, se busca en los mapas de NIS. Si tampoco se encuentra estos mapas, se devuelve el mensaje de error apropiado y no se contina la bsqueda en otras fuentes de informacin. Otro ejemplo: hosts: nis [NOTFOUND=return] files En este ejemplo, la bsqueda de la entrada se inicia en los mapas de NIS. Si la fuente (NIS) no se est ejecutando, el sistema devuelve el estado UNAVAIL y sigue buscando en el archivo /etc/inet/hosts. Si la fuente devuelve el estado NOTFOUND, se enva el mensaje de error adecuado y la bsqueda finaliza sin examinar el archivo /etc/inet/hosts.
12-16
Describir la finalidad del demonio ncsd. Configurar el demonio nscd. Detener e iniciar el demonio nscd.
Demonio nscd
El demonio nscd es un proceso que proporciona un espacio en cach para la mayora de las peticiones efectuadas habitualmente a los servicios de nombres. nscd se inicia durante el arranque en modo multiusuario. Su comportamiento se controla mediante el archivo de configuracin /etc/nscd.conf. El demonio nscd proporciona almacenamiento en cach para las bases de datos passwd, group, hosts, ipnodes, exec_attr, prof_attr y user_attr. Las llamadas del sistema de Solaris hacen referencia automtica a la cach de nscd si sta contiene el tipo de datos que necesitan. Las llamadas estndar recuperan los datos almacenados en la cach. Las llamadas adoptan la forma getXbyY, como, por ejemplo, gethostbyname, gethostbyaddr, etc. Los datos de cada cach tienen un periodo de vida definido de forma independiente. Por ejemplo, la modificacin de la base de datos local, /etc/inet/hosts, hace que la cach correspondiente quede invalidada para su uso en la siguiente llamada al demonio nscd.
12-17
Configuracin el demonio de cach del servicio de nombres (nscd) # Copyright (c) 1994-2001 by Sun Microsystems, Inc. # All rights reserved. # #ident "@(#)nscd.conf 1.6 01/01/26 SMI" # # # # # # #
Currently supported cache names: passwd, group, hosts, ipnodes exec_attr, prof_attr, user_attr
logfile enable-cache debug-level positive-time-to-live negative-time-to-live suggested-size keep-hot-count old-data-ok check-files positive-time-to-live negative-time-to-live suggested-size keep-hot-count old-data-ok check-files positive-time-to-live negative-time-to-live suggested-size keep-hot-count old-data-ok check-files positive-time-to-live negative-time-to-live suggested-size keep-hot-count old-data-ok check-files positive-time-to-live negative-time-to-live
/var/adm/nscd.log hosts no 0 passwd passwd passwd passwd passwd passwd group group group group group group hosts hosts hosts hosts hosts hosts ipnodes ipnodes ipnodes ipnodes ipnodes ipnodes exec_attr exec_attr 600 5 211 20 no yes 3600 5 211 20 no yes 3600 5 211 20 no yes 3600 5 211 20 no yes 3600 300
12-18
Configuracin el demonio de cach del servicio de nombres (nscd) suggested-size keep-hot-count old-data-ok check-files positive-time-to-live negative-time-to-live suggested-size keep-hot-count old-data-ok check-files positive-time-to-live negative-time-to-live suggested-size keep-hot-count old-data-ok check-files exec_attr exec_attr exec_attr exec_attr prof_attr prof_attr prof_attr prof_attr prof_attr prof_attr user_attr user_attr user_attr user_attr user_attr user_attr 211 20 no yes 3600 5 211 20 no yes 3600 5 211 20 no yes
12-19
12-20
Comando getent
Como administrador del sistema, puede consultar las fuentes de informacin de los servicios de nombres con herramientas tales como los comandos ypcat, nslookup, niscat y ldaplist. El comando ypcat se utiliza para consultar el espacio de nombres de NIS. El comando nslookup se emplea para consultar el espacio de nombres de DNS. Sin embargo, al tratar de resolver un problema, el uso de una de estas herramientas puede dar resultados distintos a los de las operaciones de bsqueda estndar porque estos comandos no hacen referencia al archivo nsswitch.conf. El comando getent proporciona las siguientes ventajas:
La primera de ellas es que examina las fuentes de informacin siguiendo el orden con el que estn configuradas en el archivo de cambio de servicio de nombres. Otra ventaja es que, al usar el archivo de cambio de servicio de nombres, los cdigos y acciones de los mensajes de estado definidos se comprueban tal y como estn configurados. Por tanto, si una accin return se ha colocado de forma inadecuada en el archivo de cambio de servicio de nombres, el comando getent detecta el problema, mientras que lo comandos especficos del servicio de nombres utilizados para comprobar sus fuentes de informacin, como ypcat o nslookup, no lo detectarn porque utilizan directamente la base de datos del servicio, sin hacer referencia al archivo nsswitch.conf.
12-21
clave
En los ejemplos siguientes, el archivo /etc/nsswitch.conf se ha configurado para buscar primero en los archivos locales y luego en NIS. # getent passwd lp lp:x:71:8:LinePrinter Admin:/usr/spool/lp: # getent group 10 staff::10: # getent hosts sys44 192.168.30.44 sys44 loghost En el ejemplo anterior se da por supuesto que el archivo /etc/nsswitch.conf est configurado para buscar primero en los archivos locales y luego en NIS. Si /etc/nsswitch.conf se configura para buscar primero en NIS y luego pasar a los archivos locales, el resultado de la bsqueda ser: # getent hosts sys44 192.168.30.44 sys44 Observe la ausencia de loghost en esta salida. El alias loghost es un elemento de la entrada sys44 en el archivo /etc/inet/hosts pero no en el mapa de NIS. Por tanto, cuando se altera el orden de bsqueda del archivo /etc/nsswitch.conf, el comando getent busca la entrada en el mapa de NIS antes de consultar el archivo /etc/inet/hosts.
12-22
Preparacin
Si es necesario, consulte sus apuntes para responder a las preguntas del ejercicio.
Tareas
Responda a las siguientes preguntas: 1. Enumere los servicios de nombres que pueden configurarse en el archivo /etc/nsswitch.conf. _________________________________________________________ _________________________________________________________ 2. Que servicio de nombres se selecciona de forma predeterminada durante la instalacin de Solaris 10? _________________________________________________________ 3. Cules son los dos principales servicios proporcionados por DNS? _________________________________________________________ _________________________________________________________ 4. Qu tipo de informacin se guarda en el espacio de nombres de NIS+? _________________________________________________________ _________________________________________________________ 5. Qu archivo se utiliza como archivo de cambio de servicio de nombres y por qu? _________________________________________________________ _________________________________________________________ 6. Si decide usar LDAP para la resolucin de nombres, qu archivo de plantilla utilizara para crear el archivo de cambio de servicio de nombres? _________________________________________________________ _________________________________________________________
12-23
Ejercicio: repaso de los servicios de nombres 7. Cmo se interpreta la siguiente entrada del archivo de cambio de servicio de nombres? hosts: nis [NOTFOUND=return] files _________________________________________________________ _________________________________________________________ 8. La siguiente entrada es apropiada para el archivo /etc/nsswitch.conf? Razone la respuesta. group: dns files nis _________________________________________________________ _________________________________________________________
12-24
!
?
12-25
/etc/nsswitch.ldap 7.
12-26
Resumen del ejercicio 8. La siguiente entrada es apropiada para el archivo /etc/nsswitch.conf? Razone la respuesta. No es una entrada apropiada para el archivo /etc/nsswitch.conf porque dns slo es aplicable a la entrada hosts del archivo de cambio de servicio de nombres.
12-27
Mdulo 13
13-1
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
--Name Service---------On this screen you must provide name service information. Select the name service that will be used by this system, or None if your system will either not use a name service at all, or if it will use a name service not listed here. > To make a selection, use the arrow keys to highlight the option and press Return to mark it [X].
13-2
Esc-2_Continue 2.
Esc-6_Help
En la ventana Domain Name (nombre del dominio), especifique el nombre del dominio al que pertenece el cliente y pulse Esc-2 para continuar.
--Domain Name---------On this screen you must specify the domain where this system resides. Make sure you enter the name correctly including capitalization and punctuation.
Esc-2_Continue 3.
Esc-6_Help En la ventana DNS Server Address (direccin del servidor DNS), introduzca las direcciones IP de un mximo de tres servidores DNS que el cliente pueda utilizar para sus bsquedas, a continuacin pulse Esc-2 para continuar.
--DNS Server Addresses---------On this screen you must enter the IP address of your DNS server(s). You must enter at least one address. IP addresses must contain four sets of numbers separated by periods (for example 129.200.9.1).
Esc-2_Continue
Esc-6_Help
13-3
Configuracin de un cliente DNS 4. En la ventana DNS Search List (lista de bsqueda de DNS), especifique los sufijos de bsqueda que complementarn las bsquedas de nombres que no estn completamente calificados (nombres que no incluyan el nombre de dominio completo), luego pulse Esc-2 para continuar.
--DNS Search List---------On this screen you can enter a list of domains that will be searched when a DNS query is made. If you do not enter any domains, DNS will only search the DNS domain chosen for this system. The domains entered, when concatenated, may not be longer than 250 characters.
Esc-2_Continue 5.
Esc-6_Help
En la ventana Confirm Information (confirmar informacin), compruebe si la informacin introducida es correcta y pulse Esc-2 para continuar.
--Confirm Information---------> Confirm the following information. If it is correct, press F2; to change any information, press F4.
Esc-2_Continue
Esc-4_Change
Esc-6_Help
13-4
domain
search
Domain y search son dos directivas vlidas del archivo /etc/resolv.conf y, si aparecen juntas, se utiliza la ltima que se haya especificado. En el siguiente ejemplo del archivo resolv.conf se muestran dos servidores de nombres del dominio suned.sun.com. # cat /etc/resolv.conf nameserver 192.168.10.11 nameserver 192.168.20.88 domain suned.sun.com
13-5
13-6
Autenticacin de clientes
Un cliente LDAP puede usar un servidor LDAP en modo autenticado o annimo. En el modo autenticado, el cliente tiene que establecer una sesin con el servidor LDAP. Este proceso de autenticacin se conoce como enlace (binding). Una vez autenticado, el cliente puede realizar operaciones como la bsqueda y modificacin de datos. La autorizacin consiste en otorgar acceso a recursos controlados del sistema. En la configuracin predeterminada, los clientes LDAP de Solaris tienen acceso de slo lectura a datos del servicio de nombres tales como los nombres de host, los alias de correo electrnico y los grupos de la red. Los usuarios pueden tener acceso de lectura y escritura a determinados datos, como pueden ser sus propias contraseas. Las cuentas de administracin con privilegios tienen acceso de lectura y escritura a otros datos. Cuando finaliza, el cliente interrumpe el enlace o cierra la sesin. Los datos sobre cmo se autentica el cliente y qu informacin est autorizado a manejar se mantienen en el servidor LDAP. Para simplificar la configuracin de los clientes en Solaris y evitar la necesidad de volver a introducir la misma informacin por cada uno de ellos, se crea un solo perfil de cliente en el servidor de directorio.
13-7
Contiene las credenciales del cliente. Describe cmo se realiza la autenticacin. Proporciona al cliente diferentes parmetros de configuracin.
Es posible crear una cuenta proxy para hacer que varios clientes puedan enlazar con el servidor utilizando los mismos privilegios de acceso. Slo se necesita un nombre y una contrasea para que todos los clientes de un mismo grupo abran la sesin en el servidor LDAP, lo que evita la necesidad de configurar cada cliente con su propio nombre de cuenta y contrasea.
Inicializacin de clientes
El perfil de cliente y la cuenta proxy pueden crearse como parte de los procedimientos de configuracin de Sun Java Directory Server en Solaris 10. El perfil de cliente denominado default y la cuenta proxy proxyagent se crean de forma predeterminada en una entrada especial del directorio de perfiles. Cuando se inicializa el cliente LDAP de Solaris, se obtiene una copia del perfil de cliente del servidor y se almacena en el disco. En el cliente LDAP, el demonio ldap_cachemgr es responsable de mantener y actualizar los datos en el perfil. Este demonio mantiene una copia del perfil en la memoria y la utiliza cuando enlaza con el servidor.
13-8
--Name Service---------On this screen you must provide name service information. Select the name service that will be used by this system, or None if your system will either not use a name service at all, or if it will use a name service not listed here. > To make a selection, use the arrow keys to highlight the option and press Return to mark it [X].
Esc-2_Continue
Nota Para poder especificar LDAP como servicio de nombres, el nombre de host del cliente debe estar incluido en el contenedor ou=hosts del servidor LDAP. 2. En la ventana Domain Name (nombre del dominio), especifique el dominio al que pertenece el sistema y pulse Esc-2 para continuar.
--Domain Name---------On this screen you must specify the domain where this system resides. Make sure you enter the name correctly including capitalization and punctuation.
Esc-2_Continue
Esc-6_Help
13-9
Configuracin de un cliente LDAP 3. En la ventana LDAP Profile (perfil de LDAP), introduzca el nombre del perfil y la direccin IP del servidor, y pulse Esc-2 para continuar.
--LDAP Profile---------On this screen you must specify the name of the LDAP profile to be used to configure this system, as well as the IP address of the server that contains the profile.
Esc-2_Continue 4.
Esc-6_Help
En la ventana LDAP Proxy Bind (enlace con proxy de LDAP), seleccione No y pulse Esc-2 para continuar.
--Provide LDAP Proxy Bind Information---------If the profile you are using specifies a proxy credential level and the authentication method is NOT none, provide LDAP proxy bind information. > Use the arrow keys to select the option and press Return to mark it [X].
Esc-2_Continue
Esc-6_Help
13-10
Configuracin de un cliente LDAP 5. En la ventana Confirm Information (confirmar informacin), compruebe si los datos introducidos son correctos y pulse Esc-2 para continuar.
--Confirm Information---------> Confirm the following information. If it is correct, press F2; to change any information, press F4.
Name service: Domain name: Profile name: Profile server IP address: Specify LDAP Proxy Bind Information:
Esc-2_Continue
Esc-4_Change
Esc-6_Help
Nota La informacin que debe suministrarse durante la instalacin es similar a la que se introducira al utilizar el comando ldapclient.
13-11
Los clientes enlazan con el directorio utilizando una cuenta proxy. Es posible configurar varias cuentas proxy para que los usuarios de LDAP slo tengan acceso a los datos convenientes del directorio. Esto difiere de las cuentas annimas, que tienen acceso a todos los datos almacenados en el directorio. Cada cuenta proxy debera tener una contrasea. La contrasea se almacena en el cliente LDAP. El comando ldapclient crea dos archivos en el directorio /var/ldap del cliente LDAP. Dichos archivos contienen la informacin que los clientes LDAP usan al enlazar con la base de datos de LDAP y acceder a ella. Nota En estos momentos, los dos archivos del directorio /var/ldap son ASCII, pero podran no serlo en el futuro. Utilizar el comando ldapclient list es la mejor manera de ver esta informacin.
13-12
Configuracin de un cliente LDAP El archivo ldap_client_cred contiene la informacin del agente proxy que el cliente utiliza para la autenticacin LDAP, por ejemplo: # cat /var/ldap/ldap_client_cred # # Do not edit this file manually; your changes will be lost.Please use ldapclient (1M) instead. # NS_LDAP_BINDDN= cn=proxyagent,ou=profile,dc=suned,dc=sun,dc=com NS_LDAP_BINDPASSWD= {NS1}ecc423aad0 El archivo ldap_client_file contiene la informacin de configuracin obtenida del perfil de cliente de la base de datos del servidor LDAP, por ejemplo: # cat /var/ldap/ldap_client_file # # Do not edit this file manually; your changes will be lost.Please use ldapclient (1M) instead. # NS_LDAP_FILE_VERSION= 2.0 NS_LDAP_SERVERS= 192.168.0.100 NS_LDAP_SEARCH_BASEDN= dc=suned,dc=sun,dc=com NS_LDAP_AUTH= simple NS_LDAP_SEARCH_REF= FALSE NS_LDAP_SEARCH_SCOPE= one NS_LDAP_SEARCH_TIME= 30 NS_LDAP_CACHETTL= 43200 NS_LDAP_PROFILE= default NS_LDAP_CREDENTIAL_LEVEL= proxy NS_LDAP_BIND_TIME= 10 Nota No modifique el archivo /var/ldap/ldap_client_file directamente. Tambin puede utilizar el comando ldapclient para ver la configuracin local del cliente en un momento dado. Consulte la pgina del comando man de ldapclient para ver la explicacin de estos atributos. # ldapclient list NS_LDAP_FILE_VERSION= 2.0 NS_LDAP_BINDDN= cn=proxyagent,ou=profile,dc=suned,dc=sun,dc=com NS_LDAP_BINDPASSWD= {NS1}ecc423aad0 NS_LDAP_SERVERS= 192.168.0.100 NS_LDAP_SEARCH_BASEDN= dc=suned,dc=sun,dc=com NS_LDAP_AUTH= simple NS_LDAP_SEARCH_REF= FALSE
Configuracin de los clientes del servicio de nombres
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
13-13
Configuracin de un cliente LDAP NS_LDAP_SEARCH_SCOPE= one NS_LDAP_SEARCH_TIME= 30 NS_LDAP_PROFILE= default NS_LDAP_CREDENTIAL_LEVEL= proxy NS_LDAP_BIND_TIME= 10
# LDAP service requires that svc:/network/ldap/client:default be enabled # and online. # the following two lines obviate the "+" entry in /etc/passwd and /etc/group. passwd: files ldap group: files ldap # consult /etc "files" only if ldap is down. hosts: ldap [NOTFOUND=return] files # Note that IPv4 addresses are searched for in all of the ipnodes databases # before searching the hosts databases. ipnodes: ldap [NOTFOUND=return] files networks: protocols: rpc: ethers: netmasks: bootparams: publickey:
13-14
# for efficient getservbyname() avoid ldap services: files ldap printers: user files ldap
13-15
Configuracin de un cliente LDAP dn: ou=profile,dc=suned,dc=sun,dc=com dn: nismapname=auto_home,dc=suned,dc=sun,dc=com dn: nismapname=auto_direct,dc=suned,dc=sun,dc=com dn: nismapname=auto_master,dc=suned,dc=sun,dc=com
13-16
Preparacin
Consulte sus apuntes si es necesario para realizar las tareas indicadas. El sistema del profesor est configurado como servidor DNS y servidor LDAP para la red de la clase, y utiliza el nombre de dominio suned.sun.com.
Tarea
Lleve a cabo los pasos siguientes: 1. 2. Agregue DNS al servicio de nombres copiando el archivo /etc/nsswitch.dns en el archivo /etc/nsswitch.conf. Cree el archivo /etc/resolv.conf y realice estos pasos: a. b. c. 3. 4. Agregue una directiva nameserver utilizando la direccin del sistema del profesor, por ejemplo: 192.168.30.30. Agregue una directiva domain, por ejemplo: suned.sun.com. Agregue una directiva search, por ejemplo: suned.sun.com.
Habilite el servicio DNS en el cliente con SMF para asegurarse de que se est ejecutando. Compruebe si puede acceder a otro sistema de la clase utilizando el comando ping. Primero utilice slo el nombre de host y luego, el nombre de dominio totalmente calificado, por ejemplo: nombrehost.suned.sun.com.
5.
Configure el nombre de dominio en su sistema cliente, por ejemplo: # vi /etc/defaultdomain suned.sun.com # domainname suned.sun.com
13-17
Ejercicio: configuracin de un sistema para que utilice DNS y LDAP 6. Lleve a cabo los pasos siguientes: a. b. Utilice el comando ldapclient para inicializar el sistema. El nombre del perfil es default. Utilice la direccin IP del sistema del profesor. # ldapclient -v init -a proxyPassword=proxy \ -a proxyDN=cn=proxyagent,ou=profile,dc=suned,dc=sun,dc=com \ -a domainname=suned.sun.com <direccin IP del profesor> 7. 8. Asegrese de que el archivo de cambio de servicio de nombres se haya actualizado con la configuracin de LDAP. Utilice el comando ping para cerciorarse de que puede acceder a otro sistema de la clase. Primero utilice slo el nombre del host y luego, el nombre de dominio totalmente calificado, por ejemplo: nombrehost.suned.sun.com. 9. Muestre en la pantalla los contenedores de DIT. 10. Muestre en la pantalla el contenedor Hosts. 11. Desconfigure el cliente LDAP. 12. Compruebe si la configuracin de LDAP se ha suprimido del archivo de cambio de servicio de nombres.
13-18
!
?
13-19
Soluciones del ejercicio: configuracin de un sistema para que utilice DNS y LDAP
Soluciones del ejercicio: configuracin de un sistema para que utilice DNS y LDAP
En este ejercicio, debe configurar el sistema cliente de Solaris 10 para que utilice DNS y LDAP como servicios de nombres.
Preparacin
Consulte sus apuntes si es necesario para realizar las tareas indicadas. El sistema del profesor est configurado para actuar como servidor DNS y servidor LDAP en la red de la clase, que normalmente usar el nombre de dominio suned.sun.com. En caso de que el dominio no sea suned.sun.com, el profesor le proporcionar el nombre de dominio correcto.
Tareas y soluciones
Lleve a cabo los pasos siguientes: 1. Agregue DNS al servicio de nombres copiando el archivo /etc/nsswitch.dns en el archivo /etc/nsswitch.conf. Cree el archivo /etc/resolv.conf y realice estos pasos: a. b. c. Agregue una directiva nameserver utilizando la direccin del sistema del profesor, por ejemplo: 192.168.30.30. Agregue una directiva domain, por ejemplo: suned.sun.com. Agregue una directiva search, por ejemplo: suned.sun.com.
# cp /etc/nsswitch.dns /etc/nsswitch.conf 2.
# vi /etc/resolv.conf nameserver 192.168.30.30 domain suned.sun.com search suned.sun.com 3. Habilite el servicio DNS en el cliente con SMF para asegurarse de que se est ejecutando.
13-20
Soluciones del ejercicio: configuracin de un sistema para que utilice DNS y LDAP 4. Utilice el comando ping para cerciorarse de que puede acceder a otro sistema de la clase. Primero utilice slo el nombre del host y luego el nombre de dominio totalmente calificado, por ejemplo: nombrehost.suned.sun.com. # ping sys43 sys43 is alive # ping sys43.suned.sun.com sys43.suned.sun.com is alive 5. Configure el nombre de dominio en su sistema cliente, por ejemplo: # vi /etc/defaultdomain suned.sun.com # domainname suned.sun.com Lleve a cabo los pasos siguientes: a. Utilice el comando ldapclient para inicializar el sistema. El nombre del perfil es default. b. Utilice la direccin IP del sistema del profesor. # ldapclient -v init -a proxyPassword=proxy \ -a proxyDN=cn=proxyagent,ou=profile,dc=suned,dc=sun,dc=com \ -a domainname=suned.sun.com <direccin IP del profesor> Parsing proxyPassword=proxy Parsing proxyDN=cn=proxyagent,ou=profile,dc=suned,dc=sun,dc=com Parsing domainname=suned.sun.com (salida omitida para mayor brevedad) restart: milestone/name-services:default... success System successfully configured # Asegrese de que el archivo de cambio de servicio de nombres se haya actualizado con la configuracin de LDAP. # grep hosts: /etc/nsswitch.conf # "hosts:" and "services:" in this file are used only if the hosts: ldap [NOTFOUND=return] files # 8. Utilice el comando ping para cerciorarse de que puede acceder a otro sistema de la clase. Primero utilice slo el nombre del host y luego el nombre de dominio totalmente calificado, por ejemplo: nombrehost.suned.sun.com. # ping sys43 sys43 is alive # ping sys43.suned.sun.com sys43.suned.sun.com is alive 7.
6.
13-21
Soluciones del ejercicio: configuracin de un sistema para que utilice DNS y LDAP 9. Muestre en la pantalla los contenedores de DIT.
# ldaplist dn: cn=Directory Administrators, dc=suned,dc=sun,dc=com (output omitted for brevity) # 10. Muestre en la pantalla el contenedor Hosts. # ldaplist hosts (salida omitida para mayor brevedad) dn: cn=sys-01,ou=hosts,dc=suned,dc=sun,dc=com dn: cn=sys-01.suned.sun.com,ou=hosts,dc=suned,dc=sun,dc=com # 11. Desconfigure el cliente LDAP. # ldapclient -v uninit Arguments parsed: Handling uninit option Restoring machine to previous configuration state (salida omitida para mayor brevedad) restart: milestone/name-services:default... success System successfully recovered # 12. Compruebe si la configuracin de LDAP se ha suprimido del archivo de cambio de servicio de nombres. # grep hosts: /etc/nsswitch.conf # "hosts:" and "services:" in this file are used only if the hosts: files #
13-22
Mdulo 14
Describir las nociones fundamentales de NIS. Configurar el archivo de cambio de servicio de nombres. Describir la seguridad en NIS. Configurar un dominio NIS. Crear mapas de NIS personalizados. Resolver errores relacionados con NIS.
14-1
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
La administracin centralizada de los archivos de administracin. Una mejor adaptacin de la administracin de estos archivos al crecimiento de la red.
En la Figura 14-1 puede verse cmo se organiza NIS en dominios de administracin designados. En principio, dentro de cada dominio existe un servidor NIS maestro, cero o varios servidores esclavos y uno o ms clientes.
Servidor maestro
Mapas make Archivos ASCII Propagacin
Servidor esclavo
Mapas
Lookup Consulta
Consulta Lookup
Cliente
Cliente
Cliente
Cliente
14-2
La sintaxis de los mapas de NIS es: mapa.clave.pag y mapa.clave.dir Donde: mapa clave pag dir Es el nombre base del mapa (hosts, passwd, etc.). Es la clave de indexacin del mapa (byname, byaddr, etc). Son los datos del mapa. Es un ndice del archivo *.pag. Si *.pag es pequeo, el archivo *.dir podra estar vaco.
Algunas veces las bsquedas se realizan utilizando nombres. Otras veces, se realizan mediante un nmero de ID. Conviene recordar que es posible forzar la bsqueda para que se efecte en el archivo de mapa de NIS apropiado. Por ejemplo: # ypmatch -k chris passwd.byname chris: chris:MWnTvQ5PGuiYo:100:1::/export/home/chris:/usr/bin/ksh # ypmatch -k chris passwd.byuid Cant match key chris in map passwd.byuid. Reason: no such key in map. # ypmatch -k 100 passwd.byuid 100: chris:MWnTvQ5PGuiYo:100:1::/export/home/chris:/usr/bin/ksh
14-3
ypcat [ -k ] nombremapa: este comando presenta los valores del mapa de servicio de nombres NIS especificado en el argumento nombremapa, que puede ser un nombre real o un sobrenombre del mapa. instructor instructor. loghost instructor instructor. loghost localhost instructor instructor. loghost sys41 sys34
ypmatch [ -k ] valor nombremapa: este comando presenta los valores asociados a una o varias claves del mapa de servicio de nombres NIS especificado en el argumento nombremapa, que puede ser un nombre real o un sobrenombre del mapa.
# ypmatch sys44 hosts sys44: 192.168.30.44 sys44 loghost # ypmatch usera passwd usera: usera:LojyTdiQev5i2:3001:10::/export/home/usera:/bin/ksh
Dominios NIS
Un dominio NIS es un grupo de hosts y redes interconectadas que se organizan en el marco de una misma autoridad administrativa. NIS utiliza dominios para organizar los hosts, los usuarios y las redes en su espacio de nombres. El espacio de nombres NIS no utiliza dominios jerarquizados. Cada dominio NIS contiene:
14-4
Contiene los archivos ASCII que sirven de origen para crear los mapas de NIS. Contiene los mapas de NIS generados a partir de los archivos ASCII. Proporciona un punto nico de control para todo el dominio NIS.
No contienen los archivos ASCII que sirven de origen para crear los mapas de NIS. Contiene copias de los mapas de NIS obtenidas del servidor NIS maestro. Proporciona una copia de seguridad de los datos de los mapas de NIS. Proporciona redundancia en caso de fallo de un servidor. Permite compartir la carga en redes de gran tamao.
Clientes NIS
Dentro de cada dominio, los clientes NIS:
No contienen los archivos ASCII que sirven de origen para crear los mapas de NIS. No contienen ningn mapa de NIS. Enlazan con el servidor maestro o con un servidor esclavo para obtener acceso a los datos de los archivos de administracin incluidos en los mapas del servidor. Reenlazan dinmicamente con otro servidor en caso de que falle aquel con el que han conectado. Hacen todas las llamadas del sistema apropiadas para NIS.
Nota Todos los hosts del entorno NIS son clientes. Todos los clientes NIS que estn configurados como servidor maestro y servidor esclavo contienen copias de los mapas de NIS para poder realizar la funcin de servidor.
14-5
Procesos de NIS
Los principales demonios implicados en la ejecucin de un dominio NIS son:
El demonio ypserv El demonio ypbind El demonio rpc.yppasswdd El demonio ypxfrd El demonio rpc.ypupdated
Servidor maestro
Mapas make Archivos ASCII Consulta Lookup Propagacin
Servidor esclavo
Mapas
Consulta Lookup
Cliente
Cliente
Cliente
Cliente
ypbind
ypbind
ypbind
ypbind
14-6
Demonio ypserv
El demonio ypserv:
Se ejecuta en el servidor maestro y los servidores esclavos. Responde a las peticiones ypbind de los clientes. Responde a las peticiones de informacin de los clientes.
Demonio ypbind
El demonio ypbind:
Se ejecuta en todos los sistemas cliente. Realiza las peticiones iniciales de enlace cliente-servidor. Guarda la informacin de enlace en el directorio /var/yp/binding/nombredominio. Enlaza con otro servidor si se pierde la conexin con el servidor inicial. Solicita informacin de los mapas de NIS en el nivel de biblioteca.
Demonio rpc.yppasswdd
El demonio rpc.yppasswdd:
Permite a los usuarios cambiar sus contraseas. Actualiza los archivos passwd y shadow en el servidor maestro. Actualiza el mapa de contraseas de NIS. Proporciona o propaga el mapa de contraseas de NIS a todos los servidores esclavos.
Demonio ypxfrd
El demonio ypxfrd:
Se ejecuta slo en el servidor NIS maestro. Responde a las peticiones generadas en los servidores esclavos utilizando el comando ypxfr para extraer o propagar los mapas desde el servidor maestro. Transfiere los mapas de NIS.
14-7
Demonio rpc.ypupdated
El demonio rpc.ypupdated:
Se ejecuta slo en el servidor NIS maestro. Actualiza los mapas de NIS utilizando la configuracin almacenada en el archivo /var/yp/updaters.
Nota El demonio rpc.ypupdated y el archivo /var/yp/updaters estn relacionados con sistemas que ejecutan servicios de RPC (llamada de procedimiento remoto) seguros. En la configuracin predeterminada, el archivo Makefile del servidor maestro que efecta la actualizacin no se utiliza para autenticar los cambios en los mapas de NIS convencionales.
14-8
# the following two lines obviate the "+" entry in /etc/passwd and /etc/group. passwd: files nis group: files nis # consult /etc "files" only if nis is down. hosts: nis [NOTFOUND=return] files # Note that IPv4 addresses are searched for in all of the ipnodes databases # before searching the hosts databases. ipnodes: nis [NOTFOUND=return] files networks: protocols: rpc: ethers: netmasks: bootparams: publickey: netgroup: automount: nis nis nis nis nis nis nis nis files nis [NOTFOUND=return] [NOTFOUND=return] [NOTFOUND=return] [NOTFOUND=return] [NOTFOUND=return] [NOTFOUND=return] [NOTFOUND=return] files files files files files files files
14-9
# for efficient getservbyname() avoid nis services: files nis printers: user files nis auth_attr: prof_attr: project: files nis files nis files nis
El archivo de cambio de servicio de nombres se compone de una lista de bases de datos. Cada entrada va seguida de listas ordenadas de datos que ayudan a localizar informacin especfica de las bases de datos correspondientes. Aunque es posible personalizar el archivo nsswitch.conf para especificar cualquier orden de bsqueda, los rdenes ms habituales son:
Buscar en los archivos locales y luego en NIS. Buscar en NIS y luego en los archivos locales. Buscar en los archivos locales, luego en NIS y luego en DNS.
Cambio de las peticiones de bsqueda para pasar de los archivos locales a NIS
Solaris 10 se entrega con un archivo /etc/nsswitch.nis predeterminado. Este archivo ayuda a determinadas bases de datos a enviar peticiones de bsqueda a los archivos locales y luego a los mapas de NIS: passwd: group: automount: aliases: services: auth_attr: prof_attr: project: files files files files files files files files nis nis nis nis nis nis nis nis
Si tomamos la base de datos passwd como ejemplo, la entrada indica que la bsqueda de informacin de los usuarios se realiza primero en los archivos /etc/passwd y /etc/shadow. Si no se encuentra la informacin en estos archivos, las peticiones de bsqueda de contrasea consultan los mapas del servidor NIS.
14-10
Cambio de las peticiones de bsqueda para pasar de NIS a los archivos locales
El archivo /etc/nsswitch.nis predeterminado, que se entrega con Solaris 10, tambin est configurado para que determinadas bases de datos puedan enviar peticiones de bsqueda primero a los mapas de NIS y luego a los archivos locales. Las bases de datos que siguen este procedimiento son: hosts: networks: protocols: rpc: ethers: netmasks: bootparams: publickey: nis nis nis nis nis nis nis nis [NOTFOUND=return] [NOTFOUND=return] [NOTFOUND=return] [NOTFOUND=return] [NOTFOUND=return] [NOTFOUND=return] [NOTFOUND=return] [NOTFOUND=return] files files files files files files files files
Si usamos la base de datos hosts como ejemplo, la entrada indica que las peticiones de bsqueda de hosts buscarn primero en los mapas del servidor NIS. Si el servicio NIS no est disponible, la bsqueda continuar por los archivos locales. No obstante, si el servicio NIS est disponible pero la entrada de hosts no se encuentra en este servicio, la bsqueda finaliza (return) sin buscar en los archivos locales. Para definir esta bsqueda en mayor medida, utilice un mensaje de estado y una opcin de accin en el archivo de cambio de servicio de nombres. La condicin [NOTFOUND=return] funciona de la manera siguiente:
Si los archivos fuente de los mapas de NIS no responden o no estn disponibles, significa que no es posible acceder al mapa. En tal caso, debe continuar buscando el mapa en el archivo local. Si recibe la respuesta no such entry de los mapas de NIS, quiere decir que la condicin NOTFOUND se ha configurado con la accin return, que hace que el sistema deje de buscar la informacin. Por tanto, cuando no se encuentra la entrada en el archivo del mapa de NIS, la bsqueda se detiene.
El cliente NIS solicita la informacin al servidor NIS de la forma habitual. Si no se encuentra la informacin, la solicita directamente al servidor DNS. El cliente NIS est configurado como cliente DNS para que pueda pedir la informacin directamente al servidor DNS. Esto significa que no necesita configurar el archivo Makefile. Si utiliza este mtodo, puede configurar la fuente de informacin de la base de datos hosts del archivo /etc/nsswitch.conf de forma que reconozca los servicios NIS y DNS.
14-11
Configuracin del archivo de cambio de servicio de nombres En la lnea siguiente, primero se solicita la informacin al espacio de nombres de NIS y, si no se encuentra, se busca en el espacio de nombres de DNS. hosts: nis dns La Figura 14-3 muestra el proceso de bsqueda en los espacios de nombres de NIS y DNS. Si la informacin no se encuentra en el espacio de nombres de NIS, el servidor NIS devuelve el estado NOTFOUND. En el archivo de cambio de servicio de nombres, la accin predeterminada para el estado NOTFOUND es proseguir la bsqueda en la siguiente fuente de informacin de la lista. En este caso, la siguiente fuente de informacin es DNS, lo que significa que el cliente solicita la informacin al espacio de nombres de DNS.
Cliente NIS Servidor NIS Servidor DNS
Cronologa
1 2 3 4
14-12
Archivo securenets
El archivo /var/yp/securenets limita el acceso a los servicios NIS. Si hay un archivo /var/yp/securenets en un servidor NIS, el servidor slo responde a consultas o suministra mapas a los hosts y redes cuyas direcciones IP figuren en ese archivo. El servidor debe ser capaz de acceder a s mismo. Para ello, tiene que formar parte de la subred autorizada a acceder a ese servidor o se puede agregar la entrada siguiente: host 127.0.0.1 El ejemplo siguiente contiene un fragmento de un archivo securenets donde:
El servidor est configurado para acceder a s mismo. Se ha configurado una red de clase C para el acceso. Se han configurado dos hosts concretos, 13.13.14.1 y 13.13.14.2, para acceder a la informacin de NIS.
# Each line contains two fields separated by white space. (salida omitida para mayor brevedad) # host 127.0.0.1 255.255.255.0 150.10.1.0 host 13.13.14.1 host 13.13.14.2 Si modifica entradas en el archivo /var/yp/securenets, deber detener y reiniciar los demonios ypserv y ypxfrd. Para reiniciar estos demonios, detenga y reinicie los servicios de NIS con: # svcadm disable svc:/network/nis/server:default # svcadm enable svc:/network/nis/server:default
14-13
Introduccin a la seguridad de NIS Atencin La detencin e inicio de los servicios de NIS hace que sea imposible acceder a los servicios de nombres durante un breve periodo de tiempo.
Archivo passwd.adjunct
Nota Consulte la seccin Using NIS with C2 Security en el manual System Administration Guide: Naming and Directory Services (DNS, NIS, and LDAP) de docs.sun.com para obtener ms informacin sobre el archivo password.adjunct. El archivo passwd.adjunct impide que usuarios no autorizados puedan ver las contraseas cifradas que normalmente aparecen al examinar el contenido de los mapas passwd de NIS. Normalmente, las contraseas cifradas se ocultan a la vista del usuario en el archivo /etc/shadow. Sin embargo, en la configuracin predeterminada de NIS, la cadena de la contrasea cifrada se muestra como parte de los mapas passwd. En el ejemplo siguiente se observa cmo el usuario passwd se oculta en la vista del archivo /etc/passwd: # grep usera /etc/passwd usera:x:3001:10::/export/home/usera:/bin/ksh Cuando se ejecuta el comando ypmatch utilizando el valor de la cuenta usera en el mapa passwd, aparece el resultado siguiente: # ypmatch -k usera passwd usera: usera:LojyTdiQev5i2:3001:10::/export/home/usera:/bin/ksh La contrasea cifrada del usuario se incluye como parte de los mapas passwd de NIS. Para mantener el mismo nivel de seguridad, el sistema configura el archivo passwd.adjunct. Este archivo contiene el nombre de la cuenta precedido de los caracteres ## en el campo de contrasea. Cualquier intento posterior de obtener informacin sobre la cuenta con los comandos ypcat o ypmatch incluir en el resultado la entrada de contrasea procedente del archivo passwd.adjunct, tal y como se muestra a continuacin: # ypmatch -k usera passwd usera: usera:##usera:3001:10::/export/home/usera:/bin/ksh Una forma de habilitar el archivo passwd.adjunct es seguir los procedimientos para configurar las funciones de seguridad C2. Estos procedimientos se explican en el sitio web de documentacin de productos Sun, en la direccin http://docs.sun.com.
14-14
Cambie la lnea INETDIR por DIR=/su-eleccin. Cambie la lnea DIR=/etc por DIR=/su-eleccin. Cambie la lnea PWDIR=/etc por PWDIR=/su-eleccin. Copie los archivos de /etc, /etc/inet y /etc/services en DIR=/su-eleccin.
Donde su-eleccin es el nombre del directorio que est utilizando para almacenar los archivos de origen. Este proceso permite mantener los archivos locales del servidor separados de los archivos utilizados por NIS. Atencin Antes de realizar ninguna modificacin en el archivo /var/yp/Makefile, guarde una copia del archivo Makefile original.
14-15
/
etc hosts passwd shadow defaultdomain ... yp_dir hosts passwd shadow ... Qualquier otro archivo ASCII usado para generar los mapas de NIS.
Figura 14-4 Archivos importantes del servidor NIS maestro (parte 1) En la Figura 14-4 se muestra tambin la ubicacin del archivo defaultdomain, que se encuentra en el directorio /etc. El archivo /etc/defaultdomain establece el nombre del dominio NIS durante el arranque del sistema.
14-16
Configuracin del dominio NIS La secuencia ypinit llama al programa make, que utiliza el archivo Makefile del directorio /var/yp. En la Figura 14-5 puede verse el archivo Makefile predeterminado en el directorio /var/yp, que contiene los comandos necesarios para transformar los archivos de origen en mapas de NIS.
/
var yp *.time Makefile ... nombredominio hosts.byaddr.dir hosts.byaddr.pag . . Mapas NIS . binding nombredominio ypservers
Figura 14-5 Archivos importantes del servidor NIS maestro (parte 2) El directorio /var/yp contiene un subdirectorio con el mismo nombre que el dominio NIS. Este directorio nombredominio acta como repositorio de los mapas creados por la secuencia de comandos ypinit. El directorio /var/yp/binding/nombredominio contiene el archivo ypservers, donde se almacenan los nombres del servidor NIS maestro y los correspondientes esclavos.
14-17
Configuracin del dominio NIS En la Figura 14-6 puede verse el directorio /usr/lib/netsvc/yp, que contiene los archivos ypstop e ypstart utilizados para detener e iniciar los servicios de NIS respectivamente.
/
usr lib netsvc yp ypstop ypstart
Figura 14-6 Archivos importantes del servidor NIS maestro (parte 3)
14-18
2.
14-19
Configuracin del dominio NIS 3. Ejecute el comando domainname para configurar el dominio NIS local. Por ejemplo: # domainname classroom.Central.Sun.COM 4. Cree un archivo /etc/defaultdomain con el nombre del dominio. Debe mantener el formato establecido por los archivos originales y actualizar los archivos de texto que hay en el directorio /etc (todos los archivos que se utilizan para los mapas de NIS) del servidor maestro con la informacin sobre el dominio. Si estos archivos no existen an, utilice el comando touch para crear archivos de tamao cero con los nombres siguientes: /etc/ethers, /etc/bootparams, /etc/locale, /etc/timezone, /etc/netgroup y /etc/netmasks. Estos archivos son necesarios para crear todo el conjunto de mapas de NIS segn las especificaciones del archivo Makefile. Cuando se inicializa NIS, aparecen mensajes de error por cada uno de estos archivos que no exista. Instale un archivo Makefile actualizado en el directorio /var/yp si tiene intencin de usar NIS en el sistema utilizado como servidor de JumpStart. Esta instalacin proporciona entradas que crean un mapa para el archivo /etc/locale, de forma que la informacin de configuracin regional no deba ser suministrada por el archivo sysidcfg.
# domainname nombredominio
5.
6.
Nota El ejercicio propuesto al final de este mdulo muestra cmo crear el archivo Makefile actualizado. 7. nombredominio Cree o suministre los datos del archivo /etc/locale e introduzca una entrada por cada dominio de la red utilizando el formato siguiente: configuracin_regional Por ejemplo: classroom.Central.Sun.COM en_US
14-20
Configuracin del dominio NIS 8. # ypinit -m a. Cuando el programa le solicite una lista de servidores esclavos y haya finalizado la lista, pulse Control-D. Puede crear las entradas de todos los servidores esclavos ahora o volver a ejecutar el comando ypinit -m despus de determinar si necesita ms o menos servidores esclavos. El programa le pregunta si quiere interrumpirlo al primer error grave que se produzca. Si responde n, el procedimiento comunicar cualquier error que detecte e intentar finalizar la creacin de los archivos de base de datos de NIS. Si responde y, el proceso se cancelar con el primer error que se produzca. Puede corregir el error y reiniciar el programa ypinit. Inicialice el servidor maestro utilizando los archivos /etc locales. Introduzca el comando ypinit -m.
b.
9.
Copie el archivo /etc/nsswitch.nis en el archivo /etc/nsswitch.conf. Si es necesario, modifique el archivo. En el ejemplo siguiente se muestra el texto que aparece cuando empieza a ejecutarse el programa:
# ypinit -m In order for NIS to operate successfully, we have to construct a list of the NIS servers. Please continue to add the names for YP servers in order of preference, one per line. When you are done with the list, type a <control D> or a return on a line by itself. next host to add: server1 next host to add: <Control-D> The current list of yp servers looks like this: server1 Is this correct? [y/n: y] y Installing the YP database will require that you answer a few questions. Questions will all be asked at the beginning of the procedure. Do you want this procedure to quit on non-fatal errors? [y/n: n] n OK, please remember to go back and redo manually whatever fails. If you don't, some part of the system (perhaps the yp itself) won't work. Nota Si necesita reiniciar el programa ypinit, se le pide que destruya el directorio /var/yp/nombredominio. Responda y. 10. Inicie los demonios de NIS en el servidor maestro utilizando el comando siguiente: # svcadm enable svc:/network/nis/server:default 11. Si quiere detener el servicio NIS que se est ejecutando en el servidor maestro, utilice el comando: # svcadm disable svc:/network/nis/server:default
14-21
En el ejemplo siguiente se obtiene el valor correspondiente a un determinado usuario en la base de datos de contraseas. # ypmatch user5 passwd user5:.dJJ.oofIqCLs:4005:10::/export/home/user5:/bin/ksh
14-22
# domainname nombredominio
14-23
Configuracin del dominio NIS 5. 6. Cuando el sistema le solicite una lista de servidores NIS, introduzca los nombres del servidor maestro y todos los esclavos. Copie el archivo /etc/nsswitch.nis en el archivo /etc/nsswitch.conf. Si es necesario, modifique el archivo.
Nota Para salir del comando ypinit sin crear ninguna lista de servidores NIS, pulse Control-D. A continuacin, el cliente enva una peticin a la red (broadcast) para enlazar con el primer servidor disponible durante sucesivas operaciones ypbind. Cuando no operan en modo broadcast, los clientes slo pueden enlazar con los servidores que figuren en su archivo /var/yp/binding/nombredominio/ypservers. 7. Inicie NIS con el comando siguiente: # svcadm enable svc:/network/nis/client:default 8. # ypwhich -m La salida presenta una lista de mapas junto con el servidor NIS maestro de cada mapa. Compruebe la funcionalidad NIS del cliente recin configurado ejecutando el comando siguiente:
2. Ejecute el comando domainname para configurar el dominio NIS local. # domainname nombredominio Por ejemplo: # domainname classroom.Central.Sun.COM 3. 4. # ypinit -c 5. Cuando el sistema le pida la lista de servidores NIS, introduzca el host maestro seguido del nombre del host local y todos los servidores NIS esclavos de la red local. Cree el archivo /etc/defaultdomain o especifique en l el nombre del dominio. Para inicializar el sistema como cliente NIS, ejecute el comando:
14-24
Configuracin del dominio NIS 6. 7. Copie el archivo /etc/nsswitch.nis en el archivo /etc/nsswitch.conf. Si es necesario, modifique el archivo. En el servidor maestro, utilice el siguiente comando para asegurarse de que el proceso ypserv se est ejecutando: Si no se est ejecutando, consulte la seccin anterior relativa al inicio de los demonios de NIS en el servidor maestro. 8. Vuelva al sistema esclavo especificado e introduzca el comando para iniciar el demonio ypbind.
# svcadm enable svc:/network/nis/client:default Nota Si el demonio ypbind no se puede iniciar, utilice el comando /usr/lib/netsvc/yp/ypstart. 9. Inicialice el sistema como esclavo NIS ejecutando el comando: Donde maestro representa el nombre del servidor NIS maestro. Nota Si no ha especificado el nombre del servidor esclavo al configurar por primera vez el servidor NIS maestro con el comando ypinit, vuelva a introducir el comando ypinit -m en el servidor NIS maestro. En el proceso de actualizacin del servidor maestro, la secuencia de comandos solicita confirmacin antes de destruir la base de datos existente en el dominio. Confirme la accin introduciendo y (s). 10. Antes de iniciar el demonio ypserv en el servidor esclavo, detenga el cliente con el comando: # svcadm enable svc:/network/nis/client:default 11. Cuando se inicia el servidor NIS, tambin se inicia el demonio de cliente ypbind. # svcadm enable svc:/network/nis/server:default 12. Para probar la funcionalidad de los clientes NIS en el servidor esclavo recin configurado, ejecute el comando: # ypwhich -m La salida presenta una lista de mapas y el servidor NIS maestro de cada mapa.
# ypinit -s maestro
14-25
# /usr/ccs/bin/make
Servidor maestro
Mapas Actualizacin ASCII Files Lookup Consulta Propagacin
Servidor esclavo
Mapas
Consulta Lookup
Cliente
Cliente
Cliente
Cliente
yppasswd
passwd
14-26
Configuracin del dominio NIS Para actualizar el mapa de contraseas, lleve a cabo estos pasos: 1. Ejecute el demonio rpc.yppasswdd en el servidor maestro de NIS. Cuando los usuarios cambian sus contraseas de NIS, el demonio rpc.yppasswdd actualiza el archivo /$PWDIR/passwd y el mapa passwd del servidor NIS maestro. A continuacin, el mapa passwd se propaga a todos los servidores esclavos. 2. Introduzca el comando passwd en cualquier cliente NIS. $ passwd Changing NIS password for user1 on server1. Old password: New password: Retype new password: NIS entry changed on server1 # /usr/lib/netsvc/yp/rpc.yppasswdd /$PWDIR/passwd -m passwd
# cd /var/yp; /usr/ccs/bin/make
# /usr/lib/netsvc/yp/ypxfr timezone.byname b.
# ypinit -s maestro_nis
14-27
Configuracin del dominio NIS Algunas veces falla la propagacin de los mapas y es necesario ejecutar manualmente el comando ypxfr para recuperar la nueva informacin que contienen. Para automatizar la actualizacin y propagacin de los mapas de NIS en los servidores esclavos, puede instalar secuencias de comandos de shell que se ejecuten como trabajos cron. Dado que estos mapas cambian con diversa frecuencia, programar la transferencia de un mapa con el comando crontab permite establecer diferentes intervalos de propagacin para cada mapa en particular. El sistema operativo Solaris proporciona varias secuencias de comandos a modo de plantilla dentro del directorio /usr/lib/netsvc/yp. Puede usar estas secuencias y modificarlas para adaptarlas a la necesidades de su instalacin local. Resultan tiles cuando los servidores esclavos estn fuera de servicio durante la propagacin de los mapas de NIS. En la Figura 14-8 se muestra cmo actualizar los mapas passwd utilizando servidores esclavos con secuencias de comandos. Si los servidores esclavos estn fuera de servicio, es posible que no reciban la actualizacin, a menos que utilice una secuencia de comandos como vlvula de seguridad.
El servidor esclavo ejecuta /usr/lib/netsvc/yp/ypxfr_1perhour
Servidor maestro
Mapas Extraccin
Servidor esclavo
Mapas
Lookup Consulta
Consulta Lookup
Cliente
Cliente
Cliente
Cliente
Figura 14-8 Actualizacin de los mapas passwd en servidores esclavos utilizando secuencias de comandos
14-28
14-29
Configuracin del dominio NIS ypxfr ypxfr ypxfr ypxfr networks.byname networks.byaddr services.byname ypservers
14-30
Sirven a los programadores crear programas. Sirven a los administradores para generar mapas de NIS. Pueden generalizarse para crear mapas de NIS personalizados.
Creacin de destinos
La utilidad make recibe sus instrucciones del archivo Makefile. Este archivo utiliza definiciones de variables (llamadas macros), destinos y dependencias. Las macros pueden utilizarse como variables, de forma parecida a las que se usa en una secuencia de comandos de shell. Es preciso definir una macro al comienzo del archivo Makefile. El nombre de la macro debe ir precedida del signo de dlar ($) cuando se utiliza a lo largo del archivo Makefile. La utilidad make genera destinos. Los destinos necesitan dependencias. Las dependencias pueden representar otros destinos que deben estar completamente generados para poder considerar al destino original como creado. Esta estructura permite anidar pares de destinos y dependencias hasta un nivel de profundidad arbitrario y, de esta forma, crear estructuras de cdigo jerrquicas de cierta complejidad. Al crear mapas de NIS, conviene mantener la relacin entre destino y dependencia en un estado muy bsico.
14-31
La primera seccin contiene definiciones de macros. La segunda seccin incluye el primer destino, all. La tercera seccin define el destino final y las dependencias. La cuarta seccin contiene entradas para cada una de las dependencias.
14-32
Creacin de mapas de NIS personalizados El destino all posee diferentes dependencias, cada una de las cuales representa uno de los mapas de NIS que deben generarse. Esta funcin permite generar todo el conjunto de mapas de NIS escribiendo: # cd /var/yp; /usr/ccs/bin/make No se considerar que el destino all est totalmente creado hasta que se hayan generado primero todos sus destinos. Cada destino asociado a all depende de otro destino. Al agregar mapas personalizados a NIS, el nombre del nuevo mapa que se va a generar debe aadirse a la lista de destinos de all (auto.direct en el ejemplo siguiente). all: passwd group hosts ipnodes ethers networks rpc services protocols netgroup bootparams aliases publickey netid netmasks c2secure timezone auto.master auto.home auto.direct auth.attr exec.attr prof.attr user.attr audit.user Nota La cuarta seccin del archivo Makefile se trata antes que la tercera seccin porque en ella contina el proceso de dependencias introducido por el destino all. La entrada que contiene la cuarta seccin del archivo Makefile para cada una de las dependencias del destino all es: passwd: passwd.time group: group.time project: project.time hosts: hosts.time ipnodes: ipnodes.time ethers: ethers.time networks: networks.time rpc: rpc.time services: services.time protocols: protocols.time netgroup: netgroup.time bootparams: bootparams.time aliases: aliases.time publickey: publickey.time netid: netid.time passwd.adjunct: passwd.adjunct.time group.adjunct: group.adjunct.time netmasks: netmasks.time timezone: timezone.time auto.master: auto.master.time auto.home: auto.home.time
14-33
Creacin de mapas de NIS personalizados auth.attr:auth.attr.time exec.attr:exec.attr.time prof.attr:prof.attr.time user.attr:user.attr.time audit.user:audit.user.time $(DIR)/netid: $(DIR)/timezone: $(DIR)/auto_master: $(DIR)/auto_home: $(PWDIR)/shadow: $(DIR)/auth_attr: $(DIR)/exec_attr: $(DIR)/prof_attr: $(DIR)/user_attr: $(DIR)/audit_user: ageing: ageing.time El proceso make utiliza estas entradas para establecer las relaciones entre los controles de tiempo y sus mapas respectivos, adems de identificar la ubicacin de los archivos de origen de los mapas. Utilizando el ejemplo anterior del mapa auto.direct, agregue un nuevo mapa al dominio NIS aadiendo las entradas apropiadas al final de este par de valores de destino/dependencia de segundo nivel. ... auto.direct: auto.direct.time ... $(DIR)/auto_direct: Despus de modificar el mapa auto.direct, las ltimas lneas de la cuarta seccin del archivo Makefile seran similares a stas: ... auto.master: auto.master.time auto.home: auto.home.time auto.direct: auto.direct.time auth.attr:auth.attr.time exec.attr:exec.attr.time prof.attr:prof.attr.time user.attr:user.attr.time audit.user:audit.user.time $(DIR)/netid: $(DIR)/timezone: $(DIR)/auto_master: $(DIR)/auto_home: $(DIR)/auto_direct: $(PWDIR)/shadow: ...
14-34
Creacin de mapas de NIS personalizados El destino es el mapa auto.direct, que depende del destino auto.direct.time. En la tercera seccin del archivo Makefile se definen el destino final y las dependencias, as como instrucciones para generar cada mapa del dominio. Modifique el archivo Makefile agregando las lneas siguientes para crear un mapa auto_direct nuevo: auto.direct.time: $(DIR)/auto_direct -@if [ -f $(DIR)/auto_direct ]; then \ sed -e "/^#/d" -e s/#.*$$// $(DIR)/auto_direct \ | $(MAKEDBM) - $(YPDBDIR)/$(DOM)/auto.direct; \ touch auto.direct.time; \ echo "updated auto.direct"; \ if [ ! $(NOPUSH) ]; then \ $(YPPUSH) auto.direct; \ echo "pushed auto.direct"; \ else \ : ; \ fi \ else \ echo "couldn't find $(DIR)/auto_direct"; \ fi Atencin Puede copiar y pegar las lneas de una seccin en otro mapa, pero es esencial hacer un uso adecuado de los tabuladores y espacios en el archivo Makefile. Consulte las pginas del comando make en el manual en lnea para conocer el correcto uso de los tabuladores y espacios. He aqu algunos puntos que es preciso tener en cuenta:
Las sucesivas lneas de las instrucciones make deben escribirse aplicando sangra mediante tabuladores. Es posible utilizar macros de make en esas instrucciones. Las instrucciones que empiezan con el signo de arroba (@) no se reproducen en la pantalla del terminal. Puede ser til suprimir el signo @ para depurar nuevas instrucciones. Las instrucciones que empiezan con un guin () antes del signo @ no presentan los mensajes de error en la pantalla del terminal.
14-35
Dispone el cliente de un archivo /var/yp/binding/nombredominio/ypservers que contenga una lista de servidores con los que enlazar? Si no es as, introduzca el comando ypinit -c y especifique los servidores con los que debera enlazar el cliente por orden de preferencia. Si el cliente ya posee un archivo /var/yp/binding/nombredominio/ypservers, hay suficientes servidores especificados en la lista para el caso en que un par de ellos estn inaccesibles? Si no es as, agregue ms servidores a la lista utilizando el comando ypinit -c.
Nota Por motivos de seguridad y control administrativo, especifique los posibles servidores de enlace en el archivo ypservers del cliente en lugar de dejar que el cliente busque los servidores enviando mensajes broadcast a la red. Este sondeo ralentiza tanto la red como el cliente e impide equilibrar la carga del servidor mediante la asignacin de diferentes servidores a diferentes clientes.
14-36
Si ninguno de los servidores citados en el archivo ypservers del cliente est disponible, el cliente busca un servidor operativo utilizando el modo broadcast. Si existe algn servidor en funcionamiento en la subred del cliente, ste lo encontrar. Si no hay ningn servidor que funcione en la red del cliente, puede resolver el problema de varias maneras:
Si el cliente no dispone de ningn servidor en la subred ni tiene una ruta de encaminamiento a uno, instale un nuevo servidor esclavo en esa subred. Asegrese de que sus encaminadores estn configurados para transmitir paquetes de broadcast, de forma el cliente pueda utilizar ese modo para encontrar un servidor en otra subred. Utilice el comando netstat -rn para verificar la ruta. Si existe una ruta operativa a un servidor de otra red, use ping para comprobar si la ruta existe y ejecute netstat -nr en ambos servidores. Si no se est ejecutando ninguno de los demonios, incielos con SMF.
Los servidores citados en el archivo ypservers de los clientes tienen entradas en el archivo /etc/inet/hosts? En caso negativo, agregue los servidores al archivo que contiene los hosts para los mapas de NIS y regenere los mapas utilizando los comandos ypinit -c o ypinit -s. Est configurado el archivo /etc/nsswitch.conf para consultar el archivo hosts local del cliente adems de NIS?
14-37
14-38
Solucin de problemas de NIS Si ambos procesos, ypserv y ypbind, se estn ejecutando en el servidor NIS y el comando ypwhich no responde, es posible que se haya bloqueado el proceso ypserv. Deber reiniciar este proceso. Inicie la sesin como usuario root en el servidor y cancele la ejecucin de ypserv. # pkill ypserv Inicie el proceso ypserv reiniciando los servicios NIS. Ejecute estos comandos: # svcadm disable network/nis/server:default # svcadm enable network/nis/server:default
14-39
14-40
Preparacin
Elija dos compaeros para realizar esta prctica y determine qu sistemas configurar como servidor maestro, servidor esclavo y cliente NIS. maestro_NIS: ____________________________________ esclavo_NIS: _____________________________________ cliente_NIS: _____________________________________ nombredominio: _____________________________________ Asegrese de que el archivo /etc/hosts de todos los sistemas contenga entradas para los tres hosts. Consulte los apuntes tomados en clase cuando sea necesario para realizar los pasos indicados.
14-41
Tareas
En esta seccin se describe cmo crear y comprobar el servidor maestro, el servidor esclavo y el cliente del servicio NIS.
4. 5. 6. 7.
Nota Sustituya su_zonahoraria por el huso horario local y sudominio por el nombre de su propio dominio. Para ver un ejemplo de una entrada de zona horaria, use el comando cat con el archivo /etc/TIMEZONE. 8. 9. Edite el archivo /etc/auto_master y ponga el signo de comentario en la entrada +auto_master. Edite el archivo /etc/auto_home y ponga el signo de comentario en la entrada +auto_home. Agregue una nueva entrada que admita el montaje automtico de todos los directorios de inicio de los usuarios que figuren en el directorio /export/home del servidor NIS maestro.
14-42
Ejercicio: configuracin de NIS 11. Configure el servidor NIS maestro de modo que el directorio /export/home sea compartido: a. b. c. Cree una entrada en el archivo /etc/dfs/dfstab para poner en modo compartido los directorios de inicio de los usuarios. Compruebe si los demonios mountd y nfsd del servidor NFS estn en ejecucin. Si no lo estn, incielos. El directorio especificado en /etc/dfs/dfstab se pondr automticamente en modo compartido. Si los demonios del servidor NFS ya se estn ejecutando, utilice el comando para poner en modo compartido el nuevo directorio indicado en el archivo /etc/dfs/dfstab.
d.
12. Cree una cuenta de usuario para cada miembro del equipo de prcticas. Nota Cree sus directorios de inicio respectivos en /export/home, por ejemplo: /export/home/user1 para user1, /export/home/user2 para user2, y as sucesivamente. Si utiliza la aplicacin Solaris Management Console para crear las cuentas de usuario, la cuenta se configura para utilizar el comando automount y el directorio /export/home/user1 se traslada al directorio /home/user1. 13. Cree una contrasea para cada cuenta de usuario nueva. 14. Para habilitar el uso del servicio automount y montar estos directorios de origen, debe modificar las entrada de los usuarios en el archivo /etc/passwd del servidor NIS maestro. Edite el archivo /etc/passwd y sustituya el directorio de inicio /export/home/nombreusuario de cada usuario por /home/nombreusuario. 15. Copie la plantilla /etc/nsswitch.nis en el archivo /etc/nsswitch.conf. 16. Configure este sistema como servidor NIS maestro: a. Utilice el comando ypinit -m para iniciar el proceso de configuracin. El comando ypinit muestra el sistema actual como servidor NIS y luego solicita el siguiente host para agregarlo como servidor esclavo. b. Introduzca el nombre del sistema que vaya a utilizar como servidor NIS esclavo. Pulse Control-D cuando haya finalizado la lista.
14-43
Ejercicio: configuracin de NIS c. Indique que el comando ypinit no debe interrumpirse por errores de poca gravedad. A continuacin, el comando ypinit procede a generar los mapas necesarios. Nota Si el proceso de inicializacin es correcto, el comando ypinit presenta un mensaje donde se indica que el sistema actual se ha configurado como servidor maestro sin errores. Este mensaje aparece aunque se produzcan errores de poca gravedad durante el procedimiento. d. Si el proceso de inicializacin falla, corrija los problemas indicados en los mensajes de error y repita los pasos a, b y c.
17. Compruebe el estado del demonio del servidor NIS. 18. Inicie este demonio si no se est ejecutando. 19. Ejecute el comando ypwhich para comprobar si este sistema es el servidor NIS maestro.
5. 6. 7.
Copie la plantilla /etc/nsswitch.nis en el archivo /etc/nsswitch.conf. Compruebe el estado de los servicios NIS. Inicie el servicio de cliente NIS si est inhabilitado.
14-44
Ejercicio: configuracin de NIS 8. 9. Ejecute el comando ypwhich para comprobar si el sistema est utilizando NIS y est enlazado con el servidor maestro. Inicialice el sistema como servidor NIS esclavo. Indique que el comando ypinit no debe interrumpirse por errores de poca gravedad. A continuacin, el comando ypinit procede a recuperar los mapas necesarios del servidor maestro. Si el proceso de inicializacin se realiza correctamente, el comando ypinit presenta un mensaje en el que indica que la base de datos de NIS se ha configurado sin errores. Nota Si no especific el nombre del servidor NIS esclavo al configurar por primera vez el servidor maestro, este proceso podra fallar. Para corregir el problema, ejecute el comando ypinit -m una vez ms con el servidor NIS maestro y agregue el nombre de host del servidor esclavo. En el proceso de actualizacin del servidor maestro, la secuencia de comandos solicita confirmacin antes de destruir la base de datos existente en el dominio. Confirme la accin especificando y (s). A continuacin, vuelva a inicializar el servidor esclavo. 10. Compruebe si los servicios NIS del servidor esclavo estn activos. Habiltelos si es necesario. 11. Compruebe la funcionalidad del servidor esclavo recin configurado introduciendo los comandos siguientes. # ypwhich -m # ypcat hosts Nota La salida del comando ypwhich debera incluir el nombre de cada mapa que suministra al dominio NIS y el nombre del servidor maestro que controla los mapas. 12. Muestre en la pantalla el contenido del mapa ypservers utilizado por el dominio local. La salida debera incluir los nombres del servidor maestro y el esclavo.
14-45
5. 6. 7. 8.
Copie la plantilla /etc/nsswitch.nis en el archivo /etc/nsswitch.conf. Compruebe si el servicio de cliente NIS est inhabilitado. Inicie el servicio de cliente NIS. Ejecute el comando ypwhich para asegurarse de que el sistema est utilizando NIS.
Nota El resultado debera mostrar el nombre del servidor NIS maestro. 2. Compruebe la capacidad del cliente para enlazar con el servidor NIS esclavo cuando el maestro queda inaccesible:
Nota Este proceso slo funciona si se introducen los nombres de los dos servidores NIS, el maestro y el esclavo, al configurar el sistema cliente con el comando ypinit -c. El cliente NIS slo busca los servidores incluidos en el archivo /var/yp/binding/nombredominio/ypservers que crea el comando ypinit -c.
14-46
Ejercicio: configuracin de NIS a. b. En el servidor NIS maestro, detenga los servicios de servidor NIS. En el cliente NIS, determine a qu servidor NIS est enlazado. El cliente puede tardar uno o dos minutos en enlazar con el esclavo NIS. Deje transcurrir unos minutos y vuelva a ejecutar el comando ypwhich. Ejectelo hasta que vea que el cliente ha enlazado con el servidor esclavo. 3. Inicie los servicios de servidor NIS en el servidor maestro.
Tarea 5: adicin de un mapa personalizado a la base de datos del servidor NIS maestro
Si en el archivo Makefile utilizado no existen entradas para generar un mapa auto_direct, lleve a cabo estos pasos para agregarlas: 1. En el servidor NIS maestro, modifique el archivo /var/yp/Makefile y realice estos cambios: a. Agregue auto.direct a la lista de mapas asociados al destino all. Estas entradas se sitan en la segunda seccin del archivo /var/yp/Makefile:
all: passwd group hosts ipnodes ethers networks rpc services protocols \ netgroup bootparams aliases publickey netid netmasks c2secure \ timezone auto.master auto.home \ auth.attr exec.attr prof.attr user.attr audit.user auto.direct b. Agregue las entradas del nuevo mapa a la cuarta seccin del archivo /var/yp/Makefile. Coloque la entrada de auto.direct y auto_direct bajo las entradas correspondientes a auto.home y auto_home, por ejemplo:
14-47
Ejercicio: configuracin de NIS c. En la tercera seccin del archivo Makefile, agregue el cdigo necesario para generar el mapa auto_direct. Duplique las lneas asociadas a auto.home y sustituya cada instancia de auto.home o auto_home del cdigo por auto.direct o auto_direct. El resultado debera ser similar a ste:
auto.direct.time: $(DIR)/auto_direct -@if [ -f $(DIR)/auto_direct ]; then \ sed -e "/^#/d" -e s/#.*$$// $(DIR)/auto_direct \ | $(MAKEDBM) - $(YPDBDIR)/$(DOM)/auto.direct; \ touch auto.direct.time; \ echo "updated auto.direct"; \ if [ ! $(NOPUSH) ]; then \ $(YPPUSH) auto.direct; \ echo "pushed auto.direct"; \ else \ : ; \ fi \ else \ echo "couldn't find $(DIR)/auto_direct"; \ fi d. 2. /3. Guarde el archivo Makefile modificado y salga del editor. En el servidor maestro, edite el archivo /etc/auto_master para incluir una entrada para el nuevo mapa direct. Agregue la lnea siguiente: auto_direct -nosuid En el servidor maestro, cree un archivo llamado /etc/auto_direct y adale la lnea siguiente. Sustituya servidor_maestro por el nombre del servidor maestro. -ro 4. 5. 6. 7. 8. servidor_maestro:/usr/share/man2 En los tres hosts, cambie el nombre del directorio /usr/share/man existente por /usr/share/man2. En el servidor maestro, agregue una entrada al archivo /etc/dfs/dfstab para compartir el directorio /usr/share/man2. Ponga el directorio en modo compartido. En el servidor maestro, cambie al directorio /var/yp. Actualice los mapas de NIS ejecutando la utilidad make. El comando make se bloquea al tratar de propagar el nuevo mapa auto.direct al servidor esclavo. Cuando esto ocurra, pulse ControlC para detener el comando. 9. En el servidor esclavo, utilice el comando ypxfr para transferir el mapa auto.direct por primera vez.
/usr/share/man
14-48
Ejercicio: configuracin de NIS 10. En el servidor NIS maestro, vuelva a actualizar los mapas de NIS ejecutando el comando make. Esta vez, make debera funcionar con normalidad. 11. Utilice el comando init 6 en los tres hosts para reiniciarlos. 12. Compruebe si puede utilizar las cuentas de usuario creadas con anterioridad para acceder al servidor esclavo y al cliente NIS. 13. Asegrese de que su directorio de inicio se monte automticamente en el servidor esclavo y el cliente NIS desde el servidor maestro. 14. Trate de acceder al directorio /usr/share/man en todos los sistemas utilizando el comando man. Si aparece el contenido de la pgina del comando man de ls, significa que la configuracin del mapa direct en NIS es correcta.
14-49
!
?
14-50
Preparacin
Elija dos compaeros para realizar esta prctica y determine qu sistemas configurar como servidor maestro, servidor esclavo y cliente NIS. maestro_NIS: ____________________________________ esclavo_NIS: _____________________________________ cliente_NIS: _____________________________________ nombredominio: _____________________________________ Asegrese de que el archivo /etc/hosts de todos los sistemas contenga entradas para los tres hosts. Consulte los apuntes tomados en clase cuando sea necesario para realizar los pasos indicados.
14-51
Tareas y soluciones
En esta seccin se describe cmo crear y comprobar el servidor maestro, el servidor esclavo y el cliente del servicio NIS.
# cd /var/yp # cp Makefile Makefile.orig 2. 3. 4. Suprima la entrada aliases en el destino all del archivo /var/yp/Makefile. Asegrese de que el archivo /etc/hosts contenga entradas para los sistemas que vaya a convertir en servidor esclavo y cliente NIS.
Seleccione el nombre que vaya a utilizar como nombre del dominio NIS. Configrelo con el comando domainname. # domainname sudominio Nota Sustituya sudominio por el nombre de dominio elegido. 5. Introduzca el nombre del dominio en el archivo defaultdomain.
# cd /etc # nombredominio > defaultdomain Utilice el comando touch para crear los archivos ethers, bootparams y netgroup en el directorio /etc. # cd /etc ; touch ethers bootparams netgroup 7. Cree el archivo /etc/timezone e incluya una entrada adecuada para su zona horaria y su dominio NIS. Por ejemplo, en la entrada siguiente se configura la zona horaria de los sistemas pertenecientes a un dominio NIS denominado sudominio. sudominio 6.
su_zonahoraria
Nota Sustituya su_zonahoraria por el huso horario local y sudominio por el nombre de su propio dominio. Para ver un ejemplo de una entrada de zona horaria, use el comando cat con el archivo /etc/TIMEZONE. # cat /etc/timezone US/Mountain suned.sun.com
14-52
Soluciones del ejercicio: configuracin de NIS 8. Edite el archivo /etc/auto_master y ponga el signo de comentario en la entrada +auto_master.
-nosuid,nobrowse -nobrowse
Edite el archivo /etc/auto_home y ponga el signo de comentario en la entrada +auto_home. Agregue una entrada que admita el montaje automtico de todos los directorios de inicio de los usuarios que figuren en el directorio /export/home del servidor NIS maestro.
# Home directory map for automounter # # +auto_home * servidor_maestro:/export/home/& 10. Compruebe si existe el directorio /export/home. Si no existe, crelo. # mkdir /export/home 11. Configure el servidor NIS maestro de modo que el directorio /export/home sea compartido: a. Cree una entrada en el archivo /etc/dfs/dfstab para compartir los directorios de inicio de los usuarios. Compruebe si los demonios mountd y nfsd del servidor NFS se estn ejecutando.
# svcs -a | grep nfs | egrep -e "server|client" disabled Jan_03 svc:/network/nfs/server:default online Jan_03 svc:/network/nfs/client:default c. Si no se estn ejecutando, incielos. El directorio especificado en /etc/dfs/dfstab se pondr automticamente en modo compartido.
# svcadm enable svc:/network/nfs/server:default # svcs -a | grep nfs | egrep -e "server|client" online 12:17:32 svc:/network/nfs/server:default online 12:18:18 svc:/network/nfs/client:default d. Si los demonios del servidor NFS ya se estn ejecutando, utilice el comando para poner en modo compartido el nuevo directorio incluido en el archivo /etc/dfs/dfstab.
# shareall
14-53
Soluciones del ejercicio: configuracin de NIS 12. Cree una cuenta de usuario para cada miembro del equipo de prcticas. Nota Cree sus directorios de inicio respectivos en /export/home, por ejemplo: /export/home/user1 para user1, /export/home/user2 para user2 y as sucesivamente. Si utiliza la aplicacin Solaris Management Console para crear las cuentas de usuario, la cuenta se configura para utilizar el comando automount y el directorio /export/home/user1 se traslada al directorio /home/user1. # mkdir -p /export/home/user1 # useradd -d /export/home/user1 user1 # chown -R user1 /export/home/user1 13. Cree una contrasea para cada cuenta de usuario nueva. # passwd user1 New Password: Re-enter new Password: passwd: password successfully changed for user1 14. Para habilitar el uso del servicio automount y montar estos directorios de inicio, debe modificar las entradas de los usuarios en el archivo /etc/passwd del servidor NIS maestro. Edite el archivo /etc/passwd y sustituya el directorio de inicio /export/home/nombreusuario de cada usuario por /home/nombreusuario. De: user1:x:1001:1::/export/home/user1:/bin/sh A: user1:x:1001:1::/home/user1:/bin/sh 15. Copie la plantilla /etc/nsswitch.nis en el archivo /etc/nsswitch.conf. # cd /etc ; cp nsswitch.nis nsswitch.conf 16. Configure este sistema como servidor NIS maestro: a. # ypinit -m El comando ypinit muestra el sistema actual como servidor NIS y luego solicita el siguiente host para agregarlo como servidor esclavo. Utilice el comando ypinit -m para iniciar el proceso de configuracin.
14-54
Soluciones del ejercicio: configuracin de NIS b. Introduzca el nombre del sistema que vaya a utilizar como servidor NIS esclavo. Pulse Control-D cuando haya finalizado la lista.
next host to add: servidor_maestro next host to add: servidor_esclavo next host to add: <ControlD> (lista de servidores) is this list correct? [y/n: y] y c. Indique que el comando ypinit no debe interrumpirse por errores de poca gravedad. A continuacin, el comando ypinit procede a generar los mapas necesarios. Nota Si el proceso de inicializacin es correcto, el comando ypinit presenta un mensaje en el que se indica que el sistema actual se ha configurado como servidor maestro sin errores. Este mensaje aparece aunque se produzcan errores de poca gravedad durante el procedimiento. d. Si el proceso de inicializacin falla, corrija los problemas indicados en los mensajes de error y repita los pasos a, b y c.
17. Compruebe el estado del demonio del servidor NIS. # svcs -a | grep nis | grep server online 1:54:32 svc:/network/nis/server:default 18. Inicie este demonio si no se est ejecutando. # svcadm enable network/nis/server:default 19. Compruebe si este sistema es el servidor NIS maestro ejecutando el comando ypwhich. # ypwhich -m (salida omitida)
14-55
2.
# domainname sudominio Nota Sustituya sudominio por el nombre del dominio NIS utilizado para configurar el servidor NIS maestro. 3. Introduzca el nombre del dominio en el archivo defaultdomain.
# cd /etc # nombredominio > defaultdomain 4. Utilice el comando ypinit de la forma siguiente para configurar este sistema como cliente NIS: a. # ypinit -c b. Cuando se le solicite la lista de servidores NIS, introduzca el nombre del servidor maestro seguido del nombre del host local (que posteriormente se convertir en servidor esclavo). Pulse ControlD para terminar la lista. Utilice el comando ypinit -c para iniciar el proceso de configuracin.
next host to add: servidor_maestro next host to add: servidor_esclavo next host to add: <ControlD> (lista de servidores) is this list correct? [y/n: y] y 5. Copie la plantilla /etc/nsswitch.nis en el archivo /etc/nsswitch.conf. Compruebe el estado de los servicios NIS.
# cd /etc ; cp nsswitch.nis nsswitch.conf 6. # svcs -a | grep nis | egrep -e "server|client" disabled 9:30:33 svc:/network/nis/server:default disabled 9:30:33 svc:/network/nis/client:default 7. Inicie el servicio de cliente NIS si est inhabilitado. # svcadm enable network/nis/client:default
14-56
Soluciones del ejercicio: configuracin de NIS 8. # ypwhich 9. Inicialice el sistema como servidor NIS esclavo. Indique que el comando ypinit no debe interrumpirse por errores de poca gravedad. ...quit on nonfatal errors? [y/n: n] n A continuacin, el comando ypinit procede a recuperar los mapas necesarios del servidor maestro. Transferring Transferring Transferring Transferring ... ... audit_user... user_attr... prof_attr... exec_attr... # ypinit -s servidor_maestro Ejecute el comando ypwhich para comprobar si el sistema est utilizando NIS y ha enlazado con el servidor maestro.
Si el proceso de inicializacin se realiza correctamente, el comando ypinit presenta un mensaje en el que indica que la base de datos de NIS se ha configurado sin errores. ... ... Transferring ypservers... Transferring passwd.byname... sys43's nis data base has been set up without any errors. Nota Si no especific el nombre del servidor NIS esclavo al configurar por primera vez el servidor maestro, este proceso podra fallar. Para corregir el problema, ejecute el comando ypinit -m una vez ms con el servidor NIS maestro y agregue el nombre de host del servidor esclavo. En el proceso de actualizacin del servidor maestro, la secuencia de comandos solicita confirmacin antes de destruir la base de datos existente en el dominio. Confirme la accin especificando y (s). A continuacin, vuelva a inicializar el servidor esclavo. 10. Compruebe si los servicios NIS de servidor estn activados en el servidor esclavo. Habiltelos si es necesario. # svcs -a | grep nis | egrep -e "server|client" online 12:16:18 svc:/network/nis/client:default online 12:17:00 svc:/network/nis/server:default #
14-57
Soluciones del ejercicio: configuracin de NIS 11. Compruebe la funcionalidad del servidor esclavo recin configurado introduciendo los comandos siguientes. # ypwhich -m # ypcat hosts Nota La salida del comando ypwhich debera incluir el nombre de cada mapa que suministra al dominio NIS y el nombre del servidor maestro que controla los mapas. 12. Muestre en la pantalla el mapa ypservers utilizado por el dominio local. La salida debera incluir los nombres del servidor maestro y los servidores esclavos. # ypcat -k ypservers servidor_maestro servidor_esclavo
# domainname sudominio Nota Sustituya sudominio por el nombre del dominio NIS utilizado para configurar el servidor NIS maestro. 3. Introduzca el nombre del dominio en el archivo defaultdomain.
# cd /etc # nombredominio > defaultdomain 4. Configure el sistema como cliente NIS: a. # ypinit -c Utilice el comando ypinit -c para iniciar el proceso de configuracin.
14-58
Soluciones del ejercicio: configuracin de NIS b. Especifique el nombre del servidor NIS maestro y el servidor esclavo (por orden de preferencia) y pulse Control-D para terminar la lista.
next host to add: servidor_maestro next host to add: servidor_esclavo next host to add: <ControlD> (lista de servidores) is this list correct? [y/n: y] y 5. Copie la plantilla /etc/nsswitch.nis en el archivo /etc/nsswitch.conf.
# cd /etc; cp nsswitch.nis nsswitch.conf # 6. Compruebe si el servicio de cliente NIS est inhabilitado. # svcs -a | grep nis | grep client disabled 18:55:45 svc:/network/nis/client:default 7. 8. # ypwhich -m Inicie el servicio de cliente NIS. Ejecute el comando ypwhich para asegurarse de que el sistema est utilizando NIS. # svcadm enable network/nis/client:default
Nota Este proceso slo funciona si se introducen los nombres de los dos servidores NIS, el maestro y el esclavo, al configurar el sistema cliente con el comando ypinit -c. El cliente NIS slo busca los servidores incluidos en el archivo /var/yp/binding/nombredominio/ypservers que crea el comando ypinit -c.
14-59
Soluciones del ejercicio: configuracin de NIS a. En el servidor NIS maestro, detenga los servicios de servidor NIS. En el cliente NIS, determine a qu servidor NIS est enlazado. El cliente puede tardar uno o dos minutos en enlazar con el esclavo NIS. Deje transcurrir unos minutos y vuelva a ejecutar el comando ypwhich. Ejectelo hasta que vea que el cliente ha enlazado con el servidor esclavo. # ypwhich 3. Inicie los servicios de servidor NIS en el servidor maestro. # svcadm enable network/nis/server:default
Tarea 5: adicin de un mapa personalizado a la base de datos del servidor NIS maestro
Si en el archivo Makefile utilizado no existen entradas para crear un mapa auto_direct, lleve a cabo estos pasos para agregarlas: 1. En el servidor NIS maestro, modifique el archivo /var/yp/Makefile y realice estos cambios: a. Agregue auto.direct a la lista de mapas asociados al destino all. Estas entradas se sitan en la segunda seccin del archivo /var/yp/Makefile:
all: passwd group hosts ipnodes ethers networks rpc services protocols \ netgroup bootparams aliases publickey netid netmasks c2secure \ timezone auto.master auto.home \ auth.attr exec.attr prof.attr user.attr audit.user auto.direct b. Agregue las entradas del nuevo mapa a la cuarta seccin del archivo /var/yp/Makefile. Coloque la entrada de auto.direct y auto_direct bajo las entradas correspondientes a auto.home y auto_home, por ejemplo:
14-60
Soluciones del ejercicio: configuracin de NIS c. En la tercera seccin del archivo Makefile, agregue el cdigo necesario para generar el mapa auto_direct. Duplique las lneas asociadas a auto.home y sustituya cada instancia de auto.home o auto_home del cdigo por auto.direct o auto_direct. El resultado debera ser similar a ste:
auto.direct.time: $(DIR)/auto_direct -@if [ -f $(DIR)/auto_direct ]; then \ sed -e "/^#/d" -e s/#.*$$// $(DIR)/auto_direct \ | $(MAKEDBM) - $(YPDBDIR)/$(DOM)/auto.direct; \ touch auto.direct.time; \ echo "updated auto.direct"; \ if [ ! $(NOPUSH) ]; then \ $(YPPUSH) auto.direct; \ echo "pushed auto.direct"; \ else \ : ; \ fi \ else \ echo "couldn't find $(DIR)/auto_direct"; \ fi d. 2. /3. Guarde el archivo Makefile modificado y salga del editor. En el servidor maestro, edite el archivo /etc/auto_master para incluir la entrada del nuevo mapa direct. Agregue la lnea siguiente: auto_direct -nosuid En el servidor maestro, cree un archivo llamado /etc/auto_direct y agrguele la lnea siguiente. Sustituya servidor_maestro por el nombre del servidor maestro. -ro 4. servidor_maestro:/usr/share/man2 En los tres hosts, cambie el nombre del directorio /usr/share/man existente por /usr/share/man2. En el servidor maestro, agregue una entrada al archivo /etc/dfs/dfstab para compartir el directorio /usr/share/man2.
/usr/share/man
# mv /usr/share/man /usr/share/man2 5.
# vi /etc/dfs/dfstab share -o ro /usr/share/man2 6. # shareall 7. # cd /var/yp En el servidor maestro, cambie al directorio /var/yp. Ponga el directorio en modo compartido.
14-61
Soluciones del ejercicio: configuracin de NIS 8. Actualice los mapas de NIS ejecutando la utilidad make.
# /usr/ccs/bin/make updated netid pushed netid updated auto.master pushed auto.master updated auto.direct <Control-C> *** auto.direct.time removed. # El comando make se bloquea al tratar de propagar el nuevo mapa auto.direct al servidor esclavo. Cuando esto ocurra, pulse ControlC para detener el comando. 9. En el servidor esclavo, utilice el comando ypxfr para transferir el mapa auto.direct por primera vez.
# /usr/lib/netsvc/yp/ypxfr auto.direct 10. En el servidor NIS maestro, vuelva a actualizar los mapas de NIS ejecutando el comando make. Esta vez, make debera funcionar con normalidad. # cd /var/yp # /usr/ccs/bin/make updated netid pushed netid updated auto.direct pushed auto.direct 11. Utilice el comando init 6 en los tres hosts para reiniciarlos. # init 6 12. Compruebe si puede utilizar las cuentas de usuario creadas con anterioridad para acceder al servidor esclavo y al cliente NIS. 13. Asegrese de que su directorio de inicio se monte automticamente en el servidor esclavo y el cliente NIS desde el servidor maestro. $ pwd 14. Trate de acceder al directorio /usr/share/man en todos los sistemas utilizando el comando man. $ man ls Si aparece el contenido de la pgina del comando man de ls, significa que la configuracin del mapa direct en NIS es correcta.
14-62
Mdulo 15
Identificar las caractersticas de las zonas. Comprender cmo y por qu se utiliza el particionamiento en zonas. Configurar zonas. Instalar zonas. Arrancar zonas. Trasladar una zona. Migrar una zona. Borrar una zona. Administrar paquetes con zonas. Actualizar Solaris 10 con zonas instaladas.
15-1
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
Dominios y particiones: son modelos de consolidacin basados en soluciones de hardware. En esta categora se incluyen los dominios de Sun Fire y las particiones lgicas (LPAR) de IBM. Mquina virtual: son soluciones de consolidacin efectuadas en el nivel de aplicacin. Entre ellas se incluyen VMware y VM de IBM. Particiones del sistema operativo: sta es una solucin basada en el sistema operativo. En este grupo se incluyen FreeBSD Jails y Linux Vservers.
Zonas de Solaris se enmarca en la categora de particiones del sistema operativo. Esta tecnologa proporciona servicios de sistema operativo virtuales que, de cara al usuario y las aplicaciones, se comportan como si hubiese varias instancias de Solaris en ejecucin. Esta arquitectura asla los procesos, oculta la plataforma subyacente y permite al administrador global gestionar el uso de los recursos del sistema a un nivel granular. Esta separacin puede crear un entorno ms seguro en el que diferentes aplicaciones que antes deban ejecutarse en sistemas fsicos diferentes pueden coexistir (en zonas diferentes) dentro de una misma mquina. Nota En la actualidad, todas las zonas deben ejecutar la misma versin de Solaris.
15-2
/opt/yt
Plataforma virtual
zoneadmd
zoneadmd
zoneadmd
Administracin de zonas (zonecfg(1M), zoneadm(1M), zlogin(1)... Servicios centrales (inetd, rpcbind, ypbind, automountd, snmpd, dtlogin, sendmail, ctlogin, sshd,...) Admin/monitorizacin remotas (SNMP, SunMC, WBEM) Administracin de plataformas (syseventd, devfsadm,...)
zcons
/usr
/usr
/usr
Introduccin a Zonas de Solaris La funcin de zonas permite a varias instancias de Solaris operar al mismo tiempo en una misma plataforma de hardware. Las diferentes zonas pueden compartir sistemas de archivos, procesadores e interfaces de red. La asignacin de recursos fsicos a ms de una instancia da la opcin de compartir y ampliar dichos recursos en la medida en que se vayan necesitando. Cada zona puede obtener archivos y configuraciones de la zona global.
Seguridad: los servicios de red pueden ejecutarse en una zona para limitar posibles daos en caso de una violacin de la seguridad. Los procesos que se ejecutan en una zona, aunque tenga atribuciones de superusuario, no pueden afectar a la actividad de otras zonas. Determinadas actividades, como el reinicio o el cierre de todo el sistema, slo se permiten en la zona global. Un administrador que acceda a la zona global puede monitorizar la actividad de las aplicaciones que se ejecutan en otras zonas y controlar el conjunto del sistema. La zona global (predeterminada) es permanente. Aislamiento: Zonas de Solaris permite implantar varias aplicaciones en la misma mquina, aunque stas operen en distintos dominios de confianza, necesiten el uso exclusivo de un recurso global o tengan dificultades con las configuraciones globales. Cada zona tiene su propio conjunto de usuarios y su propia contrasea de root. Cuando se reinician estas zonas, las otras zona que se ejecutan en el sistema no se ven afectadas. Virtualizacin: las zonas proporcionan un entorno artificial que puede ocultar a la aplicacin datos tales como los dispositivos fsicos, la direccin IP (Internet protocol) principal del sistema y el nombre de host. Dado que es posible mantener el mismo entorno en varias mquinas diferentes, esto puede ser til para facilitar y acelerar la implantacin y reimplantacin de las aplicaciones. Granularidad: las zonas pueden proporcionar aislamiento con un nivel de granularidad arbitrario. No es preciso dedicar una CPU, un dispositivo fsico o una parte de la memoria a una zona. Estos recursos pueden distribuirse de forma simultnea entre un conjunto de zonas ejecutadas en un mismo sistema o asignarse zona a zona utilizando las funciones de administracin de recursos disponibles en el sistema operativo.
15-4
Transparencia: excepto en los casos en que es necesario para obtener seguridad y aislamiento, las zonas evitan la necesidad de cambiar el entorno en el que se ejecutan las aplicaciones. De hecho, no presentan nuevas API o ABI (interfaz binaria) a las que deban adaptarse las aplicaciones. Por el contrario, proporcionan las interfaces y el entorno de aplicaciones estndar de Solaris, con algunas restricciones para las aplicaciones que tratan de realizar operaciones que exigen privilegios.
15-5
Tipos de zonas Demonios de las zonas Sistemas de archivos de las zonas Configuracin de red de las zonas Estados de las zonas
Tipos de zonas
Solaris admite dos tipos de zonas:
Zonas globales
Cada sistema Solaris contiene una zona global (Figura 15-1 en la pgina 15-3). sta posee dos funciones. Por un lado es la zona predeterminada del sistema y, por otro, es la zona utilizada para el control administrativo de todo el sistema. La zona global es la nica desde la que se puede configurar, instalar, administrar o desinstalar una zona no global. Todos los procesos se ejecutan en la zona global si el administrador global no crea ninguna zona no global. Slo la zona global puede arrancarse desde el hardware del sistema. Asimismo, la administracin de la infraestructura del sistema, lo que incluye los dispositivos fsicos, el encaminamiento o la reconfiguracin dinmica (DR), slo es posible desde la zona global. sta contiene una instalacin completa de los paquetes de software del sistema Solaris. Adems, puede contener otro software no instalado a travs de los paquetes.
15-6
Conceptos sobre las zonas La zona global es la nica desde la que se puede configurar, instalar, administrar o desinstalar una zona no global. Determinados procesos dotados de los privilegios adecuados en la zona global pueden acceder a objetos asociados a otras zonas. Asimismo, procesos de la zona global que carecen de privilegios podran realizar operaciones no autorizadas a procesos de una zona no global dotados de privilegios. Por ejemplo, los usuarios de la zona global pueden ver informacin sobre cada proceso del sistema. Si esta capacidad representa un problema en su instalacin, puede restringir el acceso a la zona global. La zona global proporciona una base de datos completa que contiene informacin sobre todos los componentes instalados. Tambin alberga informacin de configuracin especfica de la zona global, como puede ser el nombre del host y la tabla del sistema de archivos de esta zona. Por ltimo, es la nica zona que conoce todos los dispositivos y sistemas de archivos. A cada zona, incluida la global, se le asigna un nombre. La zona global siempre se denomina global. Cada zona recibe, al arrancar, un nmero de identificacin exclusivo asignado por el sistema. A la zona global siempre le corresponde el ID de zona 0. El sistema asigna ID distintos de cero a las zonas no globales cada vez que arrancan. El nmero puede cambiar con cada arranque.
Zonas no globales
Las zonas no globales tienen instalado un subconjunto de los paquetes de software de Solaris. Tambin pueden contener los paquetes de software de Solaris compartidos desde la zona global y otros paquetes no compartidos desde dicha zona. Por ltimo, pueden contener otro software creado en las zonas no globales, un tipo de software que no se ha instalado a travs de paquetes ni se comparte desde la zona global. Las zonas no globales funcionan bajo el control del ncleo de Solaris arrancado desde la zona global. Cuando arrancan, el sistema les asigna un ID de zona distinto de cero y deben tener un nombre de usuario definido. Este tipo de zonas no conocen la existencia de ninguna otra zona. No pueden instalarse, administrarse ni desintalarse ni a si mismas ni a otras zonas.
15-7
Administrar el arranque y cierre de las zonas. Asignar el ID de zona e iniciar el proceso de zsched. Establecer los controles de los recursos en toda la zona. Preparar los dispositivos de la zona como se especifica en la configuracin de sta. Abrir y activar las interfaces de red virtuales. Montar sistemas de archivos en bucle (LOFS) y convencionales.
A menos que el demonio zoneadmd ya est en ejecucin, el comando zoneadm lo inicia automticamente. Cada zona activa del sistema tiene asociado un proceso del ncleo, zsched. Gracias a este proceso, el subsistema de zonas puede hacer el seguimiento de los subprocesos (threads) del ncleo por zona. Los subprocesos del ncleo que hacen algn trabajo en nombre de la zona son propiedad de zsched.
15-8
Modelo reducido
El modelo reducido instala un nmero mnimo de archivos de la zona global cuando se instala una zona no global. Con este modelo, slo se instala un determinado nmero de paquetes del sistema de archivos raz en la zona no global. Estos incluyen un subconjunto de paquetes obligatorios que normalmente estn instalados en la zona global, adems de otra serie de paquetes, tambin del sistema de archivos raz, que puede seleccionar el administrador global. Todos los archivos que deban ser compartidos por una zona no global y la zona global pueden montarse como sistemas de archivos en bucle (LOFS) de slo lectura. Los archivos /lib, /platform, /sbin y /usr se montan de este modo de forma predeterminada. En la Figura 15-2 se muestra un ejemplo de sistemas de archivos compartidos.
sbin
usr
etc
var
sbin
usr
etc
var
sbin
usr
etc
var
15-9
Conceptos sobre las zonas Una vez instaladas, las zonas dejan de depender de la zona global, a menos que se monte un sistema de archivos en bucle. Si un archivo importante se suprime de una zona, slo esa zona resulta afectada. Si se suprime un archivo importante de la zona global y falla el sistema operativo de esta zona, tambin fallarn las dems zonas. Si el sistema operativo global no falla y la zona no necesitaba el archivo suprimido, el resto de las zonas no resultarn afectadas. En el caso de los archivos que se montan utilizando el sistema de archivos en bucle, la supresin de un archivo crtico en la zona global tendra el mismo resultado que en un contexto cliente-servidor tpico. La dependencia que tenga la zona con respecto al archivo determinar el efecto que tendr sobre ella su supresin. Nota Una zona no global no puede actuar como servidor NFS.
Modelo completo
El modelo de sistema de archivos completo proporciona la mxima flexibilidad. Con l, se instalan en los sistemas de archivos privados de la zona todos los paquetes de Solaris necesarios y algunos paquetes opcionales. Entre las ventajas de este modelo se incluye la posibilidad que ofrece a los administradores de la zona global de personalizar la disposicin de los sistemas de archivos de zonas. Esto sera til, por ejemplo, para agregar paquetes independientes o paquetes de terceros. Los requisitos del disco para este modelo vienen determinados por el espacio utilizado por los paquetes que se encuentren instalados en la zona global.
15-10
Conceptos sobre las zonas IPMP puede configurarse en la zona global y ampliar su funcionalidad a las zonas no globales. La funcionalidad se ampla situando la direccin IP de la zona en un grupo IPMP cuando se configura la zona. De esta forma, si una de las interfaces de la zona global falla, las direcciones de las zonas no globales se trasladarn a otra tarjeta de interfaz de red.
Instalacin Instalada
Ejecucin
Preparada
Figura 15-3 Estados de las zonas Los posibles estados de las zonas se definen de la manera siguiente:
Indefinida: en este estado, la configuracin de la zona no ha finalizado ni se ha asociado a ningn medio de almacenamiento estable. Tambin se genera este estado cuando se ha borrado la configuracin de una zona. Configurada: en este estado, la configuracin de la zona ha finalizado y se ha asociado a un medio de almacenamiento estable. No obstante, an no estn presentes esos elementos del entorno de aplicaciones de la zona que deben especificarse despus del arranque inicial.
Incompleta: se trata de un estado de transicin. Durante las operaciones de instalacin y desinstalacin, zoneadm establece el estado de la zona de destino como incompleto. Cuando finaliza la operacin, vuelve a establecerse el estado correcto. No obstante, si una zona no puede terminar el proceso de instalacin, se detendr con este estado. Instalada: en este estado, la configuracin de las zonas est instanciada en el sistema. El comando zoneadm sirve para verificar si la configuracin se puede utilizar correctamente en el sistema Solaris designado. Los paquetes se instalan bajo la ruta del directorio raz de las zonas. En este estado, la zona no tiene asociada ninguna plataforma virtual. Preparada: en este estado, se establece la plataforma virtual de la zona. El ncleo crea el proceso zsched, se abren las interfaces de red, se montan los sistemas de archivos y se configuran los dispositivos. El sistema asigna un ID de zona exclusivo. En esta fase, no se ha iniciado an ningn proceso asociado a la zona. Ejecucin: en este estado, se ejecutan los procesos de usuario asociados al entorno de aplicaciones de la zona. La zona entra en estado de ejecucin tan pronto como se crea el primer proceso de usuario asociado al entorno de aplicaciones (init). Proceso de cierre y cierre: estos estados son de transicin y aparecen cuando se est deteniendo la zona. Si una zona no puede cerrar la sesin por algn motivo, se detendr en uno de estos dos estados.
15-12
Identificar los componentes que compondrn la zona. Configurar la zona. Verificar y confirmar (commit) la zona configurada.
Un nombre de zona Una ruta de acceso al sistema de archivos raz de la zona Las interfaces de red de las zonas Los sistemas de archivos montados en las zonas Los dispositivos configurados en las zonas
Como regla general, se necesitan unos 100 megabytes de espacio libre en el disco por cada zona no global cuando se han instalado todos los paquetes estndar de Solaris en la zona global. En la configuracin predeterminada, cualquier paquete suplementario que se instale en la zona global tambin se incluir en las zonas no globales. La cantidad de espacio necesario en el disco deber incrementarse como corresponda. Los directorios de la zona no global donde se ubican estos paquetes suplementarios se especifican a travs del recurso inherit-pkg-dir.
15-13
Configuracin de las zonas Es posible utilizar particiones estndar para dividir los slices o subparticiones (particiones de software) del disco o para dividir los volmenes lgicos en particiones. Puede usar estas particiones como sistemas de archivos raz de las zonas y, de esta forma, limitar el consumo de disco por zona. El lmite de subparticiones asciende a 8192. Se recomienda asignar otros 40 megabytes de memoria RAM por zona, pero no es obligatorio en mquinas donde haya suficiente espacio de intercambio.
Crear o borrar una configuracin de zona. Establecer las propiedades de los recursos agregados a una configuracin. Consultar o verificar una configuracin. Confirmar la configuracin en el disco. Recuperar una configuracin anterior. Salir de la sesin de zonecfg.
Nota Hay muchas otras operaciones que pueden realizarse con el comando zonecfg pero quedan fuera del alcance de este curso. Para simplificar la interfaz de usuario, zonecfg utiliza el concepto de mbito. El mbito predeterminado es global. Puede usar los subcomandos add y select para seleccionar un determinado recurso en cuyo punto el mbito cambia a ese recurso. El indicador del comando zonecfg interactivo cambia para reflejar el nuevo mbito. Los subcomandos end y cancel se utilizan para finalizar la especificacin de recursos, momento en el que el mbito vuelve al valor global. Algunos subcomandos, como add, remove y set, utilizan una semntica diferente en cada mbito.
15-14
Configuracin de las zonas Como se explica en la Tabla 15-1, la utilidad zonecfg incluye varios subcomandos para configurar y aprovisionar las zonas. Varios de ellos afectan al entorno, en funcin del mbito actual. El indicador zonecfg permite saber si el mbito es global o limitado a uno de los recursos. Muchos de los subcomandos tambin permiten utilizar el indicador f (forzar). Si se incluye este indicador, el comando no utiliza las medidas de comprobacin interactivas. Tabla 15-1 Subcomandos de zonecfg Comando add cancel Descripcin Agrega un recurso a la zona. Permite salir del mbito de los recursos para volver al mbito global. Se abandonan los recursos especificados de forma parcial. Verifica la configuracin y la confirma grabndola en el disco. El subcomando revert permite retornar a este punto. Crea una configuracin en la memoria para la zona especificada. Borra la configuracin de la memoria. Se utiliza para verificar los parmetros asignados y regresar al mbito global. Enva la configuracin a stdout o al archivo de salida especificado de forma que pueda utilizarse en un archivo de comandos. Muestra la informacin de configuracin existente sobre los recursos o los parmetros de los recursos zonepath, autoboot o pool globales. Suprime uno o varios recursos, segn el mbito. Se utiliza para encontrar el recurso cuyos parmetros coincidan con el criterio especificado entre los corchetes y cambiar al mbito de ese recurso. Establece el valor de un parmetro en la memoria. Permite verificar la configuracin de la memoria, as como comprobar si todos los recursos tienen las propiedades especificadas y si se ha especificado el recurso zonepath de la zona.
info
remove select
set verify
15-15
Configuracin de las zonas Tabla 15-1 Subcomandos de zonecfg (Continuacin) Comando revert exit Descripcin Descarta la configuracin de la memoria y recupera la configuracin existente la ltima vez que se ejecut commit. Graba en el disco la configuracin de la memoria y cierra la utilidad zonecfg. Este comando confirma automticamente la configuracin y la traslada al medio de almacenamiento estable.
zonename: define el nombre de la zona y sirve de identificador de la zona para la utilidad de configuracin. zonepath: establece el recurso de rutas de acceso a la zona y constituye la ruta al sistema de archivos raz de la zona. autoboot: determina si la zona se reiniciar cuando se reinicie la zona global. fs: asigna los parmetros de los recursos correspondientes a los sistemas de archivos. El uso del parmetro special permite a la zona local montar recursos del sistema de archivos global en diferentes directorios. En la Tabla 15-2 figuran los parmetros asociados al recurso fs.
Tabla 15-2 Parmetros del recurso fs dir special raw type options Punto de montaje de la zona no global. Archivo de dispositivo de bloques que especifica la ubicacin del sistema de archivos. Archivo de dispositivo que debe utilizarse para el comando fsck. Tipo de sistema de archivos. Admite parmetros similares a los utilizados con el comando mount.
15-16
inherit-pkg-dir: proporciona acceso a los paquetes de software del sistema global. La zona no global recibe el contenido de los paquetes de software situados en el directorio inherit-pkg-dir en modo de slo lectura. Los recursos contenidos de forma predeterminada en inherit-pkg-dir son: /lib, /platform, /sbiny /usr. net: proporciona a las zonas no globales interfaces lgicas de las interfaces de la zona global. Las interfaces de red se activan cuando la zona pasa del estado instalada al estado preparada. device: hace referencia a dispositivos para los comandos select, add o remove. Cada zona puede tener dispositivos que deberan configurarse cuando pasa del estado instalada al estado preparada. attr: permite al administrador global asignar parmetros de atributos genricos, como el tipo de nombre y el valor. El tipo debe ser int (entero) uint (entero sin signo), Boolean (booleano) o string (cadena).
15-17
15-18
Configuracin de las zonas Lnea 3: el recurso de ruta de acceso de la zona, en este caso /export/work-zone, es la ruta de acceso al directorio raz de la zona. Cada zona tiene una ruta de acceso a su directorio raz que es relativa al directorio raz de la zona global. Esta ruta debe existir en el momento de la instalacin. El directorio de la zona global debe tener visibilidad restringida. Debe ser propiedad de root con el modo 700. En este ejemplo, el directorio de la zona global es /export. Lnea 4: indica que la zona debera arrancar automticamente al arrancar el sistema. Lnea 5: inicia la configuracin de un sistema de archivos. El mbito del comando cambia al de los sistemas de archivos. Lnea 6: establece el punto de montaje del sistema de archivos, en este ejemplo /mnt. Lnea 7: indica que el archivo de dispositivos de bloques especial /dev/dsk/c0t0d0s7 debe montarse como /mnt en work-zone. Lnea 8: establece /dev/rdsk/c0t0d0s7 como archivo de dispositivo sin formato (raw). El demonio zoneadmd ejecuta automticamente el comando fsck en modo de comprobacin no interactiva sobre este dispositivo antes de montar el sistema de archivos. Lnea 9: indica que el tipo de sistema de archivos es UFS. Lnea 10: indica la opcin especfica del sistema de archivos, habilitar el registro de las actualizaciones del sistema de archivos en este procedimiento. Lnea 11: finaliza la seccin de configuracin del sistema de archivos de este procedimiento. Lnea 12: inicia la configuracin de un sistema de archivos de slo lectura compartido que se ha montado en bucle desde la zona global. Lnea 13: indica que /usr/sfw debe montarse en bucle desde la zona global. Lnea 14: finaliza la seccin de montaje en bucle de este procedimiento. Lnea 15: inicia la seccin de configuracin de red de este procedimiento. Lnea 16: indica que la interfaz de red fsica que debe usar esta zona es GigaSwift.
15-19
Configuracin de las zonas Lnea 17: especifica la direccin IP de la interfaz de red, en este procedimiento es 192.168.0.1. Lnea 18: finaliza la seccin de configuracin de red de este procedimiento. Lnea 19: inicia la seccin de configuracin de dispositivos de este procedimiento. Lnea 20: proporciona visibilidad sobre la zona no global a los dispositivos que coinciden con el patrn /dev/sound/* de la zona global. Lnea 21: finaliza la seccin de configuracin de dispositivos de este procedimiento. Lnea 22: inicia la seccin de configuracin de atributos de este procedimiento. Lnea 23: establece el nombre del atributo, en este caso, comentario. Lnea 24: define el tipo de atributo como una cadena de caracteres. Lnea 25: asigna un valor a la cadena de caracteres, en este procedimiento, Zona de trabajo. Lnea 26: finaliza la seccin de configuracin de atributos de este procedimiento. Lnea 27: comprueba si la configuracin actual es correcta. Verifica si todos los recursos tienen todas las propiedades necesarias especificadas. Lnea 28: confirma la configuracin actual y la traslada de la memoria al medio de almacenamiento estable. Hasta que se confirma la configuracin de la memoria, es posible anular los cambios con el comando revert. Para que el comando zoneadm pueda utilizar una configuracin, es preciso confirmarla (commit). Esta operacin se intenta automticamente cuando finaliza la sesin de zonecfg. Dado que slo pueden confirmarse las configuraciones correctas, la operacin de confirmacin efecta la verificacin de forma automtica. Lnea 29: cierra la seccin de zonecfg. Puede utiliza la opcin -F (forzar) con exit. La zona ya est preparada para su instalacin, arranque y uso.
15-20
15-21
Verificar la configuracin de una zona. Instalar una zona. Arrancar una zona. Reiniciar una zona. Mostrar informacin sobre una zona en ejecucin. Trasladar una zona. Desinstalar una zona. Suprimir una zona con el comando zonecfg
15-22
15-23
15-24
Uso del comando zoneadm Nota Si va a utilizar una ventana de terminal de CDE, elija dtterm. Si va a utilizar otro tipo de ventana, elija vt100 o xterm. Cuando haya introducido los datos adecuados, vera la siguiente informacin en la pantalla: System identification is completed. rebooting system due to change(s) in /etc/default/init [NOTICE: zone rebooting] SunOS Release 5.10 Version s10 64-bit Copyright 1983-2004 Sun Microsystems, Inc. All rights reserved. Use is subject to license terms. Hostname: twilight The system is coming up. Please wait. starting rpc services: rpcbind done. syslog service starting. Creating new rsa public/private host key pair Creating new dsa public/private host key pair The system is ready. twilight console login: root Password: Dec 16 12:37:07 twilight login: ROOT LOGIN /dev/console Sun Microsystems Inc. SunOS 5.10 s10 Dec 2004 Despus de utilizar la interfaz de la consola para acceder a la zona, eche un vistazo a la forma en que el sistema operativo ve sus recursos. twilight# nombrehost twilight twilight# uname -a SunOS twilight 5.10 s10 sun4u sparc SUNW,Netra-T12 twilight# df -k File system kbytes used avail capacity Mounted on / 678457 69941 547455 12% / /dev 678457 69941 547455 12% /dev /lib 33265565 1893804 31039106 6% /lib /platform 33265565 1893804 31039106 6% /platform /sbin 33265565 1893804 31039106 6% /sbin /usr 33265565 1893804 31039106 6% /usr proc 0 0 0 0% /proc mnttab 0 0 0 0% /etc/mnttab fd 0 0 0 0% /dev/fd swap 7949040 32 7949008 1% /var/run swap 7949008 0 7949008 0% /tmp twilight# ps -ef |grep z UID PID PPID C STIME TTY TIME CMD root 6965 6965 0 12:35:38 ? 0:00 zsched
15-25
Uso del comando zoneadm twilight# ifconfig -a lo0:1: flags=1000849<UP,LOOPBACK,RUNNING,MULTICAST,IPv4> mtu 8232 index 1 inet 127.0.0.1 netmask ff000000 ce0:1: flags=1000843<UP,BROADCAST,RUNNING,MULTICAST,IPv4> mtu 1500 index 2 inet 192.168.0.1 netmask ffffff00 broadcast 192.168.0.255 twilight# ~. [Connection to zone 'work-zone' console closed] Nota La zona est activa y en ejecucin. Si agrega o suprime recursos de una zona en ejecucin con el comando zonecfg, deber reiniciarla para que los cambios tengan efecto. Para suprimir un recurso de una zona no global, ejecute el comando zonecfg y elija el subcomando remove con una referencia al dispositivo y los parmetros. # zonecfg z work-zone zonecfg:work-zone> remove net physical=ce0 zonecfg:work-zone> commit zonecfg:work-zone> exit
15-26
La misma versin que el host original Las mismas versiones de los paquetes y parches del sistema operativo que el host original
El proceso de desconexin de la zona genera la informacin necesaria para volver a conectar la zona a un sistema diferente. El proceso de conexin de la zona verifica si la nueva mquina tiene la configuracin correcta para alojar la zona. Hay varias formas de poner el recurso zonepath a disposicin del nuevo host. Por tanto, el traslado de zonepath de un sistema a otro es un proceso manual que debe realizar el administrador de la zona. La migracin de una zona de un sistema a otro implica los pasos siguientes: 1. Desconectar la zona: esto la deja en el estado configurada dentro del sistema de origen. Internamente, el sistema genera un archivo de manifiesto con la informacin necesaria para certificar que la zona podr conectarse sin problemas al nuevo host. Para desconectar una zona, primero detngala y luego realice la desconexin: host1# zoneadm -z work-zone halt host1# zoneadm -z work-zone detach Nota La operacin de desconexin genera metadatos que describen la versin de los paquetes y parches instalados en el host. Esta informacin se guarda en un archivo XML de zonepath, junto con los directorios root y dev. Esto facilita el traslado de zonepath al otro sistema. 2. Migrar los datos: es preciso trasladar a un nuevo sistema host los datos que representan a la zona. El fragmento siguiente contiene un ejemplo de migracin de esos datos de host1 a host2. En host1: host1# cd /export/zones host1# tar cf work-zone.tar work-zone
15-27
Migracin de una zona host1# sftp host2 Connecting to host2... Password: sftp> cd /export/zones sftp> put work-zone.tar Uploading work-zone.tar to /export/zones/work-zone.tar sftp> quit En host2: host2# cd /export/zones host2# tar xf my-zone.tar 3. Configurar la zona: debe crear la configuracin de la zona en el nuevo host utilizando el comando zonecfg. Por ejemplo:
host2# zonecfg -z work-zone work-zone: No such zone configured Utilice el comando create para empezar a configurar una zona nueva. zonecfg:work-zone> create -a /export/zones/work-zone Nota La opcin -a utiliza la descripcin XML de la zona desconectada (generada durante la operacin de desconexin) para configurar la nueva instancia de la zona. La ruta /export/zones/work-zone es la ruta de acceso al directorio raz de la zona. Como alternativa, es posible configurar la nueva zona utilizando las habituales operaciones de zonecfg y luego el comando zoneadm attach para conectar el directorio raz de la zona.
Nota Asegrese de hacer todos los ajustes necesarios a la configuracin. Por ejemplo, el dispositivo fsico de red podra ser distinto en el nuevo host. zonecfg:work-zone> select net physical=bge0 zonecfg:work-zone:net> set physical=e1000g0 zonecfg:work-zone> commit zonecfg:work-zone> exit 4. Conectar la zona: esta operacin verifica si el host puede albergar la zona antes de efectuar la conexin. La zona queda en estado instalada. La sintaxis para conectar una zona es: host2# zoneadm -z work-zone attach
15-28
15-29
SUNW_PKG_ALLZONES: define el mbito de la zona al que pertenece un paquete. El mbito determina el tipo de zona en el que puede instalarse un paquete concreto. SUNW_PKG_HOLLOW: define la visibilidad de un paquete si ste debe instalarse en todas las zonas y ser idntico en todas ellas (por ejemplo, un paquete configurado con SUNW_PKG_ALLZONES=true). SUNW_PKG_THISZONE: determina si un paquete debe instalarse nicamente en la zona actual.
Los valores de estos parmetros slo pueden ser true o false. Si alguno de ellos no est definido en un paquete, las herramientas de administracin de paquetes suponen que tiene el valor false. Puede encontrar ms informacin sobre los efectos concretos de estos parmetros y la forma en que interaccionan en pkginfo(4). Es posible ver la lista de parmetros de los paquetes utilizando el comando pkgparam. Para ver la lista de parmetros y sus valores, utilice pkgparam -v paquete. Por ejemplo: # pkgparam -v SUNWzoneu CLASSES='none' BASEDIR='/' LANG='C' PATH='/sbin:/usr/sbin:/usr/bin:/usr/sadm/install/bin' OAMBASE='/usr/sadm/sysadm' PKG='SUNWzoneu'
15-30
Instalacin de paquetes en las zonas NAME='Solaris Zones (Usr)' ARCH='sparc' VERSION='11.10.0,REV=2005.01.21.15.53' SUNW_PRODNAME='SunOS' SUNW_PRODVERS='5.10/Generic' SUNW_PKGTYPE='usr' MAXINST='1000' CATEGORY='system' DESC='Solaris Zones Configuration and Administration' VENDOR='Sun Microsystems, Inc.' HOTLINE='Please contact your local service provider' EMAIL='' SUNW_PKGVERS='1.0' SUNW_PKG_ALLZONES='true' SUNW_PKG_HOLLOW='false' PSTAMP='gaget20050121155950' PKGINST='SUNWzoneu' PKGSAV='/var/sadm/pkg/SUNWzoneu/save' INSTDATE='Jan 26 2005 10:21' # La herramienta pkgadd puede utilizarse con la opcin -G en la zona global para agregar el paquete nicamente a la zona global. En ese caso, el paquete no se propaga a ninguna otra zona. Recuerde que, si SUNW_PKG_THISZONE=true, no necesita utilizar la opcin -G. Si SUNW_PKG_THISZONE=false, la opcin -G sustituir a este valor. Cuando se ejecuta pkgadd en la zona global, pueden realizarse las siguientes acciones.
nicamente a la zona global, a menos que el paquete tenga definido el parmetro SUNW_PKG_ALLZONES=true. A la zona global y a todas las zonas no globales. nicamente a las zonas no globales, si el paquete ya se encuentra instalado en la zona global. nicamente a la zona actual, si SUNW_PKG_THISZONE=true. A ningn subconjunto de las zonas no globales. A ninguna zona no global, a menos que el paquete ya est instalado en la zona global.
15-31
Si la utilidad pkgadd se ejecuta sin la opcin -G y SUNW_PKG_THISZONE=false, el paquete especificado se agrega a todas las zonas de forma predeterminada. El paquete no se marca como instalado en la zona global nicamente. Si la utilidad pkgadd se ejecuta sin la opcin -G y el parmetro SUNW_PKG_THISZONE=true, entonces, el paquete especificado se agrega a la zona actual (global) de forma predeterminada. El paquete se marca como instalado en la zona global nicamente. Si se utiliza la opcin -G, la utilidad pkgadd agrega el paquete especificado nicamente a la zona global. El paquete se marca como instalado nicamente en la zona global. Si no hay zonas no globales instaladas, no se instala.
Slo en la zona global si SUNW_PKG_ALLZONES=false. Slo en la zona actual, que en este caso es la zona global, si SUNW_PKG_THISZONE=true. En la zona global y en todas las zonas no globales.
Si el paquete est instalado nicamente en la zona global, se aplican las normas siguientes:
El paquete puede instalarse en todas las zonas no globales. El paquete puede suprimirse de la zona global.
Si en un momento dado un paquete est instalado en la zona global y en un subconjunto de las zonas no globales, se aplican las normas siguientes:
SUNW_PKG_ALLZONES debe estar configurado con el valor false. El paquete puede instalarse en todas las zonas no globales. Las instancias existentes de cualquier zona no global se actualizan con la revisin que se est instalando. El paquete puede suprimirse de la zona global. El paquete puede suprimirse de la zona global y de todas las zonas no globales.
15-32
Instalacin de paquetes en las zonas Si un paquete se encuentra instalado en la zona global y en todas las zonas no globales, puede suprimirse de la zona global y de todas las zonas no globales. Estas reglas garantizan que:
Los paquetes que se instalen en la zona global se instalarn nicamente en la zona global o en la zona global y en todas las zonas no globales. Los paquetes que se instalen en la zona global y en alguna zona no global sern los mismos en todas las zonas.
Si un paquete no se encuentra instalado en la zona no global, slo puede instalarse si SUNW_PKG_ALLZONES=false. El paquete puede instalarse en la zona actual, que en este caso es la zona no global, si SUNW_PKG_THISZONE=true. Si un paquete est instalado en la zona no global, se aplican las normas siguientes:
El paquete slo puede instalarse sobre la instancia existente del paquete si SUNW_PKG_ALLZONES=false. El paquete slo puede suprimirse de la zona no global si SUNW_PKG_ALLZONES=false.
Nota Para obtener ms informacin sobre la administracin de paquetes y parches en sistemas Solaris que tienen zonas instaladas, consulte el Captulo 23, About Packages and Patches on a Solaris System with Zones Installed (Overview) en la seccin Zones del documento System Administration Guide: Solaris Containers-Resource Management and Solaris Zones, que se encuentra en http://docs.sun.com/ app/docs/doc/817-1592/6mhahuor0?a=view.
15-33
Se pueden desinstalar las zonas no globales, actualizar Solaris 10 de la forma habitual y reinstalar las zonas. Se puede instalar Solaris 10 a partir de una instalacin inicial, con lo que se pierde la configuracin y los archivos de las zonas existentes. En ese caso, es preciso volver a crear las zonas. Es posible actualizar Solaris 10 utilizando las nuevas funciones de Solaris 10 01/06, que preservan la configuracin y los archivos de las zonas existentes. Por otra parte, no permite personalizar la actualizacin. Por ejemplo, no se pueden instalar productos de software adicionales, instalar ms paquetes de configuracin regional ni modificar la organizacin de los discos.
Atencin No puede utilizar Solaris Live Upgrade para actualizar sistemas que tienen instaladas zonas no globales. Puede crear un entorno de arranque con el comando lucreate, pero si utiliza el comando luupgrade, la actualizacin fallar. Aparecer un mensaje de error.
15-34
Actualizacin de Solaris 10
Es conveniente hacer una copia de seguridad de las zonas globales y no globales del sistema Solaris antes de iniciar la actualizacin. Al actualizar Solaris 10, el sistema debera arrancarse utilizando los discos de instalacin en el lector de DVD local o desde una imagen de instalacin de red generada a partir del DVD. Si se selecciona la opcin de actualizacin, se realiza un anlisis del sistema y, si hay zonas no globales instaladas, se inicia el mtodo de actualizacin de Solaris 10 alternativo. 1. Para realizar la actualizacin, arranque el sistema desde un DVD local o desde un servidor de instalacin de la red. OK boot net - install 2. Deber leer los mensajes y la informacin que aparezcan en la pantalla y suministrar las respuestas necesarias a las preguntas relevantes. Una vez finalizada la fase de identificacin del sistema, el proceso contina hasta que aparece la pantalla de instalacin.
Solaris Interactive Installation On the following screens, you can accept the defaults or you can customize how Solaris software will be installed by: - Selecting the type of Solaris software to install- Selecting disks to hold software youve selected - Selecting unbundled products to be installed with Solaris - Specifying how file systems are laid out on the disks After completing these tasks, a summary of your selections (called a profile) will be displayed. There are two ways to install your Solaris software: - Standard installs your system from a standard Solaris Distribution. Selecting Standard allows you to choose between initial install and upgrade, if your system is upgradable. - Flash installs your system from one or more Flash Archives. F2_Standard F4_FlashF5_Exit F6_Help 3. Debera seleccionar la opcin Standard con la opcin F2.
15-35
Actualizacin de sistemas Solaris 10 que tienen zonas no globales instaladas This system is upgradable, so there are two ways to install the Solaris software. The Upgrade option updates the Solaris software to the new release, saving as many modifications to the previous version of Solaris software as possible. Back up the system before using the Upgrade option. The Initial option overwrites the system disks with the new version of Solaris software. This option allows you to preserve any existing file systems. Back up any modifications made to the previous version of Solaris software before starting the Initial option. After you select an option and complete the tasks that follow, a summary of your actions will be displayed. F2_Upgrade F3_Go Back F4_Initial F5_Exit F6_Help 4. El software examina el sistema para comprobar si hay zonas instaladas. Si encuentra zonas no globales, se selecciona el mtodo de actualizacin alternativo y se le solicita confirmacin.
Please wait Initializing The system is being initialized. Loading install media, please wait.. Information The Solaris Operating System selected to upgrade is configured with nonglobal zones. See the System Administration Guide: Solaris ContainersResource Management and Solaris Zones, available on docs.sun.com, for more information. Note that you cannot reconfigure software when upgrading a system with zones installed. F2_Continue F5_Cancel 5. Elija la opcin F2 para continuar con la actualizacin. Sucesivas pantallas le pedirn que acepte el contrato de licencia y confirme la actualizacin.
Si trata de hacer la actualizacin de Solaris 10 con CD-ROM, aparece el siguiente mensaje de error. Error The Solaris Operating System selected to upgrade is configured with nonglobal zones. To upgrade this system, you must use either a local DVD or a network install image created from a DVD. You cannot upgrade this system from a CD-ROM or CD-ROM based network install image.
15-36
Actualizacin de sistemas Solaris 10 que tienen zonas no globales instaladas Nota Para obtener ms informacin sobre la instalacin con este programa, consulte el Captulo 2, Installing With the Solaris Installation Program (Tasks), del documento Solaris 10 Installation Guide: Basic Installations, que se encuentra en http://docs.sun.com/app/docs/doc/817-0544/6mgbagb12?a=view
15-37
Actualizacin de sistemas Solaris 10 que tienen zonas no globales instaladas Nota Para obtener ms informacin sobre las claves y los valores de los perfiles, consulte la seccin Profile Keywords and Values en el Captulo 11, Custom JumpStart (Reference), del documento Solaris 10 Installation Guide: Custom JumpStart and Advanced Installations, que se encuentra en http://docs.sun.com/ app/docs/doc/817-5506/6mkv6kib0?a=view.
15-38
Crear e instalar una zona no global. Administrar usuarios y datos dentro de las zonas. Instalar paquetes de software en las zonas. Suprimir zonas.
Preparacin
Para hacer este ejercicio, es preciso que los programas y paquetes de software estn situados en los directorios /opt/ses/lab/sparc/zones o /opt/ses/lab/x86/zones de los sistemas SPARC o x86/x64 respectivamente. Si trabaja en una mquina x86, utilizar los siguientes paquetes:
Para realizar el ejercicio, debe estar familiarizado/a con el funcionamiento de la utilidad format. Suprima todos los usuarios que no sean root y hayan quedado configurados de anteriores ejercicios. En particular, asegrese de que no haya ningn usuario denominado user1 en el sistema. # userdel user1 Para hacer el ejercicio, es preciso disponer de un sistema que tenga un disco de reserva. Durante el ejercicio, utilizar la herramienta format para crear tres particiones en el disco de reserva: dos particiones de 1 Gbyte y una particin que represente el resto del disco. El profesor le proporcionar una direccin IP para la zona no global que va a crear.
15-39
Utilice el comando ifconfig -a para determinar qu dispositivo se utilizar como interfaz Ethernet principal del sistema.
2.
3.
4. 5.
6. 7. 8.
15-40
Ejercicio: configuracin de zonas 10. Abra una ventana de terminal. Utilice la ventana para instalar zone1. La instalacin de las zonas no siempre dura lo mismo y depende de la capacidad de su sistema. El comando zoneadm comprueba si la configuracin de la zona es vlida y comunica los errores que encuentra. zoneadm puede enviar los mensajes siguientes: Preparing to install zone <zone1>. Checking <ufs> file system on device </dev/rdsk/c2d0s1> to be mounted at </export/zone1/root> Creating list of files to copy from the global zone. Copying <2422> files to the zone. Initializing zone product registry. Determining zone package initialization order. Preparing to initialize <974> packages on the zone. Initializing package <243> of <974>: percent complete: 24% 11. Cuando finalice el proceso de instalacin de la zona no global, utilice el comando zoneadm para verificar su estado. 12. Compruebe el espacio de disco que utiliza la zona bajo el directorio /export. 13. Verifique la configuracin de la interfaz de red que est utilizando el sistema. Recuerde que an no se ha configurado ninguna interfaz virtual para la zona. 14. Arranque zone1. El proceso de arranque inicial de la zona puede tardar varios minutos. 15. Asegrese de que zone1 se est ejecutando. 16. Verifique la configuracin de la interfaz de red que est utilizando el sistema. Tenga presente que ya se ha configurado una interfaz virtual para la zona. Compruebe si zone1 est usando la direccin IP que le ha asignado. 17. Utilice zlogin -C para conectarse a la consola de zone1 y responda a las preguntas de identificacin del sistema que aparezcan. Asegrese de seleccionar un tipo de terminal que sea adecuado para su sistema. Nota Si se ha conectado al sistema de forma remota, puede ser til especificar un carcter de escape alternativo para las conexiones a la consola con zlogin. Con ello evitar interrumpir de forma inadvertida la conexin remota. Por ejemplo, para usar el signo de acento circunflejo en lugar de la tilde (signo predeterminado), debera escribir: zlogin -C -e \^ zone1
15-41
Ejercicio: configuracin de zonas Despus de elegir el idioma, la configuracin regional y el tipo de terminal adecuados para su sistema, una herramienta grfica interactiva le pedir el resto de la informacin necesaria. Cuando la haya introducido, la zona reiniciar automticamente. Host name for eri0:n = zone1 Configure kerberos security = no Name service = none Default time zone = <especfica de la ubicacin> Root password = cangetin Override default NFS version 4 domain name = no 18. Salga de la sesin de consola de zlogin. Si ha especificado un carcter de escape alternativo en la lnea del comando zlogin, introduzca ese carcter en lugar de la tilde.
2. 3. 4.
15-42
2. 3.
Utilice pkginfo para ver el nombre de los paquetes contenidos en los archivos de paquetes. Utilice el comando pkgparam para ver el valor configurado en el parmetro SUNW_PKG_ALLZONES para los paquetes SMCsudo y SMCtop. Si el parmetro SUNW_PKG_ALLZONES no est configurado, el resultado es el mismo que si tuviese definido el valor false.
Nota Cuando est configurado con el valor false, el parmetro SUNW_PKG_ALLZONES indica que el paquete puede instalarse: 1) slo en la zona global, 2) en la zona global y en todas las zonas no globales, o 3) desde cualquier zona no global en la misma zona no global. 4. 5. 6. 7. Instale el paquete SMCtop slo en la zona global. Todos los archivos de este paquete se instalan bajo el directorio /opt/local. Abra la sesin en zone1 y asegrese de que el paquete SMCtop no se haya instalado en esa zona. Salga de zone1 cuando haya terminado. Desde la zona global, instale el paquete SMCsudo en la zona global y en la zona no global. Acceda a zone1 y compruebe si se ha instalado el paquete SMCsudo. Salga de zone1 cuando haya terminado.
15-43
15-44
!
?
15-45
Crear e instalar una zona no global. Administrar usuarios y datos en las zonas. Instalar paquetes de software en las zonas. Suprimir zonas.
Preparacin
Para hacer este ejercicio, es preciso que los programas y paquetes de software estn situados en los directorios /opt/ses/lab/sparc/zones o /opt/ses/lab/x86/zones de los sistemas SPARC o x86/x64 respectivamente. Si trabaja en una mquina x86, utilizar los siguientes paquetes:
Para realizar el ejercicio, debe estar familiarizado/a con el funcionamiento de la utilidad format. Suprima todos los usuarios que no sean root y hayan quedado configurados de anteriores ejercicios. En particular, asegrese de que no haya ningn usuario denominado user1 en el sistema. # userdel user1 Para hacer el ejercicio, es preciso disponer de un sistema que tenga un disco de reserva libre. Durante el ejercicio, utilizar la herramienta format para crear tres particiones en el disco de reserva: dos particiones de 1 Gbyte y una particin que represente el resto del disco.
15-46
Soluciones del ejercicio El profesor le proporcionar una direccin IP para la zona no global que va a crear. Utilice el comando ifconfig -a para determinar qu dispositivo se utilizar como interfaz Ethernet principal del sistema.
2.
# newfs /dev/rdsk/c2d0s0 # newfs /dev/rdsk/c2d0s1 3. Cree el directorio /export/zone1. Los archivos especficos de la zona no global que cree se instalarn en el sistema de archivos que montar bajo este directorio. Asegrese de que el directorio /export pertenezca al usuario root y al grupo de este usuario.
# mkdir /export/zone1 4.
Edite el archivo /etc/vfstab de su sistema y agregue una entrada para que el sistema de archivos de la particin 0 del disco de reserva se monte automticamente bajo /export/zone1. Utilice los nombres de dispositivo correctos para su sistema. Por ejemplo:
/export/zone1 ufs 2 yes -
/dev/dsk/c2d0s0 /dev/rdsk/c2d0s0
6. 7.
Utilice el comando mount para montar el nuevo sistema de archivos. Cambie el modo de permiso de /export/zone1 a 700.
15-47
Soluciones del ejercicio 8. Cree una zona no global llamada zone1. En las propiedades special y raw, especifique los nombres de archivo de los dispositivos especial y sin formato correspondientes al slice 1 del disco de reserva. Especifique el dispositivo utilizado como interfaz Ethernet principal del sistema en la propiedad physical. Especifique en la propiedad address la direccin IP proporcionada por el profesor. # zonecfg -z zone1 zone1: No such zone configured Use 'create' to begin configuring a new zone. zonecfg:zone1> create zonecfg:zone1> set zonepath=/export/zone1 zonecfg:zone1> set autoboot=true zonecfg:zone1> add fs zonecfg:zone1:fs> set dir=/dir1 zonecfg:zone1:fs> set special=/dev/dsk/c2d0s1 zonecfg:zone1:fs> set raw=/dev/rdsk/c2d0s1 zonecfg:zone1:fs> set type=ufs zonecfg:zone1:fs> end zonecfg:zone1> add net zonecfg:zone1:net> set physical=nge0 zonecfg:zone1:net> set address=10.7.10.114 zonecfg:zone1:net> end zonecfg:zone1> add attr zonecfg:zone1:attr> set name=comment zonecfg:zone1:attr> set type=string zonecfg:zone1:attr> set value="zone one" zonecfg:zone1:attr> end zonecfg:zone1> verify zonecfg:zone1> commit zonecfg:zone1> info zonename: zone1 zonepath: /export/zone1 autoboot: true pool: limitpriv: inherit-pkg-dir: dir: /lib inherit-pkg-dir: dir: /platform inherit-pkg-dir: dir: /sbin inherit-pkg-dir: dir: /usr fs: dir: /dir1
15-48
Soluciones del ejercicio special: /dev/dsk/c2d0s1 raw: /dev/rdsk/c2d0s1 type: ufs options: [] net: address: 10.7.10.114 physical: nge0 attr: name: comment type: string value: "zone one" zonecfg:zone1> exit # 9. # zoneadm list -i global # 10. Abra una ventana de terminal. Utilice la ventana para instalar zone1. La instalacin de las zonas no siempre dura lo mismo y depende de la capacidad de su sistema. # zoneadm -z zone1 install El comando zoneadm comprueba si la configuracin de la zona es vlida y comunica los errores que encuentra. zoneadm puede enviar los mensajes siguientes: Preparing to install zone <zone1>. Checking <ufs> file system on device </dev/rdsk/c2d0s1> to be mounted at </export/zone1/root> Creating list of files to copy from the global zone. Copying <2422> files to the zone. Initializing zone product registry. Determining zone package initialization order. Preparing to initialize <974> packages on the zone. Initializing package <243> of <974>: percent complete: 24% 11. Cuando finalice el proceso de instalacin de la zona no global, utilice el comando zoneadm para verificar su estado. # zoneadm list -i ID NAME 0 global - zone1 # STATUS running installed PATH / /export/zone1 Utilice el comando zoneadm para asegurarse de que no haya zonas globales instaladas.
15-49
Soluciones del ejercicio 12. Compruebe el espacio de disco que utiliza la zona bajo el directorio /export. # du -sk /export/zone* 58525 /export/zone1 # 13. Verifique la configuracin de la interfaz de red que est utilizando el sistema. Recuerde que an no se ha configurado ninguna interfaz virtual para la zona.
# ifconfig -a lo0: flags=2001000849<UP,LOOPBACK,RUNNING,MULTICAST,IPv4,VIRTUAL> mtu 8232 index 1 inet 127.0.0.1 netmask ff000000 nge0: flags=1000843<UP,BROADCAST,RUNNING,MULTICAST,IPv4> mtu 1500 index 2 inet 10.7.10.14 netmask ffff0000 broadcast 10.7.255.255 ether 0:e0:81:73:52:cc #
14. Arranque zone1. El proceso de arranque inicial de la zona puede tardar varios minutos. # zoneadm -z zone1 boot 15. Asegrese de que zone1 se est ejecutando. # zoneadm list -iv ID NAME 0 global 1 zone1 # STATUS running running PATH / /export/zone1
16. Verifique la configuracin de la interfaz de red que est utilizando el sistema. Tenga presente que ya se ha configurado una interfaz virtual para la zona. Compruebe si zone1 est usando la direccin IP que le ha asignado.
# ifconfig -a lo0: flags=2001000849<UP,LOOPBACK,RUNNING,MULTICAST,IPv4,VIRTUAL> mtu 8232 index 1 inet 127.0.0.1 netmask ff000000 lo0:1: flags=2001000849<UP,LOOPBACK,RUNNING,MULTICAST,IPv4,VIRTUAL> mtu 8232 index 1 zone zone1 inet 127.0.0.1 netmask ff000000 nge0: flags=1000843<UP,BROADCAST,RUNNING,MULTICAST,IPv4> mtu 1500 index 2 inet 10.7.10.14 netmask ffff0000 broadcast 10.7.255.255 ether 0:e0:81:73:52:cc nge0:1: flags=1000843<UP,BROADCAST,RUNNING,MULTICAST,IPv4> mtu 1500 index 2 zone zone1 inet 10.7.10.114 netmask ffff0000 broadcast 10.7.255.255 #
15-50
Soluciones del ejercicio 17. Utilice zlogin -C para conectarse a la consola de zone1 y responda a las preguntas de identificacin del sistema que aparezcan. Asegrese de seleccionar un tipo de terminal que sea adecuado para su sistema. Nota Si se ha conectado al sistema de forma remota, puede ser til especificar un carcter de escape alternativo para las conexiones a la consola con zlogin. Con ello evitar interrumpir de forma inadvertida la conexin remota. Por ejemplo, para usar el signo de acento circunflejo en lugar de la tilde (signo predeterminado), debera escribir: zlogin -C -e \^ zone1 # zlogin -C zone1 [Connected to zone 'zone1' console] ... Select a Language 0. 1. 2. 3. 4. 5. 6. 7. 8. 9. English French German Italian Japanese Korean Simplified Chinese Spanish Swedish Traditional Chinese
Please make a choice (0 - 9), or press h or ? for help: 0 ... <enter <cr> as required to display these selections> ... Select a Locale 57. 58. 59. 60. 61. 62. 63. Thai UTF-8 Turkey (ISO8859-9) Turkey (UTF-8) U.S.A. (UTF-8) U.S.A. (en_US.ISO8859-1) U.S.A. (en_US.ISO8859-15) Go Back to Previous Screen
15-51
Press Return to show more choices. Please make a choice (0 - 63), or press h or ? for help: 61 ... What type of terminal are you using? 1) ANSI Standard CRT 2) DEC VT52 3) DEC VT100 4) Heathkit 19 5) Lear Siegler ADM31 6) PC Console 7) Sun Command Tool 8) Sun Workstation 9) Televideo 910 10) Televideo 925 11) Wyse Model 50 12) X Terminal Emulator (xterms) 13) CDE Terminal Emulator (dtterm) 14) Other Type the number of your choice and press Return: 3 ... Despus de elegir el idioma, la configuracin regional y el tipo de terminal adecuados para su sistema, una herramienta grfica interactiva le pedir el resto de la informacin necesaria. Cuando la haya introducido, la zona se reiniciar automticamente. Host name for eri0:n = zone1 Configure kerberos security = no Name service = none Default time zone = <especfica de la ubicacin> Root password = cangetin Override default NFS version 4 domain name = no 18. Salga de la sesin de consola de zlogin. Si ha especificado un carcter de escape alternativo en la lnea del comando zlogin, introduzca ese carcter en lugar de la tilde. zone1 console login: ~. [Connection to zone 'zone1' console closed] #
15-52
# zlogin zone1 [Connected to zone 'zone1' pts/5] Sun Microsystems Inc. SunOS 5.10 Generic January 2005 # uname -a SunOS zone1 5.10 Generic_118855-33 i86pc i386 i86pc # df -h dir1 Filesystem size used avail capacity Mounted on /dir1 996M 1.0M 935M 1% /dir1 # cd /dir1 # touch file1 # ls file1 lost+found # exit [Connection to zone 'zone1' pts/5 closed] # 2. Abra una sesin en zone1 y cree un usuario llamado user1. # zlogin zone1 [Connected to zone 'zone1' pts/5] Last login: Mon Apr 30 14:16:01 on pts/5 Sun Microsystems Inc. SunOS 5.10 Generic January 2005 # mkdir /export/home # useradd -u 1000 -g 10 -md /export/home/user1 user1 64 blocks # passwd user1 New Password: Re-enter new Password: passwd: password successfully changed for user1 # Compruebe si user1 existe en el archivo /etc/passwd de zone1 y cierre la sesin de zone1. # grep user1 /etc/passwd user1:x:1000:10::/export/home/user1:/bin/sh # exit [Connection to zone 'zone1' pts/5 closed] # 3.
15-53
Soluciones del ejercicio 4. Verifique si user1 figura en la lista del archivo /etc/passwd de la zona global. # grep user1 /etc/passwd # Nota El usuario llamado user1 slo existe en zone1.
15-54
2.
Utilice pkginfo para ver el nombre de los paquetes contenidos en los archivos de paquetes.
# pkginfo -d top-3.5.1-sol10-zones-intel-local application SMCtop top # pkginfo -d sudo-1.6.8p9-sol10-zones-intel-local application SMCsudo sudo # Utilice el comando pkgparam para ver el valor configurado en el parmetro SUNW_PKG_ALLZONES para los paquetes SMCsudo y SMCtop. Si el parmetro SUNW_PKG_ALLZONES no est configurado, el resultado es el mismo que si tuviese definido el valor false. # pkgparam -d sudo-1.6.8p9-sol10-zones-intel-local SMCsudo SUNW_PKG_ALLZONES
false # pkgparam -d false #
3.
Nota Cuando est configurado con el valor false, el parmetro SUNW_PKG_ALLZONES indica que el paquete puede instalarse: 1) slo en la zona global, 2) en la zona global y en todas las zonas no globales, o 3) desde cualquier zona no global en la misma zona no global.
15-55
Soluciones del ejercicio 4. Instale el paquete SMCtop slo en la zona global. Todos los archivos de este paquete se instalan bajo el directorio /opt/local.
# pkgadd -d top-3.5.1-sol10-zones-intel-local -G
The following packages are available: 1 SMCtop top (intel) 3.5.1 Select package(s) you wish to process (or 'all' to process all packages). (default: all) [?,??,q]: 1 Processing package instance <SMCtop> from </opt/ses/lab/x86/zones/top3.5.1-sol10-zones-intel-local> top(intel) 3.5.1 William LeFebvre et al The selected base directory </opt/local> must exist before installation is attempted. Do you want this directory created now [y,n,?,q] y Using </opt/local> as the package base directory. ## Processing package information. ## Processing system information. ## Verifying disk space requirements. ## Checking for conflicts with packages already installed. ## Checking for setuid/setgid programs. Installing top as <SMCtop> ## Installing part 1 of 1. /opt/local/bin/top /opt/local/doc/top/Changes /opt/local/doc/top/FAQ /opt/local/doc/top/INSTALL /opt/local/doc/top/README /opt/local/doc/top/SYNOPSIS /opt/local/doc/top/Y2K /opt/local/doc/top/metatop /opt/local/man/man1/top.1 [ verifying class <none> ] Installation of <SMCtop> was successful. #
15-56
Soluciones del ejercicio 5. Abra la sesin en zone1 y asegrese de que el paquete SMCtop no se haya instalado en esa zona. Salga de zone1 cuando haya terminado.
# zlogin zone1 [Connected to zone 'zone1' pts/5] Last login: Mon Apr 30 14:18:44 on pts/5 Sun Microsystems Inc. SunOS 5.10 Generic January 2005 # pkginfo SMCtop ERROR: information for "SMCtop" was not found # exit [Connection to zone 'zone1' pts/5 closed] # 6. Desde la zona global, instale el paquete SMCsudo en la zona global y en la zona no global.
# pkgadd -d sudo-1.6.8p9-sol10-zones-intel-local
The following packages are available: 1 SMCsudo sudo (intel) 1.6.8p9 Select package(s) you wish to process (or 'all' to process all packages). (default: all) [?,??,q]: 1 ## Verifying package <SMCsudo> dependencies in zone <zone1> Files that are setuid and/or setgid will be installed and/or modified for package <SMCsudo> on zone <zone1>. Do you want to continue with the installation of <SMCsudo> [y,n,?] y Processing package instance <SMCsudo> from </opt/ses/lab/x86/zones/sudo1.6.8p9-sol10-zones-intel-local> ## Installing package <SMCsudo> in global zone sudo(intel) 1.6.8p9 Todd Miller Using </opt/local> as the package base directory. ## Processing package information. ## Processing system information. 3 package pathnames are already properly installed. ## Verifying disk space requirements. ## Checking for conflicts with packages already installed. ## Checking for setuid/setgid programs.
15-57
Soluciones del ejercicio The following files are being installed with setuid and/or setgid permissions: /opt/local/bin/sudoedit <setuid root> Do you want to install these as setuid/setgid files [y,n,?,q] y Installing sudo as <SMCsudo> ## Installing part 1 of 1. (parte de la salida omitida) Installation of <SMCsudo> was successful. ## Installing package <SMCsudo> in zone <zone1> sudo(intel) 1.6.8p9 The selected base directory </opt/local> must exist before installation is attempted. Do you want this directory created now [y,n,?,q] y Using </opt/local> as the package base directory. ## Processing package information. ## Processing system information. Installing sudo as <SMCsudo> ## Installing part 1 of 1. (parte de la salida omitida) /opt/local/bin/sudo <linked pathname> /opt/local/man/man1m/sudo.1m <linked pathname> Installation of <SMCsudo> on zone <zone1> was successful. # 7. Acceda a zone1 y compruebe si se ha instalado el paquete SMCsudo. Salga de zone1 cuando haya terminado.
# zlogin zone1 [Connected to zone 'zone1' pts/5] Last login: Mon Apr 30 14:38:07 on pts/5 Sun Microsystems Inc. SunOS 5.10 Generic January 2005 # pkginfo SMCsudo application SMCsudo sudo # exit [Connection to zone 'zone1' pts/5 closed] #
15-58
# zoneadm list -cp 0:global:running:/ 1:zone1:running:/export/zone1 2. Utilice zoneadm para detener cualquier zona no global que se est ejecutando.
# zoneadm -z zone1 halt # zoneadm list -cp 0:global:running:/ -:zone1:installed:/export/zone1 3. Utilice zoneadm para desinstalar zone1 y zone2.
# zoneadm -z zone1 uninstall Are you sure you want to uninstall zone zone1 (y/[n])? y # zoneadm list -cp 0:global:running:/ -:zone1:configured:/export/zone1
4.
# zonecfg -z zone1 delete Are you sure you want to delete zone zone1 (y/[n])? y # zoneadm list -cp 0:global:running:/ 5. Desmonte el sistema de archivos /export/zone1 y suprima la entrada de /export/zone1 del archivo /etc/vfstab.
15-59
Mdulo 16
Describir el sistema de archivos ZFS de Solaris. Crear sistemas de archivos y grupos nuevos en ZFS. Modificar propiedades de los sistemas de archivos ZFS. Montar y desmontar sistemas de archivos ZFS. Destruir sistemas de archivos y grupos de ZFS. Trabajar con instantneas y clones de ZFS. Utilizar conjuntos de datos de ZFS con Zonas de Solaris.
16-1
Copyright 2007 Sun Microsystems, Inc. Todos los derechos reservados. Sun Services, Revisin C
Qu es ZFS
Qu es ZFS
ZFS de Solaris es un sistema de archivos revolucionario que cambia de forma radical la forma de administrar los sistemas de archivos gracias a funciones y ventajas que no se encuentra en ningn otro modelo disponible en la actualidad. El sistema ZFS est diseado para ser slido, ampliable y fcil de administrar.
16-2
Qu es ZFS
Semntica transaccional
ZFS es un sistema de archivos transaccional, lo que significa que su estado mantiene la integridad y coherencia dentro del disco. Con un sistema de archivos transaccional, los datos se administran utilizando la semntica de copia tras escritura. Los datos nunca se sobrescriben y cualquier secuencia de operaciones se confirma por completo o se descarta por completo. Este mecanismo implica que el sistema de archivos nunca se deteriorar por el corte accidental del suministro elctrico o por una cada del sistema. Por tanto, no existe necesidad de ningn comando similar a fsck. Aunque se pierdan los ltimos fragmentos de datos escritos, el sistema de archivos en s siempre se mantendr coherente.
16-3
Qu es ZFS
Instantneas de ZFS
Una instantnea (snapshot) es una copia de slo lectura de un sistema de archivos o un volumen. Las instantneas pueden crearse con rapidez y facilidad. En principio, no consumen espacio adicional dentro del grupo de almacenamiento.
Administracin ms sencilla
ZFS proporciona, sobre todo, un modelo de administracin mucho ms simplificado. Gracias al uso de un esquema de sistemas de archivos jerrquico, la herencia de propiedades, la autoadministracin de los puntos de montaje y la semntica compartida con NFS, ZFS facilita la creacin y administracin de los sistemas de archivos sin necesidad de usar mltiples comandos ni editar los archivos de configuracin. Con un solo comando puede establecer cuotas o reservas, activar o desactivar la compresin o administrar puntos de montaje de numerosos sistemas de archivos. Es posible examinar o reparar los dispositivos sin tener que aprender a utilizar un conjunto de comandos de administracin de volmenes aparte. Asimismo, es posible realizar un nmero ilimitado de instantneas de los sistemas de archivos. Por ltimo, se puede realizar la copia de seguridad y restauracin de cada sistema de archivos por separado.
16-4
Terminologa de ZFS
Terminologa de ZFS
En esta seccin se definen los trminos fundamentales que se utilizarn a lo largo de este mdulo. Tabla 16-1 Terminologa de ZFS Trmino suma de comprobacin Definicin Codificacin (hash) de 256 bits de los datos del bloque de un sistema de archivos. La funcin de suma de comprobacin puede variar desde el sencillo y rpido algoritmo fletcher2 (predeterminado) a algoritmos criptogrficamente complejos como SHA256. Sistema de archivos cuyo contenido inicial es idntico al de una instantnea. Nombre genrico con el se designan los siguientes elementos de ZFS: clones, sistemas de archivos, instantneas o volmenes. Conjunto de datos que contiene un sistema de archivos POSIX estndar. Dispositivo virtual que almacena copias idnticas de los datos en dos o ms discos. Si falla alguno de los discos de un duplicado, cualquier otro disco de ese duplicado (mirror) puede suministrar los mismos datos. Agrupacin lgica de dispositivos que describe la organizacin y las caractersticas fsicas del almacenamiento disponible. El espacio para los conjuntos de datos se asigna desde el grupo. Dispositivo virtual que almacena los datos y su paridad en varios discos. Es similar a RAID-5. Proceso de transferir los datos de un dispositivo a otro. Por ejemplo, si un componente de un duplicado se sustituye o se desconecta, los datos del componente actualizado del duplicado se copian en el componente recin restaurado. Imagen de slo lectura de un sistema de archivos o un volumen en un momento dado.
grupo de almacenamiento
instantnea
16-5
Terminologa de ZFS Tabla 16-1 Terminologa de ZFS (Continuacin) Trmino dispositivo virtual volumen Definicin Dispositivo lgico de un grupo, que puede ser un dispositivo fsico, un archivo o un conjunto de dispositivos. Conjunto de datos utilizado para emular un dispositivo fsico. Por ejemplo, puede crear un volumen como dispositivo de intercambio.
16-6
No se permiten componentes vacos. Cada componente puede contener nicamente caracteres alfanumricos, adems de los cuatro caracteres especiales indicados a continuacin:
Signo de subrayado (_) Guin (-) Dos puntos (:) Punto (.)
Los nombres de los grupos de almacenamiento deben empezar por una letra, pero no se admite la secuencia de inicio c[0-9]. Tampoco se admiten nombres de grupos que empiecen por mirror, raidz o spare, ya que estos nombres estn reservados. Los nombres de conjuntos de datos deben empezar por un carcter alfanumrico.
Sistema SPARC o x86 donde se ejecute Solaris 10 6/06 o una versin posterior. Disco con un espacio mnimo de 128 Mbytes. La cantidad mnima de espacio necesario en el disco para un grupo de almacenamiento es aproximadamente de 64 Mbytes. En la actualidad, la cantidad de memoria mnima recomendada para instalar un sistema Solaris es de 512 Mbtytes. No obstante, para obtener un buen rendimiento con ZFS, se recomienda usar al menos un Gbyte de memoria o ms. Si ha creado una configuracin con duplicacin de discos, se recomienda usar varios controladores.
16-7
used 100M
Seguramente querr crear ms sistemas de archivos dentro del grupo. Los sistemas de archivos proporcionan puntos de administracin que permiten gestionar conjuntos de datos diferentes dentro del mismo grupo. En el ejemplo siguiente se indica cmo crear un sistema de archivos llamado fs en el grupo tank. En el ejemplo se da por supuesto que la totalidad del disco /dev/dsk/c1t0d0 est disponible para su utilizacin. # zpool create tank c1t0d0 # zfs create tank/fs El nuevo sistema de archivos ZFS, tank/fs, puede utilizar tanta cantidad de espacio del disco en c1t0d0 como sea necesario y se monta automticamente en /tank/fs.
# mkfile 100m /tank/fs/foo # df -h /tank/fs Filesystem size tank/fs 80G
used 100M
Mounted on /tank/fs
En la mayora de los casos, lo ms probable es que quiera crear y organizar una jerarqua de sistemas de archivos que responda a las necesidades de su organizacin.
16-8
El dispositivo no tiene un nombre estndar. ZFS y otro sistema de archivos como, por ejemplo, UFS comparten un mismo disco. Un disco se utiliza como dispositivos de intercambio o volcado de datos.
16-9
Componentes de un grupo de almacenamiento de ZFS Los discos pueden especificarse mediante la ruta de acceso completa, por ejemplo /dev/dsk/c1t0d0, o un nombre abreviado formado por el nombre del dispositivo incluido en el directorio /dev/dsk, por ejemplo c1t0d0. Estos son algunos ejemplos de nombres de disco vlidos:
Utilizar discos fsicos completos es la forma ms sencilla de crear grupos de almacenamiento de ZFS. Desde la perspectiva de la administracin, el rendimiento y la fiabilidad, las configuraciones de ZFS se vuelven progresivamente ms complejas cuando se crean grupos a partir de slices de disco, unidades LUN en matrices de discos RAID o volmenes presentados por el software de administracin de volmenes. Las siguientes consideraciones pueden ayudarle a determinar el modo de configurar ZFS con otras soluciones de almacenamiento de hardware o software:
Si crea configuraciones de ZFS sobre unidades LUN a partir de matrices de discos RAID, necesitar comprender la relacin entre las funciones de redundancia de ZFS y las funciones de redundancia de la matriz. Determinadas configuraciones podran ofrecer la redundancia y el rendimiento adecuados, pero otras no. Es posible crear dispositivos lgicos para ZFS utilizando volmenes presentados por paquetes de administracin de volmenes como SolarisTM Volume Manager (SVM) o Veritas Volume Manager (VxVM). No obstante, estas configuraciones no son recomendables. Aunque ZFS funciona correctamente con esos dispositivos, el rendimiento podra ser muy inferior al rendimiento ptimo.
16-10
16-11
16-12
Funciones de rplica de los grupos de almacenamiento de ZFS Una configuracin RAID-Z con N discos de tamao X y paridad P es capaz de almacenar aproximadamente (N-P)*X bytes y puede asumir el fallo de un dispositivo antes de que se vea comprometida la integridad de los datos. Es necesario utilizar al menos dos discos para una configuracin RAID-Z de paridad sencilla y al menos tres discos para una configuracin de doble paridad. Por ejemplo, si dispone de tres discos en configuracin RAID-Z de paridad sencilla, los datos de paridad ocupan el espacio equivalente a uno de los tres discos. Por lo dems, no se necesita ningn hardware especial para crear una configuracin RAID-Z. En concepto, una configuracin RAID-Z con tres discos sera similar a la siguiente: raidz c1t0d0 c2t0d0 c3t0d0 Un concepto de configuracin RAID-Z ms complejo sera similar al siguiente: raidz c1t0d0 c2t0d0 c3t0d0 c4t0d0 c5t0d0 c6t0d0 c7t0d0 raidz c8t0d0 c9t0d0 c10t0d0 c11t0d0 c12t0d0 c13t0d0 c14t0d0 Si va a crear una configuracin RAID-Z de mltiples discos de forma similar a la del ejemplo, es mejor que, si tiene 14 discos, se dividan en dos grupos de 7 discos. Las configuraciones RAID-Z con grupos de no ms de 9 discos deberan ofrecer mejor rendimiento. Cada argumento de raidz define un dispositivo virtual de nivel superior distinto. En el primer ejemplo se define un dispositivo RAID-Z que consta de tres discos. En el segundo ejemplo, se definen dos dispositivos RAID-Z, cada uno con siete discos.
16-13
Cuatro discos que utilizan segmentacin en bandas dinmicas Una configuracin RAID-Z de cuatro vas Dos duplicados de dos vas que utilizan segmentacin en bandas dinmicas
Aunque ZFS permite combinar diferentes tipos de dispositivos virtuales dentro del mismo grupo, no es una prctica recomendable. Por ejemplo, puede crear un grupo con un duplicado de dos vas y una configuracin RAID-Z de tres vas. Sin embargo, la tolerancia a fallos es tan buena como lo sea el peor de los dispositivos virtuales, en este caso RAID-Z. La prctica recomendada es usar dispositivos virtuales de nivel superior del mismo tipo y con el mismo nivel de rplica en cada dispositivo.
16-14
16-15
16-16
16-17
Creacin y destruccin de grupos de almacenamiento de ZFS Puede sortear estos errores con la opcin -f, aunque no es una prctica recomendable. El comando tambin advierte sobre la creacin de un grupo duplicado o RAID-Z que utiliza dispositivos de distinto tamao. Aunque esta configuracin est permitida, el uso de niveles de rplica diferentes da como resultado la existencia de espacio no utilizado en el dispositivo de mayor tamao y obliga a utilizar la opcin para hacer desaparecer la advertencia.
16-18
Esta salida muestra la informacin siguiente: NAME SIZE USED AVAILABLE CAPACITY (CAP) HEALTH ALTROOT Nombre del grupo. Tamao total del grupo, que equivale a la suma del tamao de todos los dispositivos virtuales de nivel superior. Cantidad de espacio utilizada por todos los conjuntos de datos y los metadatos internos. Cantidad de espacio no utilizado en el grupo. Cantidad de espacio utilizado, expresado como un porcentaje del espacio total. Estado en el que se encuentra el grupo. Raz alternativa del grupo, si existe.
16-19
Consulta del estado de los grupos de almacenamiento de ZFS Tambin es posible obtener las estadsticas de un determinado grupo especificando su nombre. Por ejemplo: # zpool list tank NAME tank SIZE 80.0G USED 22.3G AVAIL 47.7G CAP 28% HEALTH ONLINE ALTROOT -
16-20
DEGRADED
FAULTED
OFFLINE UNAVAILABLE
El estado de un grupo de almacenamiento viene determinado por el estado de todos sus dispositivos virtuales de nivel superior. Si todos los dispositivos virtuales estn ONLINE, el grupo tambin se encontrar en estado ONLINE. Si alguno de los dispositivos virtuales est en modo DEGRADED o UNAVAILABLE, el grupo tambin estar en modo DEGRADED. Si un dispositivo virtual de nivel superior presenta el estado FAULTED u OFFLINE, el grupo tambin aparece como FAULTED. Un grupo en estado FAULTED (fallo) est completamente inaccesible.
16-21
Estado detallado
Es posible solicitar un resumen ms detallado del estado de los grupos utilizando la opcin -v. Por ejemplo: # zpool pool: state: status: exist status -v tank tank DEGRADED One or more devices could not be opened. Sufficient replicas
for the pool to continue functioning in a degraded state. action: Attach the missing device and online it using zpool online. see: http://www.sun.com/msg/ZFS-8000-2Q scrub: none requested config: NAME STATE tank DEGRADED mirror DEGRADED c1t0d0 FAULTED c1t1d0 ONLINE errors: No known data errors READ WRITE CKSUM 0 0 0 0 0 0 0 0 0 0 0 0
cannot open
Esta salida ofrece una explicacin completa de por qu el grupo se encuentra en su estado actual, lo que incluye una descripcin completa del problema y un vnculo a un artculo de la base de datos de conocimiento para mayor informacin. Cada artculo de la base de datos proporciona informacin actualizada sobre la mejor forma de recuperarse del problema detectado. Utilizando la informacin de configuracin detallada, debera ser capaz de determinar qu dispositivo est daado y cmo puede reparar el grupo.
16-22
16-23
Creacin y destruccin de sistemas de archivos ZFS ZFS monta automticamente el sistema recin creado, si se ha creado correctamente. Los sistemas de archivos se crean de forma predeterminada como /conjunto de datos utilizando la ruta de acceso suministrada para especificar su nombre en el subcomando create. En este ejemplo, el sistema bonwick recin creado est situado en /tank/home/bonwick.
16-24
Creacin y destruccin de sistemas de archivos ZFS Si hay algn archivo que dependa indirectamente del sistema de archivos que se va a destruir, incluso la destruccin recursiva descrita anteriormente falla. Para forzar la destruccin de todos los archivos dependientes, incluso los sistemas de archivos clonados fuera de la jerarqua de destino, debe utilizarse la opcin -R. Use esta opcin con sumo cuidado. # zfs destroy -r tank/home/schrock cannot destroy tank/home/schrock: filesystem has dependent clones use -R to destroy the following datasets: tank/clones/schrock-clone # zfs destroy -R tank/home/schrock
Cambiar el nombre de un sistema de archivos. Trasladar el sistema de archivos a una nueva ubicacin dentro de la jerarqua de ZFS. Cambiar el nombre de un sistema de archivos y trasladarlo en la jerarqua ZFS.
En el ejemplo siguiente se utiliza el subcomando rename para realizar un simple cambio de nombre de un sistema de archivos: # zfs rename tank/home/kustarz tank/home/kustarz_old En este ejemplo, el nombre del sistema de archivos kustarz se sustituye por kustarz_old. En el prximo ejemplo se muestra cmo usar zfs rename para trasladar un sistema de archivos. # zfs rename tank/home/maybee tank/ws/maybee En este ejemplo, el sistema de archivos maybee se traslada de tank/home a tank/ws. Cuando se reubica un sistema de archivos con rename, la nueva ubicacin debe situarse dentro del mismo grupo de almacenamiento y debe tener suficiente espacio para alojar el nuevo sistema. Si la nueva ubicacin no tiene espacio suficiente, seguramente porque ha alcanzado su cuota, el intento de cambio de nombre fracasar.
16-25
Creacin y destruccin de sistemas de archivos ZFS La operacin trata de realizar una secuencia de desmontaje/nuevo montaje del sistema de archivos y sus sistemas de archivos subordinados. El cambio de nombre falla si el proceso no es capaz de desmontar un sistema de archivos activo. Si se produce este problema, deber forzar el desmontaje del sistema de archivos.
16-26
Propiedades de ZFS
Propiedades de ZFS
Las propiedades son el mecanismo principal para controlar el comportamiento de los sistemas de archivos, volmenes, instantneas y clones. A menos que se indique lo contrario, las propiedades definidas en la seccin se aplican a todos los tipos de conjuntos de datos. Las propiedades pueden ser estadsticas de slo lectura o valores configurables. Las mayora de las propiedades configurables tambin son hereditarias. Una propiedad hereditaria es aquella que, si se define en un elemento de nivel superior, se propaga a lo largo de todos sus elementos subordinados o descendientes. Todas las propiedades hereditarias tienen un origen asociado. El origen indica cmo se ha obtenido la propiedad. Puede tener los valores siguientes: default El valor default indica que la configuracin de la propiedad no se ha heredado ni establecido localmente. Este origen se deriva de la ausencia de un ascendiente cuyo origen de propiedad sea local. Un origen local indica que la propiedad se ha configurado explcitamente en el conjunto de datos utilizando el comando zfs set. El valor inherited from nombre-conjuntodatos significa que la propiedad se ha heredado del ascendiente designado. El valor temporary indica que la propiedad se ha configurado utilizando la opcin zfs mount -o y su valor slo es vlido durante el tiempo que el conjunto de datos est montado. Indica que es una propiedad de slo lectura. Su valor lo genera ZFS.
local
- (none)
16-27
Propiedades de ZFS En la Tabla 16-2 se identifican las propiedades configurables y de slo lectura del sistema de archivos ZFS. Las propiedades de slo lectura se identifican como tales. Las dems son configurables. Tabla 16-2 Descripcin de las propiedades de ZFS Nombre de la propiedad aclinherit Tipo Cadena Valor predeterminado
secure
Descripcin Controla la forma en que se heredan las entradas de ACL cuando se crean los archivos y directorios. Controla la forma en que se modifica una entrada de ACL durante una operacin de chmod. Controla si el tiempo de acceso de los archivos se actualiza cuando se leen. Propiedad de slo lectura que indica la cantidad de espacio disponible para el conjunto de datos y todos sus datos subordinados, suponiendo que no haya ninguna otra actividad en el grupo de almacenamiento. Controla la suma de comprobacin utilizada para verificar la integridad de los datos. Controla el algoritmo de compresin utilizado para este conjunto de datos. Propiedad de slo lectura que indica el ratio de compresin alcanzado para este conjunto de datos.
aclmode
Cadena
groupmask
atime
Booleano
on
available
Nmero
N/A
checksum
Cadena
on
compression
Cadena
off
compressratio
Nmero
N/A
16-28
Propiedades de ZFS Tabla 16-2 Descripcin de las propiedades de ZFS (Continuacin) Nombre de la propiedad creation Tipo Nmero Valor predeterminado N/A Descripcin Propiedad de slo lectura que indica la fecha y hora de creacin del conjunto de datos. Controla si los nodos de dispositivo contenidos en este sistema de archivos pueden abrirse. Controla si est permitida la ejecucin de los programas contenidos en este sistema de archivos. Asimismo, cuando se configura como off, mmap(2) no se permiten las llamadas con PROT_EXEC. Propiedad de slo lectura que indica si el sistema de archivos, el clon o la instantnea estn montados. Esta propiedad no es aplicable a los volmenes. Su valor puede ser yes o no.
devices
Booleano
on
exec
Booleano
on
mounted
Booleano
on
16-29
Propiedades de ZFS Tabla 16-2 Descripcin de las propiedades de ZFS (Continuacin) Nombre de la propiedad mountpoint Tipo Cadena Valor predeterminado N/A Descripcin Controla el punto de montaje utilizado para este sistema de archivos. Cuando se cambia la propiedad mountpoint de un sistema de archivos, ste y cualquier sistema subordinado que herede el punto de montaje se desmontan. Si el nuevo valor es legacy, entonces permanecen desmontados. De lo contrario, se vuelven a montar automticamente en la nueva ubicacin si la propiedad anteriormente era legacy o none, o si se haban montado antes de que se modificase la propiedad. Asimismo, se inhabilita el modo compartido de los sistemas de archivos y vuelve a habilitarse en la nueva ubicacin. Propiedad de slo lectura de los sistemas de archivos o volmenes clonados que indica la instantnea a partir de la cual se ha creado el clon. El origen no podr destruirse (ni siquiera con las opciones -r o -f) mientras exista el clon. Los sistemas de archivos no clonados tienen el valor none como origen.
origin
Cadena
N/A
16-30
Propiedades de ZFS Tabla 16-2 Descripcin de las propiedades de ZFS (Continuacin) Nombre de la propiedad quota Tipo Nmero (o none) Valor predeterminado none Descripcin Limita la cantidad de espacio que pueden consumir un conjunto de datos y sus descendientes. Esta propiedad impone un lmite fsico de cantidad de espacio utilizable, incluido todo el espacio consumido por los descendientes, tanto sistemas de archivos como instantneas. Establecer una cuota para un descendiente de un conjunto de datos que ya tiene una cuota asignada no invalida la cuota del ascendiente, sino que impone un lmite adicional. No pueden establecerse cuotas para volmenes, ya que la propiedad volsize acta como cuota implcita. Controla si puede modificarse el conjunto de datos. Si se configura con on, no se le pueden introducir modificaciones. Es posible hacer referencia a esta propiedad tambin por su nombre de columna abreviado, rdonly. Sugiere un tamao de bloque para los archivos del sistema de archivos. Tambin es posible hacer referencia a esta propiedad por su nombre de columna abreviado, recsize.
readonly
Booleano
off
recordsize
Nmero
128K
16-31
Propiedades de ZFS Tabla 16-2 Descripcin de las propiedades de ZFS (Continuacin) Nombre de la propiedad referenced Tipo Nmero Valor predeterminado N/A Descripcin Propiedad de slo lectura que indica la cantidad de datos a la que puede acceder este conjunto de datos, una cantidad que podra compartirse o no con otros conjuntos de datos del grupo. Cuando se crea una instantnea o un clon, en principio hace referencia a la misma cantidad de espacio que el sistema de archivos o la instantnea de la que se ha creado porque su contenido es idntico. Tambin es posible hacer referencia a esta propiedad por su nombre de columna abreviado, refer. Cantidad mnima de espacio garantizado para un conjunto de datos y sus descendientes. Cuando el espacio utilizado se sita por debajo de este valor, el conjunto de datos se trata como si estuviese usando la cantidad especificada por su reserva. Las reservas se contabilizan en el espacio usado por los conjuntos de datos de nivel superior y van en detrimento de las cuotas y las reservas de espacio de dichos conjuntos de datos. Tambin es posible hacer referencia a esta propiedad por su nombre de columna abreviado, reserv.
reservation
Nmero (o none)
none
16-32
Propiedades de ZFS Tabla 16-2 Descripcin de las propiedades de ZFS (Continuacin) Nombre de la propiedad sharenfs Tipo Cadena Valor predeterminado off Descripcin Controla si el sistema de archivos est disponible a travs de NFS y qu opciones se utilizan. Si se configura como on, se ejecuta el comando zfs share sin opciones. De lo contrario, zfs share se ejecuta con las opciones equivalentes al contenido de esta propiedad. Si se configura como off, el sistema de archivos se administra utilizando los comandos share y unshare tradicionales y el archivo dfstab. Controla si el bit setuid tiene efecto en el sistema de archivos. Controla si el directorio .zfs est oculto o visible en el directorio raz del sistema de archivos. Propiedad de slo lectura que identifica el tipo de conjunto de datos como sistema de archivos (sistema de archivos o clon), volumen o instantnea. Propiedad de slo lectura que indica la cantidad de espacio consumido por el conjunto de datos y todos sus descendientes.
setuid
Booleano
on
snapdir
Cadena
hidden
type
Cadena
N/A
used
Nmero
N/A
16-33
Propiedades de ZFS Tabla 16-2 Descripcin de las propiedades de ZFS (Continuacin) Nombre de la propiedad volsize Tipo Nmero Valor predeterminado N/A Descripcin Se aplica a los volmenes y especifica el tamao lgico del volumen. Se aplica a los volmenes y especifica el tamao del bloque correspondiente al volumen. El tamao del bloque no puede cambiarse una vez que se ha escrito el volumen, por lo que conviene especificar dicho tamao en el momento de crearlo. El tamao de bloque predeterminado para los volmenes es de 8 Kbytes. Cualquier potencia de 2 que se site entre 512 bytes y 128 Kbytes es un valor vlido. Tambin es posible hacer referencia a esta propiedad por su nombre de columna abreviado, volblock. Indica si el conjunto de datos se ha agregado a una zona no global. Si esta propiedad est activada, entonces el punto de montaje no se acepta en la zona global y ZFS no puede montar ese sistema de archivo cuando se solicita. Cuando se instala la primera zona, esta propiedad se activa para cualquier sistema de archivos.
volblocksize
Nmero
8 Kbytes
zoned
Booleano
N/A
16-34
Propiedades de ZFS
16-35
Propiedades de ZFS
compression devices exec mountpoint quota readonly recordsize reservation sharenfs setuid snapdir volsize volblocksize zoned
16-36
Con este comando tambin pueden verse conjuntos de datos concretos especificando el nombre del conjunto de datos en la lnea de comandos. Asimismo, la opcin -r permite ver todos los descendientes de ese conjunto de datos de forma recursiva. En el ejemplo siguiente se indica cmo ver la informacin de tank/home/chua y todos sus conjuntos de datos descendientes.
# zfs list -r tank/home/chua tank/home/chua 26.0K tank/home/chua/projects 16K tank/home/chua/projects/fs1 8K tank/home/chua/projects/fs2 8K 4.81G 4.81G 4.81G 4.81G 10.0K 9.0K 8K 8K /tank/home/chua /tank/home/chua/projects /tank/home/chua/projects/fs1 /tank/home/chua/projects/fs2
16-37
Puede utilizar la opcin -t para especificar los tipos de conjuntos de datos que deben aparecer en la lista. Los tipos vlidos se describen en la tabla siguiente. Tabla 16-3 Tipos de conjuntos de datos de ZFS Tipo filesystem volume snapshot Descripcin Sistemas de archivos y clones Volmenes Instantneas
La opcin -t va acompaada de una lista de los tipos de conjuntos de datos separados por comas que debe presentar el comando. En el ejemplo siguiente se utilizan las opciones -t y -o de forma simultnea para mostrar el nombre (name) y la propiedad used de todos lo sistemas de archivos:
16-38
Consulta de la informacin de los sistemas de archivos ZFS # zfs list -t filesystem -o name,used NAME USED pool 105K pool/container 0 pool/home 26.0K pool/home/tabriz 26.0K pool/home/tabriz_clone 0 Puede utilizar la opcin -H para omitir la cabecera de zfs list en la salida generada. Con esta opcin, todos los espacios en blanco se presentan como tabuladores. Esto resulta til cuando se necesita una salida que deba ser analizada por otros procesos, por ejemplo, en una secuencia de comandos.
16-39
Los valores de las propiedades no numricas difieren segn se escriban en maysculas o minsculas, a excepcin de mountpoint y sharenfs. Los valores de estas propiedades pueden combinar caracteres en maysculas y minsculas. Para obtener ms informacin sobre el comando zfs set, consulte zfs(1M).
16-40
El subcomando inherit se aplica de forma recursiva cuando se especifica la opcin -r. En el ejemplo siguiente, el comando hace que tank/home y todos sus descendientes hereden la propiedad compression. # zfs inherit -r compression tank/home Nota Tenga presente que el uso de la opcin -r borra el valor de la propiedad actual para todos los conjuntos de datos descendientes.
16-41
La cuarta columna, SOURCE, indica de dnde procede la configuracin de esta propiedad. Puede utilizar la palabra clave especial all para recuperar todas las propiedades de un conjunto de datos. En este ejemplo se utiliza all para recuperar todas las propiedades existentes en el conjunto de datos: # zfs get all pool NAME PROPERTY pool type pool creation pool used pool available pool referenced pool compressratio pool mounted pool quota pool reservation pool recordsize pool mountpoint pool sharenfs pool checksum pool compression pool atime pool devices pool exec pool setuid pool readonly pool zoned pool snapdir pool aclmode pool aclinherit VALUE filesystem Mon Mar 13 11:41 2006 2.62M 33.5G 10.5K 1.00x yes none none 128K /pool off on off on on on on off off hidden groupmask secure SOURCE default default default default default default default default default default default default default default default default
16-42
Administracin de las propiedades de ZFS La opcin -s de zfs get permite especificar el tipo de propiedades que deben aparecer en funcin de su origen. Esta opcin va acompaada de una lista de tipos de origen separados por coma. Slo se mostrarn las propiedades que tengan el tipo de origen especificado. Los tipos de origen vlidos son local, default, inherited, temporary y none. El ejemplo siguiente presenta todas las propiedades que se han configurado de forma local en el conjunto de datos pool. # zfs get -s local all pool NAME PROPERTY pool compression VALUE on SOURCE local
Cualquiera de las opciones anteriores puede combinarse con la opcin -r para obtener una lista recursiva de las propiedades especificadas en todos los descendientes del conjunto de datos especificado. En el ejemplo siguiente, se muestran de forma recursiva todas las propiedades temporales de todos los conjuntos de datos incluidos en tank: # zfs get -r -s temporary all tank NAME PROPERTY VALUE tank/home atime off tank/home/bonwick atime off tank/home/marks atime off SOURCE temporary temporary temporary
16-43
Comportamiento de los puntos de montaje automticos Comportamiento de los puntos de montaje tradicionales
16-44
Si se cambian los valores legacy o none, ZFS monta el sistema de archivos automticamente. Si ZFS est administrando el sistema de archivos pero ste no se encuentra montado y se cambia la propiedad mountpoint, el sistema de archivos permanece sin montar.
Tambin se puede configurar el punto de montaje predeterminado del conjunto de datos raz en el momento de crear el grupo de almacenamiento. Para ello, se utiliza el comando zpool create con la opcin -m. Cualquier conjunto de datos cuya propiedad mountpoint no sea legacy se administrar a travs de ZFS. En el ejemplo siguiente, se crea un conjunto de datos cuyo punto de montaje administra automticamente ZFS. # zfs create pool/filesystem # zfs get mountpoint pool/filesystem NAME PROPERTY VALUE pool/filesystem mountpoint /pool/filesystem # zfs get mounted pool/filesystem NAME PROPERTY VALUE pool/filesystem mounted yes
Tambin se puede configurar la propiedad mountpoint de forma explcita como se muestra en este ejemplo: # zfs set mountpoint=/mnt pool/filesystem # zfs get mountpoint pool/filesystem NAME PROPERTY VALUE pool/filesystem mountpoint /mnt # zfs get mounted pool/filesystem NAME PROPERTY VALUE pool/filesystem mounted yes
Cuando se cambia la propiedad mountpoint, el sistema de archivos se desmonta automticamente del punto de montaje antiguo y vuelve a montarse en el nuevo. Los directorios de los puntos de montaje se crearn segn sea necesario. Si ZFS no puede desmontar algn sistema de archivos porque se encuentre activo, se comunicar un error y ser preciso forzar el desmontaje de forma manual.
16-45
tank/home/eschrock -
/mnt
zfs
yes
Observe que las entradas device to fsck y fsck pass tienen el valor -. Se utiliza esta sintaxis porque el comando fsck no es aplicable a los sistemas de archivos ZFS.
16-46
Montaje de sistemas de archivos ZFS tank tank/home tank/home/bonwick tank/ws /tank /tank/home /tank/home/bonwick /tank/ws
Puede utilizar la opcin -a para montar todos los sistemas de archivos administrados por ZFS. Los sistemas tradicionales no se montarn. Por ejemplo: # zfs mount -a En principio, ZFS no permite el montaje sobre directorios que no estn vacos. Para forzar el montaje sobre este tipo de directorios, debe utilizar la opcin -O. Por ejemplo: # zfs mount tank/home/lalt cannot mount /export/home/lalt: directory is not empty use legacy mountpoint to allow this behavior, or use the -O flag # zfs mount -O tank/home/lalt Los puntos de montaje tradicionales deben administrarse con las herramientas tradicionales. Cualquier intento de usar las herramientas de ZFS provocar un error. Por ejemplo: # zfs mount pool/home/billm cannot mount pool/home/billm: legacy mountpoint use mount(1M) to mount this filesystem # mount -F zfs tank/home/billm
16-47
Montaje de sistemas de archivos ZFS En el ejemplo, se supone que el sistema de archivos est desmontado. Para cambiar de forma temporal una propiedad de un sistema de archivos que est montado, es preciso utilizar la opcin especial remount. En este ejemplo, el valor de la propiedad atime ha cambiado provisionalmente a off en un sistema de archivos que se encuentra montado en ese momento: # zfs mount -o remount,noatime tank/home/perrin # zfs get atime tank/home/perrin NAME PROPERTY VALUE tank/home/perrin atime off
SOURCE temporary
16-48
Crear grupos de almacenamiento nuevos. Agregar capacidad a un grupo existente. Trasladar (exportar) un grupo de almacenamiento a otro sistema. Importar un grupo de almacenamiento previamente exportado para ponerlo a disposicin de otro sistema. Ver informacin sobre los grupos de almacenamiento. Crear sistemas de archivos. Crear volmenes. Obtener una instantnea de un sistema de archivos o un volumen. Devolver un sistema de archivos al estado correspondiente a una instantnea anterior.
Puede acceder a la consola de administracin de ZFS a travs de un navegador seguro disponible en la siguiente direccin: https://system-name:6789/zfs Si escribe la URL correcta y no puede acceder a la citada consola, es posible que no se pueda iniciar el servidor. Para iniciarlo, ejecute este comando: # /usr/sbin/smcwebserver start Si quiere que el servidor se ejecute automticamente al arrancar el sistema, ejecute el siguiente comando: # /usr/sbin/smcwebserver enable Nota No se puede utilizar Solaris Management Console (smc) para administrar grupos de almacenamiento o sistemas de archivos de ZFS.
16-49
Instantneas de ZFS
Instantneas de ZFS
Una instantnea es una copia de slo lectura de un sistema de archivos o un volumen. Las instantneas pueden crearse casi de forma inmediata y, en principio, no consumen espacio adicional del disco en el grupo de almacenamiento. Sin embargo, cuando cambia el conjunto de datos activo, la instantnea s consume espacio porque contina haciendo referencia a los datos antiguos, lo que impide liberarlo. Las instantneas de ZFS tienen las caractersticas siguientes:
Las instantneas se mantienen despus de cada reinicio del sistema. Tericamente, el nmero mximo de instantneas es 264. Las instantneas no utilizan ningn espacio de almacenamiento auxiliar. El espacio que ocupan las instantneas procede directamente del grupo de almacenamiento al que pertenece el sistema de archivos del que se han captado.
No es posible acceder directamente a las instantneas de los volmenes, pero pueden clonarse, almacenarse en una copia de seguridad, revertirse, etc.
16-50
Instantneas de ZFS NAME tank/home@now tank/home/ahrens@now tank/home/anne@now tank/home/bob@now tank/home/cindys@now USED 0 0 0 0 0 AVAIL REFER 29.5K 2.15M 1.89M 1.89M 2.15M MOUNTPOINT -
Las instantneas no tienen propiedades modificables. Tampoco se pueden aplicar a las instantneas las propiedades de los conjuntos de datos. # zfs set compression=on tank/home/ahrens@tuesday cannot set compression property for tank/home/ahrens@tuesday: snapshot properties cannot be modified Las instantneas se destruyen con el comando zfs destroy. Por ejemplo: # zfs destroy tank/home/ahrens@friday No es posible destruir un conjunto de datos si tiene asociada alguna instantnea. Por ejemplo: # zfs destroy tank/home/ahrens cannot destroy tank/home/ahrens: filesystem has children use -r to destroy the following datasets: tank/home/ahrens@tuesday tank/home/ahrens@wednesday tank/home/ahrens@thursday Asimismo, si se han creado clones de una instantnea, es preciso destruirlos antes para poder destruir la instantnea.
16-51
Instantneas de ZFS
La lista de instantneas que se han creado para un determinado sistema de archivos puede verse de la forma siguiente: # zfs list -r -t snapshot -o name,creation tank/home NAME CREATION tank/home@now Wed Aug 30 10:53 2006 tank/home/ahrens@tuesday Wed Aug 30 10:53 2006 tank/home/ahrens@wednesday Wed Aug 30 10:54 2006 tank/home/ahrens@thursday Wed Aug 30 10:53 2006 tank/home/cindys@now Wed Aug 30 10:57 2006
16-52
Instantneas de ZFS
En el ejemplo anterior, las instantneas wednesday y thursday se suprimen porque se ha retrocedido hasta la instantnea tuesday. # zfs list -r -t snapshot -o name,creation tank/home/ NAME CREATION tank/home/ahrens@tuesday Wed Aug 30 10:53 2006
16-53
Clones de ZFS
Clones de ZFS
Un clon es un volumen o un sistema de archivos en el que es posible escribir datos y cuyo contenido original es idntico al del conjunto de datos del que procede. Como en el caso de las instantneas, la creacin de un clon es prcticamente inmediata e inicialmente no consume espacio adicional en el disco. Slo es posible crear clones a partir de una instantnea. Cuando se clona una instantnea, se crea una dependencia implcita entre sta y el clon. Aunque el clon se cree en otro punto de la jerarqua del conjunto de datos, la instantnea original no puede destruirse mientras exista el clon. La propiedad origin muestra esta dependencia y el comando zfs destroy presenta una lista con tales dependencias, si existen. Los clones no heredan las propiedades de los conjuntos de datos de los que proceden. Por el contrario, heredan sus propiedades en funcin del lugar donde se hayan creado dentro de la jerarqua del grupo de almacenamiento. Puede utilizar los comandos zfs get y zfs set para ver y cambiar las propiedades de los conjuntos de datos clonados. Dado que un clon inicialmente comparte su espacio del disco con la instantnea original, su propiedad used al principio es cero. A medida que va cambiando, el clon utiliza ms espacio. La propiedad used de la instantnea original no tiene en cuenta el espacio del disco consumido por el clon.
16-54
Clones de ZFS En ejemplo siguiente, se crea un nuevo clon llamado tank/home/ahrens/bug123 con el mismo contenido inicial que la instantnea tank/ws/gate@yesterday. # zfs snapshot tank/ws/gate@yesterday # zfs clone tank/ws/gate@yesterday tank/home/ahrens/bug123 En este otro ejemplo, se clona un espacio de trabajo a partir de la instantnea projects/newproject@today para un usuario temporal como projects/teamA/tempuser. A continuacin, se configuran las propiedades del espacio clonado. # # # # zfs zfs zfs zfs snapshot projects/newproject@today clone projects/newproject@today projects/teamA/tempuser set sharenfs=on projects/teamA/tempuser set quota=5G projects/teamA/tempuser
16-55
Clones de ZFS En el ejemplo siguiente, se clona el sistema de archivos tank/test/productA y, a continuacin, el clon tank/test/productAbeta se convierte en el sistema de archivos tank/test/productA. # zfs create tank/test # zfs create tank/test/productA # zfs snapshot tank/test/productA@today # zfs clone tank/test/productA@today tank/test/productAbeta # zfs list -r tank/test NAME USED AVAIL REFER MOUNTPOINT tank/test 314K 8.24G 25.5K /tank/test tank/test/productA 288K 8.24G 288K /tank/test/productA tank/test/productA@today 0 288K tank/test/productAbeta 0 8.24G 288K /tank/test/productAbeta # zfs promote tank/test/productAbeta # zfs list -r tank/test NAME USED AVAIL REFER MOUNTPOINT tank/test 316K 8.24G 27.5K /tank/test tank/test/productA 0 8.24G 288K /tank/test/productA tank/test/productAbeta 288K 8.24G 288K /tank/test/productAbeta tank/test/productAbeta@today 0 288K Finalice el proceso de sustitucin de clones cambiando el nombre a los sistemas de archivos. Por ejemplo: # zfs rename tank/test/productA tank/test/productAlegacy # zfs rename tank/test/productAbeta tank/test/productA # zfs list -r tank/test NAME USED AVAIL REFER MOUNTPOINT tank/test 316K 8.24G 27.5K /tank/test tank/test/productA 288K 8.24G 288K /tank/test/productA tank/test/productA@today 0 288K tank/test/productAlegacy 0 8.24G 288K /tank/test/productAlegacy Si lo desea, tambin puede suprimir el sistema de archivos antiguo (legacy). Por ejemplo: # zfs destroy tank/test/productAlegacy
16-56
Si se agrega sistemas de archivos ZFS a una zona no global, tiene que tener su propiedad mountpoint configurada como legacy. Un sistema de archivos ZFS no puede servir como sistema raz de una zona por motivos relacionados con el proceso de actualizacin de Solaris. No incluya ningn software relacionado con el sistema al que deba acceder el parche o el proceso de actualizacin en un sistema de archivos ZFS que se haya delegado a una zona no global.
16-57
Uso de ZFS en un sistema Solaris con zonas instaladas En el ejemplo siguiente, un administrador global agrega un sistema de archivos ZFS a una zona no global en la zona global. # zonecfg -z zion zion: No such zone configured Use create to begin configuring a new zone. zonecfg:zion> create zonecfg:zion> add fs zonecfg:zion:fs> set type=zfs zonecfg:zion:fs> set special=tank/zone/zion zonecfg:zion:fs> set dir=/export/shared zonecfg:zion:fs> end Esta sintaxis agrega el sistema de archivos ZFS, tank/zone/zion, a la zona zion, que est montada en /export/shared. La propiedad mountpoint del sistema de archivos debe estar configurada como legacy y el sistema de archivos ya no puede montarse en ninguna otra ubicacin. El administrador de la zona puede crear y destruir archivos dentro de ese sistema de archivos. El sistema de archivos no puede volver a montarse en otra ubicacin ni el administrador de la zona puede cambiar propiedades del mismo tales como atime, readonly, compression y otras. El administrador de la zona global es responsable de configurar y controlar las propiedades del sistema de archivos.
16-58
Uso de ZFS en un sistema Solaris con zonas instaladas Al contrario de lo que ocurre al agregar un sistema de archivos, esta sintaxis hace que el sistema de archivos ZFS tank/zone/zion est visible dentro de la zona zion. El administrador de la zona puede configurar propiedades del sistema de archivos y crear sistemas de archivos descendientes. Asimismo, puede crear instantneas y clones, as como controlar la jerarqua de sistemas de archivos completa.
16-59
Uso de ZFS en un sistema Solaris con zonas instaladas Si se agrega tank/data/zion a una zona, cada conjunto de datos tendra las propiedades siguientes. Tabla 16-4 Ejemplo de propiedades de los conjuntos de datos Conjunto de datos tank tank/home tank/data tank/data/matrix tank/data/zion tank/data/zion/home Visible S No S No S S Admite escritura No No S S Propiedades inmutables sharenfs, zoned, quota, reservation sharenfs, zoned
Observe que cada ascendiente de tank/zone/zion es visible y de slo lectura, todos los descendientes admiten escritura y los conjuntos de datos que no forman parte de la jerarqua superior no son visibles en absoluto. El administrador de la zona no puede cambiar la propiedad sharenfs porque las zonas no globales no pueden actuar como servidores NFS. Tampoco puede cambiar la propiedad zoned, porque hacerlo podra poner en peligro la seguridad, tal y como se describe en la siguiente seccin. Las dems propiedades s pueden cambiarse, excepto el propio conjunto de datos agregado, donde las propiedades quota y reservation no pueden cambiarse. Este comportamiento permite al administrador de la zona controlar el consumo de espacio de todos los conjuntos de datos utilizados por la zona no global. Por ltimo, el administrador de la zona global no puede cambiar las propiedades sharenfs y mountpoint una vez que el conjunto de datos se ha agregado a una zona no global.
16-60
16-61
Uso de ZFS en un sistema Solaris con zonas instaladas Cuando un conjunto de datos se suprime de una zona o se destruye una zona, la propiedad zoned no se borra de forma automtica. Este comportamiento se debe a los riesgos de seguridad que llevan asociadas estas tareas. Dado que un usuario que no es de confianza ha tenido acceso completo al conjunto de datos y todos sus descendientes, la propiedad mountpoint podra tener configurados valores inadecuados o podran existir binarios con el bit setuid en los sistemas de archivos. Para evitar riesgos de seguridad imprevistos, el administrador global debe borrar la propiedad zoned de forma manual si quiere reutilizar de alguna manera el conjunto de datos. Antes de configurar la propiedad zoned como off, asegrese de que la propiedad mountpoint del conjunto de datos y sus descendientes tengan configurados valores razonables y que no exista ningn binario con el bit setuid, o que la propiedad setuid est desactivada. Una vez comprobado que no quedan elementos que puedan afectar a la seguridad, la propiedad zoned puede desactivarse utilizando los comandos zfs set o zfs inherit. Si se desactiva la propiedad zoned mientras se est utilizando un conjunto de datos dentro de una zona, el sistema podra comportarse de forma imprevisible. Cambie la propiedad nicamente si est seguro de que no hay ninguna zona no global que est utilizando el conjunto de datos.
16-62
Crear y destruir grupos de almacenamiento ZFS. Crear, cambiar de nombre y destruir sistemas de archivos ZFS. Trabajar con las propiedades de ZFS. Montar y desmontar sistemas de archivos ZFS. Trabajar con instantneas y clones de ZFS. Trabajar con conjuntos de datos ZFS en zonas no globales. Suprimir una zona no global y una configuracin ZFS.
Preparacin
Para realizar este ejercicio, se necesita un disco de reserva sin utilizar. Las tareas 1 y 2 incluyen pasos para crear grupos de almacenamiento que constan de uno, dos o tres discos, si estn disponibles. Debe evaluar la lista de dispositivos de disco de su sistema para determinar las opciones que le conviene escoger para llevar a cabo dichas tareas. Tenga presente que los nombres de rutas de acceso de sus dispositivos de disco podran ser distintos a los que se describen en este ejercicio. Asegrese de usar los nombres de rutas apropiados para su sistema. Nota Si su sistema slo dispone de un disco de reserva, el ejercicio le pedir que utilice un nico disco para crear un grupo de almacenamiento. Recuerde que sta no es una configuracin recomendada. Los grupos de almacenamiento de un solo disco no proporcionan redundancia de datos. Si falla el disco donde se aloja el grupo, el grupo y sus datos quedarn inaccesibles.
Operaciones con los grupos de almacenamiento ZFS: creacin y destruccin de un grupo de almacenamiento bsico de ZFS utilizando discos de reserva de sus sistema.
16-63
Creacin, cambio de nombre y destruccin de los sistemas de archivos de ZFS: creacin de un grupo de almacenamiento bsico y manipulacin de los sistemas de archivos ZFS dentro de ese grupo. Operaciones con las propiedades de ZFS: configuracin y visualizacin de las propiedades de ZFS y principios de la herencia de las propiedades de ZFS. Montaje de sistemas de archivos ZFS: uso de los comandos de ZFS y los comandos tradicionales para montar y desmontar sistemas de archivos ZFS. Operaciones con instantneas y clones de ZFS: creacin y destruccin de instantneas y clones de ZFS y de las dependencias existentes entre ellos. Operaciones con conjuntos de datos ZFS en zonas no globales: adicin y delegacin de conjuntos de datos a zonas no globales y capacidades inherentes a ambos mtodos de asociacin.
En la sptima tarea, Supresin de la zona y la configuracin de ZFS, se borran todos los objetos creados durante el ejercicio.
2. 3.
Nota El comando df con la opcin -F permite ver la lista de sistemas de archivos de un determinado tipo. 4. Utilice el comando format para ver la lista de los discos conectados a su sistema. Compare esta lista con la salida del paso 3 para determinar qu discos no se estn utilizando en su sistema. Utilice <Ctrl-D> para cerrar la sesin de format.
16-64
Ejercicio: introduccin al sistema de archivos ZFS Nota Es posible que observe que su sistema utiliza discos de diferentes tamaos. Para este ejercicio, y aunque no es la prctica ms recomendada, puede usar el comando zpool con la opcin -f para sortear los errores ocasionados por este problema.
Nota Cuando trate de crear un grupo de almacenamiento, su sistema seguramente presentar errores que indican que su disco de reserva contiene sistemas de archivos UFS. En este caso, compruebe que no se est utilizando el disco de reserva y utilice el comando zpool con la opcin -f para sortear los errores y crear el grupo de almacenamiento. 5. Si dispone de tres discos sin utilizar, utilice el comando zpool para crear un grupo de almacenamiento denominado firstpool que se componga de un dispositivo virtual RAID-Z de tres discos. Si dispone de tres discos sin utilizar, ejecute el comando zpool para crear un grupo de almacenamiento denominado firstpool que se componga de un dispositivo virtual RAID-Z de tres discos. Si slo dispone de un disco sin utilizar, ejecute el comando zpool para crear un grupo de almacenamiento llamado firstpool que utilice ese nico disco como dispositivo virtual de nivel superior no redundante. Utilice el comando zpool para ver la lista de grupos de almacenamiento de ZFS. Utilice el comando zpool para ver el estado bsico de su grupo de almacenamiento.
6.
7.
8. 9.
10. Utilice el comando zpool para ver el estado detallado de su grupo de almacenamiento. Qu tipo de dispositivo virtual de nivel superior presenta el comando zpool y de qu dispositivos se compone? Cul es el estado del dispositivo virtual de nivel superior y el del propio grupo de almacenamiento? 11. Utilice el comando zfs para ver la lista de sistemas de archivos ZFS y presentar el espacio correspondiente a firstpool. El espacio disponible corresponde a lo que esperara para un grupo de almacenamiento del tipo que ha creado? 12. Utilice el comando zpool para ver el nombre de su grupo de almacenamiento y slo sus estadsticas de espacio utilizado y espacio disponible.
16-65
Ejercicio: introduccin al sistema de archivos ZFS Nota En el caso del RAID-Z, el comando zpool list indica en la columna AVAIL la suma de todo el espacio del disco. Este valor difiere del presentado por zfs list. En el grupo RAID-Z, el comando zfs list reduce el valor de la columna AVAIL al calcular la cantidad de datos de paridad que necesita el grupo. 13. Utilice el comando zfs para ver la lista de sistemas de archivos ZFS que se encuentran montados. Muestre la informacin detallada del directorio /firstpool. 14. Utilice el comando zpool para destruir firstpool. Asegrese de que firstpool ya no existe. 15. Asegrese de que ya no existan ni el sistema de archivos firstpool ni el punto de montaje /firstpool.
16-66
2.
3.
4.
Nota En los ejemplos de comando que quedan en el ejercicio, se supone que se est utilizando un grupo de almacenamiento no redundante. Recuerde que no es una configuracin recomendada. 5. 6. 7. Utilice el comando zfs para ver la lista de sistemas de archivos ZFS y el uso de espacio de /mypool. Trate de crear un sistema de archivos llamado mypool/fs1/fs2. Qu ocurre y por qu? Cree un directorio llamado /mypool/fs1. Vuelva a tratar de crear un sistema de archivos llamado mypool/fs1/fs2. Qu ocurre y por qu? El intento fracasa porque el sistema de archivos intermedio fs1 no existe. ZFS slo crea sistemas de archivos nuevos debajo de un sistema de archivos inmediatamente superior. 8. 9. Cree un nuevo archivo vaco llamado /mypool/fs1/file1. Trate de crear un sistema de archivos nuevo llamado mypool/fs1/fs2. Utilice los comandos zfs list y zfs mount para ver la lista de sistemas de archivos ZFS existentes y montados en ese momento. Qu ocurre y por qu?
10. Destruya el sistema de archivos mypool/fs1. 11. Borre el archivo file1 del directorio /mypool/fs1.
16-67
Ejercicio: introduccin al sistema de archivos ZFS 12. Vuelva a tratar de crear un sistema de archivos nuevo llamado mypool/fs1. Qu sucede? 13. Compruebe si el nuevo sistema de archivos se ha creado y est montado. 14. Cambie el nombre de mypool/fs1 por mypool/fs2. 15. Asegrese de que mypool/fs2 exista y est montado. 16. Muestre el contenido de /mypool. Existe el directorio fs1? 17. Destruya el sistema de archivos mypool/fs2. 18. Asegrese de que mypool/fs2 no est montado y haya desaparecido. 19. Muestre el contenido de /mypool. Contiene el directorio fs2?
16-68
2.
Nota El comando tar le pedir que pulse RETURN cuando haya creado un archivo del tamao (en kilobytes) especificado. Introduzca Control-C como respuesta a este mensaje. De esta forma, impide que el comando tar sobrescriba archive.tar con el prximo grupo de archivos que superen los lmites que ha establecido. 3. Utilice el comando zfs get para ver todas las propiedades del sistema de archivos mypool/cmp. Todas la propiedades utilizan el mismo origen? En ese caso, cul es ese origen y por qu? Utilice ls con las opciones -lh para ver el tamao de /mypool/cmp/archive.tar. Tome nota del tamao que aparece. Utilice el comando zfs get para ver la configuracin actual de las propiedades used, compression y compressratio de mypool/cmp. Asegrese de que la compresin tenga el valor off, el ratio de compresin sea 1.00x y el espacio utilizado se corresponda con el tamao de archive.tar. Configure la propiedad compression de mypool/cmp con el valor on. Utilice el comando zfs get para ver la configuracin actual de las propiedades used, compression y compressratio de mypool/cmp. Compruebe si ahora la compresin tiene el valor on. Han cambiado los valores de ratio de compresin o espacio utilizado? En caso negativo, por qu no? Qu origen aparece ahora para la propiedad compression? Cambie al directorio /mypool/cmp. Copie archive.tar en archive1.tar. Utilice los comandos ls -lh y du -h para ver los tamaos de archive.tar y archive1.tar. Qu tamaos de archivo indican estos comandos?
4. 5.
6. 7.
8. 9.
16-69
Ejercicio: introduccin al sistema de archivos ZFS Nota El tamao del archivo comprimido y el valor de ratio de compresin pueden variar en funcin del contenido del archivo. 10. Utilice el comando zfs get para ver la configuracin actual de las propiedades used, compression y compressratio de mypool/cmp. Cmo han cambiado los valores de compressratio y used desde la ltima vez que los comprob y por qu? 11. Configure la propiedad compression de mypool/cmp con el valor off. 12. Copie archive.tar en archive2.tar. 13. Utilice los comandos ls -lh y du -h para ver los tamaos de archive.tar y archive1.tar. Qu tamaos de archivo indican estos comandos? 14. Utilice el comando zfs get para ver la configuracin actual de las propiedades used, compression y compressratio de mypool/cmp. Cmo han cambiado los valores de compressratio y used desde la ltima vez que los comprob y por qu? Qu origen aparece para la propiedad compression? 15. Utilice el comando zfs inherit para borrar el valor de la propiedad compression de mypool/cmp. Compruebe si se ha realizado el cambio. Qu origen aparece ahora para la propiedad compression? 16. Cree dos nuevos sistemas de archivos denominados mypool/cmp/a y mypool/cmp/a/b. 17. Utilice el comando zfs get para ver la propiedad compression de mypool/cmp de forma recursiva. Los tres sistemas de archivos de la lista presentan el mismo origen y valor? 18. Utilice el comando zfs set para configurar la propiedad compression de mypool/cmp con el valor on. 19. Utilice el comando zfs get para ver la propiedad compression de mypool/cmp de forma recursiva. Los tres sistemas de archivos de la lista presentan el mismo origen y valor? 20. Utilice el comando zfs set para configurar la propiedad compression de mypool/cmp/a con el valor off. 21. Utilice el comando zfs get para ver la propiedad compression de mypool/cmp de forma recursiva. Qu ha cambiado en los valores y orgenes que aparecen? 22. Utilice el comando zfs inherit para borrar el valor de la propiedad compression de mypool/cmp.
16-70
Ejercicio: introduccin al sistema de archivos ZFS 23. Utilice el comando zfs get para ver la propiedad compression de mypool/cmp de forma recursiva. Qu ha cambiado en los valores y orgenes que aparecen? 24. Cambie al directorio raz (/). Utilice el comando zfs destroy para destruir mypool/cmp y sus sistemas de archivos dependientes. Asegrese de que ya no existan los sistemas de archivos.
16-71
5. 6. 7.
8. 9.
10. Configure la propiedad mountpoint del sistema de archivos mypool/fsb con el valor none. 11. Utilice zfs get para ver la propiedad mountpoint de todos los sistemas de archivos contenidos en mypool. Asegrese de que la propiedad mountpoint de mypool/fsb est configurada como none. 12. Utilice un comando zfs para montar todos los sistemas de archivos ZFS disponibles. Qu sistemas de archivos se encuentran montados ahora? 13. Utilice el comando zfs para configurar la propiedad mountpoint del sistema de archivos mypool con el valor /users. Examine la propiedad mountpoint de todos los sistemas de archivos de mypool. Qu puntos de montaje han cambiado? 14. Asegrese de que los sistemas de archivos mypool y mypool/fsa ahora estn montados utilizando la ruta /users. 15. Configure la propiedad mountpoint de mypool/fsb con el valor legacy y verifique si se ha efectuado el cambio.
16-72
Ejercicio: introduccin al sistema de archivos ZFS 16. Trate de usar el comando zfs para montar mypool/fsb. Qu sucede? 17. Utilice el comando mount para montar mypool/fsb como /mnt. 18. Utilice el comando zfs mount para comprobar si mypool/fsb se ha montado como /mnt. 19. Utilice el comando zfs inherit para desconfigurar de forma recursiva la propiedad mountpoint de los sistemas de archivos asociados a mypool. 20. Utilice zfs get para ver la propiedad mountpoint de los sistemas de archivos contenidos en mypool. Cmo han cambiado los puntos de montaje y qu origen aparece ahora para estos sistemas de archivos? 21. Compruebe si los sistemas de archivos de mypool ahora estn montados usando la ruta /mypool. 22. Destruya los sistemas de archivos mypool/fsa y mypool/fsb.
16-73
2.
Nota El comando tar le pedir que pulse RETURN cuando haya creado un archivo del tamao (en kilobytes) especificado. Introduzca Control-C como respuesta a este mensaje. De esta forma, impide que el comando tar sobrescriba archive.tar con el prximo grupo de archivos que superen los lmites que ha establecido. 3. 4. 5. Utilice el comando ls -lh para ver el tamao de /mypool/devel/usera/archive.tar. Obtenga la lista de sistemas de archivos ZFS. Qu sistema de archivos hace referencia a los nuevos datos? Cree una instantnea denominada mypool/devel/usera@today a partir del sistema de archivos mypool/devel/usera y muestre en la pantalla la lista de sistemas de archivos ZFS existentes. Cuntos datos utiliza la nueva instantnea y a cuntos hace referencia? Copie /mypool/devel/usera/archive.tar en /mypool/devel/usera/archive2.tar. Obtenga la lista de sistemas de archivos ZFS. Tome nota de la cantidad de datos utilizados en mypool. Ha cambiado la cantidad de datos a los que hace referencia la instantnea usera@today? Muestre el contenido del directorio /mypool/devel/usera y suprima /mypool/devel/usera/archive.tar. Muestre el contenido del directorio /mypool/devel/usera/.zfs/snapshot/today. Sigue existiendo el archivo archive.tar en la instantnea?
6. 7.
8. 9.
10. Obtenga la lista de sistemas de archivos ZFS. Ha cambiado la cantidad de datos utilizados por la instantnea usera@today o la cantidad de datos a los que sta hace referencia? Ha cambiado la cantidad de espacio de la que hace uso o referencia el directorio mypool/devel/usera?
16-74
Ejercicio: introduccin al sistema de archivos ZFS 11. Trate de destruir el sistema de archivos mypool/devel/usera. Qu ocurre y por qu? 12. Destruya la instantnea mypool/devel/usera@today. 13. Obtenga la lista de sistemas de archivos ZFS. Ha cambiado la cantidad de espacio de la que hace uso o referencia el directorio mypool/devel/usera? 14. Cambie el nombre del sistema de archivos mypool/devel/usera por el nombre mypool/project1. Compruebe si se ha realizado correctamente el cambio de nombre. 15. Destruya el sistema de archivos mypool/devel. Utilice zfs list para comprobar si se ha borrado y tome nota del espacio utilizado y referido por mypool/project1. 16. Cree una instantnea de mypool/project1 que se denomine mypool/project1@baseline1. Compruebe si la nueva instantnea existe. 17. Utilice el comando zfs clone para crear un clon llamado mypool/baseline1 a partir de la instantnea mypool/project1@baseline1. Compruebe si se ha creado el clon. Qu cantidad de espacio de uso y referencia indica el nuevo clon? 18. Cree un nuevo archivo de 1 GByte denominado /mypool/baseline1/file_1g. Examine la lista de sistemas de archivos situados bajo mypool y compruebe si mypool/baseline1 ahora utiliza 1 GByte de espacio. 19. Muestre el contenido de los directorios /mypool/project1 y /mypool/baseline1, y asegrese de que ambos contengan el archivo llamado archive2.tar, pero que file_1g slo exista en /mypool/baseline1. 20. Utilice el comando zfs get para ver el valor de la propiedad origin del sistema de archivos mypool y sus elementos subordinados. Qu origen aparece para el clon mypool/baseline1? 21. Trate de destruir el sistema de archivos mypool/project1. Qu ocurre y por qu? 22. Trate de usar zfs destroy con la opcin -r para destruir el sistema de archivos mypool/project1 junto con la instantnea y el clon que dependen de l. Qu ocurre y por qu? 23. Trate de usar zfs destroy con la opcin -R para destruir el sistema de archivos mypool/project1 junto con la instantnea y el clon que dependen de l. Asegrese de que hayan desaparecido.
16-75
2.
Nota Existe un archivo de plantilla en /opt/ses/lab/sparc/zfs y /opt/ses/lab/x86/zfs. Los pasos de esta tarea indican que la plantilla est en el directorio sparc, pero ambos archivos son idnticos. 3. Edite /opt/ses/lab/sparc/zfs/zone_template y efecte los cambios siguientes:
Cambie la direccin IP en la lnea que indica set address=192.168.201.121, de forma que se corresponda con la direccin IP asignada por el profesor a su zona. Cambie el dispositivo fsico en la lnea que indica set physical=eri0, de forma que coincida con el dispositivo fsico utilizado como interfaz principal de red en su sistema.
4. 5. 6.
Si es necesario, cree un nuevo directorio llamado /export/zone1. Cambie el modo de permiso de /export/zone1 a 700. Utilice el comando zonecfg para configurar una zona no global llamada zone1 con la informacin de /opt/ses/lab/sparc/zfs/zone_template. Utilice el comando zoneadm para instalar zone1. La instalacin de zonas tiene distintas duraciones en funcin de los tipos de sistemas. Utilice el comando zoneadm para arrancar zone1. El proceso de arranque inicial de la zona puede tardar varios minutos.
7. 8.
16-76
Ejercicio: introduccin al sistema de archivos ZFS 9. Utilice zlogin -C para conectarse a la consola de zone1 y responda a las preguntas de identificacin del sistema que aparezcan. Asegrese de seleccionar una configuracin local y un tipo de terminal que sean adecuados para su sistema. En caso de duda, pruebe con el tipo de terminal vt100.
Nota Si se ha conectado al sistema de forma remota, puede ser til especificar un carcter de escape alternativo para las conexiones a la consola con zlogin. Con ello evitar interrumpir de forma inadvertida la conexin remota. Por ejemplo, para usar el signo de acento circunflejo en lugar de la tilde (signo predeterminado), debera escribir: zlogin -C -e \^ zone1 Despus de elegir el idioma, la configuracin regional y el tipo de terminal adecuados para su sistema, una herramienta grfica interactiva le pedir el resto de la informacin necesaria. Pulse la tecla F2 para confirmar las selecciones y las teclas de flecha para posicionar el cursor. Cuando haya introducido esta informacin, la zona se reiniciar automticamente. Host name for bge0:n = zone1 Configure kerberos security = no Name service = none Default time zone = (especfica de la ubicacin) Override the system's default NFS version 4 domain name (yes/no) ? no 10. Salga de la sesin de consola de zlogin. Si ha especificado un carcter de escape alternativo en la lnea del comando zlogin, introduzca ese carcter en lugar de la tilde. 11. Utilice el comando zoneadm list para comprobar si zone1 se encuentra en estado de ejecucin.
4.
16-77
Ejercicio: introduccin al sistema de archivos ZFS 5. 6. Utilice el comando zoneadm para reiniciar zone1. Muestre en pantalla la propiedad zoned de todos los sistemas de archivos de mypool. Qu valor tiene ahora esa propiedad en mypool/fs1? Utilice el comando zlogin para abrir la sesin en zone1. Utilice el comando df -h para ver la informacin de uso de espacio de mypool/fs1. Qu punto de montaje aparece para el sistema de archivos? Ejecute el comando zfs list. Qu informacin presenta y qu implica en cuanto al uso de comandos de ZFS para administrar la zona no global mypool/fs1?
7. 8.
9.
10. Cambie al directorio /shared/fs1 y cree un nuevo archivo llamado file1. Compruebe si se ha creado file1. 11. Salga de la sesin de zone1 para regresar a la zona global. 12. Muestre el contenido de /export/zone1/root/shared/fs1 para comprobar si file1 est visible desde la zona global.
4. 5.
6. 7.
8.
16-78
Ejercicio: introduccin al sistema de archivos ZFS 9. Utilice el comando df -h para ver la informacin de uso de espacio de mypool/fs2. Qu punto de montaje aparece para mypool/fs2 y de qu origen procede?
10. Utilice el comando zfs list para ver los sistemas de archivos visibles para ZFS en zone1. Asegrese de que aparezcan en la lista mypool y mypool/fs2, pero no mypool/fs1. 11. Trate de configurar la propiedad compression del sistema de archivos mypool con el valor on. Qu ocurre y por qu? 12. Configure la propiedad compression de mypool/fs2 con el valor on. 13. Cree un nuevo sistema de archivos ZFS llamado mypool/fs2/fs3 y compruebe si se ha creado. 14. Examine la propiedad compression de todos los sistemas de archivos contenidos en mypool. Qu valores utilizan estos sistemas de archivos y cules son sus orgenes? 15. Salga de la sesin de zone1 para regresar a la zona global. 16. Utilice el comando zfs list para ver los sistemas de archivos situados bajo mypool. Est el sistema de archivos mypool/fs2/fs3 visible en la zona global? Qu punto de montaje aparece para mypool/fs2/fs3? Tome nota del espacio indicado en estos sistemas de archivos. 17. Trate de cambiar al directorio /fsb/fs2/fs3. Qu ocurre y por qu? 18. Cree un nuevo archivo de 50 Mbytes llamado /mypool/file_50m y compruebe si se ha creado. 19. Utilice el comando zfs list para ver los sistemas de archivos situados bajo mypool. Qu sistema de archivos hace referencia al nuevo archivo de 50 Mbytes? 20. Utilice el comando zlogin para abrir la sesin en zone1. 21. Muestre el contenido de /mypool. Se puede acceder a file_50m en la zona no global? 22. Utilice el comando zfs list para ver los sistemas de archivos situados bajo mypool. Compruebe si los valores de USED y AVAIL son iguales a los que se ven desde la zona global. 23. Salga de la sesin de zone1 para regresar a la zona global.
16-79
16-80
!
?
16-81
Crear y destruir grupos de almacenamiento ZFS. Crear, cambiar de nombre y destruir sistemas de archivos ZFS. Trabajar con las propiedades de ZFS. Montar y desmontar sistemas de archivos ZFS. Trabajar con instantneas y clones de ZFS. Trabajar con conjuntos de datos ZFS en zonas no globales. Suprimir una zona no global y la configuracin de ZFS.
Preparacin
Para realizar este ejercicio, se necesita un disco de reserva sin utilizar. Las tareas 1 y 2 incluyen pasos para crear grupos de almacenamiento que constan de uno, dos o tres discos, si estn disponibles. Debe evaluar la lista de dispositivos de disco de su sistema para determinar las opciones que le conviene escoger para llevar a cabo dichas tareas. Tenga presente que los nombres de rutas de acceso de sus dispositivos de disco podran ser distintos a los que se describen en este ejercicio. Asegrese de usar los nombres de rutas apropiados para su sistema. Nota Si su sistema slo dispone de un disco de reserva, el ejercicio le pedir que utilice un nico disco para crear un grupo de almacenamiento. Recuerde que sta no es una configuracin recomendada. Los grupos de almacenamiento de un solo disco no proporcionan redundancia de datos. Si falla el disco donde se aloja el grupo, el grupo y sus datos quedarn inaccesibles.
16-82
Operaciones con los grupos de almacenamiento ZFS: explica la creacin y destruccin de un grupo de almacenamiento bsico de ZFS utilizando discos de reserva de su sistema. Creacin, cambio de nombre y destruccin de los sistemas de archivos de ZFS: creacin de un grupo de almacenamiento bsico y manipulacin de los sistemas de archivos ZFS dentro de ese grupo. Operaciones con las propiedades de ZFS: configuracin y visualizacin de las propiedades de ZFS y principios de la herencia de las propiedades de ZFS. Montaje de sistemas de archivos ZFS: uso de los comandos de ZFS y los comandos tradicionales para montar y desmontar sistemas de archivos ZFS. Operaciones con instantneas y clones de ZFS: creacin y destruccin de instantneas y clones de ZFS y de las dependencias existentes entre ellos. Operaciones con conjuntos de datos ZFS en zonas no globales: adicin y delegacin de conjuntos de datos a zonas no globales y capacidades inherentes a ambos mtodos de asociacin.
En la sptima tarea, Supresin de la zona y la configuracin de ZFS, se borran todos los objetos creados durante el ejercicio. Esta seccin contiene las soluciones de cada paso del ejercicio.
16-83
Soluciones del ejercicio: introduccin al sistema de archivos ZFS 2. Utilice el comando zfs para ver la lista de sistemas de archivos ZFS. Asegrese de que no exista ninguno de estos sistemas de archivos. # zfs list no datasets available # 3. Utilice el comando df para ver la lista de sistemas de archivos UFS que estn en uso en el sistema. Utilice esta lista para determinar qu disco o discos del sistema se encuentran en uso.
Nota El comando df con la opcin -F permite ver la lista de sistemas de archivos de un determinado tipo.
Utilice el comando format para ver la lista de los discos conectados a su sistema. Compare esta lista con la salida del paso 3 para determinar qu discos no se estn utilizando en su sistema. Utilice <Ctrl-D> para cerrar la sesin de format. # format Searching for disks...done
AVAILABLE DISK SELECTIONS: 0. c1t0d0 <SUN36G cyl 24620 alt 2 hd 27 sec 107> /pci@1f,0/pci@1/scsi@8/sd@0,0 1. c1t1d0 <FUJITSU-MAP3367N SUN36G-0401-33.92GB> /pci@1f,0/pci@1/scsi@8/sd@1,0 2. c2t0d0 <SEAGATE-ST373307LSUN72G-0507-68.37GB> /pci@1f,0/pci@1/scsi@8,1/sd@0,0 3. c2t1d0 <SEAGATE-ST373307LSUN72G-0507-68.37GB> /pci@1f,0/pci@1/scsi@8,1/sd@1,0 4. c2t2d0 <SEAGATE-ST373307LSUN72G-0507-68.37GB> /pci@1f,0/pci@1/scsi@8,1/sd@2,0 Specify disk (enter its number): ^D #
16-84
Soluciones del ejercicio: introduccin al sistema de archivos ZFS Nota Es posible que observe que su sistema utiliza discos de diferentes tamaos. Para este ejercicio, y aunque no es la prctica ms recomendada, puede usar el comando zpool con la opcin -f para sortear los errores ocasionados por este problema.
Nota Cuando trate de crear un grupo de almacenamiento, su sistema seguramente presentar errores que indican que su disco de reserva contiene sistemas de archivos UFS. En este caso, compruebe que no se est utilizando el disco de reserva y utilice el comando zpool con la opcin -f para sortear los errores y crear el grupo de almacenamiento. 5. Si dispone de tres discos sin utilizar, utilice el comando zpool para crear un grupo de almacenamiento denominado firstpool que se componga de un dispositivo virtual RAID-Z de tres discos. # zpool create firstpool raidz c2t0d0 c2t1d0 c2t2d0 Si dispone de tres discos sin utilizar, ejecute el comando zpool para crear un grupo de almacenamiento denominado firstpool que se componga de un dispositivo virtual RAID-Z de tres discos. # zpool create firstpool mirror c2t0d0 c2t1d0 Si slo dispone de un disco sin utilizar, ejecute el comando zpool para crear un grupo de almacenamiento llamado firstpool que utilice ese nico disco como dispositivo virtual de nivel superior no redundante. # zpool create firstpool c2t0d0 Utilice el comando zpool para ver la lista de grupos de almacenamiento de ZFS. Resultado del grupo de almacenamiento RAID-Z: # zpool list NAME firstpool # # zpool list NAME firstpool # # zpool list NAME firstpool # SIZE 204G USED 141K AVAIL 204G CAP 0% HEALTH ONLINE ALTROOT -
6.
7.
8.
Resultado del grupo de almacenamiento duplicado: SIZE 68G USED 80K AVAIL 68.0G CAP 0% HEALTH ONLINE ALTROOT -
Resultado del grupo de almacenamiento no redundante: SIZE 68G USED 79K AVAIL 68.0G CAP 0% HEALTH ONLINE ALTROOT -
16-85
Soluciones del ejercicio: introduccin al sistema de archivos ZFS 9. Utilice el comando zpool para ver el estado bsico de su grupo de almacenamiento. # zpool status -x all pools are healthy # 10. Utilice el comando zpool para ver el estado detallado de su grupo de almacenamiento. Qu tipo de dispositivo virtual de nivel superior presenta el comando zpool y de qu dispositivos se compone? Cul es el estado del dispositivo virtual de nivel superior y el del propio grupo de almacenamiento? Resultado del grupo de almacenamiento RAID-Z: # zpool pool: state: scrub: config: status -v firstpool ONLINE none requested
errors: No known data errors # Resultado del grupo de almacenamiento duplicado: # zpool pool: state: scrub: config: status -v firstpool ONLINE none requested
16-86
Soluciones del ejercicio: introduccin al sistema de archivos ZFS Resultado del grupo de almacenamiento no redundante: # zpool pool: state: scrub: config: status -v firstpool ONLINE none requested
errors: No known data errors # El grupo firstpool debera contener un dispositivo virtual de nivel superior que coincida con el tipo especificado al crear el grupo: raidz1, mirror o, en el caso del grupo no redundante, el disco que especifique servir como nico dispositivo de nivel superior. El dispositivo raidz1 debera estar formado por tres discos. El dispositivo mirror debera estar formado por dos discos. Tanto el dispositivo virtual de nivel superior como el grupo de almacenamiento deberan encontrarse en estado ONLINE. 11. Utilice el comando zfs para ver la lista de sistemas de archivos ZFS y presentar el espacio correspondiente a firstpool. El espacio disponible corresponde a lo que esperara para un grupo de almacenamiento del tipo que ha creado? Resultado del grupo de almacenamiento RAID-Z: # zfs list NAME firstpool # # zfs list NAME firstpool # # zfs list NAME firstpool # USED 89.9K AVAIL 134G REFER 32.6K MOUNTPOINT /firstpool
Resultado del grupo de almacenamiento duplicado: USED 77K AVAIL 66.9G REFER 24.5K MOUNTPOINT /firstpool
Resultado del grupo de almacenamiento no redundante: USED 76K AVAIL 66.9G REFER 24.5K MOUNTPOINT /firstpool
Si ha creado un grupo que consta de un dispositivo RAID-Z de tres discos, el espacio disponible debera ser aproximadamente igual al doble del tamao del disco ms pequeo. Esto abarca el espacio necesario para guardar los
16-87
Soluciones del ejercicio: introduccin al sistema de archivos ZFS datos de paridad en este grupo concreto. Si ha creado un grupo con un duplicado de dos discos, el espacio disponible debera ser aproximadamente igual al tamao del disco ms pequeo. Si ha creado un grupo no redundante, el espacio disponible debera ser aproximadamente igual al tamao del disco que haya especificado. 12. Utilice el comando zpool para ver el nombre de su grupo de almacenamiento y slo sus estadsticas de espacio utilizado y espacio disponible. Resultado del grupo de almacenamiento RAID-Z: # zpool list -o name,used,available NAME USED AVAIL firstpool 141K 204G # Resultado del grupo de almacenamiento duplicado: # zpool list -o name,used,available NAME USED AVAIL firstpool 80K 68.0G # Resultado del grupo de almacenamiento no redundante: # zpool list -o name,used,available NAME USED AVAIL firstpool 79K 68.0G # Nota En el caso del RAID-Z, el comando zpool list indica en la columna AVAIL la suma de todo el espacio del disco. Este valor difiere del presentado por zfs list. En el grupo RAID-Z, el comando zfs list reduce el valor de la columna AVAIL al calcular la cantidad de datos de paridad que necesita el grupo. 13. Utilice el comando zfs para ver la lista de sistemas de archivos ZFS que se encuentran montados. Muestre la informacin detallada del directorio /firstpool. # zfs mount firstpool # ls -ld /firstpool drwxr-xr-x 2 root /firstpool # /firstpool sys 2 Dec 12 19:16
16-88
Soluciones del ejercicio: introduccin al sistema de archivos ZFS 14. Utilice el comando zpool para destruir firstpool. Asegrese de que firstpool haya desaparecido. # zpool destroy firstpool # zpool list no pools available # 15. Asegrese de que ya no existan ni el sistema de archivos firstpool ni el punto de montaje /firstpool. # zfs list no datasets available # ls -ld /firstpool /firstpool: No such file or directory #
16-89
2.
3.
4.
Nota En los ejemplos de comando que quedan en el ejercicio, se supone que se est utilizando un grupo de almacenamiento no redundante. Recuerde que no es una configuracin recomendada. 5. Utilice el comando zfs para ver la lista de sistemas de archivos ZFS y el uso de espacio de /mypool. # zfs list NAME USED AVAIL REFER MOUNTPOINT mypool 76K 66.9G 24.5K /mypool # Trate de crear un sistema de archivos llamado mypool/fs1/fs2. Qu ocurre y por qu? # zfs create mypool/fs1/fs2 cannot create 'mypool/fs1/fs2': parent does not exist # El intento fracasa porque el sistema de archivos intermedio fs1 no existe.
6.
16-90
Soluciones del ejercicio: introduccin al sistema de archivos ZFS 7. Cree un directorio llamado /mypool/fs1. Vuelva a tratar de crear un sistema de archivos llamado mypool/fs1/fs2. Qu ocurre y por qu? # mkdir /mypool/fs1 # zfs create mypool/fs1/fs2 cannot create 'mypool/fs1/fs2': parent does not exist # El intento fracasa porque el sistema de archivos intermedio fs1 no existe. ZFS slo crea sistemas de archivos nuevos debajo de un sistema de archivos inmediatamente superior. 8. Cree un nuevo archivo vaco llamado /mypool/fs1/file1. # touch /mypool/fs1/file1 # 9. Trate de crear un sistema de archivos nuevo llamado mypool/fs1/fs2. Utilice los comandos zfs list y zfs mount para ver la lista de sistemas de archivos ZFS existentes y montados en ese momento. Qu ocurre y por qu? # zfs create mypool/fs1 cannot mount '/mypool/fs1': directory is not empty filesystem successfully created, but not mounted # zfs list NAME USED AVAIL REFER MOUNTPOINT mypool 108K 66.9G 27.5K /mypool mypool/fs1 24.5K 66.9G 24.5K /mypool/fs1 # zfs mount mypool /mypool # El nuevo sistema existe, pero no est montado. El archivo vaco ha impedido que /mypool/fs1 se montase. 10. Destruya el sistema de archivos mypool/fs1. # zfs destroy mypool/fs1 # 11. Borre el archivo file1 del directorio /mypool/fs1. # rm /mypool/fs1/file1 # 12. Vuelva a tratar de crear un sistema de archivos nuevo llamado mypool/fs1. Qu sucede? # zfs create mypool/fs1 # El sistema de archivos mypool/fs1 se crea correctamente.
16-91
Soluciones del ejercicio: introduccin al sistema de archivos ZFS 13. Compruebe si el nuevo sistema de archivos se ha creado y est montado. # zfs list NAME USED AVAIL REFER MOUNTPOINT mypool 108K 66.9G 26.5K /mypool mypool/fs1 24.5K 66.9G 24.5K /mypool/fs1 # zfs mount mypool /mypool mypool/fs1 /mypool/fs1 # 14. Cambie el nombre de mypool/fs1 por mypool/fs2. # zfs rename mypool/fs1 mypool/fs2 # 15. Asegrese de que mypool/fs2 exista y est montado. # zfs list NAME USED AVAIL REFER MOUNTPOINT mypool 108K 66.9G 26.5K /mypool mypool/fs2 24.5K 66.9G 24.5K /mypool/fs2 # zfs mount mypool /mypool mypool/fs2 /mypool/fs2 # 16. Muestre el contenido de /mypool. Existe el directorio fs1? # ls /mypool fs2 # No, el directorio fs1 ya no existe. 17. Destruya el sistema de archivos mypool/fs2. # zfs destroy mypool/fs2 # 18. Asegrese de que mypool/fs2 no est montado y haya desaparecido. # zfs mount mypool /mypool # zfs list NAME USED AVAIL REFER MOUNTPOINT mypool 76K 66.9G 24.5K /mypool # 19. Muestre el contenido de /mypool. Contiene el directorio fs2? # ls /mypool # No, el directorio /mypool est vaco.
16-92
Utilice el comando tar para crear un archivo de almacenamiento parcial del directorio /usr/lib y guarde ese archivo como /mypool/cmp/archive.tar. Utilice la opcin -k para limitar el tamao de este archivo a 400 Mbytes. Utilizar este archivo para demostrar cmo funciona la propiedad compression en los sistemas de archivos ZFS.
# tar cfk /mypool/cmp/archive.tar 409600 /usr/lib tar: please insert new volume, then press RETURN.(Enter Control-C) # Nota El comando tar le pedir que pulse RETURN cuando haya creado un archivo del tamao (en kilobytes) especificado. Introduzca Control-C como respuesta a este mensaje. De esta forma, impide que el comando tar sobrescriba archive.tar con el prximo grupo de archivos que superen los lmites que ha establecido. 3. Utilice el comando zfs get para ver todas las propiedades del sistema de archivos mypool/cmp. Todas la propiedades utilizan el mismo origen? En ese caso, cul es ese origen y por qu? VALUE filesystem Mon Dec 18 17:17 2006 400M 66.5G 400M 1.00x yes none none 128K /mypool/cmp SOURCE default default default default
# zfs get all mypool/cmp NAME PROPERTY mypool/cmp type mypool/cmp creation mypool/cmp used mypool/cmp available mypool/cmp referenced mypool/cmp compressratio mypool/cmp mounted mypool/cmp quota mypool/cmp reservation mypool/cmp recordsize mypool/cmp mountpoint
16-93
Soluciones del ejercicio: introduccin al sistema de archivos ZFS mypool/cmp mypool/cmp mypool/cmp mypool/cmp mypool/cmp mypool/cmp mypool/cmp mypool/cmp mypool/cmp mypool/cmp mypool/cmp mypool/cmp # sharenfs checksum compression atime devices exec setuid readonly zoned snapdir aclmode aclinherit off on off on on on on off off hidden groupmask secure default default default default default default default default default default default default
Todas las propiedades configurables tienen el mismo origen: default. Esto es as porque ninguna de las propiedades se ha configurado de forma local ni se ha heredado de otra propiedad configurada de forma local. 4. Utilice ls con las opciones -lh para ver el tamao de /mypool/cmp/archive.tar. Tome nota del tamao que aparece.
400M Dec 18 17:18 /mypool/cmp/archive.tar
5.
Utilice el comando zfs get para ver la configuracin actual de las propiedades used, compression y compressratio de mypool/cmp. Asegrese de que la compresin tenga el valor off, el ratio de compresin sea 1.00x y el espacio utilizado se corresponda con el tamao de archive.tar. SOURCE default -
# zfs get used,compression,compressratio mypool/cmp NAME PROPERTY VALUE mypool/cmp used 400M mypool/cmp compression off mypool/cmp compressratio 1.00x # 6. # zfs set compression=on mypool/cmp # 7.
Utilice el comando zfs get para ver la configuracin actual de las propiedades used, compression y compressratio de mypool/cmp. Compruebe si ahora la compresin tiene el valor on. Han cambiado los valores de ratio de compresin o espacio utilizado? En caso negativo, por qu no? Qu origen aparece ahora para la propiedad compression? SOURCE
16-94
Soluciones del ejercicio: introduccin al sistema de archivos ZFS mypool/cmp mypool/cmp mypool/cmp # used 400M compression on compressratio 1.00x local -
No, el ratio de compresin sigue siendo 1.00 y el espacio utilizado se mantiene en 400 Mbytes. Al activar la compresin de un sistema de archivos no se comprimen los archivos que ya contiene. La propiedad compression presenta la lista del origen local. 8. Cambie al directorio /mypool/cmp. Copie archive.tar en archive1.tar. # cd /mypool/cmp # cp archive.tar archive1.tar # 9. Utilice los comandos ls -lh y du -h para ver los tamaos de archive.tar y archive1.tar. Qu tamaos de archivo indican estos comandos?
# ls -lh total 1348943 -rw-r--r-1 root -rw-r--r-1 root # du -h * 400M archive.tar 258M archive1.tar #
root root
El comando ls -lh indica que ambos archivos tienen un tamao de 400 Mbytes. El comando du -h indica que archive.tar utiliza 400 Mbytes de espacio y que archive1.tar utiliza alrededor de 258 Mbytes. Nota El tamao del archivo comprimido y el valor de ratio de compresin pueden variar en funcin del contenido del archivo. 10. Utilice el comando zfs get para ver la configuracin actual de las propiedades used, compression y compressratio de mypool/cmp. Cmo han cambiado los valores de compressratio y used desde la ltima vez que los comprob y por qu? # zfs get used,compression,compressratio mypool/cmp NAME PROPERTY VALUE mypool/cmp used 659M mypool/cmp compression on mypool/cmp compressratio 1.16x # SOURCE local -
16-95
Soluciones del ejercicio: introduccin al sistema de archivos ZFS La propiedad used ahora indica unos 659 Mbytes y compressratio presenta 1.16x de compresin. El espacio utilizado corresponde a la suma de los tamaos de los archivos y el ratio de compresin indica la compresin alcanzada para todos los archivos del sistema de archivos. 11. Configure la propiedad compression de mypool/cmp con el valor off. # zfs set compression=off mypool/cmp # 12. Copie archive.tar en archive2.tar. # cp archive.tar archive2.tar # 13. Utilice los comandos ls -lh y du -h para ver los tamaos de archive.tar y archive1.tar. Qu tamaos de archivo indican estos comandos? # ls -lh total 2168760 -rw-r--r-1 root -rw-r--r-1 root -rw-r--r-1 root # du -h * 400M archive.tar 258M archive1.tar 400M archive2.tar #
400M Dec 18 17:18 archive.tar 400M Dec 18 17:38 archive1.tar 400M Dec 18 18:56 archive2.tar
El comando ls -lh indica que los tres archivos tienen un tamao de 400 Mbytes. El comando du -h indica que archive.tar y archive2.tar utilizan 400 Mbytes de espacio y archive1.tar utiliza alrededor de 258 Mbytes. 14. Utilice el comando zfs get para ver la configuracin actual de las propiedades used, compression y compressratio de mypool/cmp. Cmo han cambiado los valores de compressratio y used desde la ltima vez que los comprob y por qu? Qu origen aparece para la propiedad compression? # zfs get used,compression,compressratio mypool/cmp NAME PROPERTY VALUE SOURCE mypool/cmp used 1.03G mypool/cmp compression off local mypool/cmp compressratio 1.10x # La propiedad used ahora indica unos 1.03 Gbytes y compressratio presenta 1.10x de compresin. El espacio utilizado se corresponde con la suma del tamao de los tres archivos. El ratio de compresin es ms pequeo porque se ha comprimido una parte menor de los datos del sistema de archivos. La propiedad compression sigue presentando el origen local.
16-96
Soluciones del ejercicio: introduccin al sistema de archivos ZFS 15. Utilice el comando zfs inherit para borrar el valor de la propiedad compression de mypool/cmp. Compruebe si se ha realizado el cambio. Qu origen aparece ahora para la propiedad compression? # zfs inherit compression mypool/cmp # zfs get compression mypool/cmp NAME PROPERTY VALUE mypool/cmp compression off #
#
SOURCE default
16. Cree dos nuevos sistemas de archivos denominados mypool/cmp/a y mypool/cmp/a/b. # zfs create mypool/cmp/a # zfs create mypool/cmp/a/b 17. Utilice el comando zfs get para ver la propiedad compression de mypool/cmp de forma recursiva. Los tres sistemas de archivos de la lista presentan el mismo origen y valor? # zfs get -r compression mypool/cmp NAME PROPERTY VALUE mypool/cmp compression off mypool/cmp/a compression off mypool/cmp/a/b compression off # SOURCE default default default
S, los tres sistemas de archivos tienen la compresin desactivada y presentan el origen default para la propiedad compression. 18. Utilice el comando zfs set para configurar la propiedad compression de mypool/cmp con el valor on. # zfs set compression=on mypool/cmp # 19. Utilice el comando zfs get para ver la propiedad compression de mypool/cmp de forma recursiva. Los tres sistemas de archivos de la lista presentan el mismo origen y valor?
# zfs get -r compression mypool/cmp NAME PROPERTY VALUE mypool/cmp compression on mypool/cmp/a compression on mypool/cmp/a/b compression on # SOURCE local inherited from mypool/cmp inherited from mypool/cmp
Los tres sistemas de archivos tienen la compresin activada. El sistema de archivos mypool/cmp muestra el origen local para la propiedad compression, y mypool/cmp/a y mypool/cmp/a/b indican que han heredado sus valores de compression de mypool/cmp.
16-97
Soluciones del ejercicio: introduccin al sistema de archivos ZFS 20. Utilice el comando zfs set para configurar la propiedad compression de mypool/cmp/a con el valor off. # zfs set compression=off mypool/cmp/a 21. Utilice el comando zfs get para ver la propiedad compression de mypool/cmp de forma recursiva. Qu ha cambiado en los valores y orgenes que aparecen?
# zfs get -r compression mypool/cmp NAME PROPERTY VALUE mypool/cmp compression on mypool/cmp/a compression off mypool/cmp/a/b compression off # SOURCE local local inherited from mypool/cmp/a
Los sistemas de archivos mypool/cmp/a y mypool/cmp/a/b ahora tienen la compresin desactivada. El sistema de archivos mypool/cmp/a presenta el origen local para la propiedad compression y mypool/cmp/a/b ahora hereda su valor de compression de mypool/cmp/a. 22. Utilice el comando zfs inherit para borrar el valor de la propiedad compression de mypool/cmp. # zfs inherit compression mypool/cmp 23. Utilice el comando zfs get para ver la propiedad compression de mypool/cmp de forma recursiva. Qu ha cambiado en los valores y orgenes que aparecen?
# zfs get -r compression mypool/cmp NAME PROPERTY VALUE mypool/cmp compression off mypool/cmp/a compression off mypool/cmp/a/b compression off # SOURCE default local inherited from mypool/cmp/a
Los tres sistemas de archivos tienen la compresin desactivada. mypool/cmp, mypool/cmp/a y mypool/cmp/a/b presentan los orgenes default, local e inherited from respectivamente. El sistema de archivos mypool/cmp/a/b hereda su valor de compression de mypool/cmp/a. 24. Cambie al directorio raz (/). Utilice el comando zfs destroy para destruir mypool/cmp y sus sistemas de archivos dependientes. Asegrese de que ya no existan los sistemas de archivos. # cd / # zfs destroy -r mypool/cmp # zfs list NAME USED mypool 103K #
AVAIL 66.9G
REFER 25.5K
MOUNTPOINT /mypool
16-98
El comando zfs indica que el sistema de archivos mypool est montado como /mypool. 2. Utilice el comando mount para ver la informacin de montaje del sistema de archivos mypool.
# mount | grep mypool /mypool on mypool read/write/setuid/devices/exec/atime/dev=401001d on Tue Dec 19 11:47:02 2006 #
3.
Examine el archivo /etc/vfstab y asegrese de que no contenga ninguna entrada mypool. # grep mypool /etc/vfstab #
4.
Utilice el comando zfs para ver el valor y el origen de la propiedad mountpoint del sistema de archivos mypool. Cules son el valor y el origen que aparecen? VALUE /mypool SOURCE default
El sistema de archivos mypool presenta /mypool como su punto de montaje y utiliza el origen default. 5. Utilice zfs unmount para desmontar el sistema de archivos mypool. Asegrese de que se haya desmontado. # zfs unmount mypool # zfs mount # 6. Utilice zfs mount para montar el sistema de archivos mypool. Asegrese de que se haya montado como /mypool. # zfs mount mypool # zfs mount mypool #
/mypool
16-99
Soluciones del ejercicio: introduccin al sistema de archivos ZFS 7. Cree dos nuevos sistemas de archivos llamados mypool/fsa y mypool/fsb. Compruebe si los nuevos sistemas de archivos se han montado bajo /mypool. # zfs create mypool/fsa # zfs create mypool/fsb # zfs mount mypool /mypool mypool/fsa /mypool/fsa mypool/fsb /mypool/fsb # Trate de usar el comando umount para desmontar /mypool/fsb. Qu sucede? # umount /mypool/fsb # El sistema de archivos se desmonta. 9. Trate de usar el comando mount -F zfs para montar el sistema de archivos mypool/fsb como /mypool/fsb. Qu sucede?
# mount -F zfs mypool/fsb /mypool/fsb filesystem 'mypool/fsb' cannot be mounted using 'mount -F zfs' Use 'zfs set mountpoint=/mypool/fsb' instead. If you must use 'mount -F zfs' or /etc/vfstab, use 'zfs set mountpoint=legacy'. See zfs(1M) for more information.
8.
El sistema de archivos no puede montarse porque no se ha identificado como un sistema de archivos que deba administrarse con la herramientas tradicionales. 10. Configure la propiedad mountpoint del sistema de archivos mypool/fsb con el valor none. # zfs set mountpoint=none mypool/fsb # 11. Utilice zfs get para ver la propiedad mountpoint de todos los sistemas de archivos contenidos en mypool. Asegrese de que la propiedad mountpoint de mypool/fsb est configurada como none.
# zfs get -r mountpoint mypool NAME PROPERTY mypool mountpoint mypool/fsa mountpoint mypool/fsb mountpoint # VALUE /mypool /mypool/fsa none SOURCE default default local
12. Utilice un comando zfs para montar todos los sistemas de archivos ZFS disponibles. Qu sistemas de archivos se encuentran montados ahora? # zfs mount -a # zfs mount
16-100
Soluciones del ejercicio: introduccin al sistema de archivos ZFS mypool mypool/fsa # /mypool /mypool/fsa
Slo se han montado los sistemas de archivos mypool y mypool/fsa. 13. Utilice el comando zfs para configurar la propiedad mountpoint del sistema de archivos mypool con el valor /users. Examine la propiedad mountpoint de todos los sistemas de archivos de mypool. Qu puntos de montaje han cambiado?
# zfs set mountpoint=/users mypool # zfs get -r mountpoint mypool NAME PROPERTY VALUE mypool mountpoint /users mypool/fsa mountpoint /users/fsa mypool/fsb mountpoint none #
El punto de montaje de los sistemas de archivos mypool y mypool/fsa ha cambiado a /users y /users/fsa respectivamente. 14. Asegrese de que los sistemas de archivos mypool y mypool/fsa ahora estn montados utilizando la ruta /users. # zfs mount mypool mypool/fsa # /users /users/fsa
15. Configure la propiedad mountpoint de mypool/fsb con el valor legacy y verifique si se ha efectuado el cambio. # zfs set mountpoint=legacy mypool/fsb # zfs get mountpoint mypool/fsb NAME PROPERTY VALUE mypool/fsb mountpoint legacy #
SOURCE local
16. Trate de usar el comando zfs para montar mypool/fsb. Qu sucede? # zfs mount mypool/fsb cannot mount 'mypool/fsb': legacy mountpoint use mount(1M) to mount this filesystem # El intento de ejecutar zfs mount fracasa porque la propiedad mountpoint de mypool/fsb est configurada como legacy. 17. Utilice el comando mount para montar mypool/fsb como /mnt. # mount -F zfs mypool/fsb /mnt #
16-101
Soluciones del ejercicio: introduccin al sistema de archivos ZFS 18. Utilice el comando zfs mount para comprobar si mypool/fsb se ha montado como /mnt. # zfs mount mypool mypool/fsa mypool/fsb # /users /users/fsa /mnt
19. Utilice el comando zfs inherit para desconfigurar de forma recursiva la propiedad mountpoint de los sistemas de archivos asociados a mypool. # zfs inherit -r mountpoint mypool # 20. Utilice zfs get para ver la propiedad mountpoint de los sistemas de archivos contenidos en mypool. Cmo han cambiado los puntos de montaje y qu origen aparece ahora para estos sistemas de archivos? # zfs get -r mountpoint mypool NAME PROPERTY VALUE mypool mountpoint /mypool mypool/fsa mountpoint /mypool/fsa mypool/fsb mountpoint /mypool/fsb # SOURCE default default default
Todos los puntos de montaje de los tres sistemas de archivos ahora utilizan la ruta /mypool. Ahora se utiliza el origen default para sus propiedades mountpoint. 21. Compruebe si los sistemas de archivos de mypool ahora estn montados usando la ruta /mypool. # zfs mount mypool mypool/fsa mypool/fsb # 22. Destruya los sistemas de archivos mypool/fsa y mypool/fsb. # zfs destroy mypool/fsa # zfs destroy mypool/fsb # /mypool /mypool/fsa /mypool/fsb
16-102
# zfs create mypool/devel # zfs create mypool/devel/usera # zfs list NAME USED AVAIL mypool 178K 66.9G mypool/devel 50K 66.9G mypool/devel/usera 24.5K 66.9G # 2.
Utilice el comando tar para crear un archivo de almacenamiento parcial del directorio /usr/lib y guarde ese archivo como /mypool/devel/usera/archive.tar. Utilice la opcin -k para limitar el tamao de este archivo a 400 Mbytes.
# tar cfk /mypool/devel/usera/archive.tar 409600 /usr/lib tar: please insert new volume, then press RETURN.(Enter Control-C) # Nota El comando tar le pedir que pulse RETURN cuando haya creado un archivo del tamao (en kilobytes) especificado. Introduzca Control-C como respuesta a este mensaje. De esta forma, impide que el comando tar sobrescriba archive.tar con el prximo grupo de archivos que superen los lmites que ha establecido. 3. Utilice el comando ls -lh para ver el tamao de /mypool/devel/usera/archive.tar.
4.
Obtenga la lista de sistemas de archivos ZFS. Qu sistema de archivos hace referencia a los nuevos datos? USED 400M 400M 400M AVAIL 66.5G 66.5G 66.5G REFER 26.5K 25.5K 400M MOUNTPOINT /mypool /mypool/devel /mypool/devel/usera
El sistema de archivos mypool/devel/usera hace referencia a los nuevos datos, como indica la columna REFER.
16-103
Soluciones del ejercicio: introduccin al sistema de archivos ZFS Cree una instantnea denominada mypool/devel/usera@today a partir del sistema de archivos mypool/devel/usera y muestre en la pantalla la lista de sistemas de archivos ZFS existentes. Cuntos datos utiliza la nueva instantnea y a cuntos hace referencia? # zfs snapshot mypool/devel/usera@today # zfs list NAME USED AVAIL REFER MOUNTPOINT mypool 400M 66.5G 26.5K /mypool mypool/devel 400M 66.5G 25.5K /mypool/devel mypool/devel/usera 400M 66.5G 400M /mypool/devel/usera mypool/devel/usera@today 0 400M #
5.
La nueva instantnea utiliza 0 bytes y hace referencia a 400 Mbytes de datos. Copie /mypool/devel/usera/archive.tar en /mypool/devel/usera/archive2.tar. # cp /mypool/devel/usera/archive.tar /mypool/devel/usera/archive2.tar # 7. Obtenga la lista de sistemas de archivos ZFS. Tome nota de la cantidad de datos utilizados en mypool. Ha cambiado la cantidad de datos a los que hace referencia la instantnea usera@today? 6.
# zfs list NAME USED AVAIL mypool 801M 66.2G mypool/devel 801M 66.2G mypool/devel/usera 801M 66.2G mypool/devel/usera@today 23.5K #
No, la instantnea usera@today sigue haciendo referencia a 400 Mbytes de datos. 8. Muestre el contenido del directorio /mypool/devel/usera y suprima /mypool/devel/usera/archive.tar. # ls /mypool/devel/usera archive.tar archive2.tar # rm /mypool/devel/usera/archive.tar # Muestre el contenido del directorio /mypool/devel/usera/.zfs/snapshot/today. Sigue existiendo el archivo archive.tar en la instantnea? # ls /mypool/devel/usera/.zfs/snapshot/today archive.tar # S, el archivo archive.tar sigue existiendo en la instantnea.
9.
16-104
Soluciones del ejercicio: introduccin al sistema de archivos ZFS 10. Obtenga la lista de sistemas de archivos ZFS. Ha cambiado la cantidad de datos utilizados por la instantnea usera@today o la cantidad de datos a los que sta hace referencia? Ha cambiado la cantidad de espacio de la que hace uso o referencia el directorio mypool/devel/usera? # zfs list NAME USED AVAIL mypool 801M 66.2G mypool/devel 801M 66.2G mypool/devel/usera 801M 66.2G mypool/devel/usera@today 400M # REFER MOUNTPOINT 26.5K /mypool 25.5K /mypool/devel 400M /mypool/devel/usera 400M -
La instantnea usera@today ahora utiliza y hace referencia a 400 Mbytes, mientras que antes de suprimir archive.tar, slo haca referencia a esa cantidad de datos. La cantidad de espacio a la que hace referencia mypool/devel/usera se ha reducido a 400 Mbytes, pero la cantidad utilizada no ha cambiado. El espacio utilizado que aparece para mypool/devel/usera incluye el espacio que ahora utiliza la instantnea mypool/devel/usera@today. 11. Trate de destruir el sistema de archivos mypool/devel/usera. Qu ocurre y por qu? # zfs destroy mypool/devel/usera cannot destroy 'mypool/devel/usera': filesystem has children use '-r' to destroy the following datasets: mypool/devel/usera@today # El intento de destruir el sistema de archivos falla porque existe la instantnea mypool/devel/usera@today. 12. Destruya la instantnea mypool/devel/usera@today. # zfs destroy mypool/devel/usera@today # 13. Obtenga la lista de sistemas de archivos ZFS. Ha cambiado la cantidad de espacio de la que hace uso o referencia el directorio mypool/devel/usera? # zfs list NAME mypool mypool/devel mypool/devel/usera # # USED 400M 400M 400M AVAIL 66.5G 66.5G 66.5G REFER 26.5K 25.5K 400M MOUNTPOINT /mypool /mypool/devel /mypool/devel/usera
La cantidad de espacio usado por mypool/devel/usera ha cambiado a 400 Mbytes, pero la cantidad a la que hace referencia no ha cambiado.
16-105
Soluciones del ejercicio: introduccin al sistema de archivos ZFS 14. Cambie el nombre del sistema de archivos mypool/devel/usera por el nombre mypool/project1. Compruebe si se ha realizado correctamente el cambio de nombre. # zfs rename mypool/devel/usera mypool/project1 # zfs list NAME USED AVAIL REFER MOUNTPOINT mypool 400M 66.5G 27.5K /mypool mypool/devel 24.5K 66.5G 24.5K /mypool/devel mypool/project1 400M 66.5G 400M /mypool/project1 # 15. Destruya el sistema de archivos mypool/devel. Utilice zfs list para comprobar si se ha borrado y tome nota del espacio utilizado por mypool/project1 y al que hace referencia este directorio. # zfs destroy mypool/devel # zfs list NAME USED mypool 400M mypool/project1 400M #
16. Cree una instantnea de mypool/project1 que se denomine mypool/project1@baseline1. Compruebe si la nueva instantnea existe. # zfs snapshot mypool/project1@baseline1 # zfs list NAME USED AVAIL REFER MOUNTPOINT mypool 401M 66.5G 26.5K /mypool mypool/project1 400M 66.5G 400M /mypool/project1 mypool/project1@baseline1 0 400M # 17. Utilice el comando zfs clone para crear un clon llamado mypool/baseline1 a partir de la instantnea mypool/project1@baseline1. Compruebe si se ha creado el clon. Qu cantidad de espacio de uso y referencia indica el nuevo clon? # zfs clone mypool/project1@baseline1 mypool/baseline1 # zfs list NAME USED AVAIL REFER MOUNTPOINT mypool 400M 66.5G 27.5K /mypool mypool/baseline1 0 66.5G 400M /mypool/baseline1 mypool/project1 400M 66.5G 400M /mypool/project1 mypool/project1@baseline1 0 400M # El clon mypool/baseline1 utiliza 0 Bytes y hace referencia a 400 Mbytes de espacio.
16-106
Soluciones del ejercicio: introduccin al sistema de archivos ZFS 18. Cree un nuevo archivo de 1 GByte denominado /mypool/baseline1/file_1g. Examine la lista de sistemas de archivos situados bajo mypool y compruebe si mypool/baseline1 ahora utiliza 1 GByte de espacio. # mkfile 1g /mypool/baseline1/file_1g # zfs list NAME USED AVAIL REFER MOUNTPOINT mypool 1.39G 65.5G 27.5K /mypool mypool/baseline1 1.00G 65.5G 1.39G /mypool/baseline1 mypool/project1 400M 65.5G 400M /mypool/project1 mypool/project1@baseline1 0 400M # 19. Muestre el contenido de los directorios /mypool/project1 y /mypool/baseline1, y asegrese de que ambos contengan el archivo llamado archive2.tar, pero que file_1g slo exista en /mypool/baseline1. # ls /mypool/project1 archive2.tar # ls /mypool/baseline1 archive2.tar file_1g # 20. Utilice el comando zfs get para ver el valor de la propiedad origin del sistema de archivos mypool y sus elementos subordinados. Qu origen aparece para el clon mypool/baseline1? # zfs get -r origin mypool NAME PROPERTY VALUE SOURCE mypool origin mypool/baseline1 origin mypool/project1@baseline1 mypool/project1 origin mypool/project1@baseline1 origin # El clon mypool/baseline1 indica la instantnea mypool/project1@baseline1 como origen. 21. Trate de destruir el sistema de archivos mypool/project1. Qu ocurre y por qu?
# zfs destroy mypool/project1 cannot destroy 'mypool/project1': filesystem has children use '-r' to destroy the following datasets: mypool/project1@baseline1 #
16-107
Soluciones del ejercicio: introduccin al sistema de archivos ZFS 22. Trate de usar zfs destroy con la opcin -r para destruir el sistema de archivos mypool/project1 junto con la instantnea y el clon que dependen de l. Qu ocurre y por qu? # zfs destroy -r mypool/project1 cannot destroy 'mypool/project1': filesystem has dependent clones use '-R' to destroy the following datasets: mypool/baseline1 # El intento de destruir mypool/project1 falla porque an existe el clon mypool/project1@baseline1. 23. Trate de usar zfs destroy con la opcin -R para destruir el sistema de archivos mypool/project1 junto con la instantnea y el clon que dependen de l. Asegrese de que hayan desaparecido. # zfs destroy -R mypool/project1 # zfs list NAME USED AVAIL mypool 96.5K 66.9G #
REFER 26.5K
MOUNTPOINT /mypool
16-108
# ifconfig -a lo0: flags=2001000849<UP,LOOPBACK,RUNNING,MULTICAST,IPv4,VIRTUAL> mtu 8232 index 1 inet 127.0.0.1 netmask ff000000 eri0: flags=1000843<UP,BROADCAST,RUNNING,MULTICAST,IPv4> mtu 1500 index 2 inet 192.168.201.21 netmask ffffff00 broadcast 192.168.201.255 ether 0:3:ba:6b:5d:3c #
2.
Nota Existe un archivo de plantilla en /opt/ses/lab/sparc/zfs y /opt/ses/lab/x86/zfs. Los pasos de esta tarea indican que la plantilla est en el directorio sparc, pero ambos archivos son idnticos. # cat /opt/ses/lab/sparc/zfs/zone_template create -b set zonepath=/export/zone1 set autoboot=true add inherit-pkg-dir set dir=/lib end add inherit-pkg-dir set dir=/platform end add inherit-pkg-dir set dir=/sbin end add inherit-pkg-dir set dir=/usr end add net set address=192.168.201.121 set physical=eri0 end #
16-109
Soluciones del ejercicio: introduccin al sistema de archivos ZFS 3. Edite /opt/ses/lab/sparc/zfs/zone_template y efecte los cambios siguientes:
Cambie la direccin IP en la lnea que indica set address=192.168.201.121, de forma que se corresponda con la direccin IP asignada por el profesor a su zona. Cambie el dispositivo fsico en la lnea que indica set physical=eri0, de forma que coincida con el dispositivo fsico utilizado como interfaz principal de red en su sistema.
4.
5.
6.
Utilice el comando zonecfg para configurar una zona no global llamada zone1 con la informacin de /opt/ses/lab/sparc/zfs/zone_template. # zonecfg -z zone1 -f /opt/ses/lab/sparc/zfs/zone_template
7.
Utilice el comando zoneadm para instalar zone1. La instalacin de zonas tiene distintas duraciones en funcin de los tipos de sistemas.
# zoneadm -z zone1 install Preparing to install zone (zone1). Creating list of files to copy from the global zone. Copying (2541) files to the zone. Initializing zone product registry. Determining zone package initialization order. Preparing to initialize (1059) packages on the zone. Initialized (1059) packages on zone. Zone (zone1) is initialized. The file (/export/zone1/root/var/sadm/system/logs/install_log) contains a log of the zone installation. #
8.
Utilice el comando zoneadm para arrancar zone1. El proceso de arranque inicial de la zona puede tardar varios minutos. # zoneadm -z zone1 boot #
16-110
Soluciones del ejercicio: introduccin al sistema de archivos ZFS 9. Utilice zlogin -C para conectarse a la consola de zone1 y responda a las preguntas de identificacin del sistema que aparezcan. Asegrese de seleccionar una configuracin local y un tipo de terminal que sean adecuados para su sistema. En caso de duda, pruebe con el tipo de terminal vt100.
Nota Si se ha conectado al sistema de forma remota, puede ser til especificar un carcter de escape alternativo para las conexiones a la consola con zlogin. Con ello evitar interrumpir de forma inadvertida la conexin remota. Por ejemplo, para usar el signo de acento circunflejo en lugar de la tilde (signo predeterminado), debera escribir: zlogin -C -e \^ zone1 # zlogin -C zone1 [Connected to zone 'zone1' console] ... Select a Language 0. 1. 2. 3. English French Spanish it
Please make a choice (0 - 3), or press h or ? for help: 0 ... Select a Locale 0. 1. 2. 3. ... 18. English (C - 7-bit ASCII) Belgium-Flemish (ISO8859-1) Belgium-Flemish (ISO8859-15 - Euro) Belgium-Flemish (UTF-8) Netherlands (ISO8859-1)
Press Return to show more choices. Please make a choice (0 - 28), or press h or ? for help: 26 ... What type of terminal are you using? 1) ANSI Standard CRT 2) DEC VT52 3) DEC VT100
16-111
Soluciones del ejercicio: introduccin al sistema de archivos ZFS 4) Heathkit 19 5) Lear Siegler ADM31 6) PC Console 7) Sun Command Tool 8) Sun Workstation 9) Televideo 910 10) Televideo 925 11) Wyse Model 50 12) X Terminal Emulator (xterms) 13) CDE Terminal Emulator (dtterm) 14) Other Type the number of your choice and press Return: 3 ... Despus de elegir el idioma, la configuracin regional y el tipo de terminal adecuados para su sistema, una herramienta grfica interactiva le pedir el resto de la informacin necesaria. Pulse la tecla F2 para confirmar las selecciones y las teclas de flecha para posicionar el cursor. Cuando haya introducido esta informacin, la zona se reiniciar automticamente. Host name for bge0:n = zone1 Configure kerberos security = no Name service = none Default time zone = (especfica de la ubicacin) Override the system's default NFS version 4 domain name (yes/no) ? no 10. Salga de la sesin de consola de zlogin. Si ha especificado un carcter de escape alternativo en la lnea del comando zlogin, introduzca ese carcter en lugar de la tilde. zone1 console login: ~. [Connection to zone 'zone1' console closed] # 11. Utilice el comando zoneadm list para comprobar si zone1 se encuentra en estado de ejecucin. # zoneadm list -cv ID NAME STATUS 0 global running 2 zone1 running # PATH / /export/zone1
16-112
Utilice el comando zonecfg para agregar el sistema de archivos mypool/fs1 a la zona no global zone1. Haga que mypool/fs1 se monte como /shared/fs1 en zone1. # zonecfg -z zone1 zonecfg:zone1> add fs zonecfg:zone1:fs> set type=zfs zonecfg:zone1:fs> set special=mypool/fs1 zonecfg:zone1:fs> set dir=/shared/fs1 zonecfg:zone1:fs> end zonecfg:zone1> exit #
4.
Muestre en pantalla la propiedad zoned de todos los sistemas de archivos de mypool. Qu valor tiene esa propiedad en mypool/fs1? VALUE off off SOURCE default default
# zfs get -r zoned mypool NAME PROPERTY mypool zoned mypool/fs1 zoned # 5.
La propiedad zoned de mypool/fs1 est configurada como off. Utilice el comando zoneadm para reiniciar zone1. # zoneadm -z zone1 reboot #
16-113
Soluciones del ejercicio: introduccin al sistema de archivos ZFS 6. Muestre en pantalla la propiedad zoned de todos los sistemas de archivos de mypool. Qu valor tiene ahora esa propiedad en mypool/fs1? VALUE off off SOURCE default default
# zfs get -r zoned mypool NAME PROPERTY mypool zoned mypool/fs1 zoned #
La propiedad zoned de mypool/fs1 sigue estando configurada como off. 7. Utilice el comando zlogin para abrir la sesin en zone1.
# zlogin zone1 [Connected to zone 'zone1' pts/2] Sun Microsystems Inc. SunOS 5.10 #
8.
Utilice el comando df -h para ver la informacin de uso de espacio de mypool/fs1. Qu punto de montaje aparece para el sistema de archivos?
# df -h mypool/fs1 Filesystem mypool/fs1 # size 67G used 24K avail capacity 67G 1% Mounted on /shared/fs1
El sistema de archivos mypool/fs1 est montado como /shared/fs1. 9. Ejecute el comando zfs list. Qu informacin presenta y qu implica en cuanto al uso de comandos de ZFS para administrar la zona no global mypool/fs1? # zfs list no datasets available # El comando zfs list indica que no hay conjuntos de datos disponibles. El comando zfs list no reconoce mypool/fs1 como sistema de archivos que pueda administrar. 10. Cambie al directorio /shared/fs1 y cree un nuevo archivo llamado file1. Compruebe si se ha creado file1. # cd /shared/fs1 # touch file1 # ls file1 #
16-114
Soluciones del ejercicio: introduccin al sistema de archivos ZFS 11. Salga de la sesin de zone1 para regresar a la zona global. # exit [Connection to zone 'zone1' pts/2 closed] # 12. Muestre el contenido de /export/zone1/root/shared/fs1 para comprobar si file1 est visible desde la zona global. # ls /export/zone1/root/shared/fs1 file1 #
# zfs get mountpoint mypool/fs2 NAME PROPERTY VALUE mypool/fs2 mountpoint /mypool/fs2 # 3.
Configure la propiedad mountpoint del sistema de archivos mypool/fs2 con el valor /fsb/fs2. Compruebe si el origen de la propiedad mountpoint para este sistema de archivos ahora es local.
# zfs set mountpoint=/fsb/fs2 mypool/fs2 # zfs get mountpoint mypool/fs2 NAME PROPERTY VALUE mypool/fs2 mountpoint /fsb/fs2
#
SOURCE local
16-115
4.
Utilice el comando zonecfg para agregar mypool/fs2 a la zona no global zone1. # zonecfg -z zone1 zonecfg:zone1> add dataset zonecfg:zone1:dataset> set name=mypool/fs2 zonecfg:zone1:dataset> end zonecfg:zone1> exit #
5.
Muestre en pantalla la propiedad zoned de todos los sistemas de archivos de mypool. Qu valor tiene esa propiedad para mypool/fs2? VALUE off off off SOURCE default default default
# zfs get -r zoned mypool NAME PROPERTY mypool zoned mypool/fs1 zoned mypool/fs2 zoned # 6.
La propiedad zoned de mypool/fs2 est configurada como off. Utilice el comando zoneadm para reiniciar zone1. # zoneadm -z zone1 reboot # 7. Muestre en pantalla la propiedad zoned de todos los sistemas de archivos de mypool. Qu valor tiene ahora esa propiedad para mypool/fs2? VALUE off off on SOURCE default default local
# zfs get -r zoned mypool NAME PROPERTY mypool zoned mypool/fs1 zoned mypool/fs2 zoned # 8.
La propiedad zoned de mypool/fs2 ahora est configurada como on. Utilice el comando zlogin para abrir la sesin en zone1.
# zlogin zone1 [Connected to zone 'zone1' pts/2] Last login: Wed Dec 27 14:04:06 on pts/2 Sun Microsystems Inc. SunOS 5.10 Generic January 2005 #
Soluciones del ejercicio: introduccin al sistema de archivos ZFS 9. Utilice el comando df -h para ver la informacin de uso de espacio de mypool/fs2. Qu punto de montaje aparece para mypool/fs2 y de qu origen procede?
# df -h mypool/fs2 Filesystem mypool/fs2 # size 67G used 24K avail capacity 67G 1% Mounted on /fsb/fs2
El sistema de archivos mypool/fs2 est montado como /fsb/fs2. Este punto de montaje se deriva de la propiedad mountpoint de este sistema de archivos. 10. Utilice el comando zfs list para ver los sistemas de archivos visibles para ZFS en zone1. Asegrese de que aparezcan en la lista mypool y mypool/fs2, pero no mypool/fs1. # zfs list NAME mypool mypool/fs2 # USED 166K 24.5K AVAIL 66.9G 66.9G REFER 24.5K 24.5K MOUNTPOINT /mypool /fsb/fs2
11. Trate de configurar la propiedad compression del sistema de archivos mypool con el valor on. Qu ocurre y por qu? # zfs set compression=on mypool cannot set compression for 'mypool': permission denied # El intento fracasa porque el sistema de archivos mypool est situado encima del sistema de archivos delegado a zone1. 12. Configure la propiedad compression de mypool/fs2 con el valor on. # zfs set compression=on mypool/fs2 # 13. Cree un nuevo sistema de archivos ZFS llamado mypool/fs2/fs3 y compruebe si se ha creado. # zfs create mypool/fs2/fs3 # zfs list NAME USED mypool 195K mypool/fs2 49K mypool/fs2/fs3 24.5K #
16-117
Soluciones del ejercicio: introduccin al sistema de archivos ZFS 14. Examine la propiedad compression de todos los sistemas de archivos contenidos en mypool. Qu valores utilizan estos sistemas de archivos y cules son sus orgenes?
# zfs get -r compression mypool NAME PROPERTY mypool compression mypool/fs2 compression mypool/fs2/fs3 compression # VALUE off on on SOURCE default local inherited from mypool/fs2
Para el sistema de archivos mypool, la propiedad compression est configurada como off y utiliza el origen default. Compression tiene el valor on en mypool/fs2 y mypool/fs2/fs3. El origen es local para mypool/fs2 y mypool/fs2/fs3 hereda su valor de mypool/fs2. 15. Salga de la sesin de zone1 para regresar a la zona global. # exit [Connection to zone 'zone1' pts/2 closed] # 16. Utilice el comando zfs list para ver los sistemas de archivos situados bajo mypool. Est el sistema de archivos mypool/fs2/fs3 visible en la zona global? Qu punto de montaje aparece para mypool/fs2/fs3? Tome nota del espacio indicado en estos sistemas de archivos. # zfs list -r mypool NAME mypool mypool/fs1 mypool/fs2 mypool/fs2/fs3 # USED 196K 24.5K 50K 24.5K AVAIL 66.9G 66.9G 66.9G 66.9G REFER 24.5K 24.5K 25.5K 24.5K MOUNTPOINT /mypool legacy /fsb/fs2 /fsb/fs2/fs3
S, el sistema de archivos mypool/fs2/fs3 est visible en la zona global. El directorio /fsb/fs2/fs3 aparece como punto de montaje para mypool/fs2/fs3. Los tres sistemas archivos hacen referencia a unos 25 Kbytes de datos. 17. Trate de cambiar al directorio /fsb/fs2/fs3. Qu ocurre y por qu? # cd /fsb/fs2/fs3 /fsb/fs2/fs3: does not exist # El intento fracasa porque el directorio /fsb/fs2/fs3 no existe en el contexto de la zona global.
16-118
Soluciones del ejercicio: introduccin al sistema de archivos ZFS 18. Cree un nuevo archivo de 50 Mbytes llamado /mypool/file_50m y compruebe si se ha creado.
# mkfile 50m /mypool/file_50m # ls -l /mypool total 102433 -rw------T 1 root root #
19. Utilice el comando zfs list para ver los sistemas de archivos situados bajo mypool. A qu sistemas de archivos hace referencia el nuevo archivo de 50 Mbytes? # zfs list NAME USED AVAIL REFER MOUNTPOINT mypool 50.2M 66.9G 50.0M /mypool mypool/fs1 24.5K 66.9G 24.5K legacy mypool/fs2 50K 66.9G 25.5K /fsb/fs2 mypool/fs2/fs3 24.5K 66.9G 24.5K /fsb/fs2/fs3 # El sistema de archivos mypool hace referencia al nuevo archivo de 50 Mbytes. 20. Utilice el comando zlogin para abrir la sesin en zone1.
# zlogin zone1 Last login: Wed Dec 27 14:47:23 on pts/2 Sun Microsystems Inc. SunOS 5.10 Generic January 2005 #
21. Abra el contenido de /mypool. Se puede acceder a file_50m en la zona no global? # ls /mypool /mypool: No such file or directory # No, ni el sistema de archivos /mypool ni file_50m estn accesibles en zone1. 22. Utilice el comando zfs list para ver los sistemas de archivos situados bajo mypool. Compruebe si los valores de USED y AVAIL son iguales a los que se ven desde la zona global. # zfs list NAME USED AVAIL REFER MOUNTPOINT mypool 50.2M 66.9G 50.0M /mypool mypool/fs2 50K 66.9G 25.5K /fsb/fs2 mypool/fs2/fs3 24.5K 66.9G 24.5K /fsb/fs2/fs3 # 23. Salga de la sesin de zone1 para regresar a la zona global. # exit [Connection to zone 'zone1' pts/2 closed] #
16-119
2.
3.
16-120
Soluciones del ejercicio: introduccin al sistema de archivos ZFS 4. Utilice el comando zoneadm para detener zone1. # zoneadm -z zone1 halt # 5. Utilice el comando zoneadm para desinstalar zone1.
# zoneadm -z zone1 uninstall Are you sure you want to uninstall zone zone1 (y/[n])? y #
6.
Utilice el comando zonecfg para borrar la configuracin de zone1. # zonecfg -z zone1 delete Are you sure you want to delete zone zone1 (y/[n])? y
16-121