Está en la página 1de 264

AIX Versión 7.

Gestión de dispositivos

IBM
Nota
Antes de utilizar esta información y el producto al que da soporte, lea la información de “Avisos” en la
página 245.

Esta edición se aplica a AIX Versión 7.1 y a todos los releases y modificaciones posteriores, a menos que se indique lo
contrario en nuevas ediciones.
© Copyright International Business Machines Corporation 2010, 2018.
Contenido

Acerca de este documento................................................................................... vii


Resaltado.................................................................................................................................................... vii
Sensibilidad a mayúsculas y minúsculas en AIX....................................................................................... vii
ISO 9000.....................................................................................................................................................vii

Gestión de dispositivos.......................................................................................... 1
Novedades....................................................................................................................................................1
Gestor de volúmenes lógicos.......................................................................................................................1
Conceptos del Gestor de volúmenes lógicos.........................................................................................2
Configuración del Gestor de volúmenes lógicos................................................................................... 5
Resolución de problemas de LVM........................................................................................................ 23
Almacenamiento de volúmenes lógicos................................................................................................... 35
Preparación de la instalación de un dispositivo.................................................................................. 35
Configuración de una unidad óptica de lectura/grabación................................................................. 36
Configuración de un gran número de dispositivos.............................................................................. 37
Adición de una unidad de soportes de almacenamiento extraíbles...................................................38
Soporte de reclamación de espacio para almacenamiento de volumen lógico................................. 38
Conceptos de almacenamiento de volumen lógico.............................................................................39
Configuración del Almacenamiento de volúmenes lógicos................................................................ 43
Estrategia de grupo de volúmenes...................................................................................................... 51
Estrategia de volúmenes lógicos......................................................................................................... 52
Implementación de una política de grupo de volúmenes...................................................................62
Espacio de paginación y memoria virtual..................................................................................................63
Conceptos de espacio de paginación.................................................................................................. 63
Configuración del espacio de paginación............................................................................................ 66
Resolución de problemas del espacio de paginación......................................................................... 69
Gestor de memoria virtual................................................................................................................... 70
Sistemas de archivos................................................................................................................................. 72
Conceptos del sistema de archivos..................................................................................................... 72
Configuración de sistemas de archivos............................................................................................... 81
Gestión del sistema de archivos.......................................................................................................... 81
Mantenimiento de sistemas de archivos............................................................................................. 84
Resolución de problemas de los sistemas de archivos.......................................................................94
Desbordamientos de disco.................................................................................................................. 96
Montaje...............................................................................................................................................100
Tipos de sistemas de archivos...........................................................................................................106
Directorios.......................................................................................................................................... 121
Gestor de carga de trabajo...................................................................................................................... 129
Conceptos de la gestión de la carga de trabajo.................................................................................130
Administración de Gestor de carga de trabajo.................................................................................. 136
Clases................................................................................................................................................. 148
Clasificaciones de procesos en Gestor de carga de trabajo............................................................. 152
Gestión de recursos con el Gestor de carga de trabajo.................................................................... 156
Configuración del Gestor de carga de trabajo................................................................................... 164
Resolución de problemas del Gestor de carga de trabajo................................................................ 166
API del Gestor de carga de trabajo....................................................................................................166
Ejemplos de clasificación, reglas y límites del Gestor de carga de trabajo......................................169
Mandatos del Gestor de carga de trabajo..........................................................................................172
Nodos de dispositivo............................................................................................................................... 172
Clases de dispositivos........................................................................................................................172

iii
Base de datos de configuración de dispositivos y gestión de dispositivos...................................... 173
Estados de los dispositivos................................................................................................................173
Códigos de ubicación de dispositivos..................................................................................................... 174
Códigos de ubicación de adaptadores...............................................................................................174
Códigos de ubicación de impresoras y trazadores............................................................................174
Códigos de ubicación de tty............................................................................................................... 175
Códigos de ubicación de dispositivos SCSI.......................................................................................175
Códigos de ubicación de Diales/Teclado LPF....................................................................................176
Códigos de ubicación de puerto multiprotocolo............................................................................... 176
Configuración de un adaptador de descarga de iSCSI........................................................................... 177
Configuración del adaptador iSCSI en AIX........................................................................................177
Actualización del archivo plano en un destino iSCSI........................................................................ 178
Adición de un destino iSCSI descubierto estáticamente a ODM...................................................... 178
Adición de destinos iSCSI descubiertos estáticamente desde un archivo plano a ODM ................178
Gestión de conexión en caliente PCI...................................................................................................... 179
Visualización de información de ranura de conexión en caliente PCI..............................................180
Eliminación de la configuración de adaptadores de comunicaciones PCI.......................................181
Extracción o sustitución de un adaptador de conexión en caliente PCI.......................................... 182
Adición de un adaptador de conexión en caliente PCI..................................................................... 182
E/S de múltiples vías de acceso.............................................................................................................. 183
Gestión de dispositivos con posibilidad de MPIO............................................................................. 184
Configuración de un dispositivo MPIO...............................................................................................186
Dispositivos de múltiples vías soportados........................................................................................ 186
Atributos de dispositivos MPIO......................................................................................................... 187
Atributos de módulos de control de vías de acceso......................................................................... 188
Atributos de réplica SAN....................................................................................................................191
Extracción del adaptador de comunicaciones.................................................................................. 193
Eliminación de la configuración de adaptadores de almacenamiento.............................................199
Eliminación de la configuración de adaptadores asíncronos............................................................199
Resolución de problemas de dispositivos de E/S............................................................................. 200
Configuración de dispositivo de destino................................................................................................. 203
Configuración de destinación de dispositivos FC y FCoE..................................................................203
Unidades de cintas.................................................................................................................................. 205
Atributos de unidades de cintas........................................................................................................ 205
Archivos especiales para unidades de cintas....................................................................................216
Soporte de dispositivo USB..................................................................................................................... 217
Soporte para unidades flash USB...................................................................................................... 218
Soporte para unidades Blu-ray USB de solo lectura.........................................................................218
Almacenamiento de antememoria de datos...........................................................................................219
Concepto............................................................................................................................................ 219
Ventajas.............................................................................................................................................. 220
Limitaciones....................................................................................................................................... 220
Componentes..................................................................................................................................... 221
Configuración..................................................................................................................................... 222
Gestión............................................................................................................................................... 226
Supervisión de estadísticas de antememoria................................................................................... 227
Nombres de inicio de sesión, ID del sistema y contraseñas.................................................................. 228
Inicio de sesión en el sistema operativo........................................................................................... 229
Inicio de la sesión más de una vez (mandato login)......................................................................... 229
Convertirse en otro usuario en un sistema (mandato su)................................................................. 230
Supresión de los mensajes de inicio de sesión................................................................................. 230
Finalización de la sesión del sistema operativo (mandatos exit y logout)....................................... 230
Visualización de los ID de usuario..................................................................................................... 230
Contraseñas....................................................................................................................................... 233
Resumen de mandatos para nombres de inicio de sesión, ID del sistema y contraseñas.............. 234
Common Desktop Environment.............................................................................................................. 235
Habilitación e inhabilitación del inicio automático del escritorio.....................................................235
Inicio manual de Common Desktop Environment............................................................................ 235

iv
Detención manual de Common Desktop Environment..................................................................... 236
Modificación del perfil de escritorio.................................................................................................. 236
Adición y eliminación de pantallas y terminales para Common Desktop Environment...................236
Visualización de la personalización del dispositivo para Common Desktop Environment.............. 238
Live Partition Mobility con Host Ethernet Adapters................................................................................241
Requisitos para Live Partition Mobility con HEA............................................................................... 241
Ejecución de Live Partition Mobility con HEA.................................................................................... 241
Reubicación de un adaptador para DLPAR............................................................................................. 243
Dispositivo de bucle de retorno.............................................................................................................. 243

Avisos............................................................................................................... 245
Consideraciones de política de privacidad............................................................................................. 246
Marcas registradas.................................................................................................................................. 247

Índice............................................................................................................... 249

v
vi
Acerca de este documento
Este documento proporciona a los usuarios y a los administradores del sistema información completa que
puede afectar a la selección de opciones al realizar tareas como la copia de seguridad y la restauración
del sistema, la gestión del almacenamiento lógico y físico, el redimensionamiento del espacio de páginas
adecuado, etc. Proporciona información completa acerca de cómo realizar tareas como la gestión de
volúmenes lógicos, almacenamiento y recursos. Los usuarios del sistema pueden obtener información de
cómo realizar tareas como, por ejemplo, la ejecución de mandatos, el manejo de procesos, el manejo de
archivos y directorios y la impresión básica.
Otros temas útiles para los usuarios y los administradores del sistema son la creación y
redimensionamiento del espacio de paginación, la gestión de la memoria virtual, la copia de seguridad y
restauración del sistema, la gestión del hardware y los seudodispositivos, la utilización del Controlador de
recursos del sistema (SRC), la protección de archivos, la utilización de soportes de almacenamiento, la
personalización de archivos de entorno y la escritura de scripts de shell. Este documento también está
disponible en el CD de documentación que se suministra con el sistema operativo.

Resaltado
Se utilizan los siguientes convenios de resaltado en este documento:

Negrita Identifica mandatos, subrutinas, palabras clave, archivos, estructuras, directorios y


otros elementos cuyos nombres están predefinidos por el sistema. También
identifica objetos gráficos como botones, etiquetas e iconos que el usuario
selecciona.
Cursiva Identifica parámetros cuyos nombres o valores reales deben ser proporcionados por
el usuario.
Identifica ejemplos de valores determinados de datos, ejemplos de texto similar al
Monoespaciado
que el usuario puede ver visualizado, ejemplos de porciones de código de programa
similar al que el usuario podría haber escrito como programador, mensajes del
sistema o información que debe escribir el propio usuario.

Sensibilidad a mayúsculas y minúsculas en AIX


Todos los elementos del sistema operativo AIX son sensibles a las mayúsculas y minúsculas, lo que
significa que distingue entre las letras mayúsculas y minúsculas. Por ejemplo, puede utilizar el mandato
ls para listar archivos. Si escribe LS, el sistema responde que el mandato no se ha encontrado. Del
mismo modo, FILEA, FiLea y filea son tres nombres de archivo distintos, aunque estén en el mismo
directorio. Para evitar que se realicen acciones indeseables, asegúrese siempre de utilizar la combinación
correcta de mayúsculas y minúsculas.

ISO 9000
En el desarrollo y la fabricación de este producto se han utilizado sistemas de calidad registrados que
cumplen la norma ISO 9000.

© Copyright IBM Corp. 2010, 2018 vii


viii AIX Versión 7.2: Gestión de dispositivos
Gestión de dispositivos
Puede utilizar mandatos para gestionar los diferentes dispositivos que están disponibles en AIX. Algunos
de los dispositivos que puede gestionar incluyen el Gestor de volúmenes lógicos, sistemas de archivos,
unidades de cintas e impresoras.

Novedades
Obtenga información nueva o con cambios importantes de la recopilación de temas gestión de
dispositivos y sistemas operativos.

Cómo ver las novedades o los cambios


En este archivo PDF, puede ver etiquetas de revisión (>| y |<) que rodean a la información nueva y la
modificada.

Febrero 2018
La siguiente información es un resumen de las actualizaciones realizadas a esta recopilación de temas:
• Se ha actualizado la descripción para configurar un adaptador de descarga de iSCSI en el tema
“Configuración de un adaptador de descarga de iSCSI” en la página 177.

Diciembre de 2017
La siguiente información es un resumen de las actualizaciones realizadas a esta recopilación de temas:
• En el tema “Limitaciones para el almacenamiento de datos en antememoria” en la página 220, se ha
actualizado una limitación sobre el almacenamiento de datos en antememoria.

Octubre 2017
La siguiente información es un resumen de las actualizaciones realizadas a esta recopilación de temas:
• Se ha añadido el tema “Soporte de reclamación de espacio para almacenamiento de volumen lógico” en
la página 38.
• Se ha actualizado la información sobre dispositivos USB admitidos en el sistema operativo AIX en el
tema “Soporte de dispositivo USB” en la página 217.

Junio de 2017
La siguiente información es un resumen de las actualizaciones realizadas a esta recopilación de temas:
• Se ha añadido información acerca de la supervisión de estadísticas en el tema “Supervisión de
estadísticas de antememoria” en la página 227.
• Se ha añadido información acerca del mandato lsmpio en el tema “Gestión de dispositivos con
posibilidad de MPIO” en la página 184.

Gestor de volúmenes lógicos


El conjunto de mandatos del sistema operativo, las subrutinas de biblioteca y otras herramientas que
permiten establecer y controlar el almacenamiento de volúmenes lógicos se denomina Gestor de
volúmenes lógicos (LVM).
El LVM controla los recursos de disco correlacionando los datos entre una vista lógica más simple y
flexible de espacio de almacenamiento y los discos físicos reales. Para ello, el LVM utiliza una capa de

© Copyright IBM Corp. 2010, 2018 1


código de controlador de dispositivo que se ejecuta por encima de los controladores de dispositivo de
disco tradicionales.
LVM consiste en un controlador de dispositivo de volúmenes lógicos (LVDD) y la biblioteca de la interfaz
de subrutinas de LVM. El controlador de dispositivo de volúmenes lógicos (LVDD) es un controlador de
pseudodispositivo que gestiona y procesa todas las E/S. Convierte las direcciones lógicas en direcciones
físicas y envía las peticiones de E/S a controladores de dispositivo específicos. La biblioteca de la interfaz
de subrutinas de LVM contiene rutinas que los mandatos de gestión del sistema utilizan para realizar las
tareas de gestión del sistema para volúmenes lógicos y físicos de un sistema.

Conceptos del Gestor de volúmenes lógicos


Antes de empezar a utilizar el Gestor de volúmenes lógicos, debe conocer la mecánica y la terminología
básicas.

Proceso de activación
El proceso de activación es uno de los mecanismos que el LVM utiliza para garantizar que un grupo de
volúmenes está preparado para utilizarlo y que contiene los datos más actualizados.
Los mandatos varyonvg y varyoffvg activan o desactivan (hacen que estén disponibles o no
disponibles para el uso) un grupo de volúmenes que ha definido en el sistema. El grupo de volúmenes se
debe activar antes de que el sistema pueda acceder a él. Durante el proceso de activación, el LVM lee los
datos de gestión de los volúmenes físicos definidos en el grupo de volúmenes. Estos datos de gestión,
que incluyen un área de descriptor de grupo de volúmenes (VGDA) y un área de estado de grupo de
volúmenes (VGSA), están almacenados en cada volumen físico del grupo de volúmenes.
La VGDA contiene información que describe la correlación de particiones físicas con particiones lógicas
para cada volumen lógico del grupo de volúmenes, así como otra información vital, incluyendo la
indicación de fecha y hora. La VGSA contiene información como, por ejemplo, las particiones físicas que
están obsoletas y los volúmenes físicos que faltan (es decir, no disponibles o activos) cuando se intenta
una operación de activación en un grupo de volúmenes.
Si la operación de activación no puede acceder a uno o varios de los volúmenes físicos definidos en el
grupo de volúmenes, el mandato visualiza los nombres de todos los volúmenes físicos definidos para ese
grupo de volúmenes y su estado. Esto ayuda a tomar la decisión de si debe desactivar este grupo de
volúmenes.

Quórum
El quórum es uno de los mecanismos que el LVM utiliza para garantizar que un grupo de volúmenes está
preparado para utilizarlo y que contiene los datos más actualizados.
Un quórum es un voto del número de áreas de descriptor de grupo de volúmenes y áreas de estado de
grupo de volúmenes (VGDA/VGSA) que están activas. Un quórum garantiza la integridad de los datos de
las áreas VGDA/VGSA en caso de una anomalía de disco. Cada disco físico en un grupo de volúmenes
tiene como mínimo una VGDA/VGSA. Cuando se crea un grupo de volúmenes en un solo disco, tiene
inicialmente dos áreas VGDA/VGSA que residen en el disco. Si un grupo de volúmenes consta de dos
discos, un disco sigue teniendo dos áreas VGDA/VGSA, pero el otro sólo tiene una VGDA/VGSA. Cuando el
grupo de volúmenes se compone de tres o más discos, sólo se asigna una VGDA/VGSA a cada disco.
Un quórum se pierde cuando al menos la mitad de los discos (lo que significa sus áreas VGDA/VGSA) no
pueden ser leídos por el LVM. En un grupo de volúmenes de dos discos, si se pierde el disco con una sola
VGDA/VGSA, todavía existe quórum porque aún se pueden alcanzar dos de las tres las áreas VGDA/VGSA.
Si se pierde el disco con dos áreas VGDA/VGSA, esta afirmación ya no es verdadera. Cuantos más discos
compongan el grupo de volúmenes, menor probabilidad de que se pierda el quórum cuando un disco
falle.
Cuando se pierde el quórum, el grupo de volúmenes se desactiva automáticamente para que el LVM ya no
pueda acceder a los discos. Esto impide más E/S de disco para ese grupo de volúmenes por lo que no se
pierden datos ni se supone que se han grabado cuando se produce un problema físico. Además, como
resultado de la desactivación, se notifica al usuario en el registro de errores que se ha producido un error
de hardware y que necesita servicio.

2 AIX Versión 7.2: Gestión de dispositivos


Hay casos en que es aconsejable continuar utilizando el grupo de volúmenes aunque se haya perdido el
quórum. En estos casos, se puede desactivar la comprobación de quórum para el grupo de volúmenes.
Este tipo de grupo de volúmenes se denomina grupo de volúmenes sin quórum. El caso más común de un
grupo de volúmenes sin quórum se produce cuando los volúmenes lógicos se han replicado. Cuando se
pierde un disco, los datos no se pierden si una copia del volumen lógico reside en un disco que no está
inhabilitado y se puede acceder. Sin embargo, puede haber casos de grupos de volúmenes sin quórum,
replicados o no replicados, en que los datos (incluyendo las copias) residan en el disco o discos que no
están disponibles. En estos casos, es posible que los datos no estén accesibles aunque el grupo de
volúmenes continúe estando activo.

Agrupaciones de réplicas
Las agrupaciones de réplicas permiten dividir los volúmenes físicos de un grupo de volúmenes en
distintas agrupaciones.
Una agrupación de réplicas se compone de uno o varios volúmenes físicos. Cada volumen físico sólo
puede pertenecer a una agrupación de réplicas a la vez. Cuando se crea un volumen lógico, cada copia del
volumen lógico que se está creando puede asignarse a una agrupación de réplicas. Las copias de
volúmenes lógicos que se asignan a una agrupación de réplicas sólo asignarán particiones de los
volúmenes físicos de dicha agrupación de réplicas. Esto permite restringir los discos que puede utilizar
una copia de volumen lógico. Sin las agrupaciones de réplicas, la única manera de restringir qué volumen
físico se utiliza para la asignación cuando de crea o se amplía un volumen lógico es utilizar un archivo de
correlaciones. Por tanto, la utilización de agrupaciones de réplicas simplifica considerablemente este
proceso. Las agrupaciones de réplicas pueden crearse con el mandato extendvg o el mandato chpv.

Debe especificar un nombre de agrupación de réplicas al crear una nueva agrupación de réplicas. Los
nombres de las agrupaciones de réplicas deben seguir las reglas siguientes:
• Solo pueden contener caracteres alfanuméricos o los caracteres _ (subrayado), - (signo menos) o .
(punto).
• Deben tener como máximo 15 caracteres.
• Deben ser exclusivos en el grupo de volúmenes.
Una vez que las agrupaciones de réplicas se hayan utilizado en un grupo de volúmenes, el grupo de
volúmenes ya no podrá importarse a una versión de AIC que no dé soporte a agrupaciones de réplicas.
Esto incluye todas las versiones de AIX anteriores a la 6.1.1.0. Además, para poder utilizar agrupaciones
de réplicas con el LVM en modalidad simultánea mejorada, todos los nodos del clúster deben dar soporte
a las agrupaciones de réplicas.

Rigor de la agrupación de réplicas


El rigor de la agrupación de réplicas puede utilizarse para aplicar restricciones más estrictas sobre el uso
de la agrupación de réplicas. El rigor de la agrupación de réplicas puede tener uno de los tres valores
siguientes:
off
Cuando el rigor de la agrupación de réplicas está establecido en off, no se aplica ninguna restricción
sobre el uso de la agrupación de réplicas. Es el valor predeterminado.
on
Cuando el rigor de la agrupación de réplicas está establecido en on, cada copia del volumen lógico
creada en el grupo de volúmenes debe asignarse a una agrupación de réplica.
super
Cuando el rigor de la agrupación de réplicas está establecido en super, se aplican las siguientes
restricciones:
• Los volúmenes físicos locales y remotos no pueden pertenecer a la misma agrupación de réplicas.
Nota: Para obtener más información sobre los volúmenes físicos locales y remotos, consulte la
documentación del GLVM HACMP/XD.
• Puede haber un máximo de tres agrupaciones de réplicas en un grupo de volúmenes.

Gestión de dispositivos 3
• Cada agrupación de réplicas debe contener como mínimo una copia de cada volumen lógico del
grupo de volúmenes.

Gestor de volúmenes lógicos geográficos


El Gestor de volúmenes lógicos geográficos (GLVM) le permite mantener una copia replicada de los datos
en una ubicación distante geográficamente.
El GLVM puede ayudarle a proteger su negocio frente a un siniestro ya que replica los datos más
importantes en un sitio remoto de recuperación de siniestros. Si un siniestro, como por ejemplo un
incendio o unas inundaciones, destruyese los datos del sitio de producción, tendría una copia de
seguridad de los datos en el sitio de recuperación de siniestros.
Los datos se replican a través de redes TCP/IP estándar. No es necesario que los sitios de producción y de
recuperación se encuentren en la misma red física. Se permiten direccionadores y pasarelas entre los dos
sitios. En lugar cables de disco muy largos, se utiliza la red TCP/IP y el controlador de dispositivo RPV
(Volumen físico remoto) para acceder a los discos remotos.
El usuario configura los discos distantes geográficamente como volúmenes físicos remotos y luego
combina estos volúmenes físicos remotos con los volúmenes físicos locales para formar grupos de
volúmenes replicados geográficamente. Estos grupos de volúmenes se gestionan mediante el Gestor de
volúmenes lógicos (LVM) y funcionan de forma parecida a los grupos de volúmenes normales. El GLVM
admite la réplica remota síncrona y la asíncrona

Grupos de volúmenes sin quórum


El Gestor de volúmenes lógicos (LVM) desactiva automáticamente el grupo de volúmenes cuando falta el
quórum de áreas de descriptor de grupo de volúmenes (VGDA) o áreas de estado de grupo de volúmenes
(VGSA). Sin embargo, puede elegir una opción que permita al grupo permanecer en línea siempre que
haya un par de VGDA/VGSA intacto. Esta opción produce un grupo de volúmenes sin quórum.
El LVM necesita acceder a todos los discos de los grupos de volúmenes sin quórum antes de permitir la
reactivación. Esto garantiza que la VGDA y la VGSA están actualizadas.
Es aconsejable producir un grupo de volúmenes sin quórum en los sistemas en los que cada volumen
lógico tenga como mínimo dos copias. Si se produce una anomalía de disco, el grupo de volúmenes
permanece activo siempre que haya un disco activo.
Nota: Los grupos definidos por el usuario y rootvg pueden funcionar en estado sin quórum, pero los
métodos utilizados para configurar los grupos de volúmenes definidos por el usuario y los grupos de
volúmenes rootvg sin quórum, así como la recuperación después de anomalías de hardware son
diferentes. Asegúrese de utilizar el método correcto para el grupo de volúmenes adecuado.
Aunque utilice grupos de volúmenes sin quórum, es posible perder quórum y ver el mensaje siguiente en
la salida del mandato errpt:

PERDIDO QUÓRUM, LVM CIERRA GRUPO DE VOLÚMENES.

Este mensaje se produce cuando faltan todos los volúmenes físicos y el LVM desactiva
automáticamente el grupo de volúmenes.
El mensaje indica QUÓRUM PERDIDO porque al inhabilitar el quórum en un grupo de volúmenes reduce el
requisito de quórum a 1. Puede utilizar el mandato lsvg nombregv para visualizar el valor de quórum del
campo QUÓRUM:. En caso de que falten todos los volúmenes físicos, se viola este requisito de quórum
mínimo, dando como resultado el mensaje de pérdida de quórum y una desactivación automática del
grupo de volúmenes.

Conversión de un grupo de volúmenes a un estado sin quórum


Puede cambiar un grupo de volúmenes al estado sin quórum para que los datos estén disponibles
continuamente aunque no haya quórum.
Este procedimiento se utiliza con frecuencia para sistemas con las configuraciones siguientes:
• Un grupo de volúmenes de dos discos en el que los volúmenes lógicos están replicados
• Un grupo de volúmenes de tres discos en el que los volúmenes lógicos están replicados una o dos veces

4 AIX Versión 7.2: Gestión de dispositivos


Cuando un grupo de volúmenes bajo estas circunstancias puede funcionar en estado sin quórum, aunque
se produzca una anomalía de disco, el grupo de volúmenes permanece activo siempre que al menos un
disco del grupo de volúmenes esté activo.
Para que sea posible la recuperación de grupos sin quórum, asegúrese de lo siguiente:
• Si el sistema utiliza sistemas de archivos JFS o JFS2, replique el volumen lógico del registro de JFS.
• Coloque las copias replicadas en discos separados. Si no está seguro de la configuración, escriba el
mandato siguiente para comprobar la ubicación física (PV1, PV2 y PV3) de cada partición lógica. (Para
colocar copias en discos separados, las columnas PV1, PV2 y PV3 deben contener números de hdisk
diferentes.)

lslv -m NombreVL

Si un volumen lógico sólo tiene copias que residen en el mismo disco, y este disco no está disponible, el
volumen no estará disponible para el usuario sin tener en cuenta el estado de quórum o sin quórum de
su grupo de volúmenes.
Los grupos de volúmenes definidos por el usuario y rootvg pueden funcionar en estado sin quórum, pero
sus métodos de configuración y recuperación son diferentes.
Para activar un grupo de volúmenes definido por el usuario sin quórum, se debe poder acceder a todos los
volúmenes físicos del grupo de volúmenes o la activación fallará. Puesto que los grupos de volúmenes sin
quórum permanecen en línea hasta que el último disco está inaccesible, es necesario que cada disco esté
accesible en el momento de la activación.
Atención: Cuando falta un disco asociado al grupo de volúmenes rootvg, evite encender el sistema a
menos que el disco que falta no se pueda reparar. El Gestor de volúmenes lógicos (LVM) siempre utiliza el
distintivo -f para forzar la activación de rootvg sin quórum; esta operación implica un riesgo. El gestor de
volúmenes lógicos (LVM) debe forzar la activación porque el sistema operativo no puede iniciarse a menos
que se active rootvg. Es decir, LVM realiza un intento final de activar rootvg sin quórum aunque sólo se
pueda acceder a un disco.
Conceptos relacionados
Alta disponibilidad en caso de anomalía del adaptador o la fuente de alimentación
Como protección contra las anomalías del adaptador o la fuente de alimentación, según los requisitos,
realice una o varias de las acciones siguientes.

Configuración del Gestor de volúmenes lógicos


El Gestor de volúmenes lógicos (LVM) se instala con el sistema operativo base y no necesita más
configuración. Sin embargo, se deben configurar y definir los discos como volúmenes físicos para que el
LVM los pueda utilizar.
Tareas relacionadas
Definición de un volumen lógico sin formato para una aplicación
Un volumen lógico sin formato es un área de espacio de disco física o lógica que se encuentra bajo el
control directo de una aplicación, por ejemplo, una base de datos o una partición, en lugar de bajo el
control directo del sistema de archivos o un sistema de archivos.

Mandatos y vías rápidas de mantenimiento de LVM


Las tareas más simples que deberá realizar para mantener las entidades que LVM controla (volúmenes
físicos y lógicos, grupos de volúmenes y sistemas de archivos) se agrupan en la tabla siguiente.

Tabla 1. Tareas de gestión de volúmenes lógicos y almacenamiento


Tarea Vía rápida de SMIT Mandato o archivo
Activar un grupo de volúmenes smit varyonvg
Añadir un disco fijo sin datos a un smit extendvg
grupo de volúmenes existente

Gestión de dispositivos 5
Tabla 1. Tareas de gestión de volúmenes lógicos y almacenamiento (continuación)
Tarea Vía rápida de SMIT Mandato o archivo
Añadir un disco fijo sin datos a un smit mkvg
grupo de volúmenes nuevo
Añadir un volumen lógicoNota 1 smit mklv
Añadir un grupo de volúmenes smit mkvg
Añadir y activar un grupo de smit mkvg
volúmenes nuevo
Cambiar un volumen lógico para smit chlv1
que utilice la asignación de datos
Cambiar el nombre de un grupo 1. smit varyoffvg 1. varyoffvg
de volúmenesNota 2 NombreGVAnterior
2. smit exportvg
3. smit importvg 2. exportvg NombreGVAnterior

4. smit mountfs 3. importvg NombreGVNuevo


4. mount all

Cambiar un grupo de volúmenes smit chvg


para que utilice la activación
automática
Cambiar o establecer políticas de smit chlv1
volumen lógico
Copiar un volumen lógico en un smit cplv
nuevo volumen lógicoNota 3
Copiar un volumen lógico en un smit cplv
volumen lógico existente del
mismo tamañoAtención 1
Copiar un volumen lógico en un No utilice SMITAtención 2 1. Cree el volumen lógico. Por
volumen lógico existente de ejemplo: mklv -y hdiskN vg00
tamaño inferiorAtención 1 Nota 3 4
2. Cree el nuevo sistema de
archivos en el nuevo volumen
lógico. Por ejemplo: crfs -v jfs
-d hdiskN -m /doc -A yes
3. Monte el sistema de archivos.
Por ejemplo: mount /doc
4. Cree el directorio en el nuevo
punto de montaje. Por
ejemplo: mkdir /doc/options
5. Transfiera el sistema de
archivos del volumen lógico
de origen al de destino. Por
ejemplo: cp -R /usr/adam/
oldoptions/* \ /doc/options

Copiar un volumen lógico en un smit cplv


volumen lógico existente de
tamaño superiorAtención 1

6 AIX Versión 7.2: Gestión de dispositivos


Tabla 1. Tareas de gestión de volúmenes lógicos y almacenamiento (continuación)
Tarea Vía rápida de SMIT Mandato o archivo
Desactivar un grupo de smit varyoffvg
volúmenes
Habilitar la verificación de smit chlv1
grabación y cambiar la política de
planificación
Aumentar el tamaño máximo de smit chlv1
un volumen lógico
Aumentar el tamaño de un smit extendlv
volumen lógico
Listar todos los volúmenes smit lslv2
lógicos por grupo de volúmenes
Listar todos los volúmenes físicos smit lspv2
del sistema
Listar todos los grupos de smit lsvg2
volúmenes
Listar el estado, los volúmenes smit lspv
lógicos o las particiones de un
volumen físico
Listar el contenido de un grupo smit lsvg1
de volúmenes
Listar el estado o la correlación smit lslv
de un volumen lógico
Replicar un volumen lógico con o smit mklvcopy
sin asignación de datos
Desactivar un disco extraíble smit offdsk Sólo disponible con la
característica de extracción en
caliente
Activar un disco extraíble smit ondsk Sólo disponible con la
característica de extracción en
caliente
Eliminar la réplica de un grupo de smit unmirrorvg
volúmenes
Eliminar un grupo de volúmenes smit reducevg2
Reorganizar un grupo de smit reorgvg
volúmenes
Desconfigurar y desactivar un smit rmvdsk1 o smit rmvdsk
disco después smit opendoor

Atención:
1. La utilización de este procedimiento para copiar en un volumen lógico existente sobregrabará
los datos de ese volumen sin solicitar la confirmación del usuario.
2. No utilice el procedimiento de SMIT ni el mandato cplv para copiar un volumen lógico mayor
en uno más pequeño. Al hacerlo se dañará el sistema de archivos porque algunos de los datos
(incluyendo el superbloque) no se copia en el volumen lógico más pequeño.

Gestión de dispositivos 7
Nota:
1. Tras crear un volumen lógico, el estado será cerrado porque ninguna estructura de LVM utiliza ese
volumen lógico. Permanecerá cerrado hasta que se monte un sistema de archivos en el volumen lógico
o que una E/S en bruto abra el volumen lógico.
2. No puede cambiar el nombre, importar ni exportar rootvg.
3. Debe tener suficiente almacenamiento de acceso directo para duplicar un volumen lógico específico.

Adición de discos mientras el sistema permanece disponible


El siguiente procedimiento describe cómo activar y configurar un disco utilizando la característica de
extracción en caliente, que permite añadir discos sin apagar el sistema.
Puede añadir el disco para almacenamiento adicional o para corregir una anomalía de disco, por ejemplo.
Esta característica sólo está disponible en determinados sistemas.
1. Instale el disco en una ranura libre del archivador. Para obtener información detallada acerca del
procedimiento de instalación, consulte la guía de servicio para la máquina.
2. Active el nuevo disco escribiendo la siguiente vía rápida en la línea de mandatos:

smit ondsk

En este punto, el disco se ha añadido al sistema pero todavía no se puede utilizar. La acción que debe
realizar a continuación depende de si el nuevo disco contiene datos.
• Si el disco no tiene datos, añádalo como volumen físico a un grupo de volúmenes utilizando lo siguiente:
– Para añadir el disco a un grupo de volúmenes existente, escriba la siguiente vía rápida en la línea de
mandatos:

smit extendvg

– Para añadir el disco a un nuevo grupo de volúmenes, escriba la siguiente vía rápida en la línea de
mandatos:

smit mkvg

• Si el disco contiene datos, importe los datos.

Cambio de nombre de un volumen lógico


El siguiente procedimiento describe cómo cambiar el nombre de un volumen lógico sin perder los datos
que contiene.
En los ejemplos siguientes, se cambia el nombre de volumen lógico de lv00 a lv33.
1. Desmonte todos los sistemas de archivos asociados al volumen lógico, para ello escriba:

unmount /nombreSA

Donde nombreSA es el nombre completo de un sistema de archivos.


Nota:
a. El mandato unmount falla si el sistema de archivos que intenta desmontar se está utilizando
actualmente. El mandato unmount sólo se ejecuta si ningún archivo del sistema de archivos está
abierto y ningún directorio actual del usuario se encuentra en ese dispositivo.
b. Otro nombre para el mandato unmount es umount. Los nombres se pueden intercambiar.
2. Para cambiar el nombre del volumen lógico, escriba:

chlv -n nombreVLnuevo nombreVLanterior

8 AIX Versión 7.2: Gestión de dispositivos


Donde el distintivo -n especifica el nombre del nuevo volumen lógico (nombreVLnuevo) y
nombreVLanterior es el nombre que desea cambiar. Por ejemplo:

chlv -n lv33 lv00

Nota: Si cambia el nombre de un registro cronológico JFS o JFS2, el sistema le solicita que ejecute el
mandato chfs en todos los sistemas de archivos que utilizan el dispositivo de registro cronológico
cuyo nombre se ha cambiado.
3. Vuelva a montar los sistemas de archivos que ha desmontado en el paso “1” en la página 8
escribiendo:

mount /test1

En este punto, se ha cambiado el nombre del volumen lógico y se puede utilizar.

Copia de un volumen lógico en otro volumen físico


Según las necesidades, hay varias maneras de copiar un volumen lógico en otro volumen físico mientras
se conserva la integridad del sistema de archivos.
Hay varios métodos de copiar un volumen lógico o JFS en otro volumen físico. Elija el método que sirva
mejor a sus finalidades.

Copia de un volumen lógico


El método más simple es utilizar el mandato cplv para copiar el volumen lógico original y crear un nuevo
volumen lógico en el volumen físico de destino.
1. Deje de utilizar el volumen lógico. Desmonte el sistema de archivos, si procede, y detenga cualquier
aplicación que acceda al volumen lógico.
2. Seleccione un volumen físico que tenga capacidad para contener todos los datos del volumen lógico
original.

Atención: Si copia un volumen lógico mayor que contiene datos en uno más pequeño puede
dañar el sistema de archivos porque se pueden perder algunos datos (incluyendo el
superbloque).
3. Copie el volumen lógico original (en este ejemplo, se denomina lv00) y cree el nuevo, utilizando el
mandato siguiente:
Nota: El siguiente mandato cplv falla si crea un nuevo volumen lógico y el grupo de volúmenes se
activa en modalidad simultánea.

cplv lv00

4. Monte el sistema de archivos, si procede, y reinicie las aplicaciones para empezar a utilizar el volumen
lógico.
En este punto, se puede utilizar la copia del volumen lógico.

Copia de un volumen lógico mientras se puede utilizar el volumen lógico original


Si el entorno requiere el uso continuado del volumen lógico original, puede utilizar el mandato
splitlvcopy para copiar el contenido, tal como se muestra en el ejemplo siguiente.
1. Para replicar el volumen lógico, utilice la siguiente vía rápida de SMIT:

smit mklvcopy

2. Deje de utilizar el volumen lógico. Desmonte el sistema de archivos, si procede, y detenga o ponga en
modalidad de inmovilización cualquier aplicación que acceda al volumen lógico.

Atención: El siguiente paso utiliza el mandato splitlvcopy. Cierre siempre los volúmenes
lógicos antes de separarlos y desmonte cualquier sistema de archivos que contenga antes de
utilizar este mandato. La separación de un volumen lógico abierto puede dañar los sistemas de

Gestión de dispositivos 9
archivos y provocar incoherencia entre el volumen lógico original y la copia si varios procesos
acceden simultáneamente al volumen lógico.
3. Con autorización de root, copie el volumen lógico original (vlant) en el nuevo volumen lógico (nuevl)
utilizando el mandatos siguiente:

splitlvcopy -y nuevl vlant

El distintivo -y designa el nombre del nuevo volumen lógico. Si el volumen vlant no tiene un bloque
de control de volumen lógico, el mandato splitlvcopy se completa satisfactoriamente pero genera
el mensaje de que el volumen nuevl se ha creado sin un bloque de control de volumen lógico.
4. Monte el sistema de archivos, si procede, y reinicie las aplicaciones para empezar a utilizar el volumen
lógico.
En este punto, se puede utilizar la copia del volumen lógico.

Copia de un volumen lógico sin formato en otro volumen físico


Para copiar un volumen lógico sin formato en otro volumen físico, siga estos pasos:
1. Cree una copia replicada del volumen lógico en un volumen físico nuevo del grupo de volúmenes
utilizando el mandato siguiente:

mklvcopy nombre_VolLóg 2 nombre_VolFís_nuevo

2. Sincronice las particiones en la copia replicada nueva utilizando el mandato siguiente:

syncvg -l nombre_VolLóg

3. Elimine la copia del volumen lógico del volumen físico utilizando el mandato siguiente:

rmlvcopy nombre_VolLóg 1 nombre_VolFís_anterior

En este punto, se puede utilizar la copia del volumen lógico sin formato.

Creación de un registro cronológico del sistema de archivos en un disco dedicado para un grupo de
volúmenes definidos por el usuario
Un registro cronológico del sistema de archivos JFS o JFS2 es una lista con formato de
registros de transacciones del sistema de archivos. El registro cronológico garantiza la integridad del
sistema de archivos (pero no necesariamente la integridad de los datos) en caso de que el sistema se
desactive antes de que las transacciones se hayan completado.
Se crea un disco dedicado en hd8 para rootvg cuando se instala el sistema. El siguiente procedimiento
ayuda a crear un registro cronológico JFS en un disco separado para otros grupos de volúmenes. Cuando
se crea un registro cronológico JFS2, el procedimiento necesita los cambios siguientes:
• El tipo de dispositivo de registro cronológico es jfs2log.
• El mandato logform necesita una opción -V jfs2 para especificar un dispositivo de registro
cronológico JFS2.
• Los mandatos crfs deben especificar jfs2 en lugar de jfs.
Nota: No hay ningún requisito para un registro cronológico JFS2 para estar en un disco separado como el
sistema de archivos. El único requisito es que los dispositivos de registro deben estar en el mismo grupo
de volúmenes que el sistema de archivos. En este procedimiento, el registro cronológico JFS2 debe estar
en un disco separado para una mejora en el rendimiento.
La creación de un archivo de registro cronológico del sistema de archivos para el usuario- grupos de
volúmenes definidos puede mejorar el rendimiento bajo determinadas condiciones, como por ejemplo, si
dispone de un servidor NFS y desea que las transacciones para este servidor se procesen sin competición
con otros procesos.
Puede utilizar el siguiente procedimiento, que crea un grupo de volúmenes (fsvg1) con dos volúmenes
físicos (hdisk1 y hdisk2). El sistema de archivos se encuentra en hdisk2 (un 256 MB sistema de archivos
que está montado en /u/myfs) y el registro cronológico está en hdisk1. De forma predeterminada, el

10 AIX Versión 7.2: Gestión de dispositivos


tamaño del registro cronológico es de 4 MB. Puede colocar poco- utiliza programas, por ejemplo, /blven
el mismo volumen físico que el registro sin que ello afecte el rendimiento.
Para crear un registro cronológico JFS para un grupo de volúmenes definido por el usuario utilizando
SMIT y la interfaz de línea de mandatos, siga los siguientes pasos:
1. Añada el nuevo grupo de volúmenes (en este ejemplo, fsvg1) utilizando la vía rápida de SMIT:

smit mkvg

2. Añada un nuevo volumen lógico a este grupo de volúmenes utilizando la vía rápida de SMIT:

smit mklv

3. En la pantalla Añadir un volumen lógico, añada sus datos a los campos siguientes. Por ejemplo:

NOMBRE de volumen lógico fsvg1log

Número de PARTICIONES LÓGICAS 1

Nombre de VOLUMEN FÍSICO hdisk1

TIPO de volumen lógico jfslog

POSICIÓN en volumen físico center

4. Tras establecer estos campos, pulse en Intro para aceptar lo cambio y salir de SMIT.
5. Escriba el mandato siguiente en una línea de mandatos:

/usr/sbin/logform /dev/fsvg1log

6. Cuando reciba la siguiente solicitud, escriba s y pulse Intro:

Destruir /dev/fsvg1log

A pesar de lo que indica esta solicitud, no se destruye nada. Cuando responde y a esta solicitud, el
sistema formatea el volumen lógico para el registro cronológico JFS a fin de que pueda registrar las
transacciones del sistema de archivos.
7. Añada otro volumen lógico utilizando la siguiente vía de acceso rápida SMIT:

smit mklv

8. Escriba el nombre del mismo grupo de volúmenes que ha utilizado en el paso 2 (fsvg1 en este
ejemplo). En la pantalla Volúmenes lógicos, añada sus datos a los campos siguientes. Recuerde
designar un volumen físico para este volumen lógico diferente al del paso 3. Por ejemplo:

NOMBRE de volumen lógico fslv1

Número de PARTICIONES LÓGICAS 64

Nombre de VOLUMEN FÍSICO hdisk2

TIPO de volumen lógico jfs

Tras establecer estos campos, pulse en Intro para aceptar lo cambio y salir de SMIT.
9. Añada un sistema de archivos al nuevo volumen lógico, designe el registro cronológico y monte el
sistema de archivos nuevo, utilizando la siguiente secuencia de mandatos:

crfs -v jfs -d NombreVolLóg -m NombreSisArchivos -a logname=VíaRegSA

mount NombreSisArchivos

Gestión de dispositivos 11
Donde LogVolName es el nombre del volumen lógico que ha creado en el paso 2; FileSysName es el
nombre del sistema de archivos que desea montar en este volumen lógico; y FSLogPath es el nombre
del volumen lógico que ha creado en el paso 2. Por ejemplo:

crfs -v jfs -d fslv1 -m /u/myfs -a logname=/dev/fsvg1log


mount /u/myfs

10. Para verificar que ha configurado correctamente el sistema de archivos y el registro cronológico,
escriba el mandato siguiente (sustituyendo el nombre de grupo de volúmenes):

lsvg -l fsvg1

La salida muestra los volúmenes lógicos que ha creado, con sus tipos de sistemas de archivos, como
en el ejemplo siguiente:

NOMBRE VL TIPO ...


/dev/fsvg1log jfslog ...
fslv1 jfs ...

Ha creado un grupo de volúmenes que contiene como mínimo dos volúmenes lógicos en volúmenes
físicos separados y uno de estos volúmenes lógicos contiene el registro cronológico del sistema de
archivos.
Nota: Para proporcionar la redundancia, puede proporcionar la réplica en nivel de volumen lógico para el
dispositivo de registro JFS2. Sin embargo, proporcionar la réplica no es una práctica común y no es
necesaria.

Importación o exportación de un grupo de volúmenes


La tabla siguiente explica cómo utilizar la importación y la exportación para mover un grupo de volúmenes
definido por el usuario de un sistema a otro. (El grupo de volúmenes rootvg no se puede exportar ni
importar.)
El procedimiento de exportación elimina la definición de un grupo de volúmenes de un sistema. El
procedimiento de importación sirve para introducir el grupo de volúmenes en su nuevo sistema.
También puede utilizar el procedimiento de importación para volver a introducir un grupo de volúmenes
en el sistema con el que había estado asociado pero del que se ha exportado. Además, puede utilizar la
importación y exportación para añadir un volumen físico que contiene datos a un grupo de volúmenes,
colocando el disco que se debe añadir en su propio grupo de volúmenes.
Atención: El mandato importvg cambia el nombre del volumen lógico importado si ya existe un
volumen lógico con ese nombre en el nuevo sistema. Si el mandato importvg debe cambiar el
nombre de un volumen lógico, imprime un mensaje de error en error estándar. Cuando no hay
conflictos, el mandato importvg también crea puntos de montaje de archivos y entradas en el
archivo /etc/filesystems.

Tareas de la importación y la exportación de grupos de volúmenes


Tarea Vía rápida de SMIT Mandato o archivo
Importar un grupo de volúmenes smit importvg
Exportar un grupo de volúmenes 1. Desmonte los sistemas de
archivos de los volúmenes
lógicos del grupo de
volúmenes: smit umntdsk
2. Desactive el grupo de
volúmenes: smit
varyoffvg
3. Exporte el grupo de
volúmenes: smit exportvg

12 AIX Versión 7.2: Gestión de dispositivos


Atención: Un grupo de volúmenes que contenga un volumen de espacio de paginación no se
puede exportar mientras el espacio de paginación esté activo. Antes de exportar un grupo de
volúmenes con un espacio de paginación activo, asegúrese de que el espacio de paginación no se
active automáticamente en la inicialización del sistema, para ello escriba el siguiente mandato:

chps -a n paging_space nombre

Después, rearranque el sistema para que el espacio de paginación esté inactivo.

Migración del contenido de un volumen físico


Para mover las particiones físicas, que pertenecen a uno o varios volúmenes lógicos especificados, de un
volumen físico a otro u otros volúmenes físicos del grupo de volúmenes, siga estas instrucciones.
También puede utilizar este procedimiento para mover los datos de un disco que falla antes de sustituirlo
o repararlo. Este procedimiento se puede utilizar en volúmenes físicos del grupo de volúmenes raíz o de
un grupo de volúmenes definidos por el usuario.
Atención: Cuando se migra el volumen lógico de arranque de un volumen físico, se debe borrar el
registro de arranque del origen o el sistema se colgará. Cuando ejecute el mandato bosboot,
también debe ejecutar el mandato chpv -c descrito en el paso 4 del procedimiento siguiente.
1. Si desea migrar los datos a un nuevo disco, siga estos pasos. De lo contrario, continúe en el paso 2.
a. Compruebe que el sistema puede reconocer el disco y que éste está disponible, escribiendo:

lsdev -Cc disk

La salida se parece a la siguiente:

hdisk0 Disponible 10-60-00-8,0 16 Bits LVD Unidad de disco SCSI


hdisk1 Disponible 10-60-00-9,0 16 Bits LVD Unidad de disco SCSI
hdisk2 Disponible 10-60-00-11,0 16 Bits LVD Unidad de disco SCSI

b. Si se lista el disco y está en estado disponible, compruebe si no pertenece a otro grupo de


volúmenes escribiendo:

lspv

La salida se parece a la siguiente:

hdisk0 0004234583aa7879 rootvg activo


hdisk1 00042345e05603c1 ninguno activo
hdisk2 00083772caa7896e imagesvg activo

En el ejemplo, hdisk1 se puede utilizar como disco de destino porque el tercer campo muestra
que ningún grupo de volúmenes lo utiliza.
Si el nuevo disco no se lista o no está disponible, deberá configurar el almacenamiento de disco o
de volumen lógico.
c. Para añadir el nuevo disco al grupo de volúmenes, escriba:

extendvg NombreGV nombredisco

Donde NombreGV es el nombre del grupo de volúmenes y nombredisco es el nombre del nuevo
disco. En el ejemplo del paso anterior, nombredisco se sustituiría por hdisk1.
2. Los volúmenes físicos de origen y destino deben estar en el mismo grupo de volúmenes. Para
determinar si los dos volúmenes físicos están en el mismo grupo de volúmenes, escriba:

lsvg -p NombreGV

Donde NombreGV es el nombre del grupo de volúmenes. La salida para el grupo de volúmenes raíz se
parece a la siguiente:

rootvg:
PV_NAME PV STATE TOTAL PPs FREE PPs FREE DISTRIBUTION

Gestión de dispositivos 13
hdisk0 active 542 85 00..00..00..26..59
hdisk1 active 542 306 00..00..00..00..06

Observe el número de FREE PPs.


3. Compruebe que tenga suficiente espacio en el disco de destino para el origen que desea mover:
a. Determine el número de particiones lógicas en el disco de origen escribiendo:

lspv NombreDiscoOrigen | grep "USED PPs"

Donde NombreDiscoOrigen es el nombre del disco de origen, por ejemplo, hdisk0. La salida se
parece a la siguiente:

USED PPs: 159 (636 megabytes)

En este ejemplo, necesita 159 FREE PPs en el disco de destino para completar satisfactoriamente
la migración.
b. Compare el número de USED PPs del disco de origen con el número de FREE PPs del disco o discos
de destino (paso 2). Si el número de FREE PPs es mayor que el número de USED PPs, tiene
suficiente espacio para la migración.
4. Siga este paso sólo si migra datos de un disco del grupo de volúmenes rootvg.
Si realiza una migración de datos de un disco de un grupo de volúmenes definido por el usuario, siga
en el paso 5.
Compruebe si el volumen lógico de arranque (hd5) está en el disco de origen escribiendo:

lspv -l NúmeroDiscoOrigen | grep hd5

Si no obtiene salida, el volumen lógico de arranque no está ubicado en el disco de origen. Continúe en
el paso 5.
Si obtiene salida similar a la siguiente:

hd5 2 2 02..00..00..00..00 /blv

ejecute el mandato siguiente:

migratepv -l hd5 NombreDiscoOrigen NombreDiscoDestino

Recibirá un mensaje avisándole de que ejecute el mandato bosboot en el disco de destino. También
debe ejecutar un mandato mkboot -c para borrar el registro de arranque en el origen. Escriba la
secuencia de mandatos siguiente:

bosboot -a -d /dev/NombreDiscoDestino
bootlist -m normal NombreDiscoDestino
mkboot -c -d /dev/NombreDiscoOrigen

5. Migre los datos escribiendo la siguiente vía rápida de SMIT:

smit migratepv

6. Liste los volúmenes físicos y seleccione el volumen físico de origen que ha examinado previamente.
7. Vaya al campo de volumen físico DESTINO. Si acepta el valor predeterminado, todos los volúmenes
físicos del grupo de volúmenes estarán disponibles para la transferencia. De lo contrario, seleccione
uno o varios discos con espacio adecuado para las particiones que está moviendo (en el paso 4).
8. Si lo desea, vaya al campo Mover sólo los datos que pertenecen a este VOLUMEN LÓGICO, y liste y
seleccione un volumen lógico. Sólo moverá las particiones físicas asignadas al volumen lógico
especificado que están ubicadas en el volumen físico seleccionado como volumen físico de origen.
9. Pulse Intro para mover las particiones físicas.
En este punto, los datos residen en el nuevo disco (destino). Sin embargo, el disco original (origen),
permanece en el grupo de volúmenes. Si el disco todavía es fiable, puede continuar utilizándolo como
disco desocupado activo. Especialmente cuando falla un disco, es aconsejable seguir estos pasos:

14 AIX Versión 7.2: Gestión de dispositivos


1. Para eliminar el disco de origen del grupo de volúmenes, escriba:

reducevg NombreGV NombreDiscoOrigen

2. Para eliminar físicamente el disco de origen del sistema, escriba:

rmdev -l NombreDiscoOrigen -d

Configuración de un disco
Un disco nuevo se puede configurar mediante varios métodos.
Puede configurar un nuevo disco de alguna de las maneras siguientes.
• Si puede cerrar y apagar el sistema, utilice el Método 1. Siempre que sea posible, es preferible cerrar y
apagar el sistema si se va a conectar un disco físico.
• Si no puede cerrar el sistema y conoce los detalles sobre el nuevo disco como, por ejemplo, la subclase,
el tipo, el nombre de padre y dónde está conectado, utilice el método 2.
• Si no puede cerrar el sistema y sólo conoce la ubicación del disco, utilice el método 3.
Después de configurar un disco, aunque generalmente se puede utilizar, el Gestor de volúmenes lógicos
necesita identificarlo además como volumen físico.
Método 1
Utilice el método siguiente cuando pueda cerrar y apagar el sistema antes de conectar el disco:
1. Conecte físicamente el nuevo disco al sistema y después encienda el disco y el sistema según la
documentación que se proporciona con el sistema.
2. Durante el arranque del sistema, permita que el Gestor de configuración (cfgmgr) configure
automáticamente el disco.
3. Tras el arranque del sistema, con autorización de root, escriba el mandato lspv en la línea de
mandatos para buscar el nombre del nuevo disco.
El sistema devuelve una entrada similar a la siguiente:

hdisk1 none none

o bien:

hdisk1 00005264d21adb2e none

El primer campo identifica el nombre del disco asignado por el sistema. El segundo campo visualiza el
ID de volumen físico (PVID), si hay alguno. Si el nuevo disco no aparece en la salida de lspv, consulte
Installation and migration.
En este punto, el sistema puede utilizar el disco pero necesita un PVID para que el LVM lo utilice. Si el
nuevo disco no tiene un PVID, consulte el apartado “Conversión de un disco disponible en volumen físico”
en la página 16.
Método 2
Utilice el método siguiente cuando no pueda cerrar el sistema y conozca la siguiente información acerca
del nuevo disco:
• Cómo está conectado el disco (subclase)
• El tipo del disco (tipo)
• A qué conexión del sistema está conectado el disco (nombre de padre)
• La dirección lógica del disco (donde está conectado).
Haga lo siguiente:
1. Conecte físicamente el nuevo disco al sistema y después encienda el disco y el sistema según la
documentación que se proporciona con el sistema.

Gestión de dispositivos 15
2. Para configurar el disco y garantizar que esté disponible como volumen físico, utilice el mandato
mkdev con los distintivos mostrados, como en el ejemplo siguiente:

mkdev -c disk -s scsi -t 2200mb -p scsi3 \


-w 6,0 -a pv=yes

Este ejemplo añade un disco de 2,2 GB con el ID de SCSI 6 y el número de unidad lógica 0 al bus SCSI
scsi3. El distintivo -c define la clase del dispositivo. El distintivo -s define la subclase. El distintivo -t
define el tipo de dispositivo. El distintivo -p define el nombre de dispositivo padre que desea asignar.
El distintivo -w designa la ubicación del disco por el ID de SCSI y el número de unidad lógica. El
distintivo -a especifica el par de atributo y valor de dispositivo, pv=yes, que hace que el disco sea un
volumen físico y graba un registro de arranque con un identificador de volumen físico exclusivo en el
disco (si no tiene uno).
En este punto, el disco está definido como un dispositivo disponible y como un volumen físico. Puede
escribir el mandato lspv en la línea de mandatos para listar la nueva entrada de disco. Si el nuevo disco
no aparece en la salida de lspv, consulte Installation and migration.
Método 3
Utilice el método siguiente cuando no pueda cerrar el sistema y sólo conozca la ubicación del disco:
1. Conecte físicamente el nuevo disco al sistema y después encienda el disco y el sistema según la
documentación que se proporciona con el sistema.
2. Para comprobar los discos físicos que ya están configurados en el sistema, escriba el mandato lspv
en la línea de mandatos. Para obtener más información acerca del mandato lspv, consulte el tema
Mandato lspv. La salida se parece a la siguiente:

hdisk0 000005265ac63976 rootvg

3. Escriba cfgmgr en la línea de mandatos para entrar en el Gestor de configuración. El Gestor de


configuración detecta y configura automáticamente todos los dispositivos que se acaban de conectar
al sistema, incluyendo el nuevo disco. Para obtener más información acerca del mandato cfgmgr,
consulte cfgmgr.
4. Para confirmar que el nuevo disco se ha configurado, vuelva a escribir el mandato lspv. La salida se
parece a la siguiente:

hdisk1 none none

hdisk1 00005264d21adb2e none

El primer campo identifica el nombre del disco asignado por el sistema. El segundo campo visualiza el
ID de volumen físico (PVID), si hay alguno. Si el nuevo disco no aparece en la salida de lspv, consulte
Installation and migration.
En este punto, el sistema puede utilizar el disco pero necesita un PVID para que el LVM lo utilice. Si el
nuevo disco no tiene un PVID, consulte el apartado “Conversión de un disco disponible en volumen físico”
en la página 16.

Conversión de un disco disponible en volumen físico


Un disco se debe configurar como volumen físico para que se pueda asignar a grupos de volúmenes y el
LVM los pueda utilizar.
Utilice las instrucciones siguientes para configurar un volumen físico:
1. Asegúrese de que el sistema operativo conoce el disco, está disponible, y que ni el sistema operativo
ni otra aplicación lo utiliza. Escriba el mandato lspv en la línea de mandatos. La salida se parece a la
siguiente:

hdisk1 none none

16 AIX Versión 7.2: Gestión de dispositivos


Compruebe lo siguiente en la salida:
• Si el nombre del nuevo disco no aparece en la salida del mandato, consulte el apartado
“Configuración de un disco” en la página 15.
• Si el segundo campo de la salida muestra un identificador de volumen físico (PVID) generado por el
sistema (por ejemplo, 00005264d21adb2e), el disco ya está configurado como volumen físico y no
tiene que completar este procedimiento.
• Si el tercer campo de la salida muestra un nombre de grupo de volúmenes (por ejemplo, rootvg), el
disco se está utilizando actualmente y no es una opción adecuada para este procedimiento.
Si el nuevo disco no tiene PVID y no está en uso, continúe en el paso siguiente.
2. Para cambiar un disco disponible a un volumen físico, escriba el mandato chdev en la línea de
mandatos. Por ejemplo:

chdev -l hdisk3 -a pv=yes

El distintivo -l especifica el nombre de dispositivo del disco. El distintivo -a especifica el par de


atributo y valor de dispositivo, pv=yes, que hace que el disco sea un volumen físico y graba un registro
de arranque con un identificador de volumen físico exclusivo en el disco (si no tiene uno).
En este punto, el disco está definido como volumen físico. Puede escribir el mandato lspv en la línea de
mandatos para listar la nueva entrada de disco.

Cambio de PVID y VGID de rootvg


Puede cambiar el identificador de volumen físico (IDVF) y el grupo de volúmenes identificador (VGID) del
grupo de volúmenes rootvg durante la fase de arranque del sistema.
Para cambiar el PVID y VGID de rootvg, establezca el atributo sys0 ghostdev dev con un valor de 2 y
vuelva a arrancar. el sistema. El atributo sys0 device ghostdev es una marca bit a bit.
• Para establecer el atributo ghostdev del dispositivo sys0 de para cambiar PVID y VGID de grupo de
volúmenes rootvg, especifique el siguiente mandato:

chdev -l sys0 -a ghostdev=2

Nota: No se ha definido el valor de 2 para el atributo sys0 device ghostdev, después el mandato
ipl_varyon cambia el PVID y VGID de todos los discos de rootvg. Si el mandato chdev para cambiar
el PVID de cualquier disco rootvg falla, el mandato ipl_varyon envía un mensaje de aviso y continúa
para cambiar el grupo de volúmenes rootvg. Si el mandato chdev para cambiar el PVID de cualquier
disco en rootvg falla, y desea cambiar el PVID y VGID durante el siguiente rearranque, establezca el
atributo sys0 device ghostdev en 2 de nuevo.
• Para listar el valor del atributo ghostdev, entre el mandato siguiente:

lsattr -E -l sys0 -a ghostdev

Sustitución de un volumen físico anómalo en un grupo de volúmenes replicados


En los procedimientos siguientes se sustituye un volumen físico anómalo (VF) de un grupo de volúmenes
replicados. El mandato replacepv proporciona un método para sustituir un VF anómalo en la mayoría
de configuraciones. También se proporciona un procedimiento alternativo para configuraciones en las que
no se puede utilizar el mandato replacepv.
La información de este procedimiento se ha probado utilizando versiones específicas de AIX. Los
resultados que obtenga pueden variar significativamente dependiendo de la versión y el nivel de AIX.

Introducción
Todos los volúmenes lógicos que utilizan el VF anómalo tienen copias válidas en otros VF disponibles (con
la posible excepción de un volumen lógico de vuelco dedicado).

Gestión de dispositivos 17
Sustitución de un VF anómalo mediante el mandato replacepv
Si no se puede satisfacer alguno de los siguientes requisitos previos, consulte el procedimiento
alternativo.
• El grupo de volúmenes que contiene el VF anómalo no es rootvg.
• El VF de sustitución se puede añadir al grupo de volúmenes que contiene el VF anómalo (quizá no sea
posible en función del tamaño del VF y las características del grupo de volúmenes, por ejemplo,
Número máximo de PP por VF:).
• El VF de sustitución se debe poder configurar en el sistema al mismo tiempo que el VF anómalo.
• El nombre del VF de sustitución puede ser diferente del nombre del VF anómalo.
• El VF de sustitución debe ser, como mínimo, del mismo tamaño que el VF anómalo.
• El grupo de volúmenes que contiene el VF anómalo no debe ser un grupo de volúmenes de instantánea
o tener un grupo de volúmenes de instantánea.
Complete los pasos siguientes, suponiendo que el VF anómalo es hdisk2 y el VF de sustitución es
hdisk10:
1. Si el VF de sustitución aún no se ha instalado en el sistema, lleve a cabo los pasos necesarios para
instalarlo. Para utilizar el gestor de configuración para definir un nuevo VF, ejecute el mandato
siguiente:

cfgmgr

Utilice el mandato lspv para determinar el nombre asignado al VF. Para este ejemplo, se asume que
el nuevo VF se denomina hdisk10.
2. Para sustituir el VF anómalo por el que se ha definido en el paso 1, ejecute el mandato siguiente:

replacepv hdisk2 hdisk10

Al ejecutar el mandato, hdisk2 se sustituye por hdisk10, y hdisk2 ya no se asigna a un grupo de


volúmenes.
3. Para borrar la definición del VF anómalo, ejecute el mandato siguiente:

rmdev -dl hdisk2

4. Elimine físicamente el disco anómalo del sistema.


5. Verifique si el procedimiento se ha realizado de modo satisfactorio; para ello, siga estos pasos:
• Para comprobar que todos los volúmenes lógicos se han replicado en el nuevo VF tal como se desea,
ejecute el mandato siguiente:

lslv lvname

Compruebe el atributo COPIES de cada volumen lógico al que ha afectado el VF anómalo a fin de
asegurarse de que existe el número deseado de copias. Si el número de copias del volumen lógico es
inferior al número adecuado, utilice el mandato mklvcopy para crear copias adicionales.
• Para verificar si se han sincronizado todas las particiones de volúmenes lógicos y si existen
particiones obsoletas, ejecute el mandato siguiente:

lspv hdisk10

Compruebe el atributo STALE PARTITIONS del VF de sustitución para asegurarse de que el


recuento es cero. Si existen particiones obsoletas, utilice el mandato syncvg para sincronizar las
particiones.
El paso 5 completa el procedimiento de sustitución para un VF anómalo.

18 AIX Versión 7.2: Gestión de dispositivos


Sustitución de un VF anómalo cuando la configuración no permite el uso del mandato replacepv
Asuma que el volumen físico anómalo, hdisk0, y su duplicado, hdisk1, forman parte del volumen lógico
yourvg.
1. Para eliminar copias duplicadas del VF anómalo, ejecute el mandato siguiente:

unmirrorvg yourvg hdisk0

2. Si la anomalía del VF se ha producido en rootvg, elimine hdisk0 de la lista de arranque ejecutando el


mandato siguiente:
Nota: si la configuración utiliza dispositivos de arranque distintos de hdisk0 y hdisk1, añádalos a la
sintaxis del mandato.

bootlist -om normal hdisk1

Para este paso se necesita que hdisk1 sea un dispositivo de arranque en rootvg. Una vez que haya
completado este paso, asegúrese de que hdisk0 no aparece en la salida.
3. Si la anomalía del VF se ha producido en rootvg, vuelva a crear todos los dispositivos de vuelco
dedicados del VF anómalo.
Si había un dispositivo de vuelco dedicado en el VF anómalo, puede utilizar el mandato mklv para
crear un nuevo volumen lógico en un VF existente. Utilice el mandato sysdumpdev para establecer el
nuevo volumen lógico como dispositivo de vuelco primario.
4. Para borrar la definición del VF anómalo, ejecute el mandato siguiente:
Nota: al eliminar la entrada de dispositivo de disco también se elimina el enlace fijo /dev/ipldevice si
el VF anómalo es el VF que se utiliza para arrancar el sistema.

reducevg yourvg hdisk0


rmdev -dl hdisk0

5. Si el VF anómalo es el dispositivo de arranque utilizado más recientemente, vuelva a crear el enlace


fijo /dev/ipldevice que ha eliminado en el paso 4; para ello, ejecute el mandato siguiente:

ln /dev/rhdisk1 /dev/ipldevice

Anote la entrada con el prefijo r para el nombre del VF.


Para verificar si se ha vuelto a crear el enlace fijo /dev/ipldevice, ejecute el mandato siguiente:

ls /dev/ipldevice

6. Sustituya el disco anómalo.


7. Para definir el nuevo VF, ejecute el mandato siguiente:

cfgmgr

El mandato cfgmgr asigna un nombre de VF al VF de sustitución. Es posible que el nombre de VF


asignado sea el mismo que el nombre de VF asignado previamente al VF anómalo. En este ejemplo,
se asume que el dispositivo hdisk0 se ha asignado al VF de sustitución.
8. Para añadir un nuevo VF al grupo de volúmenes, ejecute el mandato siguiente:

extendvg yourvg hdisk0

Es posible que se encuentre el mensaje de error siguiente:

0516-050 No se ha dejado suficiente espacio de área de descriptor en este grupo de


volúmenes.
Intente añadir un VF más pequeño o use otro grupo de volúmenes.

Si se muestra este error y no puede añadir el VF al grupo de volúmenes, puede intentar duplicar
volúmenes lógicos en otro VF que ya exista en el grupo de volúmenes, o bien, puede añadir un VF

Gestión de dispositivos 19
más pequeño. Si no es posible ninguna de las opciones, intente ignorar esta limitación actualizando
el grupo de volúmenes para un grupo de volúmenes de tipo Grande o Escalable mediante el mandato
chvg.
9. Duplique el grupo de volúmenes.
Nota: el mandato mirrorvg no se puede utilizar si existen todas las condiciones siguientes:
• El sistema de destino es una partición lógica (LPAR).
• Una copia del volumen lógico de arranque (de manera predeterminada, hd5) reside en el VF
anómalo.
• El adaptador del VF de sustitución se ha configurado de modo dinámico en LPAR desde el último
arranque en frío.
Si existen todas las condiciones anteriores, utilice el mandato mklvcopy para volver a crear copias
duplicadas para cada volumen lógico, tal como se indica a continuación:
a. Cree copias del volumen lógico de arranque para asegurarse de que se ha asignado a una serie
contigua de particiones físicas.
b. Cree copias de los volúmenes lógicos restantes y sincronice las copias mediante el mandato
syncvg.
c. Conviértalo en un disco de arranque; para ello, apague la partición lógica (LPAR) y actívela en
lugar de rearrancarla mediante los mandatos de conclusión y rearranque. Esta conclusión no se
debe llevar a cabo inmediatamente, pero se necesita para que el sistema arranque desde el nuevo
VF.
De lo contrario, cree nuevas copias de volúmenes lógicos en el grupo de volúmenes utilizando el
nuevo VF con el mandato siguiente:
Nota: de manera predeterminada, el mandato mirrorvg inhabilita el quórum. Para rootvg, es
posible que desee utilizar la opción -m para asegurarse de que las nuevas copias de los volúmenes
lógicos se correlacionan con hdisk0 del mismo modo que el disco de trabajo.

mirrorvg yourvg hdisk0

10. Si la configuración mantiene copias de algunos volúmenes lógicos, es posible que desee volver a
crear dichas copias con el mandato siguiente:

mklvcopy -k

11. Si la anomalía del VF se ha producido en rootvg, inicialice el registro de arranque ejecutando el


mandato siguiente:

bosboot -a

12. Si la anomalía del VF se ha producido en rootvg, actualice la lista de arranque ejecutando el mandato
siguiente:
Nota: si la configuración utiliza dispositivos de arranque distintos de hdisk0 y hdisk1, añádalos al
mandato.

bootlist -om normal hdisk0 hdisk1

13. Verifique si el procedimiento se ha realizado de modo satisfactorio.


• Para verificar si se han duplicado todos los volúmenes lógicos en el nuevo VF, ejecute el mandato
siguiente:

lslv lvname

Compruebe el atributo COPIES de cada volumen lógico al que ha afectado el VF anómalo a fin de
asegurarse de que existe el número deseado de copias. Si el número de copias del volumen lógico
es inferior al número adecuado, utilice el mandato mklvcopy para crear copias adicionales.

20 AIX Versión 7.2: Gestión de dispositivos


• Para verificar si se han sincronizado todas las particiones de volúmenes lógicos, compruebe que no
haya particiones obsoletas; para ello, ejecute el mandato siguiente:

lspv hdisk0

Compruebe el atributo STALE PARTITIONS del VF de sustitución para asegurarse de que el


recuento es cero. Si existen particiones obsoletas, utilice el mandato syncvg para sincronizar las
particiones.
Si la anomalía del VF se ha producido en rootvg, siga los pasos que se indican a continuación para
verificar otros aspectos de este procedimiento:
• Para verificar la lista de arranque, ejecute el mandato siguiente:

bootlist -om normal

• Para verificar el dispositivo de vuelco, ejecute el mandato siguiente:

sysdumpdev -l

• Para verificar la lista de VF de arranque, ejecute el mandato siguiente:

ipl_varyon -i

• Para verificar /dev/ipl_device, ejecute el mandato siguiente:

ls -i /dev/rhdisk1 /dev/ipldevice

Asegúrese de que la salida del mandato ls tiene el mismo número de inodo para ambas entradas.
Este paso completa el procedimiento.
Información relacionada
Gestor de volúmenes lógicos de la A a la Z: introducción y conceptos

Cómo notificar al administrador cuando falta un volumen físico


Aunque AIX registra un error cuando no se puede acceder a un volumen físico, existen circunstancias en
las que es posible que no se pueda detectar un error.
Por ejemplo, cuando el volumen físico forma parte de un grupo de volúmenes replicados, los usuarios no
advierten que se ha producido un problema debido a que se puede acceder a una copia correcta de los
datos. En tales casos, la notificación automática puede alertar al administrador acerca del problema,
antes de que los usuarios adviertan cualquier interrupción en su trabajo.
En el procedimiento siguiente se describe cómo configurar la notificación automática cuando se declara la
pérdida de un volumen físico. Modificando el procedimiento siguiente, se puede realizar el seguimiento de
otros errores que pueden ser importantes para el usuario.
La información de este procedimiento se ha probado utilizando versiones específicas de AIX. Los
resultados que obtenga pueden variar significativamente dependiendo de la versión y el nivel de AIX.
1. Con autorización de usuario root, realice una copia de seguridad del archivo ODM /etc/objrepos/
errnotify.
Puede denominar la copia de seguridad con el nombre que elija. En el ejemplo siguiente, la copia de
seguridad añade el nombre de archivo errnotify con la fecha actual:

cd /etc/objrepos
cp errnotify errnotifyfecha_actual

2. Utilice su editor favorito para crear un archivo denominado /tmp/pvmiss.add que contenga la stanza
siguiente:

errnotify:
en_pid = 0
en_name = "LVM_SA_PVMISS"
en_persistenceflg = 1

Gestión de dispositivos 21
en_label = "LVM_SA_PVMISS"
en_crcid = 0
en_type = "UNKN"
en_alertflg = ""
en_resource = "LVDD"
en_rtype = "NONE"
en_rclass = "NONE"
en_method = "/usr/lib/ras/pvmiss.notify $1 $2 $3 $4 $5 $6 $7 $8 $9"

Una vez que haya completado todos los pasos de este tema, el daemon de notificación de error se
expande automáticamente de $1 a $9 en este script con información detallada sobre la entrada del
registro de errores en el mensaje de notificación.
3. Utilice su editor favorito para crear un archivo denominado /usr/lib/ras/pvmiss.notify con el
contenido siguiente:

#!/bin/ksh
exec 3>/dev/console
print -u3 "?"
print -u3 - "----------------------------------------------"
print -u3 "ALERT! ALERT! ALERT! ALERT! ALERT! ALERT!"
print -u3 ""
print -u3 "Desc: PHYSICAL VOLUME IS MISSING. SEE ERRPT."
print -u3 ""
print -u3 "Error label: $9"
print -u3 "Sequence number: $1"
print -u3 "Error ID: $2"
print -u3 "Error class: $3"
print -u3 "Error type: $4"
print -u3 "Resource name: $6"
print -u3 "Resource type: $7"
print -u3 "Resource class: $8"
print -u3 - "----------------------------------------------"
print -u3 "?"
mail - "PHSYICAL VOLUME DECLARED MISSING" root <<-EOF
----------------------------------------------
ALERT! ALERT! ALERT! ALERT! ALERT! ALERT! Desc: PHYSICAL VOLUME IS MISSING. SEE ERRPT.
Error label: $9
Sequence number: $1
Error ID: $2
Error class: $3
Error type: $4
Resource name: $6
Resource type: $7
Resource class: $8
----------------------------------------------
EOF

4. Guarde el archivo y salga del editor.


5. Establezca los permisos adecuados en el archivo que ha creado.
Por ejemplo:

chmod 755 /usr/lib/ras/pvmiss.notify

6. Escriba el mandato siguiente para añadir la definición LVM_SA_PVMISS que ha creado en el paso 2 al
archivo ODM:

odmadd /tmp/pvmiss.add

En este punto, el sistema ejecuta el script /usr/lib/ras/pvmiss.notify cada vez que se produce un
error LVM_SA_PVMISS. Este script envía un mensaje a la consola y también envía un correo electrónico al
usuario root.
Conceptos relacionados
Almacenamiento de volúmenes lógicos
Los volúmenes lógicos son grupos de información ubicados en volúmenes físicos.
Información relacionada
Mandato odmadd

22 AIX Versión 7.2: Gestión de dispositivos


Subdivisión de un disco duplicado de un grupo de volúmenes
El soporte de instantánea le ayuda a proteger la coherencia de los grupos de volúmenes duplicados
contra posibles anomalías de disco.
Gracias a la característica de instantánea, puede subdividir uno o varios discos duplicados con el objeto
de utilizarlos como una copia de seguridad fiable de un punto en el tiempo (desde el punto de vista de los
metadatos de LVM) de un grupo de volúmenes y, cuando se necesite, reintegrar los discos de la
subdivisión en el grupo de volúmenes. En el procedimiento siguiente, en primer lugar se subdivide un
disco duplicado de un grupo de volúmenes y, a continuación, se fusiona el disco subdividido en el grupo
de volúmenes original. Con el objeto de garantizar la fiabilidad de la instantánea, se deben desmontar los
sistemas de archivos, y las aplicaciones que utilizan volúmenes lógicos sin formato deben tener un estado
conocido (un estado que permita la recuperación de la aplicación, en caso de que se necesite utilizar la
copia de seguridad).
Un grupo de volúmenes no se puede subdividir si se da alguna de las condiciones siguientes:
• Falta uno de los discos.
• La última partición no obsoleta se encuentra en el grupo de volúmenes subdividido.
• Existen particiones obsoletas en el grupo de volúmenes, a menos que se utilice el distintivo de forzar (-
f) con el mandato splitvg.
Además, la característica de instantánea (específicamente, el mandato splitvg) no se puede utilizar en
modalidad simultánea clásica o ampliada. El grupo de volúmenes subdividido no se puede convertir en
simultáneo o simultáneo ampliado y existen limitaciones con respecto a los cambios que se permiten
para el grupo de volúmenes original y subdividido. Para obtener más detalles, consulte la descripción del
mandato chvg.
La información de este procedimiento se ha probado utilizando versiones específicas de AIX. Los
resultados que obtenga pueden variar significativamente dependiendo de la versión y el nivel de AIX.
1. Asegúrese de que el grupo de volúmenes se ha duplicado completamente y de que el duplicado existe
en un disco o conjunto de discos que sólo contiene este conjunto de duplicados.
2. Para habilitar el soporte de instantánea, subdivida el grupo de volúmenes original (origVG) en otro
disco o conjunto de discos; para ello, utilice el mandato siguiente:

splitvg origVG

En este punto, dispone de una copia de seguridad fiable de un punto en el tiempo del grupo de
volúmenes original. No obstante, tenga en cuenta que no puede cambiar la asignación del grupo de
volúmenes subdividido.
3. Reactive el disco subdividido y fusiónelo en el grupo de volúmenes original mediante el mandato
siguiente:

joinvg origVG

En este punto, el grupo de volúmenes subdividido se ha vuelto a integrar con el grupo de volúmenes
original.
Conceptos relacionados
Almacenamiento de volúmenes lógicos
Los volúmenes lógicos son grupos de información ubicados en volúmenes físicos.
Información relacionada
Mandato chvg
Mandato recreatevg
Mandato splitvg
Gestor de volúmenes lógicos de la A a la Z: introducción y conceptos

Resolución de problemas de LVM


Hay varios tipos de problemas comunes de LMV que puede resolver.

Gestión de dispositivos 23
Resolución de problemas de unidades de disco
Esta información indica cómo diagnosticar y arreglar problemas de unidad de disco.
Si piensa que una unidad de disco falla o ha fallado mecánicamente, ejecute los diagnósticos en el disco
siguiendo este procedimiento:
1. Con la autorización de root, escriba la siguiente vía rápida de SMIT en la línea de mandatos:

smit diag

2. Seleccione Diagnósticos actuales en shell para especificar la herramienta de diagnósticos de AIX.


3. Tras leer la pantalla Instrucciones de funcionamiento de diagnósticos, pulse Intro.
4. Seleccione Rutinas de diagnósticos.
5. Seleccione Verificación del sistema.
6. Desplácese por la lista para buscar y seleccionar la unidad que desea probar.
7. Seleccione Confirmar.
Basándose en los resultados de los diagnósticos, debe poder determinar la condición del disco:
• Si detecta la unidad de disco que falla o ha fallado, tiene principal importancia recuperar los datos de
ese disco. La migración es la manera preferida de recuperar datos de un disco que falla. Los
procedimientos siguientes describen cómo recuperar o restaurar datos de volúmenes lógicos si la
migración no se puede completar satisfactoriamente.
• Si la unidad falla y puede reparar la unidad sin volverla a formatear, no se perderá ningún dato.
• Si la unidad de disco se debe volver a formatear o sustituir, haga una copia de seguridad, si es posible, y
elimine la unidad de disco de su grupo de volúmenes y la configuración del sistema antes de sustituirla.
Algunos datos de los sistemas de archivos de una sola copia se pueden perder.

Espacio de unidad de disco


Si se queda sin espacio en una unidad de disco, hay varias maneras de remediar el problema. Puede
hacer un seguimiento y eliminar automáticamente archivos no deseados, restringir los usuarios de
determinados directorios o montar espacio de otra unidad de disco.
Debe tener autorización de usuario root, grupo del sistema o grupo administrativo para ejecutar estas
tareas.

Mandato para limpiar automáticamente los sistemas de archivos


Utilice el mandato skulker para limpiar los sistemas de archivos mediante la eliminación de archivos no
deseados.
Escriba lo siguiente en la línea de mandatos:

skulker -p

El mandato skulker se utiliza para depurar periódicamente los archivos obsoletos o que ya no son
necesarios de los sistemas de archivos. Los candidatos incluyen los archivos del directorio /tmp, los
archivos anteriores a una fecha determinada, los archivos a.out, los archivos de imagen de la memoria o
los archivos ed.hup. Para obtener más información acerca del mandato skulker, consulte el apartado
skulker.
Normalmente, el mandato skulker se ejecuta a diario, como parte de un procedimiento de contabilidad
que el mandato cron ejecuta en horas de menor actividad.

Restricción de los usuarios de determinados directorios


Puede liberar espacio de disco y posiblemente mantenerlo libre restringiendo el acceso a directorios y
supervisando el uso de disco.

1. Restrinja los usuarios de determinados directorios escribiendo:

chmod 755 DirName

24 AIX Versión 7.2: Gestión de dispositivos


Este mandato establece permisos de lectura y grabación para el propietario (root) y establece
permisos de sólo lectura para el grupo y otros. NombreDir es el nombre completo de vía de acceso del
directorio que desea restringir.
2. Supervise el uso de disco de usuarios individuales, añadiendo la línea siguiente en el archivo /var/
spool/cron/crontabs/adm:

0 2 * * 4 /usr/sbin/acct/dodisk

Esta línea ejecuta el mandato dodisk a las 2 de la mañana (0 2) cada jueves (4). El mandato dodisk
inicia la contabilidad de uso de disco. Normalmente, este mandato se ejecuta como parte de un
procedimiento de contabilidad que se ejecuta mediante el mandato cron durante las horas de menor
actividad.

Montaje de espacio de otra unidad de disco


Puede obtener más espacio en una unidad de disco montando espacio de otra unidad.
Puede montar espacio de una unidad de disco en otra de estas maneras:
• Utilice la vía rápida smit mountfs.
• Utilice el mandato mount. Por ejemplo:

mount -n nodeA -vnfs /usr/spool /usr/myspool

El mandato mount hace que un sistema de archivos esté disponible para utilizarlo en una ubicación
específica.

Recuperación de unidad de disco sin volverla a formatear


Si repara un disco incorrecto y lo vuelve a colocar en el sistema sin volverlo a formatear, puede dejar que
el sistema active automáticamente y resincronice las particiones físicas obsoletas de la unidad al
arrancar. Una partición física obsoleta contiene datos que el sistema no puede utilizar.
Si sospecha que una partición física está obsoleta, escriba lo siguiente en la línea de mandatos:

lspv -M NombreVolFís

Donde NombreVolFís es el nombre del volumen físico. La salida del mandato lspv listará todas las
particiones del volumen físico. A continuación se muestra un extracto de salida de ejemplo:

hdisk16:112 lv01:4:2 stale


hdisk16:113 lv01:5:2 stale
hdisk16:114 lv01:6:2 stale
hdisk16:115 lv01:7:2 stale
hdisk16:116 lv01:8:2 stale
hdisk16:117 lv01:9:2 stale
hdisk16:118 lv01:10:2 stale

La primera columna visualiza las particiones física y la segunda columna visualiza las particiones lógicas.
Cualquier partición física obsoleta se indica en la tercera columna.

Recuperación mediante una unidad de disco de reformato o de sustitución


Puede recuperar los datos de una unidad de disco que ha fallado cuando deba volver a formatear o
sustituir el disco que ha fallado.
Atención: Antes de volver a formatear o sustituir una unidad de disco, elimine todas las
referencias a sistemas de archivos no replicados del disco que falla y elimine el disco del grupo de
volúmenes y la configuración del sistema. Si no, creará problemas en las bases de datos de ODM
(gestor de datos de objetos) y de la configuración del sistema. Las instrucciones para estos pasos
esenciales se incluyen en el procedimiento siguiente, bajo el apartado Antes de sustituir o volver a
formatear el disco que ha fallado o que falla.
El siguiente procedimiento utiliza un escenario en el que el grupo de volúmenes denominado migv
contiene tres unidades de disco denominadas hdisk2, hdisk3 y hdisk4. En este caso de ejemplo, hdisk3
falla. El volumen lógico no replicado lv01 y una copia del volumen lógico mivl se incluyen en hdisk2. El

Gestión de dispositivos 25
volumen lógico mivl está replicado y tiene tres copias, cada una de las cuales ocupa dos particiones
físicas de su disco. El disco hdisk3 que falla contiene otra copia de mivl, y el volumen lógico no replicado
denominado lv00. Por último, hdisk4 contiene una tercera copia de mivl así como un volumen lógico
denominado lv02. La figura siguiente muestra este caso.

Este procedimiento se divide en los siguientes segmentos clave:


• Las acciones que realiza para proteger datos antes de replicar o reformatear el disco que falla
• El procedimiento que debe seguir para volver a formatear o sustituir el disco
• Las acciones que realiza para proteger los datos depués de reformatear o sustituir el disco que falla
Antes de sustituir o volver a formatear el disco que ha fallado o que falla:
1. Inicie la sesión con autorización de root
2. Si no está familiarizado con los volúmenes lógicos que están en la unidad de falla, utilice un disco
operativo para ver el contenido del disco que falla.
Por ejemplo, para utilizar hdisk4 para consultar hdisk3, escriba lo siguiente en la línea de mandatos:

lspv -M -n hdisk4 hdisk3

El mandato lspv visualiza información acerca de un volumen físico de un grupo de volúmenes. La


salida se parece a la siguiente:

hdisk3:1 mivl:1
hdisk3:2 mivl:2
hdisk3:3 lv00:1
hdisk3:4-50

La primera columna visualiza las particiones físicas, y la segunda columna visualiza las particiones
lógicas. Las particiones 4 a 50 están libres.
3. Haga copia de seguridad de todos los volúmenes lógicos de una sola copia del dispositivo que falla, si
es posible, Para obtener instrucciones, consulte el apartado Copia de seguridad de archivos o
sistemas de archivos del usuario.
4. Si hay sistemas de archivos de un sola copia, desmóntelos del disco.
(Puede identificar los sistemas de archivos de una sola copia en la salida del mandato lspv. Los
sistemas de archivos de una sola copia tienen el mismo número de particiones lógicas que
particiones físicas en la salida.) No es necesario desmontar los sistemas de archivos replicados.
En este caso, lv00 del disco que falla hdisk3 es un sistema de archivos de una sola copia. Para
desmontarlo, escriba lo siguiente:

unmount /dev/lv00

Si no conoce el nombre del sistema de archivos, suponiendo que el archivo /etc/filesystems no


está solo en el disco que ha fallado, escriba mount en la línea de mandatos para listar todos los
sistemas de archivos montados y busque el nombre asociado al volumen lógico. También puede

26 AIX Versión 7.2: Gestión de dispositivos


utilizar el mandato grep en el archivo /etc/filesystems para listar sólo los nombres de sistemas
de archivos asociados al volumen lógico, si los hay. Por ejemplo:

grep lv00 /etc/filesystems

La salida tiene un aspecto similar al ejemplo siguiente:

dev = /dev/lv00
log = /dev/loglv00

Notas:
a. El mandato desmontar no se ejecutará si el sistema de archivos que intenta desmontar se está
utilizando. El mandato unmount sólo se ejecuta si ningún archivo del sistema de archivos está
abierto y ningún directorio actual del usuario se encuentra en ese dispositivo.
b. Otro nombre para el mandato unmount es umount. Los nombres se pueden intercambiar.
5. Elimine todos los sistemas de archivos de una sola copia del volumen físico que ha fallado
escribiendo el mandato rmfs:

rmfs /nombreSA

6. Elimine todos los volúmenes lógicos replicados en el disco que falla.


Nota: No puede utilizar rmlvcopy en los volúmenes hd5 y hd7 de los volúmenes físicos del grupo de
volúmenes rootvg. El sistema no permite eliminar estos volúmenes lógicos porque sólo hay una copia
de ellos.
El mandato rmlvcopy elimina las copias de cada partición lógica. Por ejemplo, escriba:

rmlvcopy mivl 2 hdisk3

Mediante la eliminación de la copia en hdisk3, se reduce el número de copias de cada partición lógica
que pertenece al volumen lógico mivl de tres a dos (una en hdisk4 y otra en hdisk2).
7. Si el disco que falla formaba parte del grupo de volúmenes raíz y contenía el volumen lógico hd7,
elimine el dispositivo de vuelco primario (hd7) escribiendo lo siguiente en la línea de mandatos:

sysdumpdev -P -p /dev/sysdumpnull

El mandato sysdumpdev cambia el dispositivo de vuelco primario o secundario ubicación para un


sistema en ejecución. Cuando se rearranca, el dispositivo de vuelco vuelve a su ubicación original.
Nota: Puede elegir el vuelco en un dispositivo de DVD. Para obtener más información acerca de cómo
configrar un DVD para que sea el dispositivo de vuelco, consulte el apartado sysdumpdev.
8. Elimine los espacios de paginación ubicados en el disco utilizando el mandato siguiente:

rmps nombreSP

Donde nombreSP es el nombre del espacio de paginación que se debe eliminar, que es realmente el
nombre del volumen lógico en el que reside el espacio de paginación.
Si el mandato rmps no es satisfactorio, debe utilizar la vía rápida smit chps para desactivar el
espacio de paginación primario y rearrancar antes de continuar con este procedimiento. El mandato
reducevg del paso 10 puede fallar si hay espacios de paginación activos.
9. Elimine cualquier otro volumen lógico del grupo de volúmenes, como los volúmenes lógicos que no
contienen un sistema de archivos, utilizando el mandato rmlv.
Por ejemplo, escriba:

rmlv -f lv00

10. Elimine el disco que ha fallado del grupo de volúmenes utilizando el mandato reducevg.

Gestión de dispositivos 27
Por ejemplo, escriba:

reducevg -df migv hdisk3

Si no puede ejecutar el mandato reducevg o si el mandato no es satisfactorio, el procedimiento del


paso 13 puede ayudarle a limpiar la información de VGDA/ODM después de volver a formatear o
sustituir la unidad.
Sustitución o reformato del disco que ha fallado o que falla:
11. El paso siguiente depende de si desea volver a formatear o sustituir el disco y del tipo de hardware
que utiliza:
• Si desea volver a formatear la unidad de disco, utilice el procedimiento siguiente:
a. Con la autorización de root, escriba la siguiente vía rápida de SMIT en la línea de mandatos:

smit diag

b. Seleccione Diagnósticos actuales en shell para especificar la herramienta de diagnósticos de


AIX.
c. Tras leer la pantalla Instrucciones de funcionamiento de diagnósticos, pulse Intro.
d. Seleccione Selección de tarea.
e. Desplácese por la lista de tareas para buscar y seleccionar Formatear soporte.
f. Seleccione el disco que desea volver a formatear. Tras confirmar que desea volver a formatear el
disco, todo el contenido del disco se borrará.
Tras volver a formatear el disco, continúe en el paso 12.
• Si el sistema soporta discos de intercambio en caliente, utilice el procedimiento del apartado
“Recuperación de anomalía de disco mientras el sistema permanece disponible” en la página 30,
después continúe en el paso 13.
• Si el sistema no soporta los discos de intercambio activos, realice los pasos siguientes:
– Apague la unidad anterior utilizando la vía rápida de SMIT smit rmvdsk. Cambie la definición
de KEEP en el campo de base de datos por No.
– Póngase en contacto con el nivel superior de soporte del sistema para sustituir la unidad de
disco.
Después de sustituir o volver a formatear el disco que ha fallado o que falla:
12. Siga las instrucciones de los apartados “Configuración de un disco” en la página 15 y “Conversión de
un disco disponible en volumen físico” en la página 16.
13. Si no puede utilizar el mandato reducevg en el disco del grupo de volúmenes anterior antes de
volver a formatear el disco (paso 10), el siguiente procedimiento puede ayudarle a limpiar la
información de VGDA/ODM.
a. Si el grupo de volúmenes sólo consiste en el disco que se ha vuelto a formatear, escriba:

exportvg NombreGV

Donde NombreGV es el nombre del grupo de volúmenes.


b. Si el grupo de volúmenes consiste en más de un disco, escriba lo siguiente en la línea de
mandatos:

varyonvg NombreGV

El sistema visualiza un mensaje acerca de un disco que falta o que no está disponible, y lista el
nuevo disco (o reformateado). Anote el identificador de volumen físico (IDVF) del nuevo disco, que
se lista en el mensaje de varyonvg. Es la serie de 16 caracteres entre el nombre del disco que
falta y la etiqueta PVNOTFND. Por ejemplo:

hdisk3 00083772caa7896e PVNOTFND

28 AIX Versión 7.2: Gestión de dispositivos


Escriba:

varyonvg -f NombreGV

El disco que falta se visualiza ahora con la etiqueta PVREMOVED. Por ejemplo:

hdisk3 00083772caa7896e PVREMOVED

Después, escriba el mandato:

reducevg -df NombreGV IDVF

Donde IDVF es el identificador de volumen físico (en este ejemplo, 00083772caa7896e).


14. Para añadir la nueva unidad de disco al grupo de volúmenes, utilice el mandato extendvg.
Por ejemplo, escriba:

extendvg migv hdisk3

15. Para volver a crear los volúmenes lógicos de una sola copia en la nueva unidad de discos (o
reformateada), utilice el mandato mklv.
Por ejemplo, escriba:

mklv -y lv00 migv 1 hdisk3

Este ejemplo vuelve a crear el volúmen lógico lv00 en la unidad hdisk3. El 1 significa que este
volumen lógico no está replicado.
16. Para volver a crear los sistemas de archivos en el volumen lógico, utilice el mandato crfs.
Por ejemplo, escriba:

crfs -v jfs -d lv00 -m /dev/lv00

17. Para restaurar los datos del sistema de archivos de una sola copia desde el soporte de copia de
seguridad, consulte el apartado Restauración de archivos del usuario desde una imagen de copia de
seguridad.
18. Para volver a crear las copias replicadas de volúmenes lógicos, utilice el mandato mklvcopy.
Por ejemplo, escriba:

mklvcopy mivl 3 hdisk3

Este ejemplo crea una tercera partición replicada del volumen lógico mylv en hdisk3.
19. Para sincronizar la nueva réplica con los datos de otras réplicas (en este ejemplo, hdisk2 y hdisk4)
utilice el mandato syncvg.
Por ejemplo, escriba:

syncvg -p hdisk3

Como resultado, se deben restaurar y actualizar todos los sistemas de archivos replicados. Si ha podido
hacer copia de seguridad de los sistemas de archivos de una sola copia, también estarán preparados para
utilizarlos. Debe seguir con el uso normal del sistema.

Ejemplo de recuperación de una unidad de disco que ha fallado


Para recuperar una unidad de disco que ha fallado, retroceda por el camino que ha venido; es decir, liste
los pasos por los que ha pasado para crear el grupo de volúmenes y vuelva hacia atrás.
El ejemplo siguiente es una ilustración de esta técnica. Muestra cómo se ha creado un volumen lógico
replicado y después cómo se ha modificado, retrocediendo paso a paso cuando ha fallado un disco.
Nota: El siguiente ejemplo ilustra una instancia específica. No está pensado como prototipo general para
basar todos los procedimientos generales de recuperación.

Gestión de dispositivos 29
1. El gestor del sistema, Ana, ha creado un grupo de volúmenes denominado gvtrabajo en hdisk1,
escribiendo:

mkvg -y gvtrabajo hdisk1

2. Después ha creado dos discos adicionales para este grupo de volúmenes, escribiendo:

extendvg gvtrabajo hdisk2

extendvg gvtrabajo hdisk3

3. Ana ha creado un volumen lógico de 40 MB que tiene tres copias.


Cada copia se encuentra en cada uno de los tres discos que componen el grupo de volúmenes
gvtrabajo. Ha utilizado los mandatos siguientes:

mklv -y testlv gvtrabajo 10

mklvcopy testlv 3

Después de que Ana haya creado el grupo de volúmenes replicado gvtrabajo, hdisk2 ha fallado. Por lo
tanto, ha seguido los pasos siguientes para la recuperación:
1. Ha eliminado la copia del volumen lógico de hdisk2 escribiendo:

rmlvcopy testlv 2 hdisk2

2. Ha desconectado hdisk2 del sistema para actualizar ODM y VGDA, escribiendo:

reducevg gvtrabajo hdisk2

3. Ha eliminado hdisk2 de la configuración del sistema para preparar la sustitución escribiendo:

rmdev -l hdisk2 -d

4. Ha optado por cerrar el sistema, escribiendo:

shutdown -F

5. Ha sustituido el disco. El nuevo disco no tiene el mismo ID de SCSI que el anterior hdisk2.
6. Ha rearrancado el sistema.
Puesto que hay un nuevo disco (el sistema ve que hay un nuevo PVID en el disco), el sistema elige el
primer nombre de hdisk abierto. Puesto que ha utilizado el distintivo -d en el paso 3, se ha liberado el
nombre hdisk2, por lo que el sistema ha elegido hdisk2 como nombre para el nuevo disco. Si no se
hubiese utilizado el distintivo -d, se hubiese elegido hdisk4 como nuevo nombre.
7. Ana ha añadido este disco al grupo de volúmenes gvtrabajo escribiendo:

extendvg gvtrabajo hdisk2

8. Ha creado dos copias replicadas del volumen lógico escribiendo:

mklvcopy testlv 3

El Gestor de volúmenes lógicos ha colocado automáticamente la tercera copia de volumen lógico en el


nuevo hdisk2.

Recuperación de anomalía de disco mientras el sistema permanece disponible


Puede recuperar una anomalía de disco utilizando la característica de extracción en caliente.
El procedimiento para recuperar una anomalía de disco utilizando la característica de extracción en
caliente es, en gran parte, igual que el descrito en el apartado “Recuperación de unidad de disco sin
volverla a formatear” en la página 25, con las siguientes excepciones:
1. Para desmontar el sistema de archivos de un disco, utilice el procedimiento Montaje de JFS o JFS2.

30 AIX Versión 7.2: Gestión de dispositivos


2. Para eliminar el disco de su grupo de volúmenes y del sistema operativo, utilice el procedimiento del
apartado “Extracción de un disco sin datos” en la página 48.
3. Para sustituir el disco que ha fallado por otro nuevo, no es necesario cerrar el sistema. Utilice la
siguiente secuencia de procedimientos:
a) “Almacenamiento de volúmenes lógicos” en la página 35
b) “Configuración de un disco” en la página 15
c) Continúe en el paso 13 del apartado “Recuperación mediante una unidad de disco de reformato o
de sustitución” en la página 25.

Sustitución de un disco cuando el grupo de volúmenes consta de un solo disco


Utilice uno de los siguientes procedimientos si puede acceder a un disco que no funciona bien como parte
de un grupo de volúmenes.
• “Migración del contenido de un volumen físico” en la página 13
Si el disco es erróneo y no se puede acceder, siga estos pasos:
1. Exporte el grupo de volúmenes.
2. Sustituya la unidad.
3. Vuelva a crear los datos a partir de un soporte de copia de seguridad.

Errores de volúmenes físicos y lógicos


Hay varios errores comunes de los volúmenes físicos y lógicos que puede resolver.

Problemas de zonas activas


Si observa una degradación del rendimiento al acceder a volúmenes lógicos, es posible que haya zonas
activas en los volúmenes lógicos que experimenten demasiadas E/S de disco.
Para obtener más información, consulte el apartado “Gestión de zonas activas en volúmenes lógicos” en
la página 61.

Avisos de LVCB
Si el LVCB contiene información no válida, se genera un aviso.
El bloque de control de volúmenes lógicos (LVCB) es el primer bloque de un volumen lógico. El tamaño del
LVCB és el tamaño del bloque de los volúmenes físicos del grupo de volúmenes. Esta área contiene
información importante como la fecha de creación del volumen lógico, la información acerca de copias
replicadas y los posibles puntos de montaje del JFS. Se necesitan determinados mandatos del LVM para
actualizar el LVCB, como parte de los algoritmos del LVM. Se lee y analiza el LVCB anterior para ver si es
válido. Si la información del LVCB es válida, se actualiza el LVCB. Si la información no es válida, no se
realiza la actualización del LVCB, y puede recibir el siguiente mensaje:

Aviso, no se pueden grabar los datos de bloque de control de vl.

La mayoría de veces, este mensaje se genera cuando los programas de bases de datos se saltan el JFS y
acceden a volúmenes lógicos sin formato como soporte de almacenamiento. Cuando se produce esto, la
información para la base de datos se graba literalmente sobre el LVCB. Para volúmenes lógicos sin
formato, esto no es muy grave. Después de sobregrabar el LVCB, el usuario todavía puede:
• Expandir un volumen lógico
• Crear copias replicadas del volumen lógico
• Eliminar el volumen lógico
• Crear un sistema de archivos de diario para montar el volumen lógico
Hay limitaciones en la supresión de los LVCB. Es posible que un volumen lógico con un LVCB suprimido no
se pueda importar satisfactoriamente a otros sistemas. Durante una importación, el mandato importvg
de LVM explora los LVCB de todos los volúmenes lógicos definidos de un grupo de volúmenes para
obtener información relativa a los volúmenes lógicos. Si el LVCB no existe, el grupo de volúmenes
importado sigue definiendo el volumen lógico para el nuevo sistema que está accediendo a este grupo de

Gestión de dispositivos 31
volúmenes, y el usuario puede seguir accediendo al volumen lógico sin formato. Sin embargo,
normalmente se produce lo siguiente:
• Se pierde cualquier información del JFS y el punto de montaje asociado no se importa al nuevo sistema.
En este caso, debe crear nuevos puntos de montaje y la disponibilidad de los datos almacenados
anteriores no está garantizada.
• Parte de la información no JFS relativa al volumen lógico no se puede encontrar. Cuando ocurre esto, el
sistema utiliza la información predeterminada de volumen lógico para rellenar la información de ODM.
Así, alguna salida del mandato lslv puede ser incoherente con el volumen lógico real. Si todavía existe
cualquier copia de volumen lógico en los discos originales, la información no se reflejará correctamente
en la base de datos de ODM. Utilice los mandatos rmlvcopy y mklvcopy para reconstruir cualquier
copia de volumen lógico y sincronizar el ODM.

Límites de particiones físicas


En el diseño del Gestor de volúmenes lógicos (LVM), cada partición lógica se correlaciona con una
partición física (PP) y cada partición física se correlaciona con un número de sectores de disco. El diseño
de LVM limita a 1016 el número de particiones físicas cuyo seguimiento puede hacer el LVM. En la
mayoría de casos, un disco no utiliza las 1016 particiones de seguimiento.
Cuando excede de este límite, puede ver un mensaje similar al siguiente:

0516-1162 extendvg: Aviso, El tamaño de Partición Física de TamañoPF requiere la


creación de PFTotales particiones para NombreVF. El límite para el grupo de volúmenes
NombreGV es LÍMITE particiones físicas por volumen físico. Utilice el mandato chvg
con la opción -t para intentar cambiar el número máximo de Particiones físicas por
cada volumen Físico de este grupo de volúmenes.

Donde:
TamañoPF
Es de 1 MB a 1 GB en potencias de 2.
PF Totales
Es el número total de particiones físicas del disco, dado el TamañoPF.
NombreVF
Es el nombre del volumen físico, por ejemplo, hdisk3.
NombreGV
Es el nombre del grupo de volúmenes.
LÍMITE
Es 1016 o un múltiplo de 1016.
Esta limitación se fuerza en las siguientes instancias:
1. Cuando al crear un grupo de volúmenes utilizando el mandato mkvg especifica un número de
particiones físicas en un disco del grupo de volúmenes que excede de 1016. Para evitar esta
limitación, puede seleccionar entre los rangos de tamaño de partición física de 1, 2, 4
(predeterminado), 8, 16, 32, 64, 128, 256, 512 o 1024 MB y utilizar el mandato mkvg -s para crear el
grupo de volúmenes. Alternativamente, puede utilizar un factor adecuado que permita múltiplos de
1016 particiones por disco y utilizar el mandato mkvg -t para crear el grupo de volúmenes.
2. Cuando al añadir un disco a un grupo de volúmenes preexistente con el mandato extendvg, el nuevo
disco provoca la violación de la limitación de 1016. Para resolver esta situación, convierta el grupo de
volúmenes existente para que contenga múltiplos de 1016 particiones por disco utilizando el mandato
chvg -t. Alternativamente, puede volver a crear el grupo de volúmenes con un tamaño de partición
mayor que permita el nuevo disco, o puede crear un grupo de volúmenes autónomo que conste de un
tamaño físico mayor para el nuevo disco.

Limitaciones de particiones y rootvg


Si el código de instalación detecta que la unidad de rootvg es mayor de 4 GB, cambia el valor de mkvg-s
hasta que toda la capacidad de disco se puede correlacionar con las 1016 pistas disponibles. Este cambio
de instalación también implica que todos los demás discos añadidos a rootvg, sin tener en cuenta el
tamaño, se definen en este tamaño de partición física.

32 AIX Versión 7.2: Gestión de dispositivos


Limitaciones de particiones y sistemas RAID
Para sistemas que utilizan una batería redundante de discos idénticos (RAID), el nombre /dev/hdiskX
utilizado por LVM puede consistir en muchos discos que no son de 4 GB. En este caso, sigue existiendo el
requisito de 1016. LVM no es consciente del tamaño de los discos individuales que realmente
componen /dev/hdiskX. LVM basa la limitación de 1016 en el tamaño reconocido de /dev/hdiskX, y
no los discos físicos reales que componen /dev/hdiskX.

Sincronización de base de datos de configuración de dispositivos


Una anomalía en el funcionamiento del sistema puede hacer que la base de datos de configuración de
dispositivos sea incoherente con el LVM. Puede sincronizar la base de datos de configuración de
dispositivos con la información del LVM.
Cuando la base de datos de configuración de dispositivos es incoherente con el LVM, un mandato de
volumen lógico genera un mensaje de error como el siguiente:

0516-322 La Base de Datos de Configuración de Dispositivos es incoherente ...

O bien

0516-306 No es posible encontrar el volumen lógico nombreVL en la Base de


Datos de Configuración de Dispositivos.

(donde el volumen lógico denominado nombreVL está disponible normalmente).


Atención: No elimine las entradas de /dev para los grupos de volúmenes ni los volúmenes
lógicos. No cambie las entradas de base de datos para los grupos de volúmenes ni los volúmenes
lógicos utilizando el Gestor de datos de objetos.
Para sincronizar la base de datos de configuración de dispositivos con la información del LVM, con
autorización de root, escriba lo siguiente en la línea de mandatos:

synclvodm -v NombreGV

Donde NombreGV es el nombre del grupo de volúmenes que desea sincronizar.

Arreglo de errores de grupo de volúmenes


Utilice estos métodos para arreglar los errores de grupo de volúmenes.
Si el mandato importvg no funciona correctamente, intente renovar la base de datos de configuración de
dispositivos.

Anulación de una anomalía de activación


Atención: La anulación de una anomalía de activación es una operación inusual; compruebe todas
las demás fuentes de problemas posibles como el hardware, los cables, los adaptadores y las
fuentes de alimentación antes de seguir. La anulación de una anomalía de quórum durante un
proceso de activación sólo se utiliza en caso de emergencia y sólo como último recurso (por
ejemplo, para recuperar los datos de un disco que falla). No se puede garantizar la integridad de
los datos para la gestión de los datos contenidos en las copias elegidas de la VGDA y la VGSA
cuando se anula una anomalía de quórum.
Cuando se elige forzar la activación de un grupo de volúmenes mediante la anulación de la ausencia de
quórum, el estado PV STATE de todos los volúmenes físicos que faltan durante este proceso de activación
se cambiará a eliminado. Esto significa que todas las VGDA y las copias de VGSA se eliminarán de estos
volúmenes físicos. Después de esto, los volúmenes físicos ya no formarán parte en la comprobación de
quórum, ni tendrán permitido activarse en el grupo de volúmenes hasta que se devuelvan al grupo de
volúmenes. El distintivo varyonvg -f (utilizado para alterar temporalmente la pérdida de quórum) no se
tiene en cuenta si el grupo de volúmenes no ha perdido el quórum.
Bajo una o varias de las condiciones siguientes, es aconsejable anular la anomalía de activación para
poder acceder a los datos de los discos disponibles en el grupo de volúmenes:
• Los volúmenes físicos no disponibles parecen dañados permanentemente.

Gestión de dispositivos 33
• Puede confirmar que como mínimo uno de los volúmenes físicos accesibles ahora (que también debe
contener una copia correcta de VGDA y VGSA) estaba en línea la última vez que el grupo de volúmenes
se ha activado. Elimine la configuración y apague los volúmenes físicos que faltan hasta que se puedan
diagnosticar y reparar.
Utilice el siguiente procedimiento para evitar la pérdida de quórum cuando falte un disco o pueda fallar
pronto y necesite reparación:
1. Para eliminar temporalmente el volumen del grupo de volúmenes, escriba:

chpv -vr NombreVF

Cuando finalice este mandato, el volumen físico NombreVF ya no se computa como factor en la
comprobación del quórum. Sin embargo, en un grupo de volúmenes de dos discos, el mandato falla si
intenta el mandato chpv en el disco que contiene dos VGDA/VGSA. El mandato no le permite provocar
la pérdida de quórum.
2. Si debe extraer el disco para repararlo, apague el sistema y extraiga el disco. (Para obtener
instrucciones, consulte el apartado “Resolución de problemas de unidades de disco” en la página 24.)
Tras arreglar el disco y devolverlo al sistema, continúe en el paso siguiente.
3. Para que el disco vuelva a estar disponible en el grupo de volúmenes para la comprobación de
quórum, escriba:

chpv -v a NombreVF

Nota: El mandato chpv sólo se utiliza para la alteración de la comprobación de quórum. Los datos que
residen en el disco siguen ahí y se deben mover o copiar en otros discos si el disco no va a volver al
sistema.

Avisos de VGDA
En algunos casos, el usuario experimenta un problema al añadir un nuevo disco a un grupo de volúmenes
existentes o al crear un nuevo grupo de volúmenes. El mensaje que LVM proporciona es:

0516-1163 extendvg: NombreGV ya dispone del número máximo de volúmenes físicos. Dado que el
número
máximo de particiones físicas por volumen físico es de
LÍMITE, el número máximo
de volúmenes físicos para el grupo de volúmenes
NombreGV es DiscosMáx.

Donde:
NombreGV
Es el nombre del grupo de volúmenes.
LÍMITE
Es 1016 o un múltiplo de 1016.
DiscosMáx
Es el número máximo de discos de un grupo de volúmenes. Por ejemplo, si hay 1016 particiones
físicas (PF) por disco, DiscosMáx es 32; si hay 2032, DiscosMáx es 16.
Puede modificar el archivo image.data y después utilizar la instalación de disco alternativo, o restaurar
el sistema utilizando el mandato mksysb para volver a crear el grupo de volúmenes como grupo de
volúmenes grande. Para obtener más información, consulte Installation and migration.
En las versiones anteriores de AIX cuando el límite era inferior a 32 discos, la excepción a esta
descripción de la VGDA máxima era rootvg. Para proporcionar a los usuarios más espacio de disco libre,
cuando se creaba rootvg, el mandato mkvg -d utilizaba el número de discos seleccionado en el menú de
instalación como número de referencia. El número de -d es 7 para un disco y uno más para cada disco
adicional seleccionado. Por ejemplo, si se han seleccionado dos discos, el número es 8 y si se han
seleccionado tres discos, el número es 9, etcétera.

34 AIX Versión 7.2: Gestión de dispositivos


Almacenamiento de volúmenes lógicos
Los volúmenes lógicos son grupos de información ubicados en volúmenes físicos.
Se utiliza una jerarquía de estructuras para gestionar el almacenamiento de disco. Cada unidad de disco
individual, denominada volumen físico (PV) tiene un nombre, por ejemplo, /dev/hdisk0. Cada volumen
físico en uso pertenece a un grupo de volúmenes (VG). Todos los volúmenes físicos de un grupo de
volúmenes se dividen en particiones físicas (PP) del mismo tamaño. Para la asignación de espacio, cada
volumen físico se divide en cinco regiones (borde_exterior, borde_interior, mitad_exterior,
mitad_interior y mitad). El número de particiones físicas de cada región varía, según la capacidad total
de la unidad de disco.
En cada grupo de volúmenes, se definen uno o varios volúmenes lógicos (LV). Los datos de los volúmenes
lógicos se presentan al usuario como contiguos pero pueden ser discontinuos en el volumen físico. Esto
permite redimensionar o reubicar los sistemas de archivos, el espacio de paginación y otros volúmenes
lógicos, a fin de abarcar múltiples volúmenes físicos y duplicar su contenido para lograr mayor flexibilidad
y disponibilidad del almacenamiento de datos.
Cada volumen lógico consiste en una o varias particiones lógicas (LP). Cada partición lógica corresponde
como mínimo a una partición física. Si se especifica la réplica para el volumen lógico, se asignan
particiones físicas adicionales para almacenar las copias adicionales de cada partición lógica. Aunque las
particiones lógicas se numeran consecutivamente, las particiones físicas subyacentes no tienen que ser
necesariamente consecutivas ni contiguas.
Los volúmenes lógicos pueden servir para varios propósitos del sistema, como la paginación, pero cada
volumen lógico sólo sirve para un propósito. Muchos volúmenes lógicos contienen un solo sistema de
archivos de diario (JFS o JFS2). Cada JFS consiste de una agrupación de bloques de tamaño de página (4
KB). Cuando los datos se deben grabar en un archivo, se asigna uno o varios bloques adicionales a ese
archivo. Estos bloques pueden no ser contiguos entre si ni con los demás bloques asignados previamente
al archivo. Se puede haber definido que un sistema de archivos determinado tenga un tamaño de
fragmento inferior a 4 KB (512 bytes, 1 KB, 2 KB).
Tras la instalación, el sistema tiene un grupo de volúmenes (el grupo de volúmenes rootvg) que consiste
en un conjunto de volúmenes lógicos base necesarios para iniciar el sistema y cualquier otro volumen
lógico que especifique para el script de instalación. Cualquier volumen físico que tenga conectado al
sistema se puede añadir a un grupo de volúmenes (utilizando el mandato extendvg). Puede añadir el
volumen físico al grupo de volúmenes rootvg o a otro grupo de volúmenes (definido mediante el mandato
mkvg). Los volúmenes lógicos se pueden adaptar utilizando los mandatos y la interfaz de la herramienta
System Management Interface Tool (SMIT) dirigida por menús.
Tareas relacionadas
Cómo notificar al administrador cuando falta un volumen físico
Aunque AIX registra un error cuando no se puede acceder a un volumen físico, existen circunstancias en
las que es posible que no se pueda detectar un error.
Subdivisión de un disco duplicado de un grupo de volúmenes
El soporte de instantánea le ayuda a proteger la coherencia de los grupos de volúmenes duplicados
contra posibles anomalías de disco.
Reducción del tamaño de un sistema de archivos en el grupo de volúmenes raíz
El procedimiento más sencillo para reducir todos los sistemas de archivos a su tamaño mínimo es
establecer la opción SHRINK en yes al restaurar el sistema operativo base a partir de la copia de
seguridad.

Preparación de la instalación de un dispositivo


La instalación de dispositivos en el sistema consiste en la identificación de donde debe conectarse el
dispositivo, la conexión física del dispositivo y la configuración del dispositivo con el Gestor de
configuración, o SMIT.

Gestión de dispositivos 35
Nota: El siguiente procedimiento necesita un cierre del sistema para instalar el dispositivo. No se necesita
el cierre del sistema para todas las instalaciones de dispositivos. Consulte la documentación
suministrada con el dispositivo.
Este tema documenta las tareas de instalación comunes a todos los dispositivos. Puesto que existe una
gran variedad de dispositivos que puede instalar en el sistema, sólo se proporciona un procedimiento
general. Para obtener información más específica, consulte las instrucciones de instalación enviadas con
el dispositivo específico.
1. Detenga todas las aplicaciones que se ejecutan en la unidad del sistema y cierre la unidad del sistema
utilizando el mandato shutdown.
2. Apague la unidad del sistema y todos los dispositivos conectados.
3. Desenchufe la unidad del sistema y todos los dispositivos conectados.
4. Conecte el nuevo dispositivo al sistema utilizando el procedimiento descrito en la guía de
configuración y del operador para el dispositivo.
5. Enchufe la unidad del sistema y todos los dispositivos conectados.
6. Encienda todos los dispositivos conectados dejando apagada la unidad del sistema.
7. Encienda la unidad del sistema cuando todos los dispositivos hayan completado sus autopruebas de
encendido (POST).
El Gestor de configuración explora automáticamente los dispositivos conectados y configura cualquier
dispositivo nuevo que detecte. Los nuevos dispositivos se configuran con los atributos predeterminados y
se registran en la base de datos de configuración personalizada colocando el dispositivo en estado
Disponible.
Puede configurar manualmente un dispositivo utilizando la vía rápida de SMIT, smit dev. Si debe
personalizar los atributos de dispositivo o si el dispositivo no se puede configurar automáticamente,
consulte la documentación del dispositivo que se suministra con él para ver los requisitos de
configuración específicos.

Configuración de una unidad óptica de lectura/grabación


Hay dos métodos para configurar una unidad óptica de lectura/grabación.
La unidad óptica de lectura/grabación debe estar conectada al sistema y encendida.
Método 1
Este método es el más rápido de los dos. Sólo configura la unidad óptica de lectura/grabación
especificada. Para utilizar este método, debe proporcionar la siguiente información:

Elemento Descripción
Subclase Define cómo está conectada la unidad.
Tipo Especifica el tipo de unidad óptica de lectura/grabación.
Nombre de padre Especifica la conexión del sistema a la que la unidad está conectada.
Lugar de conexión Especifica la dirección lógica de la unidad.

Especifique el mandato siguiente para configurar la unidad óptica de lectura/grabación:

mkdev -c rwoptical -s Subclase -t Tipo -p NombrePadre -w LugarConexión

En el siguiente ejemplo, una unidad óptica de lectura/grabación tiene el ID SCSI 6, el número de unidad
lógica cero y está conectada al tercer bus SCSI (scsi3):

mkdev -c rwoptical -s scsi -t osomd -p scsi3 -w 6,0 -a pv=yes

Método 2

36 AIX Versión 7.2: Gestión de dispositivos


Este método utiliza el Gestor de configuración que busca la configuración actual, suprime cualquier nuevo
dispositivo y configura automáticamente los dispositivos. Este método se utiliza cuando se tiene poca
información acerca de la unidad óptica de lectura/grabación.
1. Utilice el gestor de configuración para configurar todos los dispositivos que se acaban de detectar en
el sistema (incluyendo la unidad óptica de lectura/grabación) escribiendo:

cfgmgr

2. Escriba el mandato siguiente para listar los nombres, los códigos de ubicación y los tipos de todas las
unidades ópticas de lectura/grabación configuradas actualmente:

lsdev -C -c rwoptical

3. Determine el nombre de la unidad óptica de lectura/grabación que se acaba de configurar utilizando el


código de ubicación que coincida con la ubicación de la unidad que se añade.

Configuración de un gran número de dispositivos


Los dispositivos incluyen componentes de hardware como, por ejemplo, impresoras, unidades,
adaptadores, buses y alojamientos, así como pseudodispositivos como, por ejemplo, archivos especiales
de errores y archivos especiales de nulos. Los controladores de dispositivo están ubicados en el
directorio /usr/lib/drivers.
El número de dispositivos que AIX puede soportar puede variar según los sistemas, dependiendo de
varios factores importantes. Los siguientes factores influyen en los sistemas de archivos que soportan los
dispositivos:
• La configuración de un gran número de dispositivos necesita almacenamiento de más información en la
base de datos de configuración de dispositivos ODM. También puede necesitar más archivos especiales
de dispositivos. Como resultado, se necesita más espacio y más i-nodos del sistema de archivos.
• Algunos dispositivos necesitan más espacio que otros en la base de datos de configuración de
dispositivos ODM. El número de archivos especiales o i-nodos utilizados también varía de un dispositivo
a otro. Como resultado, la cantidad de espacio e i-nodos necesarios del sistema de archivos depende de
los tipos de dispositivos del sistema.
• Los dispositivos de E/S de múltiples vías de acceso (MPIO) necesitan más espacio que los dispositivos
que no son MPIO porque la información se almacena en el ODM para el propio dispositivo así como para
cada vía de acceso par el dispositivo. Como directriz aproximada, suponga que cada vía de acceso
ocupa el espacio de una quinta parte de un dispositivo. Por ejemplo, un dispositivo MPIO con cinco vías
de acceso tendrá el espacio equivalente a dos dispositivos que no son MPIO.
• AIX incluye dispositivos lógicos y físicos en la base de datos de configuración de dispositivos ODM. Los
dispositivos lógicos incluyen grupos de volúmenes, volúmenes lógicos, interfaces de red, etcétera. En
algunos casos, la relación entre dispositivos lógicos y físicos pueden afectar mucho al número total de
dispositivos soportados. Por ejemplo, si define un grupo de volúmenes con dos volúmenes lógicos para
cada disco físico que está conectado a un sistema, esto dará lugar a cuatro dispositivos AIX para cada
disco. Por otro lado, si define un grupo de volúmenes con seis volúmenes lógicos para cada disco físico,
serán ocho dispositivos AIX para cada disco. Por lo tanto, sólo se pueden conectar la mitad del número
de discos.
• El cambio de los valores predeterminados de los atributos de dispositivo da lugar a una base de datos
de configuración de dispositivos ODM mayor y puede conducir a que se soporten menos dispositivos.
• Más dispositivos necesitan más memoria real.
AIX utiliza dos sistemas de archivos para soportar dispositivos:
• El sistema de archivos RAM se utiliza durante el arranque en un entorno que no tiene espacio de
paginación y ningún sistema de archivos de disco montado. El tamaño del sistema de archivos RAM es
el 25% del tamaño de la memoria del sistema hasta un máximo de 128 MB. Se asigna un i-nodo para
cada KB del sistema de archivos RAM. El requisito de memoria mínima del sistema para el sistema
operativo AIX es de 256 MB, que se traduce en un tamaño de sistema de archivos RAM mínimo de 64
MB con 65536 i-nodos. Si el tamaño de memoria del sistema es 512 MB o superior, el sistema de

Gestión de dispositivos 37
archivos RAM tendrá su tamaño máximo de 128 MB con 131072 i-nodos. Si la cantidad de espacio del
sistema de archivos RAM o número de i-nodos necesarios para soportar los dispositivos conectados
excede de lo que se ha asignado al disco RAM, el sistema puede que no arranque. Si este es el caso,
debe eliminar algunos de los dispositivos
• El espacio y los i-nodos del sistema de archivos raíz (rootvg) del disco se pueden ampliar siempre que
haya particiones no asignadas en rootvg. Con el tamaño de sistema de archivos RAM máximo,
probablemente se pueden configurar hasta 25.000 dispositivos de AIX.. Estos números incluyen
dispositivos físicos y lógicos. Según los distintos factores mencionados, es posible que el sistema pueda
configurar más o menos dispositivos.
Nota: Con un número grande de dispositivos en el sistema, el tiempo de configuración más largo
contribuye a un tiempo de arranque más largo.

Adición de una unidad de soportes de almacenamiento extraíbles


Puede añadir una unidad de soportes de almacenamiento extraíbles.
En el procedimiento siguiente se utiliza SMIT para añadir una unidad de CD-ROM al sistema. Otros tipos
de unidades de soportes de almacenamiento extraíbles se añaden utilizando diferentes vías de acceso
rápidas, pero todos siguen el mismo procedimiento general. También puede añadir una unidad de
soportes de almacenamiento extraíbles mediante el Gestor de configuración, o el mandato mkdev.
La información de este procedimiento se ha probado utilizando versiones específicas de AIX. Los
resultados que obtenga pueden variar significativamente dependiendo de la versión y el nivel de AIX.
1. Para añadir una unidad de CD-ROM al sistema, instale el hardware tal como se indica en la
documentación que se entrega con el sistema.
2. Con la autorización de root, escriba la vía de acceso rápida de SMIT siguiente:

smit makcdr

3. En la pantalla siguiente, seleccione el tipo de unidad de la lista de unidades soportadas disponibles.


4. En la pantalla siguiente, seleccione el adaptador padre de la lista disponible.
5. En la pantalla siguiente seleccione, como mínimo, la dirección de conexión de la lista de conexiones
disponibles. También puede utilizar esta pantalla para seleccionar otras opciones. Una vez que haya
finalizado, pulse Intro. A continuación, SMIT añade la nueva unidad de CD-ROM.
En este punto, el sistema reconoce la nueva unidad de CD-ROM. Para añadir una unidad óptica de lectura/
grabación, utilice la vía de acceso rápida smit makomd. Para añadir un unidad de cintas, utilice la vía de
acceso rápida smit maktpe.
Consulte la descripción del mandato mkdev que se proporciona en Commands Reference, Volume 3 para
obtener más información.

Soporte de reclamación de espacio para almacenamiento de volumen lógico


En AIX 7.2 con el nivel de tecnología 7200-01, o posterior, el Gestor de volúmenes lógicos (LVM) soporta
la reclamación de espacio para volúmenes físicos que pueden reclamar espacio.
LVM informa al controlador de disco, que a su vez informa al subsistema de almacenamiento de que el
espacio de partición ya no está en uso y de que el subsistema de almacenamiento puede reclamar el
espacio asignado. El controlador de disco ayuda a LVM a detectar la capacidad de reclamación de espacio
del volumen físico. Los mandatos de LVM y de configuración del sistema de archivos como el mandato
rmlv, rmlvcopy y chfs(shrink fs) inician la reclamación de espacio para las particiones una vez que
se hayan liberado. LVM detecta la capacidad de reclamación de espacio del volumen físico cuando abre el
volumen durante la ejecución del mandato varyonvg o extendvg. LVM también intenta detectarlo
mientras el grupo de volúmenes está en línea. Si la detección de cambio de estado requiere volumen
físico para reabrirse, el administrador debe ejecutar el mandato varyoffvg y, a continuación, ejecutar el
mandato varyonvg para el grupo de volúmenes.
Los grupos de volúmenes que se crean antes de AIX 7.2 Tecnología de nivel 1 puede haber espacio de
partición libre, que no es elegible para la reclamación automática. El administrador puede crear y suprimir

38 AIX Versión 7.2: Gestión de dispositivos


volumen lógico ficticio en dichas particiones libres para reclamar este espacio. Sin embargo, el espacio se
reclamará automáticamente para las particiones, que se liberan tras la instalación de AIX 7.2 Tecnología
de nivel 1.
El proceso de LVM para reclamar el espacio se ejecuta en segundo plano una vez que un mandato como
por ejemplo rmlv termine de ejecutarse. Si el sistema se cuelga antes de que el proceso de LVM finalice
el proceso de reclamación para todas las particiones, estas se liberarán, pero el espacio no se reclama
para las particiones pendientes. Si se produce este caso, puede crear y suprimir el volumen lógico ficticio
para reclamar el espacio de las particiones restantes.
El proceso de LVM no retrasa el proceso del mandato varyoffvg o del mandato reducevg aunque el
proceso de reclamación de espacio esté pendiente. El proceso de reclamación de espacio se descartará
en lugar de esperar a que finalice el proceso.
Nota: Los mandatos solo esperan que se envíen solicitudes de reclamación de espacio pendientes
enviadas al controlador del disco.
La funcionalidad de reclamación de espacio está disponible desde el subsistema de almacenamiento para
reclamar el espacio liberado de un volumen físico. Cada subsistema de almacenamiento espera que la
solicitud de reclamo esté alineada en cuanto al número específico de bloques físicos, y el número de
bloques físicos varía en función del subsistema de almacenamiento. Por lo tanto, en ocasiones reclamar
bloques (todos o algunos) de la partición no es posible debido a que el tamaño de reclamación no está
alineado con los bloques físicos de la partición. Algunos subsistemas de almacenamiento soportan la
reclamación del tamaño de bloque que es mayor que el tamaño de partición de LVM, y la reclamación de
bloque parcial no es posible. En este caso, es posible que LVM no pueda acumular suficientes particiones
libres contiguas para generar incluso una solicitud de reclamación única. Por lo tanto, cuando suprima
varias particiones LVM, es posible que no reclame la cantidad equivalente de espacio en el subsistema de
almacenamiento. Puede utilizar el mandato lvmstat con la opción -r para obtener información sobre las
solicitudes de reclamación de espacio generadas por el LVM.
Información relacionada
Mandato varyoffvg

Conceptos de almacenamiento de volumen lógico


El volumen lógico (que puede abarcar volúmenes físicos) se compone de particiones lógicas asignadas a
particiones físicas.
La siguiente figura ilustra las relaciones entre los conceptos básicos de almacenamiento lógico.

Figura 1. Grupo de volúmenes

Volúmenes físicos
Es necesario designar un disco como volumen físico y ponerlo en estado disponible para poderlo asignar a
un grupo de volúmenes.
Un volumen físico dispone de determinada información de configuración e identificación grabada en él.
Esta información incluye un identificador de volumen físico que es exclusivo en el sistema.
El LVM puede utilizar el espacio adicional que una batería redundante de discos idénticos (RAID) puede
añadir a un número de unidad lógica (LUN), mediante la adición de particiones físicas al volumen físico
asociado a la LUN.

Gestión de dispositivos 39
Grupos de volúmenes
Un grupo de volúmenes es una colección de 1 a 32 volúmenes físicos de tamaños y tipos diferentes.
Un grupo de volúmenes grande puede tener de 1 a 128 volúmenes físicos. Un grupo de volúmenes
escalable puede tener hasta 1024 volúmenes físicos. Un volumen físico sólo puede pertenecer a un grupo
de volúmenes por sistema; pueden estar activos un máximo de 255 grupos de volúmenes.
Cuando asigna un volumen físico a un grupo de volúmenes, los bloques físicos de soporte de
almacenamiento que contiene se organizan en particiones físicas del tamaño que ha especificado al crear
el grupo de volúmenes.
Al instalar el sistema, se crea automáticamente un grupo de volúmenes (el grupo de volúmenes raíz,
denominado rootvg) que contiene el conjunto de volúmenes lógicos base necesarios para iniciar el
sistema, así como cualquier otro volumen lógico que especifique en el script de instalación. rootvg incluye
el espacio de paginación, el registro de diario, los datos de arranque y el almacenamiento de vuelcos,
cada uno en su propio volumen lógico separado. rootvg tiene atributos que difieren de los grupos de
volúmenes definidos por el usuario. Por ejemplo, rootvg no se puede importar ni exportar. Cuando ejecute
un mandato o un procedimiento en rootvg, debe estar familiarizado con sus características exclusivas.
Un grupo de volúmenes se crea con el mandato mkvg. Un volumen físico se añade a un grupo de
volúmenes con el mandato extendvg, el tamaño cambiado de un volumen físico se utiliza con el
mandato chvg y un volumen físico se elimina de un grupo de volúmenes con el mandato reducevg.
Algunos de los demás mandatos que se utilizan en los grupos de volúmenes son: listar (lsvg), eliminar
(exportvg), instalar (importvg), reorganizar (reorgvg), sincronizar (syncvg), hacer que esté
disponible para uso (varyonvg) y hacer que no esté disponible para uso (varyoffvg).
Es posible que los sistemas pequeños sólo necesiten un grupo de volúmenes para contener todos los
volúmenes físicos conectados al sistema. Sin embargo, puede crear grupos de volúmenes separados por
razones de seguridad, ya que cada grupo de volúmenes puede tener sus propios permisos de seguridad.
Los grupos de volúmenes separados también facilitan el mantenimiento porque los grupos a los que no se
da servicio pueden permanecer activos. Puesto que rootvg siempre debe estar en línea, sólo contiene el
número mínimo de volúmenes físicos necesarios para el funcionamiento del sistema.
Puede mover datos de un volumen físico a otros volúmenes físicos del mismo grupo de volúmenes con el
mandato migratepv. Este mandato permite liberar un volumen físico para que se pueda eliminar del
grupo de volúmenes. Por ejemplo, puede mover los datos de un volumen físico que se debe sustituir.
Un grupo de volúmenes que se crea con límites pequeños de volumen físico y lógico se puede convertir a
un formato que pueda contener más volúmenes físicos y lógicos. Esta operación requiere que haya
suficientes particiones libres en cada volumen físico del grupo de volúmenes para la expansión del área
de descriptores del grupo de volúmenes (VGDA). El número de particiones libres necesarias depende del
tamaño de VGDA actual y el tamaño de partición física. Puesto que VGDA reside en el límite del disco y
requiere espacio contiguo, se necesitan particiones libres en el límite del disco. Si estas particiones se
asignan para uso de un usuario, se migran a otras particiones libres del mismo disco. El resto de
particiones físicas se numeran para reflejar la pérdida de particiones para uso de VGDA. Estos nuevos
números cambian las correlaciones de las particiones lógicas con las físicas en todos los volúmenes
físicos de este grupo de volúmenes. Si ha guardado las correlaciones de los volúmenes lógicos para una
posible operación de recuperación, genere las correlaciones de nuevo tras la finalización de la operación
de conversión. Además, si la copia de seguridad del grupo de volúmenes se realiza con la opción de
correlación y tiene previsto que la restauración utilice esas correlaciones, la operación de restauración
podría fallar porque el número de partición ya no exista (debido a la reducción). Se recomienda que la
copia de seguridad se haga antes de la conversión e inmediatamente después de la conversión si se
utiliza la opción de correlación. Puesto que el espacio de VGDA se ha aumentado sustancialmente, la
ejecución de cada operación de actualización de VGDA (creación de un volumen lógico, cambio de un
volumen lógico, adición de un volumen físico, etcétera) puede tardar un tiempo considerable.

Particiones físicas
Cuando se añade un volumen físico a un grupo de volúmenes, el volumen físico se particiona en unidades
de espacio contiguas, de igual tamaño, denominadas particiones físicas. Una partición física es la unidad
más pequeña de asignación de espacio de almacenamiento y es un espacio contiguo en un volumen
físico.

40 AIX Versión 7.2: Gestión de dispositivos


Los volúmenes físicos heredan el tamaño de partición física del grupo de volúmenes, que sólo puede
establecer al crear el grupo de volúmenes (por ejemplo, utilizando el mandato mkvg -s). La siguiente
ilustración muestra la relación entre las particiones físicas de volúmenes físicos y grupos de volúmenes.

Figura 2. Grupo de volúmenes que contiene tres volúmenes físicos

Volúmenes lógicos
Tras crear un grupo de volúmenes, puede crear volúmenes lógicos en él.
Un volumen lógico, aunque puede residir en particiones físicas no contiguas o incluso en más de un
volumen físico, se presenta a los usuarios y las aplicaciones como un solo volumen de disco extensible y
contiguo. Puede crear volúmenes lógicos adicionales con el mandato mklv. Este mandato permite
especificar el nombre del volumen lógico y definir sus características, incluyendo el número y la ubicación
de las particiones lógicas que se le deben asignar.
Después de crear un volumen lógico, puede cambiar su nombre y características con el mandato chlv y
aumentar el número de particiones lógicas que tiene asignadas con el mandato extendlv. El tamaño
máximo predeterminado para un volumen lógico en su creación es 512 particiones lógicas, a menos que
se especifique mayor. El mandato chlv se utiliza para alterar temporalmente esta limitación.
Nota: Después de crear un volumen lógico, se cierra la característica LV STATE, que se puede ver
utilizando el mandato lslv. Se abre cuando, por ejemplo, se ha creado un sistema de archivos en el
volumen lógico y se monta el volumen lógico.
Los volúmenes lógicos también se pueden copiar con el mandato cplv, listar con el mandato lslv,
eliminar con el mandato rmlv y aumentar o disminuir el número de copias que mantienen con los
mandatos mklvcopy y rmlvcopy, respectivamente. Los volúmenes lógicos también se pueden reubicar
cuando se reorganiza el grupo de volúmenes.
El sistema permite definir hasta 255 volúmenes lógicos por grupo de volúmenes estándar (511 para un
grupo de volúmenes grande y 4095 para un grupo de volúmenes escalable), pero el número real que
puede definir depende de la cantidad total de almacenamiento físico definido para ese grupo de
volúmenes y el tamaño de los volúmenes lógicos que defina.

Particiones lógicas
Al crear un volumen lógico, se especifica el número de particiones lógicas para el volumen lógico.
Una partición lógica es una, dos o tres particiones físicas, según el número de instancias de los datos que
desea mantener. La especificación de una instancia significa que sólo hay una copia del volumen lógico (el
valor predeterminado). En este caso, existe una correlación directa de una partición lógica con una
partición física. Cada instancia, incluyendo la primera, se denomina copia. El lugar en el que están
ubicadas las particiones físicas (es decir, la proximidad física entre si) se determina por las opciones que
se especifican al crear el volumen lógico.

Sistemas de archivos
El volumen lógico define la asignación de espacio de disco hasta el nivel de partición física. Se consiguen
mejores niveles de gestión de datos mediante componentes de software de nivel superior como, por
ejemplo, el Gestor de memoria virtual o el sistema de archivos. Por lo tanto, el paso final de la evolución
de un disco es la creación de sistemas de archivos.

Gestión de dispositivos 41
Puede crear un sistema de archivos por volumen lógico. Para crear un sistema de archivos, utilice el
mandato crfs.

Limitaciones de la gestión de almacenamiento lógico


La tabla siguiente muestra las limitaciones de la gestión de almacenamiento lógico.
Aunque el número máximo predeterminado de volúmenes físicos por grupo de volúmenes es 32 (128
para un grupo de volúmenes grande, 1024 para un grupo de volúmenes escalable), puede establecer el
máximo para grupos de volúmenes definidos por el usuario al utilizar el mandato mkvg. Sin embargo, para
rootvg, el sistema establece automáticamente esta variable en el máximo durante la instalación.

Categoría Límite
Grupo de volúmenes • 255 grupos de volúmenes para el kernel de 32
bits
• 4096 grupos de volúmenes para el kernel de 64
bits
Nota: La tabla de dispositivos del kernel de 64 bits
restringe el número de números principales activos
a 1024. Por lo tanto, el número de grupos de
volúmenes activos queda restringido a menos de
1024 grupos de volúmenes.

Volumen físico (MAXPVS/factor de grupo de volúmenes) por grupo


de volúmenes. MAXPVS es 32 para un grupo de
volúmenes estándar, 128 para un grupo de
volúmenes grande y 1024 para un grupo de
volúmenes escalable.
Partición física Grupos de volúmenes normal y grande: (1016 x
factor de grupo de volúmenes) por volumen físico
hasta 1024 MB de tamaño cada uno. Grupos de
volúmenes escalables: 2097152 particiones de
hasta 128 GB de tamaño. No hay factor de grupo
de volúmenes para grupos de volúmenes
escalables.
Volumen lógico MAXLVS por grupo de volúmenes, que es 255 para
un grupo de volúmenes estándar, 511 para un
grupo de volúmenes grande y 4095 para un grupo
de volúmenes escalable.

Si ha creado previamente un grupo de volúmenes, antes de que se forzara la restricción de 1016


particiones físicas por volumen físico, no se hace un seguimiento correcto de las particiones obsoletas
(que ya no contienen los datos más actuales) del grupo de volúmenes a menos que convierta el grupo de
volúmenes a un estado soportado. Puede convertir el grupo de volúmenes con el mandato chvg -t. Se
elige de forma predeterminada un valor de factor adecuado para acomodar el disco más grande en el
grupo de volúmenes.
Por ejemplo, si ha creado un grupo de volúmenes con un disco de 9 GB y un tamaño de partición de 4 MB,
este grupo de volúmenes tendrá aproximadamente 2250 particiones. La utilización del factor de
conversión 3 (1016 * 3 = 3048) permite hacer un seguimiento correcto de las 2250 particiones. La
conversión de un grupo de volúmenes estándar o grande con un factor superior permite la inclusión de un
disco de particiones mayor hasta el factor 1016*. También puede especificar un factor superior al crear el
grupo de volúmenes para acomodar un disco mayor con un tamaño de partición más pequeño.
Estas operaciones reducen el número total de discos que puede añadir a un grupo de volúmenes. El
nuevo número máximo de discos que puede añadir sería MAXPVS/factor. Por ejemplo, para un grupo de
volúmenes regular, el factor 2 reduce el número máximo de discos del grupo de volúmenes a 16 (32/2).

42 AIX Versión 7.2: Gestión de dispositivos


Para un grupo de volúmenes grande, el factor 2 reduce el número de discos del grupo de volúmenes a 64
(128/2).

Límites de tamaño del dispositivo LVM


Los límites siguientes son los límites de la arquitectura del LVM. Si se requiere la reubicación de bloques
erróneos de LVM, los tamaños de VF no pueden ser superiores a 128 GB. Para ver las limitaciones de
tamaño de dispositivos de almacenamiento específicos, consulte la documentación del dispositivo de
almacenamiento.
Los siguientes límites de tamaño son para el kernel de 64 bits:
GV original
Límite de VF: 1GB (PP) * 16256 (PPs/VF, factor=16) = 15,9 TB
Límite de VL: 1GB (PP) * 32512 (PPs/GV) = 31,8 TB
GV grande
Límite de VF: 1GB (PP) * 65024 (PPs/VF, factor=64) = 63,5 TB
Límite de VL: 1GB (PP) * 130048 (PPs/GV) = 127 TB
GV estándar
Límite de VF y VL: 128GB (PP) * 2048K (PPs/VF) = 256 PB
Los siguientes límites de tamaño son para un kernel de 32 bits:
Todos los tipos de GV
Límite de VF: < 1 TB
Límite de VL: < 1 TB

Configuración del Almacenamiento de volúmenes lógicos


Con el Almacenamiento de volúmenes lógicos puede replicar grupos de volúmenes, definir un volumen
lógico y extraer un disco con el sistema en ejecución.

Réplica de un grupo de volúmenes


Estos casos de ejemplo explican cómo replicar un grupo de volúmenes normal.
Las siguientes instrucciones muestran cómo replicar un grupo de volúmenes raíz utilizando la
herramienta System Management Interface Tool (SMIT).
(seleccione un grupo de volúmenes del contenedor Volúmenes, después elija Replicar en el menú
Seleccionado). Los administradores experimentados pueden utilizar el mandato mirrorvg.
1. Con autorización de root, añada un disco al grupo de volúmenes utilizando la siguiente vía rápida de
SMIT:

smit extendvg

2. Replique el grupo de volúmenes en el nuevo disco escribiendo la siguiente vía rápida de SMIT:

smit mirrorvg

3. En el primer panel, seleccione un grupo de volúmenes para la réplica.


4. En el segundo panel, puede definir las opciones de réplica o aceptar los valores predeterminados. Hay
ayuda en línea disponible por si la necesita.
Nota: Cuando complete los paneles de SMIT y pulse en OK o Salir, el mandato subyacente puede tardar
un tiempo significativo en completarse. El tiempo se ve afectado por la comprobación de errores, el
tamaño y el número de volúmenes lógicos del grupo de volúmenes y el tiempo que tarda en sincronizar
los volúmenes lógicos que se acaban de replicar.
En este punto, todos los cambios en los volúmenes lógicos se replicarán según lo especificado en los
paneles de SMIT.

Gestión de dispositivos 43
Réplica del grupo de volúmenes raíz
El siguiente caso explica cómo replicar el grupo de volúmenes raíz (rootvg).
Nota: Para la réplica del grupo de volúmenes raíz necesita experiencia en la administración avanzada del
sistema. Si no se realiza correctamente, es posible que el sistema no pueda arrancar.
En el caso siguiente, rootvg está contenido en hdisk01, y la réplica se realiza en un disco denominado
hdisk11:
1. Compruebe que AIX soporte hdisk11 como dispositivo de arranque:

bootinfo -B hdisk11

Si este mandato devuelve el valor 1, AIX puede arrancar el disco seleccionado. Cualquier otro valor
indica que hdisk11 no es un candidato para la réplica de rootvg.
2. Amplíe rootvg para que incluya hdisk11, utilizando el mandato siguiente:

extendvg rootvg hdisk11

Si recibe los siguientes mensajes de error:

0516-050 No se ha dejado suficiente espacio de área de descriptor en este grupo


de volúmenes. Intente
añadir un VF más pequeño o use otro grupo de volúmenes.

o un mensaje similar a:

0516-1162 extendvg: Aviso, El tamaño de Partición Física de 16 requiere la


creación de 1084 particiones para hdisk11. El límite para el grupo de volúmenes
rootvg es 1016 particiones físicas por volumen físico. Utilice el mandato chvg
con
la opción -t para intentar cambiar el número máximo de particiones físicas
por cada Volumen
físico de este grupo de volúmenes.

Dispone de las opciones siguientes:


• Replicar rootvg en un disco vacío que ya pertenezca a rootvg.
• Utilizar un disco más pequeño.
• Cambiar el número máximo de particiones soportadas por rootvg, utilizando el siguiente
procedimiento:
a. Compruebe en el mensaje el número de particiones físicas necesarias para el disco de destino y
el número máximo que rootvg soporta actualmente.
b. Utilice el mandato chvg -t para multiplicar el número máximo de particiones actualmente
permitidas en rootvg (en el ejemplo anterior, 1016) hasta un número que sea mayor que las
particiones físicas necesarias para el disco de destino (en el ejemplo anterior, 1084). Por
ejemplo:

chvg -t 2 rootvg

c. Vuelva a emitir el mandato extendvg del principio del paso 2.


3. Replique rootvg, utilizando la opción de correlación exacta, tal como se muestra en el mandato
siguiente:

mirrorvg -m rootvg hdisk11

Este mandato desactivará el quórum cuando el grupo de volúmenes sea rootvg. Si no utiliza la opción
de correlación exacta, debe verificar que la nueva copia del volumen lógico de arranque, hd5, esté
formada por particiones contiguas.
4. Inicialice todos los registros y dispositivos de arranque, utilizando el mandato siguiente:

bosboot -a

44 AIX Versión 7.2: Gestión de dispositivos


5. Inicialice la lista de arranque con el mandato siguiente:

bootlist -m normal hdisk01 hdisk11

Nota:
a. Aunque el mandato bootlist identifica hdisk11 como disco de arranque alternativo, no puede
garantizar que el sistema utilizará hdisk11 como el dispositivo de arranque si hdisk01 falla. En
este caso, es posible que deba arrancar desde el soporte del producto, seleccionar
mantenimiento, y volver a emitir el mandato bootlist sin nombrar el disco que ha fallado.
b. Si el modelo de hardware no soporta el mandato bootlist, puede seguir replicando rootvg, pero
debe seleccionar activamente el disco de arranque alternativo cuando el disco original no esté
disponible.

Definición de un volumen lógico sin formato para una aplicación


Un volumen lógico sin formato es un área de espacio de disco física o lógica que se encuentra bajo el
control directo de una aplicación, por ejemplo, una base de datos o una partición, en lugar de bajo el
control directo del sistema de archivos o un sistema de archivos.
Pasar por alto el sistema de archivos puede producir un mejor rendimiento de la aplicación de control,
especialmente, de aplicaciones de base de datos. No obstante, la mejora depende de factores como, por
ejemplo, el tamaño de una base de datos o el controlador de la aplicación.
Nota: necesita proporcionar a la aplicación el archivo de dispositivo especial de bloques o caracteres para
el nuevo volumen lógico sin formato, según proceda. La aplicación enlaza a dicho archivo de dispositivo al
intentar realizar las aperturas, lecturas o grabaciones, entre otras.
Atención: Cada volumen lógico tiene un bloque de control de volumen lógico (LVCB) ubicado en el
primer bloque. El tamaño del LVCB és el tamaño del bloque de los volúmenes físicos del grupo de
volúmenes. Los datos empiezan a partir del segundo bloque del volumen físico. En un volumen
lógico sin formato, LVCB no está protegido. Si una aplicación sobrescribe LVCB, los mandatos que,
normalmente, generan la actualización de LVCB, dan error y generan un mensaje. Aunque es
posible que el volumen lógico continúe funcionando de modo correcto y la sobrescritura sea un
suceso permitido, no se recomienda sobrescribir el LVCB.
En las instrucciones siguientes se utiliza SMIT y la interfaz de línea de mandatos para definir un volumen
lógico sin formato.
La información de este procedimiento se ha probado utilizando versiones específicas de AIX. Los
resultados que obtenga pueden variar significativamente dependiendo de la versión y el nivel de AIX.
1. Con autorización de root, busque las particiones físicas libres en las que puede crear el volumen lógico
sin formato escribiendo la vía de acceso rápida SMIT siguiente:

smit lspv

2. Seleccione un disco.
3. Acepte el valor predeterminado en el segundo diálogo (estado) y pulse Aceptar.
4. Multiplique el valor del campo FREE PPs por el valor del campo PP SIZE a fin de obtener el número
total de megabytes disponibles para un volumen lógico sin formato en el disco seleccionado.
Si la cantidad de espacio libre no es adecuada, seleccione otro disco hasta que encuentre uno que
tenga suficiente espacio libre disponible.
5. Salga de SMIT.
6. Utilice el mandato mklv para crear el volumen lógico sin formato.
El mandato siguiente crea un volumen lógico sin formato denominado lvdb2003 en el grupo de
volúmenes db2vg mediante 38 particiones físicas de 4 MB:

mklv -y lvdb2003 db2vg 38

Utilice el distintivo -y para proporcionar el nombre para el volumen lógico, en lugar de utilizar un
nombre generado por el sistema.

Gestión de dispositivos 45
En este punto, se crea el volumen lógico sin formato. Si lista el contenido del grupo de volúmenes, se
muestra un volumen lógico sin formato con el tipo predeterminado, que es jfs. Esta entrada de tipo para
un volumen lógico es, simplemente, una etiqueta. No indica que se haya montado un sistema de archivos
para el volumen lógico sin formato.
Consulte las instrucciones de la aplicación para obtener información sobre el modo de abrir /dev/
rawLVname y cómo utilizar el espacio sin formato.
Conceptos relacionados
Configuración del Gestor de volúmenes lógicos
El Gestor de volúmenes lógicos (LVM) se instala con el sistema operativo base y no necesita más
configuración. Sin embargo, se deben configurar y definir los discos como volúmenes físicos para que el
LVM los pueda utilizar.
Información relacionada
Mandato mklv
Gestor de volúmenes lógicos de la A a la Z: introducción y conceptos

Eliminación de la réplica del grupo de volúmenes raíz


Puede eliminar la réplica del grupo de volúmenes raíz.
Atención: Para eliminar la réplica del grupo de volúmenes raíz necesita experiencia en la
administración avanzada del sistema. Si no se hace correctamente, es posible que el sistema no
pueda arrancar.
En el siguiente ejemplo, el grupo de volúmenes raíz se encuentra en hdisk01 y replicado en hdisk11. Este
ejemplo elimina la réplica de hdisk11. El procedimiento es el mismo, sin importar el disco que se ha
arrancado en último lugar.
1. Utilice el mandato siguiente para eliminar la réplica del grupo de volúmenes raíz de hdisk11:

unmirrorvg rootvg hdisk11

El mandato unmirrorvg vuelve a activar el quórum para el grupo de volúmenes raíz.


2. Utilice el mandato siguiente para reducir el disco del grupo de volúmenes raíz:

reducevg rootvg hdisk11

3. Utilice el mandato siguiente para reinicializar el registro de arranque del disco que queda:

bosboot -a -d /dev/hdisk01

4. Utilice el mandato siguiente para modificar la lista de arranque a fin de eliminar el disco replicado de la
lista:

bootlist -m normal hdisk01

El disco ya no está replicado.

Extracción de un disco mientras el sistema permanece disponible


El siguiente procedimiento describe cómo extraer un disco utilizando la característica de extracción en
caliente, que permite extraer el disco sin apagar el sistema. Esta característica sólo está disponible en
determinados sistemas.
La extracción en caliente es útil para:
• Extraer un disco que contiene datos en un grupo de volúmenes independiente que no es rootvg por
seguridad o para el mantenimiento.
• Extraer permanentemente un disco de un grupo de volúmenes.
• Corregir una anomalía del disco.

Extracción de un disco con datos


Utilice este procedimiento para extraer un disco que contiene datos sin apagar el sistema.

46 AIX Versión 7.2: Gestión de dispositivos


El disco que extrae se debe encontrar en un grupo de volúmenes independiente que no sea rootvg. Utilice
este procedimiento cuando desee mover un disco a otro sistema.
1. Para listar el grupo de volúmenes asociado al disco que desea extraer, escriba:

smit lspv

La salida se parece a la siguiente:

PHYSICAL VOLUME: hdisk2 VOLUME GROUP: imagesvg


PV IDENTIFIER: 00083772caa7896e VG IDENTIFIER
0004234500004c00000000e9b5cac262

PV STATE: active
STALE PARTITIONS: 0 ALLOCATABLE: yes
PP SIZE: 16 megabyte(s) LOGICAL VOLUMES: 5
TOTAL PPs: 542 (8672 megabytes) VG DESCRIPTORS: 2
FREE PPs: 19 (304 megabytes) HOT SPARE: no
USED PPs: 523 (8368 megabytes)
FREE DISTRIBUTION: 00..00..00..00..19
USED DISTRIBUTION: 109..108..108..108..90

El nombre del grupo de volúmenes se lista en el campo VOLUME GROUP. En este ejemplo, el grupo de
volúmenes es imagesvg.
2. Para verificar que el disco está en un grupo de volúmenes independiente que no es rootvg, escriba:

smit lsvg

Después seleccione el grupo de volúmenes asociado al disco (en este ejemplo, imagesvg). La salida se
parece a la siguiente:

VOLUME GROUP: imagesvg VG IDENTIFIER:


0004234500004c00000000e9b5cac262

VG STATE: active PP SIZE: 16 megabyte(s)


VG PERMISSION: read/write TOTAL PPs: 542 (8672 megabytes)
MAX LVs: 256 FREE PPs: 19 (304 megabytes)
LVs: 5 USED PPs: 523 (8368 megabytes)
OPEN LVs: 4 QUORUM: 2
TOTAL PVs: 1 VG DESCRIPTORS: 2
STALE PVs: 0 STALE PPs: 0
ACTIVE PVs: 1 AUTO ON: yes
MAX PPs per PV: 1016 MAX PVs: 32
LTG size: 128 kilobyte(s) AUTO SYNC: no
HOT SPARE: no

En este ejemplo, el campo TOTAL PVs indica que sólo hay un volumen físico asociado a imagesvg.
Puesto que todos los datos de este grupo de volúmenes están contenidos en hdisk2, hdisk2 se puede
eliminar utilizando este procedimiento.
3. Para desmontar cualquier sistema de archivos de los volúmenes lógicos del disco, escriba:

smit umountfs

4. Para desactivar el grupo de volumen, escriba:

smit varyoffvg

5. Para exportar el grupo de volumen, escriba:

smit exportvg

6. Para eliminar el disco, escriba:

smit rmvdsk

7. Consulte el visor de LED para el disco que desea extraer. Asegúrese de que el LED amarillo está
apagado (no encendido).

Gestión de dispositivos 47
8. Extraiga físicamente el disco. Para obtener más información acerca del procedimiento de extracción,
consulte la guía de servicio para la máquina.
En este punto, el disco se ha extraído física y lógicamente del sistema. Si va a extraer permanentemente
el disco, ha finalizado el procedimiento.

Extracción de un disco sin datos


El siguiente procedimiento describe cómo extraer un disco que no contiene datos o cuyos datos no desea
conservar.
Atención: El siguiente procedimiento borra los datos que residen en el disco.

1. Para desmontar cualquier sistema de archivos de los volúmenes lógicos del disco, escriba:

smit umountfs

2. Para desactivar el grupo de volumen, escriba:

smit varyoffvg

3. Para exportar el grupo de volumen, escriba:

smit exportvg

4. Para eliminar el disco, escriba:

smit rmvdsk

5. Consulte el visor de LED para el disco que desea extraer. Asegúrese de que el LED amarillo está
apagado (no encendido).
6. Extraiga físicamente el disco.
Para obtener más información acerca del procedimiento de extracción, consulte la guía de servicio
para la máquina.
En este punto, el disco se ha extraído física y lógicamente del sistema. Si va a extraer permanentemente
el disco, ha finalizado el procedimiento.

Eliminación de un volumen lógico mediante la eliminación del sistema de archivos


El siguiente procedimiento explica cómo eliminar un sistema de archivos JFS o JFS2, su volumen lógico
asociado, su stanza asociada del archivo /etc/filesystems y, opcionalmente, el punto de montaje
(directorio) donde está montado el sistema de archivos.
Atención: Cuando se elimina un sistema de archivos, se destruyen todos los datos de los sistemas
de archivos y volumen lógico especificados.
Si desea eliminar un volumen lógico que tiene montado un tipo de sistema de archivos diferente o un
volumen lógico que no contiene un sistema de archivos, sólo podrá eliminar el volumen lógico.
Para eliminar un sistema de archivos de diario con SMIT, utilice el procedimiento siguiente:
1. Desmonte el sistema de archivos que reside en el volumen lógico con un mandato similar al siguiente
ejemplo:

umount /adam/usr/local

Nota: No puede utilizar el mandato umount en un dispositivo en uso. Un dispositivo está en uso si
tiene algún archivo abierto por cualquier razón o si el directorio actual del usuario se encuentra en ese
dispositivo.
2. Para eliminar el sistema de archivos, escriba la siguiente vía rápida:

smit rmfs

3.

48 AIX Versión 7.2: Gestión de dispositivos


1. Seleccione el nombre del sistema de archivos que desea eliminar.
2. Vaya al campo Eliminar punto de montaje y conmute a su preferencia. Si selecciona sí, el mandato
subyacente también eliminará el punto de montaje (directorio) donde el sistema de archivos está
montado (si el directorio está vacío).
3. Pulse Intro para eliminar el sistema de archivos. SMIT le solicita que confirme si desea eliminar el
sistema de archivos.
4. Confirme que desea eliminar el sistema de archivos. SMIT visualiza un mensaje cuando el sistema de
archivos se ha eliminado satisfactoriamente.
En este punto, el sistema de archivos, los datos y el volumen lógico asociado se han eliminado
completamente del sistema.
Tareas relacionadas
Eliminación de un volumen lógico solamente
Utilice este procedimiento para eliminar un volumen lógico que tiene montado un tipo diferente de
sistema de archivos o un volumen lógico que no contiene ningún sistema de archivos.

Eliminación de un volumen lógico solamente


Utilice este procedimiento para eliminar un volumen lógico que tiene montado un tipo diferente de
sistema de archivos o un volumen lógico que no contiene ningún sistema de archivos.
Atención: La eliminación de un volumen lógico destruye todos los datos de los sistemas de
archivos y volumen lógico especificados.
Los siguientes procedimientos explican cómo eliminar un volumen lógico y cualquier sistema de archivos
asociado. Puede utilizar este procedimiento para eliminar un sistema de archivos que no sea JFS o un
volumen lógico que no contenga ningún sistema de archivos. Los procedimientos siguientes, tras describir
cómo eliminar un volumen lógico, describen cómo eliminar la stanza de un sistema de archivos que no es
JFS del archivo /etc/filesystems.
Para eliminar un volumen lógico con SMIT, utilice el procedimiento siguiente:
1. Si el volumen lógico no contiene un sistema de archivos, vaya al paso 4.
2. Desmonte todos los sistemas de archivos asociados al volumen lógico escribiendo:

unmount /nombreSA

Donde /nombreSA es el nombre completo de vía de acceso de un sistema de archivos.


Nota:
a. El mandato unmount falla si el sistema de archivos para el que desea ejecutar unmount se está
utilizando actualmente. El mandato unmount sólo se ejecuta si ningún archivo del sistema de
archivos está abierto y ningún directorio actual del usuario se encuentra en ese dispositivo.
b. Otro nombre para el mandato unmount es umount. Los nombres se pueden intercambiar.
3. Para listar la información que debe conocer acerca de los sistemas de archivos, escriba la siguiente
vía rápida:

smit lsfs

A continuación se muestra un listado parcial:

Name Nodename Mount Pt ...

/dev/hd3 -- /tmp ...

/dev/locallv -- /adam/usr/local ...

Gestión de dispositivos 49
4. Asumiendo los convenios de denominación estándar para el segundo elemento listado, el sistema de
archivos se denomina /adam/usr/local y el volumen lógico es locallv. Para verificarlo, escriba
la siguiente vía rápida:

smit lslv2

A continuación se muestra un listado parcial:

imagesvg:
LV NAME TYPE LPs PPs PVs LV STATE MOUNT POINT
hd3 jfs 4 4 1 open/syncd /tmp
locallv mine 4 4 1 closed/syncd /adam/usr/local

5. Para eliminar el volumen lógico, escriba la siguiente vía rápida en la línea de mandatos:

smit rmlv

6. Seleccione el nombre del volumen lógico que desea eliminar.


7. Vaya al campo Eliminar punto de montaje y conmute a su preferencia. Si selecciona sí, el mandato
subyacente también eliminará el punto de montaje (directorio) donde el sistema de archivos está
montado (si hay alguno y si el directorio está vacío).
8. Pulse Intro para eliminar el volumen lógico. SMIT le solicita que confirme si desea eliminar el
volumen lógico.
9. Confirme que desea eliminar el volumen lógico. SMIT visualiza un mensaje cuando el volumen lógico
se ha eliminado satisfactoriamente.
10. Si el volumen lógico tenía montado un sistema de archivos que no era JFS, elimine el sistema de
archivos y su stanza asociada del archivo /etc/filesystems, tal como se muestra en el ejemplo
siguiente:

rmfs /adam/usr/local

O bien, puede utilizar el nombre del sistema de archivos de la manera siguiente:

rmfs /dev/locallv

En este punto, se ha eliminado el volumen lógico. Si el volumen lógico contenía un sistema de archivos
que no era JFS, también se ha eliminado la stanza del sistema del archivo /etc/filesystems.
Tareas relacionadas
Eliminación de un volumen lógico mediante la eliminación del sistema de archivos
El siguiente procedimiento explica cómo eliminar un sistema de archivos JFS o JFS2, su volumen lógico
asociado, su stanza asociada del archivo /etc/filesystems y, opcionalmente, el punto de montaje
(directorio) donde está montado el sistema de archivos.

Redimensionamiento de un grupo de volúmenes RAID


En sistemas que utilizan una batería redundante de discos independientes (RAID), las opciones de
mandato chvg y chpv proporcionan la posibilidad de añadir un disco al grupo RAID y aumentar el tamaño
del volumen físico que LVM utiliza sin interrupciones en el uso o la disponibilidad del sistema.
Nota:
1. Esta característica no está disponible mientras el grupo de volúmenes está activado en modalidad
clásica o en modalidad simultánea mejorada.
2. El grupo de volúmenes rootvg no se puede redimensionar utilizando el procedimiento siguiente.
3. Un grupo de volúmenes con un espacio de paginación activo tampoco se puede redimensionar
utilizando el procedimiento siguiente.
El tamaño de todos los discos de un grupo de volúmenes se examina automáticamente cuando se activa
el grupo de volúmenes (varyon). Si se detecta un crecimiento, el sistema genera un mensaje informativo.
El siguiente procedimiento describe cómo aumentar el tamaño de los discos en un entorno RAID:

50 AIX Versión 7.2: Gestión de dispositivos


1. Para comprobar el crecimiento de los discos y redimensionarlos si es necesario, escriba el mandato
siguiente:

chvg -g nombreGV

Donde NombreGV es el nombre del grupo de volúmenes. Este mandato examina todos los discos del
grupo de volúmenes. Si alguno ha aumentado de tamaño, intenta añadir particiones físicas al volumen
físico. Si es necesario, determinará el multiplicador con el límite 1016 adecuado y convertirá el
volumen en un grupo de volúmenes grande.
2. Para desactivar la ubicación de un bloque incorrecto LVM, escriba el siguiente mandato:

chvg -b ny nombreGV

Donde NombreGV es el nombre del grupo de volúmenes.

Estrategia de grupo de volúmenes


La anomalía de disco es la anomalía de hardware más común del sistema de almacenamiento, seguido de
las anomalías de los adaptadores y las fuentes de alimentación. La protección contra la anomalía de disco
implica principalmente la configuración de volúmenes lógicos.
Para la protección contra las anomalías de adaptador y de fuente de alimentación, tome en consideración
una configuración de hardware especial para algún grupo de volúmenes específico. Esta configuración
incluye dos adaptadores y como mínimo un disco por adaptador, con réplica en los adaptadores, y una
configuración de grupo de volúmenes sin quórum. Los gastos adicionales de esta configuración no son
adecuados para todos los sitios o sistemas. Sólo se recomienda cuando la alta disponibilidad (hasta el
último segundo) es una prioridad. Según la configuración, la alta disponibilidad puede cubrir anomalías de
hardware que se producen entre la copia de seguridad más reciente y la entrada de datos actual. La alta
disponibilidad no se aplica a los archivos suprimidos por accidente.

Casos en que se deben crear grupos de volúmenes independientes


Hay varias razones para organizar los volúmenes físicos en grupos de volúmenes independientes de
rootvg.
• Para un mantenimiento más seguro y fácil.
– Las actualizaciones, reinstalaciones y recuperaciones de anomalías del sistema operativo son más
seguras porque se pueden separar los sistemas de archivos del usuario y del sistema operativo por lo
que los archivos del usuario no corren peligro durante estas operaciones.
– El mantenimiento es más fácil porque puede actualizar o reinstalar el sistema operativo sin tener que
restaurar los datos del usuario. Por ejemplo, antes de la actualización, puede eliminar un grupo de
volúmenes definido por el usuario del sistema desmontando sus sistemas de archivos. Desactívelo
utilizando el mandato varyoffvg y después exporte el grupo con el mandato exportvg. Tras
actualizar el software del sistema, puede volver a introducir el grupo de volúmenes definido por el
usuario utilizando el mandato importvg y volver a montar sus sistemas de archivos.
• Para tamaños diferentes de particiones físicas. Todos los volúmenes físicos del mismo grupo de
volúmenes deben tener el mismo tamaño de partición física. Para tener volúmenes físicos con
diferentes tamaños de partición física, coloque cada tamaño en un grupo de volúmenes separado.
• Cuando se necesitan diferentes características de quórum. Si tiene un sistema de archivos para el que
desea crear un grupo de volúmenes sin quórum, mantenga un grupo de volúmenes independientes para
esos datos; todos los demás sistemas de archivos deben permanecer en los grupos de volúmenes que
operen bajo un quórum.
• Para seguridad. Por ejemplo, si desea eliminar un grupo de volúmenes por la noche.
• Para conmutar volúmenes físicos entre sistemas. Si crea un grupo de volúmenes independiente para
cada sistema de un adaptador que se puede acceder desde más de un sistema, puede conmutar los
volúmenes físicos entre los sistemas que se pueden acceder en ese adaptador sin interrumpir el
funcionamiento normal (consulte los mandatos varyoffvg, exportvg, importvg y varyonvg).

Gestión de dispositivos 51
Alta disponibilidad en caso de anomalía de disco
Los métodos principales utilizados como protección contra anomalías de disco implican los valores de
configuración de volúmenes lógicos, como la réplica.
Aunque las consideraciones sobre el grupo de volúmenes sean secundarias, tienen implicaciones
económicas significativas porque implican el número de volúmenes físicos por grupo de volúmenes:
• La configuración de quórum, que es el valor predeterminado, mantiene el grupo de volúmenes activado
siempre que esté presente un quórum (51%) de los discos. En la mayoría de casos, se necesitan como
mínimo tres discos con copias replicadas en el grupo de volúmenes como protección contra la anomalía
de disco.
• La configuración sin quórum mantiene el grupo de volúmenes activado siempre que esté disponible una
VGDA en un disco. Con esta configuración, sólo se necesitan dos discos con copias replicadas en el
grupo de volúmenes como protección contra anomalías de disco.
Al decidir sobre el número de discos de cada grupo de volúmenes, también debe planificar el espacio
para replicar los datos. Recuerde que sólo puede replicar y mover datos entre discos que están en el
mismo grupo de volúmenes. Si el sitio utiliza sistemas de archivos grandes, la búsqueda de espacio de
disco en el que se puede replicar puede convertirse en un problema más tarde. Tenga en cuenta las
implicaciones sobre la disponibilidad de los valores entre discos para las copias de volúmenes lógicos y la
asignación intradisco para un volumen lógico.

Alta disponibilidad en caso de anomalía del adaptador o la fuente de alimentación


Como protección contra las anomalías del adaptador o la fuente de alimentación, según los requisitos,
realice una o varias de las acciones siguientes.
• Utilice dos adaptadores, ubicados en el mismo chasis o en chasis diferentes. La ubicación de
adaptadores en chasis diferentes protege contra la pérdida de los dos adaptadores si hay una anomalía
de la fuente de alimentación en un chasis.
• Utilice dos adaptadores, conectando como mínimo un disco a cada adaptador. Esto protege contra una
anomalía en cualquier adaptador (o fuente de alimentación si los adaptadores están en armarios
separados) manteniendo un quórum en el grupo de volúmenes, suponiendo la réplica cruzada (las
copias para una partición lógica no pueden compartir el mismo volumen físico) entre los volúmenes
lógicos del disco A (adaptador A) y los volúmenes lógicos del disco B (adaptador B). Esto significa que
se copian los volúmenes lógicos que residen en los discos conectados al adaptador A en los discos que
residen en el adaptador B y también que se copian los volúmenes lógicos que residen en los discos
conectados al adaptador B en los discos que residen en el adaptador A.
• Configure todos los discos de los dos adaptadores en el mismo grupo de volúmenes. Esto garantiza que
como mínimo una copia del volumen lógico permanecerá intacta en caso de que falle el adaptador, o, si
los armarios están separados, en caso de que falle una fuente de alimentación.
• Convierta el grupo de volúmenes en un grupo de volúmenes sin quórum. Esto permite al grupo de
volúmenes permanezca activo siempre que una VGDA (área de descriptores de grupo de volúmenes)
esté accesible en cualquier disco del grupo de volúmenes.
• Si hay dos discos en el grupo de volúmenes, implemente la réplica cruzada entre los adaptadores. Si
hay más de un disco disponible en cada adaptador, implemente la réplica doble. En ese caso, cree una
copia replicada en un disco que utilice el mismo adaptador y un disco que utilice otro adaptador.
Conceptos relacionados
Conversión de un grupo de volúmenes a un estado sin quórum
Puede cambiar un grupo de volúmenes al estado sin quórum para que los datos estén disponibles
continuamente aunque no haya quórum.

Estrategia de volúmenes lógicos


Las políticas que se describen a continuación ayudan a establecer una estrategia para el uso de
volúmenes lógicos orientada a conseguir una combinación adecuada de disponibilidad, rendimiento y
coste para el sitio.

52 AIX Versión 7.2: Gestión de dispositivos


La disponibilidad es la posibilidad de acceder a datos aunque su disco asociado haya fallado o sea
inaccesible. Los datos pueden permanecer accesibles a través de copias de los datos que se realizan y
mantienen en discos y adaptadores independientes durante la operación normal del sistema. Técnicas
como la réplica y el uso de discos desocupados activos pueden ayudar a garantizar la disponibilidad de
los datos.
El rendimiento es la velocidad promedio a la que se accede a los datos. Las políticas como, por ejemplo, la
verificación de la grabación y la réplica mejoran la disponibilidad pero añaden carga de proceso al
sistema, y por lo tanto degradan el rendimiento. La réplica dobla o triplica el tamaño del volumen lógico.
En general, el aumento de disponibilidad degrada el rendimiento. La fragmentación de disco puede
aumentar el rendimiento. La fragmentación de disco está permitida con la réplica. Puede detectar y
remediar problemas de zonas activas que se producen cuando algunas particiones lógicas del disco
tienen tanta E/S de disco que el rendimiento del sistema se ve afectado de forma notoria.
Mediante el control de la asignación de datos en el disco y entre discos, puede ajustar el sistema de
almacenamiento para obtener el mayor rendimiento posible. Consulte Performance management para
obtener información detallada acerca de cómo maximizar el rendimiento del sistema de almacenamiento.
Utilice las secciones siguientes para evaluar el equilibrio entre el rendimiento, la disponibilidad y el coste.
Recuerde que el aumento de disponibilidad reduce con frecuencia el rendimiento y viceversa. Sin
embargo, la réplica puede aumentar el rendimiento si LVM elige la copia del disco menos ocupado para
las lecturas.
Nota: La réplica no protege contra la pérdida de archivos individuales que se suprimen
accidentalmente o se pierden debido a problemas de software. Estos archivos sólo se pueden
restaurar desde copias de seguridad convencionales en cinta o disco.

Requisitos para la réplica o la fragmentación


Determine si los datos que se almacenan en el volumen lógico son lo suficientemente valiosos como para
justificar los costes de proceso y espacio de disco que comporta la réplica. Si dispone un sistema de
archivos de acceso secuencial grande, sensible al rendimiento, puede tomar en consideración la
fragmentación del disco.

El rendimiento y la réplica no siempre están contrapuestos. Si las distintas instancias (copias) de las
particiones lógicas están en volúmenes físicos diferentes, preferentemente conectados a adaptadores
distintos, LVM puede mejorar el rendimiento de la lectura leyendo la copia del disco menos ocupado. El
rendimiento de la grabación, a menos que los discos estén conectados a diferentes adaptadores, siempre
tiene el mismo coste porque se deben actualizar todas las copias. Sólo es necesario leer una copia para
una operación de lectura.
LVM de AIX soporta las siguientes opciones de RAID:

Tabla 2. Soporte del Gestor de volúmenes lógicos para RAID


Elemento Descripción
RAID 0 Fragmentación
RAID 1 Réplica
RAID 10 ó 0+1 Réplica y fragmentación

Aunque la réplica mejora la disponibilidad del sistema de almacenamiento, no está pensada para sustituir
las organizaciones de copia de seguridad en cinta convencionales.
Puede replicar rootvg, pero si lo hace, cree un volumen lógico de vuelco independiente. El vuelco en un
volumen lógico replicado puede generar un vuelco incoherente. Además, puesto que el dispositivo de
vuelco predeterminado es el volumen lógico de paginación primario, cree un volumen lógico de vuelco
independiente si replica los volúmenes lógicos de paginación.
Normalmente, siempre que se actualizan datos de una partición lógica, todas las particiones físicas que
contienen esa partición lógica se actualizan automáticamente. Sin embargo, las particiones físicas se
pueden quedar obsoletas (sin contener los datos más actuales) debido a un funcionamiento incorrecto

Gestión de dispositivos 53
del sistema o porque el volumen físico no estaba disponible en el momento de una actualización. LVM
puede renovar las particiones obsoletas a un estado coherente copiando los datos actuales de una
partición física actualizada en una partición obsoleta. Este proceso se denomina sincronización de réplica.
La renovación puede tener lugar cuando se inicia el sistema, cuando el volumen físico vuelve a estar en
línea, o cuando se emite el mandato syncvg.
Cualquier cambio que afecta a la composición de la partición física de un volumen lógico de arranque
necesita la ejecución del mandato bosboot tras él. Esto significa que acciones como, por ejemplo, el
cambio de réplica de un volumen lógico de arranque, requieren un bosboot.

Planificación de políticas para grabaciones en disco replicadas


Para los datos que sólo tienen una copia física, el controlador de dispositivos de volúmenes lógicos
(LVDD) convierte la dirección lógica de la petición de lectura o grabación en una dirección física y llama al
controlador de dispositivo físico adecuado para que dé servicio a la petición. Esta política de una sola
copia o no replicada no maneja bien la reubicación de bloques erróneos de las peticiones de grabación y
devuelve errores de lectura al proceso de llamada.
Si utiliza volúmenes lógicos replicados, se pueden establecer las siguientes políticas de planificación de
la grabación en disco para un volumen lógico con múltiples copias:
Política de planificación secuencial
Realiza grabaciones en múltiples copias o réplicas por orden. Las distintas particiones físicas que
representan las copias replicadas de una sola partición lógica están designadas como primaria,
secundaria y terciaria. En la planificación secuencial, las particiones físicas se graban por orden. El
sistema espera que la operación de grabación en una partición física se complete antes de iniciar la
operación de grabación en la siguiente. Cuando todas las operaciones de grabación se han
completado para todas las réplicas, la operación de grabación ha finalizado.
Política de planificación en paralelo
Inicia simultáneamente la operación de grabación para todas las particiones físicas de una partición
lógica. Cuando finaliza la operación de grabación en la partición física que tarda más, se ha
completado la operación de grabación. La especificación de volúmenes lógicos replicados con una
política de planificación en paralelo puede mejorar el rendimiento de la operación de lectura de E/S,
porque múltiples copias permiten al sistema dirigir la operación de lectura al disco menos ocupado de
este volumen lógico.
Grabación paralela con política de planificación de lectura secuencial
Inicia simultáneamente la operación de grabación para todas las particiones físicas de una partición
lógica. La copia primaria de la lectura siempre se lee primero. Si la operación de lectura no es
satisfactoria, se lee la siguiente copia. Durante la operación de reintento de lectura de la siguiente
copia, LVM corrige la copia primaria que ha fallado con una reubicación de hardware. Esto aplica un
parche al bloque erróneo para que se pueda acceder en el futuro.
Grabación paralela con política de planificación de lectura cíclica
Inicia simultáneamente la operación de grabación para todas las particiones físicas de una partición
lógica. Las lecturas se conmutan hacia adelante y atrás entre copias replicadas.
Política de bloques erróneos
Indica si el grupo de volúmenes está habilitado para la reubicación de bloques erróneos. El valor
predeterminado es sí. Cuando el valor se establece en sí para el grupo de volúmenes, los bloques
erróneos se pueden reubicar. Cuando el valor se establece en no, la política altera temporalmente los
valores del volumen lógico. Cuando se cambia el valor, todos los volúmenes lógicos continúan con su
valor anterior. El valor indica sí o no una E/S solicitada se debe dirigir a un bloque reubicado. Si el valor
se establece en sí, el grupo de volúmenes permite la reubicación de un bloque erróneo. Si el valor se
establece en no, la asignación de bloque erróneo no se completa. LVM sólo realiza la reubicación de
software cuando falla la reubicación de hardware. De lo contrario, el distintivo de reubicación de
bloque erróneo (BBR) de LVM no tiene ningún efecto.
Nota: La reubicación de bloque erróneo está inhabilitada a menos que los dos valores de política de
bloque erróneo para el grupo de volúmenes y el volumen lógico se establezcan en sí.

54 AIX Versión 7.2: Gestión de dispositivos


Política de coherencia de grabación de réplica para un volumen lógico
Cuando la Coherencia de grabación de réplica (MWC) está activada, se identifican las particiones lógicas
que pueden ser incoherentes si el sistema o el grupo de volúmenes no se cierra correctamente. Cuando el
grupo de volúmenes se vuelve a poner en línea, esta información se utiliza para establecer la coherencia
de las particiones lógicas. Esto se denomina MWC activa.
Cuando un volumen lógico utiliza la MWC activa, las peticiones para este volumen lógico se retienen en la
capa de planificación hasta que los bloques de antememoria de MWC se pueden actualizar en los
volúmenes físicos de destino. Cuando los bloques de antememoria de MWC se han actualizado, la
petición sigue con las operaciones de grabación de datos físicos. Sólo es necesario grabar estos bloques
de antememoria de MWC antes de que pueda seguir la grabación en los discos donde residen realmente
los datos.
Cuando se utiliza la MWC activa, el rendimiento del sistema se puede ver afectado negativamente. Los
efectos adversos están provocados por la actividad general de registrar o registrar por diario de una
petición de grabación en la que está activo un grupo de pistas lógico (LTG). Los tamaños de LTG
permitidos para un grupo de volúmenes son 128 K, 256 K, 512 K, 1024 K, 2 MB, 4 MB, 8 MB y 16 MB.
Nota: Para disponer de un tamaño de LTG mayor que 128 K, los discos contenidos en el grupo de
volúmenes deben soportar peticiones de E/S de este tamaño de las rutinas de estrategia de disco. El LTG
es un bloque contiguo contenido dentro del volumen lógico y está alineado con el tamaño del LTG. Esta
actividad general sólo es para grabaciones replicadas.
Sólo es necesario garantizar la coherencia de los datos entre réplicas si el sistema o el grupo de
volúmenes se cuelga antes de que se haya completado la grabación en todas las réplicas. Todos los
volúmenes lógicos de un grupo de volúmenes comparten el mismo registro MWC. El registro MWC se
mantiene en el límite externo de cada disco. Localice los volúmenes lógicos que utilizan la MWC activa en
el límite externo del disco para que el volumen lógico esté más cerca del registro MWC en el disco.
Cuando la MWC se establece en pasiva, el grupo de volúmenes registra que el volumen lógico se ha
abierto. Cuando el grupo de volúmenes se activa después de colgarse, se inicia una sincronización forzada
automática del volumen lógico. Mientras la sincronización forzada está en progreso se mantiene la
coherencia mediante una copia de la política de recuperación de lectura que propaga los bloques que se
están leyendo a otras réplicas del volumen lógico. Esta política sólo está soportada en el tipo de grupo de
volúmenes BIG.
Cuando la MWC está desactivada, las réplicas de un volumen lógico replicado se pueden quedar en
estado incoherente si el sistema o el grupo de volúmenes se cuelga. No hay protección automática de la
coherencia de réplicas. Las grabaciones pendientes al colgarse pueden dejar réplicas con datos
incoherentes para la próxima vez que se active el grupo de volúmenes. Después de colgarse, los
volúmenes lógicos replicados que tienen la MWC desactivada deben realizar una sincronización forzada
antes de que utilizar los datos del volumen lógico. Por ejemplo,

syncvg -f -l LTVnombre

Una excepción de la sincronización forzada es los volúmenes lógicos cuyo contenido sólo es válido
mientras el volumen lógico está abierto, como los espacios de paginación.
Un volumen lógico replicado es igual que un volumen lógico no replicado con respecto a las grabaciones.
Cuando el LVM finaliza completamente una petición de grabación, los datos se han grabado en todas las
unidades de LVM. El resultado de la grabación es desconocido hasta que el LVM emite un iodone en la
grabación. Cuando se completa, no es necesaria la recuperación si se cuelga. Los bloques que se estaban
grabando y que no se han completado (iodone) cuando la máquina se ha colgado se deben comprobar y
volver a grabar, sin tener en cuenta el valor de MWC o si están replicados.
Puesto que un volumen lógico replicado es igual que un volumen lógico no replicado, no existe el
concepto de datos más recientes. Todas las aplicaciones para las que es importante la validez de los
datos deben determinar la validez de los datos de las grabaciones pendientes o en curso que no se han
completado antes de que el grupo de volúmenes o el sistema se colgase, no importa si el volumen lógico
se ha replicado o no.

Gestión de dispositivos 55
La MWC activa o pasiva hace que las réplicas sean coherentes sólo cuando el grupo de volúmenes se
vuelve a poner en línea después de colgarse tomando una réplica y propagando los datos a otras réplicas.
Estas políticas de MWC no hacen un seguimiento de los datos más recientes. La MWC activa sólo hace un
seguimiento de los LTG que se están grabando actualmente, por lo tanto la MWC no garantiza la
propagación de los datos más recientes a todas las réplicas. La MWC pasiva hace que las réplicas sean
coherentes pasando a una modalidad de propagar en lectura después de colgarse. La aplicación por
encima de LVM es la que debe determinar la validez de los datos después de colgarse. Desde la
perspectiva de LVM, si la aplicación siempre vuelve a emitir todas las grabaciones pendientes desde el
momento en que se ha colgado, las posibles réplicas incoherentes serán coherentes cuando finalicen
estas grabaciones, (siempre que se graben los mismos bloques después de colgarse que estaban
pendientes en el momento de colgarse).
Nota: Los volúmenes lógicos replicados que contienen los registros o los sistemas de archivos JFS se
deben sincronizar después de colgarse mediante una sincronización forzada antes de utilizarlos,
activando MWC, o activando la MWC pasiva.

Políticas de asignación entre discos


La política de asignación entre discos especifica el número de discos en los que están ubicadas las
particiones físicas de un volumen lógico.

Las particiones físicas para un volumen lógico se pueden asignar a un solo disco o difundirse por todos los
discos de un grupo de volúmenes. Las siguientes opciones se utilizan con los mandatos mklv y chlv para
determinar la política entre discos:
• La opción Rango determina el número de discos utilizados para una sola copia física del volumen lógico.
• La opción Estricto determina si la operación mklv es satisfactoria si dos o más copias deben ocupar el
mismo volumen físico.
• La opción Superestricto especifica que las particiones asignadas para una réplica no pueden compartir
un volumen físico con las particiones de otra réplica.
• Los volúmenes lógicos fragmentados sólo pueden tener un rango máximo y una política entre discos
superestricta.

Valores entre discos para una sola copia del volumen lógico
Si selecciona el valor entre discos mínimo (Rango = mínimo), las particiones físicas asignadas al
volumen lógico estarán ubicadas en un solo disco para mejorar la disponibilidad. Si selecciona el valor
entre discos máximo (Rango = máximo), las particiones físicas se estarán ubicadas en varios discos
para mejorar el rendimiento.
Para volúmenes lógicos no replicados, utilice el valor mínimo para proporcionar la mayor disponibilidad
(acceso a datos en caso de anomalía de hardware). El valor mínimo indica que, si es posible, un volumen
físico contiene todas las particiones físicas originales de este volumen lógico. Si el programa de
asignación debe utilizar dos o más volúmenes físicos, utilizará el número mínimo, mientras conserva la
coherencia con los demás parámetros.
Con la utilización del número mínimo de volúmenes físicos, se reduce el riesgo de perder datos debido a
una anomalía de disco. Cada volumen físico adicional utilizado para una sola copia física aumenta ese
riesgo. Un volumen lógico no replicado que se reparte entre cuatro volúmenes físicos tiene cuatro veces
más probabilidades de perder datos debido a una anomalía de volumen físico que un volumen lógico
contenido en un volumen físico.
La figura siguiente ilustra una política de asignación entre discos mínima.

56 AIX Versión 7.2: Gestión de dispositivos


Figura 3. Política de asignación entre discos mínima

Esta ilustración muestra tres discos. Un disco contiene tres particiones; los demás no tienen particiones
físicas.
El valor máximo, teniendo en cuenta otras restricciones, reparte las particiones físicas del volumen lógico
lo más equitativamente posible entre el máximo de volúmenes físicos que puede. Esta opción está
orientada al rendimiento porque al repartir las particiones físicas entre varios discos se tiende a disminuir
el tiempo de acceso promedio para el volumen lógico. Para mejorar la disponibilidad, el valor máximo sólo
se utiliza con volúmenes lógicos replicados.
La figura siguiente ilustra una política de asignación entre discos máxima.

Figura 4. Política de asignación entre discos máxima

Esta ilustración muestra tres discos, cada uno contiene una partición física.
Estas definiciones también se aplican al ampliar o copiar un volumen lógico existente. La asignación de
nuevas particiones físicas se determina mediante la política de asignación actual y el lugar donde están
ubicadas las particiones físicas utilizadas existentes.
Conceptos relacionados
Valores entre discos para copias de volúmenes lógicos
La asignación de una sola copia de un volumen lógico en disco es bastante sencilla.

Valores entre discos para copias de volúmenes lógicos


La asignación de una sola copia de un volumen lógico en disco es bastante sencilla.
Sin embargo, cuando se crean copias replicadas, la asignación resultante es más compleja. Las figuras
que siguen muestran los valores mínimo, máximo y entre discos (Rango) para la primera instancia de un
volumen lógico, junto con los valores de Estricto disponibles para las copias de volúmenes lógicos
replicadas.
Por ejemplo, si hay copias replicadas del volumen lógico, el valor mínimo hace que las particiones físicas
contengan la primera instancia del volumen lógico que se debe asignar en un solo volumen físico, si es
posible. Después, según el valor de la opción Estricto, la copia o copias adicionales se asignan al mismo
volumen físico o a otro separado. Es decir, el algoritmo utiliza el número mínimo posible de volúmenes
físicos, dentro de las restricciones impuestas por otros parámetros como, por ejemplo, la opción Estricto,
para contener todas las particiones.
El valor Estricto = s significa que cada copia de la partición lógica se coloca en un volumen físico
diferente. El valor Estricto = n significa que las copias no están restringidas a volúmenes físicos
diferentes. A comparación, la opción Superestricto no permite que ninguna partición física de una
réplica esté en el mismo disco que una partición física de otra réplica del mismo volumen lógico.
Nota: Si hay menos volúmenes físicos en el grupo de volúmenes que el número de copias por partición
lógica que ha elegido, establezca Estricto en n. Si se establece Estricto en s, se devuelve un mensaje de
error cuando se intenta crear el volumen lógico.
La figura siguiente ilustra una política de asignación entre discos mínima con valores de Estricto
diferentes:

Gestión de dispositivos 57
Figura 5. Política entre discos mínima/Estricto

La figura siguiente ilustra una política de asignación entre discos máxima con valores de Estricto
diferentes:

Figura 6. Política entre discos máxima/Estricto

Conceptos relacionados
Valores entre discos para una sola copia del volumen lógico
Si selecciona el valor entre discos mínimo (Rango = mínimo), las particiones físicas asignadas al
volumen lógico estarán ubicadas en un solo disco para mejorar la disponibilidad. Si selecciona el valor
entre discos máximo (Rango = máximo), las particiones físicas se estarán ubicadas en varios discos
para mejorar el rendimiento.

Políticas de asignación intradisco para cada volumen lógico


Las opciones de política de asignación intradisco se basan en las cinco regiones de un disco donde se
pueden asignar las particiones físicas.
Cuanto más cerca está una partición física determinada del centro de un volumen físico, menor es el
tiempo promedio de búsqueda porque es la distancia de búsqueda promedio más corta desde cualquier
otra parte del disco.
El registro del sistema de archivos es un buen candidato para la asignación al centro de un volumen físico
porque el sistema operativo lo utiliza con mucha frecuencia. En el otro extremo, el volumen lógico de
arranque se utiliza muy pocas veces y, por lo tanto, se asigna al límite o al medio del volumen físico.
La regla general es que cuantas más E/S, ya sea en números absolutos o durante la ejecución de una
aplicación importante, más cerca del centro de los volúmenes físicos deben asignarse las particiones
físicas del volumen lógico.
Esta regla tiene una excepción importante: los volúmenes lógicos replicados con la Coherencia de
grabación de réplicas (MWC) activada se encuentran en el límite externo porque es donde el sistema
graba los datos MWC. Si la réplica no está en vigor, MWC no se aplica y no afecta al rendimiento.
Las cinco regiones en las que se pueden asignar las particiones físicas son las siguientes:
1. límite externo

58 AIX Versión 7.2: Gestión de dispositivos


2. límite interno
3. medio externo
4. medio interno
5. centro
Las particiones del límite tienen los tiempos de búsqueda promedio más lentas, lo que generalmente da
como resultado tiempos de respuesta más largos para las aplicaciones que las utilizan. Las particiones
del centro tienen los tiempos de búsqueda promedio más rápidos, que generalmente dan como resultado
los tiempos de respuesta mejores para cualquier aplicación que las utiliza. Sin embargo, hay menos
particiones en el centro de un volumen físico que en otras regiones.

Combinación de políticas de asignación


Si selecciona políticas entre discos e intradisco que no son compatibles, puede obtener resultados
imprevisibles.
El sistema asigna particiones físicas permitiendo que una política tenga prioridad sobre otra. Por ejemplo,
si elige una política intradisco de centro y una política entre discos de mínimo, la política entre discos
tiene prioridad. Si es posible, el sistema coloca todas las particiones para el volumen lógico en un disco,
incluso si no caben todas las particiones en la región de centro. Asegúrese de entender la interacción de
las políticas que elige antes de implementarlas.

Utilización de archivos de correlaciones para precisión de la asignación


Si las opciones predeterminadas proporcionadas por las políticas entre discos e intradisco no son
suficientes para sus necesidades, tome en consideración la creación de archivos de correlaciones para
especificar el orden exacto y la ubicación de las particiones físicas para un volumen lógico.
Puede utilizar SMIT, o el mandato mklv -m para crear archivos de correlaciones.
Por ejemplo, para crear un volumen lógico de diez particiones denominado lv06 en rootvg, en las
particiones 1 a 3, 41 a 45 y 50 a 60 de hdisk1, pueden utilizar el siguiente procedimiento en la línea de
mandatos.
1. Para verificar que las particiones que tiene previsto utilizar están libres para la asignación, escriba:

lspv -p hdisk1

2. Cree un archivo, como /tmp/mymap1, que contenga:

hdisk1:1-3
hdisk1:41-45
hdisk1:50-60

El mandato mklv asigna las particiones físicas en el orden en el que aparecen en el archivo de
correlaciones. Asegúrese de que hay suficientes particiones físicas en el archivo de correlaciones para
asignar todo el volumen lógico que especifique con el mandato mklv. (Puede listar más de lo que
necesita.)
3. Escriba el mandato:

mklv -t jfs -y lv06 -m /tmp/mymap1 rootvg 10

Desarrollo de estrategias de volumen lógico fragmentado


Los volúmenes lógicos fragmentados se utilizan para sistemas de archivos secuenciales grandes a los que
se accede con frecuencia y son sensibles al rendimiento. La fragmentación está pensada para mejorar el
rendimiento.
Nota: No se puede fragmentar el espacio de vuelco ni un volumen lógico de arranque. El volumen lógico
de arranque debe ser particiones físicas contiguas.

Gestión de dispositivos 59
Para crear un volumen lógico fragmentado de 12 particiones denominado lv07 en VGName con un
tamaño de fragmento (el tamaño de fragmento multiplicado por el número de discos de la batería es igual
al tamaño de banda) de 16 KB en hdisk1, hdisk2 y hdisk3, escriba:

mklv -y lv07 -S 16K VGName 12 hdisk1 hdisk2 hdisk3

Para crear un volumen lógico fragmentado de 12 particiones denominado lv08 en VGName con un
tamaño de fragmento de 8 KB en los tres discos de VGName, escriba:

mklv -y lv08 -S 8K -u 3 VGName 12

Para obtener más información sobre cómo mejorar el rendimiento utilizando la fragmentación de disco,
consulte Performance management.

Políticas de verificación de la grabación


La utilización de la opción verificación de la grabación hace que se verifiquen todas las operaciones de
grabación mediante una operación de lectura inmediata para comprobar si la grabación ha sido
satisfactoria.
Si la operación de grabación no es satisfactoria, obtendrá un mensaje de error. Esta política mejora la
disponibilidad pero degrada el rendimiento debido al tiempo adicional que necesita para la lectura. Puede
especificar el uso de una política de verificación de la grabación en un volumen lógico al crearlo con el
mandato mklv, o puede cambiarlo después con el mandato chlv.

Política de disco desocupado activo


Puede designar discos como desocupados activos para un grupo de volúmenes con volúmenes lógicos
replicados.
Al designar los discos que se deben utilizar como discos desocupados activos, puede especificar la
política que se debe utilizar si un disco o discos empiezan a fallar y puede especificar las características
de sincronización.
Si añade un volumen físico a un grupo de volúmenes (para marcarlo como disco desocupado activo), el
disco debe tener como mínimo la misma capacidad que el disco más pequeño del grupo de volúmenes.
Cuando se implementa esta característica, los datos se migrarán a un disco desocupado activo cuando las
anomalías de grabación de Coherencia de grabación de réplicas (MWC) marcan que falta un volumen.
Los mandatos para habilitar el soporte de disco desocupado activo, chvg y chpv, proporcionan varias
opciones de cómo implementar la característica en el sitio, tal como se muestra en la sintaxis siguiente:

chvg -hpolíticadesocupadoactivo -spolíticasinc GrupoVolúmenes

Donde políticadesocupadoactivo determina cuál de las políticas siguientes desea utilizar cuando falla un
disco:
y
Migra automáticamente las particiones de un disco que falla a un disco desocupado. Se utilizará el
disco más pequeño de la agrupación de discos desocupados activos, que sea lo suficientemente
grande para sustituir el disco que falla.
Y
Migra automáticamente las particiones de un disco que falla, pero puede utilizar toda la agrupación de
discos desocupados activos.
N
No realiza automáticamente una migración (valor predeterminado).
r
Elimina todos los discos de la agrupación de discos desocupados activos para este grupo de
volúmenes.
El argumento políticasinc determina si desea sincronizar automáticamente las particiones obsoletas:

60 AIX Versión 7.2: Gestión de dispositivos


y
Intenta sincronizar automáticamente las particiones obsoletas.
N
No intenta sincronizar automáticamente las particiones obsoletas. (Esta opción es el valor
predeterminado.)
El argumento GrupoVolúmenes especifica el nombre del grupo de volúmenes replicado asociado.

Gestión de zonas activas en volúmenes lógicos


Puede identificar los problemas de zonas activas en los volúmenes lógicos y solucionarlos sin interrumpir
el uso del sistema.
Se produce un problema de zona activa cuando algunas particiones lógicas del disco tienen tantas E/S de
disco que el rendimiento del sistema se ve afectado de forma notoria.
El primer paso para resolver el problema es identificarlo. De forma predeterminada, el sistema no recopila
estadísticas para el uso de volumen lógico. Tras habilitar la recopilación de estas estadísticas, la primera
vez que especifique el mandato lvmstat, el sistema visualiza los valores de contador desde el
rearranque anterior del sistema. En adelante, cada vez que especifica el mandato lvmstat, el sistema
visualiza la diferencia desde el mandato lvmstat anterior.
Mediante la interpretación de la salida del mandato lvmstat, puede identificar las particiones lógicas
que tienen el mayor tráfico. Si varias particiones lógicas presentan mucho uso en un disco físico y desea
equilibrarlo entre los discos disponibles, puede utilizar el mandato migratelp para mover estas
particiones lógicas a otros discos físicos.
En el ejemplo siguiente, la recopilación de estadísticas está habilitada y el mandato lvmstat se utiliza
repetidamente para recopilar una línea base de estadísticas:

# lvmstat -v rootvg -e
# lvmstat -v rootvg -C
# lvmstat -v rootvg

La salida es similar a la siguiente:

Volumen lógico iocnt Kb_lect Kb_grab Kbps


hd8 4 0 16 0.00
paging01 0 0 0 0.00
lv01 0 0 0 0.00
hd1 0 0 0 0.00
hd3 0 0 0 0.00
hd9var 0 0 0 0.00
hd2 0 0 0 0.00
hd4 0 0 0 0.00
hd6 0 0 0 0.00
hd5 0 0 0 0.00

La salida anterior muestra que todos los contadores se han restablecido a cero. En el ejemplo siguiente,
primero se copian los datos del directorio /unix en el directorio /tmp. La salida del mandato lvmstat
refleja la actividad de rootvg:

# cp -p /unix /tmp
# lvmstat -v rootvg

Volumen lógico iocnt Kb_lect Kb_grab Kbps


hd3 296 0 6916 0.04
hd8 47 0 188 0.00
hd4 29 0 128 0.00
hd2 16 0 72 0.00
paging01 0 0 0 0.00
lv01 0 0 0 0.00
hd1 0 0 0 0.00
hd9var 0 0 0 0.00
hd6 0 0 0 0.00
hd5 0 0 0 0.00

Gestión de dispositivos 61
La salida muestra actividad en el volumen lógico hd3, que está montado en el directorio /tmp, en hd8,
que es el volumen lógico de registro JFS, en hd4, que es / (raíz), en hd2, que es el directorio /usr y en
hd9var, que es el directorio /var. La siguiente salida proporciona detalles para hd3 y hd2:

# lvmstat -l hd3

Log_part mirror# iocnt Kb_read Kb_wrtn Kbps


1 1 299 0 6896 0.04
3 1 4 0 52 0.00
2 1 0 0 0 0.00
4 1 0 0 0 0.00
# lvmstat -l hd2
Log_part mirror# iocnt Kb_read Kb_wrtn Kbps
2 1 9 0 52 0.00
3 1 9 0 36 0.00
7 1 9 0 36 0.00
4 1 4 0 16 0.00
9 1 1 0 4 0.00
14 1 1 0 4 0.00
1 1 0 0 0 0.00

La salida para un grupo de volúmenes proporciona un resumen para toda la actividad de E/S de un
volumen lógico. Está dividida en el número de peticiones de E/S (iocnt), los kilobytes leídos y grabados
(Kb_read y Kb_wrtn, respectivamente) y los datos transferidos en KB/s (Kbps). Si pide información para
un volumen lógico, recibirá la misma información, pero para cada partición lógica por separado. Si
dispone de volúmenes lógicos replicados, recibirá las estadísticas de cada volumen de réplica. En la
salida del ejemplo anterior, se han omitido varias líneas para particiones lógicas sin ninguna actividad. La
salida siempre se clasifica en orden descendente en la columna iocnt.
El mandato migratelp utiliza, como parámetros, el nombre del volumen lógico, el número de la
partición lógica (tal como se visualiza en la salida de lvmstat) y un número opcional para una copia de
réplica específica. Si se omite información, se utiliza la primera copia de réplica. Debe especificar el
volumen físico de destino para el movimiento; además, puede especificar un número de partición física
de destino. Si es satisfactoria, la salida es similar a la siguiente:

# migratelp hd3/1 hdisk1/109


migratelp: La copia duplicada 1 de la partición lógica 1 del volumen lógico
hd3 ha migrado a la partición física 109 de hdisk1.

Tras habilitar la característica de zona activa, ya sea para un volumen lógico o para un grupo de
volúmenes, puede definir el informe y las estadísticas, visualizar las estadísticas, seleccionar las
particiones lógicas que se deben migrar, especificar la partición física de destino y verificar la información
antes de confirmar los cambios.

Implementación de una política de grupo de volúmenes


Tras decidir las políticas de grupo de volúmenes que desea utilizar, analice la configuración actual
escribiendo el mandato lspv en la línea de mandatos.
La configuración estándar proporciona un solo grupo de volúmenes que incluye varios volúmenes físicos
conectados al mismo adaptador de disco y otro hardware de soporte. En una configuración estándar,
cuántos más discos compongan un grupo de volúmenes con quórum más posibilidades existen de que
continúe el quórum cuando se produzca una anomalía de disco. En un grupo sin quórum, deben
componer el grupo de volúmenes un mínimo de dos discos. Para implementar los cambios de política de
grupo de volúmenes, haga lo siguiente:
1. Utilice la salida del mandato lspv para comprobar los volúmenes físicos asignados y libres.
2. Asegure el quórum añadiendo uno o varios volúmenes físicos.
3. Cambie un grupo de volúmenes a un estado sin quórum.
4. Sólo vuelva a configurar el hardware si es necesario garantizar una alta disponibilidad. Para obtener
instrucciones, consulte la guía de servicio para el sistema.

62 AIX Versión 7.2: Gestión de dispositivos


Espacio de paginación y memoria virtual
AIX utiliza memoria virtual para dirigirse a más memoria de la que está físicamente disponible en el
sistema.
El Gestor de memoria virtual (VMM) maneja la gestión de páginas de memoria en RAM o en disco. Los
segmentos de memoria virtual se particionan en unidades llamadas páginas. Un espacio de paginación es
un tipo de volumen lógico con espacio de disco asignado que almacena la información que reside en la
memoria virtual a la que no se accede actualmente. Este volumen lógico tiene un tipo de atributo igual a
la paginación, y normalmente se hace referencia a él como espacio de paginación o espacio de
intercambio. Cuando la cantidad de RAM libre en el sistema es baja, los programas o datos que no se han
utilizado recientemente se mueven de la memoria al espacio de paginación a fin de liberar memoria para
otras actividades.

Conceptos de espacio de paginación


Un espacio de paginación es un tipo de volumen lógico con espacio de disco asignado que almacena la
información, que se ubica en la memoria virtual a la que no se accede actualmente.
Este volumen lógico tiene un tipo de atributo igual a la paginación, y normalmente se hace referencia a él
como espacio de paginación o espacio de intercambio. Cuando la cantidad de RAM libre en el sistema es
baja, los programas o datos que no se han utilizado recientemente se mueven de la memoria al espacio
de paginación a fin de liberar memoria para otras actividades.
Está disponible otro tipo de espacio de paginación al que se puede acceder a través de un dispositivo que
utiliza un servidor NFS para almacenamiento de espacio de paginación. Para que un cliente NFS acceda a
este espacio de paginación, el servidor NFS debe haber creado y exportado un archivo a ese cliente. El
tamaño de archivo representa el tamaño de espacio de paginación para el cliente.
La cantidad de espacio de paginación necesaria depende del tipo de actividades realizadas en el sistema.
Si disminuye mucho el espacio de paginación, se pueden perder procesos y, si se agota el espacio de
paginación, el sistema puede verse afectado gravemente. Cuando detecte la condición de poco espacio
de paginación, defina espacio de paginación adicional.
El espacio de paginación de volumen lógico se define creando un nuevo volumen lógico de espacio de
paginación o aumentando el tamaño de volúmenes lógicos de espacio de paginación existentes. Para
aumentar el tamaño de un espacio de paginación NFS, se debe aumentar el archivo en el que reside en el
servidor mediante las acciones correctas en él.
El espacio total disponible para paginación del sistema es la suma de los tamaños de todos los
volúmenes lógicos de espacio de paginación activos.

Políticas de asignación de espacio de paginación


La variable de entorno PSALLOC determina el algoritmo de asignación de espacio de paginación que se
utiliza: diferido o temprano.
AIX utiliza dos modalidades para asignar espacio de paginación. El valor predeterminado es diferido.
Puede conmutar a una asignación de espacio de paginación temprana cambiando el valor de la variable
de entorno PSALLOC, pero hay varios factores a tener en cuenta antes de realizar este cambio. Cuando se
utiliza el algoritmo de asignación temprana, en el peor de los casos, es posible que el sistema se cuelgue
por utilizar todo el espacio de paginación disponible.

Comparaciones de la asignación de espacio de paginación diferida y temprana


El sistema operativo utiliza la variable de entorno PSALLOC para determinar el mecanismo utilizado para
la asignación de memoria y espacio de paginación.
Si no se establece la variable de entorno PSALLOC, se establece en null (nula) o se establece en
cualquier valor que no sea early (temprana), el sistema utiliza el algoritmo de asignación
predeterminado deferred (diferida).
El algoritmo de asignación deferred (diferida) ayuda a utilizar de forma eficaz los recursos de disco y
soporta aplicaciones que prefieren un algoritmo de asignación dispersa para la gestión de recursos. Este

Gestión de dispositivos 63
algoritmo no reserva espacio de paginación cuando se realiza una petición de memoria; la asignación de
bloque de disco de espacio de paginación se retrasa hasta que sea necesario para salir de la página
solicitada. Algunos programas asignan grandes cantidades de memoria virtual y después sólo utilizan una
fracción de la memoria. Las aplicaciones técnicas que utilizan vectores dispersos o matrices como
estructuras de datos son ejemplos de estos programas. El algoritmo de asignación diferida también es
más eficaz para un kernel en tiempo real, paginado bajo demanda, como el del sistema operativo.
Es posible que nunca se utilice este espacio de paginación, especialmente en sistemas con una memoria
real grande donde la paginación es rara. El algoritmo diferido retrasa la asignación de espacio de
paginación hasta que es necesario realizar una salida de la página solicitada, por lo que no se pierde
ninguna asignación de espacio de paginación. Esta asignación retardada puede dar como resultado un
caso donde el algoritmo diferido pueda intentar asignar más espacio de paginación al espacio disponible
en el sistema. Esta situación se denomina exceso de confirmaciones del espacio de paginación.
En el caso de exceso de confirmaciones, donde el espacio de paginación se agota y se realiza un intento
para asignar un bloque de disco de espacio de paginación para salir de una página, se da un error. El
sistema operativo intenta evitar una anomalía completa del sistema matando procesos afectados por el
exceso de confirmaciones de espacio de paginación. Se envía la señal SIGDANGER para notificar a los
procesos que la cantidad de espacio de paginación libre es poca. Si la situación del espacio de paginación
alcanza un estado aún más grave, se envía una señal SIGKILL a los procesos seleccionados que no han
recibido la señal SIGDANGER.
Puede utilizar la variable de entorno PSALLOC para conmutar a un algoritmo de asignación early
(temprana), que asigna espacio de paginación para el proceso de ejecución en el momento en que se pide
la memoria. Si no hay suficiente espacio de paginación disponible en el momento de la petición, el
mecanismo de asignación temprana no satisface la petición de memoria.
Si la variable de entorno PSALLOC se establece en early (temprana), todos los programas que se inicien
en ese entorno desde ese momento en adelante, pero sin incluir los procesos que se ejecutan
actualmente, se ejecutarán en el entorno de asignación temprana. En el entorno de asignación temprana,
las interfaces como la subrutina malloc y la subrutina brk fallarán si no se puede reservar el suficiente
espacio de paginación cuando se realiza la petición.
A los procesos ejecutados en la modalidad de entorno de asignación temprana no se les envía la señal
SIGKILL si se produce una condición de poco espacio de paginación.
Hay diferentes maneras de cambiar la variable de entorno PSALLOC a early (temprana), según la
extensión a la que desee aplicar el cambio.
Las siguientes subrutinas de interfaz de asignación de memoria se ven afectadas por un conmutador para
un entorno de asignación temprana:
• malloc
• free
• calloc
• realloc
• brk
• sbrk
• shmget
• shmctl
Tareas relacionadas
Configuración de la variable de entorno PSALLOC para la modalidad de asignación temprana
El sistema operativo utiliza la variable de entorno PSALLOC para determinar el mecanismo utilizado para
la asignación de memoria y espacio de paginación.

Modalidad de asignación temprana


El algoritmo de asignación temprana garantiza tanto espacio de paginación como solicite una petición de
asignación de memoria. Así, la asignación de espacio de paginación correcta en el disco del sistema es
importante para que las operaciones sean eficaces.

64 AIX Versión 7.2: Gestión de dispositivos


Cuando el espacio de paginación disponible cae por debajo de un umbral determinado, no se pueden
iniciar nuevos procesos y es posible que los procesos que se ejecutan actualmente no puedan obtener
más memoria. Los procesos que se ejecutan bajo la modalidad de asignación diferida predeterminada se
vuelven muy vulnerables al mecanismo de señal SIGKILL. Además, puesto que a veces el kernel del
sistema operativo necesita asignación de memoria, es posible que el sistema se cuelgue por utilizar todo
el espacio de paginación disponible.
Antes de utilizar la modalidad de asignación temprana en todo el sistema, es muy importante definir una
cantidad adecuada de espacio de paginación para el sistema. El espacio de paginación necesario para la
modalidad de asignación temprana es casi siempre mayor que el espacio de paginación necesario para la
modalidad de asignación diferida predeterminada. La cantidad de espacio de paginación que se debe
definir depende de cómo se utiliza el sistema y qué programas ejecuta. Un buen punto de inicio para
determinar la combinación correcta para el sistema es definir un espacio de paginación cuatro veces
mayor que la cantidad de memoria física.
Determinadas aplicaciones pueden utilizar cantidades extremas de espacio de paginación si se ejecutan
en modalidad de asignación temprana. El servidor AIXwindows necesita actualmente más de 250 MB de
espacio de paginación cuando la aplicación se ejecuta en modalidad de asignación temprana. El espacio
de paginación necesario para cualquier aplicación depende de cómo se ha escrito la aplicación y cómo se
ejecuta.
Todos los mandatos y subrutinas que muestran espacio de paginación y uso de memoria de proceso
incluyen espacio de paginación asignado bajo la modalidad de asignación temprana. El mandato lsps
utiliza el distintivo -s para visualizar la asignación de espacio de paginación total, incluyendo el espacio
de paginación asignado bajo la modalidad de asignación temprana.

Tamaño predeterminado de espacio de paginación


El tamaño predeterminado de espacio de paginación se determina durante la fase de personalización del
sistema de la instalación de AIX según los estándares siguientes.
• El espacio de paginación no puede utilizar menos de 16 MB, excepto hhd6 que no puede utilizar menos
de 64 MB.
• El espacio de paginación no puede utilizar más del 20% del espacio de disco total.
• Si la memoria real es inferior a 256 MB, el espacio de paginación es el doble de la memoria real.
• Si la memoria real es mayor que o igual a 256 MB, el espacio de paginación es 512 MB.

Archivo, mandatos y opciones de espacio de paginación


El archivo /etc/swapspaces especifica los espacios de paginación y los atributos de los mismos.
Se añade un espacio de paginación al archivo /etc/swapspaces cuando se crea mediante el mandato
mkps y se elimina un espacio de paginación del archivo /etc/swapspaces cuando se suprime mediante
el mandato rmps. Los atributos del espacio de paginación del archivo se modifican mediante el mandato
chps -a o el mandato chps -c. Los archivos que utilizan un formato anterior (en los que no hay
atributos correspondientes a tamaño de suma de comprobación y conmutación automática en las
stanzas) continúan recibiendo soporte. Si el espacio de paginación es muy grande, puede restar
particiones lógicas del espacio de paginación sin tener que volver a arrancar mediante el mandato chps
-d.
Los mandatos siguientes se utilizan para gestionar espacios de paginación:

Elemento Descripción
chps Cambia los atributos de un espacio de paginación.
lsps Visualiza las características de un espacio de paginación.

Gestión de dispositivos 65
Elemento Descripción
mkps Añade un espacio de paginación adicional. El mandato mkps utiliza el mandato mklv con un
conjunto de opciones específicas al crear un volumen lógico de espacio de paginación. Para
crear espacios de paginación NFS, el mandato mkps utiliza el mandato mkdev con un
conjunto de opciones diferente. Para espacios de paginación NFS, el mandato mkps
necesita el nombre de sistema principal del servidor NFS y el nombre de vía de acceso del
archivo que se exporta del servidor.
rmps Elimina un espacio de paginación inactivo.
swapoff Desactiva uno o varios espacios de paginación sin rearrancar el sistema. La información del
espacio de paginación se mueve a otras áreas de espacio de paginación activas. Entonces,
el espacio de paginación desactivado se puede eliminar utilizando el mandato rmps.
swapon Activa un espacio de paginación. El mandato swapon se utiliza durante la inicialización
temprana del sistema para activar el dispositivo de espacio de paginación inicial. Durante
una fase posterior de inicialización, cuando otros dispositivos pasan a estar disponibles, el
mandato swapon se utiliza para activar espacios de paginación adicionales para que la
actividad de paginación se produzca en varios dispositivos.

Se necesita la opción tipo de paginación para todos los espacios de paginación de volúmenes
lógicos.
Se utilizan las siguientes opciones para maximizar el rendimiento de paginación con un volumen lógico:
• Realice la asignación en el medio del disco para reducir el desplazamiento del brazo del disco
• Utilice múltiples espacios de paginación, cada uno asignado de un volumen físico independiente.

Configuración del espacio de paginación


Muchas de las tareas de configuración pueden realizarse con SMIT. La variable de entorno PSALLOC
controla el espacio de paginación y la asignación de memoria.

Adición y activación del espacio de paginación


Para que el espacio de paginación esté disponible en el sistema, debe añadir y activar el espacio de
paginación.
Normalmente, la cantidad total de espacio de paginación se determina mediante pruebas y errores. Una
directriz utilizada con frecuencia es doblar el tamaño de RAM y utilizar esa cifra como destino de espacio
de paginación.
Al utilizar la interfaz SMIT, escriba una de las siguientes vías rápidas en la línea de mandatos:
• Para listar el espacio de paginación actual, escriba: smit lsps
• Para añadir espacio de paginación, escriba: smit mkps
• Para activar espacio de paginación, escriba: smit swapon

Mejora del rendimiento de la paginación


Para mejorar el rendimiento de la paginación, utilice múltiples espacios de paginación y colóquelos en
volúmenes físicos separados siempre que sea posible.
Sin embargo, se puede ubicar más de un espacio de paginación en el mismo volumen físico. Aunque
puede utilizar varios volúmenes físicos, es aconsejable seleccionar solamente los discos del grupo de
volúmenes rootvg, a menos que esté perfectamente familiarizado con el sistema.

Configuración de la variable de entorno PSALLOC para la modalidad de asignación temprana


El sistema operativo utiliza la variable de entorno PSALLOC para determinar el mecanismo utilizado para
la asignación de memoria y espacio de paginación.
El valor predeterminado es late. Los ejemplos siguientes muestran maneras diferentes de cambiar la
variable de entorno PSALLOC a early. El método que elija dependerá de la extensión a la que desea
aplicar el cambio.

66 AIX Versión 7.2: Gestión de dispositivos


• Escriba el mandato siguiente en una línea de mandatos de shell:

PSALLOC=early;export PSALLOC

Este mandato hace que todos los mandatos subsiguientes ejecutados en esa sesión de shell se
ejecuten en modalidad de asignación temprana.
• Añada el siguiente mandato a un archivo de recursos de shell (.shrc o .kshrc):

PSALLOC=early;export PSALLOC

Esta entrada hace que todos los procesos de la sesión de inicio de sesión, a excepción del shell de inicio
de sesión, se ejecuten bajo la modalidad de asignación temprana. Este método también protege a los
procesos del mecanismo de señal SIGKILL.
• Inserte la subrutina putenv en un programa para establecer la variable de entorno PSALLOC en early.
Con este método, el comportamiento de asignación temprana surte efecto en la siguiente llamada a la
subrutina exec.
Conceptos relacionados
Comparaciones de la asignación de espacio de paginación diferida y temprana
El sistema operativo utiliza la variable de entorno PSALLOC para determinar el mecanismo utilizado para
la asignación de memoria y espacio de paginación.

Cambio o eliminación de un espacio de paginación


El cambio de un espacio de paginación se realiza fácilmente con SMIT, pero la eliminación de un espacio
de paginación comporta más riesgos.
El cambio de las características de un espacio de paginación se puede realizar con la siguiente vía rápida
de SMIT en la línea de mandatos: smit chps.
El procedimiento para eliminar un espacio de paginación comporta más riesgos, especialmente si el
espacio de paginación que desea eliminar es predeterminado como, por ejemplo, hd6. Se necesita un
procedimiento especial para eliminar los espacios de paginación predeterminados, porque los scripts de
shell que configuran el sistema se activan durante el tiempo de arranque. Para eliminar uno de los
espacios de paginación predeterminados, estos scripts se deben modificar y se debe crear una nueva
imagen de arranque.
Atención: La eliminación incorrecta de espacios de paginación predeterminados puede impedir
que se reinicie el sistema. El siguiente procedimiento sólo sirve para gestores del sistema con
experiencia.
Para eliminar un espacio de paginación existente, utilice el procedimiento siguiente:
1. Con autorización de root, desactive el espacio de paginación escribiendo la siguiente vía rápida de
SMIT en la línea de mandatos:

smit swapoff

2. Si el espacio de paginación que está eliminando es el dispositivo de vuelco predeterminado, debe


cambiar el dispositivo de vuelco predeterminado a otro espacio de paginación o volumen lógico antes
de eliminar el espacio de paginación.
Para cambiar el dispositivo de vuelco predeterminado, escriba el mandato siguiente:

sysdumpdev -P -p /dev/nuevo_dispositivo_vuelco

3. Elimine el espacio de paginación escribiendo la siguiente vía rápida:

smit rmps

Utilización de la interfaz de programación de la modalidad de asignación de espacio de paginación


La interfaz de programación que controla la modalidad de asignación de espacio de paginación utiliza la
variable de entorno PSALLOC.

Gestión de dispositivos 67
Para garantizar que una aplicación siempre se ejecute bajo la modalidad deseada (con o sin la asignación
de espacio de paginación temprana), haga lo siguiente:
1. Utilice la subrutina getenv para examinar el estado actual de la variable de entorno PSALLOC.
2. Si el valor de la variable de entorno PSALLOC no es el valor necesario para la aplicación, utilice la
subrutina setenv para modificar el valor de la variable de entorno.
Puesto que sólo la subrutina execve examina el estado de la variable de entorno PSALLOC, llame a la
subrutina execve con el mismo conjunto de parámetros y entorno recibidos por la aplicación. Cuando
la aplicación vuelve a examinar el estado de la variable de entorno PSALLOC y encuentra el valor
correcto, la aplicación continúa normalmente.
3. Si la subrutina getenv revela que el estado actual de la variable de entorno PSALLOC es correcta, no
es necesaria ninguna modificación.
La aplicación continúa normalmente.

Reubicación y reducción del espacio de paginación hd6


Es posible que desee reducir o mover el espacio de paginación predeterminado para mejorar el
rendimiento del sistema de almacenamiento forzando la paginación y el intercambio a otros discos del
sistema que están menos ocupados. La reducción o el movimiento de la paginación predeterminada
también conserva espacio de disco en hdisk0.
Se mueva el espacio de paginación o se reduzca su tamaño, la base es la misma: mover la actividad del
espacio de paginación a discos que están menos ocupados. El valor predeterminado de la instalación crea
un volumen lógico de paginación (hd6) en la unidad hdisk0, que contiene parte o todos los sistemas de
archivos / (root) y /usr. Si se elige la política de asignación entre discos mínima, lo que significa que
todos los archivos / y una gran cantidad de /usr se encuentran en hdisk0, mover el espacio de
paginación a un disco que está menos ocupado puede mejorar significativamente el rendimiento. Aunque
se implemente la política de asignación entre discos máxima y / y /usr se distribuyan entre múltiples
volúmenes físicos, hdisk2 (suponiendo que hay tres discos) probablemente contendrá menos particiones
lógicas que pertenezcan a los sistemas de archivos más ocupados.
Los procedimientos siguientes describen cómo reducir el espacio de paginación hd6 y cómo mover el
espacio de paginación hd6 dentro del mismo grupo de volúmenes.

Reducción del espacio de paginación hd6


El procedimiento siguiente utiliza el mandato chps para reducir los espacios de paginación existentes,
incluyendo el espacio de paginación primario y el dispositivo de vuelco primario y secundario.
El mandato chps llama al script shrinkps, que reduce de manera segura el espacio de paginación sin
dejar el sistema en estado no arrancable. Específicamente, el script hace lo siguiente:
1. Crea un espacio de paginación temporal en el mismo volumen
2. Mueve la información a ese espacio temporal
3. Crea un nuevo espacio de paginación más pequeño en el mismo volumen
4. Elimina el espacio de paginación anterior
Para que el mandato chps se complete satisfactoriamente, debe existir suficiente espacio de disco libre
(espacio no asignado a ningún volumen lógico) para crear un espacio de paginación temporal. El tamaño
del espacio de paginación temporal es igual a una cantidad de espacio necesaria para contener todas las
páginas de salida de página del espacio de paginación anterior. El tamaño mínimo para un espacio de
paginación primario es 32 MB. El tamaño mínimo para cualquier otro espacio de paginación es 16 MB.
Nota: Si el siguiente procedimiento encuentra un error de E/S, es posible que el sistema requiera un
cierre y rearranque inmediatos.
1. Compruebe la distribución del volumen lógico y el sistema de archivos en los volúmenes físicos
escribiendo el mandato siguiente:

lspv -l hdiskX

Donde hdiskX es el nombre del volumen físico.

68 AIX Versión 7.2: Gestión de dispositivos


2. Para reducir el tamaño de espacio de paginación, escriba lo siguiente en la línea de mandatos:

smit chps

Nota: El espacio de paginación primario está codificado permanentemente en el registro de arranque. Por
lo tanto, el espacio de paginación primario siempre se activará cuando se reinicie el sistema. El mandato
chps no puede desactivar el espacio de paginación primario.
Se da prioridad a mantener una configuración operativa. Las comprobaciones del sistema puede llevar a
rechazar inmediatamente la reducción del espacio de paginación. Los errores que se producen mientras
se crea el espacio de paginación temporal provocan la salida del procedimiento, y que el sistema vuelva a
los valores originales. Es posible que otros problemas provoquen situaciones que requieran la
intervención del administrador del sistema o un rearranque inmediato. Algunos errores pueden impedir la
eliminación del espacio de paginación temporal. Normalmente, esto requeriría una atención no urgente
del administrador.
Atención: Si el mandato swapoff del script shrinkps detecta un error de E/S en las páginas de
copia de seguridad del sistema o en las páginas de copia de seguridad del usuario, es aconsejable
un cierre inmediato para evitar que el sistema se pueda colgar. En el rearranque, el espacio de
paginación temporal está activo y se puede realizar un intento de detener y reiniciar las
aplicaciones que han encontrado los errores de E/S. Si el intento es satisfactorio y el mandato
swapoff puede completar la desactivación, el procedimiento de reducción se puede completar
manualmente utilizando los mandatos mkps, swapoff y rmps para crear un espacio de
paginación con el tamaño necesario y eliminar el espacio de paginación temporal.
No intente eliminar (utilizando rmps) ni reactivar (utilizando chps) un espacio de paginación
desactivado que estaba en estado de error de E/S antes de reiniciar el sistema. Existe el riesgo de
que se reutilice el espacio de disco y puede causar problemas adicionales.

Movimiento del espacio de paginación hd6 dentro del mismo grupo de volúmenes
Para mover el espacio de paginación predeterminado de hdisk0 a un disco diferente dentro del mismo
grupo de volúmenes no es necesario cerrar y rearrancar el sistema.
Con autorización de root, escriba el mandato siguiente para mover el espacio de paginación
predeterminado (hd6) de hdisk0 a hdisk2:

migratepv -l hd6 hdisk0 hdisk2

Atención: No se recomienda mover un espacio de paginación con el nombre hd6 de rootvg a otro
grupo de volúmenes porque el nombre está codificado permanentemente en varios lugares,
incluyendo la segunda fase del proceso de arranque y el proceso que accede al grupo de
volúmenes raíz cuando se arranca desde un soporte extraíble. Sólo los espacios de paginación de
rootvg están activos durante la segunda fase del proceso de arranque y no tener espacio de
paginación en rootvg podría afectar gravemente al rendimiento del arranque del sistema. Si desea
que la mayoría del espacio de paginación esté en otros grupos de volúmenes, es mejor reducir hd6
lo máximo posible (el mismo tamaño que la memoria física) y después crear espacios de
paginación más grandes en otros grupos de volúmenes.

Resolución de problemas del espacio de paginación


El problema más común en relación al espacio de paginación está provocado por quedarse sin espacio
asignado.
Normalmente, la cantidad total de espacio de paginación se determina mediante pruebas y errores. Una
directriz utilizada con frecuencia es doblar el tamaño de RAM y utilizar esa cifra como destino de espacio
de paginación. Si disminuye mucho el espacio de paginación, se pueden perder procesos y, si se agota el
espacio de paginación, el sistema puede verse afectado gravemente. La siguiente información de señales
y errores puede ayudarle a supervisar y resolver o evitar problemas de espacio de paginación.
El sistema operativo supervisa el número de bloques de espacio de paginación libres y detecta cuando el
espacio de paginación no es suficiente. Cuando el número de bloques de espacio de paginación libres cae
por debajo de un umbral conocido como nivel de aviso de espacio de paginación, el sistema informa a

Gestión de dispositivos 69
todos los procesos (excepto a kprocs) de esta condición enviando la señal SIGDANGER. Si la escasez
continúa y cae por debajo de un segundo umbral conocido como nivel de matar de espacio de paginación,
el sistema envía la señal SIGKILL a los procesos que son los principales usuarios del espacio de
paginación y no tienen un manejador de la señal SIGDANGER. (La acción predeterminada para la señal
SIGDANGER es pasar por alto la señal.) El sistema continúa enviando señales SIGKILL hasta que el
número de bloques de espacio de paginación libres está por encima del nivel de matar de espacio de
paginación.
Nota: Si el parámetro low_ps_handling se establece en 2 (bajo el mandato vmo) y no se ha encontrado
ningún proceso para matar (sin el manejador de señal SIGDANGER), el sistema enviará la señal SIGKILL
al proceso más reciente que tenga un manejador de señal SIGDANGER.
Los procesos que asignan dinámicamente memoria pueden asegurar que existe espacio de paginación
suficiente supervisando los niveles de espacio de paginación con la subrutina psdanger o utilizando las
rutinas de asignación especial. Puede utilizar la subrutina disclaim para impedir que los procesos
finalicen cuando se alcanza el nivel de matar de espacio de paginación. Para ello, defina un manejador de
señal para la señal SIGDANGER y libere memoria y recursos de espacio de paginación asignados en sus
datos y áreas de pila y en segmentos de memoria compartida.
Si obtiene mensajes de error similares al siguiente, aumente el espacio de paginación:

INIT: ¡El espacio de paginación es bajo!

O bien

Está a punto de quedarse sin espacio de paginación.


Es aconsejable guardar los documentos porque
este programa (y posiblemente el sistema operativo)
podría terminar sin ningún otro aviso cuando se
llene el espacio de paginación.

Gestor de memoria virtual


El Gestor de memoria virtual (VMM) gestiona las peticiones de memoria solicitadas por el sistema y sus
aplicaciones.
Los segmentos de memoria virtual están particionados en unidades denominadas páginas; cada página
está ubicada en la memoria física real (RAM) o se almacena en disco hasta que se necesita. AIX utiliza
memoria virtual para dirigirse a más memoria de la que está físicamente disponible en el sistema. El VMM
maneja la gestión de páginas de memoria en RAM o en disco.

Gestión de memoria real en el Gestor de memoria virtual


En AIX, los segmentos de memoria virtual se particionan en unidades de 4096 bytes denominadas
páginas. La memoria real se divide en tramas de páginas de 4096 bytes.
El VMM tiene dos funciones principales:
• Gestionar la asignación de tramas de página
• Resolver las referencias a páginas de memoria virtual que no están actualmente en la RAM
(almacenadas en espacio de paginación) o no existen todavía.
Para cumplir con estas funciones, el VMM mantiene una lista de libres de tramas de página disponibles. El
VMM también utiliza un algoritmo de sustitución de página para determinar las páginas de memoria
virtual que hay actualmente en la RAM cuyas tramas de página se reasignarán a la lista de libres. El
algoritmo de sustitución de página tiene en cuenta la existencia de segmentos permanentes contra
segmentos de trabajo, la repaginación y los umbrales de VMM.

Lista de libres del Gestor de memoria virtual


El VMM mantiene una lista de tramas de página libres (no asignadas) que utiliza para satisfacer las
anomalías de página.
AIX intenta utilizar siempre toda la RAM, excepto una pequeña cantidad que mantiene en la lista de
libres. Para mantener esta pequeña cantidad de páginas no asignadas, el VMM utiliza las salidas de
página y las obtenciones de página para liberar espacio y volver a asignar estas tramas de página a la lista

70 AIX Versión 7.2: Gestión de dispositivos


de libres. Las páginas de memoria virtual cuyas tramas se deben volver a asignar se seleccionan
utilizando el algoritmo de sustitución de página del VMM.

Segmentos de memoria permanentes o de trabajo en el Gestor de memoria virtual


AIX distingue entre diferentes tipos de segmentos de memoria. Para comprender el VMM, es importante
comprender la diferencia entre los segmentos permanentes y de trabajo.
Un segmento permanente tiene una ubicación de almacenamiento permanente en disco. Los archivos que
contienen datos o programas ejecutables se correlacionan con segmentos permanentes. Cuando se abre
y accede a un archivo JFS o JFS2, los datos de archivo se copian en la RAM. Los parámetros VMM
controlan cuándo se deben sobregrabar las tramas de memoria física asignadas a páginas permanentes y
utilizar para almacenar otros datos.
Los segmentos de trabajo son transitorios y sólo existen mientras un proceso los utiliza. Los segmentos de
trabajo no tienen una ubicación de almacenamiento en disco permanente. La pila de procesos y las
regiones de datos se correlacionan con los segmentos de trabajo y los segmentos de texto de la
biblioteca compartida. Las páginas de segmentos de trabajo también deben ocupar ubicaciones de
almacenamiento de disco cuando no se pueden mantener en memoria real. El espacio de paginación de
disco se utiliza para este propósito. Cuando un programa sale, todas las páginas de trabajo se vuelven a
colocar inmediatamente en la lista de libres.

Segmentos de trabajo y espacio de paginación en el Gestor de memoria virtual


Las páginas de trabajo de la RAM que se pueden modificar y salir de página se asignan a una ranura
correspondiente en el espacio de paginación.
El espacio de paginación asignado sólo se utiliza si la página necesita realizar una salida de página. Sin
embargo, otra página no puede utilizar un página asignada en el espacio de paginación. Permanece
reservada para una página determinada mientras esa página exista en la memoria virtual. Puesto que la
salida de página de las páginas permanentes se realiza a la misma ubicación del disco de la que han
venido, no es necesario asignar espacio de paginación para páginas permanentes que residen en la RAM.
El VMM tiene dos modalidades para asignar espacio de paginación: temprana y tardía. La política de
asignación temprana reserva el espacio de paginación siempre que se realiza una petición de memoria
para una página de trabajo. La política de asignación tardía sólo asigna espacio de paginación cuando la
página de trabajo efectúa una salida de página real de la memoria, lo que reduce significativamente los
requisitos de espacio de paginación del sistema.

Recurso de control de la carga de trabajo del Gestor de memoria virtual


Cuando un proceso hace referencia a una página de memoria virtual que se encuentra en disco, porque ha
realizado una salida de página o porque no se ha leído, la página a la que se ha hecho referencia debe
efectuar una entrada de página y eso puede provocar que una o varias páginas deban salir de página si el
número de tramas de página disponibles (libres) es bajo. El VMM intenta obtener tramas de página a las
que no se ha hecho referencia recientemente y, por lo tanto, no es probable que se hagan referencia en
un futuro próximo, utilizando un algoritmo de sustitución de página.
Una sustitución de página satisfactoria mantiene las páginas de memoria de todos los procesos activos
actualmente en la RAM, mientras que efectúa la salida de página de las páginas de memoria de procesos
inactivos. Sin embargo, cuando la RAM se ha sobrecomprometido, es difícil elegir las páginas para salida
de página porque probablemente los procesos que se ejecutan actualmente harán referencia a ellas en
un futuro próximo. El resultado es que se efectúa la salida de página de las páginas a las que es probable
que se haga referencia pronto y después se realiza la entrada de página cuando se hacen referencia
realmente. Cuando la RAM se ha sobrecomprometido, puede producirse una entrada y salida de página
continua, denominada hiperpaginación. Cuando un sistema realiza una hiperpaginación, el sistema
emplea la mayor parte de su tiempo en entradas y salidas de página en lugar de ejecutar instrucciones
útiles, y ninguno de los procesos activos realiza progresos significativos. El VMM tiene un algoritmo de
control de la carga de memoria que detecta cuando el sistema está realizando una hiperpaginación e
intenta corregir la condición.

Gestión de dispositivos 71
Sistemas de archivos
Un sistema de archivos es una estructura jerárquica (árbol de archivos) de archivos y directorios.
Este tipo de estructura se parece a un árbol invertido con las raíces arriba y las ramas abajo. Este árbol de
archivos utiliza directorios para organizar los datos y los programas en grupos, lo que permite la gestión
de varios directorios y archivos a la vez.
Un sistema de archivos reside en un solo volumen lógico. Cada archivo y directorio pertenece a un
sistema de archivos de un volumen lógico. Debido a esta estructura, algunas tareas se ejecutan con más
eficacia en un sistema de archivos que en cada directorio del sistema de archivos. Por ejemplo, puede
hacer copia de seguridad, mover o proteger la totalidad de un sistema de archivos. Puede tomar una
imagen de un punto en el tiempo de un sistema de archivos JFS o JFS2, denominada instantánea.
Nota: El número máximo de particiones lógicas por volumen lógico es 32.512. Para obtener más
información acerca de las características de los volúmenes lógicos del sistema de archivos, consulte el
mandato chlv.
El mandato mkfs (crear sistema de archivos) o la herramienta System Management Interface Tool
(mandato smit) crean un sistema de archivos en un volumen lógico.
Para que un sistema de archivos sea accesible, se debe montar en un punto de montaje de directorio.
Cuando se montan múltiples sistemas de archivos, se crea una estructura de directorios que presenta la
imagen de un solo sistema de archivos. Se trata de una estructura jerárquica con una sola raíz. Esta
estructura incluye los sistemas de archivos base y cualquier sistema de archivos que cree. Puede acceder
a los sistemas de archivos locales y remotos utilizando el mandato mount. Esto hace que el sistema de
archivos esté disponible para el acceso de lectura y grabación desde el sistema. Normalmente, para
montar o desmontar un sistema de archivos es necesario pertenecer a un grupo del sistema. Los sistemas
de archivos se pueden montar automáticamente, si se definen en el archivo /etc/filesystems. Puede
desmontar un sistema de archivos local o remoto con el mandato umount, a menos que un usuario o un
proceso esté accediendo a ese sistema de archivos. Para obtener más información acerca del montaje de
un sistema de archivos, consulte el apartado “Montaje” en la página 100.
El tipo básico de sistema de archivos que AIX utiliza se denomina sistema de archivos de diario (JFS). Este
sistema de archivos utiliza técnicas de registro por diario de base de datos para mantener su consistencia
estructural. Esto impide que se produzcan daños en el sistema de archivos cuando se interrumpe
anormalmente el sistema.
El sistema operativo AIX da soporte a múltiples tipos de sistemas de archivos incluyendo el sistema de
archivos diario (JFS) y el sistema de archivos diario ampliado (JFS2). Para obtener más información
acerca de los tipos de sistemas de archivos y las características de cada uno de ellos, consulte el
apartado “Tipos de sistemas de archivos” en la página 106.
Algunas de las tareas de gestión del sistema más importantes están relacionadas con los sistemas de
archivos, de forma específica, cabría indicar lo siguiente:
• Asignación de espacio para los sistemas de archivos en los volúmenes lógicos
• Creación de sistemas de archivos
• Obtención de espacio disponible del sistema de archivos para los usuarios del sistema
• Supervisión de la utilización del espacio del sistema de archivos
• Realización de la copia de seguridad de los sistemas de archivos en previsión de una posible pérdida de
datos en caso de que se produzca una anomalía en el sistema
• Mantenimiento de los sistemas de archivos en un estado coherente
Estas tareas debe realizarlas el administrador del sistema.

Conceptos del sistema de archivos


Antes de poder gestionar y configurar el sistema de archivos, debe entender la organización básica y el
contenido del árbol de archivos.

72 AIX Versión 7.2: Gestión de dispositivos


Organización y contenido del árbol de archivos
El árbol de archivos organiza los archivos en directorios que contienen información similar. Esta
organización facilita el montaje remoto de directorios y archivos.
Los administradores del sistema pueden utilizar estos directorios como bloques de creación para
construir un árbol de archivos exclusivo para cada cliente, montando directorios individuales desde uno o
varios servidores. El montaje remoto de archivos y directorios, en lugar de conservar localmente toda la
información, tiene las ventajas siguientes:
• Ahorra espacio de disco
• Permite la administración del sistema fácil y centralizada
• Proporciona un entorno más seguro
El árbol de archivos tiene las siguientes características:
• Los archivos que las máquinas que tienen la misma arquitectura de hardware pueden compartir se
encuentran en el sistema de archivos /usr.
• Los archivos variables organizados por cliente como, por ejemplo, los archivos de spool y de correo,
están ubicados en el sistema de archivos /var.
• Los archivos de texto compartible, independientes de la arquitectura como, por ejemplo, las páginas
manuales, están ubicados en el directorio /usr/share.
• El sistema de archivos / (raíz) contiene archivos y directorios importantes para el funcionamiento del
sistema. Por ejemplo, contiene un directorio de dispositivos, los programas utilizados para el arranque
del sistema y los puntos de montaje donde los sistemas de archivos se pueden montar en el sistema de
archivos raíz.
• El sistema de archivos /home es el punto de montaje para los directorios iniciales de los usuarios.

Estructura de sistemas de archivos


Es importante comprender la diferencia entre un sistema de archivos y un directorio. Un sistema de
archivos es una sección del disco duro que tiene asignada la contención de archivos. Esta sección de
disco duro se accede montando el sistema de archivos en un directorio. Tras montar el sistema de
archivos, el usuario final lo ve igual que otro directorio.
Sin embargo, debido a las diferencias estructurales entre los sistemas de archivos y los directorios, los
datos de estas entidades se pueden gestionar por separado.
Cuando se instala el sistema operativo por primera vez, se carga en una estructura de directorios, tal
como se muestra en la siguiente ilustración.

Figura 7. Árbol del sistema de archivos / (raíz)

Los directorios de la derecha (/usr, /tmp, /var y /home) son sistemas de archivos por lo que tienen
asignadas secciones separadas del disco duro para su uso. Estos sistemas de archivos se montan
automáticamente cuando se inicia el sistema, por lo que el usuario final no ve la diferencia entre estos
sistemas de archivos y los directorios listados a la izquierda (/bin, /dev, /etc y /lib).
En máquinas autónomas, los siguientes sistemas de archivos residen en el dispositivo asociado por
defecto:

/Dispositivo /Sistema de archivos


/dev/hd1 /home
/dev/hd2 /usr
/dev/hd3 /tmp

Gestión de dispositivos 73
/Dispositivo /Sistema de archivos
/dev/hd4 /(raíz)
/dev/hd9var /var
/proc /proc
/dev/hd10opt /opt

El árbol de archivos tiene las siguientes características:


• Los archivos que las máquinas que tienen la misma arquitectura de hardware pueden compartir se
encuentran en el sistema de archivos /usr.
• Los archivos variables organizados por cliente, por ejemplo, los archivos de spool y de correo, se
encuentran en el sistema de archivos /var.
• El sistema de archivos /(root) contiene los archivos y los directorios que son imprescindibles para el
funcionamiento del sistema. Por ejemplo, contiene:
– Un directorio de dispositivos (/dev)
– Puntos de montaje donde los sistemas de archivos pueden montarse en el sistema de archivos raíz,
por ejemplo, /mnt
• El sistema de archivos /home es el punto de montaje para los directorios iniciales de los usuarios.
• En el caso de los servidores, el directorio /export contiene archivos de espacio de paginación,
sistemas de archivos raíz por cliente (no compartidos), directorios de vuelco, iniciales y /usr/share
para clientes sin discos, así como directorios /usr exportados.
• El sistema de archivos /proc contiene información acerca del estado de los procesos y hebras del
sistema.
• El sistema de archivos /opt contiene software opcional como, por ejemplo, aplicaciones.
En la lista siguiente se proporciona información acerca del contenido de algunos subdirectorios del
sistema de archivos /(root).

Elemento Descripción
/bin Enlace simbólico para el directorio /usr/bin.
/dev Contiene nodos de dispositivos para archivos especiales de dispositivos locales. El
directorio /dev contiene archivos especiales para unidades de cintas, impresoras,
particiones de disco y terminales.
/etc Contiene archivos de configuración que varían según la máquina. Estos son algunos
ejemplos:
• /etc/hosts
• /etc/passwd

/export Contiene los directorios y archivos de un servidor destinados a clientes remotos.


/home Sirve como punto de montaje para un sistema de archivos que contiene directorios iniciales
de usuario. El sistema de archivos /home contiene archivos y directorios organizados por
usuario.
En una máquina autónoma, un sistema de archivos local independiente se monta en el
directorio /home. En una red, un servidor podría contener archivos de usuario a los que se
accedería desde varias máquinas. En este caso, la copia del servidor del directorio /home se
monta remotamente en un sistema de archivos /home local.

/lib Enlace simbólico para el directorio /usr/lib, que contiene bibliotecas independientes de
la arquitectura cuyos nombres tienen el formato lib*.a.

74 AIX Versión 7.2: Gestión de dispositivos


Elemento Descripción
/sbin Contiene los archivos necesarios para arrancar la máquina y montar el sistema de
archivos /usr. La mayoría de mandatos utilizados durante el arranque provienen del
sistema de archivos de disco RAM de la imagen de arranque; por tanto, muy pocos
mandatos residen en el directorio /sbin.
/tmp Sirve como punto de montaje para un sistema de archivos que contiene archivos temporales
generados por el sistema.
/u Enlace simbólico para el directorio /home.
/usr Sirve de punto de montaje para un sistema de archivos que contiene archivos que no
cambian y que las máquinas pueden compartir (por ejemplo, los programas ejecutables y la
documentación ASCII).
Las máquinas autónomas montan un sistema de archivos local independiente en el
directorio /usr. Las máquinas sin disco y con poco disco montan un directorio desde el
servidor remoto en el sistema de archivos /usr.

/var Sirve como punto de montaje para archivos que varían en cada máquina. El sistema de
archivos /var se configura como un sistema de archivos porque los archivos que contiene
tienden a crecer. Por ejemplo es un enlace simbólico con el directorio /usr/tmp, que
contiene archivos de trabajo temporales.

Sistema de archivos raíz


El sistema de archivos raíz se encuentra al principio del árbol de archivos jerárquico. Contiene los archivos
y directorios importantes para el funcionamiento del sistema, incluyendo el directorio de dispositivos y
los programas para arrancar el sistema. El sistema de archivos raíz también contiene puntos de montaje
donde se pueden montar los sistemas de archivos para conectar con la jerarquía del sistema de archivos
raíz.
El diagrama siguiente muestra muchos de los subdirectorios del sistema de archivos raíz.

Figura 8. Sistema de archivos raíz

La siguiente lista proporciona información acerca del contenido de algunos de los subdirectorios del
sistema de archivos / (raíz).

Gestión de dispositivos 75
Elemento Descripción
/etc Contiene archivos de configuración que varían según la máquina. Estos son algunos
ejemplos:
• /etc/hosts
• /etc/passwd
El directorio /etc contiene los archivos que generalmente se utilizan en la
administración del sistema. La mayoría de mandatos que residían previamente en el
directorio /etc residen ahora en el directorio /usr/sbin. Sin embargo, por
compatibilidad, el directorio /usr/sbin contiene enlaces simbólicos con las
ubicaciones de algunos archivos ejecutables. Estos son algunos ejemplos:
• /etc/chown es un enlace simbólico con /usr/bin/chown.
• /etc/exportvg es un enlace simbólico con /usr/sbin/exportvg.

/bin El enlace simbólico con el directorio /usr/bin. En sistemas de archivos UNIX


anteriores, el directorio /bin contenía mandatos del usuario que ahora residen en el
directorio /usr/bin.
/sbin Contiene los archivos necesarios para arrancar la máquina y montar el sistema de
archivos /usr. La mayoría de mandatos utilizados durante el arranque provienen del
sistema de archivos de disco RAM de la imagen de arranque; por tanto, muy pocos
mandatos residen en el directorio /sbin.
/dev Contiene nodos de dispositivos para archivos especiales de dispositivos locales. El
directorio /dev contiene archivos especiales para unidades de cintas, impresoras,
particiones de disco y terminales.
/tmp Sirve como punto de montaje para un sistema de archivos que contiene archivos
temporales generados por el sistema. El sistema de archivos /tmp es un directorio
vacío.
/var Sirve como punto de montaje para archivos que varían en cada máquina. El sistema de
archivos /var está configurado como un sistema de archivos porque los archivos que
contiene tienden a crecer. Consulte el apartado “Sistema de archivos /var” en la página
79 para obtener más información.
/u Enlace simbólico para el directorio /home.
/usr Contiene archivos que no cambian y que las máquinas pueden compartir, por ejemplo,
ejecutables y documentación ASCII.
Las máquinas autónomas montan la raíz de un sistema de archivos local independiente
en el directorio /usr. Las máquinas sin discos y las máquinas con recursos de disco
limitados montan un directorio desde un servidor remoto en el sistema de archivos /
usr. Consulte el apartado “Sistema de archivos /usr” en la página 77 para obtener
información acerca del árbol de archivos montado en el directorio /usr.

/home Sirve como punto de montaje para un sistema de archivos que contiene directorios
iniciales de usuario. El sistema de archivos /home contiene archivos y directorios
organizados por usuario.
En una máquina independiente, el directorio /home está contenido en un sistema de
archivos independiente cuya raíz está montada en el sistema de archivos raíz del
directorio /home. En una red, un servidor puede contener archivos de usuario que se
pueden acceder desde varias máquinas. En este caso, la copia del servidor del
directorio /home se monta remotamente en un sistema de archivos /home local.

76 AIX Versión 7.2: Gestión de dispositivos


Elemento Descripción
/export Contiene los directorios y archivos de un servidor destinados a clientes remotos.
Consulte el apartado “Directorio /export” en la página 80 para obtener más
información acerca del árbol de archivos que reside bajo el directorio /export.

/lib Enlace simbólico con el directorio /usr/lib. Consulte el apartado “Sistema de


archivos /usr” en la página 77 para obtener más información.
/tftpboot Contiene imágenes de arranque e información de arranque para clientes sin disco.

Sistema de archivos /usr


El sistema de archivos /usr contiene archivos ejecutables que las máquinas pueden compartir.
En el siguiente diagrama, se muestran los subdirectorios principales del directorio /usr.

Figura 9. Sistema de archivos /usr

En una máquina autónoma, el sistema de archivos /usr es un sistema de archivos independiente (en el
volumen lógico /dev/hd2). En una máquina sin disco o en una máquina con recursos de disco limitados,
un directorio de un servidor remoto se monta con permisos de sólo lectura sobre el sistema de
archivos /usr local. El sistema de archivos /usr contiene mandatos de sólo lectura, bibliotecas y datos.
Excepto por el contenido del directorio /usr/share, los archivos y directorios del sistema de
archivos /usr se pueden compartir por todas las máquinas de la misma arquitectura de hardware.
El sistema de archivos /usr incluye los directorios siguientes:

Elemento Descripción
/usr/bin Contiene los mandatos normales y los scripts de shell. Por ejemplo, el
directorio /usr/bin contiene los mandatos ls, cat y mkdir.
/usr/ccs Contiene los binarios de paquetes de desarrollo desempaquetados.
/usr/include Contiene archivos de inclusión o cabecera.
/usr/lbin Contiene archivos ejecutables que son componentes de fondo para mandatos.
/usr/lib Contiene bibliotecas independientes de arquitectura con nombres con el formato
lib*.a. El directorio /lib de / (raíz) es un enlace simbólico con el
directorio /usr/lib, por lo que todos los archivos que estaban antes en el
directorio /lib están ahora en el directorio /usr/lib. Esto incluye unos cuantos
archivos que no son de biblioteca por motivos de compatibilidad.
/usr/lpp Contiene productos instalados opcionalmente.

Gestión de dispositivos 77
Elemento Descripción
/usr/sbin Contiene programas de utilidad utilizados en la administración del sistema,
incluyendo mandatos de la herramienta System Management Interface Tool
(SMIT). La mayoría de mandatos que antes residían en el directorio /etc ahora
residen en el directorio /usr/sbin.
/usr/share Contiene archivos que se pueden compartir entre máquinas con diferentes
arquitecturas. Consulte el apartado “Directorio /usr/share” en la página 78 para
obtener más información.

Los siguientes son enlaces simbólicos con el directorio /var:

Elemento Descripción
/usr/adm Enlace simbólico con el directorio /var/adm
/usr/mail Enlace simbólico con el directorio /var/spool/mail
/usr/news Enlace simbólico con el directorio /var/news
/usr/preserve Enlace simbólico con el directorio /var/preserve
/usr/spool Enlace simbólico con el directorio /var/spool
/usr/tmp Enlace simbólico con el directorio /var/tmp, porque el directorio /usr se
comparte potencialmente con muchos nodos y es de sólo lectura

Los siguientes son enlaces simbólicos con los directorios /usr/share y /usr/lib:

Elemento Descripción
/usr/dict Enlace simbólico con el directorio /usr/share/dict
/usr/man Enlace simbólico con el directorio /usr/share/man
/usr/lpd Enlace simbólico con el directorio /usr/lib/lpd

Directorio /usr/share
El directorio /usr/share contiene archivos de texto compartibles, independientes de la arquitectura. El
contenido de este directorio lo pueden compartir todas las máquinas, sin tener en cuenta la arquitectura
de hardware.
En un entorno de arquitectura combinada, el cliente sin disco típico monta un directorio de servidor sobre
su propio directorio /usr y después monta un directorio diferente sobre el directorio /usr/share. Los
archivos que se encuentran bajo del directorio /usr/share están contenidos en uno o varios paquetes
que se pueden instalar por separado. Por lo tanto, un nodo puede tener las otras partes del
directorio /usr de las que depende instaladas localmente mientras utiliza un servidor para proporcionar
el directorio /usr/share.
Algunos de los archivos del directorio /usr/share incluyen los directorios y los archivos mostrados en el
siguiente diagrama.

78 AIX Versión 7.2: Gestión de dispositivos


Figura 10. Directorio /usr/share

Este diagrama muestra varios directorios bajo el directorio /usr/share, incluyendo /lib, /lpp, /dict
y /man.
El directorio /usr/share incluye lo siguiente:

Elemento Descripción
/usr/share/man Contiene las páginas manuales si se han cargado
/usr/share/dict Contiene el diccionario de ortografía y sus índices
/usr/share/lib Contiene los archivos de datos independientes de la arquitectura, incluyendo
terminfo, learn, tmac, me y macros
/usr/share/lpp Contiene datos e información acerca de los productos que se pueden instalar
opcionalmente en el sistema.

Sistema de archivos /var


El sistema de archivos /var tiende a crecer porque contiene subdirectorios y archivos de datos que
aplicaciones ocupadas utilizan como, por ejemplo, la contabilidad, el correo y el spooler de impresión.
Atención: Si las aplicaciones del sistema utilizan el sistema de archivos /var extensamente,
ejecute rutinariamente el mandato skulker o aumente el tamaño del sistema de archivos más
allá del valor predeterminado de /var de 4MB.
Los archivos de /var específicos que garantizan la supervisión periódica son /var/adm/wtmp
y /var/adm/ras/errlog.
Otros archivos de /var que se deben supervisar son:

Elemento Descripción
/var/adm/ras/trcfile Si el recurso de rastreo está activado
/var/tmp/snmpd.log Si el mandato snmpd está en ejecución en el sistema

El diagrama del directorio /var muestra algunos de los directorios del sistema de archivos /var.

Figura 11. Directorio /var

Gestión de dispositivos 79
Elemento Descripción
/var/adm Contiene los archivos de registro cronológico y contabilidad
/var/news Contiene las novedades del sistema
/var/preserve Contiene los datos conservados de sesiones de edición interrumpidas; es similar
al directorio /usr/preserve de anteriores releases
/var/spool Contiene archivos que los programas están procesando como, por ejemplo, el
correo electrónico; es similar al directorio /usr/spool en releases anteriores
/var/tmp Contiene archivos temporales; es similar al directorio /usr/tmp de releases
anteriores. El directorio /usr/tmp es ahora un enlace simbólico con /var/tmp.

Directorio /export
El directorio /export contiene archivos de servidor exportados a clientes como, por ejemplo, máquinas
sin disco, sin datos o con poco disco.
Un servidor puede exportar varios tipos de espacio de disco, incluyendo paquetes de programas
ejecutables, espacio de paginación para clientes sin disco y sistemas de archivos raíz para clientes sin
discos o con pocos recursos de disco. La ubicación estándar para ese espacio de disco en el árbol de
archivos es el directorio /export. Algunos subdirectorios del directorio /export aparecen en la lista
siguiente:
/exec
Contiene directorios que los clientes sin disco montan en sus sistemas de archivos /usr
/swap
Contiene archivos para la paginación remota de los clientes sin disco
/share
Contiene directorios que los clientes sin disco montan en su directorio /usr/share
/root
Contiene directorios que los clientes sin disco montan en su sistema de archivos / (raíz)
/home
Contiene directorios que los clientes sin disco montan en su sistema de archivos /home
El directorio /export es la ubicación predeterminada para los recursos de cliente para los mandatos sin
disco. El directorio /export es la única ubicación de recursos de cliente en el servidor. Puesto que los
clientes montan estos recursos en su propio árbol de archivos, estos recursos aparecen a los clientes en
los lugares normales de un árbol de archivos. Los subdirectorios principales del directorio /export, y sus
puntos de montaje correspondientes en un árbol de archivos de cliente, incluyen:
/export/root
Este directorio se monta en el sistema de archivos raíz ( / ) del cliente. Los directorios raíz del cliente
están ubicados en el directorio /export/root de forma predeterminada y llevan el nombre de
sistema principal del cliente.
/export/exec
También se denomina directorio Shared Product Object Tree (SPOT). Este directorio se monta en el
sistema de archivos /usr del cliente. Los SPOT son versiones del sistema de archivos /usr
almacenado en el directorio /export/exec y tienen nombres que reflejan su nivel de release. De
forma predeterminada, el nombre es RISCAIX.
/export/share
Este directorio se monta en el directorio /usr/share del cliente. Este directorio contiene datos que
muchas arquitecturas pueden compartir. La ubicación predeterminada es /export/
share/AIX/usr/share.
/export/home
Este directorio se monta en el sistema de archivos /home del cliente. Contiene los directorios de
usuario agrupados por los nombres de sistema principal de cliente. La ubicación por omisión para los
directorios iniciales de cliente es /export/home.

80 AIX Versión 7.2: Gestión de dispositivos


/export/swap
También se denomina directorio de paginación. En sistemas autónomos o sin datos, un disco local
proporciona la paginación; en clientes sin disco, este servicio lo proporciona un archivo de un servidor.
Este archivo lleva el nombre del nombre de sistema principal del cliente y de forma predeterminada
se encuentra en el directorio /export/swap.
/export/dump
Los sistemas autónomos utilizan un disco local como dispositivo de vuelco; los clientes sin disco
utilizan un archivo de un servidor. El archivo reside en un directorio que se llama como el nombre de
sistema principal del cliente y de forma predeterminada se encuentra en el directorio /export/
dump.
microcode
Este directorio contiene el microcódigo para los dispositivos físicos. La ubicación por omisión es /
export/exec/RISCAIX/usr/lib/microcode.

Cifrado de sistemas de archivos JFS2


A partir de AIX Versión 6.1, el Sistema de archivos cifrados (EFS) recibe soporte en sistemas de archivos
JFS2. EFS le permite cifrar sus datos y controlar el acceso a los datos mediante una protección con clave.
Se asocia una clave a cada usuario y se almacena en un almacén de claves protegido mediante cifrado.
Tras un inicio de sesión satisfactorio, las claves del usuario se cargan en el kernel y se asocian a las
credenciales de proceso. Para abrir un archivo protegido mediante EFS, se prueban las credenciales de
proceso. Si el proceso encuentra una clave que coincide con la protección de archivos, el proceso descifra
la clave del archivo y el contenido del mismo.
De forma predeterminada, los sistemas de archivos JFS2 no están habilitados para EFS. Un sistema de
archivos JFS2 debe estar habilitado para EFS para que se puedan cifrar los datos. Para obtener
información sobre cómo habilitar EFS, consulte el mandato efsenable en Commands Reference, Volume
2.

Configuración de sistemas de archivos


Al añadir o configurar sistemas de archivos, puede seleccionar opciones en el contenedor Sistemas de
archivos de las vías rápidas de SMIT.
Las vías rápidas de SMIT se proporcionan en la tabla siguiente:

Tabla 3. Tareas de gestión de volúmenes lógicos y sistemas de archivos


Tarea Vía rápida de SMIT
Añadir un JFS o JFS2 smit crfs
Añadir un JFS2 a un volumen lógico existente smit crjfs2lvstd
Añadir un JFS a un menú de volumen lógico Cree el volumen lógico, después smit crjfslv
definido previamente
Cambiar los atributos de un JFS o JFS2 Nota 1 smit chfs
Comprobar el tamaño de un sistema de archivos smit fs
Aumentar el tamaño de un sistema de archivos JFS: smit chjfs JFS2: smit chjfs2
Reducir el tamaño de un sistema de archivos JFS2: smit chjfs2

Nota: La vía rápida de SMIT para Reducir el tamaño de un sistema de archivos sólo es para JFS2.

Gestión del sistema de archivos


Un sistema de archivos es una estructura de directorios completa, que incluye un directorio raíz y
cualquier subdirectorio y archivos por debajo suyo.
Los sistemas de archivos están confinados a un solo volumen lógico. Parte de las tareas más importantes
de gestión del sistema son relativas a sistemas de archivos, específicamente:

Gestión de dispositivos 81
• Asignación de espacio para los sistemas de archivos en los volúmenes lógicos
• Creación de sistemas de archivos
• Obtención de espacio disponible del sistema de archivos para los usuarios del sistema
• Supervisión de la utilización del espacio del sistema de archivos
• Copia de seguridad de sistemas de archivos para evitar la pérdida de datos en caso de anomalías del
sistema
• Toma de instantánea para capturar una imagen de nivel de bloque coherente de un sistema de archivos
en un punto del tiempo determinado
• Mantenimiento de sistemas de archivos en un estado coherente.
A continuación, encontrará una lista de mandatos de gestión del sistema que ayudan a gestionar los
sistemas de archivos:

Elemento Descripción
backup Realiza un copia de seguridad completa o incremental de un sistema de archivos
chfs -a Crea una copia de seguridad en línea de un sistema de archivos JFS montado
splitcopy
dd Copia datos directamente de un dispositivo en otro, para realizar copias de seguridad del
sistema de archivos
df Informa de la cantidad de espacio utilizado y libre en un sistema de archivos
fsck Comprueba los sistemas de archivos y repara incoherencias
mkfs Crea un sistema de archivos de un tamaño especificado en un volumen lógico
especificado
mount Conecta un sistema de archivos con la estructura de denominación de todo el sistema
para que se pueda acceder a los archivos y directorios de ese sistema de archivos
restore Restaura los archivos de una copia de seguridad
snapshot Crea una instantánea de un sistema de archivos JFS2
umount Elimina un sistema de archivos de la estructura de denominación de todo el sistema,
volviendo inaccesibles los archivos y directorios del sistema de archivos.

Visualización del espacio disponible en un sistema de archivos (mandato df)


Utilice el mandato df para visualizar información sobre el espacio total y el espacio disponible en un
sistema de archivos. El parámetro Sist_archivos especifica el nombre del dispositivo en el que reside el
sistema de archivos, el directorio en el que se ha montado el sistema de archivos y el nombre de vía de
acceso relativa de un sistema de archivos.
Si no se especifica el parámetro Sist_archivos, el mandato df muestra información de todos los sistemas
de archivos montados actualmente. Si se especifica un archivo o directorio, el mandato df muestra
información sobre el sistema de archivos en que reside.
Normalmente, el mandato df utiliza recuentos libres contenidos en el superbloque. En condiciones
excepcionales determinadas, dichos recuentos pueden no ser correctos. Por ejemplo, si un sistema de
archivos se ha modificado activamente al ejecutar el mandato df, es posible que el recuento libre no sea
preciso.
Consulte el mandato df en la publicación Commands Reference, Volume 2 para conocer la sintaxis
completa.
Nota: En algunos sistemas de archivos remotos como, por ejemplo, NFS (Network File Systems), las
columnas que representan el espacio disponible en la pantalla se dejan vacías si el servidor no
proporciona la información.
Lo siguiente son ejemplos del modo de utilizar el mandato df:

82 AIX Versión 7.2: Gestión de dispositivos


• Para visualizar información sobre todos los sistemas de archivos montados, escriba lo siguiente:

df

Si el sistema se ha configurado de modo que los directorios /, /usr, /site y /usr/venus residan en
sistemas de archivos separados, la salida del mandato df es similar a la siguiente:

Filesystem 512-blocks free %used Iused %Iused Mounted on


/dev/hd4 20480 13780 32% 805 13% /
/dev/hd2 385024 15772 95% 27715 28% /usr
/dev/hd9var 40960 38988 4% 115 1% /var
/dev/hd3 20480 18972 7% 81 1% /tmp
/dev/hd1 4096 3724 9% 44 4% /home

• Para visualizar el espacio disponible en el sistema de archivos en que reside el directorio actual, teclee
lo siguiente:

df .

Mandatos de sistema de archivos


Hay varios mandatos diseñados para ejecutarse en sistemas de archivos, sin tener en cuenta el tipo.
El archivo /etc/filesystems controla la lista de sistemas de archivos que los mandatos siguientes
pueden manipular:

Elemento Descripción
chfs Cambia las características de un sistema de archivos
crfs Añade un sistema de archivos
lsfs Visualiza las características de un sistema de archivos
rmfs Elimina un sistema de archivos
mount Hace que un sistema de archivos esté disponible para utilizarlo

Se pueden ejecutar cuatro mandatos en tipos de sistemas de archivos virtuales. El archivo /etc/vfs
contiene la información sobre los tipos de sistemas de archivos que los siguientes mandatos manipulan:

Elemento Descripción
chvfs Cambia las características de un tipo de sistema de archivos
crvfs Añade un nuevo tipo de sistema de archivos
lsvfs Lista las características de un tipo de sistema de archivos
rmvfs Elimina un tipo de sistema de archivos

Comparación de sistemas de archivos en máquinas diferentes


Cuando sistemas de archivos que existen en máquinas diferentes deben ser idénticos, pero se sospecha
que uno está dañado, puede comparar los sistemas de archivos.
En el procedimiento siguiente se describe cómo comparar los atributos de un sistema de archivos que
reside en el sistema principal actual (en este caso de ejemplo, denominado orig_host) con respecto al
mismo sistema de archivos que se encuentra en un sistema principal remoto.
La información de este procedimiento se ha probado utilizando versiones específicas de AIX. Los
resultados que obtenga pueden variar significativamente dependiendo de la versión y el nivel de AIX.
1. Inicie la sesión en el sistema principal remoto como usuario root.
Por ejemplo:

tn juniper.mycompany.com

AIX Version 6.1

Gestión de dispositivos 83
(C) Copyrights by IBM and by others 1982, 2002. login: root
root's Password:

2. Utilice su editor favorito para editar el archivo .rhosts del sistema principal remoto y añadir una
stanza que permita que el usuario root ejecute mandatos remotos seguros. Utilice el formato siguiente
para la nueva stanza:

orig_host root

El archivo .rhosts resultante puede tener un aspecto similar al siguiente:

NIM.mycompany.com root
nim.mycompany.com root
host.othernetwork.com root
orig_host.mycompany.com root

3. Guarde los cambios y salga de la conexión remota.


4. Con autorización de root en orig_host, cree otro archivo utilizando su editor favorito.
Para este caso de ejemplo, el nuevo archivo se denomina compareFS. Por ejemplo:

vi compareFS

5. Inserte el texto siguiente en el archivo, donde FSname es el nombre del sistema de archivos que desea
comparar y remote_host es el nombre del sistema principal en que reside el sistema de archivos de
comparación:

nombreSA -> sistema_principal_remoto


install -v ;

Nota: en la línea de mandatos install de este archivo, debe haber un espacio entre el parámetro -v
y el punto y coma (;).
Por ejemplo:

/home/jane/* -> juniper.mycompany.com


install -v ;

6. Guarde el archivo y salga del editor. El archivo compareFS se utiliza como distfile para el mandato
rdist en el paso siguiente.
7. Escriba lo siguiente en el indicador de mandatos:

/usr/bin/rdist -f compareFS

O bien, si espera que la comparación genera una cantidad de salida importante, envíe la salida a un
nombre de archivo. Por ejemplo:

/usr/bin/rdist -f compareFS > compareFS_output

La salida lista todas las diferencias entre los sistemas de archivo.

Mantenimiento de sistemas de archivos


En esta tabla se agrupan las tareas más sencillas que puede necesitar para mantener sistemas de
archivos.

Tabla 4. Tareas de mantenimiento de sistemas de archivos


Tarea Vía rápida de SMIT Mandato o archivo
Hacer copia de seguridad por smit backfile backup Nota 1
nombre de archivos o directorios
Crear y hacer copia de seguridad smit backsnap backsnap Nota 1
de una imagen de instantánea de
JFS2

84 AIX Versión 7.2: Gestión de dispositivos


Tabla 4. Tareas de mantenimiento de sistemas de archivos (continuación)
Tarea Vía rápida de SMIT Mandato o archivo
Listar todos los sistemas de smit lsmntdsk
archivos de un disco
Listar sistemas de archivos de un smit lsmntdsk
disco extraíble
Listar sistemas de archivos smit fs
montados
Montar un grupo de sistemas de smit mountg mount -t NombreGrupo
archivosNota 5
Montar un JFS o JFS2Nota 3 smit mountfs mount
Montar una instantánea de JFS2 smit mntsnap mount -v jfs2 -o snapshot
Dispositivo PuntoMontaje
Eliminar un JFS o JFS2 smit rmfs
Eliminar una instantánea de JFS2 smit rmsnap snapshot -d
DispositivoInstantánea
Revertir un sistema de archivos smit rollbacksnap rollback [-s] [-v] [-c]
JFS2 a una instantánea de punto SAInstantánea
en el tiempo ObjetoInstantánea
Desmontar un sistema de smit umountfs
archivosNota 4
Desmontar un sistema de smit umntdsk
archivos de un disco
extraíbleNota 4
Desmontar un grupo de sistemas smit umountg umount -t NombreGrupo
de archivosNota 5
Gestionar cuotas de sistemas de smit j2fsquotas
archivos de diario ampliados
Habilitar o inhabilitar la gestión smit j2enablequotas
de cuotas
Detener/Reiniciar la imposición smit j2enforcequotas quotaon|off -v
de límites de cuotas
Listar el uso de cuotas smit j2repquota repquota -v
Volver a calcular estadísticas smit j2quotacheck quotacheck -v
actuales de uso de archivos y
bloques de disco
Añadir una clase de límites smit j2addlimit j2edlimit -e
Cambiar/Mostrar características smit j2changelimit
de una clase de límites
Convertir una clase de límites en smit j2defaultlimit
los límites predeterminados para
un sistema de archivos
Asignar un usuario o grupo a una smit j2assignlimit
clase de límites

Gestión de dispositivos 85
Tabla 4. Tareas de mantenimiento de sistemas de archivos (continuación)
Tarea Vía rápida de SMIT Mandato o archivo
Listar clases de límites para un smit j2listlimits j2edlimit -l '-u'
sistema de archivos
Eliminar una clase de límites smit j2removelimit

Nota:
1. Para ver las opciones, consulte los mandatos individuales.
2. No cambie los nombres de los sistemas de archivos importantes para el sistema, que son / (raíz) en el
volumen lógico 4 (hd4), /usr en hd2, /var en hd9var, /tmp en hd3 y /blv en hd5. Si utiliza el
convenio hdn, empiece en hd10.
3. Compruebe los sistemas de archivos antes del montaje utilizando el procedimiento del apartado
“Verificación de sistemas de archivos” en la página 89 o ejecutando el mandato fsck.
4. Si falla un desmontaje, puede ser debido a que un usuario o proceso ha abierto un archivo del sistema
de archivos que se está desmontando. El mandato fuser permite averiguar el usuario o proceso que
provoca la anomalía.
5. Un grupo de sistemas de archivos es una colección de sistemas de archivos que tienen el mismo valor
para el identificador type= del archivo /etc/filesystems.

Recuperación de uno o varios archivos desde una instantánea de JFS2 externa en línea
Puede sustituir un archivo dañado si tiene una copia precisa en una instantánea de JFS2 externa en línea.
Utilice el procedimiento siguiente para recuperar uno o varios archivos desde una imagen de instantánea
de JFS2 externa en línea:
En este ejemplo, suponemos que /home/aaa/myfile es un archivo dañado del sistema de archivos /
home.
1. Monte la instantánea con un mandato parecido al siguiente:

mount -v jfs2 -o snapshot /dev/mysnaplv /tmp/mysnap

2. Cambie al directorio que contiene la instantánea con un mandato parecido al siguiente:

cd /tmp/mysnap

3. Copie el archivo preciso de la instantánea para sobregrabar el archivo dañado con un mandato
parecido al siguiente:

cp aaa/myfile /home/aaa/myfile

El ejemplo anterior copia únicamente el archivo llamado myfile. Si desea copiar todos los archivos de
la instantánea en el directorio aaa, utilice un mandato parecido al siguiente:

cp -R aaa /home/aaa

Para ver más ejemplos sobre cómo sustituir archivos dañados por imágenes de instantánea, consulte
las descripciones de los mandatos cp o cpio en Commands Reference, Volume 1.

Recuperación de uno o varios archivos de una instantánea de JFS2 interna en línea


Puede sustituir un archivo dañado si tiene una copia precisa en una instantánea de JFS2 interna en línea.
Utilice el procedimiento siguiente para recuperar uno o varios archivos desde una imagen de instantánea
de JFS2 interna en línea:
En este ejemplo, suponemos que /home/aaa/myfile es un archivo dañado del sistema de archivos /
home.

86 AIX Versión 7.2: Gestión de dispositivos


1. Cambie al directorio que contiene la instantánea con un mandato parecido al siguiente:

cd /home/.snapshot/mysnap

2. Copie el archivo preciso de la instantánea para sobregrabar el archivo dañado con un mandato
parecido al siguiente:

cp aaa/myfile /home/aaa/myfile

El ejemplo anterior copia únicamente el archivo llamado myfile. Si desea copiar todos los archivos de
la instantánea en el directorio aaa, utilice un mandato parecido al siguiente:

cp -R aaa /home/aaa

Para ver más ejemplos sobre cómo sustituir archivos dañados por imágenes de instantánea, consulte
las descripciones de los mandatos cp o cpio en Commands Reference, Volume 1.

Sistemas de archivos en discos CD-ROM y DVD


Los CD y DVD no se montan automáticamente, pero esta característica se puede habilitar.
Para habilitar esta característica, utilice el mandato cdmount para montar el sistema de archivos CDRFS
o UDFS, por ejemplo:

cdmount cd0

Puede montar manualmente un UDFS de lectura/grabación con el mandato siguiente:

mount -V udfs NombreDisp PuntoMontaje

Donde NombreDisp es el nombre de la unidad de DVD y PuntoMontaje es el punto de montaje para el


sistema de archivos.

Utilización de sistemas de archivos en soporte óptico de lectura/grabación


Los sistemas de archivos CDRFS y JFS se pueden utilizar en soportes ópticos de lectura/grabación.
Un sistema de archivos de CD-ROM (CDRFS) se puede almacenar en soporte óptico de lectura/grabación,
siempre que el soporte óptico esté protegido contra grabación, así como en un CD-ROM. La tabla
siguiente indica cómo añadir, montar o desmontar un CDRFS en un soporte óptico de lectura/grabación.
Debe especificar la siguiente información al montar el sistema de archivos:

Elemento Descripción
Nombre de dispositivo Define el nombre del dispositivo que contiene el soporte.
Punto de montaje Especifica el directorio donde se montará el sistema de archivos.
Montaje automático Especifica si el sistema de archivos se montará automáticamente al reiniciar
el sistema.

Tareas de CDRFS en soporte óptico


Tarea Vía rápida de SMIT Mandato o archivo
Adición de un CDRFS 1 smit crcdrfs 1. Añada el sistema de archivos:
crfs -v cdrfs -p ro -
dNombreDispositivo -m
PuntoMontaje -A
MontajeAutomático
2. Monte el sistema de archivos:
mount PuntoMontaje

Gestión de dispositivos 87
Tareas de CDRFS en soporte óptico
Eliminación de un CDRFS2 1. Desmonte el sistema de 1. Desmonte el sistema de
archivos: smit umountfs archivos: umount
2. Elimine el sistema de SistemaArchivos
archivos: smit rmcdrfs 2. Elimine el sistema de
archivos: rmfs PuntoMontaje

Nota:
• Asegúrese de que el soporte óptico de lectura/grabación esté protegido contra grabación.
• El sistema de archivos CDRFS se debe desmontar antes de que se pueda extraer el soporte óptico de
lectura/grabación.
Un JFS proporciona un sistema de archivos de lectura/grabación en un soporte óptico similar a los de un
disco duro. Debe tener autorización del sistema para crear o importar un sistema de archivos de lectura/
grabación en el soporte óptico de lectura/grabación (es decir, el inicio de sesión debe pertenecer al grupo
del sistema) y debe disponer de la siguiente información:
Nombre de grupo de volúmenes
Especifica el nombre del grupo de volúmenes
Nombre de dispositivo
Especifica el nombre lógico de la unidad óptica de lectura/grabación
Punto de montaje
Especifica los directorios donde se montarán los sistemas de archivos
Montaje automático
Especifica si el sistema de archivos se montará automáticamente en el reinicio del sistema
Nota:
• Cualquier grupo de volúmenes creado en el soporte óptico de lectura/grabación debe estar
completamente contenido en ese soporte. Los grupos de volúmenes no pueden sobrepasar un disco
óptico de lectura/grabación.
• Al acceder a un sistema de archivos de diario creado previamente, no es necesario que el nombre de
grupo de volúmenes coincida con el que se ha utilizado al crear el grupo de volúmenes.

Tareas de JFS en soporte óptico


Tarea Vía rápida de SMIT Mandato o archivo
Adición de un JFS 1. Inserte el disco óptico en la 1. Inserte el disco óptico en la
unidad. unidad.
2. Cree un grupo de volúmenes 2. Cree un grupo de volúmenes
(si es necesario): smit mkvg (si es necesario): mkvg -f -
3. Cree un sistema de archivos y NombreGV -d 1
de diario: smit crfs NombreDispositivo
3. Cree un sistema de archivos
de diario: crfs -v jfs -g
NombreGV -a
size=TamañoSistArchivos -m
PuntoMontaje -A
MontajeAutomático -p rw
4. Monte el sistema de archivos:
mount PuntoMontaje

88 AIX Versión 7.2: Gestión de dispositivos


Tareas de JFS en soporte óptico
Acceso a un JFS creado 1. Inserte el disco óptico en la 1. Inserte el disco óptico en la
previamenteNota 1 unidad. unidad.
2. Importe el grupo de 2. Importe el grupo de
volúmenes: smit importvg volúmenes: importvg -y
NombreGV NombreDispositivo
3. Monte el sistema de archivos:
mount PuntoMontaje

Eliminación de un JFSNota 2 1. Desmonte el sistema de 1. Desmonte el sistema de


archivos: smit umountfs archivos: umount
2. Elimine el sistema de SistemaArchivos
archivos: smit rmjfs 2. Elimine el sistema de
archivos: rmfs PuntoMontaje

Nota:
• Este procedimiento es necesario siempre que se inserte un soporte que contenga sistemas de archivos
de diario.
• La eliminación de un sistema de archivos de diario destruye todos los datos contenidos en ese sistema
de archivos y en el soporte óptico de lectura/grabación.

Verificación de sistemas de archivos


Se pueden producir incoherencias en los sistemas de archivos cuando se detiene el sistema mientras los
sistemas de archivos permanecen montados o cuando se daña un disco. En estas circunstancias, es
importante verificar los sistemas de archivos antes de montarlos.
También verifique los sistemas de archivos en las circunstancias siguientes:
• Tras un funcionamiento incorrecto; por ejemplo, si un usuario no ha podido ir a un directorio que tiene
los permisos de ese usuario (uid)
• Antes de hacer copia de seguridad de los sistemas de archivos, para evitar errores y posibles problemas
de restauración
• En la instalación o arranque del sistema para asegurarse de que no hay ningún error en los archivos del
sistema operativo

Comprobación de un sistema de archivos definido por el usuario


Para comprobar un sistema de archivos definido por el usuario, siga estos pasos.
1. Desmonte el sistema de archivos definido por el usuario que se está comprobando.
2. Asegúrese de que tiene permisos de grabación en los archivos del sistema de archivos. De lo contrario,
fsck no podrá reparar los archivos dañados aunque responda Sí a las solicitudes de reparación.
3. Utilice la vía rápida smit fsck para acceder al menú Verificar sistema de archivos.
4. Realice una de las acciones siguientes:
• Especifique el nombre del sistema de archivos individual que se debe comprobar en el campo
NOMBRE de sistema de archivos o
• Seleccione el tipo de sistema de archivos general que se debe comprobar, por ejemplo, un sistema
de archivos de diario (JFS), en el campo TIPO de sistema de archivos.
5. Si desea limitar la comprobación a los candidatos más probables, especifique Sí en el campo
¿Comprobación RÁPIDA?.
La opción de comprobación rápida sólo comprueba los sistemas de archivos que es probable que
contengan incoherencias como, por ejemplo, los sistemas de archivos que se han montado cuando el
sistema se ha detenido en un punto en el pasado.

Gestión de dispositivos 89
6. Especifique el nombre de un archivo temporal en un sistema de archivos que no se comprueba en el
campo Archivo REUTILIZABLE.
7. Empiece la comprobación del sistema de archivos.

Comprobación de sistemas de archivos raíz y /usr


Para ejecutar el mandato fsck en el sistema de archivos / o /usr, debe cerrar el sistema y rearrancarlo
desde un soporte extraíble porque los sistemas de archivos / (raíz) y /usr no se pueden desmontar en un
sistema en ejecución.
El siguiente procedimiento describe cómo ejecutar fsck en los sistemas de archivos / y /usr desde el
shell de mantenimiento.
1. Cierre el sistema.
(Se requiere acceso de root)
2. Arranque desde el soporte de instalación.
3. En el menú Bienvenido, elija la opción Mantenimiento.
4. En el menú Mantenimiento, elija la opción para acceder a un grupo de volúmenes.
5. Elija el grupo de volúmenes rootvg. Se visualiza una lista de volúmenes lógicos que pertenecen al
grupo de volúmenes que ha seleccionado.
6. Elija 2 para acceder al grupo de volúmenes e inicie un shell antes de montar los sistemas de archivos.
En los pasos siguientes, ejecutará el mandato fsck utilizando las opciones adecuadas y los nombres
de dispositivos de sistemas de archivos. El mandato fsck comprueba la coherencia del sistema de
archivos y repara interactivamente el sistema de archivos. El dispositivo del sistema de archivos /
(raíz) es /dev/hd4 y el dispositivo del sistema de archivos /usr es /dev/hd2.
7. Para comprobar el sistema de archivos /, escriba lo siguiente:

$ fsck -y /dev/hd4

El distintivo -y está recomendado para usuarios con poca experiencia (consulte el mandato fsck).
8. Para comprobar el sistema de archivos /usr, escriba lo siguiente:

$ fsck -y /dev/hd2

9. Para comprobar otros sistemas de archivos de rootvg, escriba el mandato fsck con los nombres de
dispositivo adecuados. El dispositivo para /tmp es /dev/hd3, y el dispositivo para /var es /dev/
hd9var.
10. Cuando haya completado la comprobación de los sistemas de archivos, rearranque el sistema.

Reducción del tamaño de un sistema de archivos en el grupo de volúmenes raíz


El procedimiento más sencillo para reducir todos los sistemas de archivos a su tamaño mínimo es
establecer la opción SHRINK en yes al restaurar el sistema operativo base a partir de la copia de
seguridad.
El procedimiento más sencillo para reducir todos los sistemas de archivos a su tamaño mínimo es
establecer la opción SHRINK en yes al restaurar el sistema operativo base a partir de la copia de
seguridad. La opción SHRINK y el caso de ejemplo siguiente no se pueden utilizar conjuntamente. Si
establece la opción SHRINK en yes después de llevar a cabo el procedimiento siguiente, la instalación
altera temporalmente los cambios que se han realizado en el archivo /image.data.
Este caso de ejemplo le guía a través del proceso manual para reducir el tamaño de un sistema de
archivos rootvg seleccionado. Se identifica un sistema de archivos que no utiliza todo el espacio de
disco asignado y, a continuación, se vuelve a asignar en función de la cantidad de espacio que el sistema
de archivos utiliza en realidad, liberando así más espacio para el uso del grupo de volúmenes raíz. Como
parte de este procedimiento, se realiza una copia de seguridad de los grupos de volúmenes y se reinstala
el sistema operativo utilizando las asignaciones revisadas.
Atención: para este procedimiento se debe concluir y reinstalar el sistema operativo base. Cada
vez que reinstale cualquier sistema operativo, planifique el tiempo de inactividad cuando menos
impacte en la carga de trabajo como protección contra posibles pérdidas de datos o funcionalidad.

90 AIX Versión 7.2: Gestión de dispositivos


Antes de reinstalar el sistema operativo, asegúrese de que dispone de copias de seguridad fiables
de los datos y de todas las aplicaciones o grupos de volúmenes personalizados.
La información de este procedimiento se ha probado utilizando versiones específicas de AIX. Los
resultados que obtenga pueden variar significativamente dependiendo de la versión y el nivel de AIX.
1. Cree una copia de seguridad separada de todos los sistemas de archivos que no están contenidos en
rootvg. La copia de seguridad separada ayuda a garantizar la integridad de todos los sistemas de
archivos.
2. Con autorización de usuario root, compruebe cuáles son los sistemas de archivos del grupo de
volúmenes raíz que no utilizan el espacio de disco asignado; para ello, teclee el mandato siguiente:

df -k

El distintivo -k muestra los tamaño de sistema de archivos en kilobytes. El resultado tiene un aspecto
similar al siguiente:

Filesystem 1024-blocks Free %Used Iused %Iused Mounted on


/dev/hd4 196608 4976 98% 1944 2% /
/dev/hd2 1769472 623988 65% 36984 9% /usr
/dev/hd9var 163840 65116 61% 676 2% /var
/dev/hd3 65536 63024 4% 115 1% /tmp
/dev/hd1 49152 8536 83% 832 7% /home
/proc - - - - - /proc
/dev/hd10opt 32768 26340 20% 293 4% /opt

Al observar estos resultados, se aprecia un gran número de bloques libres y un porcentaje de uso
bastante bajo asociado al sistema de archivos que está montado en /usr. Puede decidir liberar un
número importante de bloques reduciendo en número de particiones asignadas al sistema de
archivos /usr.
3. Compruebe el contenido del archivo /etc/filesystems para asegurarse de que se han montado
todos los sistemas de archivos en rootvg. Si no es así, no se incluyen en el sistema reinstalado.
4. Cree un archivo /image.data, que liste todos los sistemas de archivos activos en rootvg, que se
incluyen en el procedimiento de instalación; para ello, teclee el mandato siguiente:

mkszfile

5. Abra el archivo /image.data en su editor favorito.


6. Busque la serie de texto usr para localizar la stanza lv_data que pertenece al sistema de archivos /
usr.
Utilice los números de esta stanza como base para determinar cuánto puede reducir el número de
sistemas de archivos /usr de particiones lógicas. El tamaño predeterminado de cada partición lógica
adicional se define en la entrada PP_SIZE del archivo /image.data. El archivo /image.data tiene
un aspecto similar al siguiente:

lv_data:
VOLUME_GROUP= rootvg
LV_SOURCE_DISK_LIST= hdisk0
LV_IDENTIFIER= 00042345d300bf15.5
LOGICAL_VOLUME= hd2
VG_STAT= active/complete
TYPE= jfs
MAX_LPS= 32512
COPIES= 1
LPs= 108
STALE_PPs= 0
INTER_POLICY= minimum
INTRA_POLICY= center
MOUNT_POINT= /usr
MIRROR_WRITE_CONSISTENCY= on/ACTIVE
LV_SEPARATE_PV= yes
PERMISSION= read/write
LV_STATE= opened/syncd
WRITE_VERIFY= off
PP_SIZE= 16
SCHED_POLICY= parallel
PP= 108

Gestión de dispositivos 91
BB_POLICY= relocatable
RELOCATABLE= yes
UPPER_BOUND= 32
LABEL= /usr
MAPFILE=
LV_MIN_LPS= 70
STRIPE_WIDTH=
STRIP_SIZE=

El número de particiones lógicas dedicadas a este volumen lógico es 108 (LPs=108).


7. Determine el número de particiones lógicas que se necesitan para los datos existentes en el sistema
de archivos /usr utilizando el resultado obtenido en el paso 2.
Puede visualizar los tamaños de archivos existentes específicamente para el sistema de
archivos /usr mediante el mandato siguiente:

df -k /usr

El resultado repite los números (en kilobytes) que se han recibido para el sistema de archivos /usr
en el paso 2. Por ejemplo:

Filesystem 1024-blocks Free %Used Iused %Iused Mounted on


/dev/hd2 1769472 623988 65% 36984 9% /usr

a) Reste el espacio libre del número total de bloques de 1024 asignados:

1769472 - 623988 = 1145484

b) Añada una estimación del espacio que puede necesitar para acomodar cualquier crecimiento
futuro previsto en este sistema de archivos.
Para este ejemplo, añada 200000 al resultado.

1145484 + 200000 = 1345484

c) Divida el resultado por el tamaño de la partición lógica en bytes (16*1024) con el objeto de
determinar el número mínimo de particiones lógicas que necesita.

1345484 / 16384 = 82.121826171875

Utilice este resultado, redondeado al alza, para volver a definir el número de particiones lógicas
necesarias (LPs=83).
8. En el archivo image.data, cambie el campo LPs de 108 a 83.
9. Busque la stanza fs_data que pertenece al sistema de archivos /usr.
La stanza fs_data tiene un aspecto similar al siguiente:

fs_data:
FS_NAME= /usr
FS_SIZE= 3538944
FS_MIN_SIZE= 2290968
FS_LV= /dev/hd2
FS_FS= 4096
FS_NBPI= 4096
FS_COMPRESS= no
FS_BF= false
FS_AGSIZE= 8

10. Calcule el tamaño del sistema de archivos (FS_SIZE) multiplicando el tamaño de las particiones
físicas (PP_SIZE) por 2 (el número de bloques de 512 bytes que utilizan las particiones físicas) por el
número el particiones lógicas (LPs).
Dados los valores utilizados en este ejemplo, el cálculo es el siguiente:

PP_SIZE * 512 blocks * LPs = FS_SIZE


16384 * 2 * 83 = 2719744

11. En el archivo image.data, cambie el campo FS_SIZE de 3538944 a 2719744.


12. Calcule el tamaño mínimo del sistema de archivos (FS_MIN_SIZE) en función del tamaño real de los
datos actuales que utiliza el sistema de archivos /usr, tal como se indica a continuación:

92 AIX Versión 7.2: Gestión de dispositivos


a) Calcule el número mínimo de particiones necesarias.
Dados los valores utilizados en este ejemplo, el cálculo es el siguiente:

tamaño_en_uso (consulte el paso 7a) / PP_SIZE = partitions


1145484 / 16384 = 69.914794921875
b) Calcule el tamaño mínimo que se necesita para el número de particiones.
Al redondear al alza el resultado del cálculo anterior a 70, el cálculo es el siguiente:

PP_SIZE * 512 blocks * partitions = FS_MIN_SIZE


16384 * 2 * 70 = 2293760

13. En el archivo image.data, cambie el campo FS_MIN_SIZE de 2290968 a 2293760.


14. Guarde las ediciones y salga del editor.
15. Desmonte todos los sistemas de archivos que no se encuentren en el grupo de volúmenes rootvg.
16. Si tiene algún grupo de volúmenes definido por el usuario, teclee los mandatos siguientes para
desactivarlos y exportarlos:

varyoffvg VGName
exportvg NombreGV

17. Con una cinta en la unidad de cintas, escriba el mandato siguiente para iniciar una copia de seguridad
del sistema completa:

mksysb /dev/rmt0

Esta cinta de copia de seguridad incluye la información de tamaño del sistema de archivos que se ha
especificado en el archivo /image.data, que se utiliza posteriormente para reinstalar el sistema con
los nuevos tamaños de sistema de archivos.
Nota: para iniciar esta copia de seguridad, debe ejecutar el mandato mksysb desde la línea de
mandatos. Si utiliza una herramienta de gestión del sistema como, por ejemplo, SMIT, la copia de
seguridad crea un nuevo archivo image.data, sobrescribiendo los cambios que se han realizado.
18. Utilice la copia de seguridad para reinstalar el sistema operativo utilizando la opción Instalar con los
valores del sistema actuales.
Durante la instalación, compruebe si las opciones siguientes se han establecido correctamente:
• Utilizar Correlaciones se debe haber establecido en no
• Reducir los sistemas de archivos se debe haber establecido en no
Si necesita más información sobre el procedimiento de instalación, consulte el apartado Instalación
de copias de seguridad del sistema.
19. Una vez que haya instalado el sistema operativo, rearranque el sistema en modalidad Normal.
En este punto, se redimensiona el sistema de archivos /usr, pero los sistemas de archivos definidos
por el usuario no están disponibles.
20. Monte todos los sistemas de archivos escribiendo el mandato siguiente:

mount all

Si recibe mensajes que indiquen Dispositivo ocupado sobre los sistemas de archivos que se han
montado previamente, ignórelos.
En este punto, se redimensiona el sistema de archivos /usr, el grupo de volúmenes raíz tiene más
espacio libre y se pueden utilizar los sistemas de archivos del usuario.
Conceptos relacionados
Almacenamiento de volúmenes lógicos
Los volúmenes lógicos son grupos de información ubicados en volúmenes físicos.
Información relacionada
Creación de una copia de seguridad del grupo de volúmenes raíz en cinta o archivo

Gestión de dispositivos 93
Descripción del archivo /image.data
Mandato mkszfile
Mandato mksysb

Resolución de problemas de los sistemas de archivos


Utilice los siguientes métodos de resolución de problemas para solucionar algunos de los problemas
básicos que pueden producirse en los sistemas de archivos. Si la información de resolución de problemas
no resuelve su problema, póngase en contacto con el representante de servicio.

Arreglo del desbordamiento de un sistema de archivos definido por el usuario


Utilice este procedimiento para arreglar el desbordamiento de un sistema de archivos definido por el
usuario.
1. Elimine los archivos de copia de seguridad antiguos y los archivos de imagen de la memoria. El
ejemplo siguiente elimina todos los archivos *.bak, .*.bak, a.out, core, * o ed.hup.

find / \( -name "*.bak" -o -name core -o -name a.out -o \


-name "...*" -o -name ".*.bak" -o -name ed.hup \) \
-atime +1 -mtime +1 -type f -print | xargs -e rm -f

2. Para evitar que los archivos desborden regularmente el disco, ejecute el mandato skulker como
parte del proceso cron y elimine los archivos no necesarios o temporales.
El mandato skulker depura los archivos del directorio /tmp, los archivos anteriores a una fecha
especificada, los archivos a.out, los archivos de imagen de la memoria y los archivos ed.hup. Se
ejecuta diariamente, como parte de un procedimiento de contabilidad que el mandato cron ejecuta
durante los periodos de menor actividad (suponiendo que haya activado la contabilidad).
El daemon cron ejecuta mandatos de shell en fechas y horas especificadas. Normalmente, los
mandatos planificados como, por ejemplo, skulker se pueden especificar según las instrucciones
contenidas en los archivos crontab. Someta los archivos crontab con el mandato crontab. Para
editar un archivo crontab, debe tener autorización de usuario root.

Arreglo de un sistema de archivos dañado


Los sistemas de archivos se pueden dañar cuando se daña el i-nodo o la información de superbloque para
la estructura de directorios del sistema de archivos.
Este daño puede estar provocado por un problema relacionado con el hardware o por un programa
dañado que accede directamente al i-nodo o a la información de superbloque. (Los programas escritos en
assembler y C pueden saltarse el sistema operativo y grabar directamente en el hardware.) Un síntoma de
un sistema de archivos dañado es que el sistema no puede localizar, leer o grabar datos ubicados en un
sistema de archivos determinado.
Para arreglar un sistema de archivos dañado, debe diagnosticar el problema y repararlo. El mandato fsck
realiza los diagnósticos y reparaciones de nivel inferior.
El siguiente procedimiento sirve para arreglar un sistema de archivos dañado:
1. Con la autorización de root, desmonte el sistema de archivos dañado utilizando una de las vías rápidas
de SMIT siguientes: smit unmountfs (para un sistema de archivos de una unidad de disco fijo) o
smit unmntdsk (para un sistema de archivos de un disco extraíble).
2. Evalúe el daño del sistema de archivos ejecutando el mandato fsck. En el ejemplo siguiente, el
mandato fsck comprueba el sistema de archivos ubicado en el dispositivo /dev/mivlarchivo:

fsck /dev/mivlarchivo

El mandato fsck comprueba y repara interactivamente los sistemas de archivos incoherentes. Por lo
general, el sistema de archivos es coherente y el mandato fsck sólo informa acerca del número de
archivos, de bloques no utilizados y de bloques libres del sistema de archivos. Si el sistema de
archivos no es coherente, el mandato fsck visualiza información acerca de las incoherencias que ha
encontrado y le solicita permiso para repararlas. Puede decirse que el mandato fsck es conservador
en las operaciones de reparación que realiza e intenta evitar las acciones que pueden dar como

94 AIX Versión 7.2: Gestión de dispositivos


resultado la pérdida de datos válidos. Sin embargo, en algunos casos, el mandato fsck recomienda la
destrucción de un archivo dañado. Consulte la descripción del mandato fsck en la publicación
Commands Reference, Volume 2 para ver una lista de las incoherencias que este mandato comprueba.
3. Si este sistema de archivos no se puede reparar, restáurelo desde una copia de seguridad.

Atención: La restauración de un sistema de archivos desde una copia de seguridad destruye y


sustituye cualquier sistema de archivos previamente almacenado en el disco.
Para restaurar el sistema de archivos desde una copia de seguridad, utilice la vía rápida de SMIT smit
restfilesys o la serie de mandatos mostrados en el ejemplo siguiente:

mkfs /dev/mivlarchivo
mount /dev/mivlarchivo /misistarchivos
cd /misistarchivos
restore -r

En este ejemplo el mandato mkfs crea un nuevo sistema de archivos en el dispositivo


denominado /dev/mivlarchivo e inicializa la etiqueta del volumen, la etiqueta del sistema de
archivos y el bloque de arranque. El mandato mount establece /dev/mivlarchivo como punto de
montaje para misistarchivos y el mandato restore extrae el sistema de archivos de la copia de
seguridad.
Si la copia de seguridad se ha creado utilizando copias de seguridad incrementales del sistema de
archivos, debe restaurar las copias de seguridad en orden ascendente de nivel de copia de seguridad
(por ejemplo, 0, 1, 2). Cuando se utiliza smit restfilesys para restaurar todo el sistema de
archivos, especifique el directorio de destino, el dispositivo de restauración (diferente de /dev/rfd0)
y el número de bloques que se deben leer en una sola operación de entrada.

Arreglo de un número mágico dañado en el superbloque del sistema de archivos


Si el superbloque de un sistema de archivos se ha dañado, no se puede acceder al sistema de archivos.
Puede arreglar un número mágico dañado del superbloque del sistema de archivos.
La mayor parte de los daños del superbloque se pueden reparar. En el procedimiento siguiente se
describe el modo de reparar un superbloque en un sistema de archivos JFS cuando el problema se debe
un número mágico dañado. Si se ha dañado el superbloque primario de un sistema de archivos JFS2,
utilice el mandato fsck para copiar automáticamente el superbloque secundario y reparar el
superbloque primario.
En el caso de ejemplo siguiente, se asume que /home/myfs es un sistema de archivos JFS en el volumen
físico /dev/lv02.
La información de este procedimiento se ha probado utilizando versiones específicas de AIX. Los
resultados que obtenga pueden variar significativamente dependiendo de la versión y el nivel de AIX.
1. Desmonte el sistema de archivos /home/myfs, que sospecha que puede estar dañado; para ello,
utilice el mandato siguiente:

umount /home/myfs

2. Para confirmar que el sistema de archivos se ha dañado, ejecute el mandato fsck en el sistema de
archivos. Por ejemplo:

fsck -p /dev/lv02

Si es problema es que se ha dañado el superbloque, el mandato fsck devuelve un mensaje similar a


los siguientes:

fsck: No es un sistema de archivos AIXV5

O BIEN

No es un tipo de sistema de archivos reconocido

Gestión de dispositivos 95
3. Con autorización de root, utilice el mandato od para visualizar el superbloque para el sistema de
archivos, tal como se muestra en el ejemplo siguiente:

od -x -N 64 /dev/lv02 +0x1000

Donde el distintivo -x muestra la salida en formato hexadecimal y el distintivo -N indica al sistema que
dé formato a no más de 64 bytes de entrada a partir del parámetro de desplazamiento (+), que
especifica el punto del archivo donde se inicia la salida del archivo. Lo siguiente es una salida de
ejemplo:

0001000 1234 0234 0000 0000 0000 4000 0000 000a


0001010 0001 8000 1000 0000 2f6c 7633 0000 6c76
0001020 3300 0000 000a 0003 0100 0000 2f28 0383
0001030 0000 0001 0000 0200 0000 2000 0000 0000
0001040

En la salida anterior, observe el valor mágico dañado en 0x1000 (1234 0234). Si todos los valores
predeterminados se toman al crear el sistema de archivos, el número mágico debe ser 0x43218765.
Si se altera temporalmente alguno de los valores predeterminados, el número mágico debe ser
0x65872143.
4. Utilice el mandato od para comprobar el superbloque secundario para un número mágico correcto. A
continuación, se muestra un mandato de ejemplo y su salida:

$ od -x -N 64 /dev/lv02 +0x1f000
001f000 6587 2143 0000 0000 0000 4000 0000 000a
001f010 0001 8000 1000 0000 2f6c 7633 0000 6c76
001f020 3300 0000 000a 0003 0100 0000 2f28 0383
001f030 0000 0001 0000 0200 0000 2000 0000 0000
001f040

Observe el valor del número mágico correcto en 0x1f000.


5. Copie el superbloque secundario en el superbloque primario. A continuación, se muestra un mandato
de ejemplo y su salida:

$ dd count=1 bs=4k skip=31 seek=1 if=/dev/lv02 of=/dev/lv02


dd: 1+0 records in.
dd: 1+0 records out.

6. Utilice el mandato fsck para limpiar los archivos incoherentes debidos al uso del superbloque
secundario. Por ejemplo:

fsck /dev/lv02 2>&1 | tee /tmp/fsck.errs

Información relacionada
mandato fsck
Mandato od

Desbordamientos de disco
Se produce un desbordamiento de disco cuando demasiados archivos llenan el espacio asignado. Esto
puede estar provocado por un proceso descontrolado que crea muchos archivos no necesarios.
Puede utilizar los siguientes procedimientos para corregir el problema:
Nota: Debe tener autorización de usuario root para eliminar los procesos de los que no es propietario.

Identificación de procesos con problemas


Utilice este procedimiento para aislar procesos con problemas.
1. Para comprobar el estado del proceso e identificar los procesos que pueden estar causando el
problema, escriba:

ps -ef | pg

96 AIX Versión 7.2: Gestión de dispositivos


El mandato ps muestra el estado del proceso. El distintivo -e graba información acerca de todos los
procesos (excepto los procesos de kernel), y el distintivo -f genera un listado completo de los procesos
incluyendo el nombre de mandato y los parámetros en el momento de creación del proceso. El
mandato pg limita la salida a una sola página cada vez, por lo que la información no se desplaza
demasiado rápidamente fuera de la pantalla.
Compruebe si los procesos del sistema o del usuario utilizan cantidades excesivas de un recurso del
sistema, por ejemplo, tiempo de CPU. Los procesos del sistema como sendmail, routed, y lpd parecen
ser los procesos del sistema más propensos a descontrolarse.
2. Para comprobar los procesos del usuario que utilizan más CPU de la esperada, escriba:

ps -u

3. Anote el ID del proceso (PID) de cada proceso con problemas.

Terminación de un proceso
Puede terminar los procesos con problemas.
Utilice el procedimiento siguiente para terminar un proceso con problemas:
1. Termine el proceso que provoca el problema escribiendo:

kill -9 PID

Donde PID es el ID del proceso con problemas.


2. Elimine los archivos que el proceso ha creado, para ello escriba:

rm archivo1 archivo2 archivo3

Donde archivo1 archivo2 archivo3 representan los nombres de los archivos relacionados con el
proceso.

Reclamación de espacio de archivo sin terminar un proceso


Para reclamar los bloques asignados a un archivo activo sin terminar el proceso, redirija la salida de otro
mandato al archivo. La redirección de datos trunca el archivo y reclama los bloques de memoria.
Cuando se elimina el archivo activo del sistema de archivos, los bloques asignados al archivo permanecen
asignados hasta que se elimina la última referencia abierta, como resultado de cerrar el archivo o debido
a la terminación de los procesos que habían abierto el archivo. Si un proceso sin control está grabando en
un archivo y éste se elimina, los bloques asignados al archivo no se liberan hasta que el proceso termina.
Por ejemplo:

$ ls -l
total 1248
-rwxrwxr-x 1 web staff 1274770 Jul 20 11:19 datafile
$ date > datafile
$ ls -l
total 4
-rwxrwxr-x 1 web staff 29 Jul 20 11:20 datafile

La salida el mandato date ha sustituido el contenido anterior del archivo datafile. Los bloques de los
que se informa para el archivo truncado reflejan una diferencia de tamaño de 1248> a 4. Si el proceso sin
control continúa añadiendo información a este archivo que se acaba de truncar, el siguiente mandato ls
produce estos resultados:

$ ls -l
total 8
-rxrwxr-x 1 web staff 1278866 Jul 20 11:21 datefile

El tamaño del archivo datafile refleja la adición realizada por el proceso sin control, pero el número de
bloques asignado es pequeño. El archivo datafile contiene un agujero. Los agujeros de archivo son
regiones del archivo que no tienen asignados bloques de disco.

Gestión de dispositivos 97
Desbordamiento de / (raíz)
Compruebe lo siguiente cuando se llene el sistema de archivos raíz (/).
• Utilice el mandato siguiente para leer el contenido del archivo /etc/security/failedlogin:

who /etc/security/failedlogin

La condición de que las TTY se recreen con demasiada rapidez puede crear entradas de inicio de sesión
no satisfactorio. Para borrar el archivo después de leer o guardar la salida, ejecute el mandato siguiente:

cp /dev/null /etc/security/failedlogin

• Compruebe en el directorio /dev si hay un nombre de dispositivo escrito incorrectamente. Si un


nombre de dispositivo se escribe incorrectamente, por ejemplo, rmto en lugar de rmt0, se creará un
archivo en /dev denominado rmto. Normalmente, el mandato proseguirá hasta que todo el sistema de
archivos raíz se llene, antes de fallar. /dev forma parte del sistema de archivos raíz (/). Busque
entradas que no sean dispositivos (que no contengan un número principal o secundario). Para
comprobar esta situación, utilice el mandato siguiente:

cd /dev
ls -l | pg

En la misma ubicación que indicaría el tamaño de archivo para un archivo normal, un archivo de
dispositivo contiene dos números separados por una coma. Por ejemplo:

crw-rw-rw- 1 root system 12,0 Oct 25 10:19 rmt0

Si la ubicación de nombre de archivo o de tamaño indica un dispositivo no válido, tal como aparece en el
ejemplo siguiente, elimine el archivo asociado:

crw-rw-rw- 1 root system 9375473 Oct 25 10:19 rmto

Nota:
– No elimine los nombres de dispositivos válidos del directorio /dev. Un indicador de un dispositivo no
válido es un tamaño de archivo asociado superior a 500 bytes.
– Si la auditoría del sistema está en ejecución, el directorio /audit predeterminado puede llenarse
rápidamente y requerir atención.
• Compruebe si hay archivos muy grandes que se puedan eliminar utilizando el mandato find. Por
ejemplo, para buscar todos los archivos del directorio raíz (/) superiores a 1 MB, utilice el mandato
siguiente:

find / -xdev -size +2048 -ls |sort -r -n +6

Este mandato busca todos los archivos superiores a 1 MB y los clasifica en orden inverso colocando en
primer lugar el archivo mayor. Otros distintivos para el mandato find, por ejemplo, -newer, pueden ser
útiles. Para obtener información detallada, consulte la descripción del mandato find.
Nota: Al comprobar el directorio raíz, los números principal y secundario de los dispositivos del
directorio /dev se entremezclan con archivos reales y tamaños de archivos. Los números principal y
secundario, que están separados por una coma, se pueden pasar por alto.
Antes de eliminar archivos, utilice el mandato siguiente para asegurarse de que un proceso de usuario
no utiliza actualmente un archivo:

fuser nombrearchivo

Donde nombrearchivo es el nombre del archivo grande sospechoso. Si un archivo está abierto en el
momento de la eliminación, sólo se elimina del listado del directorio. Los bloques asignados a ese
archivo no se liberan hasta que se mata el proceso que mantiene abierto el archivo.

98 AIX Versión 7.2: Gestión de dispositivos


Resolución de desbordamientos en el sistema de archivos /var
Compruebe lo siguiente cuando ser llene el sistema de archivos /var.
• Puede utilizar el mandato find para buscar archivos grandes en el directorio /var. Por ejemplo:

find /var -xdev -size +2048 -ls| sort -r +6

Para obtener información detallada, consulte la descripción del mandato find.


• Compruebe si hay archivos obsoletos o sobrantes en /var/tmp.
• Compruebe el tamaño del archivo /var/adm/wtmp, que registra todas las sesiones de inicio de sesión,
rlogin y telnet. El registro crecerá indefinidamente a menos que esté en ejecución la contabilidad del
sistema. La contabilidad del sistema lo borra cada noche. El archivo /var/adm/wtmp se puede borrar o
editar para eliminar la información antigua y no deseada. Para borrarlo, utilice el mandato siguiente:

cp /dev/null /var/adm/wtmp

Para editar el archivo /var/adm/wtmp, primero copie el archivo temporalmente con el mandato
siguiente:

/usr/sbin/acct/fwtmp < /var/adm/wtmp >/tmp/out

Edite el archivo /tmp/out para eliminar las entradas no deseadas y sustituya el archivo original con el
mandato siguiente:

/usr/sbin/acct/fwtmp -ic < /tmp/out > /var/adm/wtmp

• Borre el registro de errores del directorio /var/adm/ras utilizando el procedimiento siguiente. El


registro de errores nunca se borra a menos que se haga manualmente.
Nota: No utilice nunca el mandato cp /dev/null para borrar el registro de errores. Cuando la longitud
del archivo errlog es cero, se inhabilitan las funciones de registro de errores del sistema operativo y
se debe reemplazar a partir de una copia de seguridad.
1. Detenga el daemon de errores utilizando el mandato siguiente:

/usr/lib/errstop

2. Elimine o mueva el archivo de registro de errores a un sistema de archivos diferente utilizando uno
de los mandatos siguientes:

rm /var/adm/ras/errlog

mv /var/adm/ras/errlog nombrearchivo

Donde nombrearchivo es el nombre el archivo errlog movido.


Nota: Los datos de error históricos se suprimen si elimina el archivo de registro de errores.
3. Reinicie el daemon de errores utilizando el mandato siguiente:

/usr/lib/errdemon

Nota: Considere la posibilidad de limitar errlog mediante la ejecución de las entradas siguientes en
cron:

0 11 * * * /usr/bin/errclear -d S,O 30
0 12 * * * /usr/bin/errclear -d H 90

• Compruebe si el archivo trcfile de este directorio es grande. Si es grande y actualmente no se está


ejecutando un rastreo, puede eliminar el archivo utilizando el mandato siguiente:

rm /var/adm/ras/trcfile

Gestión de dispositivos 99
• Si se establece un dispositivo de vuelco en hd6 (que es el valor predeterminado), puede haber varios
archivos vmcore* en el directorio /var/adm/ras. Si las fechas de los archivos son antiguas o no
desea retenerlos, puede eliminarlos con el mandato rm.
• Compruebe el directorio /var/spool, que contiene los archivos del subsistema de puesta en cola.
Borre el subsistema de puesta en cola utilizando los mandatos siguientes:

stopsrc -s qdaemon
rm /var/spool/lpd/qdir/*
rm /var/spool/lpd/stat/*
rm /var/spool/qdaemon/*
startsrc -s qdaemon

• Compruebe el directorio /var/adm/acct, que contiene registros de contabilidad. Si se ejecuta la


contabilidad, este directorio puede contener varios archivos grandes.
• Compruebe en el directorio /var/preserve las sesiones vi terminadas. Generalmente, es seguro
eliminar estos archivos. Si un usuario desea recuperar una sesión, puede utilizar el mandato vi -r
para listar todas las sesiones recuperables. Para recuperar una sesión específica, utilice vi -r
nombrearchivo.
• Modifique el archivo /var/adm/sulog, que registra el número de intentos de utilizar el mandato su y
si cada uno ha sido satisfactorio. Se trata de un archivo plano, que se puede visualizar y modificar con el
editor que prefiera. Si se elimina, se volverá a crear la próxima vez que se intente el mandato su.
Modifique /var/tmp/snmpd.log, que registra sucesos del daemon snmpd. Si se elimina el archivo, el
daemon snmpd lo volverá a crear.
Nota: El tamaño del archivo /var/tmp/snmpd.log se puede limitar de modo que no crezca
indefinidamente. Edite el archivo /etc/snmpd.conf para cambiar el número (en bytes) en la sección
adecuada para el tamaño.

Arreglo de otros sistemas de archivos y técnicas generales de búsqueda


Utilice el mandato find con el distintivo -size para localizar archivos grandes o, si el sistema de archivos
se ha desbordado recientemente, utilice el distintivo -newer para buscar archivos modificados
recientemente.
Para producir un archivo que el distintivo -newer pueda buscar, utilice el siguiente mandato touch:

touch mmddhhmm nombrearchivo

Donde mm es el mes, dd es el día, hh es la hora en formato de 24 horas, mm es el minuto y


nombrearchivo es el nombre del archivo que está creando con el mandato touch.
Tras crear el archivo con touch, puede utilizar el siguiente mandato para buscar los archivos grandes más
recientes:

find /nombre_sistemaarchivos -xdev -newer nombrearchivo_touch -ls

También puede utilizar el mandato find para localizar archivos que se han cambiado durante las últimas
24 horas, tal como se muestra en el ejemplo siguiente:

find /nombre_sistemaarchivos -xdev -mtime 0 -ls

Montaje
El montaje hace que los sistemas de archivos, los archivos, los directorios, los dispositivos y los archivos
especiales estén disponibles para utilizarlos en una ubicación determinada. Es la única manera de que un
sistema de archivos pueda estar accesible.
El mandato mount da instrucciones al sistema operativo de que conecte un sistema de archivos a un
directorio especificado.
Puede montar un archivo o directorio si tiene acceso al archivo o directorio que se está montando y
permiso de grabación para el punto de montaje. Los miembros del grupo del sistema también pueden
realizar montajes de dispositivos (en los cuales los dispositivos o los sistemas de archivos se montan en

100 AIX Versión 7.2: Gestión de dispositivos


directorios) y los montajes descritos en el archivo /etc/filesystems. Un usuario que opera con
autorización de usuario root puede montar un sistema de archivos arbitrariamente nombrando el
dispositivo y el directorio en la línea de mandatos. El archivo /etc/filesystems se utiliza para definir
que los montajes se realicen automáticamente en la inicialización del sistema. El mandato mount se
utiliza para los montajes posteriores al arranque del sistema.

Puntos de montaje
Un punto de montaje es el directorio o el archivo en el que se hacen accesibles un nuevo sistema de
archivos, un directorio o un archivo. Para montar un sistema de archivos o un directorio, el punto de
montaje debe ser un directorio; y para montar un archivo, el punto de montaje debe ser un archivo.
Normalmente, el sistema de archivos, el directorio o el archivo se montan en un punto de montaje vacío,
pero no es necesario. Si el archivo o directorio que sirve de punto de montaje contiene datos, éstos no
estarán accesibles mientras otro archivo o directorio esté montado sobre ellos. En efecto, el archivo o el
directorio montado cubre lo que había previamente en el directorio. El directorio o el archivo original
sobre el que se ha realizado el montaje se podrá acceder de nuevo cuando se deshaga el montaje.
Cuando un sistema de archivos se monta en un directorio, los permisos del directorio raíz del sistema de
archivos montado tienen prioridad sobre los permisos del punto de montaje. La única excepción es la
entrada de directorio padre .. (punto punto) en el directorio montado. Para que el sistema operativo
acceda al nuevo sistema de archivos, la información del directorio padre del punto de montaje debe estar
disponible.
Por ejemplo, si el directorio actual es /home/frank, el mandato cd .. cambia el directorio de trabajo
a /home. Si el directorio /home/frank es la raíz de un sistema de archivos montado, el sistema operativo
debe buscar la información de directorio padre en el directorio /home/frank para que el mandato
cd .. sea satisfactorio.
En los mandatos que necesitan información de directorio padre para ser satisfactorios, los usuarios
deben tener permiso de búsqueda en el directorio montado. Si el directorio montado no puede otorgar el
permiso de búsqueda los resultados pueden ser imprevisibles, especialmente porque los permisos del
directorio montado no son visibles. Un problema común es la anomalía del mandato pwd. Sin el permiso
de búsqueda en el directorio montado, el mandato pwd devuelve este mensaje:

pwd: Permiso denegado

Este problema se puede evitar estableciendo siempre los permisos del directorio montado en 111 como
mínimo.

Montaje de sistemas de archivos, directorios y archivos


Hay dos tipos de montajes, el montaje remoto y el montaje local. Los montajes remotos se realizan en un
sistema remoto en el que los datos se transmiten por una línea de telecomunicaciones. Los sistemas de
archivos remotos, por ejemplo, Network File System (NFS), necesitan que los archivos se exporten antes
de que se puedan montar. Los montajes locales se realizan en el sistema local.
Cada sistema de archivos está asociado a un dispositivo diferente (volumen lógico). Antes de que pueda
utilizar un sistema de archivos, debe conectarlo a la estructura de directorios existente (el sistema de
archivos raíz u otro sistema de archivos que ya esté conectado). El mandato mount realiza esta conexión.
El mismo sistema de archivos, directorio o archivo se puede acceder por múltiples vías de acceso. Por
ejemplo, si tiene una base de datos y varios usuarios que utilizan esta base de datos, es útil tener varios
puntos de montaje de la misma base de datos. Cada punto de montaje debe tener su propio nombre y
contraseña para el seguimiento y la separación de los trabajos. Esto se consigue montando el mismo
sistema de archivos en diferentes puntos de montaje. Por ejemplo, puede realizar el montaje desde /
home/server/database hasta el punto de montaje especificado como /home/usuario1, /home/
usuario2 y /home/usuario3:

/home/server/database /home/usuario1
/home/server/database /home/usuario2
/home/server/database /home/usuario3

Gestión de dispositivos 101


Un sistema de archivos, directorio o archivo puede estar disponible para varios usuarios mediante el uso
de enlaces simbólicos. Los enlaces simbólicos se crean con el mandato ln -s. El enlace de varios usuarios
a un archivo central asegura que todos los cambios efectuados en el archivo se reflejan cada vez que un
usuario accede al archivo.

Control de montajes automático


Se puede establecer que los montajes se produzcan automáticamente durante la inicialización del
sistema.
Hay dos tipos de montajes automáticos. El primer tipo consiste en los montajes que son necesarios para
arrancar y ejecutar el sistema. El proceso de arranque monta explícitamente estos sistemas de archivos.
Las stanzas de estos sistemas de archivos del archivo /etc/filesystems contienen mount =
automatic. El segundo tipo de montaje automático está controlado por el usuario. El script /etc/rc
monta estos sistemas de archivos cuando emite el mandato mount all. Las stanzas de los montajes
automáticos controlados por el usuario contienen mount = true en /etc/filesystems.
El archivo /etc/filesystems controla los montajes automáticos; se realizan jerárquicamente, un punto
de montaje cada vez. También pueden colocarse en un orden específico que se puede cambiar y
reorganizar. Para obtener información acerca del archivo /etc/filesystems, consulte /etc/
filesystems.
El archivo /etc/filesystems está organizado en stanzas, una para cada montaje. La stanza describe
los atributos del sistema de archivos correspondiente y cómo está montado. El sistema monta los
sistemas de archivos en el orden en que aparecen en el archivo /etc/filesystems. En el siguiente
ejemplo puede ver las stanzas del archivo /etc/filesystems:

/:
dev=/dev/hd4
vol="root"
mount=automatic
check=false
free=true
vfs=jfs
log=/dev/hd8
type-bootfs

/home:
dev=/dev/hd1
vfs=jfs
log=/dev/hd8
mount=true
check=true
vol="/home"
free=false

/usr:
/dev=/dev/hd2
vfs=jfs
log=/dev/hd8
mount=automatic
check=false
type=bootfs
vol="/usr"
free=false

Puede editar el archivo /etc/filesystems para controlar el orden en el que se producen los montajes.
Si un montaje no es satisfactorio, continúa el montaje de cualquiera de los siguientes montajes definidos
en el archivo /etc/filesystems. Por ejemplo, si el montaje del sistema de archivos /home no es
satisfactorio, continúa el montaje del sistema de archivos /usr. Los montajes pueden no ser
satisfactorios, por ejemplo, debido a errores tipográficos, dependencias o un problema del sistema.

Seguridad de montajes para estaciones de trabajo sin disco


Las estaciones de trabajo sin disco deben tener la posibilidad de crear y acceder a archivos especiales de
dispositivo en máquinas remotas para montar sus directorios /dev desde un servidor. Puesto que los
servidores no pueden distinguir los archivos especiales de dispositivo pensados para un cliente de los
que están pensados para el servidor, es posible que un usuario del servidor pueda acceder a los
dispositivos físicos del servidor utilizando los archivos especiales del dispositivo cliente.

102 AIX Versión 7.2: Gestión de dispositivos


Por ejemplo, la propiedad de una tty se establece automáticamente en el usuario que utiliza la tty. Si los
ID de usuario no son iguales en el cliente y en el servidor, un usuario no privilegiado del servidor puede
acceder a una tty que un usuario diferente del servidor utiliza.
Un usuario que es privilegiado en un cliente puede crear archivos especiales de dispositivo para que
coincidan con dispositivos físicos del servidor y que no necesiten privilegios para el acceso. Después, el
usuario puede utilizar una cuenta no privilegiada del servidor para acceder a los dispositivos que
normalmente están protegidos utilizando los nuevos archivos especiales de dispositivo.
Un problema de seguridad similar se genera por el uso de los programas setuid y setgid en el cliente y
el servidor. Los clientes sin disco deben poder crear y ejecutar los programas setuid y setgid en el
servidor para funcionar normalmente. De nuevo, el servidor no puede distinguir entre los programas
pensados para el servidor y los que están pensados para el cliente.
Además, es posible que los ID de usuario y los ID de grupo no coincidan entre el servidor y el cliente, por
lo que usuarios del servidor podrían ejecutar programas con posibilidades que no están pensadas para
ellos.
El problema existe porque los programas setuid y setgid y los archivos especiales de dispositivo sólo
deberían poderse utilizar en la máquina que los ha creado.
La solución es utilizar opciones de seguridad para el mandato mount que restrinjan la posibilidad de
utilizar esos objetos. Estas opciones también se pueden utilizar en stanzas del archivo /etc/
filesystems.
La opción nosuid del mandato mount impide la ejecución de los programas setuid y setgid que se
acceden mediante el sistema de archivos montado resultante. Esta opción se utiliza para cualquier
sistema de archivos que se monta en un sistema de principal determinado a fin de que sólo lo utilice un
sistema principal diferente (por ejemplo, cuando se exporta para clientes sin disco).
La opción nodev del mandato mount impide la apertura de dispositivos utilizando archivos especiales de
dispositivo que se acceden mediante el sistema de archivos montado resultante. Esta opción también se
utiliza para cualquier sistema de archivos que se monta a fin de que sólo lo utilice un sistema principal
diferente (por ejemplo, exportado para clientes sin disco).
En general, los usuarios de un servidor no tienen ningún acceso al directorio /export.
Exportación del directorio /export/root
El directorio /export/root se debe exportar con permisos de lectura y grabación, y el usuario root
del servidor debe tener acceso a él. Sin embargo, es aconsejable montar este directorio con las
siguientes opciones del mandato mount:

Element Descripción
o
nosuid Impide que un usuario del servidor ejecute los programas setuid del cliente.
nodev Impide que un usuario acceda a los dispositivos del servidor utilizando un archivo especial
de dispositivo del cliente.

Una alternativa a montar el directorio /export/root con estas opciones es evitar dar a los usuarios
que realizan la ejecución en el servidor algún acceso para el directorio /export/root.
Exportación del directorio /export/exec
El directorio /export/exec se exporta con permisos de sólo lectura y debe proporcionar acceso de
root. Sin embargo, es aconsejable montar este directorio con las siguientes opciones del mandato
mount:

Element Descripción
o
nosuid Impide que un usuario del servidor ejecute los programas setuid del cliente. Si exporta
el directorio /usr del servidor, no puede utilizar la opción nousid.

Gestión de dispositivos 103


Element Descripción
o
nodev Impide que un usuario acceda a los dispositivos del servidor utilizando un archivo especial
de dispositivo del cliente.

Exportación del directorio /export/share


El directorio /export/share se exporta con permisos de sólo lectura y debe proporcionar acceso de
root. Puesto que generalmente este directorio sólo contiene datos (ni ejecutables ni dispositivos), no
es necesario que utilice las opciones de seguridad de montaje.
Exportación del directorio /export/home
Hay varias maneras de montar un directorio /home del usuario:
• Puede montar el directorio /export/home/Nombresistprinccliente en el directorio /home del
cliente. En este caso, el cliente tiene permisos de lectura y grabación y el usuario root tiene acceso.
Para garantizar la seguridad del sistema monte el directorio /export/home con las siguientes
opciones para el mandato mount:

Elemen Descripción
to
nosuid Impide que un usuario del servidor ejecute los programas setuid del cliente.
nodev Impide que un usuario acceda a los dispositivos del servidor utilizando un archivo
especial de dispositivo del cliente.
• Puede montar el directorio /home en el servidor, en el directorio /home del cliente. En este caso, el
directorio /home se exporta con permisos de lectura y grabación y sin acceso de root. Para
garantizar la seguridad del sistema, monte el directorio /home en el servidor y en el cliente con las
opciones nosuid y nodev del mandato mount.
• Alternativamente, puede montar cada directorio /home/NombreUsuario del servidor en el
directorio /home/NombreUsuario del cliente para que los usuarios puedan iniciar la sesión en
máquinas diferentes y seguir accediendo a sus directorios iniciales. En este caso, los directorios /
home/NombreUsuario del servidor y los clientes se montan con las opciones nousid y nodev del
mandato mount.
Exportación del directorio /export/swap
Exporte el archivo /export/swap/Nombresistprinccliente con permisos de lectura y grabación y
acceso de root. No son necesarias medidas de seguridad. Los usuarios del servidor no tienen acceso a
los archivos /export/swap/Nombresistprinccliente.

Montajes sin disco


Aunque el sistema de archivos de una estación de trabajo sin disco se monte desde un directorio /
exports de un servidor, para la máquina sin disco, el sistema de archivos se parece al sistema de
archivos de una máquina autónoma.

A continuación, se muestra la relación entre exportaciones de servidor y puntos de montaje de estación


de trabajo sin disco:

Exportaciones de servidor Importaciones sin disco


/export/root/ /(raíz)
NombreSistemaPrincipal
/export/exec/NombreSPOT /usr
/export/home/ /home
NombreSistemaPrincipal

104 AIX Versión 7.2: Gestión de dispositivos


Exportaciones de servidor Importaciones sin disco
/export/share /usr/share
/export/dump Se utiliza por clientes sin disco como espacio de vuelco
/export/swap Se utiliza por clientes sin disco como espacio de paginación remoto

Para obtener más información acerca del directorio /export, consulte el apartado “Directorio /export”
en la página 80.
En general, los usuarios de un servidor no tienen ningún acceso al directorio /export.
Exportación del directorio /export/root
El directorio /export/root se debe exportar con permisos de lectura y grabación, y el usuario root
del servidor debe tener acceso a él. Sin embargo, es aconsejable montar este directorio con las
siguientes opciones del mandato mount:

Element Descripción
o
nosuid Impide que un usuario del servidor ejecute los programas setuid del cliente.
nodev Impide que un usuario acceda a los dispositivos del servidor utilizando un archivo especial
de dispositivo del cliente.

Una alternativa a montar el directorio /export/root con estas opciones es evitar dar a los usuarios
que realizan la ejecución en el servidor algún acceso para el directorio /export/root.
Exportación del directorio /export/exec
El directorio /export/exec se exporta con permisos de sólo lectura y debe proporcionar acceso de
root. Sin embargo, es aconsejable montar este directorio con las siguientes opciones del mandato
mount:

Element Descripción
o
nosuid Impide que un usuario del servidor ejecute los programas setuid del cliente. Si exporta
el directorio /usr del servidor, no puede utilizar la opción nousid.
nodev Impide que un usuario acceda a los dispositivos del servidor utilizando un archivo especial
de dispositivo del cliente.

Exportación del directorio /export/share


El directorio /export/share se exporta con permisos de sólo lectura y debe proporcionar acceso de
root. Puesto que generalmente este directorio sólo contiene datos (ni ejecutables ni dispositivos), no
es necesario que utilice las opciones de seguridad de montaje.
Exportación del directorio /export/home
Hay varias maneras de montar un directorio /home del usuario:
• Puede montar el directorio /export/home/Nombresistprinccliente en el directorio /home del
cliente. En este caso, el cliente tiene permisos de lectura y grabación y el usuario root tiene acceso.
Para garantizar la seguridad del sistema monte el directorio /export/home con las siguientes
opciones para el mandato mount:

Elemen Descripción
to
nosuid Impide que un usuario del servidor ejecute los programas setuid del cliente.
nodev Impide que un usuario acceda a los dispositivos del servidor utilizando un archivo
especial de dispositivo del cliente.

Gestión de dispositivos 105


• Puede montar el directorio /home en el servidor, en el directorio /home del cliente. En este caso, el
directorio /home se exporta con permisos de lectura y grabación y sin acceso de root. Para
garantizar la seguridad del sistema, monte el directorio /home en el servidor y en el cliente con las
opciones nosuid y nodev del mandato mount.
• Alternativamente, puede montar cada directorio /home/NombreUsuario del servidor en el
directorio /home/NombreUsuario del cliente para que los usuarios puedan iniciar la sesión en
máquinas diferentes y seguir accediendo a sus directorios iniciales. En este caso, los directorios /
home/NombreUsuario del servidor y los clientes se montan con las opciones nousid y nodev del
mandato mount.
Exportación del directorio /export/dump
Exporte el directorio /export/dump/Nombresistprinccliente con permisos de lectura y grabación y
acceso de root. Los usuarios del servidor no tienen acceso a los archivos /export/dump/
Nombresistprinccliente.
Exportación del directorio /export/swap
Exporte el archivo /export/swap/Nombresistprinccliente con permisos de lectura y grabación y
acceso de root. No son necesarias medidas de seguridad. Los usuarios del servidor no tienen acceso a
los archivos /export/swap/Nombresistprinccliente.

Tipos de sistemas de archivos


AIX soporta varios tipos de sistemas de archivos.
Estos incluyen los siguientes:
Sistema de archivos de diario (JFS) o sistema de archivos de diario ampliado (JFS2)
Soporta toda la semántica del sistema de archivos. Estos sistemas de archivos utilizan técnicas de
registrar por diario en base de datos para mantener la coherencia estructural. Esto impide que se
produzcan daños en el sistema de archivos cuando se interrumpe anormalmente el sistema.
Cada JFS o JFS2 reside en un volumen lógico independiente. El sistema operativo monta el sistema
de archivos durante la inicialización. Esta configuración de múltiples sistemas de archivos es útil para
las funciones de gestión del sistema como la copia de seguridad, la restauración y la reparación
porque aísla una parte del árbol de archivos para que pueda trabajar en él.
JFS es el tipo de sistema de archivos básico que soporta todo el conjunto de mandatos del sistema de
archivos.
JFS2 es el tipo de sistema de archivos básico que soporta todo el conjunto de mandatos del sistema
de archivos.
La diferencia entre JFS y JFS2 es que JFS2 está diseñado para dar soporte a archivos grandes y
sistemas de archivos grandes.
Sistema de archivos de red (NFS)
Es un sistema de archivos distribuido que permite a los usuarios acceder a archivos y directorios
ubicados en sistemas remotos y utilizar estos archivos y directorios como si fuesen locales. Por
ejemplo, los usuarios pueden utilizar mandatos del sistema operativo para crear, eliminar, leer, grabar
y establecer atributos de archivo para archivos y directorios remotos.
Sistema de archivos CD-ROM (CDRFS)
Permite acceder al contenido de un CD-ROM a través de las interfaces normales del sistema de
archivos (abrir, leer y cerrar).
Sistema de archivos DVD-ROM (UDFS)
Permite acceder al contenido de un DVD a través de las interfaces normales del sistema de archivos.

JFS y JFS2
El sistema de archivos de diario (JFS) y el sistema de archivos de diario ampliado (JFS2) están
incorporados en el sistema operativo base. Ambos tipos de sistemas de archivos enlazan los datos de

106 AIX Versión 7.2: Gestión de dispositivos


archivos y directorios con la estructura utilizada por el Gestor de volúmenes lógicos de AIX para el
almacenamiento y la recuperación.
La diferencia es que JFS2 está diseñado para acomodar un kernel de 64 bits y archivos más grandes.
Las secciones siguientes describen estos sistemas de archivo. A menos que se indique lo contrario, las
secciones siguientes se aplican tanto a JFS como a JFS2.

Funciones de JFS y JFS2


El sistema de archivos de diario ampliado (JFS2) es un sistema de archivos que proporciona la posibilidad
de almacenar archivos mucho más grandes que en el existente sistema de archivos de diario (JFS).
Puede elegir entre implementar JFS o JFS2. JFS2 es el sistema de archivos predeterminado en AIX 6.1.
Nota: A diferencia del sistema de archivos JFS, el sistema de archivos JFS2 no permitirá utilizar la API
link() en archivos de tipo directorio. Esta limitación puede hacer que algunas aplicaciones que funcionan
correctamente en el sistema de archivos JFS no lo hagan en el sistema de archivos JFS2.
La tabla siguiente proporciona un resumen de las funciones de JFS y JFS2:

Funciones JFS2 JFS


Tamaños de fragmentos y Tamaños de bloques (bytes): Tamaños de fragmento (bytes):
bloques 512, 1024, 2048, 4096 512, 1024, 2048, 4096
Tamaño máximo de sistema de Tamaño máximo de sistema de
archivos en terabytes (TB): 4, 8, archivos en gigabytes (GB): 128,
16, 32 256, 512, 1024

Tamaño máximo de sistema de 32 TB 1 TB


archivos
Tamaño mínimo de sistema de 16 MB No aplicable
archivos
Tamaño máximo de archivo 16 TB Aproximadamente 63,876 GB
Número de i-nodos Dinámico, limitado por el espacio Fijo, establecido en la creación
de disco del sistema de archivos
Organización de los directorios Árbol-b Lineal
Compresión No Sí
Cuotas Sí Sí
Registro de errores Sí Sí

Nota:
1. El tamaño máximo de archivo y de sistema de archivos está limitado a (1 TB - (tamaño partición física))
cuando se utiliza en el kernel de 32 bits. Por ejemplo, si el tamaño de partición física para el grupo de
volúmenes es 64 MB, el tamaño máximo de sistema de archivos es (1 TB - 64 MB) = (1048576 MB -
64 MB) = 1048512 MB. Esto es debido a una limitación subyacente del tamaño máximo de un
volumen lógico cuando se utiliza el kernel de 32 bits.
2. JFS2 soporta el esquema de registro de errores de AIX estándar. Para obtener más información acerca
del registro de errores de AIX, consulte el apartado Error-Logging Overview de la publicación General
Programming Concepts: Writing and Debugging Programs.

Segmentación del espacio de disco JFS y JFS2


Muchos sistemas de archivos UNIX sólo asignan espacio de disco contiguo en unidades de tamaño
iguales a los bloques lógicos utilizados para la división lógica de archivos y directorios. Normalmente,
estas unidades de asignación se denominan bloques de disco y un solo bloque de disco se utiliza
exclusivamente para almacenar datos contenidos en un solo bloque lógico de un archivo o directorio.

Gestión de dispositivos 107


La utilización de un tamaño de bloque lógico relativamente grande (4096 bytes, por ejemplo) y el
mantenimiento de asignaciones de bloque de disco de tamaño igual al bloque lógico es ventajoso para
reducir el número de operaciones de E/S de disco que una sola operación de sistema de archivos debe
realizar. Los datos de un archivo o directorio se almacenan en disco en un pequeño número de bloques de
disco grandes en lugar de almacenarlos en un gran número de bloques de disco pequeños. Por ejemplo,
se asigna un solo bloque de disco de 4096 bytes a un archivo con un tamaño de 4096 bytes o menos, si el
tamaño de bloque lógico es de 4096 bytes. Por tanto, una operación de lectura o de grabación sólo tiene
que realizar una sola operación de E/S de disco para acceder a los datos del disco. Si el tamaño de bloque
lógico es menor, requerirá más de una asignación para la misma cantidad de datos, por lo que necesitará
más de una operación de E/S de disco para acceder a los datos. Un bloque lógico grande y un tamaño de
bloque de disco igual también son ventajosos para reducir la cantidad de actividad de asignación de
espacio de disco que se realiza al añadir archivos y directorios, porque los bloques de disco grandes
contienen más datos.
Sin embargo, cuando se restringe la unidad de asignación de espacio de disco al tamaño de bloque lógico
se puede desperdiciar espacio de disco en un sistema de archivos que contiene numerosos archivos y
directorios de tamaño pequeño. Se desperdicia espacio de disco cuando se asigna el espacio de disco de
un bloque lógico a un bloque lógico parcial de un archivo o directorio. Puesto que los bloques lógicos
parciales siempre contienen menos datos que un bloque lógico, un bloque lógico parcial sólo consume
una parte del espacio de disco que tiene asignado. El resto permanece sin utilizar porque ningún otro
archivo o directorio puede grabar su contenido en un espacio de disco que ya se ha asignado. La cantidad
total de espacio de disco desperdiciado puede ser grande en sistemas de archivos que contienen un gran
número de pequeños archivos y directorios.
El sistema de archivos de diario (JFS) divide el espacio de disco en unidades de asignación denominadas
fragmentos. El sistema de archivos de diario ampliado (JFS2) segmenta el espacio de disco en bloques. El
objetivo es el mismo: almacenar datos eficientemente.
Los fragmentos de JFS son más pequeños que el tamaño de asignación de disco predeterminado de 4096
bytes. Los fragmentos minimizan el espacio de disco que se desperdicia ya que almacenan más
eficientemente los datos en bloques lógicos parciales de archivo o directorio. El comportamiento
funcional del soporte de fragmento de JFS se basa en el proporcionado por el soporte de fragmento de
Berkeley Software Distribution (BSD).
JFS2 soporta los distintos tamaños de bloques de sistema de archivos de 512, 1024, 2048 y 4096. Los
tamaños de bloque más pequeños minimizan el espacio de disco desaprovechado ya que almacenan más
eficazmente los datos en bloques lógicos parciales de un archivo o directorio. Los tamaños de bloque más
pequeños también dan como resultado una sobrecarga operativa adicional. El tamaño de bloque para un
JFS2 se especifica durante su creación. Los diferentes sistemas de archivos pueden tener diferentes
tamaños de bloque, pero sólo se puede utilizar un tamaño de bloque en un sistema de archivos.

Fragmentos de JFS
En JFS, la unidad de asignación de espacio de disco se denomina fragmento, y puede ser más pequeña
que el tamaño de bloque lógico de 4096 bytes.
Con fragmentos inferiores a 4096 bytes, los datos contenidos en un bloque lógico parcial se pueden
almacenar con más eficacia utilizando solamente el número de fragmentos necesarios para contener los
datos. Por ejemplo, se puede asignar a un bloque lógico parcial que sólo tiene 500 bytes, un fragmento de
512 bytes (suponiendo un tamaño de fragmento de 512 bytes), por lo que se reduce mucho la cantidad
de espacio de disco desaprovechado. Si aumentan los requisitos de almacenamiento de un bloque lógico
parcial, se asignan uno o varios fragmentos adicionales.
El tamaño de fragmento para un sistema de archivos se especifica durante su creación. Los tamaños de
fragmento permitidos para sistemas de archivos de diario (JFS) son 512, 1024, 2048 y 4096 bytes. Los
distintos sistemas de archivos pueden tener diferentes tamaños de fragmentos, pero sólo se puede
utilizar un tamaño de fragmento en un solo sistema de archivos. Los diferentes tamaños de fragmento
también pueden coexistir en un solo sistema (máquina) para que los usuarios puedan seleccionar el
tamaño de fragmento más adecuado para cada sistema de archivos.
El soporte de fragmento de JFS proporciona una vista del sistema de archivos como una serie de
fragmentos contiguos en lugar de una serie de bloques de disco contiguos. Sin embargo, para mantener la

108 AIX Versión 7.2: Gestión de dispositivos


eficacia de las operaciones de disco, con frecuencia se asigna espacio de disco en unidades de 4096
bytes para que los bloques de disco o las unidades de asignación mantengan el mismo tamaño que los
bloques lógicos. En este caso, una asignación de bloque de disco se visualizará como una asignación de
4096 bytes de fragmentos contiguos.
La sobrecarga operativa (búsquedas en disco, transferencias de datos y actividad de asignación
adicionales) y una mejor utilización de espacio de disco aumentan a medida que disminuye el tamaño de
fragmento para un sistema de archivos. Para mantener el equilibrio óptimo entre el aumento de
sobrecarga y el incremento de espacio de disco utilizable, se aplican los siguientes factores para dar
soporte al fragmento de JFS:
• Cuando es posible, se mantienen las asignaciones de espacio de disco de 4096 bytes de fragmentos
para un archivo o los bloques lógicos de un directorio.
• Sólo se puede asignar menos de 4096 bytes de fragmentos a los bloques lógicos parciales para
archivos o directorios con un tamaño inferior a 32KB.
A medida que el tamaño de los archivos y directorios de un sistema de archivos crece más de 32 KB, la
ventaja de mantener asignaciones de espacio de disco de menos de 4096 bytes para bloques lógicos
parciales disminuye. El ahorro de espacio de disco como porcentaje del espacio total del sistema de
archivos aumenta poco mientras que el coste adicional del rendimiento para mantener asignaciones
pequeñas de espacio de disco permanece constante. Puesto que las asignaciones de espacio de disco de
menos de 4096 bytes proporcionan la utilización más eficaz del espacio de disco cuando se utilizan con
archivos y directorios pequeños, siempre se asignan 4096 bytes de fragmentos a los bloques lógicos de
archivos y directorios iguales o mayores de 32 KB. También se asignan 4096 bytes de fragmentos a
cualquier bloque lógico parcial asociado a esta clase de archivos o directorios grandes.

Bloques de JFS2
El sistema de archivos de diario ampliado segmenta el espacio de disco en bloques. JFS2 soporta los
distintos tamaños de bloques de sistema de archivos de 512, 1024, 2048 y 4096.
Los diferentes sistemas de archivos pueden tener diferentes tamaños de bloque, pero sólo se puede
utilizar un tamaño de bloque en un sistema de archivos.
Los tamaños de bloque más pequeños minimizan el espacio de disco desaprovechado ya que almacenan
más eficazmente los datos en bloques lógicos parciales de un archivo o directorio. Los tamaños de bloque
más pequeños también pueden producir una sobrecarga operativa adicional. Además, los controladores
de dispositivo deben proporcionar direccionabilidad de bloque de disco igual o inferior al tamaño de
bloque del sistema de archivos.
Puesto que el espacio de disco se asigna en unidades más pequeñas para un sistema de archivos con un
tamaño de bloque distinto de 4096 bytes, se puede producir con más frecuencia la actividad de
asignación cuando el tamaño de los archivos o directorios se amplía repetidamente. Por ejemplo, una
operación de grabación que amplía el tamaño de un archivo de longitud cero en 512 bytes da como
resultado la asignación de un bloque al archivo, suponiendo un tamaño de bloque de 512 bytes. Si el
tamaño de archivo se amplía más por otra grabación de 512 bytes, se debe asignar un bloque adicional al
archivo. Si se aplica este ejemplo a un sistema de archivos con bloques de 4096 bytes, la asignación de
espacio de disco sólo se produce una vez, como parte de la primera operación de grabación. No se realiza
ninguna actividad adicional como parte de la segunda operación de grabación ya que la asignación inicial
del bloque de 4096 bytes es lo suficientemente grande para contener los datos añadidos por la segunda
operación de grabación.
El tamaño de bloque del sistema de archivos se especifica durante la creación del sistema de archivos
con el System Management Interface Tool (SMIT), o los mandatos crfs y mkfs. La decisión de qué
tamaño de bloque de sistema de archivos se selecciona se debe basar en el tamaño proyectado de los
archivos contenidos por el sistema de archivos.
El valor del tamaño de bloque del sistema de archivos se puede identificar con el System Management
Interface Tool (SMIT), o el mandato lsfs. Para programas de aplicación, se puede utilizar la subrutina
statfs a fin de identificar el tamaño de bloque de sistema de archivos.
Los bloques sirven como unidad básica de asignación de espacio de disco, y el estado de asignación de
cada bloque de un sistema de archivos se registra en las correlaciones de asignaciones de bloques del

Gestión de dispositivos 109


sistema de archivos. Es posible que se necesite más memoria virtual y espacio de disco del sistema de
archivos a fin de contener las correlaciones de asignaciones de bloques para los sistemas de archivos con
un tamaño de bloque inferior a 4096 bytes.

Número variable de i-nodos


La segmentación del espacio de discos en tamaños inferiores a 4096 bytes optimiza la utilización de
espacio de disco, pero aumenta el número de pequeños archivos y directorios que se pueden almacenar
dentro de un sistema de archivos.
Sin embargo, el espacio de disco es sólo uno de los recursos del sistema de archivos necesarios para
archivos y directorios: cada archivo o directorio también necesita un i-nodo de disco.

JFS e i-nodos
JFS permite especificar el número de i-nodos de disco creados en un sistema de archivos en caso de que
desee más o menos cantidad de i-nodos que el número predeterminado.
El número de i-nodos de disco en la creación del sistema de archivos se especifica en un valor
denominado número de bytes por i-nodo o NBPI. Por ejemplo, un valor de NBPI de 1024 hace que se cree
un i-nodo de disco para cada 1024 bytes del espacio de disco del sistema de archivos. Otra manera de
considerarlo es que un valor pequeño de NBPI (512 por ejemplo) da como resultado un número grande
de i-nodos, mientras que un valor grande de NBPI (por ejemplo, 16.384) da como resultado un número
pequeño de i-nodos.
Para sistemas de archivos JFS, se crea un i-nodo para cada NBPI bytes de espacio de grupo de asignación
asignado al sistema de archivos. El número total de i-nodos de un sistema de archivos limita el número
total de archivos y el tamaño total del sistema de archivos. Un grupo de asignación puede asignarse
parcialmente, aunque el número completo de i-nodos por grupo de asignación siga estando asignado. El
NBPI es inversamente proporcional al número total de i-nodos de un sistema de archivos.
El JFS restringe todos los sistemas de archivos a 16M (224) i-nodos.
El conjunto de valores de NBPI permitidos varían según el tamaño del grupo de asignación (agsize). El
valor predeterminado es 8 MB. Los valores de NBPI permitidos son 512, 1024, 2048, 4096, 8192 y
16.384 con un agsize de 8 MB. Se puede utilizar un agsize mayor. Los valores permitidos para agsize son
8, 16, 32 y 64. El rango de valores NBPI permitidos escala a medida que aumenta el agsize. Si el agsize se
dobla a 16 MB, el rango de valores NBPI también se dobla: 1024, 2048, 4096, 8193, 16384 y 32768.
El tamaño de fragmento y el valor de NBPI se especifican durante la creación del sistema de archivos con
el System Management Interface Tool (SMIT), o los mandatos crfs y mkfs. La decisión de qué tamaño
de fragmento y cuántos i-nodos se deben crear para el sistema de archivos se basa en el número y
tamaño proyectados de los archivos contenidos por el sistema de archivos.
Puede identificar el tamaño de fragmento y el valor de NBPI utilizando el System Management Interface
Tool (SMIT), o el mandato lsfs. Para programas de aplicación, utilice la subrutina statfs a fin de
identificar el tamaño de fragmento del sistema de archivos.

JFS2 e i-nodos
JFS2 asigna los i-nodos que necesita.
Si hay espacio en el sistema de archivos para i-nodos adicionales, se asignan automáticamente. Por lo
tanto, el número de i-nodos disponibles está limitado por el tamaño del propio sistema de archivos.

Limitaciones de tamaño de JFS y JFS2


El tamaño máximo para un JFS se define al crear el sistema de archivos. La decisión de qué tamaño se
debe definir para un JFS se basa en diversos problemas significativos.
El tamaño máximo recomendado para un JFS2 es de 16 TB. El tamaño mínimo del sistema de archivos
para un JFS2 es 16 MB.
Aunque los sistemas de archivos que utilizan unidades de asignación más pequeñas de 4096 bytes
requieren mucho menos espacio de disco que los que utilizan la unidad de asignación predeterminada de
4096 bytes, el uso de fragmentos inferiores puede incurrir en costes de rendimiento.

110 AIX Versión 7.2: Gestión de dispositivos


El estado de asignación de cada fragmento (JFS) o bloque (JFS2) de un sistema de archivos se registra en
las correlaciones de asignaciones del sistema de archivos. Es posible que se necesite más memoria
virtual y espacio de disco de sistema de archivos para contener las correlaciones de asignaciones para los
sistemas de archivos con un tamaño de fragmento o bloque inferior a 4096 bytes.
Puesto que el espacio de disco se asigna en unidades más pequeñas para un sistema de archivos con un
tamaño de fragmento (JFS) o bloque (JFS2) distinto de 4096 bytes, se puede producir con más frecuencia
la actividad de asignación cuando el tamaño de los archivos o directorios se amplía repetidamente. Por
ejemplo, una operación de grabación que amplía en 512 bytes el tamaño de un archivo de longitud cero
da como resultado la asignación de un fragmento o bloque de 512 bytes para el archivo, según el tipo de
sistema de archivos. Si el tamaño del archivo se amplía más por otra grabación de 512 bytes, se deberá
asignar al archivo un fragmento o bloque adicional. Si se aplica este ejemplo a un sistema de archivos con
fragmentos o bloques de 4096 bytes, la asignación de espacio de disco sólo se produce una vez, como
parte de la primera operación de grabación. No se debe realizar ninguna actividad de asignación adicional
como parte de la segunda operación de grabación, ya que la asignación inicial de 4096 bytes es lo
suficientemente grande para contener los datos añadidos por la segunda operación de grabación. La
actividad de asignación se puede minimizar si los archivos se amplían con 4096 bytes cada vez.
Un problema relativo al tamaño es el tamaño del registro del sistema de archivos.
Para JFS, en la mayoría de casos, varios sistemas de archivos utilizan un registro común configurado con
un tamaño de 4 MB. Por ejemplo, tras la instalación inicial, todos los sistemas de archivos del grupo de
volúmenes raíz utilizan el volumen lógico hd8 como registro común de JFS. El tamaño predeterminado de
partición del volumen lógico es 4 MB, y el tamaño de registro predeterminado es una partición, por lo
tanto, normalmente el grupo de volúmenes raíz contiene un registro de JFS de 4 MB. Cuando los sistemas
de archivos exceden de 2 GB o cuando la cantidad total de espacio de sistema de archivos que utiliza un
solo registro excede de 2 GB, es posible que el tamaño de registro predeterminado no sea suficiente. En
cualquier caso, los tamaños de registro crecen a medida que aumenta el tamaño del sistema de archivos.
Cuando se cambia el tamaño del volumen lógico de registro, se debe ejecutar el mandato logform para
reinicializar el registro antes de que pueda utilizarse el nuevo espacio. El registro de JFS se limita a un
tamaño máximo de 256 MB.
Hay un límite práctico para el tamaño de los sistemas de archivos combinados que un solo registro de JFS
puede soportar. Como directriz, un billón de bytes de capacidad total del sistema de archivos es la
limitación recomendada para un solo registro de JFS. Cuando se excede de esta directriz o se está a
punto de exceder, o cuando se producen errores por falta de memoria en el mandato logredo (al que
llama el mandato fsck), añada un registro de JFS adicional y comparta la carga entre dos archivos de
registro de JFS.
Para JFS2, en la mayoría de casos, varios sistemas de archivos también utilizan un registro común.
Cuando los sistemas de archivos exceden de 2 GB o cuando la cantidad total de espacio de sistema de
archivos que utiliza un solo registro excede de 2 GB, es posible que el tamaño de registro predeterminado
no sea suficiente. En cualquier caso, puede aumentar los tamaños de registro a medida que crezca el
tamaño del sistema de archivos o puede añadir un registro de JFS2 adicional y compartir la carga entre
los dos archivos de registro de JFS2.

Límites de tamaño de JFS


El tamaño máximo de JFS se define al crear el sistema de archivos. El NBPI, el tamaño de fragmento y el
tamaño de grupo de asignación son factores que contribuyen a la decisión.
La limitación de tamaño del sistema de archivos es el mínimo del siguiente:

NBPI * 224

TamañoFragmento * 228

Por ejemplo, si selecciona una proporción de NBPI de 512, el tamaño del sistema de archivos está
limitado a 8 GB (512 * 224 = 8 GB). JFS soporta valores de NBPI de 512, 1024, 2048, 4096, 8192,
16384, 32768, 65536 y 131072.

Gestión de dispositivos 111


El JFS restringe todos los sistemas de archivos a i-nodos de 16M (224).
Se crea un i-nodo para cada NBPI bytes de espacio de grupo de asignación asignado al sistema de
archivos. Un grupo de asignación puede asignarse parcialmente, aunque el número completo de i-nodos
por grupo de asignación siga asignado. El NBPI es inversamente proporcional al número total de i-nodos
de un sistema de archivos.
El JFS segrega el espacio del sistema de archivos en agrupaciones de i-nodos y bloques de discos para
los datos del usuario. Estas agrupaciones se denominan grupos de asignación. El tamaño de grupo de
asignación se puede especificar cuando se crea el sistema de archivos. Los tamaños de grupo de
asignación son 8M, 16M, 32M y 64M. El tamaño de cada grupo de asignación tiene asociado un rango de
NBPI. Los rangos se definen en la tabla siguiente:

Tamaño de grupo de
asignación en megabytes Valores de NBPI asignables

8 512, 1024, 2048, 4096, 8192, 16384

16 1024, 2048, 4096, 8192, 16384, 32768

32 2048, 4096, 8192, 16384, 32768, 65536

64 4096, 8192, 16384, 32768, 65536, 131072

El JFS soporta cuatro tamaños de fragmentos de unidades de 512, 1024, 2048 y 4096 bytes de espacio
de disco contiguo. El JFS mantiene las direcciones de fragmentos en i-nodos y bloques indirectos como
números de 28 bits. Cada fragmento se debe poder direccionar por un número de 0 a (228).

Límites de tamaño de JFS2


Las pruebas han demostrado que es más práctico mantener sistemas de archivos JFS2 inmensamente
grandes que contienen archivos muy grandes que los que contienen un gran número de archivos
pequeños. Cuando un sistema de archivos grande contiene muchos archivos pequeños, el mandato fsck
y otras tareas de mantenimiento del sistema de archivos tardan mucho en ejecutarse.
Se recomiendan las siguientes limitaciones de tamaño:
Elemento Descripción
Tamaño máximo de sistema de archivos JFS2: 32TB
Tamaño máximo de archivo JFS2: 16TB
Tamaño mínimo de sistema de archivos: 16MB

Fragmentación de espacio libre de JFS


En sistemas de archivos JFS, la utilización de fragmentos más pequeños de 4096 bytes puede provocar
una mayor fragmentación del espacio libre del disco.
Por ejemplo, considere un área del disco que está dividida en ocho fragmentos de 512 bytes cada uno.
Suponga que diferentes archivos, que necesitan 512 bytes cada uno, se han grabado en el primer, cuarto,
quinto y séptimo fragmento de esta área del disco, dejando el segundo, tercero, sexto y octavo fragmento
libres. Aunque estén libres cuatro fragmentos que representan 2048 bytes de espacio de disco, no se ha
asignado ningún bloque lógico parcial que necesita cuatro fragmentos (o 2048 bytes) para estos
fragmentos libres, ya que los fragmentos de una sola asignación deben ser contiguos.
Puesto que los fragmentos asignados para bloques lógicos de un archivo o directorio deben ser contiguos,
la fragmentación de espacio libre puede hacer que falle una operación del sistema de archivos que pida
nuevo espacio de disco aunque la cantidad total de espacio libre disponible sea lo suficientemente
grande para satisfacer la operación. Por ejemplo, una operación de grabación que amplía un archivo de
longitud cero a un bloque lógico necesita la asignación de 4096 bytes de espacio de disco contiguo. Si el
espacio libre de sistema de archivos está fragmentado y consiste en 32 fragmentos de 512 bytes no
contiguos o un total de 16 KB de espacio de disco libre, la operación de grabación fallará porque no están

112 AIX Versión 7.2: Gestión de dispositivos


disponibles ocho fragmentos contiguos (o 4096 bytes de espacio de disco contiguo) para satisfacer la
operación de grabación.
Un sistema de archivos JFS con una cantidad no gestionable de espacio libre fragmentado se puede
desfragmentar con el mandato defragfs. La ejecución del mandato defrags tiene un impacto positivo
en el rendimiento.

Archivos dispersos
Un archivo es un secuencia de bloques indexados. Los bloques se correlacionan desde el i-nodo con el
desplazamiento lógico del archivo que representan.
Se dice que un archivo que tiene uno o varios índices que no están correlacionados con un bloque de
datos se ha asignado dispersamente o es un archivo disperso. Un archivo disperso tendrá asociado un
tamaño, pero no tendrá todos los bloques de datos asignados para satisfacer los requisitos de tamaño.
Para identificar si un archivo se ha asignado dispersamente, utilice el mandato fileplace. Este mandato
indicará todos los bloques del archivo que no están asignados actualmente.
Nota: En la mayoría de circunstancias, du también se puede utilizar para determinar si el número de
bloques de datos asignados a un archivo no coinciden con los necesarios para contener un archivo de su
tamaño. Un sistema de archivos comprimido debe mostrar el mismo comportamiento para archivos que
no están asignados dispersamente.
Un archivo disperso se crea cuando una aplicación amplía un archivo buscando en una nueva ubicación
fuera de los índices asignados actualmente, pero los datos que se graban no ocupan todos los índices que
se acaban de asignar. El tamaño de archivo nuevo refleja la grabación más lejana del archivo.
Una lectura de una sección de un archivo que tiene bloques de datos no asignados da como resultado la
devolución de un almacenamiento intermedio de ceros. Una grabación en una sección de un archivo que
tiene bloques de datos no asignados hace que se asignen los bloques de datos necesarios y se graben los
datos.
Este comportamiento puede afectar a la manipulación de archivos o los mandatos de archivado. Por
ejemplo, los mandatos siguientes no conservan la asignación dispersa de un archivo:
• cp
• mv
• tar
• cpio
Nota: En el caso de mv, sólo se aplica a mover un archivo a otro sistema de archivos. Si el archivo se
mueve en el mismo sistema de archivos, permanecerá disperso.
El resultado de copiar o restaurar un archivo con los mandatos precedentes asigna cada bloque de datos,
por lo que no tiene características dispersas. Sin embargo, los siguientes mandatos de archivado
conservan las características dispersas o dispersan activamente un archivo:
• backup
• restore
• pax
Puesto que es posible sobrecomprometer los recursos de un sistema de archivos con archivos dispersos,
se debe tener cuidado en el uso y mantenimiento de los archivos de este tipo.

JFS y archivos grandes


Puede crear archivos grandes con el tipo de sistema de archivos JFS.
Todos los sistemas de archivos JFS2 soportan archivos grandes.
Los sistemas de archivos habilitados para archivos grandes se pueden crear con los mandatos crfs y
mkfs. Ambos mandatos tiene una opción (bf=true) para especificar sistemas de archivos habilitados
para archivos grandes. También puede utilizar SMIT para crear estos sistemas de archivos.

Gestión de dispositivos 113


En los sistemas de archivos habilitados para archivos grandes, los datos de archivos almacenados antes
del desplazamiento de archivo de 4 MB se asignan en bloques de 4096 bytes. Los datos de archivos
almacenados más allá del desplazamiento de archivo de 4 MB se asignan con bloques de disco grandes
de 128 KB de tamaño. Los bloques de disco grandes son realmente 32 bloques contiguos de 4096 bytes.
Por ejemplo, en un sistema de archivos regular, un archivo de 132 MB necesita 33 bloques de discos de 4
KB (33 bloques indirectos individuales cada uno con 1024 direcciones de disco de 4 KB). Un archivo de
132 M de un sistema de archivos habilitado para archivos grandes tiene 1024 bloques de disco de 4 KB y
1024 bloques de disco de 128 KB. La geometría de archivos grandes sólo necesita dos bloques indirectos
individuales para el archivo de 132 MB. Los dos tipos de archivos, grande y regular, necesitan un bloque
indirecto doble.
Los bloques de disco grande necesitan 32 bloques contiguos de 4 KB. Si graba en archivos grandes más
allá de los 4 MB, el desplazamiento de archivo fallará con ENOSPC si el sistema de archivos no contiene
32 bloques contiguos de 4 KB no utilizados.
Nota: El sistema de archivos puede tener miles de bloques libres, pero si 32 de ellos no son contiguos, la
asignación fallará.
El mandato defragfs reorganiza los bloques de disco para proporcionar áreas de bloques libres
contiguas mayores.
El JFS se necesario para inicializar todas las nuevas asignaciones de disco. El JFS inicia el procedimiento
kproc de kernel utilizado para poner a cero las asignaciones de archivo iniciales al montar el primer
sistema de archivos habilitado para archivos grandes en el sistema. El procedimiento kproc permanece
después de que el sistema de archivos habilitado para archivos grandes se haya desmontado
satisfactoriamente.

Compresión de datos de JFS


El JFS soporta sistemas de archivos fragmentados y comprimidos, que ahorran espacio de disco ya que
permiten almacenar en el disco un bloque lógico en unidades o "fragmentos" más pequeños que el
tamaño de bloque completo de 4096 bytes.
La compresión de datos no está soportada en JFS2.
En un sistema de archivos fragmentado, sólo el último bloque lógico de archivos no superior a 32KB se
almacena de esta manera, por lo que el soporte de fragmentos sólo es ventajoso para los sistemas de
archivos que contienen numerosos archivos pequeños. Sin embargo, la compresión de datos permite
almacenar todos los bloques lógicos de cualquier tamaño de archivo como uno o varios fragmentos
contiguos. Como promedio, la compresión de datos ahorra aproximadamente la mitad de espacio de
disco.
Sin embargo, el uso de la compresión de fragmentos y datos aumenta la posibilidad de fragmentación del
espacio libre del disco. Los fragmentos asignados a un bloque lógico deben ser contiguos en el disco. Un
sistema de archivos que experimenta fragmentación de espacio libre puede tener dificultades en localizar
suficientes fragmentos contiguos para una asignación de bloque lógico, incluso aunque el número total de
fragmentos libres pueda exceder de los requisitos del bloque lógico. El JFS mitiga la fragmentación de
espacio libre ya que proporciona el programa defragfs que "desfragmenta" un sistema de archivos
aumentando la cantidad de espacio libre contiguo. Este programa de utilidad se puede utilizar para
sistemas de archivos fragmentados y comprimidos. El ahorro de espacio de disco obtenido de la
compresión de fragmentos y datos puede ser importante, mientras que el problema de la fragmentación
del espacio libre se puede gestionar.
La compresión de datos en el JFS actual es compatible con versiones anteriores de este sistema
operativo. La API que se compone de todas las llamadas al sistema es igual en ambas versiones del JFS.

Implementación de la compresión de datos de JFS


La compresión de datos es un atributo de un sistema de archivos que se especifica al crear el sistema de
archivos con el mandato crfs o mkfs. Puede utilizar SMIT para especificar la compresión de datos.
Atención: El sistema de archivos raíz (/) no debe estar comprimido. La compresión del sistema de
archivos /usr no está recomendada porque installp debe poder calcular con exactitud su
tamaño para actualizaciones y nuevas instalaciones.

114 AIX Versión 7.2: Gestión de dispositivos


La compresión sólo se aplica a archivos regulares y enlaces simbólicos largos de estos sistemas de
archivos. El soporte de fragmentos continúa aplicándose a los directorios y metadatos que no están
comprimidos. Cada bloque lógico de un archivo se comprime solo, antes de grabarse en el disco. Esta
manera de compresión facilita las búsquedas y actualizaciones aleatorias, mientras que sólo se pierde
una cantidad pequeña de espacio de disco liberado en comparación a la compresión de datos en
unidades mayores.
Tras la compresión, normalmente un bloque lógico necesita menos de 4096 bytes de espacio de disco. El
bloque lógico comprimido se graba en el disco y sólo se le asigna el número de fragmentos contiguos
necesarios para su almacenamiento. Si un bloque lógico no se comprime, se graba en disco en formato
descomprimido y se le asignan 4096 bytes de fragmentos contiguos.
El mandato lsfs -q visualiza el valor actual para la compresión. También puede utilizar el SMIT para
identificar la compresión de datos.

Comportamiento implícito de la compresión de datos de JFS


Puesto que un programa que graba un archivo no espera que se produzca una condición de sin espacio
(ENOSPC) tras una grabación satisfactoria (o almacenamiento satisfactorio para archivos
correlacionados), es necesario garantizar que hay espacio disponible cuando se graban bloques lógicos
en el disco.
Esto se consigue asignando 4096 bytes a un bloque lógico cuando se modifica por primera vez para que
haya espacio de disco disponible incluso si el bloque no se comprime. Si no está disponible una
asignación de 4096 bytes, el sistema devuelve una condición de error de ENOSPC o EDQUOT aunque
pueda haber suficiente espacio de disco para acomodar el bloque lógico comprimido. El informe
prematuro de una condición de sin espacio es más probable cuando se opera cerca de los límites de
cuota de disco o con un sistema de archivos prácticamente lleno.
Los sistemas de archivos comprimidos también pueden exhibir el comportamiento siguiente:
• Puesto que 4096 bytes se asignan inicialmente a un bloque lógico, determinadas llamadas al sistema
pueden recibir un error ENOSPC o EDQUOT. Por ejemplo, un archivo antiguo se puede correlacionar
utilizando la llamada al sistema mmap, y una operación de almacenamiento en una ubicación grabada
anteriormente puede dar como resultado un error ENOSPC.
• Con la compresión de datos, un bloque de disco completo permanece asignado a un bloque modificado
hasta que se graba en disco. Si el bloque tenía una asignación confirmada previamente de menos de un
bloque completo, la cantidad de espacio de disco ocupado por el bloque es la suma de las dos, la
asignación anterior que no se libera hasta que el archivo (i-nodo) se confirma. Este es el caso para
fragmentos normales. El número de bloques lógicos de un archivo que pueden tener asignaciones
confirmadas previamente es, como mucho, uno para fragmentos normales pero pueden ser tantos
como el número de bloques en un archivo con compresión.
• Ninguno de los recursos confirmados previamente para un bloque lógico se libera hasta que el
programa de aplicación ejecuta las llamadas al sistema fsync o sync.
• La llamada al sistema stat indica el número de fragmentos asignados a un archivo. El número del que
informa se basa en los 4096 bytes que se asignan a bloques modificados pero no grabados y el tamaño
comprimido de los bloques no modificados. La llamada al sistema stat no cuenta los recursos
confirmados previamente. La llamada al sistema stat informa del número correcto de fragmentos
asignados después de una operación de confirmación de i-nodo si ninguno de los bloques modificados
se ha comprimido. De forma similar, las cuotas de disco se cargan para la asignación actual. A medida
que los bloques lógicos de un archivo se graban en el disco, el número de fragmentos asignados a ellos
disminuye si se comprimen y, por lo tanto, cambian las cuotas de disco y el resultado de stat.

Algoritmo de compresión de datos de JFS


El algoritmo de compresión es una versión de IBM® de LZ. En general, los algoritmos LZ comprimen datos
representando la segunda y posteriores ocurrencias de una serie determinada con un puntero que
identifica la ubicación de la primera ocurrencia de la serie y su longitud.
Al principio del proceso de compresión, no se ha identificado ninguna serie, por lo que como mínimo el
primer byte de datos se debe representar como un carácter "sin formato" que necesita 9 bits (0,byte).
Después de comprimir una cantidad de datos determinada, por ejemplo, N bytes, el compresor busca la

Gestión de dispositivos 115


serie más larga en los N bytes que coincide con la serie que empieza en el siguiente byte no procesado. Si
la coincidencia más larga tiene una longitud de 0 ó 1, el siguiente byte se codifica como un carácter "sin
formato". De lo contrario, la serie se representa como un par (puntero,longitud) y el número de bytes
procesado se incrementa por la longitud. Arquitectónicamente, LZ de IBM soporta valores de N de 512,
1024 ó 2048. LZ de IBM especifica la codificación de pares (puntero,longitud) y de caracteres sin
formato. El puntero es un campo de longitud fija de tamaño log2 N, mientas que la longitud se codifica
como un campo de longitud variable.

Costes de rendimiento de la compresión de datos de JFS


Puesto que la compresión de datos es una ampliación del soporte de fragmentos, el rendimiento asociado
a los fragmentos también se aplica a la compresión de datos.
Los sistemas de archivos comprimidos también afectan al rendimiento de la manera siguiente:
• Se puede necesitar bastante tiempo para comprimir y extraer los datos por lo que la posibilidad de uso
de un sistema de archivos comprimido puede estar limitado en algunos entornos de usuario.
• La mayoría de archivos regulares UNIX sólo se graban una vez, pero algunos se actualizan in situ. Para
éstos, la compresión de datos tiene el coste de rendimiento adicional de tener que asignar 4096 bytes
de espacio de disco cuando se modifica en primer lugar un bloque lógico, y volver a asignar espacio de
disco después de grabar el bloque en el disco. Esta actividad de asignación adicional no es necesaria en
los archivos regulares de un sistema de archivos no comprimido.
• La compresión de datos aumenta el número de ciclos de procesador. Para el compresor de software, el
número de ciclos para la compresión es de aproximadamente 50 ciclos por byte y para la compresión
de 10 ciclos por byte.

Copias de seguridad en línea de JFS e instantáneas de JFS2


Puede tomar una imagen de un punto en el tiempo de un sistema de archivos JFS o JFS2 que luego puede
utilizar para realizar copias de seguridad. Sin embargo, existen diferencias en los requisitos y
comportamiento de esta imagen para cada tipo de sistema de archivos.
En un sistema de archivos JFS, puede separar una copia estática de sólo lectura de un copia replicada del
sistema de archivos. Normalmente, una copia replicada se actualiza siempre que se actualiza el sistema
de archivos original, pero la copia del punto en el tiempo no cambia. Permanece como una imagen
estable del punto en el tiempo en el que se ha realizado la copia. Cuando se utiliza esta copia para copia
de seguridad, es posible que las modificaciones que empiezan después de iniciar el procedimiento para
crear la imagen no estén presentes en la copia de seguridad. Por lo tanto, se recomienda que la actividad
del sistema de archivos sea mínima mientras tiene lugar la separación. Los cambios que se producen
después de realizar la separación no estarán presentes en la copia de seguridad.
Para un sistema de archivos JFS2, la imagen en un punto en el tiempo se llama una instantánea. La
instantánea permanece estática y conserva los mismos permisos de seguridad que tenía el sistema de
archivos original (denominado SAinst) cuando se tomó la instantánea. Además, puede crear una
instantánea de JFS2 sin desmontar ni inmovilizar el sistema de archivos. Puede utilizar una instantánea
de JFS2 como una copia de seguridad en línea del sistema de archivos, para acceder a los archivos o
directorios tal como eran cuando se tomó la instantánea, o para hacer una copia de seguridad en el
soporte extraíble. Tenga en cuenta lo siguiente en relación con las instantáneas de JFS2:
• Cuando se rearranca el sistema, se sobrescribe una imagen de instantánea del sistema de archivos root
(/) o /usr. Las instantáneas de los demás sistemas de archivos pueden conservarse desmontando el
sistema de archivos antes de rearrancar. Las instantáneas creadas en AIX 5.2 con 5200-01 son
recuperables. Cuando fsck o logredo se ejecuta en un sistema de archivos JFS2 con una instantánea
creada en AIX 5.2 con 5200-01, la instantánea se conservará. Un sistema de archivos desmontado
correctamente con una instantánea creada por AIX 5.2 también será recuperable una vez que monte en
un sistema AIX 5.2 con 5200-01.
• No se recomienda ejecutar un mandato defragfs sobre un sistema de archivos con instantáneas. Cada
bloque que se mueve durante la desfragmentación también se debe copiar en la instantánea, lo que
tarda tiempo y desaprovecha espacio en el volumen lógico de la instantánea.
• Si una instantánea se queda sin espacio, se suprimirán todas las instantáneas correspondientes a ese
snappedFS. Este error graba una entrada en el registro de errores.

116 AIX Versión 7.2: Gestión de dispositivos


• Si se produce un error de grabación en una instantánea, se suprimirán todas las instantáneas
correspondientes a ese snappedFS. Este error graba una entrada en el registro de errores.
• Una instantánea que se crea o accede en un sistema AIX 5.2 con 5200-01 no se puede acceder en un
sistema AIX 5.2. Estas instantáneas se deben suprimir antes de que se pueda montar el sistema de
archivos.
• Un sistema de archivos JFS2 que tiene una instantánea en AIX 5.3 no se puede acceder en ningún
release anterior a AIX 5.2 con 5200-01. Si no se retrocede el sistema, primero se deben suprimir las
instantáneas para permitir el acceso al sistema de archivos.

Copias de seguridad en línea de JFS


Puede hacer una imagen en un punto en el tiempo de un sistema de archivos JFS que luego puede utilizar
para realizar copias de seguridad.
En un sistema de archivos JFS, puede separar una copia estática de sólo lectura de un copia replicada del
sistema de archivos. Normalmente, una copia replicada se actualiza siempre que se actualiza el sistema
de archivos original, pero la copia del punto en el tiempo no cambia. Permanece como una imagen
estable del punto en el tiempo en el que se ha realizado la copia. Cuando se utiliza esta copia para copia
de seguridad, es posible que las modificaciones que empiezan después de iniciar el procedimiento para
crear la imagen no estén presentes en la copia de seguridad. Por lo tanto, se recomienda que la actividad
del sistema de archivos sea mínima mientras tiene lugar la separación. Los cambios que se producen
después de realizar la separación no estarán presentes en la copia de seguridad.

Instantáneas de JFS2
Puede hacer una imagen en un punto en el tiempo de un sistema de archivos JFS2 que luego puede
utilizar para realizar copias de seguridad.
La imagen en un punto en el tiempo correspondiente a un sistema de archivos JFS2 se llama una
instantánea. La instantánea permanece estática y conserva los mismos permisos de seguridad que tenía
el sistema de archivos original (denominado SAinst) cuando se ha tomado la instantánea. Además, puede
crear una instantánea de JFS2 sin desmontar el sistema de archivos. Puede utilizar una instantánea de
JFS2 para:
• Acceder a los archivos o directorios existentes cuando se tomó la instantánea.
• Hacer una copia de seguridad en un soporte extraíble.
Hay dos tipos de instantáneas de JFS2: internas y externas. Se crea una instantánea externa de JFS2 en
un volumen lógico separado del sistema de archivos. La instantánea externa se puede montar por
separado desde el sistema de archivos como su único punto de montaje.
Se crea una instantánea interna de JFS2 en el mismo volumen lógico que el sistema de archivos y asigna
bloques desde el sistema de archivos. Se puede acceder a una instantánea interna desde el
directorio .snapshot invisible de la raíz del sistema de archivos JFS2 que contiene la instantánea. Un
sistema de archivos JFS2 debe estar habilitado para dar soporte a instantáneas internas en el momento
en que se crea el sistema de archivos.
Las instantáneas JFS2 no dan soporte a la comprobación de cuotas del sistema de archivos. No puede
utilizar el mandato repquota en la instantánea para determinar el estado de la cuota. La información
sobre la cuota en un punto en el tiempo se conserva si retrotrae la imagen del sistema de archivos a la
imagen de la instantánea. Tenga en cuenta las siguientes consideraciones específicas de instantáneas
externas de JFS2 y de instantáneas internas de JFS2:
• Una instantánea que se crea o accede en un sistema AIX 5.2 con 5200-01 no se puede acceder en un
sistema AIX 5.2. Estas instantáneas se deben suprimir antes de que se pueda montar el sistema de
archivos.
• Un sistema de archivos JFS2 que tiene una instantánea en AIX 5.3 no se puede acceder en ningún
release anterior a AIX 5.2 con 5200-01. Si no se retrocede el sistema, primero se deben suprimir las
instantáneas para permitir el acceso al sistema de archivos.
• No se recomienda ejecutar defragfs sobre un sistema de archivos JFS2 con instantáneas externas
porque cada bloque que se mueve durante la desfragmentación también se debe copiar en la
instantánea, lo que tarda tiempo y desaprovecha espacio en el volumen lógico de la instantánea.

Gestión de dispositivos 117


• Si una instantánea externa se queda sin espacio, o si una instantánea externa falla, todas las
instantáneas externas correspondientes a ese snappedFS se marcan como no válidas. El acceso a la
instantánea fallará. Estos errores graban una entrada en el registro de errores.
Consideraciones sobre las instantáneas internas de JFS2:
• Las instantáneas internas se conservan cuando se ejecuta el mandato logredo en un sistema de
archivos JFS2 con una instantánea interna.
• Las instantáneas internas se eliminan si el mandato fsck tiene que modificar un sistema de archivos
JFS2 para repararlo.
• Si una instantánea interna se queda sin espacio, o si una grabación en una instantánea interna falla,
todas las instantáneas internas correspondientes a ese snappedFS se marcan como no válidas. El
acceso a la instantánea interna fallará. Estos errores graban una entrada en el registro de errores.
• Las instantáneas internas no se pueden montar por separado. Puede acceder a instantáneas internas
del directorio .snapshot del raíz del sistema de archivos inmediatamente después de que se creen.
Por lo tanto, puede acceder a instantáneas internas a través de un servidor NFS in tener que exportar
otro punto de montaje para la instantánea.
• Las instantáneas internas no son compatibles con releases de AIX anteriores al AIX 6.1. Un sistema de
archivos JFS2 creado para dar soporte a instantáneas internas no se puede modificar en un release
anterior de AIX.
• También se habilita un sistema de archivos JFS2 creado para dar soporte a instantáneas internas para
dar soporte a Extended Attributes Version 2.
• No se puede utilizar un sistema de archivos JFS2 con instantáneas internas con una interfaz DMAPI
(Data Management Application Programming Interface).
• No puede utilizar el mandato defragfs sobre un sistema de archivos JFS2 con instantáneas internas.
• No se devuelve el directorio .snapshot de la llamada del sistema readdir(). Esto evita consultas no
intencionadas de las instantáneas. Cualquier llamada del sistema o mandato que dependa de la
llamada del sistema readdir() falla con el directorio .snapshot (por ejemplo, el mandato /bin/pwd y
la llamada del sistema getcwd() del directorio .snapshot no pueden encontrar el directorio padre).

Compatibilidad y migración
Los sistemas de archivos JFS son completamente compatibles en AIX 5.1 y AIX 5.2. Las versiones
anteriores soportadas del sistema operativo son compatibles con el JFS actual, aunque es posible que los
sistemas de archivos con un tamaño de fragmento, valor de NBPI o tamaño de grupo de asignación que
no son los predeterminados necesiten una atención especial si se migran a una versión anterior.
Nota: Los sistemas de archivo JFS no se admiten en discos que tengan un tamaño de sector de 4 KB. Por
lo tanto, cuando se crea un sistema de archivos o se realizan operaciones de copia de seguridad,
asegúrese de que los discos no tienen el tamaño de sector de 4 KB.
Los sistemas de archivos JFS2, a excepción de las instantáneas, son compatibles en AIX 5.1 y AIX 5.2,
pero no con versiones anteriores del sistema operativo. Los sistemas de archivos JFS2 con instantáneas
no están soportados en AIX 5.1. Asegúrese siempre de desmontar ordenadamente todos los sistemas de
archivos JFS2 antes de revertir a una versión anterior de AIX porque el mandato logredo no se ejecuta
necesariamente en un sistema de archivos creado para un release posterior.
Nota: Los sistemas de archivos JFS2 creados o convertidos a formato v2 no se pueden acceder en
releases anteriores de AIX.
La lista siguiente describe los aspectos que pueden generar problemas con los sistemas de archivos
creados bajo versiones anteriores del sistema operativo:
Imágenes del sistema de archivos JFS
Cualquier imagen del sistema de archivos JFS creada con el tamaño de fragmento predeterminado, el
valor de NBPI de 4096 bytes y el tamaño de grupo de asignación predeterminado (tamañoga) de 8, se
puede intercambiar con imágenes del sistema de archivos JFS creadas bajo AIX 4.3 y versiones
posteriores de este sistema operativo sin necesitar ninguna actividad de migración especial.

118 AIX Versión 7.2: Gestión de dispositivos


Nota: Instantáneas de JFS2: Las instantáneas de JFS2 creadas o accedidas en AIX 5L Versión 5.2
con el paquete de mantenimiento recomendado 5200-01 no son accesibles en releases anteriores.
Estas instantáneas se deben suprimir antes de que se pueda montar el sistema de archivos.
Copia de seguridad y restauración entre sistemas de archivos JFS
Las secuencias de copia de seguridad y restauración se pueden realizar entre sistemas de archivos
JFS con diferentes tamaños de bloque, sin embargo, debido al aumento de utilización del disco, las
operaciones de restauración pueden fallar por falta de bloques libres si el tamaño de bloque del
sistema de archivos de origen es inferior al tamaño de bloque del sistema de archivos de destino. Esto
tiene interés para las secuencias de copia de seguridad y restauración del sistema de archivos
completo y se puede producir incluso cuando el tamaño total del sistema de archivos de destino es
mayor que el del sistema de archivos de origen.
Mientras las secuencias de copia de seguridad y restauración se pueden realizar de sistemas de
archivos comprimidos en descomprimidos o entre sistemas de archivos comprimidos con tamaños de
fragmento diferentes, debido a la ampliación de la utilización de disco de los sistemas de archivos
comprimidos, las operaciones de restauración pueden fallar por falta de espacio de disco. Esto tiene
interés para las secuencias de copia de seguridad y restauración del sistema de archivos completo y
puede producirse incluso cuando el tamaño total del sistema de archivos de destino es mayor que el
sistema de archivos de origen.
Limitaciones de controlador de dispositivo de JFS y JFS2
Un controlador de dispositivo debe proporcionar capacidad de dirección de bloque de disco igual o
inferior al tamaño de fragmento del sistema de archivos JFS o del tamaño de bloque de JFS2. Por
ejemplo, si un sistema de archivos JFS se ha creado en un controlador de dispositivo de disco RAM
suministrado por el usuario, el controlador debe permitir bloques de 512 bytes para contener un
sistema de archivos que tenga fragmentos de 512 bytes. Si el controlador sólo permite capacidad de
dirección de nivel de página, sólo se puede utilizar un JFS con tamaño de fragmento de 4096 bytes.

Copia de un JFS en otro volumen físico


Puede copiar un sistema de archivos JFS en otro volumen físico mientras mantiene la integridad del
sistema de archivos.
En el caso de ejemplo siguiente se describe cómo copiar un sistema de archivos JFS en un volumen físico
diferente mientras se mantiene la integridad del sistema de archivos.
La información de este procedimiento se ha probado utilizando versiones específicas de AIX. Los
resultados que obtenga pueden variar significativamente dependiendo de la versión y el nivel de AIX.
Para copiar un JFS en otro volumen físico mientras se mantiene la integridad del sistema de archivos, siga
estos pasos:
1. Detenga la actividad del sistema de archivos que desea copiar. A menos que la aplicación que utiliza el
sistema de archivos esté inactiva o que el sistema de archivos se encuentre en un estado conocido, no
se podrá conocer lo que contienen los datos de la copia de seguridad.
2. Duplique el volumen lógico; para ello, escriba la vía de acceso rápida SMIT siguiente en la línea de
mandatos:

smit mklvcopy

3. Copie el sistema de archivos utilizando el mandato siguiente:

chfs -a splitcopy=/backup -a copy=2 /testfs

El parámetro splitcopy para el distintivo -a hace que el mandato subdivida una copia duplicada del
sistema de archivos y la monte como de sólo lectura en el nuevo punto de montaje. Esta acción
proporciona una copia del sistema de archivos con metadatos de diario coherente que se puede
utilizar con fines de copia de seguridad.
4. Si desea mover la copia duplicada a otro punto de montaje, utilice la vía de acceso rápida SMIT
siguiente:

smit cplv

Gestión de dispositivos 119


En este punto, se puede utilizar la copia del sistema de archivos.

Sistema de archivos CD-ROM y sistema de archivos UDF


El sistema de archivos CD-ROM (CDRFS) es una implementación del sistema de archivos local de sólo
lectura que podría almacenarse en soporte de CD-ROM, CD- RW si está protegido contra grabación y
soporte de DVD-ROM. El tamaño máximo de archivo CDRFS es de 2 GB, independientemente de los
medios utilizados. El sistema de archivos del formato de disco universal (UDF) es una implementación de
sistema de archivos local grabable que se puede almacenar como de sólo lectura en soporte de DVD-ROM
o como lectura y grabación en soporte de almacenamiento DVD-RAM.
Los CD se montan automáticamente de forma predeterminada, pero esta función se puede inhabilitar. Si
se ha inhabilitado la función, utilice el mandato cdmount para montar el sistema de archivos CDRFS.
AIX soporta los siguientes formatos de volumen y estructura de archivos CDRFS:

Tipo Descripción
El estándar de la ISO 9660:1988(E) El CDRFS soporta el nivel 3 de la ISO 9660 de
intercambio y el nivel 1 de implementación.
La especificación de High Sierra Group Precede a la ISO 9660 y proporciona
compatibilidad con anteriores CD-ROM.
El protocolo de Rock Ridge Group Especifica ampliaciones a la ISO 9660 que se
ajustan completamente al estándar de la ISO 9660
y proporcionan semánticas completas de sistema
de archivo POSIX basándose en los protocolos
System Use Sharing Protocol (SUSP) y Rock Ridge
Interchange Protocol (RRIP), habilitando el
montaje y acceso al CD-ROM como cualquier otro
sistema de archivos UNIX.
El formato de archivo CD-ROM eXtended El formato de archivo CD-ROM eXtended
Architecture (sólo en formato de sectores de Architecture (XA) especifica ampliaciones a la ISO
modalidad 2 formulario 1) 9660 que se utilizan en aplicaciones multimedia
basadas en CD-ROM, por ejemplo, Photo CD.

Para todos los formatos de volúmenes y estructuras de archivos, se aplican las restricciones siguientes:
• Sólo conjunto de volúmenes de un solo volumen
• Sólo archivos no intercalados
El CDRFS depende el controlador de dispositivo de CD-ROM subyacente para proporcionar la
transparencia del formato de sectores físicos (CD-ROM modalidad 1 y CD-ROM XA modalidad 2
formulario 1), y el formato multisesión de los discos (correlacionando el conjunto de descriptores de
volúmenes del área de reconocimiento de volúmenes de la última sesión).
Nota: El CDRFS se debe desmontar del sistema antes de poder extraer el soporte de CD-ROM.
Existe otro tipo de sistema de archivos soportado, llamado UDFS, que es un sistema de archivos de sólo
lectura almacenado en soporte de DVD-ROM. UDFS se debe desmontar del sistema antes de poder
extraer el soporte. AIX soporta el formato UDFS versiones 1.50, 2.00, y 2.01.
UDFS debe exportarse utilizando NFS en modo de sólo lectura. Escribir en un UDFS montado sobre NFS
no está soportado.
Para utilizar el mandato cdmount a fin de montar automáticamente un UDFS de lectura y grabación, edite
el archivo cdromd.conf. También puede montar manualmente un UDFS de lectura y grabación con el
mandato mount .

120 AIX Versión 7.2: Gestión de dispositivos


Directorios
Un directorio es un tipo exclusivo de archivo que sólo contiene la información necesaria para acceder a
archivos o a otros directorios. En consecuencia, un directorio ocupa menos espacio que otros tipos de
archivos.
Los sistemas de archivos se componen de grupos de directorios y de los archivos que se encuentran
dentro de los directorios. Los sistemas de archivos suelen representarse como un árbol invertido. El
directorio raíz, indicado mediante el símbolo de barra inclinada (/), define un sistema de archivos y
aparece en la parte superior de un diagrama en árbol de un sistema de archivos.
Los directorios se ramifican en sentido descendente desde el directorio raíz del diagrama en árbol y
pueden contener archivos y subdirectorios. La ramificación crea vías de acceso exclusivas en toda la
estructura de directorios para cada objeto del sistema de archivos.

Los conjuntos de archivos se almacenan en los directorios. Estos conjuntos de archivos suelen estar
relacionados entre sí; su almacenamiento en una estructura de directorios permite mantenerlos
organizados.
Un archivo es un conjunto de datos que puede leerse o en el que puede grabarse. Un archivo puede ser un
programa creado, texto escrito, datos adquiridos o un dispositivo utilizado. Los mandatos, impresoras,
terminales, correspondencia y programas de aplicación se almacenan en archivos. Esto permite a los
usuarios acceder a diversos elementos del sistema de forma uniforme y proporciona gran flexibilidad al
sistema de archivos.
Los directorios le permiten agrupar archivos y otros directorios para organizar el sistema de archivos en
una jerarquía modular, que proporciona flexibilidad y profundidad a la estructura del sistema de archivos.
Los directorios contienen entradas de directorio. Cada entrada contiene un nombre de archivo o de
subdirectorio y un número de referencia de nodo de índice (número de inodo). Para aumentar la velocidad
y mejorar la utilización del espacio del disco, los datos de un archivo se almacenan en diversas
ubicaciones de la memoria del sistema. El número de inodo contiene las direcciones que se utilizan para
localizar todos los bloques dispersos de datos que se asocian a un archivo. El número de inodo también
registra otra información sobre el archivo, incluida la hora de modificación y acceso, las modalidades de
acceso, el número de enlaces, el propietario del archivo y el tipo de archivo.
Un conjunto especial de mandatos controla los directorios. Por ejemplo, puede enlazar varios nombres
para un archivo con el mismo número de inodo creando entradas de directorio con el mandato ln.
Puesto que los directorios suelen contener información que no debe estar disponible para todos los
usuarios del sistema, puede protegerse el acceso a los directorios. Estableciendo permisos de directorios,
puede controlar quién tiene acceso al directorio además de determinar qué usuarios (si los hay) pueden
alterar la información del directorio.

Tipos de directorios
El sistema operativo, el administrador del sistema o los usuarios pueden definir los directorios.
Los directorios definidos por el sistema contienen tipos específicos de archivos del sistema, por ejemplo
mandatos. En la parte superior de la jerarquía del sistema de archivos se encuentra el directorio /(root)
definido por el sistema. El directorio /(raíz) normalmente contiene los siguientes directorios estándar
relacionados con el sistema:

Elemento Descripción
/dev Contiene archivos especiales para dispositivos de E/S.
/etc Contiene archivos para la inicialización del sistema y la gestión del sistema.
/home Contiene directorios de inicio de sesión para los usuarios del sistema.
/tmp Contiene archivos que son temporales y que se suprimen automáticamente después de
un número especificado de días.
/usr Contiene lpp, include y otros directorios del sistema.

Gestión de dispositivos 121


Elemento Descripción
/usr/bin Contiene programas ejecutables de usuario.

Algunos directorios, como el directorio de inicio de sesión o inicial ($HOME), los define y personaliza el
administrador del sistema. Cuando se inicia la sesión en el sistema operativo, el directorio de inicio de
sesión es el directorio actual.
Los directorios que crea se denominan directorios definidos por el usuario. Estos directorios le permiten
organizar y mantener los archivos.

Organización de los directorios


Los directorios contienen archivos y/o subdirectorios. Un subdirectorio es un directorio dentro de otro
directorio. El directorio que contiene el subdirectorio se denomina directorio padre.
Cada directorio tiene una entrada para el directorio padre en el que se ha creado, .. (punto punto) y una
entrada para el propio directorio, . (punto). En la mayoría de listados de directorio, dichos archivos están
ocultos.
Árbol de directorios
La estructura de sistema de archivos de directorios puede fácilmente convertirse en compleja. Intente
mantener la estructura de directorios y archivos tan simple como le sea posible. Cree los archivos y
directorios con nombres que sean fácilmente reconocibles. De este modo, podrá trabajar con los
archivos más fácilmente.
Directorio padre
Cada directorio, excepto /(root), tiene un directorio padre y puede tener directorios hijos.
Directorio inicial
Cuando inicia la sesión, el sistema le sitúa en un directorio denominado directorio inicial o directorio
de inicio de sesión. Este directorio lo configura el administrador del sistema para cada usuario. El
directorio inicial del usuario es el depósito en el que se guardan los archivos personales. Por lo
general, los directorios que el usuario crea para su propio uso serán subdirectorios del directorio
inicial del usuario. Para volver al directorio inicial en cualquier momento, escriba el mandato cd y
pulse Intro en el indicador de mandatos.
Directorio de trabajo
Siempre se trabaja desde un directorio. El directorio en el que actualmente está trabajando se
denomina directorio actual o de trabajo. El mandato pwd (directorio de trabajo actual) informa del
nombre del directorio de trabajo. Utilice el mandato cd para cambiar de un directorio de trabajo a
otro.

Convenios de denominación de directorio


El nombre de cada directorio debe ser exclusivo en el directorio en el que se almacena. Esto garantiza que
el directorio tenga un nombre de vía de acceso exclusivo en el sistema de archivos.
Los directorios siguen los mismos convenios de denominación que los archivos, tal y como se explica en
el apartado Convenios de denominación de archivos.

Abreviaturas de los directorios


Las abreviaturas constituyen un método adecuado para especificar determinados directorios.
A continuación se muestra una lista de abreviaturas:

Abreviatura Significado
. El directorio de trabajo actual.
.. El directorio que está por encima del directorio de trabajo actual (el directorio
padre del directorio actual).
~ Es el directorio inicial. (Esto no se cumple para el shell Bourne. Para obtener más
información, consulte el apartado Shell Bourne).
$HOME Es el directorio inicial. (Esto se cumple para todos los shells.)

122 AIX Versión 7.2: Gestión de dispositivos


Nombres de vías de acceso de directorios
A cada archivo y directorio se accede mediante una vía de acceso exclusiva, que se denomina nombre de
vía de acceso, en toda la estructura en árbol del sistema de archivos. El nombre de vía de acceso
especifica la ubicación de un directorio o archivo en el sistema de archivos.
Nota: Los nombres de vía de acceso no pueden exceder de 1023 caracteres de longitud.
El sistema de archivos utiliza los siguientes tipos de nombres de vías de acceso:

Elemento Descripción
nombre absoluto de vía de Rastrea la vía de acceso desde el directorio /(root). Los nombres
acceso absolutos de vía de acceso empiezan por el símbolo de barra inclinada
(/).
nombre relativo de vía de Enmarca la vía de acceso desde el directorio actual hasta su directorio
acceso padre o sus subdirectorios y archivos.

Un nombre absoluto de vía de acceso representa el nombre completo de un directorio o de un archivo


desde el directorio /(root) hasta éste. Independientemente de en qué lugar del sistema de archivos
estaba trabajando, siempre puede encontrar un directorio o archivo especificando su nombre absoluto de
vía de acceso. Los nombres absolutos de vía de acceso empiezan por una barra inclinada (/), el símbolo
que representa el directorio raíz. El nombre de vía de acceso /A/D/9 es el nombre absoluto de vía de
acceso para 9. La primera barra inclinada (/) representa el directorio /(raíz), que es el lugar de inicio
de la búsqueda. El resto del nombre de la vía de acceso dirige la búsqueda hacia A, luego hacia D y
finalmente hacia 9.
Pueden existir dos archivos denominados 9, ya que los nombres absolutos de las vías de acceso de los
archivos proporcionan a cada archivo un nombre exclusivo dentro del sistema de archivos. Los nombres
de vía de acceso /A/D/9 y /C/E/G/9 especifican dos archivos exclusivos llamados 9.
A diferencia de los nombres completos de vías de acceso, los nombres relativos de vías de acceso
especifican un directorio o archivo según el directorio de trabajo actual. Para los nombres relativos de
vías de acceso, puede utilizar la notación del doble punto (..) para subir por la jerarquía del sistema de
archivos. El doble punto (..) representa el directorio padre. Puesto que los nombres relativos de vías de
acceso especifican una vía de acceso que empieza en el directorio actual, no empiezan por una barra
inclinada (/). Los nombres relativos de vía de acceso se utilizan para especificar el nombre de un archivo
en el directorio actual o el nombre de vía de acceso de un archivo o directorio por encima o por debajo del
nivel del directorio actual en el sistema de archivos. Si D es el directorio actual, el nombre relativo de vía
de acceso para acceder a 10 es F/10. Sin embargo, el nombre absoluto de vía de acceso siempre
es /A/D/F/10. Además el nombre relativo de vía de acceso para acceder a 3 es ../../B/3.
También puede representar el nombre del directorio actual utilizando la notación de punto (.). El punto
(.) suele utilizarse cuando se ejecutan programas que leen el nombre del directorio actual.

Creación de directorios (mandato mkdir)


Utilice el mandato mkdir para crear uno o varios directorios especificados mediante el parámetro
Directory.
Cada nuevo directorio contiene del punto de entradas estándar (.) y el doble punto (..) de los directorios
y, . Puede especificar los permisos para los nuevos directorios con el distintivo -m Mode.
Cuando crea un directorio, éste se crea en el directorio de trabajo o actual, a menos que se especifique un
nombre absoluto de vía de acceso a otra ubicación del sistema de archivos.
Lo siguiente son ejemplos del modo de utilizar el mandato mkdir:
• Para crear un nuevo directorio denominado Test en el directorio de trabajo actual con permisos
predeterminados, escriba lo siguiente:

mkdir Test

Gestión de dispositivos 123


• Para crear un directorio denominado Test con permisos rwxr-xr-x en un directorio /home/demo/
sub1 creado previamente, escriba lo siguiente:

mkdir -m 755 /home/demo/sub1/Test

• Para crear un directorio denominado Test con permisos predeterminados en el directorio /home/
demo/sub2, escriba lo siguiente:

mkdir -p /home/demo/sub2/Test

El distintivo -p crea los directorios /home, /home/demo y /home/demo/sub2 si aún no existen.


Consulte el mandato mkdir en la publicación Commands Reference, Volume 3 para conocer la sintaxis
completa.

Cómo mover y renombrar directorios (mandato mvdir)


Utilice el mandato mvdir para mover o renombrar un directorio.
Lo siguiente son ejemplos del modo de utilizar el mandato mvdir:
• Para mover un directorio, escriba lo siguiente:

mvdir book manual

De este modo, se mueve el directorio book al directorio con el nombre manual, si el directorio manual
existe. De lo contrario, el directorio book se renombra como manual.
• Para mover y renombrar un directorio, escriba lo siguiente:

mvdir book3 proj4/manual

Si ya existe un directorio denominado manual, mueve book3 y su contenido a proj4/manual. En otras


palabras, book3 se convierte en un subdirectorio de proj4/manual. Si no existe el directorio manual,
renombra el directorio book3 como proj4/manual.
Consulte el mandato mvdir en la publicación Commands Reference, Volume 3 para conocer la sintaxis
completa.

Visualización del directorio actual (mandato pwd)


Utilice el mandato pwd para grabar en salida estándar el nombre de la vía de acceso completa del
directorio actual (del directorio /(root)).
Todos los directorios están separados por una barra inclinada (/). El directorio /(root) se representa
mediante la barra inclinada (/), y el último directorio denominado es el directorio actual.
Por ejemplo, para visualizar el directorio actual, escriba lo siguiente:

pwd

El nombre de la vía de acceso completa del directorio actual se muestra de un modo similar al siguiente:

/home/thomas

Cambio a otro directorio (mandato cd)


Utilice el mandato cd para moverse del directorio actual a otro directorio. Debe tener permiso de
ejecución (buscar) en el directorio especificado.
Si no especifica un parámetro Directorio, el mandato cd le traslada al directorio de inicio de sesión
($HOME en los entornos ksh y bsh, o bien, $home en el entorno csh). Si el nombre de directorio
especificado es un nombre de la vía de acceso completa, se convierte en el directorio actual. Un nombre
de la vía de acceso completa empieza por una barra inclinada (/), que indica el directorio /(root) y un
punto (.) que indica el directorio actual o un punto punto (..) que representa el directorio padre. Si el
nombre de directorio no es un nombre de la vía de acceso completa, el mandato cd lo busca con respecto
a una de las vías de acceso especificadas mediante la variable de shell $CDPATH (o la variable $cdpath

124 AIX Versión 7.2: Gestión de dispositivos


csh). Este variable tiene la misma sintaxis y semántica similar a la de la variable de shell $PATH (o la
variable $path csh).
Lo siguiente son ejemplos del modo de utilizar el mandato cd:
• Para cambiar al directorio padre, escriba lo siguiente:

cd

• Para cambiar el directorio /usr/include, escriba lo siguiente:

cd /usr/include

• Para bajar un nivel del árbol de directorio, al directorio sys, escriba lo siguiente:

cd sys

Si el directorio actual es /usr/include y contiene un subdirectorio denominado sys, /usr/


include/sys se convierte en el directorio actual.
• Para subir un nivel del árbol de directorio, escriba lo siguiente:

cd ..

El nombre de archivo especial, doble punto (..), hace referencia al directorio situado inmediatamente
encima del directorio actual, su directorio padre.
Consulte el mandato cd en la publicación Commands Reference, Volume 1 para conocer la sintaxis
completa.

Copia de directorios (mandato cp)


Utilice el mandato cp para crear una copia del contenido del archivo o directorio especificado mediante
los parámetros ArchivoOrigen o DirectorioOrigen en el archivo o directorio especificado mediante los
parámetros ArchivoDestino o DirectorioDestino.
Si el archivo especificado como ArchivoDestino existe, la copia se graba sobre el contenido original de
dicho archivo. Si va a copiar varios ArchivosOrigen, el destino debe ser un directorio.
Para situar una copia del ArchivoOrigen en un directorio, especifique una vía de acceso a un directorio
existente para el parámetro DirectorioDestino. Los archivos mantienen sus nombres respectivos cuando
se copian a un directorio a menos que se especifique un nuevo nombre de archivo la final de la vía de
acceso. El mandato cp también copia directorios completos a otros directorios si se especifican los
distintivos -r o -R.
Lo siguiente son ejemplos del modo de utilizar el mandato cp:
• Para copiar todos los archivos del directorio /home/accounts/customers/orders en el directorio /
home/accounts/customers/shipments, escriba lo siguiente:

cp /home/accounts/customers/orders/* /home/accounts/customers/shipments

De este modo, se copian los archivos, pero no los directorios, del directorio orders en el directorio
shipments.
• Para copiar un directorio, incluidos todos sus archivos y subdirectorios, en otro directorio, escriba lo
siguiente:

cp -R /home/accounts/customers /home/accounts/vendors

De este modo, se copia el directorio customers, incluidos todos los archivos, subdirectorios y los
archivos de dichos subdirectorios, en el directorio vendors.
Consulte el mandato cp en la publicación Commands Reference, Volume 1 para conocer la sintaxis
completa.

Gestión de dispositivos 125


Visualización del contenido de un directorio (mandato ls)
Utilice el mandato ls para visualizar el contenido de un directorio.
El mandato ls graba en salida estándar el contenido de cada Directorio especificado o el nombre de cada
Archivo especificado, junto con cualquier otra información que pida con los distintivos. Si no especifica un
Archivo o Directorio, el mandato ls visualiza el contenido del directorio actual.
Por omisión, el mandato ls visualiza toda la información en orden alfabético por nombre de archivo. Si el
mandato lo ejecuta un usuario con autorización de root, el mandato utiliza el distintivo -A por omisión,
que lista todas las entradas salvo las que incluyan un punto (.) y punto punto (. .). Para mostrar todas
las entradas de los archivos, incluyendo las que empiezan por un punto (.), utilice el mandato ls -a.
Puede formatear la salida de las formas que se indican a continuación:
• Listar una entrada por línea, utilizando el distintivo -l.
• Listar las entradas en varias columnas, especificando el distintivo -C o el distintivo -x. El distintivo -C es
el formato por omisión cuando la salida es para un tty.
• Listar las entradas en series separadas por comas, especificando el distintivo -m.
Para determinar el número de posiciones de caracteres en la línea de salida, el mandato ls utiliza la
variable de entorno $COLUMNS. Si esta variable no se ha establecido, el mandato lee el archivo
terminfo. Si el mandato ls no puede determinar el número de posiciones de caracteres mediante uno
de estos métodos, utiliza el valor predeterminado 80.
La información que se visualiza con los distintivos -e y -l se interpreta como se indica a continuación:
El primer carácter de cada entrada puede ser uno de los siguientes:

Ele Descripción
me
nto
d La entrada es un directorio.
b La entrada es un archivo de bloques especial.
c La entrada es un archivo especial de caracteres.
l La entrada es un enlace simbólico.
p La entrada es un archivo especial de conducto FIFO (primero en entrar, primero en salir).
s La entrada es un socket local.
- La entrada es un archivo normal.

Los nueve caracteres siguientes se dividen en tres grupos de tres caracteres cada uno. Los tres primeros
caracteres muestran el permiso del propietario del archivo o directorio. Los tres caracteres siguientes
muestran el permiso de otros usuarios en el grupo. Los tres últimos caracteres muestran el permiso de
cualquier otro usuario con acceso al archivo. Los tres caracteres de cada grupo muestran los permisos de
lectura, grabación y ejecución del archivo. El permiso de ejecución de un directorio le permite buscar un
archivo especificado en un directorio.
Los permisos se indican así:

Ele Descripción
me
nto
r Se otorga permiso de lectura
t Sólo el propietario del directorio o el propietario del archivo puede suprimir o cambiar el nombre
de un archivo dentro de ese directorio, incluso si otros usuarios tienen permiso de grabación para
el directorio.
w Se otorga permiso de grabación (edición)

126 AIX Versión 7.2: Gestión de dispositivos


Ele Descripción
me
nto
x Se otorga permiso de ejecución (búsqueda)
- No se otorga el permiso correspondiente.

La información que se visualiza con el distintivo -e es igual a la que se visualiza con el distintivo -l, a
excepción de la adición del 11º carácter, que se interpreta de la forma siguiente:

Ele Descripción
me
nto
+ Indica que un archivo tiene información de seguridad ampliada. Por ejemplo, puede que el archivo
disponga de los atributos ampliados ACL, TCB o TP en la modalidad.
- Indica que un archivo no tiene información de seguridad ampliada.

Cuando se lista el tamaño de los archivos de un directorio, el mandato ls visualiza el total del número de
bloques, incluidos los bloques indirectos.
Vea los ejemplos siguientes:
• Para listar todos los archivos del directorio actual, escriba lo siguiente:

ls -a

Esto lista todos los archivos, incluyendo


– punto (.)
– punto punto (..)
– Otros archivos cuyos nombres podrían o no empezar por un punto (.)
• Para visualizar información detallada, escriba lo siguiente:

ls -l chap1 .profile

Esto visualiza un largo listado con información detallada acerca de chap1 y de .profile.
• Para visualizar información detallada acerca de un directorio, escriba lo siguiente:

ls -d -l . manual manual/chap1

Esto visualiza un listado largo de los directorios . y manual y del archivo manual/chap1. Sin el
distintivo -d, se listarían los archivos de los directorios . y manual en lugar de mostrarse información
detallada acerca de los propios directorios.
Consulte el mandato ls en la publicación Commands Reference, Volume 3 para conocer la sintaxis
completa.

Supresión o eliminación de directorios (mandato rmdir)


Utilice el mandato rmdir para eliminar el directorio, especificado mediante el parámetro Directorio, del
sistema.
El directorio debe estar vacío (sólo puede contener . y ..) antes de eliminarlo, y el usuario debe tener
permiso de grabación en el directorio padre. Utilice el mandato ls -aDirectorio para comprobar si el
directorio está vacío.
Lo siguiente son ejemplos del modo de utilizar el mandato rmdir:

Gestión de dispositivos 127


• Para vaciar y eliminar un directorio, escriba lo siguiente:

rm mydir/* mydir/.*
rmdir mydir

De este modo, se elimina el contenido de mydir y, a continuación, se suprime el directorio vacío. El


mandato rm muestra un mensaje de error al intentar eliminar el punto (.) y doble punto (..), a
continuación, el mandato rmdir los elimina, además del directorio en sí mismo.
Nota: rm mydir/* mydir/.* primero elimina los archivos cuyos nombres no empiezan por un punto
y, a continuación, elimina aquellos cuyos nombres empiezan por un punto. El mandato ls no lista los
nombres de archivo que empiezan por un punto a menos que se utilice el distintivo -a.
• Para eliminar el directorio /tmp/jones/demo/mydir y todos los directorios por debajo suyo, escriba
lo siguiente:

cd /tmp
rmdir -p jones/demo/mydir

De este modo, el directorio jones/demo/mydir se elimina del directorio /tmp. Si un directorio no está
vacío o el usuario no dispone de permiso de grabación para el mismo al eliminarlo, el mandato termina
con los mensajes de error apropiados.
Consulte el mandato rmdir en la publicación Commands Reference, Volume 4 para conocer la sintaxis
completa.

Comparación del contenido de los directorios (mandato dircmp)


Utilice el mandato dircmp para comparar dos directorios especificados mediante los parámetros
Directorio1 y Directorio2, y grabar información sobre el contenido de los mismos en salida estándar.
En primer lugar, el mandato dircmp compara los nombres de archivo de cada directorio. Si los dos
archivos contienen el mismo nombre, el mandato dircmp compara el contenido de ambos archivos.
En la salida, el mandato dircmp lista los archivos exclusivos de cada directorio. A continuación, lista los
archivos que tienen nombres idénticos en ambos directorios, pero con contenido diferente. Si no se
especifica ningún distintivo, también lista los archivos que tienen contenido idéntico, así como nombres
idénticos en ambos directorios.
Lo siguiente son ejemplos del modo de utilizar el mandato dircmp:
• Para resumir las diferencias entre los archivos en los directorios proj.ver1 y proj.ver2, escriba lo
siguiente:

dircmp proj.ver1 proj.ver2

De este modo, se muestra un resumen de las diferencias entre los directorios proj.ver1 y
proj.ver2. El resumen lista por separado los archivos que se encuentran sólo en uno u otro directorio,
o bien, los que se encuentran en ambos. Si un archivo se encuentra en ambos directorios, el mandato
dircmp indica si las dos copias son idénticas.
• Para visualizar detalles de las diferencias entre los archivos de los directorios proj.ver1 y
proj.ver2, escriba lo siguiente:

dircmp -d -s proj.ver1 proj.ver2

El distintivo -s suprime la información sobre archivos idénticos. El distintivo -d muestra un listado diff
para cada uno de los archivos diferentes que se encuentran en ambos directorios.
Consulte el mandato dircmp en la publicación Commands Reference, Volume 2 para conocer la sintaxis
completa.

Resumen de mandatos para sistemas de archivos y directorios


A continuación se relacionan los mandatos para sistemas de archivos y directorios, mandatos para los
procedimientos de manejo de directorios y una lista de abreviaturas de directorios.

128 AIX Versión 7.2: Gestión de dispositivos


Tabla 5. Resumen de mandatos para sistemas de archivos
Elemento Descripción
df Ofrece información acerca del espacio en sistemas de archivos.

Tabla 6. Abreviaturas de los directorios


Elemento Descripción
. El directorio de trabajo actual.
.. Es el directorio que está por encima del directorio de trabajo actual (el directorio
padre).
~ Es el directorio inicial. (Esto no se cumple para el shell Bourne. Para obtener más
información, consulte el apartado Shell Bourne).
$HOME Es el directorio inicial. (Esto se cumple para todos los shells.)

Tabla 7. Resumen de mandatos para procedimientos de manejo de directorios


Elemento Descripción
cd Cambia el directorio actual.
cp Copia archivos o directorios.
dircmp Compara dos directorios y el contenido de sus archivos comunes.
ls Muestra el contenido de un directorio.
mkdir Crea uno o más nuevos directorios.
mvdir Mueve (renombra) un directorio.
pwd Muestra el nombre de vía de acceso del directorio de trabajo.
rmdir Elimina un directorio.

Gestor de carga de trabajo


El Gestor de carga de trabajo (WLM) está diseñado para proporcionar al administrador del sistema un
mayor control sobre cómo el Gestor de memoria virtual (VMM) del planificador y el subsistema de E/S de
disco asignan recursos a procesos.
Puede utilizar WLM para impedir que diferentes clases de trabajos interfieran entre si y para asignar
recursos basándose en los requisitos de grupos de usuarios diferentes.
Atención: El uso eficaz de WLM requiere un conocimiento amplio de los procesos del sistema
existentes y del rendimiento. Si el administrador del sistema configura WLM con valores extremos
o inexactos, el rendimiento disminuirá significativamente.
WLM está pensado principalmente para utilizarlo con sistemas grandes. Con frecuencia, los sistemas
grandes se utilizan para la consolidación del servidor, donde las cargas de trabajo de muchos sistemas de
servidores diferentes (por ejemplo, los sistemas de impresora, base de datos, usuario general y proceso
de transacciones) se combinan en un gran sistema individual para reducir el coste de mantenimiento del
sistema. Estas cargas de trabajo interfieren con frecuencia entre si y tienen diferentes objetivos y
acuerdos de servicio.
WLM también proporciona aislamiento entre las comunidades de usuarios con comportamientos del
sistema muy diferentes. Esto puede evitar la insuficiencia efectiva de cargas de trabajo con determinados
comportamientos (por ejemplo, trabajos de bajo uso de CPU o interactivos) debido a cargas de trabajo
con otros comportamientos (por ejemplo, trabajos por lotes o de alto uso de memoria).

Gestión de dispositivos 129


Además, WLM se vincula al subsistema de contabilidad lo que permite a los usuarios realizar la
contabilidad del uso de recursos por clase de WLM además de la contabilidad estándar por usuario o
grupo.

Conceptos de la gestión de la carga de trabajo


Con WLM, puede crear diferentes clases de servicio para trabajos, así como especificar atributos para
estas clases.
Los atributos especifican las cantidades mínima y máxima de CPU, de memoria física y de rendimiento de
E/S de disco que se deben asignar a una clase. Después, WLM asigna trabajos automáticamente a las
clases utilizando las reglas de asignación de clases proporcionadas por un administrador del sistema.
Estas reglas de asignación se basan en los valores de un conjunto de atributos para un proceso. El
administrador del sistema o un usuario con privilegios también pueden asignar manualmente los trabajos
a las clases, y esta asignación prevalece sobre la automática.

Terminología para la gestión de la carga de trabajo


En esta tabla se indican y describen los términos comunes asociados a la gestión de la carga de trabajo.

Elemento Descripción
clase Una clase es una colección de procesos y sus hebras asociadas. Una clase
tiene un solo conjunto de valores de limitación de recursos y
compartimientos objetivo. La clase se utiliza para describir las subclases y
las superclases.
superclase Una superclase es una clase que tiene subclases asociadas. Ningún
proceso puede pertenecer a una superclase sin pertenecer también a una
subclase. Una superclase tiene un conjunto de reglas de asignación de
clases que determina qué procesos se asignan a la superclase. Una
superclase también tiene un conjunto de valores de limitación de recursos
y compartimientos objetivo de recursos que determina la cantidad de
recursos que pueden utilizar los procesos que pertenecen a la superclase.
Estos recursos se dividen entre las subclases basándose en los valores de
limitación de recursos y los compartimientos objetivo de recursos de las
subclases.
subclases Una subclase es una clase asociada a una sola superclase. Cada proceso
de una subclase también es miembro de su superclase. Las subclases sólo
tienen acceso a los recursos que están disponibles para la superclase. Una
subclase tiene un conjunto de reglas de asignación de clases que
determinan qué procesos asignados a la superclase pertenecen a la
subclase. Una subclase también tiene un conjunto de valores de limitación
de recursos y compartimientos objetivo de recursos que determinan los
recursos que los procesos de una subclase pueden utilizar.
Los valores de limitación de recursos y los compartimientos objetivo de
recursos indican la cantidad de recursos disponibles para la superclase (el
objetivo para la superclase) que pueden utilizar los procesos de la
subclase.
La administración de WLM se puede realizar utilizando SMIT o la interfaz
de línea de mandatos de WLM.

mecanismo de clasificación Un mecanismo de clasificación es un conjunto de reglas de asignación de


clases que determinan qué procesos se asignan y a qué clases
(superclases o subclases dentro de superclases).
regla de asignación de Una regla de asignación de clases indica los valores de un conjunto de
clases atributos de proceso que dan lugar a la asignación de un proceso a una
clase determinada (superclase o subclase de una superclase).

130 AIX Versión 7.2: Gestión de dispositivos


Elemento Descripción
valor de atributo de proceso Un valor de atributo de proceso es el valor que tiene un proceso para un
atributo de proceso. Los atributos de proceso pueden incluir atributos
como, por ejemplo, el ID de usuario, el ID de grupo y el nombre de vía de
acceso de la aplicación.
valores de limitación de Los valores de limitación de recursos son un conjunto de valores que WLM
recursos mantiene para un conjunto de valores de utilización de recursos. Estos
límites son completamente independientes de los límites de recursos
especificados con la subrutina setrlimit.
compartimiento objetivo de Los compartimientos objetivo de recursos son los compartimientos de un
recursos recurso que están disponibles para una clase (subclase o superclase).
Estos compartimientos se utilizan con otros compartimientos de clase
(subclase o superclase) del mismo nivel y capa para determinar la
distribución deseada de los recursos entre las clases de ese nivel y capa.
valor de utilización de Un valor de utilización de recurso es la cantidad de un recurso que un
recurso proceso o conjunto de procesos utiliza actualmente en un sistema. Si se
trata de un proceso o un conjunto de procesos se determina por el ámbito
de la colección de recursos del proceso.
recopilación de ámbito de La recopilación de ámbito de recursos es el nivel en el que se recopila la
recursos utilización de recursos y el nivel en el que se aplican los valores de
limitación de recursos. Puede ser en el nivel de cada proceso de una clase,
el nivel de la suma de todos los procesos de una clase propiedad de cada
usuario o el nivel de la suma de todos los procesos de una clase. El único
ámbito soportado actualmente es el último.
propiedades de clase de Las propiedades de clase de proceso son el conjunto de propiedades que
proceso se dan a un proceso basándose en las clases (subclase y superclase) a las
que se asigna.
autorizaciones de clase Las autorizaciones de clase son un conjunto de reglas que indican los
usuarios y grupos que tienen permitido realizar operaciones en una clase
o los procesos y las hebras de una clase. Esto incluye la autorización para
asignar manualmente procesos a una clase o para crear subclases de una
superclase.
capa de clase El valor de capa de clase es la posición de la clase dentro de la jerarquía
deseada de limitación de recursos para todas las clases. Se satisfacen los
límites de recursos (incluyendo los recursos objetivo) para todas las
clases de una capa antes de proporcionar algún recurso a clases de capas
inferiores. Las capas se proporcionan a nivel de superclase y subclase. Se
proporcionan recursos a las superclases basándose en sus capas. En una
superclase, se proporcionan recursos a las subclases basándose en sus
valores de capa dentro de la superclase. Por lo tanto, la capa de
superclase es el principal elemento diferenciador en la distribución de
recursos; la capa de subclase proporciona un elemento diferenciador
menor adicional en una superclase.

Clases para la gestión de la carga de trabajo


WLM permite a los administradores del sistema definir clases y un conjunto de atributos y límites de
recursos para cada clase.
Los procesos se asignan a las clases basándose en los criterios proporcionados por el administrador del
sistema. Las autorizaciones y los límites de los recursos se aplican a nivel de clase. Este método de definir
clases de servicio y regular la utilización de recursos de cada clase de aplicación impide que aplicaciones
con patrones de uso de recursos muy diferentes interfieran entre si cuando comparten un solo servidor.
WLM da soporte a la jerarquía de clases con dos niveles:

Gestión de dispositivos 131


• Los recursos del sistema se distribuyen entre las superclases según las autorizaciones de recursos para
cada superclase. El administrador del sistema define las autorizaciones de recursos.
• A su vez, cada superclase puede tener subclases. Los recursos asignados a la superclase se distribuyen
entre las subclases según las autorizaciones de recursos que se dan a cada subclase.
• El administrador del sistema puede delegar la administración de las subclases de cada superclase a un
administrador de superclase o a un grupo de administradores de superclases.
• WLM soporta hasta 69 superclases (64 definidas por el usuario) y 64 subclases por superclase (61
definidas por el usuario).
• Según las necesidades de la organización, un administrador del sistema puede decidir utilizar sólo
superclases o utilizar superclases y subclases.
Nota: En toda la explicación de WLM, el término clase se aplica tanto a superclases como a subclases. Si
la explicación sólo se aplica a un tipo de clase específica, ésta se menciona explícitamente.

Asignación de procesos a clases para la gestión de la carga de trabajo


Los procesos se asignan a una clase, utilizando las reglas de asignación de clases proporcionadas por el
administrador del sistema. Los criterios de clasificación se basan en el valor de un conjunto de atributos
del proceso como, por ejemplo, el ID de usuario, el ID de grupo, el nombre del archivo de aplicación, el
tipo de proceso y el código de aplicación.
Se utiliza un conjunto de reglas definidas para determinar la superclase a la que está asignado un
proceso. Si esta superclase tiene subclases definidas, hay otro conjunto de reglas de esta superclase para
determinar qué proceso se asigna a cada subclase. Este proceso de asignación automática tiene en
cuenta los atributos de inheritance de la superclase y la subclase.
La asignación de clases automática se efectúa cuando un proceso llama a la subrutina exec. La
asignación de clases se vuelve a evaluar cuando un proceso utiliza una subrutina que puede modificar un
atributo de proceso utilizado para la clasificación. Son ejemplos las subrutinas setuid, setgid, setpri
y plock.
Además de esta asignación de clases automática, un usuario con la autorización adecuada puede asignar
manualmente procesos o grupos de procesos a una superclase o subclase específica.
Conceptos relacionados
Atributos de clase
Listar todos los atributos de una clase de WLM.

Control de recursos
WLM permite la gestión de recursos de dos maneras: como porcentaje de recursos disponibles o como
uso total de recursos.
Los recursos que se pueden controlar basándose en un porcentaje incluyen los siguientes:
• El uso de procesador por las hebras de tipo SCHED_OTHER de una clase. Se trata de la suma de todos
los ciclos de procesador consumidos por cada hebra de la clase. Las hebras de prioridad fija no son
ajustables. Por lo tanto, no se pueden modificar, y pueden exceder del objetivo de uso de procesador.
• La utilización de memoria física de los procesos de una clase. Se trata de la suma de todas las páginas
de memoria que pertenecen a los procesos de la clase.
• El ancho de banda de E/S de disco de la clase. Se trata del ancho de banda (en bloques de 512 bytes
por segundo) de todas las E/S iniciadas por las hebras de la clase en cada dispositivo de disco accedido
por la clase.
Los recursos que se pueden controlar basándose en el uso total se encuentran en una de dos categorías:
totales de clases o totales de procesos. La categoría de totales de clases incluye:
Número de procesos de una clase
Se trata del número de procesos que están activos en una clase a la vez.
Número de hebras de una clase
Se trata del número de hebras que están activas en una clase a la vez.

132 AIX Versión 7.2: Gestión de dispositivos


Número de inicios de sesión de una clase
Se trata del número de sesiones de inicio de sesión que están activas en una clase a la vez.
La categoría de totales de procesos incluye:
Tipo total de CPU
Se trata del total acumulado de tiempo de CPU para un solo proceso.
Total de E/S de disco
Se trata del total de bloques acumulados de E/S de disco para un solo proceso.
Tiempo total de conexión
Se trata de la cantidad total de tiempo que una sesión de inicio de sesión puede estar activa.

Autorizaciones de recursos
WLM permite a los administradores del sistema definir autorizaciones de recursos por clase,
independientemente para cada tipo de recurso.
Estas autorizaciones se pueden especificar indicando lo siguiente:
• El objetivo de uso de los distintos tipos de recursos. Este objetivo se especifica con compartimientos.
Los compartimientos se especifican como cantidades relativas de uso entre diferentes clases. Por
ejemplo, si dos clases tienen respectivamente 1 y 3 compartimientos de CPU y son las únicas clases
activas en este momento, el porcentaje objetivo que WLM utiliza para su regulación de CPU será el 25 y
el 75%, respectivamente. Los porcentajes objetivo se calculan para las clases de cada capa basándose
en el número de compartimientos activos de la capa y la cantidad de recurso disponible para la capa.
• Límites mínimo y máximo. Estos límites se especifican como porcentajes de recurso total disponible.
WLM soporta dos clases de límites máximos:
– Un límite máximo flexible indica la cantidad máxima del recurso que puede estar disponible cuando
existe contención por el recurso. Este máximo se puede exceder si no hay contención; es decir, si
nadie más necesita el recurso.
– Un límite máximo fijo indica la cantidad máxima del recurso que puede estar disponible sin tener en
cuenta si existe contención por el recurso. Sin embargo, las hebras de prioridad fija no están sujetas a
estas reglas y por lo tanto pueden exceder del límite.
• Límites totales. Los límites totales se aplican estrictamente. Si un proceso sobrepasa uno de sus límites
totales de consumo, se terminará. Si una clase se encuentra en uno de sus límites totales, fallará
cualquier operación que dé lugar a la creación de otra instancia de ese recurso.
En la mayoría de casos, los límites máximos flexibles son suficientes para garantizar que las
autorizaciones de recursos se satisfacen y aplican. La utilización de límites máximos fijos puede dar lugar
a que no se utilicen recursos del sistema ya que se aplican estrictamente, aunque no haya contención por
el recurso. Se debe tener cuidado al utilizar los límites máximos fijos ya que pueden influir mucho en el
rendimiento del sistema o la aplicación si se establecen en un valor demasiado bajo. Los límites totales
también se deben utilizar con cuidado, ya que pueden dar lugar a la terminación de procesos o a que no
funcionen tal como se espera.
En modalidad activa, WLM intenta mantener las clases activas próximas a sus objetivos. Debido a que hay
pocas restricciones sobre los valores de los distintos límites, la suma de cualquier límite de todas las
clases puede exceder mucho del 100%. En este caso, si todas las clases están activas, todas las clases no
pueden alcanzar el límite. WLM regula el consumo de procesador ajustando las prioridades de
planificación de las hebras de prioridad flexible en el sistema según el rendimiento de la clase a la que
pertenecen, en relación a sus límites y objetivo. Este enfoque garantiza un promedio de consumo de
procesador durante un periodo de tiempo determinado, en lugar del consumo de procesador durante
intervalos cortos (por ejemplo, 10 ms).
Por ejemplo, si la clase A es la única clase activa, con un mínimo de procesador del 0% y un objetivo de
procesador de 60 compartimientos, obtiene el 100% del procesador. Si se activa la clase B, con un límite
mínimo de procesador del 0% y un objetivo de procesador de 40 compartimientos, la utilización del
procesador por la clase A disminuye progresivamente hasta el 60% y la utilización del procesador por la
clase B aumenta del 0% al 40%. El sistema se estabiliza en el 60 y el 40% de utilización de procesador,
respectivamente, en segundos.

Gestión de dispositivos 133


Este ejemplo supone que no hay contención por memoria entre las clases. Bajo condiciones de trabajo
normales, los límites que se establecen para el procesador y la memoria son interdependientes. Por
ejemplo, es posible que una clase no pueda alcanzar su objetivo o incluso su asignación de procesador
mínimo si el límite máximo de su uso de memoria es demasiado bajo en comparación al conjunto de
trabajo.
Para ayudar a ajustar la definición de clase y los límites de clase para un conjunto de aplicaciones
determinado, WLM proporciona la herramienta de informe wlmstat, la cual muestra la cantidad de
recurso que cada clase utiliza actualmente. También se proporciona una herramienta de visualización
gráfica, wlmmon, para la supervisión del sistema.

Límites de memoria virtual del Gestor de carga de trabajo


Los límites de memoria virtual del Gestor de carga de trabajo (WLM) proporcionan a los administradores
un medio de impedir la degradación o anomalía del sistema debido a una excesiva paginación,
proporcionando un límite de memoria virtual en una clase o un proceso.
Cuando se excede un límite, WLM realiza una de las acciones siguientes:
• mata todos los procesos bajo la clase de WLM que ha excedido su límite
• mata sólo los procesos que han hecho que el uso de clase de WLM excediese su límite
• mata el proceso que ha excedido su límite de proceso
Los límites de memoria virtual se pueden especificar para cualquier clase definida por el usuario,
cualquier subclase predeterminada bajo una superclase definida por el usuario y la superclase
predeterminada.
Para contabilidad, WLM sólo toma en consideración lo siguiente como memoria virtual al determinar el
uso total de clase o proceso de WLM:
• almacenamiento dinámico
• datos inicializados del cargador, BSS, biblioteca compartida y segmentos cargados privadamente
• áreas UBLOCK y mmap
• páginas de espacio de usuario grandes y aseguradas
Un administrador puede especificar un límite de memoria virtual de WLM para una clase o para cada
proceso de la clase. Cuando se excede un límite de clase, WLM puede matar todos los procesos asignados
a la clase o sólo el proceso que ha provocado que se excediese el límite, según si el atributo de clase
vmenforce se establece en class o en proc, respectivamente. El comportamiento predeterminado es
matar sólo el proceso que ha hecho que se excediese el límite. Un límite de proceso se mata si el uso de
memoria virtual del proceso sobrepasa el límite.

Modalidades de funcionamiento del Gestor de carga de trabajo


WLM se puede utilizar para regular el consumo de recursos mediante porcentajes por clase, totales por
clase o totales por proceso. La regulación de todos los tipos de recursos se puede habilitar ejecutando
WLM en modalidad activa.
Opcionalmente, puede iniciar una modalidad de WLM que clasifique los procesos nuevos y existentes y
que supervise el uso de recursos de varias clases, sin intentar regular este uso. Esta modalidad se
denomina la modalidad pasiva.
La modalidad pasiva se puede utilizar al configurar WLM en un nuevo sistema para verificar la clasificación
y las reglas de asignación, y para establecer una línea base de utilización de recursos de varias clases
cuando WLM no regula el procesador y la asignación de memoria. Esto proporciona una base para que los
administradores del sistema decidan cómo se deben aplicar los compartimientos de recursos y los límites
de recursos (si son necesarios) a fin de favorecer a las aplicaciones importantes y restringir el trabajo
menos importante para satisfacer los objetivos de la empresa.
Si el tiempo de procesador es el único recurso en cuya regulación está interesado, puede elegir la
ejecución de WLM en modalidad activa para el procesador y en modalidad pasiva para el resto de
recursos. Esta modalidad se denomina modalidad de solamente cpu. Si desea regular porcentajes por
clase, pero no se puede inhabilitar ninguno de los tipos de recursos totales, la contabilidad y la regulación

134 AIX Versión 7.2: Gestión de dispositivos


de recursos totales, para totales por clase, totales por proceso o ambos. En todas las modalidades, tiene
la opción de inhabilitar la vinculación del conjunto de recursos.

Control dinámico del Gestor de carga de trabajo


Cuando WLM está activo, se puede modificar cualquier parámetro de la configuración actual en cualquier
momento, incluyendo los atributos de una clase, sus compartimientos y límites de recursos, las reglas de
asignación y la adición de nuevas clases o supresión de clases existentes.
Esto se puede hacer de varias maneras como, por ejemplo, mediante:
• La modificación de los archivos de propiedades para la configuración activa actualmente (directorio al
que apunta el enlace simbólico /etc/wlm/current) y la renovación de WLM con el mandato
wlmcntrl para que utilice los nuevos parámetros.
• La creación de otra configuración con un conjunto de parámetros diferente y la actualización de WLM
para que cargue los parámetros de la nueva configuración, a fin de que sea la configuración actual.
• La modificación de algunos de los parámetros de la configuración activa actualmente mediante la
interfaz de línea de mandatos de WLM (los mandatos mkclass, chclass y rmclass).
• La modificación de algunos de los parámetros de la configuración activa actualmente desde una
aplicación utilizando las API de WLM.
Las conmutaciones automáticas a una nueva configuración en horas específicas del día se pueden
conseguir utilizando conjuntos de configuración. Los conjuntos de configuración permiten al administrador
especificar el conjunto de configuraciones que se deben utilizar, y el rango de horas durante las cuales
estará activa cada una.

Herramientas de supervisión
Utilice estos mandatos de WLM para visualizar las estadísticas y supervisar el funcionamiento de WLM.
• El mandato wlmstat está orientado a texto y visualiza estadísticas como texto (porcentaje de
utilización de recursos por clase para todos los tipos de recursos gestionados por WLM).
• El mandato wlmmon proporciona una vista gráfica de la utilización de recursos por clase y la regulación
de WLM.
• El mandato wlmperf es una herramienta opcional disponible con Performance Toolbox y proporciona
más posibilidades como, por ejemplo, el registro y reproducción a largo plazo.

Compatibilidad con versiones anteriores del Gestor de carga de trabajo


La salida predeterminada del mandato wlmstat sólo lista las superclases y es similar a la de las
versiones anteriores.
Por ejemplo:

# wlmstat
CLASS CPU MEM DKIO
Unclassified 0 0 0
Unmanaged 0 0 0
Default 0 0 0
Shared 0 2 0
System 2 12 0
class1 0 0 0
class2 0 0 0
#

Si un administrador de WLM ha definido subclases para algunas superclases, se listan las subclases. Por
ejemplo:

# wlmstat
CLASS CPU MEM DKIO
Unclassified 0 0 0
Unmanaged 0 0 0
Default 0 0 0
Shared 0 2 0
System 3 11 7
class1 46 0 0
class1.Default 28 0 0
class1.Shared 0 0 0

Gestión de dispositivos 135


class1.sub1 18 0 0
class2 48 0 0
#

La salida es la misma cuando se utiliza el mandato ps. Para los procesos de una superclase sin subclases,
el mandato ps lista el nombre de superclase como el nombre de clase del proceso.

Contabilidad por clase


El programa de utilidad del sistema de contabilidad de AIX permite recopilar e informar del uso de varios
recursos del sistema por usuario, grupo o clase de WLM.
Cuando la contabilidad de procesos está activada, el sistema operativo registra las estadísticas acerca del
uso de recursos por los procesos en un archivo de contabilidad cuando el proceso sale. Este registro de
contabilidad incluye una clave numérica de 64 bits que representa el nombre de la clase de WLM a la que
pertenecía el proceso.
El subsistema de contabilidad utiliza la clave de 64 bits en lugar del nombre completo de clase de 34
caracteres para ahorrar espacio (de lo contrario, doblaría prácticamente el tamaño del registro de
contabilidad). Cuando el mandato de contabilidad se ejecuta para extraer los datos por proceso, la clave
se vuelve a convertir en un nombre de clase utilizando la rutina mencionada arriba. Esta conversión utiliza
los nombres de clase que se encuentran actualmente en los archivos de configuración de WLM. Por lo
tanto, si una clase se ha suprimido entre el momento en que se ha grabado el registro de contabilidad, al
terminar el proceso, y el momento en que se ha ejecutado el informe de contabilidad, no se puede
encontrar el nombre de clase correspondiente a la clave y la clase se visualiza como Desconocida.
Para mantener la precisión de los registros del uso de clases de recursos suprimidas durante un periodo
de contabilidad, haga lo siguiente:
• En lugar de suprimir la clase, mantenga el nombre de clase en el archivo de clases y elimine la clase del
archivo de reglas para que no se le pueda asignar ningún proceso. Luego puede suprimir la clase cuando
se haya generado el informe de contabilidad, al final del periodo de contabilidad.
• O bien, suprima la clase de la configuración a la que pertenece, y mantenga el nombre de clase en el
archivo de clases en una configuración "ficticia" (que nunca se activa) hasta que se hayan generado los
registros de contabilidad para el periodo.

Administración de Gestor de carga de trabajo


Gestor de carga de trabajo (WLM) ofrece a los administradores del sistema más control sobre cómo el
planificador y gestor de memoria virtual (VMM) asignan recursos a los procesos. Con WLM, puede impedir
que diferentes clases de trabajos interfieran entre si y puede asignar recursos basándose en los
requisitos de grupos de usuarios diferentes.
WLM permite crear diferentes clases de servicio para trabajos, así como especificar atributos para esas
clases. Los atributos especifican las cantidades mínima y máxima de CPU, de memoria física y de
rendimiento de E/S de disco que se deben asignar a una clase. Después, WLM asigna trabajos
automáticamente a las clases utilizando las reglas de asignación de clases proporcionadas por un
administrador del sistema. Estas reglas de asignación se basan en los valores de un conjunto de atributos
para un proceso. El administrador del sistema o un usuario con privilegios también pueden asignar
manualmente los trabajos a las clases, y prevalece sobre la asignación automática.
WLM forma parte del sistema operativo base y se instala con él, pero se trata de un servicio opcional. Se
debe configurar para ajustarse al entorno del sistema, iniciar cuando desee utilizarlo y detener cuando
desee suspender o finalizar el servicio WLM.
Esta sección contiene procedimientos para configurar WLM con clases y reglas que son adecuadas para el
sitio y sugerencias para solucionar problemas de comportamientos no esperados de consumo de
recursos.
Atención: Las tareas de esta sección suponen que está familiarizado con los conceptos de WLM. El
uso eficaz de WLM requiere un conocimiento amplio de los procesos del sistema existentes y del
rendimiento. Si el administrador del sistema configura WLM con valores extremos o inexactos, el
rendimiento disminuirá significativamente.

136 AIX Versión 7.2: Gestión de dispositivos


Inicio y cierre del Gestor de carga de trabajo
WLM es un servicio opcional que se debe iniciar y detener.
Se recomienda utilizar una de las interfaces de gestión del sistema, SMIT, para iniciar o detener WLM.
• Para iniciar o detener WLM utilizando SMIT, utilice la vía rápida smit wlmmanage.
La diferencia principal entre estas opciones es la permanencia. En SMIT, puede iniciar o detener WLM de
tres maneras:
sesión actual
Si solicita la detención de WLM con esta opción, WLM se sólo detendrá para esta sesión y se reiniciará
en el próximo rearranque. Si solicita un inicio con esta opción, WLM sólo se iniciará para esta sesión y
no se reiniciará en el próximo rearranque.
próximo rearranque
Si solicita detener WLM con esta opción, WLM permanecerá en ejecución sólo durante esta sesión y
no se reiniciará en el próximo rearranque. Si solicita un inicio con esta opción, WLM no estará
disponible para esta sesión, pero se iniciará en el próximo rearranque.
ambos
Si solicita detener WLM con esta opción, WLM se detendrá sólo para esta sesión y no se reiniciará en
el próximo rearranque. Si solicita un inicio con esta opción, WLM sólo se iniciará para esta sesión y se
reiniciará en el próximo rearranque.
También puede utilizar el mandato wlmcntrl, pero el mandato wlmcntrl sólo permite iniciar o detener
WLM para la sesión actual. Si desea utilizar la interfaz de línea de mandatos y desea que el cambio siga
siendo efectivo cuando se rearranque la máquina, debe editar el archivo /etc/inittab.
WLM se puede utilizar para regular el consumo de recursos mediante porcentajes por clase, totales por
clase o totales por proceso. La regulación para todos los tipos de recursos se puede habilitar ejecutando
WLM en modalidad activa. Opcionalmente, puede iniciar una modalidad de WLM que clasifique los
procesos nuevos y existentes y que supervise el uso de recursos de varias clases, sin intentar regular este
uso. Esta modalidad se denomina pasiva. Si el tiempo de CPU es el único recurso en cuya regulación está
interesado, puede elegir la ejecución de WLM en modalidad activa para la CPU y en modalidad pasiva para
el resto de recursos. Esta modalidad se denomina modalidad de solamente cpu.
Todos los procesos existentes en el sistema antes de iniciar WLM se clasifican según las reglas de
asignación que se acaban de cargar, y WLM los supervisa.

Propiedades del Gestor de carga de trabajo


Puede especificar las propiedades para la configuración de WLM utilizando el SMIT, la interfaz de línea de
mandatos WLM o mediante la creación de archivos ASCII planos. Las interfaces SMIT utilizan los
mandatos WLM para registrar la información en los mismos archivos ASCII planos, denominados archivos
de propiedades.
Un conjunto de archivos de propiedades de WLM define una configuración de WLM. Puede crear múltiples
conjuntos de archivos de propiedades, que definan diferentes configuraciones de la gestión de carga de
trabajo. Estas configuraciones están ubicadas en subdirectorios de /etc/wlm. Los archivos de
propiedades de WLM que describen las superclases de la configuración Config son los classes,
description, limits, shares y las rules del archivo en /etc/wlm/Config. Los archivos de propiedades que
describen las subclases de la superclase Super de esta configuración son classes, limits, shares y rules del
archivo del directorio /etc/wlm/Config/Super. Sólo el usuario root puede iniciar y detener WLM, o
conmutar de una configuración a otra.
Los archivos de propiedades se denominan de la siguiente manera:

Elemento Descripción
classes Definiciones de clase
description Texto de descripción de la configuración
groupings Agrupaciones de valores de atributo
limits Límites de clases

Gestión de dispositivos 137


Elemento Descripción
shares Compartimientos objetivo de clase
rules Reglas de asignación de clases

El mandato para someter los archivos de propiedades de WLM, wlmcntrl, y otros mandatos de WLM
permiten a los usuarios especificar un nombre de directorio alternativo para los archivos de propiedades
de WLM. Esto permite cambiar las propiedades de WLM sin modificar los archivos de propiedades de
WLM predeterminados.
Un enlace simbólico, /etc/wlm/current, apunta al directorio que contiene los archivos de
configuración actuales. Actualice este enlace con el mandato wlmcntrl cuando inicie WLM con una
configuración o un conjunto de configuraciones especificadas. Los archivos de configuración de ejemplo
suministrados con el sistema operativo se encuentran en /etc/wlm/standard.

Creación de una agrupación de valores de atributos


Puede agrupar valores de atributos y representarlos con un solo valor en el archivo rules. Estas
agrupaciones de valores de atributos se definen en el archivo groupings del directorio de configuración
de WLM.
De forma predeterminada, una configuración no tiene ningún archivo groupings. No existe ningún
mandato ni interfaz de gestión para crear uno. Para crear y utilizar agrupaciones de valores de atributos,
utilice el procedimiento siguiente:
1. Con autorización de root, vaya al directorio de configuración adecuado, tal como se muestra en el
ejemplo siguiente:

cd /etc/wlm/MyConfig

2. Utilice su editor favorito para crear y editar un archivo denominado groupings.


Por ejemplo:

vi groupings

3. Defina los atributos y los valores asociados utilizando el formato siguiente:

atributo = valor, valor, ...

Todos los valores se deben separar mediante comas. Los espacios no son significativos. Se permite
utilizar rangos y comodines. Por ejemplo:

trusted = user[0-9][0-9], admin*


nottrusted = user23, user45
shell = /bin/?sh, \
/bin/sh, \
/bin/tcsh
rootgroup=system,bin,sys,security,cron,audit

4. Guarde el archivo.
5. Para utilizar las agrupaciones de atributos en los criterios de selección para una clase, edite el archivo
rules.
El nombre de agrupación de atributos debe ir precedido por un signo de dólar ($) para incluir los
valores correspondientes o del signo de admiración (!) para excluir los valores. El signo de admiración
no se puede utilizar en los miembros del grupo (paso “3” en la página 138) y es el único modificador
que se puede utilizar delante de la agrupación de este archivo de reglas. En el ejemplo siguiente, el
asterisco (*) señala una línea de comentarios:

*clase resvd usu. grupo aplicación tipo cód.


classA - $trusted,!$nottrusted - - - -
classB - - - $shell,!/bin/zsh - -
classC - - $rootgroup - - -

6. Guarde el archivo.

138 AIX Versión 7.2: Gestión de dispositivos


En este punto, las reglas de clasificación incluyen agrupaciones de valores de atributo. Cuando se
analizan las reglas, si un elemento empieza por $, el sistema busca ese elemento en el archivo
groupings. Si un elemento no es sintácticamente válido o si el archivo groupings no existe, el sistema
visualiza un mensaje de aviso y continúa el proceso de otras reglas.

Creación de un conjunto de configuraciones basadas en el tiempo


Puede crear un conjunto de configuraciones especializadas y asignar cada configuración del conjunto a
los días y las horas en que desea que esté en vigor la configuración específica.
Estos conjuntos, denominados conjuntos de configuraciones basadas en el tiempo, son completamente
independientes pero compatibles con la configuración normal. Puede utilizar el mandato wlmcntrl -u
para conmutar entre un conjunto de configuraciones y la configuración normal, según necesite.
Al utilizar un conjunto de configuraciones, se asocian las configuraciones con nombre existentes,
normalmente con un rango de tiempo específico. Puesto que sólo se puede utilizar una configuración en
cada momento, los rangos de tiempo especificados deben ser exclusivos; no se pueden solapar ni estar
duplicados.
El daemon wlmd alerta a WLM cuando una configuración especificada sobrepasa el rango de tiempo y se
debe utilizar otra configuración. Sólo el usuario root puede gestionar estos rangos de tiempo, que se
especifican en el directorio del conjunto de configuraciones, en un archivo ASCII denominado .times.
Utilice el procedimiento siguiente para crear un conjunto de configuraciones basadas en el tiempo:
1. Con autorización de root, cree un directorio de conjunto de configuraciones y vaya a ese directorio.
Por ejemplo:

mkdir /etc/wlm/MyConfigSet
cd /etc/wlm/MyConfigSet

2. Utilice su editor favorito para crear el archivo .times del conjunto de configuraciones y especificar la
configuración y los rangos de tiempo en el formato siguiente

NombreConfiguración:
time = "N-N,HH:MM-HH:MM"

NombreConfiguración:
time = -

(ninguna especificación de valor de tiempo)


Donde N es un número que representa un día de la semana en el rango de 0 (domingo) a 6 (sábado),
HH representa la hora en el rango de 00 (medianoche) a 23 (11 de la noche)y MM representa los
minutos en el rango de 00 a 59. Puede especificar sólo el día o no especificar ningún valor. El valor de
hora de 24 es válido para la hora final del día, siempre que el valor del minuto sea 00. Si escribe un
guión (-) en lugar de un rango de horas para una configuración en particular, esa configuración se
utilizará cuando los rangos de tiempo de las demás configuraciones no estén en vigor. Sólo se puede
especificar una configuración sin un rango de tiempo.
Por ejemplo:

conf1:
time =
conf2:
time = "1-5,8:00-17:00"
conf2
time = "6-0,14:00-17:00"
conf3
time = "22:00-6:00"

3. Utilice el mandato wlmcntrl -u para actualizar WLM con el nuevo conjunto de configuraciones.
Por ejemplo:

wlmcntrl -u /etc/wlm/MyConfigSet

Gestión de dispositivos 139


En este punto, la configuración actual de WLM es el nuevo conjunto de configuraciones basadas en el
tiempo.
También puede utilizar los mandatos confsetcntrl y lswlmconf para crear y manipular conjuntos de
configuraciones. Por ejemplo:
Para crear el conjunto de configuraciones confset1 con una configuración predeterminada de conf1,
utilice el mandato siguiente:

confsetcntrl -C confset1 conf1

Para añadir conf2 a confset1 y que sea la configuración activa de 8:00 de la mañana a 5:00 de la tarde
de cada día, utilice el mandato siguiente:

confsetcntrl -d confset1 -a conf2 "0-6,08:00-17:00"

Para que este conjunto de configuraciones sea la configuración activa, utilice el mandato siguiente:

wlmcntrl -d confset1

Creación de un conjunto de recursos


La utilización de conjuntos de recursos (rsets) es una manera efectiva de aislar cargas de trabajo entre si,
en cuanto a lo que se refiere a la CPU. Mediante la separación de dos cargas de trabajo diferentes en dos
clases y otorgando a cada clase un subconjunto diferente de CPU, puede asegurarse de que las dos
cargas de trabajo no vayan a competir nunca entre si por recursos de CPU, aunque sigan compitiendo por
memoria física y ancho de banda de E/S.
La manera más sencilla de crear un conjunto de recursos es utilizar la interfaz SMIT (vía rápida smit
addrsetcntl) o el mandato mkrset.
En cuanto a las instrucciones, el ejemplo siguiente ilustra los pasos para crear y poner nombre a un
conjunto de recursos en un sistema de 4 vías. Su objetivo es crear un conjunto de recursos que contenga
los procesadores 0 a 2, y utilizarlo en la configuración de WLM para restringir todos los procesos de una
superclase a estos tres procesadores.
1. Con autorización de root, consulte los bloques estructurales (a partir de los cuales se crean los
conjuntos de recursos) disponibles utilizando el mandato siguiente:

lsrset -av

La salida de este ejemplo es la siguiente:

T Nombre Propiet.Grupo Modo CPU Memoria Recursos


r sys/sys0 root system r----- 4 98298 sys/sys0
r sys/node.00000 root system r----- 4 98298 sys/sys0
r sys/mem.00000 root system r----- 0 98298 sys/mem.00000
r sys/cpu.00003 root system r----- 1 0 sys/cpu.00003
r sys/cpu.00002 root system r----- 1 0 sys/cpu.00002
r sys/cpu.00001 root system r----- 1 0 sys/cpu.00001
r sys/cpu.00000 root system r----- 1 0 sys/cpu.00000

En la salida, sys/sys0 representa todo el sistema (en este caso, un SMP de 4 vías). Cuando una clase
de WLM no especifica un atributo rset, es el conjunto predeterminado al que pueden acceder
potencialmente sus procesos.
2. Cree y ponga nombre al conjunto de recursos utilizando la vía rápida de SMIT:

smit addrsetcntl

En este ejemplo, rellene los campos de la manera siguiente:


Espacio de nombre
admin
Nombre de conjunto de recursos
proc0_2

140 AIX Versión 7.2: Gestión de dispositivos


Recursos
Seleccione en la lista las líneas que corresponden a la memoria y las CPU 0 a 2 (sys/cpu.00000 a
sys.cpu.00002).
Todos los demás campos
Seleccione en las listas.
Cuando finaliza la especificación de los campos y sale de SMIT, se crea el rset admin/proc0_2
en /etc/rsets.
3. Para utilizar el nuevo rset, añádalo a las estructuras de datos de kernel utilizando la vía rápida de SMIT
siguiente:

smit reloadrsetcntl

Este menú ofrece la opción de volver a cargar la base de datos ahora, en el próximo arranque o
ambos. Puesto que es la primera vez que utiliza el nuevo conjunto de datos, seleccione ambos para
que este rset se cargue ahora y después de cada rearranque. (Si había cambiado un rset existente,
probablemente seleccionaría ahora.)
4. Añada el nuevo rset a una clase de WLM utilizando la siguiente vía rápida de SMIT

smit wlmclass_gal

Seleccione la clase (en este ejemplo, super1) después seleccione admin/proc0_2 en la lista
disponible para el campo Conjunto de recursos. Tras realizar la selección y salir de SMIT, se cambia el
archivo classes del disco.
5. Realice una de las acciones siguientes:
• Si WLM está en ejecución, actualice la configuración utilizando la vía rápida de SMIT siguiente:

smit wlmupdate

• Si WLM no está en ejecución, inícielo utilizando la vía rápida de SMIT siguiente:

smit wlmstart

6. Supervise el efecto del nuevo conjunto de recursos en la clase. Por ejemplo:


a) Inicie bucles de 90 CPU (programa que ejecuta un bucle infinito) en la clase super1.
b) Escriba wlmstat en la línea de mandatos. La salida para este ejemplo es la siguiente

CLASS CPU MEM BIO


Unclassified 0 0 0
Unmanaged 0 0 0
Default 8 0 0
Shared 0 0 0
System 0 0 0
super1 75 0 0
super2 0 0 0
super2.Default 0 0 0
super2.Shared 0 0 0
super2.sub1 0 0 0
super2.sub2 0 0 0

Esta salida muestra que los procesos vinculados de 90 CPU, que sin otras restricciones ocuparían
el 100% de la CPU, ahora sólo utilizan el 75% porque el conjunto de recursos las limita para que se
ejecuten en las CPU 0 a 2.
c) Para verificar el conjunto de recursos al que un proceso (identificado por su PID) tiene acceso,
utilice la vía rápida de SMIT siguiente:

smit lsrsetproc

Gestión de dispositivos 141


Especifique el PID del proceso en el que está interesado o selecciónelo en la lista. La salida
siguiente es para uno de los procesos de bucle:

CPU Memory Resources


3 98298 sys/mem.00000 sys/cpu.00002 sys/cpu.00001 sys/cpu.00000

Sin embargo, un proceso de una clase sin un atributo especificado rset utiliza el conjunto de
recursos Default que incluye todos los procesadores excepto los que forman parte de un
conjunto de recursos exclusivo. El proceso que no pertenece a ninguna clase utilizará la clase
System (si se trata de un proceso root) o una clase Default (si se trata de un proceso no root).
Cualquiera de estas clases es posible que tengan conjuntos de recursos definidos.
La salida siguiente es del proceso init, que está en una clase que no especifica un conjunto de
recursos:

CPU Memory Resources


4 98298 sys/sys0

En este punto, el conjunto de recursos existe y como mínimo una clase de WLM lo está utilizando.
Nota: WLM no establecerá la conexión de rset para un proceso que actualmente tenga una vinculación de
subrutina bindprocessor u otra conexión rset. Cuando ya no exista otra conexión, WLM asignará
automáticamente su rset.
Nota: Los conjuntos de recursos se pueden crear para cualquier clase de WLM, que incluye las clases
Default y System.

Configuración del Gestor de carga de trabajo para consolidar cargas de trabajo


El Gestor de carga de trabajo (WLM) proporciona el control sobre los recursos utilizados por los trabajos
del sistema.
Existe una plantilla de configuración de WLM predeterminada en cada sistema operativo AIX instalado. El
procedimiento siguiente actualiza la plantilla de configuración de WLM para implementar una política de
gestión de recursos en un servidor compartido. La configuración resultante se puede utilizar como punto
de inicio para la prueba. La forma en que se configura exactamente WLM dependerá de la carga de trabajo
y los requisitos de la política para el entorno.
Nota:
1. El uso eficaz de WLM requiere un conocimiento amplio de los procesos del sistema existentes y del
rendimiento. Probablemente necesitará repetir las pruebas y los ajustes antes de poder desarrollar
una configuración que funcione bien para la carga de trabajo. Si configura WLM con valores extremos o
inexactos, el rendimiento del sistema disminuirá significativamente.
2. El proceso de configurar WLM es más sencillo cuando ya se conoce uno o varios de los atributos de
clasificación de un proceso (por ejemplo, el nombre de usuario, grupo o aplicación). Si no está
familiarizado con el uso actual de recursos, utilice una herramienta como topas para identificar los
procesos que son los principales usuarios de recursos y utilice la información resultante como punto
de inicio para definir clases y reglas.
3. El caso siguiente supone que está familiarizado con los conceptos básicos del Gestor de carga de
trabajo, tal como se describen en el apartado “Conceptos de la gestión de la carga de trabajo” en la
página 130.
Los archivos de configuración de WLM existen en el directorio /etc/wlm/NombreConfiguración. Las
subclases de cada superclase se definen en un archivo de configuración denominado /etc/wlm/
NombreConfiguración/NombreSuperclase. Para obtener más información acerca de estos archivos,
consulte la publicación Referencia de archivos.
En el procedimiento siguiente, se consolidan las cargas de trabajo de dos servidores de departamentos
independientes en un servidor mayor. Este ejemplo edita los archivos de configuración, peor también crea
una configuración con SMIT (utilice la vía de acceso rápida smit wlmconfig_create). En este
procedimiento hará lo siguiente:

142 AIX Versión 7.2: Gestión de dispositivos


1. Identificar los requisitos de recursos de las aplicaciones que desea consolidar. Esto ayudará a
determinar cuántas aplicaciones puede mover al servidor mayor.
2. Definir capas, así como compartimientos y límites de recursos, para empezar a probar la carga de
trabajo consolidada.
3. Realizar un ajuste fino de la configuración hasta que consiga los resultados deseados.
La información de este procedimiento se ha probado utilizando versiones específicas de AIX. Los
resultados que obtenga pueden variar significativamente dependiendo de la versión y el nivel de AIX.

Paso 1. Identifique los requisitos de las aplicaciones


En este caso, la carga de trabajo es la típica que se puede ver en un servidor de bases de datos.
Supongamos que los trabajos se encuentran en las siguientes categorías generales:
Escuchas
Son procesos que están en suspensión la mayoría del tiempo y se activan periódicamente en
respuesta a una petición. Aunque estos procesos no consumen muchos recursos, el tiempo de
respuesta puede ser importante.
Subprocesos de trabajo
Son procesos que realizan el trabajo de parte de una petición, ya sea local o remota. Probablemente
estos procesos utilizan una gran cantidad de tiempo de CPU y memoria.
Informadores
Son procesos que realizan tareas automáticas. Es posible que requieran una gran cantidad de tiempo
de CPU o memoria, pero pueden tolerar un tiempo de respuesta más lento.
Supervisores
Son procesos que normalmente se ejecutan periódicamente para verificar el estado del sistema o las
aplicaciones. Estos procesos pueden utilizar una cantidad significativa de recursos, pero sólo durante
un tiempo corto.
Mandatos
Son mandatos u otras aplicaciones que los usuarios del sistema pueden ejecutar en cualquier
momento. Sus requisitos de recursos son imprevisibles.
Además de este trabajo, los trabajos planificados se encuentran en una de las categorías siguientes:
SysTools
Son procesos que realizan tareas automáticas. Estos trabajos no son importantes para el
funcionamiento del sistema pero se deben ejecutar periódicamente y dentro de determinadas
restricciones de tiempo.
SysBatch
Son procesos que no se ejecutan con frecuencia, no son importantes para el funcionamiento del
sistema y no es necesario que finalicen de manera oportuna.
El primer paso en la creación de una configuración es definir las clases y las reglas. En los pasos
siguientes, utilizará las categorías de trabajos generales indicadas arriba para definir las clases. Utilice el
procedimiento siguiente:
1. Cree una nueva configuración dentro del directorio /etc/wlm denominada MyConfig utilizando el
mandato siguiente:

mkdir /etc/wlm/MyConfig

2. Copie los archivos de plantilla en el directorio /etc/wlm/MyConfig utilizando el mandato siguiente:

cp -pr /etc/wlm/template/* /etc/wlm/MyConfig

3. Para crear las superclases, utilice su editor favorito para modificar el archivo /etc/wlm/MyConfig/
classes para que contengan lo siguiente:

System:

Default:

Gestión de dispositivos 143


DeptA:

DeptB:

SysTools:

SysBatch:

Como punto de inicio, se define una superclase para cada departamento (porque dos departamentos
compartirán el servidor). Las superclases SysTool y SysBatch manejarán los trabajos planificados
indicados en las categorías generales anteriores. Las superclases System y Default están siempre
definidas.
4. En el directorio MyConfig, cree un directorio para cada una de las superclases DeptA y DeptB. (Al
crear una configuración, debe crear un directorio para cada superclase que tiene subclases). En el
paso siguiente, se definen cinco subclases (una para cada categoría de trabajo) para la superclase de
cada departamento.
5. Para crear subclases para cada categoría general de trabajos, edite los archivos /etc/wlm/
MyConfig/DeptA/classes y /etc/wlm/MyConfig/DeptB/classes para que contengan lo
siguiente:

Listen:

Work:

Monitor:

Report:

Command:

Nota: El contenido del archivo classes puede ser diferente para cada superclase.
Tras identificar las clases, en el paso siguiente, se crean las reglas de clasificación que se utilizan para
clasificar los procesos en los niveles de superclase y subclase. Para simplificar, suponga que todas las
aplicaciones se ejecutan desde ubicaciones conocidas, que todos los procesos de un departamento se
ejecutan en el grupo UNIX deptA y que los procesos de otro departamento se ejecutan bajo el grupo
UNIX deptB.
6. Para crear reglas de asignación de superclases, modifique el archivo /etc/wlm/MyConfig/rules
para que contenga lo siguiente:

DeptA - - deptA - -
DeptB - - deptB - -
SysTools - root,bin - /usr/sbin/tools/* -
SysBatch - root,bin - /usr/sbin/batch/* -
System - root - - -
Default - - - - -

Nota: Si se puede ejecutar más de una instancia de la misma aplicación y todos los atributos de
clasificación (que no son el código) son iguales, utilice el mandato wlmassign o la subrutina
wlm_set_tag para diferenciarlas asignándoles a diferentes clases.
7. Para crear reglas de subclase más específicas, cree los archivos /etc/wlm/MyConfig/DeptA/
rules y /etc/wlm/MyConfig/DeptB/rules con el siguiente contenido:

Listen - - - /opt/myapp/bin/listen* -
Work - - - /opt/myapp/bin/work* -
Monitor - - - /opt/bin/myapp/bin/monitor -
Report - - - /opt/bin/myapp/report* -
Command - - - /opt/commands/* -

8. Para determinar el comportamiento de consumo de recursos de cada clase, inicie WLM en modalidad
pasiva utilizando el mandato siguiente:

wlmcntrl -p -d MyConfig

144 AIX Versión 7.2: Gestión de dispositivos


Tras iniciar WLM en modalidad pasiva, primero puede ejecutar cada aplicación por separado para
obtener una perspectiva más precisa de los requisitos de recursos. Después, puede ejecutar todas las
aplicaciones simultáneamente para determinar mejor la interacción entre todas las clases.
Un método alternativo de identificar los requisitos de recursos de aplicaciones puede ser ejecutar
primero WLM en modalidad pasiva en un servidor independiente del que está consolidando las
aplicaciones. Los inconvenientes de este enfoque son que se deben volver a crear las configuraciones en
el sistema más grande y el porcentaje de recursos probablemente será diferente en él.

Paso 2. Defina capas, compartimientos y límites


Una configuración de WLM es una implementación de una política de gestión de recursos. La ejecución de
WLM en modalidad pasiva proporciona información que ayuda a determinar si la política de gestión de
recursos es razonable para una carga de trabajo determinada. Ahora puede definir capas,
compartimientos y límites para regular la carga de trabajo basándose en la política de gestión de
recursos.
En este caso, suponga que existen los requisitos siguientes:
• La clase System debe tener la prioridad más alta y debe tener garantizado el acceso a un porcentaje de
recursos del sistema en todo momento.
• La clase SysTools debe tener acceso a un porcentaje determinado de recursos en todo momento, pero
no tanto que impacte significativamente en las aplicaciones que se ejecutan en DeptA y DeptB.
• La clase SysBatch no puede interferir con cualquier otro trabajo del sistema.
• DeptA recibirá el 60% de los recursos disponibles (lo que significa que los recursos que están
disponibles para las clases con compartimientos) y DeptB recibirá el 40%. Dentro de DeptA y DeptB:
– Los procesos de la clase Listen debe responder a peticiones con latencia baja, pero no deben
consumir una gran cantidad de recursos.
– La clase Work debe tener permitido el consumo de la mayoría de recursos. Las clases Monitor y
Command debe consumir algunos recursos, pero menos que la clase Work.
– La clase Report no puede interferir con ningún otro trabajo.
En el procedimiento siguiente, se definen las capas, los compartimientos y los límites:
1. Para crear las capas de superclase, utilice su editor favorito para modificar el archivo /etc/wlm/
MyConfig/classes para que contengan lo siguiente:

System:

Default:

DeptA:
localshm = yes
adminuser = adminA
authuser = adminA
inheritance = yes

DeptB:
localshm = yes
adminuser = adminB
authuser = adminB
inheritance = yes

SysTools:
localshm = yes

SysBatch:
tier = 1
localshm = yes

La superclase SysBatch se coloca en la capa 1 porque esta clase contiene trabajos de prioridad muy
baja que no desea que interfieran con el resto del trabajo del sistema. (Cuando no se especifica una
capa, la clase es de forma predeterminada de la capa 0.) El adminuser y los atributos de authuser
definen la administración de la superclase de cada departamento. La herencias de atributos está

Gestión de dispositivos 145


habilitada para DeptA y DeptB. Todos los nuevos procesos iniciados en una clase con herencia
permanecerán clasificados en esa clase.
2. A fin de crear capas de subclase para cada grupo de trabajo, modifique los archivos /etc/wlm/
MyConfig/DeptA/classes y /etc/wlm/MyConfig/DeptB/classes para que contengan lo
siguiente:

Listen:

Work:

Monitor:

Report:
tier = 1
Command:

3. A fin de asignar los compartimientos iniciales para las superclases, edite el archivo /etc/wlm/
MyConfig/shares para que contenga lo siguiente:

DeptA:
CPU = 3
memory = 3

DeptB:
CPU = 2
memory = 2

Como ha asignado un total de CPU de 5 compartimientos, los procesos de DeptA tendrán acceso a tres
de cinco compartimientos (o al 60%) de los recursos totales de CPU y los procesos de DeptB tendrán
acceso a dos de cinco (o el 40%). Puesto que no ha asignado compartimientos a las clases SysTools,
System y Default, sus objetivos de consumo continuarán siendo independientes del número de
compartimientos activos, lo que les da una prioridad más alta de acceso a los recursos que DeptA y
DeptB (hasta que se alcanza el límite). No ha asignado ningún compartimiento a la clase SysBatch
porque es la única superclase de la capa 1 y, por lo tanto, cualquier asignación de compartimiento es
irrelevante. Los trabajos de la clase SysBatch sólo pueden consumir recursos que ninguna clase de la
capa 0 utiliza.
4. Para asignar los compartimientos iniciales para las subclases, edite los archivos /etc/wlm/
MyConfig/DeptA/shares y /etc/wlm/MyConfig/DeptB/shares para que contengan lo
siguiente:

Work:
CPU = 5
memory = 5

Monitor:
CPU = 4
memory = 1

Command:
CPU = 1
memory = 1

Puesto que no ha asignado compartimientos a la clase Listen, tendrá la prioridad más alta de acceso
(en la superclase) para los recursos cuando los necesite. Ha asignado el número mayor de
compartimientos a la clase Work porque tiene más requisitos de recursos. De acuerdo a ello, ha
asignado compartimientos a las clases Monitor y Command basándose en el comportamiento
observado e importancia relativa. No ha asignado compartimientos a la clase Report porque es la
única subclase en la capa 1, y por lo tanto cualquier asignación de compartimiento es irrelevante. Los
trabajos de la clase Report sólo pueden consumir recursos que las clases de la capa 0 no utilizan.
En el paso siguiente de este ejemplo, se asignan límites a las clases que no tienen asignados
compartimientos. (También puede asignar límites para las clases con compartimientos. Consulte
Gestión de recursos con WLM para obtener más información.)

146 AIX Versión 7.2: Gestión de dispositivos


5. Para asignar límites a las superclases, edite el archivo /etc/wlm/MyConfig/limits para que
contenga lo siguiente:

Default:
CPU = 0%-10%;100%
memory = 0%-10%;100%

SysTools:
CPU = 0%-10%;100%
memory = 0%-5%;100%

System:
CPU = 5%-50%;100%
memory = 5%-50%;100%

Ha asignado límites máximos variables a las clases System, SysTools y Default para impedirles
interferir significativamente con otros trabajos del sistema. Ha asignado límites mínimos a la clase
System para CPU y memoria porque esta clase contiene procesos que son esenciales para el
funcionamiento del sistema y deben poder consumir una cantidad garantizada de recursos.
6. Para asignar límites a las subclases, edite los archivos /etc/wlm/MyConfig/DeptA/limits
y /etc/wlm/MyConfig/DeptB/limits para que contengan lo siguiente:

Listen:
CPU = 10%-30%;100%
memory = 10%-20%;100%

Monitor:
CPU = 0%-30%;100%
memory = 0%-30%;100%

Nota: Los límites pueden ser diferentes para cada archivo de subclase.
Ha asignado límites máximos variables a las clases Listen y Monitor para impedirles interferir
significativamente con las demás subclases de la misma superclase. En particular, no desea que el
sistema continúe aceptando peticiones para los trabajos de la clase Work, si la clase Work no tiene
acceso a los recursos para procesarlos. También ha asignado límites mínimos para la clase Listen a fin
de garantizar un tiempo de respuesta rápido. El límite mínimo para memoria garantiza que la
sustitución de página no robe las páginas utilizadas por esta clase, lo que da lugar a un tiempo de
ejecución más rápido. El límite mínimo para CPU garantiza que cuando estos procesos se puedan
ejecutar, tendrán la prioridad más alta de acceso (en la superclase) para los recursos de CPU.

Paso 3. Efectúe un ajuste fino de la configuración del Gestor de carga de trabajo


1. Supervise el sistema utilizando el mandato wlmstat y verifique que la regulación que WLM ha
realizado se alinea con sus objetivos y no priva excesivamente de recursos a algunas aplicaciones
mientras que otras obtienen más de lo que deben. Si este es el caso, ajuste los compartimientos y
renueve WLM.
2. A medida que supervise y ajuste los compartimientos, límites y números de capa, decida si desea
delegar la administración de las subclases de algunas o todas las superclases. El administrador puede
supervisar y configurar los compartimientos, los límites y el número de capas de la subclase.
El administrador de cada superclase puede repetir este proceso para las subclases de cada superclase.
La única diferencia es que WLM no puede ejecutarse en modalidad pasiva sólo en el nivel de subclase. La
configuración y el ajuste de subclases se deben realizar con WLM en modalidad activa. Una manera de no
influir en los usuarios y las aplicaciones de la superclase es iniciar el número de capa, y los
compartimientos y los límites de la subclase en su valor predeterminado ('-' (guión) para los
compartimientos, 0% para el mínimo y 100% para el máximo variable y fijo). Con estos valores, WLM no
regulará la asignación de recursos entre las subclases.

Para obtener más información


• Gestor de carga de trabajo.
• Gestión de la carga de trabajo.

Gestión de dispositivos 147


• Workload Management Diagnosis en la publicación Performance management.
• Las descripciones de los archivos classes, limits, rules y shares en la publicación Referencia de
archivos.
• topas, wlmassign, wlmcheck, wlmcntrl y wlmstat.
• Las descripciones de subrutinas de WLM, especialmente wlm_set_tag.

Clases
El Gestor de carga de trabajo ayuda a controlar la asignación de recursos del sistema mediante la
definición de clases de servicio y la asignación de recursos a cada una de estas clases.
Cada clase tiene un conjunto de atributos que determinan las autorizaciones de los recursos, así como
otros comportamientos. Cada proceso del sistema se clasifica en una clase de servicio y por lo tanto se le
pueden aplicar las autorizaciones de recursos y comportamientos de esa clase. Los procesos se asignan a
una clase manualmente utilizando la asignación manual, o automáticamente según las reglas de
clasificación definidas por el usuario.
WLM soporta dos niveles de clases: superclases y subclases. Las autorizaciones de recursos se otorgan a
las superclases basándose en los recursos del sistema disponibles, y se otorgan las autorizaciones de
recursos a las subclases según las autorizaciones de la superclase que tienen asociada. Opcionalmente,
puede definir subclases para permitir un control más granular de los procesos de una superclase.
También puede delegar la responsabilidad de definir subclases especificando un usuario admin o un
grupo admin para una superclase.
En los dos niveles, superclase y subclase, se pueden especificar clases, compartimientos y límites de
recursos, y reglas utilizando SMIT, o la interfaz de línea de mandatos. Las aplicaciones pueden utilizar las
API de WLM. Las definiciones de configuraciones se conservan en un conjunto de archivos de texto
denominados archivos de propiedades de WLM.
Un nombre de clase está compuesto de 16 caracteres de longitud y sólo puede contener letras
mayúsculas y minúsculas, números y subrayados (_). En una configuración de WLM determinada, cada
nombre de superclase debe ser exclusivo. Cada nombre de subclase debe ser exclusivo en esas
superclases, pero puede coincidir con nombres de subclases de otras superclases. Para identificar
exclusivamente cada subclase, el nombre completo de una subclase se compone del nombre de
superclase y el nombre de subclase separado por un punto; por ejemplo: Super.Sub.

Superclases
El administrador del sistema puede definir hasta 64 superclases.
Además, las cinco superclases siguientes se crean automáticamente:
Superclase Default
Es la superclase predeterminada y siempre se define. Todos los procesos que no son root y que no se
asignan automáticamente a una superclase específica, se asignan a la superclase Default. También se
pueden asignar otros procesos a la superclase Default proporcionando reglas de asignación
específicas.
Superclase System
Tiene asignados todos los procesos privilegiados (root) si esos procesos no se asignan mediante
reglas a una clase específica. Esta superclase también recopila las páginas de memoria que
pertenecen a segmentos de memoria de kernel y procesos de kernel. También se pueden asignar
otros procesos a la superclase System proporcionando reglas de asignación específicas para esta
superclase. Esta superclase tiene un límite mínimo de memoria del 1% como valor predeterminado.
Superclase Shared
Recibe las páginas de memoria que comparten los procesos de más de una superclase. Esto incluye
páginas de regiones de memoria compartida y páginas de archivos que utilizan los procesos de más
de una superclase (o de subclases de diferentes superclases). La memoria compartida y los archivos
que múltiples procesos utilizan pertenecientes a una sola superclase (o subclase de la misma
superclase) están asociados a esa superclase. Sólo cuando un proceso de una superclase diferente
accede a la región de memoria compartida o archivo, las páginas se colocan en la superclase Shared.
Sólo se pueden aplicar compartimientos y límites de memoria física a esta superclase. No puede

148 AIX Versión 7.2: Gestión de dispositivos


tener compartimientos ni límites para los demás tipos de recursos, subclases o reglas de asignación
especificadas. Si un segmento de memoria compartida por procesos de subclases diferentes de la
misma superclase se clasifica en la subclase Shared o permanece en la subclase original dependerá
del valor del atributo localshm de la subclase original.
Superclase Unclassified
Es una asignación de memoria para procesos no clasificados. Los procesos que existen en el
momento de iniciar WLM se clasifican según las reglas de asignación de la configuración de WLM que
se está cargando. Durante esta clasificación inicial, todas las páginas de memoria conectadas a cada
proceso se "cargan" en la superclase a la que pertenece el proceso (cuando no está compartido o
cuando se comparte por procesos de la misma superclase), o en la superclase Shared cuando se
comparte por procesos de superclases distintas.
Sin embargo, algunas páginas no se pueden vincular directamente a ningún proceso (y por lo tanto a
ninguna clase) en el momento de esta clasificación, y esta memoria se carga en la superclase
Unclassified. La mayor parte de esta memoria se vuelve a clasificar correctamente con el tiempo,
cuando un proceso accede a ella, o se libera y vuelve a asignar a un proceso después de iniciar WLM.
No hay procesos en la superclase Unclassified. Se pueden aplicar compartimientos y límites de
memoria física a esta superclase. No puede tener compartimientos ni límites para los demás tipos de
recursos, subclases o reglas de asignación especificadas.
Superclase Unmanaged
Siempre se define una superclase especial llamada Unmanaged. No se asigna ningún proceso a esta
clase. Esta clase acumula el uso de memoria correspondiente a todas las pátinas retenidas en el
sistema que no gestiona WLM. La utilización de CPU correspondiente a los procesos waitproc no se
acumula en ninguna clase para evitar que el sistema parezca que esté al 100% de su utilización. Esta
superclase no puede tener compartimientos ni límites correspondientes a ningún tipo de recurso,
subclase o regla de asignación especificada.

Subclases
El administrador del sistema o un administrador de superclase puede definir hasta 61 subclases.
Además, siempre se definen dos subclases especiales, Default y Shared.
Subclase Default
Es la subclase predeterminada y siempre se define. Todos los procesos que no se asignan
automáticamente a una subclase específica de la superclase se asignan a la subclase Default.
También puede asignar otros procesos a la subclase Default proporcionando reglas de asignación
específicas.
Subclase Shared
Recibe todas las páginas de memoria que los procesos de más de una subclase de la superclase
utilizan. Esto incluye las páginas de regiones de memoria compartida y las páginas de archivos que los
procesos de más de una subclase de la misma superclase utilizan. La memoria compartida y los
archivos, que múltiples procesos pertenecientes a una sola subclase utilizan, están asociados a esa
subclase. Sólo cuando un proceso de una subclase diferente de la misma superclase accede a la
región de memoria compartida o al archivo, las páginas se colocan en la subclase Shared de la
superclase. No hay procesos en la subclase Shared. Sólo se pueden aplicar compartimientos y límites
de memoria física a esta subclase, y no se pueden especificar compartimientos ni límites para los
demás tipos de recursos o reglas de asignación especificadas. Si un segmento de memoria
compartida por procesos de subclases diferentes de la misma superclase se clasifica en la subclase
Shared o permanece en la subclase original depende del valor del atributo localshm de la subclase
original.

Atributos de clase
Listar todos los atributos de una clase de WLM.
Nombre de clase
Puede tener hasta 16 caracteres de longitud y sólo puede contener letras en mayúsculas y
minúsculas, números y subrayados (_).

Gestión de dispositivos 149


Capa
Un número entre 0 y 9 utilizado para dar prioridad a la asignación de recursos entre clases.
Herencia
Especifica si un proceso hijo hereda la asignación de clase de su padre.
localshm
Impide que lo segmentos de memoria que pertenecen a una clase migren a la clase Shared.
Administrador (adminuser, admingroup, authgroup) (sólo superclase)
Delega la administración de una superclase.
Autorización (authuser, authgroup)
Delega el derecho de asignar manualmente un proceso a una clase.
Conjunto de recursos (rset)
Limita el conjunto de recursos a los que una clase determinada tiene acceso, en cuanto a CPU
(conjunto de procesadores).
delshm
Suprime los segmentos de memoria compartida si se mata el último proceso de referencia debido al
límite de memoria virtual.
vmeforce
Indica si se deben matar todos los procesos de una clase, o sólo los procesos infractores, cuando una
clase alcanza el límite de la memoria virtual.
io_priority
Especifica la prioridad asignada a las solicitudes de E/S emitidas por las hebras clasificadas de la
clase. Esta prioridad se utiliza para establecer la prioridad de los almacenamientos intermedios de
E/S a nivel de dispositivo. Si el dispositivo de almacenamiento no admite prioridades de E/S, se ignora
la prioridad. Las prioridades de E/S válidas van del 0 al 15.
Conceptos relacionados
Asignación de procesos a clases para la gestión de la carga de trabajo
Los procesos se asignan a una clase, utilizando las reglas de asignación de clases proporcionadas por el
administrador del sistema. Los criterios de clasificación se basan en el valor de un conjunto de atributos
del proceso como, por ejemplo, el ID de usuario, el ID de grupo, el nombre del archivo de aplicación, el
tipo de proceso y el código de aplicación.

Atributo de capa
Las capas representan el orden en que se asignan los recursos del sistema a las clases de WLM.
El administrador puede definir clases en un máximo de 10 capas, numeradas de 0 a 9, siendo 0 la capa
más alta o más importante. La cantidad de recursos disponibles para la capa 0 es todos los recursos
disponibles del sistema. La cantidad de recursos disponibles para las capas inferiores (números más
altos) es la cantidad de recursos que ninguna capa superior utiliza. Los porcentajes de consumo objetivo
para las clases se basan en el número de compartimientos activos de esta capa y la cantidad de recursos
disponibles para la capa. Puesto que la capa 0 es la única que tiene siempre garantizada la disponibilidad
de recursos, se recomienda que los procesos esenciales para el funcionamiento del sistema se
clasifiquen en una clase de esta capa. Si no se especifica ningún valor de capa para una clase, se colocará
en la capa 0.
Las capas se pueden especificar en los dos niveles, superclase y subclase. Las capas de superclase se
utilizan para especificar la prioridad de asignación de recursos entre superclases. Las capas de subclase
se utilizan para especificar la prioridad de asignación de recursos entre subclases de la misma
superclase. No hay relación entre las subcapas de diferentes superclases.

Atributo de herencia
El atributo inheritance de una clase indica que los procesos de la clase se deben volver a clasificar
automáticamente cuando cambie uno de los atributos de clasificación del proceso.
Cuando se crea un nuevo proceso con la subrutina fork, hereda automáticamente la clase de su padre,
no importa si la herencia está habilitada o no. La excepción es cuando el proceso padre tiene un código,

150 AIX Versión 7.2: Gestión de dispositivos


tiene su código de herencia en fork desactivado y la herencia de clase está desactivada para la clase del
padre. En este caso, el proceso hijo se vuelve a clasificar según las reglas de clasificación.
Cuando la herencia no está habilitada para una clase, cualquier proceso de la clase se clasifica
automáticamente según las reglas de clasificación, después de llamar a algún servicio que cambia un
atributo del proceso que se utiliza en la regla. La llamada más común es la subrutina exec, pero otras
subrutinas que pueden cambiar la clasificación son setuid, setgid, plock, setpri y wlm_set_tag.
Cuando la herencia está habilitada, el proceso no se vuelve a clasificar basándose en las reglas de
clasificación y permanecerá en su clase actual. La asignación manual tiene prioridad sobre la herencia y
se puede utilizar para volver a clasificar los procesos que están en una clase con la herencia habilitada.
El valor especificado para el atributo inheritance puede ser yes o no. Si no se especifica, la herencia
para una clase no se habilitará.
Este atributo se puede especificar a nivel de superclase y a nivel de subclase. Para una subclase de una
superclase determinada:
• Si el atributo inheritance se establece en yes en los niveles de superclase y de subclase, un hijo de
un proceso de la subclase permanecerá en la misma subclase.
• Si el atributo inheritance se establece en yes para la superclase y en no (o no se especifica) para la
subclase, un hijo de un proceso de la subclase permanecerá en la misma superclase y se clasificará en
una de sus subclases según las reglas de asignación para la superclase.
• Si el atributo inheritance es no (o no se especifica) para la superclase y se establece en yes para la
subclase, un hijo de un proceso de la subclase se someterá a las reglas de asignación automática para
las superclases.
– Si el proceso se clasifica por las reglas de la misma superclase, permanecerá en la subclase (no se
someterá a las reglas de asignación de la subclase).
– Si el proceso se clasifica por las reglas de una superclase diferente, se aplicarán las reglas de
asignación de subclase de la nueva superclase para determinar la subclase de la nueva superclase a
la que se asignará el proceso.
• Si los atributos inheritance de la superclase y la subclase se establecen en no (o no se especifican),
un hijo de un proceso de la subclase se someterá a la asignación automática estándar.

Atributo localshm
El atributo localshm se puede especificar en los niveles de superclase y subclase.
El atributo localshm se utiliza para impedir que los segmentos de memoria que pertenecen a una clase
se migren a la superclase o subclase Shared cuando procesos de otras clases acceden a ellos. Los valores
posibles para el atributo son yes o no. El valor yes significa que los segmentos de memoria compartida
de esta clase deben permanecer locales para la clase y no deben migrar a la clase Shared
correspondiente. El valor no es el predeterminado cuando no se especifica el atributo.
Los segmentos de memoria se clasifican en las anomalías de página. Cuando se crea un segmento, se
marca como perteneciente a la superclase Unclassified. En la primera anomalía de página del segmento,
éste se clasifica en la misma clase como proceso anómalo. Más tarde, si un proceso que pertenece a una
clase diferente del segmento genera una anomalía de página en el segmento, WLM considera si se debe
volver a clasificar el segmento en la clase Shared adecuada (superclase o subclase). Si el proceso y
segmento anómalos pertenecen a superclases diferentes, se efectúa una de las acciones siguientes:
• Si la superclase del segmento tiene el atributo localshm establecido en yes, el segmento permanece
en la superclase actual. Si la subclase del segmento tiene el atributo localshm establecido en yes, el
segmento permanece en la subclase actual. Si el atributo localshm de la superclase está establecido
en yes pero el atributo de subclase está establecido en no, va a la subclase Shared de la superclase
actual.
• Si la superclase del segmento tiene el atributo localshm establecido en no, el segmento va a la
superclase Shared. Se trata de la acción predeterminada.
Si el proceso y el segmento anómalos pertenecen a diferentes subclases de la misma superclase, y la
subclase del segmento tiene el atributo localshm establecido en yes, el segmento permanece en la

Gestión de dispositivos 151


clase actual (superclase y subclase). De lo contrario, el segmento va a la subclase Shared de la
superclase.
Por supuesto que si el proceso y el segmento anómalos pertenecen a la misma clase (misma superclase y
misma subclase), el segmento no se vuelve a clasificar, no importa los valores de los atributos localshm.

Atributo de administrador
Los atributos adminuser y admingroup se utilizan para delegar la administración de la superclase a un
usuario o grupo de usuarios.
Nota: Estos atributos sólo son válidos para superclases.
El atributo adminuser especifica el nombre del usuario (tal como se indica en /etc/passwd) autorizado
para realizar las tareas de administración en la superclase. El atributo admingroup especifica el nombre
del grupo de usuarios (tal como se indica en /etc/group) autorizado para realizar las tareas de
administración en la superclase.
Sólo se permite un valor (usuario o grupo) para cada atributo. Se pueden especificar uno de los dos,
ninguno o ambos. El usuario o grupo de usuarios tendrá autorización para hacer lo siguiente:
• Crear y suprimir subclases.
• Cambiar los atributos y los compartimientos y límites de recursos para las subclases.
• Definir, eliminar o modificar la reglas de asignación de subclases.
• Renovar (actualizar) la configuración de WLM activa para la superclase.

Atributo de autorización
Los atributos authuser y authgroup son válidos para todas las clases. Se utilizan para especificar el
usuario o el grupo autorizado para asignar manualmente procesos a la clase (superclase o subclase).
Cuando se asigna manualmente un proceso (o un grupo de procesos) a una superclase, las reglas de
asignación para la superclase se utilizan para determinar la subclase de la superclase a la que se asignará
cada proceso.
Sólo se permite un valor (usuario o grupo) para cada atributo. Se pueden especificar uno de los dos,
ninguno o ambos.

Atributo de conjunto de recursos


El atributo de conjunto de recursos (denominado rset) se puede especificar para cualquier clase. Su valor
es el nombre de un conjunto de recursos definido por el administrador del sistema.
El atributo rset representa un subconjunto de recursos de CPU disponibles en el sistema (conjunto de
procesadores). El valor predeterminado es "system", que proporciona acceso a todos los recursos de CPU
disponibles en el sistema. La única restricción es que si se especifica rset para una subclase, el conjunto
de CPU del conjunto debe ser un subconjunto de las CPU disponibles para la superclase. (Para obtener
información detallada, consulte el mandato mkrset.
Nota: Considere detenidamente la asignación de conjuntos de recursos a cualquier clase que no esté en
la capa 0. Debido a que las capas inferiores sólo tienen acceso a los recursos que las capas superiores no
utilizan, la restricción de una clase que no es de capa 0 a un subconjunto de CPU del sistema puede dar
lugar a falta de recursos si no hay tiempo de CPU disponible para esas CPU.

Clasificaciones de procesos en Gestor de carga de trabajo


En WLM, los procesos se pueden clasificar de dos maneras.
• Un proceso se asigna automáticamente utilizando las reglas de asignación cuando cambian los
atributos de clasificación de procesos. Cuando WLM se ejecuta en modalidad activa, esta asignación
automática siempre está activada (no se puede desactivar). Es la manera más común de clasificar los
procesos.
• Un usuario con la autorización necesaria en los procesos y en la clase de destino puede asignar
manualmente un proceso o un grupo de procesos seleccionado. La asignación manual se puede realizar
utilizando un mandato de WLM, que se puede invocar directamente o mediante SMIT o por una

152 AIX Versión 7.2: Gestión de dispositivos


aplicación utilizando una función de la interfaz de programación de aplicaciones de WLM. Esta
asignación manual prevalece sobre la asignación automática y la herencia.

Asignación automática de clases en el Gestor de carga de trabajo


La asignación automática de procesos a clases utiliza un conjunto de reglas de asignación de clases
especificadas por un administrador de WLM.
Hay dos niveles de reglas de asignación:
• Un conjunto de reglas de asignación a nivel de configuración de WLM utilizadas para determinar la
superclase a la está asignado un proceso determinado.
• A su vez, cada superclase con subclases definidas tiene un conjunto de reglas de asignación que se
utilizan para determinar la subclase de la superclase a la que está asignado el proceso.
Las reglas de asignación de ambos niveles se basan en los valores de un conjunto de atributos de
proceso. Estos atributos son los siguientes:
• ID de usuario del proceso
• ID de grupo del proceso
• Nombre de vía de acceso de la aplicación ejecutado (programa)
• Tipo de los procesos (32bit o 64bit, por ejemplo)
• Código del proceso.
El código es un atributo del proceso, definido como una serie de caracteres que una aplicación puede
establecer por programa, utilizando la API de WLM.
Se efectúa una clasificación siempre que cambia un atributo al comparar el valor de estos atributos del
proceso con las listas de valores posibles dados en el archivo de reglas de asignación de clases
(denominado rules). La comparación determina la regla que coincide para el valor actual de los atributos
del proceso.
Una regla de asignación de clases es una serie de texto que incluye los campos siguientes, separados por
uno o varios espacios en blanco:

Elemento Descripción
Nombre Debe contener el nombre de una clase definida en el archivo de clases
correspondiente al nivel del archivo rules (superclase o subclase). Los nombres
de clases sólo pueden contener letras en mayúsculas y minúsculas, números y
subrayados, y pueden tener hasta 16 caracteres de longitud. No se puede
especificar ninguna regla de asignación para la clases del sistema definidas como
Unclassified, Unmanaged y Shared.
Reservado Reservado para futura ampliación. Su valor debe ser un guión (-) y debe estar
presente.
Usuario Puede contener un guión (-) o como mínimo un nombre de usuario válido (tal como
se define en el archivo /etc/passwd). La lista se compone de uno o varios
nombres, separados por comas (,). Se puede utilizar un signo de admiración (!)
antes de un nombre para excluir un determinado usuario de la clase. Se pueden
especificar patrones para que coincidan con un conjunto de nombres de usuarios,
utilizando la sintaxis completa de coincidencia de patrones de shell Korn. Si no hay
ningún nombre de usuario, la regla se pasa por alto.
Grupo Puede contener un guión (-) o como mínimo un nombre de grupo válido (tal como
se define en el archivo /etc/group). La lista se compone de uno o varios nombres,
separados por comas (,). Se puede utilizar un signo de admiración (!) antes de un
nombre para excluir un determinado grupo de la clase. Se pueden especificar
patrones para que coincidan con un conjunto de nombres de grupos utilizando la
sintaxis completa de coincidencia de patrones de shell Korn. Si no hay ningún
nombre de grupo válido, la regla se pasa por alto.

Gestión de dispositivos 153


Elemento Descripción
Aplicación Puede contener un guión (-) o una lista de nombres de vías de acceso de aplicación.
Se trata del nombre de vía de acceso de las aplicaciones ejecutadas (programas)
por los procesos incluidos en la clase. Los nombres de aplicaciones serán nombres
completos de vías de acceso o patrones de shell Korn que coincidan con nombres
de vías de acceso. La lista se compone de uno o varios nombres de vías de acceso,
separados por comas (,). Se puede utilizar un signo de admiración (!) antes de un
nombre para excluir una aplicación determinada.
Se debe encontrar como mínimo una aplicación en la lista en el momento de la
carga o la regla se pasará por alto. Las reglas que inicialmente se pasan por alto por
esta razón, pueden entrar en vigor más tarde si se monta un sistema de archivos
que contiene una o varias aplicaciones de la lista.

Tipo Puede contener un guión (-) o una lista de los atributos de proceso. Los valores
posibles para estos atributos son:
• 32bit: se trata de un proceso de 32 bits
• 64bit: se trata de un proceso de 64 bits
• plock: el proceso ha llamado a la subrutina plock para retener memoria
• fixed: se trata de un proceso de prioridad fija (SCHED_FIFO o SCHED_RR)
El tipo fixed sólo sirve para la clasificación. WLM no regula el uso de procesador
de los procesos o hebras de prioridad fija. Puesto que los procesos de prioridad fija
tienen la posibilidad de provocar privaciones entre los demás procesos de una
clase, se proporciona este atributo de clasificación para permitir el aislamiento de
estos trabajos. Este atributo también se puede utilizar para informar del consumo
de estos procesos.
El valor del campo type puede ser una combinación de uno o varios de los
atributos anteriores separados por un signo más (+). Los valores 32bit y 64bit se
excluyen mutuamente.

Código Puede contener un guión (-) o una lista de códigos de aplicación. Un código de
aplicación es una serie de hasta 30 caracteres alfanuméricos. La lista está
compuesta de uno o varios valores de códigos de aplicación separados por comas.

Los atributos Usuario, Grupo, Aplicación y Código pueden ser una agrupación de valores de atributo.
Cuando se crea (bifurca) un proceso, permanece en la misma clase que su padre. Se vuelve a clasificar
cuando el nuevo proceso emite una llamada al sistema que puede modificar uno de los atributos del
proceso utilizado para la clasificación; por ejemplo, exec, setuid (y llamadas relacionadas), setgid (y
llamadas relacionadas), setpri y plock.
Para clasificar el proceso, WLM examina la configuración activa en el archivo rules de nivel superior para
determinar a qué superclase pertenece el proceso. Para cada regla del archivo, WLM comprueba los
valores actuales de los atributos de proceso en los valores y listas de valores especificados en la regla.
Las reglas se comprueban en el orden en que aparecen en el archivo. Cuando se encuentra una
coincidencia, el proceso se asigna a la superclase nombrada en el primer campo de la regla. Después, se
examina el archivo de reglas para la superclase de la misma manera para determinar a qué subclase se
debe asignar el proceso.
Para que un proceso coincida con una de las reglas, cada uno de sus atributos debe coincidir con el
campo correspondiente de la regla. La siguiente lista presenta los criterios utilizados para determinar si el
valor de un atributo coincide con los valores del campo del archivo rules:
• Si el campo del archivo de reglas contiene el valor guión (-), cualquier valor del atributo de proceso
correspondiente es una coincidencia.

154 AIX Versión 7.2: Gestión de dispositivos


• Para todos los atributos, excepto el tipo, si el valor del atributo de proceso coincide con uno de los
valores de la lista del archivo de reglas que no está excluido (con el prefijo "!"), se ha producido una
coincidencia.
• Para el atributo de tipo, si uno de los valores de la regla se compone de dos o más valores separados
por un signo más (+), un proceso sólo coincidirá si las características coinciden con todos los valores.
En los niveles de superclase y subclase, WLM recorre las reglas por el mismo orden en que aparecen en el
archivo rules, y clasifica el proceso en la clase correspondiente a la primera regla con la que el proceso
coincide. Por lo tanto, el orden de las reglas del archivo de reglas es extremadamente importante. Tenga
cuidado al crear o modificar el archivo de reglas.

Asignación manual de clases en el Gestor de carga de trabajo


Un proceso o grupo de procesos se puede asignar manualmente a una superclase y/o a una subclase
utilizando el SMIT, o el mandato wlmassign.
Consulte wlmassign para obtener más información. Una aplicación puede asignar procesos mediante la
función de API wlm_assign.
Para asignar manualmente procesos a una clase o para cancelar una asignación manual existente, un
usuario debe tener el nivel adecuado de privilegio. Una asignación manual se puede realizar o cancelar
por separado a nivel de superclase, a nivel de subclase o a ambos niveles. Esta asignación se especifica
por distintivos para la interfaz de programación y un conjunto de opciones para la interfaz de línea de
mandatos utilizada por las herramientas de administración de WLM. Por lo tanto, un proceso sólo se
puede asignar manualmente a una superclase, a una subclase o a una superclase y una subclase de esa
superclase. En el último caso, la doble asignación se puede realizar simultáneamente (con un solo
mandato o llamada a API) o en momentos diferentes, por usuarios distintos.
La asignación es muy flexible, pero puede ser complicada. Los dos ejemplos siguientes presentan dos
casos posibles.
Ejemplo 1: Primera asignación de procesos
Un administrador del sistema asigna manualmente el Proceso1 de la superclaseA a la superclaseB
(asignación sólo a nivel de superclase). WLM utiliza las reglas de asignación automática para las
subclases de la superclaseB a fin de determinar a qué subclase se asigna el proceso al final. El
Proceso1 se asigna a superclaseB.subclaseA y se señala que tiene una asignación de "superclase
sólo".
Un usuario con los privilegios adecuados asigna el Proceso2 desde su clase superclaseA.subclaseA
actual a una nueva subclase de la misma superclase, superclaseA.subclaseB. El Proceso2 se asigna a
su nueva subclase y se señala que tiene una asignación de "subclase sólo".
Un administrador de WLM de las subclases de la superclaseB reasigna manualmente el Proceso1 a la
subclaseC, que es otra subclase de superclaseB. El Proceso1 se vuelve a clasificar en
superclaseB.subclaseC y se señala que tiene asignación a nivel de superclase y de subclase.
Ejemplo 2: Reasignación o cancelación de asignación manual
La reasignación y cancelación de una asignación manual a nivel de subclase es menos compleja y sólo
afecta a la asignación a nivel de subclase.
Suponga que el administrador del sistema desea que el Proceso2 esté en una superclase con más
recursos y decide asignar manualmente el Proceso2 a la superclaseC. En el ejemplo 1, el Proceso2 se
ha asignado manualmente a la subclaseB de la superclaseA, con una asignación de "subclase sólo".
Puesto que el Proceso2 está asignado a una superclase diferente, la asignación manual previa no
tiene sentido y se cancela. El Proceso2 ahora tiene una asignación manual de "superclase sólo" a
superclaseC y, en ausencia de herencia, se asigna a una subclase de superclaseC utilizando las reglas
de asignación automática.
Ahora, el administrador del sistema decide terminar la asignación manual del Proceso1 a la
superclaseB. La asignación manual de "nivel de superclase" del Proceso1 se cancela y, en ausencia de
herencia, el Proceso1 se asigna a una superclase utilizando las reglas de asignación automática de
nivel superior.

Gestión de dispositivos 155


Si las reglas no han cambiado, el Proceso1 se asigna a la superclaseA, y su asignación manual a nivel
de subclase a superclaseB.subclaseC no tiene sentido y se cancela.
Si por cualquier razón las reglas de nivel superior asignan el Proceso1 a la superclaseB, la asignación
de nivel de subclase a superclaseB.subclaseC sigue siendo válida y permanece en vigor. El Proceso1
tiene ahora una asignación manual de "subclase sólo".

Actualizaciones para el Gestor de carga de trabajo


Cuando WLM se actualiza (con el mandato wlmcntrl -u), la configuración actualizada puede cargar un
nuevo conjunto de reglas de clasificación.
Cuando pasa esto, con frecuencia se vuelven a clasificar los procesos utilizando las nuevas reglas. WLM
no vuelve a clasificar los procesos que se han asignado manualmente o que están en una clase con la
herencia habilitada, a menos que su clase no exista en la nueva configuración.

Consideraciones sobre la seguridad para el Gestor de carga de trabajo


Para asignar un proceso a una clase o para cancelar una asignación manual anterior, el usuario debe tener
autorización en el proceso y la clase de destino.
Estas restricciones se traducen en las reglas siguientes:
• El usuario root puede asignar cualquier proceso a cualquier clase.
• Un usuario con privilegios de administración en las subclases de una superclase determinada (es decir,
el nombre de usuario o grupo coincide con los nombres de usuario o grupo especificados en los
atributos adminuser y admingroup de la superclase) puede reasignar manualmente cualquier
proceso de una de las subclases de esta superclase a otra subclase de la superclase.
• Los usuarios pueden asignar manualmente sus propios procesos (los asociados al mismo ID de usuario
real o efectivo) a una subclase para la cual tengan privilegios de asignación manual (es decir, el nombre
de usuario o grupo coincide con los nombres de usuarios o grupos especificados en los atributos
authuser y authgroup de la superclase o subclase).
Para modificar o terminar una asignación manual, los usuarios deben tener como mínimo el mismo nivel
de privilegio que la persona que ha emitido la última asignación manual.

Gestión de recursos con el Gestor de carga de trabajo


WLM supervisa y regula la utilización de recursos, por clase, de las hebras y los procesos activos del
sistema. Puede establecer límites mínimos o máximos por clase para cada tipo de recurso gestionado por
WLM, así como un valor objetivo por clase para cada recurso.
Este objetivo representa la cantidad de recurso óptima para los trabajos de la clase.Los compartimientos
y los límites a nivel de superclase hacen referencia a la cantidad total de cada recurso disponible en el
sistema. A nivel de subclase, los compartimientos y los límites hacen referencia a la cantidad de cada
recurso que está disponible para la superclase en la que está la subclase (superclase de destino). La
jerarquía de clases es una forma de dividir los recursos del sistema entre grupos de usuarios
(superclases) y delegar la administración del compartimiento de recursos a los administradores de
superclases. Cada administrador de superclase puede redistribuir esta cantidad de recursos entre los
usuarios del grupo creando subclases y definiendo autorizaciones de recursos para estas subclases.

Tipos de recursos en Gestor de carga de trabajo


WLM gestiona tres tipos de recursos en base a un consumo de porcentaje.

Elemento Descripción
Utilización de CPU por las Se trata de la suma de todos los ciclos de CPU consumidos por cada hebra de
hebras de una clase la clase.
Utilización de memoria física Se trata de la suma de todas las páginas de memoria que pertenecen a los
para los procesos de una clase procesos de la clase.
Ancho de banda de E/S de Se trata del ancho de banda (en bloques de 512 bytes por segundo) de todas
disco para la clase las E/S iniciadas por las hebras de la clase en cada dispositivo de disco al que
accede la clase.

156 AIX Versión 7.2: Gestión de dispositivos


Cada segundo, WLM calcula la utilización de cada recurso por clase durante el último segundo, como un
porcentaje del total de recurso disponible, de la manera siguiente:
• Para la CPU, la cantidad total de tiempo de CPU disponible cada segundo es igual a 1 segundo por el
número de CPU que existen en el sistema. Por ejemplo, en un SMP de ocho vías, si todas las hebras de
una clase combinadas consumen 2 segundos de tiempo de CPU durante el último segundo, representa
un porcentaje de 2/8 = 25%. El porcentaje que utiliza WLM para la regulación es un porcentaje reducido
de unos segundos de esta utilización "instantánea" de recursos por segundo.
• Para la memoria física, la cantidad total de memoria física disponible para los procesos en un momento
determinado es igual al número total de páginas de memoria físicamente presentes en el sistema
menos el número de páginas retenidas. WLM no gestiona las páginas retenidas porque no se pueden
quitar de una clase y dar a otra para regular la utilización de memoria. La utilización de memoria de una
clase es la proporción del número de páginas de memoria no retenidas que son propiedad de todos los
procesos de la clase con respecto al número de páginas disponibles en el sistema, expresado como
porcentaje.
• Para la E/S de disco, el problema principal es determinar un ancho de banda disponible significativo
para un dispositivo. Cuando un disco está ocupado al 100%, su rendimiento, en bloques por segundo,
es muy diferente si una aplicación está realizando E/S secuenciales que si varias aplicaciones generan
E/S aleatorias. Si sólo ha utilizado el rendimiento máximo medido para el caso de E/S secuenciales
(como valor del ancho de banda de E/S disponible para el dispositivo) para calcular el porcentaje de
utilización del dispositivo bajo E/S aleatorias, puede creer incorrectamente que el dispositivo está al
20% de utilización, cuando de hecho está al 100% de utilización.
Para obtener porcentajes más precisos y fiables de la utilización de disco por clase, WLM utiliza las
estadísticas proporcionadas por los controladores de disco (visualizados con el mandato iostat)
facilitando para cada dispositivo de disco el porcentaje de tiempo que el dispositivo ha estado ocupado
durante el último segundo. WLM cuenta el número de bloques totales que todas las clases que acceden al
dispositivo han leído o grabado en él durante el último segundo, y cuántos bloques se han leído o grabado
por cada clase y cuál ha sido el porcentaje de utilización del dispositivo. WLM después calcula el
porcentaje del rendimiento de disco consumido por cada clase.
Por ejemplo, si el número total de bloques leídos o grabados durante el último segundo ha sido 1000 y el
dispositivo ha estado un 70% ocupado, significa que una clase que ha leído o grabado 100 bloques ha
utilizado el 7% del ancho de banda de disco. De forma similar al tiempo de CPU (otro recurso renovable),
los valores utilizados por WLM para su regulación de E/S de disco también son un porcentaje reducido de
unos segundos de estos porcentajes por segundo.
Para el recurso de E/S de disco, los compartimientos y límites se aplican individualmente a cada
dispositivo de disco accedido por la clase. La regulación se realiza independientemente para cada
dispositivo. Esto significa que una clase puede estar por encima de su autorización en un dispositivo y se
regulan las E/S para este dispositivo, mientras está por debajo de su autorización en otro disco y las E/S
para este otro dispositivo no se restringen.
WLM soporta la contabilidad y regulación de recursos en base al consumo total. Hay dos tipos de recursos
que se pueden regular de esta manera: totales de clases y totales de procesos.
totales de clases
Se pueden especificar límites por clase para el número de procesos, hebras y sesiones de inicio de
sesión de la clase. Estos límites se especifican como el número absoluto de cada recurso que puede
existir en la clase en cualquier momento. Estos límites se aplican estrictamente; cuando una clase ha
alcanzado su límite para uno de estos recursos, fallará cualquier intento de crear otra instancia del
recurso. La operación continuará fallando para cualquier proceso de la clase hasta que la clase se
encuentre por debajo del límite especificado para el recurso.
totales de proceso
Se pueden especificar límites por proceso para la cantidad total de tiempo de CPU, bloques de E/S de
disco y tiempo de conexión para una sesión de inicio de sesión. Estos límites se especifican a nivel de
clase, pero se aplican a cada proceso de la clase individualmente (cada proceso puede consumir esta
cantidad). Estos valores de consumo son acumulativos y por lo tanto representan la cantidad total de
cada recurso en particular que el proceso ha consumido durante su existencia. Cuando un proceso
sobrepasa su límite total para un recurso, se termina. Se envía la señal SIGTERM al proceso y, si

Gestión de dispositivos 157


captura esta señal y no sale después de un periodo de gracia de 5 segundos, se le envía una señal
SIGKILL. Cuando una sesión de inicio de sesión ha llegado al 90% de su límite de tiempo de conexión,
se envía un mensaje de aviso al terminal de control para avisar al usuario de que pronto se va a
terminar la sesión.

Compartimientos objetivo en el Gestor de carga de trabajo


El porcentaje objetivo (o deseado) de consumo de recursos para una clase se determina por el número de
compartimientos que tiene para un recurso en particular.
Los compartimientos representan la cantidad de un recurso determinado que una clase debe obtener, en
relación a las otras clases de su capa. Un porcentaje objetivo de una clase para un recurso determinado
es simplemente su número de compartimientos dividido por el número de compartimientos activos en su
capa. Si también se utilizan límites, el objetivo se limita al rango [mínimo, máximo variable]. Si el objetivo
calculado está fuera de este rango, se establece en el límite superior o inferior adecuado (consulte
Límites de recursos). El número de compartimientos activos es el número total de compartimientos de
todas las clases que tienen como mínimo un proceso activo. Puesto que el número de compartimientos
activos es dinámico, también lo es el objetivo. Si sólo hay una clase activa en un capa, su objetivo será el
100% de la cantidad de recurso disponible para la capa.
Por ejemplo, suponga que hay tres superclases activas en la capa 0 (A, B y C) con compartimientos para
un recurso determinado de 15, 10 y 5, respectivamente, los objetivos serían:

objetivo(A) = 15/30 = 50%


objetivo(B) = 10/30 = 33%
objetivo(C) = 5/30 = 17%

Si después de un tiempo, la clase B se queda inactiva (no tiene procesos activos), los objetivos para la
clase A y C se ajustarán automáticamente:

objetivo(A) = 15/20 = 75%


objetivo(C) = 5/20 = 25%

Como puede ver, los compartimientos representan un porcentaje que se adapta automáticamente, lo que
permite que los recursos asignados a una clase se distribuyan a otras clases o se tomen de otras clases
uniformemente cuando se activa o inactiva.
Para permitir un alto grado de flexibilidad, el número de compartimientos para una clase puede ser
cualquier número entre 1 y 65535. Se pueden especificar compartimientos para superclases y subclases.
Para las superclases, los compartimientos son relativos a todas las demás superclases activas de la
misma capa. Para las subclases, los compartimientos son relativos a todas las demás subclases activas
de la misma superclase, de la misma capa. Los compartimientos para una subclase de una superclase no
guardan relación con los compartimientos para una subclase de otra superclase.
En algunos casos, puede ser aconsejable independizar el objetivo para una clase del número de
compartimientos activos. Para lograrlo, se puede especificar un valor "-" para el número de
compartimientos. En este caso, no se regula ese recurso en la clase, lo que significa que no tiene
compartimientos, y su objetivo no depende del número de compartimientos activos. Su objetivo se
establecerá en (recurso disponible para la capa - la suma de minutos para todas las demás clases de la
capa). Este objetivo o consumo real (el menor) se resta de lo que está disponible para las demás clases
de la misma capa.
Por ejemplo, suponga que las clases A, B, C y D tienen compartimientos para un recurso determinado de
"-", 200, 150 y 100, respectivamente. Todas las clases están activas y la Clase A consume el 50% del
recurso:

objetivo(A) = no regulado = 100%


objetivo(B) = 200/450 * disponible = 44% * 50% = 22%
objetivo(C) = 150/450 * disponible = 33% * 50% = 17%
objetivo(D) = 100/450 * disponible = 22% * 50% = 11%

Puesto que la clase A no está regulada y consume el 50% del recurso disponible, las demás clases sólo
tienen el 50% disponible, y sus objetivos se calculan basándose en este porcentaje. Como la clase A

158 AIX Versión 7.2: Gestión de dispositivos


siempre estará por debajo de su objetivo (100%), siempre tendrá una prioridad superior a todas las
demás clases de la misma capa que se encuentran en sus objetivos o por encima de ellos (consulte el
apartado “Prioridad de clases en el Gestor de carga de trabajo” en la página 161 para obtener más
información).
Nota: Hacer que una clase no esté regulada para un recurso no es lo mismo que colocarla en una capa
superior. Los comportamientos siguientes, indicados aquí, son ciertos para una clase no regulada (de la
misma capa), y no son ciertos si la clase se coloca en una capa superior:
• Puesto que los compartimientos se definen por recurso, una clase puede no estar regulada para uno o
varios recursos y regulada para otros.
• Se cumple con los límites mínimos para otras clases de la misma clase. Las capas superiores no
cumplen con los mínimos especificados en las capas inferiores.
• Aunque no existan límites mínimos para las clases con compartimientos, el consumo de las clases no
reguladas depende de algún modo de las clases con compartimientos ya que compiten por parte del
recurso disponible para la capa. Es necesario experimentar para ver el comportamiento con una carga
de trabajo determinada.
Si no se especifica el número de compartimientos, se utilizará el valor predeterminado "-" y la clase no
tendrá regulación para este recurso. Tenga en cuenta que en la primera versión de WLM, el valor
predeterminado de compartimientos, si no se especificaba, era 1.
Los compartimientos se especifican por clase para todos los tipos de recursos. Los compartimientos se
especifican en stanzas del archivo shares. Por ejemplo:

compartimientos
nombre de clase:
CPU = 2
memory = 4
diskIO = 3

Especificación de límites de recursos en el Gestor de carga de trabajo


Además de utilizar compartimientos para definir las autorizaciones de recursos relativas, WLM
proporciona la posibilidad de especificar límites de recursos para una clase. Los límites de recursos
permiten al administrador tener más control sobre la asignación de recursos. Estos límites se especifican
como porcentajes y son relativos a la cantidad de recurso disponible para la capa en la que está la clase.
Hay tres tipos de límites para la regulación basada en porcentajes:
Mínimo
Se trata de la cantidad mínima de un recurso que debe estar disponible para la clase. Si el consumo
real de la clase está por debajo de este valor, la clase obtendrá la prioridad más alta de acceso para el
recurso. Los valores posibles son de 0 a 100, siendo 0 el valor predeterminado (si no se especifica).
Máximo flexible
Se trata de la cantidad máxima de un recurso que una clase puede consumir cuando hay contención
por ese recurso. Si el consumo de la clase excede de este valor, la clase obtendrá la prioridad más
baja de la capa. Si no hay contención por el recurso (de otras clases de la misma capa), la clase podrá
consumir tanto como desee. Los valores posibles son de 1 a 100, siendo 100 el valor predeterminado
(si no se especifica).
Máximo fijo
Se trata de la cantidad máxima de un recurso que una clase puede consumir, incluso cuando no hay
contención. Si la clase alcanza este límite, no tendrá permitido consumir más cantidad del recurso
hasta que el porcentaje de consumo caiga por debajo del límite. Los valores posibles son de 1 a 100,
siendo 100 el valor predeterminado (si no se especifica).
Los valores de límites de recursos se especifican en el archivo de límites de recursos por tipo de recurso,
dentro de stanzas para cada clase. Los límites se especifican como un rango de mínimo a máximo flexible,
separados por un guión (-) y se pasan por alto los espacios en blanco. Cuando se especifica el máximo fijo
va a continuación del máximo flexible, separado por un punto y coma (;). Cada valor de límite va seguido
de un signo de porcentaje (%).

Gestión de dispositivos 159


Los ejemplos siguientes utilizan los archivos de reglas:
• Si el usuario joe del grupo acct3 ejecuta /bin/vi, el proceso se colocará en la superclase acctg.
• Si el usuario sue del grupo dev ejecuta /bin/emacs, el proceso se colocará en la superclase devlt
(coincidencia de ID de grupo), pero no se clasificará en la subclase editors, porque el usuario sue está
excluido de esa clase. El proceso irá a devlt, el valor predeterminado.
• Cuando un administrador de bases de datos inicia /usr/sbin/oracle con un ID de usuario oracle y
un ID de grupo dbm, para servir la base de datos DB1, el proceso estará clasificado en la superclase
predeterminada. Sólo si el proceso establece su código en _DB1 se asignará a la superclase db1.
Se especifican límites para todos los tipos de recursos, por clases, en stanzas del archivo limits. Por
ejemplo:

compartimientos
nombre de clase:
CPU = 0%-50%;80%
memory = 10%-30%;50%

En este ejemplo, no se establece ningún límite para la E/S de disco. Si se utilizan los valores
predeterminados del sistema, se traduce en lo siguiente:

diskIO = 0%-100%;100%

Todos los ejemplos precedentes suponen que las superclases y subclases descritas no tienen el atributo
de herencia activado. De lo contrario, los nuevos procesos heredarían la superclase o la subclase de su
padre.
Las únicas restricciones que WLM coloca en los valores de límites de recursos son:
• El límite mínimo debe ser inferior o igual al límite máximo flexible.
• El límite máximo flexible debe ser inferior o igual al límite máximo fijo.
• La suma del mínimo de todas las superclases dentro de una capa no puede exceder de 100.
• La suma del mínimo de todas las subclases de una superclase determinada dentro de una capa no
puede exceder de 100.
Cuando una clase con un límite fijo de memoria ha alcanzado el límite y pide más páginas, se inicia el
algoritmo de sustitución de páginas (LRU) de VVM y "quita" páginas de la clase limitada, reduciendo así el
número de páginas por debajo del máximo fijo, antes de manejar nuevas páginas. Este comportamiento
es correcto, pero la actividad de paginación adicional, que puede tener lugar aunque haya suficientes
páginas libres disponibles, influye en el rendimiento general del sistema. Se recomienda utilizar límites
mínimos de memoria para otras clases antes de imponer un máximo fijo de memoria para cualquier clase.
Puesto que las clases por debajo de su mínimo tienen la prioridad más alta de su capa, la suma de los
mínimos debe mantenerse en un nivel razonable, basándose en los requisitos de recursos de las demás
clases de la misma capa.
La restricción de que la suma de los límites mínimos en una capa debe ser inferior o igual a 100 significa
que una clase de la capa de prioridad más alta siempre tiene permitido obtener recursos hasta su límite
mínimo. WLM no garantiza que la clase vaya a alcanzar realmente su límite mínimo. Esto depende de la
forma en que los procesos de la clase utilizan sus recursos y de otros límites que están en vigor. Por
ejemplo, es posible que una clase no alcance su autorización de CPU mínima porque no puede obtener
suficiente memoria.
Para la memoria física, el establecimiento de un límite mínimo de memoria proporciona alguna protección
para las páginas de memoria de los procesos de la clase (como mínimo para los de la capa de prioridad
más alta). No se deben quitar páginas de una clase cuando está por debajo de su límite mínimo, a menos
que todas las clases activas estén por debajo de su límite mínimo y una de ellas pida más páginas. Nunca
se deben quitar páginas de una clase de la capa más alta cuando está por debajo de su mínimo. El
establecimiento de límites mínimos de memoria para una clase de trabajos interactivos ayuda a
garantizar que no se quitarán todas sus páginas entre activaciones consecutivas (aunque la memoria esté
ajustada) y mejora el tiempo de respuesta.

160 AIX Versión 7.2: Gestión de dispositivos


Atención: La utilización de límites máximos fijos puede influir significativamente en el rendimiento
del sistema o la aplicación, si no se utiliza adecuadamente. Puesto que la imposición de límites
fijos puede dar lugar a que no se utilicen recursos del sistema, en la mayoría de casos, los límites
máximos flexibles son más adecuados. La utilización de límites máximos fijos puede servir para
limitar el consumo de una capa superior a fin de que haya recurso disponible en una capa inferior,
aunque poner las aplicaciones que necesitan recursos en la capa superior puede ser una solución
mejor.
Los límites totales se pueden especificar en el archivo de límites con los valores y unidades que se
resumen en la tabla siguiente:

Tabla 8. Límites de recursos para el Gestor de carga de trabajo


Recurso Unidades Unidad Valor máximo Valor mínimo
permitidas predeterminada
totalCPU s, m, h, d, w s 230 – 1s 10 s
totalDiskIO KB, MB, TB, PB, EB KB (263 – 1) * 1 MB
512/1024 KB
totalConnectTime s, m, h, d, w s 263 – 1 s 5m
totalProcesses – – 263 –1 2
totalThreads – – 263 – 1 2
totalLogins – – 263 – 1 1

Nota: Los especificadores de unidades no son sensibles a las mayúsculas y minúsculas. s = segundos, m
= minutos, h = horas, d = días, w = semanas, KB = kilobytes, MK = megabytes, ... etc.
Un ejemplo de stanza de límites sería el siguiente:

BadUserClass:
totalCPU = 1m
totalConnectTime = 1h

Los límites totales se pueden especificar utilizando cualquier valor de la tabla anterior con las
restricciones siguientes:
• Si se especifica, el valor de totalThreads debe ser como mínimo el valor de totalProcesses.
• Si se especifica totalThreads y totalProcesses no, el límite para totalProcesses se establecerá en el
valor de totalThreads.
Los límites totales se pueden especificar a nivel de superclase y subclase. Al comprobar los límites, se
comprueba el límite de subclase antes del límite de superclase. Si se especifican ambos límites, se aplica
el inferior de los dos. Si el límite de subclase especificado es mayor que el límite de superclase asociado,
se emitirá un aviso cuando se cargue la configuración, pero se cargará. Esto es significativo para los
límites totales de clases ya que el límite es absoluto (no relativo a la superclase) y una subclase podría
consumir todos los recursos disponibles para la superclase. Si no se especifica, el valor predeterminado
para todos los límites totales es "-" que significa sin límites. De forma predeterminada, la contabilidad y la
regulación de los totales de clases y procesos estarán habilitadas cuando se ejecute WLM. La opción -T
[class|proc] del mandato wlmcntrl se puede utilizar para inhabilitar la contabilidad y la regulación de
los totales.

Prioridad de clases en el Gestor de carga de trabajo


WLM asigna recursos a las clases otorgando una prioridad a cada clase para cada recurso.
La prioridad de una clase es dinámica y se basa en la capa, los compartimientos, los límites y el consumo
actual de la clase. En cualquier momento, la clase o clases de prioridad más alta obtendrán acceso
preferencial a los recursos. En el nivel más alto, las capas representan rangos que no se solapan de
prioridades de clases. Las clases de la capa 0 siempre tendrán garantizada una prioridad superior a las
clases de la capa 1 (a menos que se encuentre por encima del máximo fijo).

Gestión de dispositivos 161


Al determinar la prioridad de clases, WLM fuerza sus restricciones con la prioridad siguiente (de la más
alta a la más baja):
límites fijos
Si el consumo de clase excede del máximo fijo para un recurso, la clase obtiene la prioridad más baja
posible para el recurso y se le denegará el acceso hasta que su consumo caiga por debajo de este
límite.
capa
En ausencia de límites fijos, una prioridad de clase estará limitada por las prioridades mínima y
máxima permitidas para su capa.
límites flexibles
Si el consumo de la clase está por debajo del mínimo de los límites máximos flexibles para un recurso,
se otorga a la clase la prioridad más alta de la capa. Si el consumo de la clase está por encima del
máximo flexible, se otorga a la clase la prioridad más baja de la capa.
compartimientos
Se utilizan para calcular los objetivos de consumo de la clase para cada recurso. La prioridad de la
clase aumenta a medida que el consumo de la clase cae por debajo del objetivo, y disminuye a
medida que sube por encima del objetivo. Tenga en cuenta que los límites flexibles tienen la prioridad
más alta y la prioridad de la clase se determinará basándose en ellos, cuando proceda.
Aunque se pueden utilizar compartimientos y límites para cada clase y recurso, los resultados son más
previsibles si sólo se utiliza uno de ellos por clase.

Conjuntos de recursos de procesador de uso exclusivo


Los conjuntos de recursos de procesador de uso exclusivo (XRSET) permiten a los administradores
garantizar recursos para trabajos importantes. Un XRSET es un conjunto de recursos con nombre que
cambia el comportamiento de todas las CPU que incluye. Cuando una CPU es exclusiva, sólo ejecuta los
programas dirigidos explícitamente a ella.
Creación de un XRSET
Debe ser un usuario root para crear un XRSET. Utilice el mandato mkrset para crear un conjunto de
recursos en el espacio de nombres sysxrset. Por ejemplo, el mandato mkrset -c 1-3
sysxrset/set1 crea un XRSET para las CPU 1, 2 y 3. También se puede utilizar la subrutina
rs_registername() para crear un XRSET.
Determinación de si se han definido XRSET en un sistema
El mandato lsrset -v -n sysxrset visualiza todos los XRSET definidos en un sistema. (No existe
actualmente ninguna API de programación para ello.)
Supresión de un XRSET
Debe ser usuario root para suprimir un XRSET. El mandato rmrset suprime un XRSET. La subrutina
rs_discardname() también se puede utilizar para suprimir un XRSET.
Rearranque del sistema
Al rearrancar el sistema, los XRSET establecidos se eliminan del registro y ya no están en vigor.
Especificación de trabajo para los XRSET
Hay múltiples maneras de marcar trabajo como elegible para utilizar procesadores de uso exclusivo.
Se pueden utilizar los mandatos attachrset y execrset para especificar conjuntos de recursos
que contienen procesadores de uso exclusivo. Los conjuntos de recursos que contienen procesadores
de uso exclusivo se pueden asociar a clases de WLM. El trabajo clasificado en estas clases de WLM
utilizarán los procesadores de uso exclusivo especificados en el conjunto de recursos.
Utilización de XRSET con Bindprocessor y _system_configuration.ncpus
No puede utilizar bindprocessor para que un trabajo se ejecute en procesadores de uso exclusivo.
Sólo las conexiones basadas en el conjunto de recursos hacen que el trabajo se ejecute en
procesadores de uso exclusivo.

162 AIX Versión 7.2: Gestión de dispositivos


El número de CPU de la configuración del sistema (el campo _system_configuration.ncpus) no se
cambia cuando se crean los XRSET. Siguen existiendo NCPU en el sistema.
Cuando los programas utilizan la llamada al sistema bindprocessor para NCPU, las CPU de los
XRSET fallarán con el error EINVAL. Puede realizar una vinculación con cualquier ID devuelto por la
opción de consulta del mandato bindprocessor. La opción de consulta (bindprocessor -q) sólo
devuelve los ID de vinculación válidos, excluyendo los que están asociados a CPU exclusivas.
Por ejemplo, si hay 10 CPU en línea en un sistema y tres de ellas están en XRSET, un mandato
bindprocessor para las CPU con ID de vinculación en el rango de 0 a 6 será satisfactorio. Un
mandato bindprocessor para las CPU con ID de vinculación en el rango de 7 a 9 recibirá un error
EINVAL.
Utilización de XRSET con operaciones de reconfiguración dinámica de CPU
En general, la reconfiguración dinámica de CPU no se ve afectada por los procesadores de uso
exclusivo. Sin embargo, la creación de XRSET y la asignación de trabajo a esos procesadores pueden
impedir la eliminación de una CPU. Las CPU que se añaden dinámicamente al sistema pueden entrar
en él como procesadores de uso general o de uso exclusivo. Entrarán en el sistema como de uso
exclusivo si existe un XRSET que contiene el ID de CPU lógica cuando entra en el sistema.

Conjuntos de recursos en el Gestor de carga de trabajo


WLM utiliza los conjuntos de recursos (o rsets) para restringir los procesos de una clase determinada a un
subconjunto de recursos físicos del sistema. En WLM, los recursos físicos gestionados son la memoria y
los procesadores. Un conjunto de recursos válido está compuesto de memoria y como mínimo un
procesador.
Con SMIT, un administrador del sistema puede definir y poner nombre a conjuntos de recursos que
contienen un subconjunto de los recursos disponibles en el sistema. Después, con las interfaces de
administración de WLM, el usuario root o un administrador de superclase designado puede utilizar el
nombre del conjunto de recursos como el atributo rset de una clase de WLM. En adelante, todos los
procesos asignados a esta clase de WLM se despachan sólo en uno de los procesadores del conjunto de
recursos, separando efectivamente las cargas de trabajo para el recurso de CPU.
Todos los sistemas actuales tienen sólo un dominio de memoria compartida por todos los conjuntos de
recursos, por lo que este método no separa físicamente las cargas de trabajo de la memoria.

Registro de conjuntos de recursos en el Gestor de carga de trabajo


Los servicios del registro de rset permiten a los administradores del sistema definir y poner nombre a
los conjuntos de recursos para que otros usuarios o aplicaciones puedan utilizarlos.
Para reducir los riesgos de colisiones de nombres, el registro soporta un esquema de denominación de
dos niveles. El nombre de un conjunto de recurso está en el formato espacio_nombres/nombre_rset.
Tanto espacio_nombres como nombre_rset pueden tener cada uno una longitud de 255 caracteres, son
sensibles a las mayúsculas y las minúsculas y sólo pueden contener letras en mayúsculas y minúsculas,
números, subrayados y puntos (.). El espacio_nombres de sys está reservado para el sistema operativo y
se utiliza para las definiciones de rset que representan los recursos del sistema.
Los nombres de definición de rset son exclusivos dentro del espacio de nombres del registro. La adición
de una nueva definición de rset al registro utilizando el mismo nombre que una definición de rset
existente hace que la definición existente se sustituya por la nueva definición, siempre que se disponga
del permiso y privilegio adecuados. Sólo root puede crear, modificar y suprimir los conjuntos de recursos
y actualizar la base de datos de rset en imagen de memoria utilizando SMIT.
Cada definición de rset tiene un propietario (ID de usuario), un grupo (ID de grupo) y los permisos de
acceso asociados. Éstos se especifican en el momento de crear la definición de rset y sirven para el
control de acceso. Como el caso de los archivos, existen permisos de acceso independientes para el
propietario, el grupo y otros que definen si se ha otorgado el permiso de lectura y/o grabación. El permiso
de lectura permite recuperar una definición de rset mientras que el permiso de grabación permite
modificar o eliminar una definición de rset.
Las definiciones rset definidas por los administradores del sistema se conservan en el archivo de
stanza /etc/rsets. El formato de este archivo no se describe, y los usuarios deben manipular los rset

Gestión de dispositivos 163


con las interfaces de SMIT para evitar posibles problemas de compatibilidad en el futuro si se modifica el
formato del archivo. Igual que las definiciones de clases de WLM, las definiciones de rset se deben
cargar en estructuras de datos de kernel antes de que WLM pueda utilizarlas.

Configuración del Gestor de carga de trabajo


Se pueden especificar definiciones de clases, atributos de clases, compartimientos y límites y reglas de
asignación automática de clases utilizando SMIT o la interfaz de línea de mandatos de WLM. Estas
definiciones y reglas se conservan en archivos de texto plano, que también se pueden crear o modificar
utilizando un editor de texto.
Estos archivos (denominados archivos de propiedades de WLM) se conservan en los subdirectorios
de /etc/wlm. Un conjunto de archivos, que describen las superclases y las subclases asociadas, definen
una configuración de WLM. Los archivos para la configuración de Config de WLM se encuentran
en /etc/wlm/Config. Este directorio contiene las definiciones de los parámetros de WLM para las
superclases. Los archivos se denominan description, classes, shares, limits y rules. Este
directorio también puede contener subdirectorios con el nombre de la superclase donde se conservan las
definiciones de subclase. Por ejemplo, para la superclase Super de la configuración de WLM Config, el
directorio /etc/wlm/Config/Super contiene los archivos de propiedades para las subclases de la
superclase Super. Los archivos se denominan description, classes, shares, limits y rules.
Cuando el administrador del sistema ha definido una configuración de WLM, se puede convertir en la
configuración activa utilizando la vía rápida smit wlmmanage o el mandato wlmcntrl.
Puede definir múltiples conjuntos de archivos de propiedades, definiendo diferentes configuraciones de
gestión de carga de trabajo. Normalmente, estas configuraciones están ubicadas en subdirectorios
de /etc/wlm. El enlace simbólico /etc/wlm/current apunta al directorio que contiene los archivos de
la configuración actual. El mandato wlmcntrl actualiza este enlace cuando WLM se inicia con un
conjunto de archivos de configuración especificado.

Requisitos de aplicaciones para la configuración del Gestor de carga de trabajo


La primera fase de la definición de una configuración requiere la comprensión de los usuarios y el cálculo
de sus necesidades, así como de las aplicaciones del sistema, las necesidades de recursos y los
requisitos de la empresa (por ejemplo, las tareas importantes y las que pueden tener una prioridad
inferior). Basándose en esta comprensión, se definen las superclases y después las subclases.
El establecimiento de prioridades depende de la función que realiza WLM en la organización. En caso de
consolidación de servidores, es posible que conozca los requisitos de las aplicaciones, los usuarios y los
recursos, y quizá pueda saltarse o reducir algunos de estos pasos.
WLM permite clasificar los procesos por usuario o grupo, aplicación, tipo, código o una combinación de
estos atributos. Puesto que WLM regula la utilización de recursos entre las clases, los administradores del
sistema deben agrupar las aplicaciones y los usuarios con los mismos patrones de utilización de recursos
en las mismas clases. Por ejemplo, para separar los trabajos interactivos, que normalmente consumen
muy poco tiempo de CPU pero necesitan un tiempo de respuesta rápido, de los trabajos por lotes que
normalmente utilizan mucha CPU y memoria. Es lo mismo que en un entorno de bases de datos en el que
debe separar el tráfico de tipo OLTP de las consultas con más obligaciones de minería de datos.
Este paso se realiza utilizando SMIT o la interfaz de línea de mandatos. Las primeras veces,
probablemente sea mejor utilizar SMIT para seguir los pasos de cómo crear la primera configuración de
WLM, incluyendo la definición de superclases y el establecimiento de sus atributos. La primera vez, puede
configurar algunos atributos y dejar los demás con sus valores predeterminados. Es lo mismo para los
compartimientos y límites de recursos. Todas estas características de clases se pueden modificar
dinámicamente en un momento posterior.
Después, puede iniciar WLM en modalidad pasiva, comprobar la clasificación e iniciar la revisión de los
patrones de utilización de recursos de las aplicaciones.
Verifique la configuración, utilizando el mandato wlmcheck o los menús correspondientes de SMIT.
Después, inicie WLM en modalidad pasiva en la configuración que acaba de definir. WLM clasificará todos
los procesos existentes (y todos los procesos creados a partir de ese punto) y empezará a compilar

164 AIX Versión 7.2: Gestión de dispositivos


estadísticas sobre la utilización de CPU, memoria y E/S de disco de las distintas clases. WLM no intentará
regular el uso de recursos.
Verifique que los distintos procesos estén clasificados en la clase adecuada, tal como espera el
administrador del sistema (utilizando el distintivo -o del mandato ps). Si algunos de los procesos no se
han clasificado tal como esperaba, puede modificar las reglas de asignación o establecer el bit de
herencia para algunas de las clases (si desea que los nuevos procesos permanezcan en la misma clase
que su padre) y actualizar WLM. Puede repetir el proceso hasta que esté satisfecho con este primer nivel
de clasificación (superclases).
La ejecución de WLM en modalidad pasiva y la renovación de WLM (siempre en modalidad pasiva) implica
un riesgo bajo, comporta poca sobrecarga y se puede realizar de forma segura en un sistema de
producción sin interrumpir el funcionamiento normal del sistema. Para activar y renovar WLM, utilice el
mandato wlmcntrl, invocado desde la línea de mandatos o desde SMIT.
Ejecute WLM en modalidad pasiva para recopilar estadísticas utilizando el mandato wlmstat. El mandato
wlmstat se puede utilizar a intervalos de tiempo regulares para visualizar la utilización de recursos por
clase como porcentaje del recurso total disponible, para superclases. Esto permite supervisar el sistema
durante periodos amplios de tiempo para revisar la utilización de recursos de las aplicaciones principales.

Capas, compartimientos y límites en el Gestor de carga de trabajo


Con los datos reunidos al ejecutar WLM en modalidad pasiva y los objetivos de la empresa, decida el
número de capas que dará a cada superclase y el compartimiento de cada recurso que debe darse a las
distintas clases.
En algunas clases, puede que sea aconsejable definir los límites mínimo y máximo. Ajuste los números de
compartimientos y capas para lograr los objetivos de asignación de recursos. Reserve los límites para
casos que no se pueden resolver con compartimientos solamente. Además, puede decidir si debe añadir
subclases.
• Utilice los límites mínimos para aplicaciones que normalmente tienen un uso bajo de recursos pero
necesitan un tiempo de respuesta rápido cuando un suceso externo las activa. Uno de los problemas a
los que se enfrentan los trabajos interactivos en situaciones en las que la memoria está ajustada es que
les quiten las páginas durante los periodos de inactividad. Se puede utilizar un límite mínimo de
memoria para proteger algunas de las páginas de los trabajos interactivos si la clase está en la capa 0.
• Utilice límites máximos para contener algunos trabajos de baja prioridad y que utilizan muchos
recursos. A menos que particione los recursos del sistema por otras razones, generalmente tendría
sentido establecer un máximo fijo para un recurso no renovable como la memoria. Esto es debido al
tiempo que se tarda en grabar los datos en el espacio de paginación si una clase de prioridad superior
necesita páginas que la primera clase ha utilizado. Para el uso de CPU, puede utilizar capas o el máximo
flexible para garantizar que se asigna inmediatamente tiempo de CPU a una clase de prioridad superior.
Al crear y ajustar los parámetros de subclases, puede renovar WLM sólo para las subclases de una
superclase determinada que no afectan a los usuarios y aplicaciones de otras superclases, hasta que esté
satisfecho con el comportamiento del sistema.
También puede definir otras configuraciones con diferentes parámetros, según las necesidades de la
empresa. Al hacerlo, puede ahorrarse tiempo copiando y modificando configuraciones existentes.

Ajuste fino de la configuración del Gestor de carga de trabajo


Supervise el sistema utilizando el mandato wlmstat y verifique que la regulación que WLM ha realizado
se alinea con sus objetivos y no priva excesivamente de recursos a algunas aplicaciones mientras que
otras obtienen más de lo que deben. Si este es el caso, ajuste los compartimientos y renueve WLM.
A medida que supervise y ajuste los compartimientos, límites y números de capa, decida si desea delegar
la administración de las subclases de algunas o todas las superclases. El administrador puede supervisar
y configurar los compartimientos, los límites y el número de capas de la subclase.
El administrador de cada superclase puede repetir este proceso para las subclases de cada superclase.
La única diferencia es que WLM no puede ejecutarse en modalidad pasiva sólo en el nivel de subclase. La
configuración y el ajuste de subclases se deben realizar con WLM en modalidad activa. Una manera de no
influir en los usuarios y las aplicaciones de la superclase es iniciar el número de capa, y los

Gestión de dispositivos 165


compartimientos y los límites de la subclase en su valor predeterminado ('-' (guión) para los
compartimientos, 0% para el mínimo y 100% para el máximo variable y fijo). Con estos valores, WLM no
regulará la asignación de recursos entre las subclases.

Resolución de problemas del Gestor de carga de trabajo


Si no observa el comportamiento deseado con la configuración actual, es posible que deba ajustar la
configuración de WLM.
Los valores de consumo de cada clase se pueden supervisar utilizando el mandato wlmstat. Estos datos
se pueden recopilar y analizar como ayuda para determinar los cambios que pueden ser necesarios en la
configuración. Tras actualizar la configuración, actualice la configuración de WLM activa utilizando el
mandato wlmcntrl -u.
Las directrices siguientes pueden ayudarle a decidir los cambios de la configuración:
• Si el número de compartimientos activos de una capa varía mucho con el tiempo, puede no dar ningún
compartimiento para un recurso a una clase a fin de que pueda tener un objetivo de consumo
independiente del número de compartimientos activos. Esta técnica es útil para clases importantes que
necesitan acceso de alta prioridad a un recurso.
• Si necesita garantizar el acceso a una determinada cantidad de un recurso, especifique los límites
mínimos. Esta técnica es útil para trabajos interactivos que no consumen grandes cantidades de
recursos, pero deben responder rápidamente a sucesos externos.
• Si necesita limitar el acceso a recursos pero los compartimientos no proporcionan suficiente control,
especifique límites máximos. En la mayoría de casos, los límites máximos flexibles son adecuados, pero
se pueden utilizar máximos fijos para una aplicación estricta. Puesto que los límites máximos fijos
pueden dar lugar al desaprovechamiento de recursos del sistema y pueden aumentar la actividad de
paginación cuando se utilizan para la regulación de la memoria, debe imponer límites mínimos para las
demás clases antes de imponer un límite fijo.
• Si trabajos menos importantes interfieren con trabajos más importantes, ponga los trabajos menos
importantes en una capa inferior. Esta técnica garantiza que los trabajos menos importantes tengan una
prioridad inferior y no puedan competir por recursos disponibles mientras los trabajos más importantes
están en ejecución.
• Si una clase no puede alcanzar su objetivo de consumo para un recurso, compruebe si esta condición
está provocada por una contención por otro recurso. Si es así, cambie la asignación de clase para el
recurso en contención.
• Si los procesos de una clase varían mucho en sus comportamientos o en el consumo de recursos, cree
más clases para obtener un control más granular. Además, puede ser aconsejable crear una clase
independiente para cada aplicación importante.
• Si el análisis muestra que el recurso necesario para una clase depende del consumo de otra clase,
reasigne los recursos de acuerdo a ello. Por ejemplo, si la cantidad de recurso necesaria para ClassZ
depende del número de peticiones de trabajo que ClassA puede manejar, entonces ClassA debe tener
garantizado el acceso a suficientes recursos para proporcionar lo que ClassZ necesita.
• Si sistemáticamente una o varias aplicaciones no reciben suficientes recursos para ejecutar
adecuadamente, la única opción puede ser reducir la carga de trabajo del sistema.
Nota: Puede definir un adminuser para una superclase a fin de reducir la cantidad de trabajo que se
necesita del administrador de WLM. Tras probar y ajustar la configuración de nivel superior, los
adminusers de la superclase pueden hacer cambios subsiguientes (incluyendo la creación y configuración
de subclases) para satisfacer determinadas necesidades.

API del Gestor de carga de trabajo


Las aplicaciones pueden utilizar las API de WLM, un conjunto de rutinas de la biblioteca /usr/lib/
libwlm.a, para efectuar todas las tareas que un administrador de WLM puede realizar utilizando la
interfaz de línea de mandatos de WLM.
Algunos de ellas son:

166 AIX Versión 7.2: Gestión de dispositivos


• La creación, modificación o supresión de clases
• El cambio de los atributos de clase o los compartimientos y límites de recursos
• La eliminación de clases
• La asignación manual de procesos a clases
• La recuperación de estadísticas de WLM
La API permite que las aplicaciones establezcan un atributo de clasificación definido por la aplicación
denominado código. El establecimiento de este código utilizando un conjunto de valores proporcionados
por el administrador del sistema (mediante la documentación del usuario de la aplicación) permite la
discriminación entre varias instancias de la misma aplicación. Por lo tanto, las diferentes clases pueden
clasificarse con diferentes autorizaciones de recursos.
Además, la rutina wlm_set_tag permite que una aplicación configure un código de aplicación y
especifique si los procesos hijo deben heredar este código en fork o exec. También se pueden asignar
hebras a los códigos de aplicación con el código wlm_set_thread. Un código de aplicación de una hebra
se puede heredar en las subrutinas fork, exec o pthread_create. La biblioteca proporciona soporte para
las aplicaciones de 32 o 64 bits del múltiples hebras.

Código de aplicación
El código de aplicación es una serie de caracteres y se utiliza como uno de los criterios de la clasificación
automática de procesos o hebras (utilizando el archivo rules). Este código proporciona básicamente
unos criterios de clasificación definidos por la aplicación además de los criterios definidos por el sistema
como, por ejemplo, usuario, grupo, aplicación y tipo.
Cuando un proceso o hebra de aplicación establece el código, se vuelve a clasificar inmediatamente
utilizando las reglas de superclase y subclase en vigor para la configuración de WLM activa actualmente.
WLM después revisa las reglas de asignación buscando una coincidencia, utilizando todos los atributos de
proceso, incluido el nuevo código.
Para que sea efectivo, el código debe aparecer en una o varias reglas de asignación. El formato y el uso de
los distintos códigos por cada aplicación se debe especificar con claridad en la documentación de
administración de la aplicación y los administradores de WLM deben conocerlos bien, para poder utilizar
los distintos valores de los códigos en sus reglas de asignación y distinguir entre las diferentes instancias
de la misma aplicación.
Puesto que usuarios diferentes pueden tener requisitos distintos en cuanto al conjunto de características
de los procesos de aplicación que desean utilizar para clasificar esos procesos, se recomienda que la
aplicación proporcione un conjunto de atributos de configuración o de tiempo de ejecución que se pueda
utilizar para construir el código. El administrador de la aplicación puede especificar el formato de este
código en la aplicación. Los atributos que se pueden utilizar para el código y la sintaxis para especificar el
formato del código de WLM dependen de la aplicación y son responsabilidad del proveedor de la
aplicación.
Por ejemplo, una instancia de un servidor de bases de datos puede determinar la base de datos en la que
trabaja (nombre_bd) y a través de qué puerto TCP está conectado un usuario determinado (núm_puerto).
Los administradores pueden tener cualquiera de las prioridades siguientes:
• Crear clases diferentes para los procesos que acceden a diferentes bases de datos a fin de dar a cada
clase una autorización de recursos diferente
• Separar los procesos que sirven peticiones remotas de diferentes orígenes y utilizar el número de
puerto como un atributo de clasificación
• Crear una superclase para cada base de datos y subclase por número de puerto en cada superclase.
Una manera de acomodar estas necesidades diferentes es especificar el contenido y el formato del
código. En este ejemplo, suponga que el código se puede pasar a la aplicación en un archivo de
configuración o parámetro de tiempo de ejecución como WLM_TAG=$nombre_bd o WLM_TAG=
$nombre_bd_$núm_puerto.

Gestión de dispositivos 167


Al establecer el código, una aplicación puede especificar si sus hijos se hereda para que todos los
procesos creados por una instancia específica de una aplicación se puedan clasificar en la misma clase. El
establecimiento de la herencia de código es la forma más común de utilizar el código de aplicación.
En el ejemplo siguiente se muestra cómo se pueden utilizar los códigos de aplicación. En este ejemplo, el
código de la base de datos es igual que el nombre de base de datos. Después, dos instancias del servidor
que trabajan en dos bases de datos diferentes configurarán dos códigos diferentes, por ejemplo db1 y
db2.
Un administrador del sistema creará las dos clases diferentes dbserv1 y dbserv2 y clasificará los dos
servidores de bases de datos (y todos sus hijos, si se utiliza la herencia de códigos) en estas clases
utilizando los códigos. Después será posible dar a cada clase una autorización de recursos diferente
según el objetivo específico de la empresa.
Las reglas de asignación correspondientes serían similares a las siguientes:

* clase resvd usu. grupo aplicación tipo cód.


*
dbserv1 - - dbadm /usr/sbin/dbserv - db1
dbserv2 - - dbadm /usr/sbin/dbserv - db2

Tipos de interfaces de programación de aplicaciones


Los tipos de interfaces de programación de aplicaciones del Gestor de carga de trabajo (WLM) son los
siguientes.
API de la gestión de clases
La API de WLM proporciona a las aplicaciones la posibilidad de:
• Consultar los nombres y las características de las clases existentes de una configuración de WLM
determinada (wlm_read_classes).
• Crear una nueva clase para una configuración de WLM determinada, definir los valores de los
distintos atributos de la clase (por ejemplo, las capas y la herencia) y los compartimientos y límites
para los recursos gestionados por WLM como, por ejemplo, la CPU, la memoria física y la E/S de
bloque (wlm_create_class).
• Cambiar las características de una clase existente de una configuración de WLM determinada,
incluyendo los atributos de clase y los compartimientos y límites de recursos
(wlm_change_class).
• Suprimir una clase existente de una configuración determinada (wlm_delete_class).
Los cambios sólo se aplicarán a los archivos de propiedades de la configuración de WLM especificada.
Opcionalmente, mediante la especificación de una serie vacía como nombre de configuración, se
puede aplicar el cambio sólo a las clases de la imagen de la memoria, lo que da lugar a una
actualización inmediata del estado de la configuración activa.
El emisor de las llamadas a la API debe tener el mismo nivel de privilegio que se necesitaría para la
línea de mandatos o para la interfaz de SMIT, de esta manera:
• Cualquier usuario puede leer los nombres y características de las clases
• Sólo el usuario root puede crear, modificar o suprimir las superclases
• Sólo el usuario root o los administradores de superclase designados (atributos de superclase
adminuser o admingroup) pueden crear, modificar o suprimir las subclases de una superclase
determinada.
En los casos en que la administración de WLM se realice por los administradores de WLM mediante la
línea de mandatos y con las herramientas de administración, y por aplicaciones mediante la API, se
debe tener cuidado. Ambas interfaces comparten el mismo espacio de nombres para los nombres de
superclase y subclase, y el número total de superclases y subclases.
Además, cuando la API modifica directamente los datos de WLM en la imagen de la memoria (por
ejemplo, crea nuevas clases), los administradores de WLM no lo saben hasta que las clases que no
han creado aparecen en la salida de mandatos como, por ejemplo, wlmstat. Para evitar conflictos

168 AIX Versión 7.2: Gestión de dispositivos


que confundirían a las aplicaciones que utilizan esta API cuando el administrador del sistema
actualiza WLM, las clases creadas con la API que no están definidas en los archivos de propiedades
de WLM, no se eliminan automáticamente de los datos de la imagen de la memoria. Permanecen en
vigor hasta que se eliminan explícitamente mediante la rutina wlm_delete_class o mediante la
invocación del mandato rmclass (invocado directamente o mediante SMIT por el administrador del
sistema).
La API de WLM también proporciona a las aplicaciones la posibilidad de:
• Consultar o cambiar la modalidad de funcionamiento de WLM utilizando la función wlm_set
• Consultar el estado actual de WLM
• Detener WLM
• Conmutar entre las modalidades activa y pasiva
• Activar y desactivar la vinculación de rset
• Iniciar o actualizar WLM con la configuración actual o una alternativa utilizando la rutina wlm_load
• Asignar un proceso o un grupo de procesos a una clase utilizando la rutina wlm_assign.
La API necesita los mismos niveles de privilegios que los mandatos wlmcntrl y wlmassign
correspondientes:
• Cualquier usuario puede consultar el estado de WLM
• Sólo el usuario root puede cambiar la modalidad de operación de WLM
• Sólo el usuario root puede actualizar o renovar una configuración completa
• El administrador root o de superclase autorizado (adminuser o admingroup) puede actualizar
WLM para las subclases de una superclase determinada
• El usuario root, autorizado (especificado por authuser o authgroup), o un administrador de
superclase autorizado (adminuser o admingroup) puede asignar procesos a una superclase o
subclase.
API de estadísticas de WLM
Las rutinas de la API de WLM wlm_get_bio_stats proporcionan a las aplicaciones el acceso a las
estadísticas de WLM visualizadas por los mandatos wlmstat.
API de clasificación de WLM
La rutina wlm_check permite al usuario verificar las definiciones de clase y las reglas de asignación
para una configuración de WLM determinada. La rutina de API wlm_classify permite a una
aplicación determinar a qué clase pertenecería un proceso con un conjunto de atributos especificado.

Compatibilidad binaria
Para proporcionar compatibilidad binaria si hay cambios futuros en las estructuras de datos, se pasa a
cada llamada a API un número de versión como parámetro.
Esto permite a la biblioteca determinar la versión de las estructuras de datos que ha construido la
aplicación.

Ejemplos de clasificación, reglas y límites del Gestor de carga de trabajo


Existen varios métodos para clasificar un proceso y todos funcionan simultáneamente.
Se utiliza un algoritmo muy estricto de primera coincidencia, de arriba a abajo para proporcionar la
máxima flexibilidad de configuración. Puede organizar agrupaciones de procesos por usuario con casos
especiales para programas con nombres determinados, por nombre de vía de acceso con casos
especiales para determinados usuarios, o cualquier otra organización.

Gestión de dispositivos 169


Ejemplo de reglas de asignación del Gestor de carga de trabajo
Este ejemplo muestra un archivo rules de nivel superior para la configuración Config
(archivo /etc/wlm/Config/rules).

* Este archivo contiene las reglas que WLM utiliza para


* asignar un proceso a una superclase
*
* clase resvd usu. grupo aplicación tipo cód.
db1 - - - /usr/bin/oracle* _DB1
db2 - - - /usr/bin/oracle* _DB2
devlt - - dev - - -
VPs - bob,ted - - - -
acctg - - acct* - - -
System - root - - - -
Default - - - - - -

El ejemplo siguiente muestra el archivo rules para la superclase devlt del archivo /etc/wlm/
Config/devlt/rules:

* Este archivo contiene las reglas que WLM utiliza para


* asignar un proceso a una subclase de la
* superclase devlt
*
* clase resvd usu. grupo aplicación tipo cód.
hackers - jim,liz - - - -
hogs - - - - 64bit+plock -
editors - !sue - /bin/vi,/bin/emacs - -
build - - - /bin/make,/bin/cc - -
Default - - - - - -

Nota: El asterisco (*) es el carácter de comentario utilizado en el archivo rules.


Los ejemplos siguientes muestran la utilización de este archivo de reglas. Los ejemplos siguientes
suponen que las superclases y las subclases descritas no tienen activado el atributo de herencia. Si
estuviera habilitado, los nuevos procesos heredarían la superclase o la subclase de los procesos padre.
• Si el usuario joe del grupo acct3 ejecuta /bin/vi, el proceso se colocará en la superclase acctg.
• Si el usuario sue del grupo dev ejecuta /bin/emacs, el proceso se colocará en la superclase devlt
(coincidencia de ID de grupo), pero no se clasificará en la subclase editors, porque el usuario está
excluido de esa clase. El proceso irá a devlt de forma predeterminada.
• Cuando un administrador de bases de datos con un ID de usuario oracle y un ID de grupo dbm
inicia /usr/sbin/oracle para servir la base de datos DB1, el proceso se clasifica en la superclase
predeterminada. Sólo cuando el proceso establece su código en _DB1, se asignará a la superclase db1.

Ejemplo de clases del Gestor de carga de trabajo con compartimientos y límites


Para este ejemplo, suponga que las clases A, B, C y D tienen 3, 2, 1 y 1 compartimientos respectivamente
Si las clases A, C y D están activas, los objetivos calculados serían:

objetivo(A) = 3/5 = 60%


objetivo(C) = 1/5 = 20%
objetivo(D) = 1/5 = 20%

Si durante la prueba se encuentra que las aplicaciones de la clase A se ejecutan correctamente cuando
tienen permitido utilizar el 50% del recurso, puede ser aconsejable hacer que el otro 50% del recurso
esté disponible para las demás clases. Esto se puede lograr dando a la clase A un máximo flexible del
50% para este recurso. Puesto que el objetivo actual calculado del 60% está por encima de este límite, se
ajustará a la baja hasta el valor del máximo flexible. Cuando ocurre esto, el objetivo o consumo real (el
que sea inferior) de la clase A se resta de la cantidad de recurso disponible. Puesto que esta clase tiene
ahora un objetivo restringido por su límite (y no sus compartimientos), los compartimientos de la clase
también se restan del número de compartimientos activos. Suponiendo que la clase A tiene un consumo
actual del 48%, los objetivos ahora serán:

objetivo(A) = 3/5 = 60%, máxflex = 50, = 50%


objetivo(C) = 1/2 * (100 - 48) = 26%
objetivo(D) = 1/2 * (100 - 48) = 26%

170 AIX Versión 7.2: Gestión de dispositivos


Más tarde, se pueden activar todas las clases, y los objetivos se volverán a ajustar automáticamente:

objetivo(A) = 3/7 = 42%


objetivo(B) = 2/7 = 28%
objetivo(C) = 1/7 = 14%
objetivo(D) = 1/7 = 14%

Ejemplo de clases del Gestor de carga de trabajo con límites de CPU


Este ejemplo examina la asignación de CPU, suponiendo que cada clase puede consumir toda la CPU que
se proporciona.
Las dos clases, A y B, están en la misma capa. Los límites de CPU para A son [30% - 100%]. Los límites de
CPU para B son [20% - 100%]. Cuando ambas clases están en ejecución y utilizan suficiente CPU, WLM
primero se asegura que ambas obtienen sus porcentajes mínimos de cada segundo (promedio sobre
varios segundos). Después WLM distribuye el resto de ciclos de CPU según los valores de compartimiento
objetivo de CPU.
Si los compartimientos objetivo de CPU para A y B son del 60 y el 40% respectivamente, la utilización de
CPU para A y B se estabiliza en el 60 y el 40% respectivamente.
Se añade una tercera clase, C. Esta clase es un grupo de trabajos vinculados a la CPU y se deben ejecutar
con aproximadamente la mitad (o más) de la CPU disponible. La clase C tiene los límites [20% - 100%] y
compartimientos objetivo de CPU del 100%. Si C está en la misma capa que A y B, cuando se inicia C, A y
B ven descender bruscamente su asignación de CPU y las tres clases se estabilizan en el 30, el 20 y el
50%, respectivamente. Sus objetivos en este caso también son el mínimo para A y B.
Es posible que un administrador del sistema no desee que los trabajos por lotes consuman el 50% de la
CPU cuando otros trabajos, posiblemente con una prioridad superior, están también en ejecución. En una
situación como el ejemplo anterior, C se coloca en una capa de prioridad inferior. C recibe la CPU que
queda después de que A y B reciban la que necesitan. En el ejemplo de más arriba, C no recibe tiempo de
CPU, porque A y B son capaces de absorber el 100% de la CPU. Sin embargo, en la mayoría de
situaciones, A y B, en una capa de prioridad alta, se componen de trabajos interactivos u orientados a
transacciones, que no utilizan toda la CPU todo el tiempo. C recibe algún compartimiento de CPU, para el
cual compite con otras clases de la misma capa u otras inferiores.

Ejemplo de clases de Gestor de carga de trabajo con límites de memoria


Este ejemplo examina la asignación de memoria a grupos de procesos con objetivos de memoria
variables.
Se van a ejecutar tres grupos de procesos: un grupo de procesos interactivos que se deben ejecutar
siempre que se utilizan (PEOPLE), un trabajo por lotes que siempre se ejecuta en el fondo (BATCH1) y un
segundo trabajo por lotes, más importante, que se ejecuta cada noche (BATCH0).
PEOPLE tiene un mínimo de memoria especificado del 20%, un objetivo de memoria de 50
compartimientos y el valor de capa de clase 1. Un límite mínimo del 20% garantiza que las aplicaciones
de esta clase se reanuden justamente cuando los usuarios toquen sus teclados.
BATCH1 tiene un mínimo de memoria del 50%, un objetivo de memoria de 50 compartimientos y el valor
de capa 3.
BATCH0 tiene un mínimo de memoria del 80%, un objetivo de memoria de 50 compartimientos y el valor
de capa 2.
Las clases PEOPLE y BATCH1 tienen un límite mínimo de memoria total de 70. Bajo un funcionamiento
normal (cuando BATCH0 no está en ejecución), ambas clases pueden obtener toda su memoria
reservada. Comparten el resto de la memoria de la máquina, aproximadamente la mitad cada una,
aunque estén en capas diferentes. A medianoche cuando se inicia BATCH0, el total de mínimo de
memoria alcanza 150. WLM pasa por alto los requisitos mínimos para las capas más bajas hasta que
salen los procesos de capas superiores. BATCH0 toma memoria de la reserva del 50% de BATCH1, pero
no de la reserva del 20% de PEOPLE. Cuando BATCH0 finaliza, las reservas de memoria para los procesos
de la capa 3 se satisfacen de nuevo y el sistema vuelve a su equilibrio de memoria normal.

Gestión de dispositivos 171


Mandatos del Gestor de carga de trabajo
WLM ofrece mandatos que permiten a los administradores del sistema realizar una variedad de funciones.
Algunos de ellas son:
• Crear, modificar y suprimir superclases y subclases, utilizando los mandatos mkclass, chclass, y
rmclass. Estos mandatos actualizan las clases, los compartimientos y los límites.
• Iniciar, detener y actualizar WLM, utilizando el mandato wlmcntrl.
• Comprobar los archivos de propiedades de WLM para una configuración dada y determinar a qué clase
(superclase y subclase) está asignado un proceso con un conjunto de atributos determinado utilizando
el mandato wlmcheck.
• Supervisar la utilización de recursos por clase utilizando el mandato wlmstat (ASCII). La mayoría de
herramientas de rendimiento como, por ejemplo, las iniciadas por los mandatos svmon y topas,
disponen de ampliaciones a fin de tener en cuenta las clases de WLM y proporcionar estadísticas por
clase y por capa utilizando nuevas opciones de línea de mandatos.
• Los distintivos del mandato ps permiten al usuario visualizar la clase en la que se encuentra un proceso
y su código de aplicación. El mandato ps también permite al usuario listar todos los procesos que
pertenecen a una superclase o subclase determinada.
• No hay interfaz de línea de mandatos para gestionar las reglas de asignación. Debe utilizar la
herramienta de administración de SMIT o un editor de texto.

Nodos de dispositivo
Los dispositivos se organizan en clústeres denominados nodos. Cada nodo es un subsistema lógico de
dispositivos, donde los dispositivos de nivel inferior dependen de dispositivos de nivel superior en
relaciones de padre-hijo.
Por ejemplo, el nodo del sistema es el que tiene la categoría superior de todos los nodos y consiste en
todos los dispositivos físicos del sistema. El dispositivo del sistema está en la parte superior del nodo y
debajo están el bus y los adaptadores que dependen del dispositivo del sistema de nivel superior. En la
parte inferior de la jerarquía están los dispositivos a los que no se conectan otros dispositivos. Estos
dispositivos dependen de todos los dispositivos que están por encima suyo en la jerarquía.
Al arrancar, se utilizan las dependencias padre-hijo para configurar todos los dispositivos que componen
un nodo. La configuración se produce desde el nodo superior hacia abajo y cualquier dispositivo que
tenga una dependencia de un dispositivo de nivel superior no se configura hasta que se configura el
dispositivo de nivel superior.
El sistema operativo AIX soporta la función E/S de múltiples vías de acceso. Si un dispositivo tiene un
controlador de dispositivo con posibilidad de MPIO, puede tener más de un padre dentro de esta
jerarquía, lo que permite múltiples vías de comunicación simultáneas entre el dispositivo y una máquina
determinada o partición lógica de una máquina.

Clases de dispositivos
La gestión de dispositivos necesita que el sistema operativo comprenda las conexiones de dispositivo que
están permitidas. El sistema operativo clasifica los dispositivos jerárquicamente en tres grupos.
Estos grupos son:
• Clases funcionales
• Subclases funcionales
• Tipos de dispositivos
Las clases funcionales consisten en dispositivos que realizan la misma función. Las impresoras, por
ejemplo, comprenden una clase funcional. Las clases funcionales se agrupan en subclases de acuerdo a
determinadas similitudes de dispositivo. Por ejemplo, las impresoras tienen una interfaz serie o paralelo.
Las impresoras serie son una subclase y las impresoras paralelo son otra. Los tipos de dispositivo se
clasifican según su modelo y fabricante.

172 AIX Versión 7.2: Gestión de dispositivos


Las clases de dispositivo definen conexiones padre-hijo para el sistema operativo. La jerarquía define las
posibles subclases que se pueden conectar para cada una de las ubicaciones de conexión hijo posibles.
Por ejemplo, el término adaptador de 8 puertos RS-232 especifica que sólo los dispositivos que
pertenecen a la subclase RS-232 se pueden conectar a cualquiera de los ocho puertos del adaptador.
Las clases de dispositivo y sus dependencias jerárquicas se mantienen en la base de datos de
configuración de dispositivos ODM (Gestor de datos objeto).

Base de datos de configuración de dispositivos y gestión de dispositivos


La información de dispositivos está contenida en una base de datos predefinida o una base de datos
personalizada que compone la base de datos de configuración de dispositivos.
La base de datos predefinida contiene datos de configuración para todos los dispositivos posibles
soportados por el sistema. La información de clase de dispositivo jerárquica está contenida en esta base
de datos. La base de datos personalizada contiene datos de configuración para todos los dispositivos
definidos y configurados en el sistema. Se mantiene un registro de cada dispositivo conectado
actualmente al sistema.
El Gestor de configuración es un programa que configura automáticamente dispositivos en el sistema
durante el arranque del sistema y tiempo de ejecución. El Gestor de configuración utiliza la información
de las bases de datos predefinida y personalizada durante este proceso, y actualiza la base de datos
personalizada después de ello.
La característica de E/S de múltiples vías de acceso utiliza un identificador de dispositivo exclusivo (UDID)
para identificar cada dispositivo con posibilidad de MPIO, sin tener en cuenta la vía de acceso en la que se
ha descubierto. El UDID se guarda en la base de datos de configuración de dispositivos. Cuando se
descubre un dispositivo, se comprueban los UDID de la base de datos para determinar si el dispositivo es
nuevo o si el descubrimiento es otra vía de acceso para un dispositivo existente. Cuando se detectan
múltiples vías de acceso para un dispositivo, el controlador de dispositivo o la ampliación de kernel del
Gestor de control de vías de acceso decide la vía de acceso que se debe utilizar para una petición
determinada.
Puede utilizar el SMIT, o los mandatos del sistema operativo para realizar las tareas de gestión de
dispositivos como, por ejemplo, la supresión, la adición o la configuración de un dispositivo.

Estados de los dispositivos


Los dispositivos que están conectados al sistema pueden estar en uno de cuatro estados.
Los dispositivos que están conectados al sistema pueden estar en uno de los estados siguientes:

Elemento Descripción
No definido El dispositivo no se conoce en el sistema.
Definido Se ha registrado información específica sobre el dispositivo en la base de datos
personalizada, pero no está disponible para el sistema.
Disponible Un dispositivo definido se une al sistema operativo, o se configura el dispositivo definido.
Detenido El dispositivo no está disponible pero el controlador de dispositivo lo sigue conociendo.

Si un dispositivo tty y una impresora utilizan alternativamente el mismo conector tty, ambos se están
definidos en el mismo padre y puerto en la base de datos de configuración de dispositivos. Sólo se puede
configurar uno de estos dispositivos cada vez. Cuando el conector tty está configurado, la información de
configuración específica de la impresora se conserva hasta que se vuelve a configurar. El dispositivo no se
elimina; se encuentra en estado definido. El mantenimiento de un dispositivo en estado definido conserva
la información personalizada para un dispositivo que no se utiliza actualmente, ya sea antes de que esté
disponible por primera vez o mientras se suprime temporalmente del sistema.
Si existe un controlador para un dispositivo, el dispositivo puede estar disponible a través del controlador
de dispositivo.
Algunos dispositivos, los pseudodispositivos TCP/IP en particular, necesitan el estado detenido.

Gestión de dispositivos 173


Códigos de ubicación de dispositivos
El código de ubicación es una vía de acceso desde el cajón de CPU o la unidad del sistema a través del
adaptador, los cables de señal y la caja de distribución asíncrona (si hay una) hasta el dispositivo o la
estación de trabajo. Este código es otra manera de identificar dispositivos físicos.
El código de ubicación consiste en hasta cuatro campos de información dependiendo del tipo de
dispositivo. Estos campos representan, el cajón, la ranura, el conector y el puerto. Cada uno de estos
campos consiste en dos caracteres.
El código de ubicación de un cajón consiste sólo en el campo de cajón y es simplemente un código de dos
caracteres. El código de ubicación de un adaptador consiste en los campos de cajón y ranura y tiene el
formato AA-BB, donde AA corresponde a la ubicación de cajón y BB indica el bus y la ranura que contiene
el adaptador. Otros dispositivos tienen códigos de ubicación con los formatos AA-BB-CC o AA-BB-CC-
DD, donde AA-BB es el código de ubicación del adaptador al que está conectado el dispositivo, CC
corresponde al conector del adaptador al que está conectado el dispositivo y DD corresponde a un
número de puerto o dirección de dispositivo SCSI.

Códigos de ubicación de adaptadores


El código de ubicación de un adaptador consiste en dos pares de dígitos con el formato AA-BB, donde AA
identifica el código de ubicación del cajón que contiene el adaptador y BB identifica el bus de E/S y la
ranura que contienen la tarjeta.
El valor 00 para el campo AA significa que el adaptador está ubicado en el cajón de CPU o unidad del
sistema, según el tipo de sistema. Cualquier otro valor para el campo AA indica que la tarjeta está
ubicada en un cajón de expansión de E/S. En este caso, el valor AA identifica el bus de E/S y el número de
ranura del cajón de CPU que contiene el adaptador de expansión asíncrono. El primer dígito identifica el
bus de E/S, 0 corresponde al bus de E/S estándar y 1 corresponde al bus de E/S opcional. El segundo
dígito identifica el número de ranura en el bus de E/S indicado.
El primer dígito del campo BB identifica la placa de E/S que contiene la tarjeta adaptadora. Si la tarjeta
está en el cajón de CPU o la unidad del sistema, este dígito es 0 para el bus de E/S estándar y 1 para el
bus de E/S opcional. Si la tarjeta está en un cajón de expansión de E/S, este dígito es 0. El segundo dígito
identifica el número de ranura del bus de E/S indicado (o el número de ranura del cajón de expansión de
E/S) que contiene la tarjeta.
El código de ubicación 00-00 se utiliza para identificar la placa de E/S estándar.
Ejemplos:

Eleme Descripción
nto
00-05 Identifica una tarjeta adaptadora en la ranura 5 de la placa de E/S estándar y está ubicada en el
cajón de CPU o la unidad del sistema, según el tipo de sistema.
00-12 Identifica un adaptador en la ranura 2 del bus de E/S opcional y está ubicado en el cajón de
CPU.
18-05 Identifica una tarjeta adaptadora ubicada en la ranura 5 de un cajón de expansión de E/S. El
cajón está conectado al adaptador de expansión asíncrono ubicado en la ranura 8 del bus de
E/S opcional del cajón de CPU.

Códigos de ubicación de impresoras y trazadores


Los códigos de ubicación 00-00-S1-00 ó 00-00-S2-00 indican que la impresora, el trazador o el
dispositivo tty está conectado a los puertos serie s1 o s2 de la placa de E/S estándar. El código de
ubicación 00-00-0P-00 indica que la impresora paralelo está conectada al puerto paralelo de la placa de
E/S estándar.
Cualquier otro código de ubicación indica que la impresora, el trazador o el dispositivo tty está conectado
a una tarjeta adaptadora que no es la placa de E/S estándar. Para estas impresoras, trazadores y

174 AIX Versión 7.2: Gestión de dispositivos


dispositivos tty, el formato de código de ubicación es AA-BB-CC-DD, donde AA-BB indica el código de
ubicación del adaptador de control.

Ele Descripción
me
nto
AA El valor de 00 para el campo AA indica que la tarjeta adaptadora está ubicada en el cajón de CPU o
la unidad del sistema, según el tipo de sistema. Cualquier otro valor para el campo AA indica que la
tarjeta está ubicada en un cajón de expansión de E/S; en cuyo caso, el primer dígito identifica el
bus de E/S y el segundo dígito identifica el número de ranura del bus, en el cajón de CPU, que
contiene el adaptador de expansión asíncrono al que está conectado el cajón de expansión de E/S.
BB El primer dígito del campo BB identifica el bus de E/S que contiene la tarjeta adaptadora. Si la
tarjeta está en el cajón de CPU o la unidad del sistema, este dígito es 0 para el bus de E/S estándar
y 1 para el bus de E/S opcional. Si la tarjeta está en un cajón de expansión de E/S, este dígito es 0.
El segundo dígito identifica el número de ranura del bus de E/S (o número de ranura del cajón de
expansión de E/S) que contiene la tarjeta.
CC El campo CC identifica el conector de la tarjeta adaptadora donde se conecta la caja de distribución
asíncrona. Los valores posibles son 01, 02, 03 y 04.
DD El campo DD identifica el número de puerto de la caja de distribución asíncrona donde se conecta
la impresora, el trazador o el dispositivo tty.

Códigos de ubicación de tty


Los códigos de ubicación 00-00-S1-00 ó 00-00-S2-00 indican que el dispositivo tty está conectado a
los puertos serie s1 o s2 de E/S estándar.
Cualquier otro código de ubicación indica que el dispositivo tty está conectado a una tarjeta adaptadora
que no es la placa de E/S estándar. Para estos dispositivos, el formato del código de ubicación es AA-BB-
CC-DD, donde AA-BB indica el código de ubicación de la tarjeta adaptadora de control.

Ele Descripción
me
nto
AA El valor de 00 para el campo AA indica que la tarjeta adaptadora está ubicada en el cajón de CPU o
la unidad del sistema, según el tipo de sistema. Cualquier otro valor para el campo AA indica que la
tarjeta está ubicada en un cajón de expansión de E/S. En este caso, el primer dígito identifica el bus
de E/S, y el segundo dígito identifica el número de ranura del bus del cajón de CPU que contiene el
adaptador de expansión asíncrono donde el cajón de expansión de E/S está conectado.
BB El primer dígito del campo BB identifica el bus de E/S que contiene la tarjeta adaptadora. Si la
tarjeta está en el cajón de CPU o la unidad del sistema, este dígito será 0 para el bus de E/S
estándar y 1 para el bus de E/S opcional. Si la tarjeta está en un cajón de expansión de E/S este
dígito es 0. El segundo dígito identifica el número de ranura del bus de E/S (o número de ranura en
el cajón de expansión de E/S) que contiene la tarjeta.
CC El campo CC identifica el conector de la tarjeta adaptadora donde se conecta la caja de distribución
asíncrona. Los valores posibles son 01, 02, 03 y 04.
DD El campo DD identifica el número de puerto de la caja de distribución asíncrona donde se conecta
el dispositivo tty.

Códigos de ubicación de dispositivos SCSI


Los códigos de ubicación siguientes son para dispositivos SCSI.
Estos códigos de ubicación se aplican a todos los dispositivos SCSI incluyendo:
• CD-ROM
• Discos

Gestión de dispositivos 175


• Dispositivos iniciadores
• Unidades ópticas de lectura/grabación
• Cintas
• Modalidad de destino
El formato de código de ubicación es AA-BB-CC-S,L. Los campos AA-BB identifican el código de
ubicación del adaptador SCSI que controla el dispositivo SCSI.

Elem Descripción
ento
AA El valor 00 para el campo AA indica que la tarjeta adaptadora de control está ubicada en el cajón
de CPU o la unidad del sistema, según el tipo de sistema.
BB El campo BB identifica el bus de E/S y la ranura que contiene la tarjeta. El primer dígito identifica
el bus de E/S. Es 0 para el bus de E/S estándar y 1 para el bus de E/S opcional. El segundo dígito
es la ranura del bus de E/S indicado que contiene la tarjeta. El valor 00 para el campo BB indica el
controlador SCSI estándar.
CC El campo CC identifica el bus SCSI de la tarjeta a la que el dispositivo está conectado. Para una
tarjeta que sólo proporciona un bus SCSI, este campo se establece en 00. De lo contrario, el valor
00 indica un dispositivo conectado al bus SCSI de la tarjeta y un valor 01 indica un dispositivo
conectado al bus SCSI externo de la tarjeta.
S,L El campo S,L identifica el ID SCSI y el número de unidad lógica (LUN) del dispositivo SCSI. El
valor S indica el ID SCSI y el valor L indica la LUN.

Códigos de ubicación de Diales/Teclado LPF


Para un dispositivo Diales/Teclado LPF conectado a un adaptador de entrada de gráficos, el formato del
código de ubicación es AA-BB-CC.
Los campos individuales se interpretan de la siguiente manera:

Ele Descripción
me
nto
AA El valor 00 para el campo AA indica que la tarjeta adaptadora de control está ubicada en el cajón
de CPU o la unidad del sistema, según el tipo de sistema.
BB El campo BB identifica el bus de E/S y la ranura que contiene la tarjeta. El primer dígito identifica el
bus de E/S. Es 0 para el bus de E/S estándar y 1 para el bus de E/S opcional. El segundo dígito es la
ranura del bus de E/S indicado que contiene la tarjeta.
CC El campo CC indica el conector de tarjeta donde está conectado el dispositivo. El valor es 01 ó 02,
según si el dispositivo conectado es el puerto 1 o el puerto 2 de la tarjeta.

Nota: Los dispositivos Diales/Teclado LPF conectados en serie no indican los códigos de ubicación. Esto
es debido a que estos dispositivos se consideran conectados a un dispositivo tty. El usuario especifica el
dispositivo tty durante la definición de Diales/Teclado LPF.

Códigos de ubicación de puerto multiprotocolo


El código de ubicación para un puerto multiprotocolo tiene el formato AA-BB-CC-DD donde AA-BB indica
el código de ubicación de la tarjeta adaptadora multiprotocolo.
Los campos individuales se interpretan de la siguiente manera:

176 AIX Versión 7.2: Gestión de dispositivos


Ele Descripción
me
nto
AA El valor 00 para el campo AA indica que la tarjeta adaptadora multiprotocolo está ubicada en el
cajón de CPU o la unidad del sistema, según el tipo de sistema.
BB El campo BB identifica el bus de E/S y la ranura que contiene la tarjeta. El primer dígito identifica el
bus de E/S. Es 0 para el bus de E/S estándar y 1 para el bus de E/S opcional. El segundo dígito es la
ranura del bus de E/S indicado que contiene la tarjeta.
CC El campo CC identifica el conector de la tarjeta adaptadora al que está conectada la caja de
distribución multiprotocolo. El valor siempre es 01.
DD El campo DD identifica el número de puerto físico de la caja de distribución multiprotocolo. Los
valores posibles son 00, 01, 02 y 03.

Configuración de un adaptador de descarga de iSCSI


La configuración del adaptador de descarga de iSCSI implica la configuración del adaptador y la adición o
la actualización de destinos. Estas instrucciones solo se aplican al adaptador de descarga de iSCSI. Para
obtener información sobre cómo configurar el iniciador de software iSCSI, consulte el apartado Iniciador
de software iSCSI y destino del software.

Configuración del adaptador iSCSI en AIX


La configuración del adaptador iSCSI es una tarea muy sencilla y directa.
1. Entre smit iscsi en el indicador de mandatos de AIX.
Se visualiza la pantalla iSCSI.
2. Seleccione Adaptador iSCSI en la pantalla iSCSI.
Se visualiza la pantalla Adaptador iSCSI.
3. Seleccione Cambiar/Mostrar características de un adaptador iSCSI en la pantalla Adaptador iSCSI.
Se visualiza la pantalla Cambiar/Mostrar características de un adaptador iSCSI.
4. Seleccione el adaptador iSCSI que desea configurar en la lista.
Se visualiza una pantalla de configuración, similar al ejemplo siguiente.
[Campos de entrada]

Adaptador iSCSI ics0

Descripción Adaptador iSCSI

Estado Disponible

Ubicación 10-60

Núm. máx. de mandatos en cola para el adaptador [200] + +#

Tamaño máximo de transferencia [0x100000] +

Nombarch de descubrimiento [/etc/iscsi/targetshw]


Política de descubrimiento [file]
Nombarch de secretos de descubrimiento automático [/etc/iscsi/autosecret]
Dirección IP de adaptador [10.1.4.187]
Máscara de subred de adaptador [255.255.255.0]

Dirección de pasarela de adaptador [10.1.4.1]

Aplicar el cambio únicamente a la BASE DE DATOS no +

Nota: Si tiene alguna duda acerca de la finalidad de un campo en particular, coloque el cursor en el
campo y pulse F1 para obtener ayuda.
Para utilizar el descubrimiento de archivo plano, escriba file en el campo Política de descubrimiento.
Para utilizar el descubrimiento ODM, escriba odm en el campo Política de descubrimiento. Para los
destinos iSCS descubiertos por DHCP, escriba slp en el campo Política de descubrimiento.

Gestión de dispositivos 177


Actualización del archivo plano en un destino iSCSI
El archivo plano es el archivo de configuración estático utilizado para configurar destinos iSCSI. El nombre
de archivo predeterminado es /etc/iscsi/targetshw.
Debe especificar explícitamente todas las propiedades de descubrimiento de destino iSCSI pertinentes
en el archivo plano.
Información relacionada
Archivo de destinos

Adición de un destino iSCSI descubierto estáticamente a ODM


Si se utiliza la política de descubrimiento de ODM para el adaptador iSCSI o el iniciador de software iSCSI,
el controlador iSCSI obtiene las descripciones de destino iSCSI desde ODM.
Puede utilizar los mandatos de AIX o SMIT para manipular la información de destino iSCSI en ODM. Los
mandatos chiscsi, lsiscsi, mkiscsi y rmiscsi cambian, visualizan, añaden y eliminan información
de destino iSCSI de ODM.
Para añadir un destino iSCSI descubierto estáticamente a ODM utilizando SMIT, haga lo siguiente:
1. Entre smit iscsi en el indicador de mandatos de AIX.
Se visualiza la pantalla iSCSI.
2. Seleccione Parámetros de dispositivo de destino iSCSI en ODM en la pantalla iSCSI.
Se visualiza la pantalla Parámetros de dispositivo de destino iSCSI en ODM.
3. Seleccione Añadir un dispositivo de destino iSCSI a ODM en la pantalla iSCSI.
Se visualiza la pantalla Añadir dispositivo de destino iSCSI a ODM.
4. Seleccione el dispositivo iSCSI que quiera configurar en la lista. La lista podría incluir adaptadores de
descarga de iSCSI (dispositivos que empiezan por "ics") y el iniciador de software iSCSI (el dispositivo
que empieza por "iscsi").
5. Seleccione el dispositivo iSCSI que quiera configurar en la lista. La lista podría incluir adaptadores de
descarga de iSCSI (dispositivos que empiezan por "ics") y el iniciador de software iSCSI (el dispositivo
que empieza por "iscsi").
6. Especifique la información adecuada en los campos.
Éste es un ejemplo.
[Campos de entrada]

Adaptador iSCSI ics0


Nombre de destino iSCSI [iqn.com.ibm.tgt:0]
Dirección IP de destino iSCSI [10.1.4.25]
Número de puerto de destino iSCSI [3260]
Contraseña [mi contraseña]
Nombre de usuario [nombre de usuario]

Nota: Si tiene alguna duda acerca de la finalidad de un campo en particular, coloque el cursor en el
campo y pulse F1 para obtener ayuda.

Adición de destinos iSCSI descubiertos estáticamente desde un archivo plano a ODM


Puede utilizar SMIT para importar la información de un archivo plano a ODM.
1. Entre smit iscsi en el indicador de mandatos de AIX.
Se visualiza la pantalla iSCSI.
2. Seleccione Parámetros de dispositivo de destino iSCSI en ODM en la pantalla iSCSI.
Se visualiza la pantalla Parámetros de dispositivo de destino iSCSI en ODM.
3. Seleccione Añadir un dispositivo de destino iSCSI a ODM en la pantalla iSCSI.
Se visualiza la pantalla Añadir dispositivo de destino iSCSI a ODM.
4. Seleccione Añadir datos de dispositivo de destino iSCSI a ODM desde un archivo en la pantalla
iSCSI.
Se visualiza la pantalla Añadir datos de dispositivo de destino iSCSI a ODM desde un archivo.
5. Seleccione el adaptador iSCSI que desea configurar en la lista.

178 AIX Versión 7.2: Gestión de dispositivos


Se visualiza la pantalla Añadir datos de dispositivo de destino iSCSI a ODM desde un archivo para el
adaptador iSCSI que ha seleccionado.
6. Especifique la información adecuada en los campos.
Éste es un ejemplo.
[Campos de entrada]

Dispositivo de protocolo iSCSI iscsi3

Grupo iSCSI [static] +

Nombarch de destinos iSCSI [/etc/iscsi/targetshw] +

Nota: Si tiene alguna duda acerca de la finalidad de un campo en particular, coloque el cursor en el
campo y pulse F1 para obtener ayuda.

Gestión de conexión en caliente PCI


Puede insertar un nuevo adaptador de conexión en caliente PCI en una ranura PCI disponible mientras el
sistema operativo está en ejecución.
Éste puede ser otro adaptador del mismo tipo del que está actualmente instalado o de un tipo de
adaptador PCI diferente. Los nuevos recursos estarán disponibles para el sistema operativo y las
aplicaciones sin tener que reiniciar el sistema operativo. Algunas razones para añadir un adaptador de
conexión en caliente pueden ser:
• La adición de una función o capacidad adicional al hardware y firmware existente.
• La migración de adaptadores PCI de un sistema que ya no necesita la función proporcionada por esos
adaptadores.
• La instalación de un nuevo sistema cuyas tarjetas se disponen después de la configuración inicial de los
subsistemas de hardware opcionales, incluyendo los adaptadores PCI y la instalación e inicio del
sistema operativo.
Nota: Si añade un adaptador utilizando una operación de sustitución o adición de conexión en caliente
PCI o utilizando el Particionamiento lógico dinámico, puede que el adaptador y sus dispositivos hijo no
estén disponibles para especificarlos como dispositivos de arranque utilizando el mandato bootlist. Es
posible que deba reiniciar la máquina para que el sistema operativo conozca todos los posibles
dispositivos de arranque. El adaptador que ya aparece en la lista de arranque, que luego se sustituye por
un tipo igual de adaptador, sigue siendo un dispositivo de arranque válido.
También puede extraer un adaptador de conexión en caliente PCI defectuoso o que falla, o intercambiarlo
con otro del mismo tipo sin cerrar o apagar el sistema. Cuando intercambia el adaptador, el controlador
de dispositivo existente soporta el adaptador porque es del mismo tipo. La configuración del dispositivo y
la información de configuración de los dispositivos que se encuentran bajo el adaptador se conservan
para el dispositivo de sustitución. Algunas razones para sustituir un adaptador pueden ser:
• La sustitución temporal de la tarjeta para ayudar a determinar un problema o a aislar una FRU que falla.
• La sustitución de un adaptador defectuoso, que falla siempre o intermitentemente por una tarjeta
funcional.
• La sustitución de un adaptador redundante que falla en una configuración HACMP o de E/S de múltiples
vías de acceso.
Cuando se extrae un adaptador de conexión en caliente, los recursos que el adaptador ha proporcionado
ya no estarán disponibles para el sistema operativo y las aplicaciones. Algunas razones para extraer un
adaptador pueden ser:
• La eliminación de subsistemas de E/S existentes.
• La eliminación de un adaptador que ya no se necesita o falla y no está disponible una tarjeta de
sustitución.
• La migración de un adaptador a otro sistema cuando la función ya no se necesita en el sistema del que
se sustrae.

Gestión de dispositivos 179


Antes de poder extraer o sustituir un dispositivo de conexión en caliente, se debe eliminar la
configuración. El controlador de dispositivo asociado debe liberar los recursos del sistema que tiene
asignados para el dispositivo. Esto incluye la eliminación de la retención y liberación de memoria, la
supresión de la definición de interrupción y manejadores de EPOW, la liberación de los recursos de DMA y
temporizador y otros pasos necesarios. El controlador también debe garantizar que las interrupciones, la
memoria de bus y la E/S de bus estén inhabilitados en el dispositivo.
El administrador del sistema debe realizar las tareas siguientes antes y después de eliminar un
adaptador:
• Terminar y restaurar aplicaciones, daemons o procesos utilizando el dispositivo.
• Desmontar y volver a montar sistemas de archivos.
• Eliminar y volver a crear definiciones y realizar otras operaciones necesarias para liberar un dispositivo
en uso.
• Poner el sistema en un estado seguro para poderle dar servicio.
• Obtener e instalar cualquier controlador de dispositivo necesario.
Las operaciones de extracción y sustitución fallan a menos que se haya eliminado la configuración del
dispositivo conectado a la ranura y esté en estado definido. Puede hacer esto con el mandato rmdev.
Antes de colocar el adaptador en estado definido, cierre todas las aplicaciones que utilizan el adaptador,
de lo contrario, el mandato no será satisfactorio. Para obtener más información acerca del mandato
rmdev, consulte rmdev.
En algunos casos, también puede realizar las tareas siguientes:
• Preparar el adaptador de conexión en caliente PCI que se debe insertar, extraer o sustituir.
• Identificar las ranuras o los adaptadores PCI que están implicados en la operación de conexión en
caliente.
• Extraer o insertar los adaptadores de conexión en caliente PCI.
Nota: Durante las operaciones de conexión en caliente, el Object Data Manager (ODM) permanecerá
bloqueado. Por ello, otras tareas que necesiten el ODM pueden colgarse o fallar. Los cambios en la
configuración del clúster iniciados por otros nodos también pueden colgarse o fallar en el clúster. Por este
motivo, asegúrese de que dichas tareas no se llevan a cabo hasta que la operación de conexión en
caliente se haya completado.
Atención: Aunque la gestión de conexión en caliente PCI proporciona la posibilidad de añadir,
extraer y sustituir adaptadores PCI sin apagar el sistema o reiniciar el sistema operativo, no todos
los dispositivos de las ranuras de conexión en caliente se pueden gestionar de esta manera. Por
ejemplo, el disco duro que compone el grupo de volúmenes rootvg o el controlador de E/S al que
está conectado no se pueden eliminar ni sustituir sin apagar el sistema porque son necesarios
para ejecutar el sistema operativo. Si el grupo de volúmenes rootvg está replicado, puede utilizar
el mandato chpv para poner los discos fuera de línea. Si el grupo de volúmenes rootvg reside en
uno o varios discos que tienen habilitada la E/S de múltiples vías de acceso (MPIO) y están
conectados a varios controladores de E/S, uno de estos controladores de E/S pueden extraerse (o
sustituirse) sin rearrancar el sistema. En este caso, se debe eliminar la configuración de todas las
vías de acceso del controlador de E/S que se va a extraer (o sustituir) utilizando el mandato rmdev
-R en el adaptador. Esto eliminará la configuración de las vías de acceso y el adaptador. Puede
proseguir con la Gestión de conexión en caliente. Antes de intentar extraer o insertar adaptadores
de conexión en caliente PCI, consulte la publicación PCI Adapter Placement Reference, (que se
suministra con las unidades del sistema que soportan la conexión en caliente), para determinar si
el adaptador se puede intercambiar en caliente. Consulte la documentación de la unidad del
sistema para obtener instrucciones para instalar o extraer adaptadores.

Visualización de información de ranura de conexión en caliente PCI


Antes de añadir, extraer o sustituir un adaptador de conexión en caliente, puede visualizar información
acerca de las ranuras de conexión en caliente PCI de una máquina.
Puede visualizar la siguiente información:

180 AIX Versión 7.2: Gestión de dispositivos


• Una lista de todas las ranuras de conexión en caliente PCI de la máquina
• Si una ranura está disponible o vacía
• Las ranuras que están en uso actualmente
• Las características de una ranura específica como, por ejemplo, el nombre de ranura, la descripción, el
tipo de conector y el nombre de dispositivo conectado.
Puede utilizar SMIT o mandatos del sistema. Para realizar estas tareas, debe iniciar la sesión como
usuario root.
Procedimiento de vía rápida de SMIT
1. Escriba smit devdrpci en el indicador del sistema, después pulse Intro.
2. Utilice los diálogos de SMIT para completar la tarea.
Para obtener información adicional para completar la tarea, puede seleccionar la tecla de ayuda F1 en los
diálogos de SMIT.
Procedimiento de mandatos
Puede utilizar los siguientes mandatos para visualizar información acerca de las ranuras de conexión en
caliente y los dispositivos conectados:
• El mandato lsslot visualiza una lista de todas las ranuras de conexión en caliente PCI y sus
características.
• El mandato lsdev visualiza el estado actual de todos los dispositivos instalados en el sistema.

Eliminación de la configuración de adaptadores de comunicaciones PCI


A continuación, se presenta una visión general del proceso para eliminar la configuración de adaptadores
de comunicaciones PCI. Esto incluye adaptadores Ethernet, Red en Anillo, FDDI y ATM.
Si la aplicación utiliza el protocolo TCP/IP, debe eliminar la interfaz TCP/IP para el adaptador de la lista de
interfaces de red antes de colocar el adaptador en estado definido. Utilice el mandato netstat para
determinar si el adaptador está configurado para TCP/IP y comprobar las interfaces de red activas del
adaptador. Para obtener información acerca del mandato netstat, consulte netstat.
Un adaptador Ethernet puede tener dos interfaces: Standard Ethernet (enX) o IEEE 802.3 (etX). X es el
mismo número que el del nombre de adaptador entX. Sólo una de estas interfaces puede utilizar TCP/IP
cada vez. Por ejemplo, el adaptador Ethernet ent0 puede tener las interfaces en0 y et0.
Un adaptador de Red en Anillo sólo puede tener una interfaz: Red en Anillo (trX). X es el mismo número
que el del nombre de adaptador tokX. Por ejemplo, el adaptador de red en anillo tok0 tiene una interfaz
tr0.
Un adaptador ATM sólo puede tener una interfaz atm: ATM (atX). X es el mismo número que el del nombre
de adaptador atmX. Por ejemplo, el adaptador ATM atm0 tiene una interfaz at0. Sin embargo, los
adaptadores ATM pueden tener múltiples clientes emulados en ejecución en un solo adaptador.
El mandato ifconfig elimina una interfaz de la red. El mandato rmdev elimina la configuración del
dispositivo PCI mientras conserva su definición en la clase de objeto Dispositivos personalizados. Cuando
el adaptador está en estado definido, puede utilizar el mandato drslot para eliminar el adaptador.
Para eliminar la configuración de los hijos del bus PCI pci1 y todos los dispositivos que se encuentran
bajo suyo mientras conserva sus definiciones en la clase de objeto Dispositivos personalizados, escriba:

rmdev -p pci1

El sistema visualiza un mensaje similar al siguiente:

rmt0 Definido
hdisk1 Definido
scsi1 Definido
ent0 Definido

Gestión de dispositivos 181


Extracción o sustitución de un adaptador de conexión en caliente PCI
Puede extraer o sustituir un adaptador de conexión en caliente PCI de la unidad del sistema sin cerrar el
sistema operativo ni apagar la alimentación del sistema. Cuando se extrae un adaptador, los recursos
proporcionados por ese adaptador no están disponibles para el sistema operativo y las aplicaciones.
Antes de extraer un adaptador, debe eliminar la configuración.
Los procedimientos siguientes sirven para extraer un adaptador de conexión en caliente PCI. Puede
completar estas tareas con SMIT o con los mandatos del sistema. Para realizar estas tareas, debe iniciar
la sesión como usuario root.
La sustitución de un adaptador por otro del mismo tipo conserva la información de configuración del
adaptador sustituido y compara la información con la tarjeta que lo sustituye. El controlador de
dispositivo existente del adaptador sustituido debe poder soportar el adaptador de sustitución.
Procedimiento de vía rápida de SMIT
1. Escriba smit devdrpci en el indicador del sistema, después pulse Intro.
2. Utilice los diálogos de SMIT para completar la tarea.
Para obtener información adicional para completar la tarea, puede seleccionar la tecla de ayuda F1 en los
diálogos de SMIT.
Procedimiento de mandatos
Puede utilizar los siguientes mandatos para visualizar información acerca de las ranuras de conexión en
caliente y los dispositivos conectados, así como para extraer un adaptador de conexión en caliente PCI:
• El mandato lsslot visualiza una lista de todas las ranuras de conexión en caliente PCI y sus
características. Para obtener información acerca de la utilización de este mandato, consulte lsslot en
la publicación Commands Reference, Volume 3.
• El mandato lsdev visualiza el estado actual de todos los dispositivos instalados en el sistema. Para
obtener información acerca de la utilización de este mandato, consulte lsdev en la publicación
Commands Reference, Volume 3.
• El mandato drslot prepara una ranura de conexión en caliente para la extracción de un adaptador de
conexión en caliente. Para obtener información acerca de la utilización de este mandato, consulte
drslot en la publicación Commands Reference, Volume 2.

Adición de un adaptador de conexión en caliente PCI


Puede añadir un adaptador de conexión en caliente PCI en una ranura disponible de la unidad del sistema
y los nuevos recursos estarán disponibles para el sistema operativo y las aplicaciones sin tener que
rearrancar el sistema operativo. El adaptador puede ser del mismo tipo de adaptador instalado
actualmente o puede ser de un tipo de adaptador diferente.
Los procedimientos siguientes sirven para añadir un nuevo adaptador de conexión en caliente PCI.
Atención: Antes de intentar añadir adaptadores de conexión en caliente PCI, consulte la
publicación PCI Adapter Placement Reference, suministrada con las unidades del sistema que
soportan la conexión en caliente, para determinar si el adaptador se puede conectar en caliente.
Consulte la documentación de la unidad del sistema para obtener instrucciones para instalar o
extraer adaptadores.
La adición de un nuevo adaptador de conexión en caliente PCI implica las tareas siguientes:
• La búsqueda e identificación de una ranura disponible en la máquina
• La preparación de la ranura para la configuración del adaptador
• La instalación del controlador de dispositivo, si es necesario
• La configuración del nuevo adaptador
Puede utilizar SMIT o mandatos del sistema. Para realizar estas tareas, debe iniciar la sesión como
usuario root.

182 AIX Versión 7.2: Gestión de dispositivos


Nota: Al añadir un adaptador de conexión en caliente al sistema, puede que el adaptador y sus
dispositivos hijo no estén disponibles para especificarlos como dispositivo de arranque utilizando el
mandato bootlist. Es posible que deba rearrancar el sistema para que el sistema operativo conozca
todos los posibles dispositivos de arranque.
Procedimiento de vía rápida de SMIT
1. Escriba smit devdrpci en el indicador del sistema, después pulse Intro.
2. Utilice los diálogos de SMIT para completar la tarea.
Para obtener información adicional para completar la tarea, puede seleccionar la tecla de ayuda F1 en los
diálogos de SMIT.
Procedimiento de mandatos
Puede utilizar los mandatos siguientes para visualizar información acerca de las ranuras de conexión en
caliente PCI y los dispositivos conectados, y para añadir un adaptador de conexión en caliente PCI:
• El mandato lsslot visualiza una lista de todas las ranuras de conexión en caliente y sus
características. Para obtener información acerca de la utilización de este mandato, consulte lsslot en
la publicación Commands Reference, Volume 3.
• El mandato lsdev visualiza el estado actual de todos los dispositivos instalados en el sistema. Para
obtener información acerca de la utilización de este mandato, consulte lsdev en la publicación
Commands Reference, Volume 3.
• El mandato drslot prepara una ranura de conexión en caliente para añadir o extraer un adaptador de
conexión en caliente. Para obtener información acerca de la utilización de este mandato, consulte
drslot en la publicación Commands Reference, Volume 2.

E/S de múltiples vías de acceso


Con la E/S de múltiples vías de acceso (MPIO), un dispositivo se puede detectar de forma exclusiva
mediante una o varias conexiones físicas o vías de acceso.
Un módulo de control de vías de acceso (PCM) proporciona las funciones de gestión de vías de acceso.
Un controlador de dispositivo con posibilidad de MPIO puede controlar más de un tipo de dispositivo de
destino. Un PCM puede soportar uno o varios dispositivos específicos. Por lo tanto, un controlador de
dispositivo puede interactuar con múltiples PCM que controlan la E/S en las vías de acceso de cada uno
de los dispositivos de destino.

Figura 12. Interacción de componentes MPIO

Para que un dispositivo pueda utilizar MPIO, el controlador del dispositivo, los métodos y los atributos
predefinidos en el Gestor de datos objeto (ODM) se deben modificar a fin de que soporten la detección, la

Gestión de dispositivos 183


configuración y la gestión de múltiples vías de acceso. Los controladores de dispositivo de discos paralelo
SCSI y Fibre Channel y sus métodos de dispositivo soportan dispositivos de discos MPIO. Los dispositivos
de disco iSCSI están soportados como dispositivos MPIO. El controlador de dispositivo de cinta Fibre
Channel y sus métodos de dispositivo soportan dispositivos de cinta MPIO. También, los atributos para
algunos dispositivos del ODM se han modificado para MPIO.
El PCM de AIX consiste en: el módulo de configuración PCM RTL y la extensión de kernel PCM KE. PCM
RTL es un módulo que se carga en tiempo de ejecución y permite que los métodos de dispositivo detecten
atributos adicionales específicos de dispositivo PCM KE o de ODM. PCM RTL se carga mediante un método
de dispositivo. Después, se accede a una o varias rutinas de PCM RTL para realizar operaciones
específicas que inicializan o modifican las variables de PM KE.
PCM KE suministra posibilidades de gestión de control de vías de acceso para cualquier controlador de
dispositivo que soporte la interfaz MPIO. PCM KE depende de la configuración del dispositivo para
detectar las vías de acceso y comunicar esta información al controlador de dispositivos. Cada controlador
de dispositivo con posibilidad de MPIO añade las vías de acceso a un dispositivo desde su padre o padres
inmediatos. El mantenimiento y la planificación de E/S en diferentes vías de acceso se proporciona por
PCM KE y el controlador de dispositivo con posibilidad de MPIO no lo percibe.
PCM KE puede proporcionar más de un algoritmo de direccionamiento, que el usuario puede seleccionar.
PCM KE también ayuda a recopilar información que se puede utilizar para determinar y seleccionar la
mejor vía de acceso para cualquier petición de E/S. PCM KE puede seleccionar la mejor vía de acceso
basándose en una variedad de criterios, incluyendo el equilibrio de la carga, la velocidad de conexión, la
anomalía de conexión, etcétera.
El PCM de AIX tiene la posibilidad de comprobación de estado que se puede utilizar para hacer lo
siguiente:
• Comprobar las vías de acceso y determinar las que se pueden utilizar actualmente para enviar E/S
• Habilitar una vía de acceso con una indicación de que ha fallado debido a una anomalía de vía de acceso
temporal (por ejemplo, cuando se ha extraído un cable y después se ha vuelto a conectar)
• Comprobar las vías de acceso no utilizadas actualmente que se utilizarían si se produjese migración tras
error (por ejemplo, cuando el valor del atributo de algoritmo es failover, la comprobación de estado
puede probar las vías de acceso alternativas)
No todos los dispositivos de disco y los dispositivos de cinta se pueden detectar y configurar utilizando
los PCM predeterminados de AIX. Los PCM predeterminados de AIX consisten en dos módulos de control
de vías de acceso, uno para gestionar los dispositivos de disco y otro para gestionar los dispositivos de
cinta. Si no se detecta el dispositivo, determine con el proveedor del dispositivo si hay un PCM disponible
para el dispositivo.

Gestión de dispositivos con posibilidad de MPIO


La característica de E/S de múltiples vías de acceso (MPIO) se puede utilizar para definir vías de acceso
alternativas de un dispositivo para la migración tras error.
La migración tras error es un algoritmo de gestión de vías de acceso que mejora la fiabilidad y la
disponibilidad de un dispositivo porque el sistema detecta automáticamente cuándo falla una vía de
acceso de E/S y redirige la E/S a otra vía de acceso alternativa. Todas las unidades de disco SCSI SCSD se
configuran automáticamente como dispositivos MPIO y se puede configurar un número seleccionado de
unidades de disco Fibre Channel como otro disco MPIO. Se pueden soportar otros dispositivos, siempre
que el controlador de dispositivos sea compatible con la implementación de MPIO en AIX.
MPIO se instala y configura como parte de la instalación de BOS. No necesita configuración adicional,
pero puede añadir, eliminar, volver a configurar, habilitar e inhabilitar dispositivos (o vías de acceso de
dispositivo) utilizando SMIT, o la interfaz de línea de mandatos. Los mandatos siguientes ayudan a
gestionar las vías de acceso MPIO:
mkpath
Añade una vía de acceso para un dispositivo de destino.
rmpath
Elimina una vía de acceso para un dispositivo de destino.

184 AIX Versión 7.2: Gestión de dispositivos


chpath
Cambia un atributo o el estado operativo de una vía de acceso para un dispositivo de destino.
lsmpio
Muestra información acerca del estado, la configuración y las estadísticas sobre los dispositivos de
almacenamiento de E/S de multivía de acceso (MPIO).
lspath
Visualiza información acerca de vías de acceso para un dispositivo de destino.
Si está ejecutando una instalación del BOS o una instalación de mksysb en un disco con varios puertos,
como un dispositivo de E/S de multivía de acceso (MPIO), el puerto deberá mantenerse activo mientras
dure la activación.

Cableado de un dispositivo SCSI como dispositivo MPIO


Un dispositivo SCSI puede estar soportado por un máximo de dos adaptadores cuando se configura como
un dispositivo con posibilidad de MPIO.
Para cablear un dispositivo SCSI paralelo como dispositivo MPIO, utilice la siguiente configuración como
ejemplo. La configuración mínima que se debe realizar es la siguiente; es posible que el dispositivo
necesite configuración adicional.
1. Con la alimentación apagada, instale los dos adaptadores SCSI.
2. Cablee el dispositivo a los dos adaptadores SCSI.
3. Encienda el sistema.
4. Cambie los valores de uno de los adaptadores por un ID SCSI exclusivo. De forma predeterminada, los
adaptadores SCSI tienen el ID SCSI 7. Como cada ID debe ser exclusivo, cambie un adaptador a otro
número, por ejemplo, 6.
5. Ejecute el mandato cfgmgr.
6. Para verificar la configuración, escriba lo siguiente en la línea de mandatos:

lspath -l hdiskX

donde X es el número lógico del dispositivo que se acaba de configurar. La salida del mandato debe
visualizar dos vías de acceso y sus estados.

Figura 13. Configuración de los cables para un dispositivo SCSI MPIO

Esta ilustración muestra el cableado de dos adaptadores SCSI para el mismo dispositivo.

Cableado de un dispositivo Fibre Channel como dispositivo MPIO


Un dispositivo Fibre Channel se puede cablear para múltiples adaptadores. No hay límite en el software.
Para cablear un dispositivo Fibre Channel como dispositivo MPIO, utilice la siguiente configuración como
ejemplo. La configuración mínima que se debe realizar es la siguiente; es posible que el dispositivo
necesite configuración adicional.
1. Con la alimentación apagada, instale dos adaptadores Fibre Channel.
2. Cablee los adaptadores al conmutador o concentrador.
3. Cablee el dispositivo al conmutador o concentrador.
4. Encienda el sistema.
5. Para verificar la configuración, escriba lo siguiente en la línea de mandatos:

lspath -l hdiskX

donde X es el número lógico del dispositivo que se acaba de configurar. La salida del mandato debe
visualizar una vía de acceso para cada adaptador que ha instalado y el estado de cada uno.

Gestión de dispositivos 185


Figura 14. Configuración de los cables para un dispositivo Fibre Channel MPIO

Configuración de un dispositivo MPIO


La configuración de un dispositivo con posibilidad de MPIO utiliza los mismos mandatos que un
dispositivo que no es MPIO.
Los mandatos cfgmgr, mkdev, chdev, rmdev y lsdev soportan la gestión de instancias de dispositivo
MPIO y visualizan sus atributos. Una instancia de dispositivo MPIO también tiene instancias de vía de
acceso asociadas a la instancia de dispositivo. Los mandatos mkpath, chpath, rmpath y lspath
gestionan instancias de vía de acceso y visualizan sus atributos.
Una instancia de vía de acceso se puede añadir o eliminar de un dispositivo MPIO sin desconfigurar el
dispositivo.
Un dispositivo MPIO puede tener atributos adicionales, pero los atributos necesarios que todos los
dispositivos MPIO deben soportar son reserve_policy y algorithm. El atributo reserve_policy
determina el tipo de metodología de reserva que el controlador de dispositivo implementará cuando el
dispositivo se abra, y se puede utilizar para limitar el acceso al dispositivo desde otros adaptadores, en el
mismo sistema o en otro sistema. El atributo algorithm define la metodología que el PCM utiliza para
gestionar las E/S de las vías de acceso configuradas para un dispositivo.

Dispositivos de múltiples vías soportados


Los PCM predeterminados de AIX soportan un conjunto de dispositivos de disco y de cinta definidos en el
catálogo de archivos devices.common.IBM.mpio.rte.
Los dispositivos no soportados por los PCM de disco o de cinta AIX necesitan que el proveedor de
dispositivos proporcione los atributos predefinidos en el ODM, un PCM y cualquier otro código de soporte
necesario para reconocerlo como dispositivo con posibilidad de MPIO.
Para determinar los dispositivos de disco que están soportados por el PCM de disco de AIX, ejecute el
mandato siguiente:

odmget -qDvDr=aixdiskpcmke PdDv | grep uniquetype | while read line


do
utype=`echo $line | cut -d'"' -f2`
dvc=`odmget -q"uniquetype=$utype AND attribute=dvc_support" PdAt`
echo $dvc | grep values | cut -d'"' -f2
done

Para determinar los dispositivos de cinta que están soportados por el PCM de disco de AIX, ejecute el
siguiente script:

odmget -qDvDr=aixtapepcmke PdDv | grep uniquetype | while read line


do
utype=`echo $line | cut -d'"' -f2`
dvc=`odmget -q"uniquetype=$utype AND attribute=dvc_support" PdAt`
echo $dvc | grep values | cut -d'"' -f2
done

La salida del script visualiza una lista de tipos de dispositivos exclusivos soportados por los PCM
predeterminados de AIX. Los tres tipos de dispositivos soportados por el PCM de disco de AIX son el
disco SCSI paralelo de configuración automática (disk/scsi/scsd), otro disco FC MPIO(disk/fcp/
mpioosdisk) y otro iSCI MPIO (disk/iscsi/mpioosdisk). El tipo de dispositivo soportado por el PCM
de cinta de AIX es otra cinta FC MPIO (tape/fcp/mpioost).
Los dispositivos otro disco FC MPIO y otra cinta FC MPIO son un subconjunto de otros discos Fibre
Channel y de otras cintas Fibre Channel respectivamente. Un dispositivo está soportado como un
dispositivo otro FC MPIO si no hay atributos predefinidos de ODM proporcionados por el proveedor y se ha
certificado que el dispositivo funciona con uno de los PCM predeterminados de AIX. La certificación no

186 AIX Versión 7.2: Gestión de dispositivos


garantiza que estén soportadas todas las posibilidades de dispositivo cuando se configura como otro
dispositivo FC MPIO
Otro disco iSCSI MPIO es un subconjunto de otros discos iSCSI. Un dispositivo sólo está soportado como
otro disco iSCSI MPIO si no hay atributos predefinidos de ODM proporcionados por el proveedor y se ha
certificado que el dispositivo funciona con el PCM de AIX. La certificación no garantiza que estén
soportadas todas las posibilidades de dispositivo cuando se configura como otro disco iSCSI MPIO.
Para determinar los dispositivos soportados como otro disco FC MPIO, ejecute el mandato siguiente:

odmget –quniquetype=disk/fcp/mpioosdisk PdAt | grep deflt | cut -d'"' -f2

Para determinar los dispositivos que están soportados como otra cinta FC MPIO, ejecute el script
siguiente:
odmget -q "uniquetype=tape/fcp/mpioosdisk AND attribute=mpio_model_map PdAt |
grep deflt | cut -d'"' -f2

Para determinar los dispositivos que están soportados como otros discos iSCSI MPIO, ejecute el siguiente
script:

odmget –quniquetype=disk/iscsi/mpioosdisk PdAt | grep deflt | cut -d'"' -f2

La salida del script visualiza una lista de datos de consulta que contienen el proveedor y el modelo de
dispositivo.
Para visualizar todos los dispositivos con posibilidad de MPIO que están instalados en el sistema, ejecute
el script siguiente:

odmget -qattribute=unique_id PdAt | grep uniquetype | cut -d'"' -f2

La salida del script visualiza una lista de tipos de dispositivo con posibilidad de MPIO exclusivos,
soportados por los PCM predeterminados de AIX y los PCM proporcionados por el proveedor.

Atributos de dispositivos MPIO


Se da soporte a los siguientes atributos únicamente mediante dispositivos de múltiples vías de acceso.
Los atributos se pueden visualizar o cambiar utilizando el SMIT, o mandatos (en particular, los mandatos
lsattr y chdev).
Algunos de los atributos de dispositivos de múltiples vías de acceso E/S (MPIO) están habilitados para la
actualización simultánea del atributo. Puede actualizar los valores de atributo mientras el disco está
abierto y en uso, y los valores nuevos surtirán efecto de inmediato. Para algunos atributos, en especial, el
atributo reserve_policy, es posible que haya restricciones cuando el atributo se pueda cambiar o qué
nuevos valores el atributo puede aceptar. Por ejemplo, si un disco está abierto y se utiliza actualmente
como disco de repositorio de clúster, el sistema operativo AIX bloquea cualquier intento para establecer
una política de reserva en el disco porque hace que los nodos de clúster restantes pierdan el acceso al
repositorio.
El atributo de dispositivo necesario que todos los dispositivos MPIO deben soportar es
reserve_policy. Normalmente, un dispositivo de múltiples vías de acceso contiene también el atributo
de dispositivo PR_key_value. Un dispositivo de múltiples vías de acceso puede tener atributos
adicionales específicos del dispositivo. Otros atributos específicos del dispositivo son los siguientes:
FC3_REC
Indica si el dispositivo debe activar la recuperación de errores que utilizar la clase 3 de Fibre Channel
o no. La habilitación de esta característica mejora la detección y recuperación de errores para
determinados tipos de errores que están relacionados con Fibre Channel. Este atributo sólo está
disponible en un conjunto limitado de dispositivos. Este atributo puede tener los valores siguientes.
true
Habilita la recuperación de errores que utiliza la clase 3 de Fibre Channel.

Gestión de dispositivos 187


false
Inhabilita la recuperación de errores que utiliza la clase 3 de Fibre Channel.
reserve_policy
Define si se emplea una metodología de reserva cuando se abre el dispositivo. Los valores son los
siguientes:
no_reserve
No se aplica ninguna metodología de reserva para el dispositivo. Otros iniciadores pueden acceder
al dispositivo, y estos iniciadores pueden estar en otros sistemas principales.
single_path_reserve
Se aplica una metodología de reserva SCSI2 para el dispositivo, que significa que sólo puede
acceder al dispositivo el iniciador que ha emitido la reserva. Esta política impide que otros
iniciadores del mismo sistema principal o de otros sistemas principales accedan al dispositivo.
Esta política utiliza la reserva SCSI2 para bloquear el dispositivo para un solo iniciador (vía de
acceso), y los mandatos direccionados por cualquier otra vía de acceso dan lugar a un conflicto de
reserva.
Los algoritmos de selección de vía de acceso que alternan mandatos entre múltiples vías de
acceso dan lugar a que se desechen cuando se selecciona el valor single_path_reserve.
Como ejemplo, suponga que un PCM específico de dispositivo tiene un atributo necesario que está
establecido en un valor que distribuye E/S por múltiples vías de acceso. Cuando
single_path_reserve está en vigor, el controlador de disco debe emitir un restablecimiento de
dispositivo de bus (BDR) y después emitir una reserva utilizando una nueva vía de acceso para
enviar el siguiente mandato para interrumpir la reserva anterior. Cada vez que se selecciona una
vía de acceso diferente, se desecha y se degrada el rendimiento debido a la sobrecarga del envío
de un BDR y la emisión de una reserva al dispositivo de destino. (El PCM de AIX no permite
seleccionar un algoritmo que puede dar lugar a que se deseche.)
PR_exclusive
Se aplica una metodología de sistema principal exclusivo de reserva permanente SCSI3, cuando
se abre el dispositivo. El valor del atributo PR_key_value debe ser exclusivo para cada sistema
principal. El atributo PR_key_value se utiliza para impedir que iniciadores de otros sistemas
principales accedan al dispositivo.
PR_shared
Se aplica una metodología de sistema principal compartido, de reserva permanente SCSI3,
cuando se abre el dispositivo. El valor de PR_key_value debe ser exclusivo para cada sistema
principal. Los iniciadores de otros sistemas principales deben registrarse antes de poder acceder
al dispositivo.
PR_key_value
Sólo se necesita si el dispositivo soporta cualquiera de las políticas de reserva permanente
(PR_exclusive o PR_shared).

Atributos de módulos de control de vías de acceso


Además de los módulos de control de vías de acceso (PCM) predeterminados de AIX, el proveedor de un
dispositivo puede suministrar un PCM específico del dispositivo. El conjunto de atributos que el usuario
puede cambiar lo define el proveedor del dispositivo. Un PCM específico de dispositivo puede tener
atributos de dispositivo y de vía de acceso.
Los siguientes atributos de dispositivo son de los PCM predeterminados de AIX:
algorithm
Determina la metodología por la cual se distribuye la E/S por las vías de acceso de un dispositivo. El
atributo de algoritmo tiene los valores siguientes:
Nota: Algunos de los dispositivos admiten sólo un subconjunto de estos valores:
failover
Envía todas las operaciones de E/S a una sola vía de acceso. Si la vía de acceso se marca como
anómala o inhabilitada, se seleccionará la siguiente vía de acceso disponible para enviar todas las

188 AIX Versión 7.2: Gestión de dispositivos


operaciones de E/S. Este algoritmo mantiene todas las vías de acceso habilitadas en una lista
ordenad en función de los valores ascendentes del atributo path priority. Se seleccionará la
vía de acceso que tiene el valor de prioridad de vías de acceso más bajo para cada operación de
E/S.
round_robin
Distribuye las operaciones de E/S por varias las vías de acceso habilitadas. Para los dispositivos
que tienen vías de acceso activas y pasivas, o preferidas y no preferidas, sólo un subconjunto de
las vías de acceso se utilizan para las operaciones de E/S. Si una vía de acceso se marca como
anómala o inhabilitada, no se utilizará más para enviar las operaciones de E/S. La operación de
E/S se distribuye en función del atributo path priority. Las vías de acceso que tienen una
mayor valor de prioridad de vías de acceso comparten más operaciones de E/S.
shortest_queue
Distribuye las operaciones de E/S por varias las vías de acceso habilitadas. Para los dispositivos
que tienen vías de acceso activas y pasivas, o preferidas y no preferidas, sólo un subconjunto de
las vías de acceso se utilizan para las operaciones de E/S. Este algoritmo es similar al
round_robin. Sin embargo, el algoritmo shortest_queue distribuye las operaciones de E/S
basándose en el número de operaciones de E/S pendientes en cada vía de acceso. La vía de
acceso que tiene actualmente un número inferior de las operaciones de E/S pendientes se
seleccionará para la siguiente operación. El atributo path priority se ignora cuando el
algoritmo se establece en shortest_queue.
hcheck_mode
Determina las vías de acceso que se deben comprobar cuando se utiliza la posibilidad de
comprobación de estado. El atributo soporta las siguientes modalidades:
enabled
Envía el mandato healthcheck por las vías de acceso con estado habilitado. La modalidad no
envía el mandato healthcheck por las vías de acceso con estado inhabilitado o que falta.
failed
Envía el mandato healthcheck por las vías de acceso con estado anómalo. La modalidad no
envía el mandato healthcheck por las vías de acceso con estado habilitado, inhabilitado o que
falta.
nonactive
(Valor predeterminado) Envía el mandato healthcheck por las vías de acceso que no tienen E/S
activas al dispositivo, incluyendo vías de acceso con un estado anómalo o inhabilitado. La
modalidad no envía el mandato healthcheck por las vías de acceso con estado inhabilitado o
que falta.
hcheck_interval
Define la frecuencia con la que se realiza la comprobación de estado en las vías de acceso para un
dispositivo. El atributo soporta un rango de 0 a 3600 segundos. Cuando se selecciona el valor 0, la
comprobación de estado se inhabilita.
Nota: Se realizará una comprobación de estado únicamente si el disco está abierto mediante algún
proceso y no se ha cerrado aún. Si ninguna entidad tiene el disco abierto, el módulo de control de vía
no comprobará las vías de acceso aunque el atributo hcheck_interval de dicho dispositivo esté
establecido en un valor distinto a cero.
dist_tw_width
Define la duración de una "franja horaria". Se trata del periodo de tiempo durante el cual el algoritmo
de detección de errores distribuidos acumula las E/S que devuelven un error. La unidad de medición
del atributo dist_tw_width es el milisegundo. Si se reduce el valor de este atributo, disminuye la
duración de tiempo de cada muestra tomada y disminuye la sensibilidad de los algoritmos para
pequeñas ráfagas de errores de E/S. Al aumentar el valor de este atributo, aumenta la sensibilidad de
los algoritmos para las pequeñas ráfagas de errores y la probabilidad de que falle un vía de acceso.
dist_err_percent
Define el porcentaje de "franjas horarias" con error permitidas en una vía de acceso antes de que falle
debido a bajo rendimiento. dist_err_percent tiene un rango de 0 a 100. El algoritmo de detección
de errores distribuidos está inhabilitado cuando el atributo se establece en cero (0). El valor

Gestión de dispositivos 189


predeterminado es cero. El algoritmo de detección de errores distribuidos toma muestras del tejido
que conecta el dispositivo con el adaptador para ver si hay errores. El algoritmo calcula un porcentaje
de muestras con errores y determinará que una vía de acceso falla si el valor calculado es mayor que
el valor del atributo dist_err_percent.
El siguiente atributo de vía de acceso es para el PCM de AIX:
path priority
Modifica el comportamiento de la metodología de algoritmos en la lista de vías de acceso.
Cuando el valor del atributo de algoritmo es failover, las vías de acceso se mantienen en una lista. La
secuencia de la lista determina la vía de acceso que se selecciona en primer lugar y, si una vía de
acceso falla, la vía de acceso que se selecciona a continuación. La secuencia se determina por el valor
del atributo de prioridad de vías de acceso. La prioridad 1 es la prioridad más alta. Varias vías de
acceso pueden tener el mismo valor de prioridad, pero si todas las vías de acceso tienen el mismo
valor, la selección se basa en cuándo se ha configurado cada vía de acceso.
Cuando el valor del atributo de algoritmo es round_robin, el algoritmo path priority asigna un
valor de prioridad en cada vía de acceso. Las vías de acceso se seleccionan para las operaciones de
E/S en proporción a las prioridades de vía de acceso. Por lo tanto, las vías de acceso con valores de
prioridad superiores se seleccionan para más operaciones de E/S. Si todas las prioridades de vía de
acceso son las mismas, se seleccionan las vías de acceso de la misma forma.
cntl_hcheck_int
La secuencia de comprobación del estado del controlador se iniciará una vez se detecte un error en el
transporte de la estructura de almacenamiento. El atributo cntl_delay_time determina la duración
máxima en segundos, de que la secuencia de comprobación de estado del controlador está activa. Si
un mandato de comprobación del estado del controlador se completa satisfactoriamente y detecta
una vía de acceso disponible, entonces existirá la secuencia de comprobación de estado del
controlador que permite tener al I/O para reanudarlo. Al final de la secuencia de comprobación del
estado del controlador, si no se detecta ninguna vía de acceso como buena, fallarán todas las que
están pendientes y la E/S al dispositivo, hasta que el comprobador del estado del dispositivo detecte
que se ha devuelto una vía de acceso errónea.
Aunque la secuencia de comprobación del estado del controlador esté activa, el atributo
cntl_hcheck_interval será la cantidad de tiempo en segundos, cuando se emita los mandatos de
comprobación de estado del controlador. El atributo cntl_hcheck_interval debe ser menor que
cntl_delay_time, a menos que esté establecido en 0 o inhabilitado. Si cntl_delay_time o
cntl_hcheck_interval se establecen en 0, se inhabilita la característica.
cntl_delay_time
La secuencia de comprobación del estado del controlador se iniciará una vez se detecte un error en el
transporte de la estructura de almacenamiento. El atributo cntl_delay_time determina la duración
máxima en segundos, de que la secuencia de comprobación de estado del controlador está activa. Si
un mandato de comprobación del estado del controlador se completa satisfactoriamente y detecta
una vía de acceso disponible, entonces existirá la secuencia de comprobación de estado del
controlador que permite tener al I/O para reanudarlo. Al final de la secuencia de comprobación del
estado del controlador, si no se detecta ninguna vía de acceso como buena, fallarán todas las que
están pendientes y la E/S al dispositivo, hasta que el comprobador del estado del dispositivo detecte
que se ha devuelto una vía de acceso errónea.
Aunque la secuencia de comprobación del estado del controlador esté activa, el atributo
cntl_hcheck_interval será la cantidad de tiempo en segundos, cuando se emita los mandatos de
comprobación de estado del controlador. El atributo cntl_hcheck_interval debe ser menor que
cntl_delay_time, a menos que esté establecido en 0 o inhabilitado. Si cntl_delay_time o
cntl_hcheck_interval se establecen en 0, se inhabilita la característica.
timeout_policy
Ajusta el comportamiento del PCM para los tiempos de espera del mandato y errores de transporte.
Cuando se establece timeout_policy en fail_path o disable_path, la degradación del rendimiento
puede mejorar cuando un dispositivo de múltiples vías de acceso I/O (MPIO) encuentra problemas de

190 AIX Versión 7.2: Gestión de dispositivos


fábrica de una red de área de almacenamiento intermitente (SAN) en algunas vías de acceso al
dispositivo. El atributo timeout_policy tiene los valores siguientes:
retry_path
La primera aparición de un tiempo de espera del mandato en la vía de acceso no provoca un fallo
inmediato de la vía de acceso. Si una vía de acceso que ha fallado debido a problemas de
transporte se recupera por una comprobación de estado, se podrá utilizar de inmediato la vía de
acceso recuperada.
fail_path
La vía de acceso falla en la primera aparición de un tiempo de espera de mandato, suponiendo
que no es la última vía de acceso en el grupo de vía de acceso. Si una vía de acceso que ha fallado
debido a problemas de transporte se recupera, la vía de acceso no se utiliza para leer o grabar
operaciones I/O hasta que finalice un periodo sin anomalías de esa vía de acceso. Si esta
característica está habilitada, es posible que se produzca un retardo antes de que la E/S de
lectura o grabación se direccione a las vías de accesoque se han recuperado de un error de
transporte.

fail_ctrl
Este valor hace que MPIO conmute desde el controlador preferido al controlador no preferido más
rápidamente. Si no habilita este valor, fallarán todas las vías de acceso al controlador preferido
antes de que MPIO cambie del controlador preferido al controlador no preferido. Al habilitar este
valor, MPIO cambia cuando haya errores en dos vías de acceso al controlador preferido. Este valor
es similar al valor fail_path.

disable_path
La vía de acceso falla en la primera aparición de un tiempo de espera de mandato, suponiendo
que no es la última vía de acceso en el grupo de vía de acceso. Si una vía de acceso que ha fallado
debido a problemas de transporte se recupera, la vía de acceso no se utiliza para leer o grabar
operaciones I/O hasta que finalice un periodo sin anomalías de esa vía de acceso. Si esta vía de
acceso sigue experimentando varios tiempos de espera de mandato durante un periodo, es
posible que esté inhabilitada. Las vías de acceso inhabilitadas seguirán inhabilitadas y no se
podrán utilizar hasta que realice una de las siguientes acciones: ejecute el mandato chpath para
habilitar la vía de acceso inhabilitada, vuelva a configurar el disco, o volver a arrancar el sistem.

Atributos de réplica SAN


Debe instalarse la característica de E/S de múltiples vías de acceso (MPIO) de AIX y el dispositivo debe
usar el módulo de control de vía (PCM) de AIX. Estos atributos tienen dependencias en valores y
características que proporciona el subsistema de almacenamiento.
Los siguientes atributos de AIX pertenecen al comportamiento de los núneros de unidad lógica (LUN), que
se replican a traves del subsistemas de almacenamiento. Todos los subsistemas de almacenamiento o
niveles de microcódigo no podrán dar soporte a estos atributos. El software de agrupación en clúster o de
alta disponibilidad, como por ejemplo PowerHA SystemMirror está instalado para coordinar la gestión de
la réplica de red de área de almacenamiento (SAN) en todos los nodos en un clúster. Los atributos
siguientes no se pueden cambiar en un servidor Virtual I/O (VIOS).
san_rep_cfg
Determina cómo se define y sincroniza un dispositivo síncrono que esté utilizando una copia remota
de igual a igual (PPRC) en el sistema operativo AIX. El valor unique_id de la instancia de disco se ve
afectado por este atributo, y puede cambiar si el valor del atributo se modifica. El atributo
san_rep_cfg no alterará el estado del dispositivo PPRC en el subsistema de almacenamiento. El
atributo tiene los valores siguientes:
none [Default]
Configura los LUN en un dispositivo síncrono que esté utilizando PPRC como instancias de disco
lógico distintas.

Gestión de dispositivos 191


new
Define y configura el dispositivo síncrono que esté utilizando PPRC como una única instancia de
lógica. El dispositivo se define y configura sólo cuando no existe ninguna instancia de disco que
coincida con algún LUN del dispositivo PPRC.
new_and_existing
Define y configura el dispositivo síncrono que esté utilizando PPRC como una única instancia de
lógica. Si no hay ninguna instancia de disco lógico que represente el dispositivo PPRC, se definirá
un nuevo disco.
migrate_disk
Define y configura el dispositivo síncrono que esté utilizando PPRC como una única instancia de
hdisk y utiliza la instancia de disco lógica seleccionada para el dispositivo. Sólo se soporta la
operación en dispositivos que tienen el atributo san_rep_device que tengan establecido soporte o
detectado. Si el dispositivo de destino tiene el atributo san_rep_device en soportado, la
operación sólo funcionará si la réplica SAN se ha configurado en el almacenamiento desde la
última vez que se ha configurado el disco. Esta operación está soportada en los discos que se
abren y en uso por los sistemas operativos AIX si el dispositivo no se utiliza como un disco del
repositorio dentro de una agrupación. El valor unique_id para el disco afectado se actualiza para
reflejar el ID del dispositivo PPRC.
revert_disk
Configura un dispositivo síncrono existente que está utilizando la instancia de disco lógico PPRC
en una instancia hdisk del dispositivo no PPRC. Esta operación sólo está soportada en dispositivos
que tienen el atributo san_rep_device establecido en sí. No se modificarán el nombre del
dispositivo lógico ni el archivo especial de la instancia de disco de destino. Se utiliza el LUN
principal (origen) para un dispositivo de réplica SAN para la instancia hdisk revertida. Si el LUN
principal (origen) no se ha encontrado o no se conoce en el host, se utilizará el LUN secundario
(destino) LUN para la instancia de hdisk revertida. Esta operación está soportada en los discos que
se abren y en uso por los sistemas operativos AIX si el dispositivo no se utiliza como un disco del
repositorio dentro de una agrupación. El valor unique_id para el disco afectado se actualiza para
reflejar el ID del LUN.
Los valores none, new y new_and_existing están diseñados para actualizar el comportamiento de
todos los dispositivos del mismo tipo único de Gestor de Datos Objeto (ODM). El mandato chdef se
utiliza para establecer los valores none, new y new_and_existing. El mandato chdef actualiza el
valor predeterminado de un atributo para todos los dispositivos del tipo exclusivo del ODM
especificado. Asimismo, el mandato chdef actualiza el valor de atributo para las instancias de
dispositivo existentes que ya están definidas. Para los dispositivos que ya estén configurados cuando
el mandato chdef se está ejecutando, el cambio no entrará en vigor hasta que se rearranque el
sistema o esos dispositivos se hayan podido desconfigurar y volver a configurar. El mandato chdef
requiere la clase, subclase y el tipo de atributo. Para determinar el tipo exclusivo ODM del atributo
san_rep_cfg, utilice el mandato lsattr–l hdisk#- F class,subclass,type. Por ejemplo:

lsdev –l hdisk0 –F class,subclass,type


disk,fcp,aixmpiods8k
chdef –a san_rep_cfg=none –c disk –s fcp –t aixmpiods8k
chdef –a san_rep_cfg=new –c disk –s fcp –t aixmpiods8k
chdef –a san_rep_cfg=new_and_existing –c disk –s fcp –t aixmpiods8k

Los valores migrate_disk y revert_disk actualizan el comportamiento de una instancia de dispositivo


exclusiva y especificada. Debe utilizarse el mandato chdev para establecer el valor migrate_disk o
revert_disk para un dispositivo específico. El mandato chdev actualiza el valor sólo para el
dispositivo especificado. Por ejemplo:

chdev -a san_rep_cfg=migrate_disk -l hdisk0


chdev -a san_rep_cfg=revert_disk -l hdisk0

san_rep_device
Indica que la instancia de disco lógico se define como un dispositivo de réplica SAN. Este atributo se
establece durante la configuración de disco, y puede estar obsoleto si el estado del dispositivo se
cambia porque se ha configurado el disco. El atributo tiene los valores siguientes:

192 AIX Versión 7.2: Gestión de dispositivos


no
El dispositivo no está configurado en el sistema operativo AIX como dispositivo de réplica SAN.
Este dispositivo no cumple los requisitos para ser configurado como un dispositivo de réplica SAN.
soportados
El dispositivo no está configurado en el sistema operativo AIX como dispositivo de réplica SAN.
Este dispositivo cumple los requisitos para ser configurado como un dispositivo de réplica SAN.
Sin embargo, actualmente no está configurado como un dispositivo de réplica SAN en el
subsistema de almacenamiento.
detectado
El dispositivo no está configurado en el sistema operativo AIX como dispositivo de réplica SAN. El
sistema operativo AIX ha detectado que el dispositivo cumple los requisitos para ser configurado
como un dispositivo de réplica SAN y que está configurado como dispositivo de réplica SAN en el
subsistema de almacenamiento.

El dispositivo está configurado en el sistema operativo AIX como dispositivo de réplica SAN.

Extracción del adaptador de comunicaciones


Antes de extraer o sustituir un adaptador de conexión en caliente, debe eliminar la configuración de ese
adaptador.
La eliminación de la configuración de un adaptador de comunicaciones implica las tareas siguientes:
• Cerrar todas las aplicaciones que utilizan el adaptador que va a extraer o sustituir
• Asegurarse de que todos los dispositivos conectados al adaptador están identificados y detenidos
• Listar todas las ranuras que están actualmente en uso o la ranura ocupada por un adaptador específico
• Identificar la ubicación de la ranura del adaptador
• Visualizar y eliminar la información de interfaz de la lista de interfaces de red
• Hacer que el adaptador no esté disponible
Para desconfigurar los adaptadores de comunicaciones con los siguientes procedimientos, debe iniciar
una sesión como usuario root:

Eliminación de la configuración de los adaptadores Ethernet, Red en Anillo, FDDI y ATM


Para eliminar la configuración de un adaptador Ethernet, Red en Anillo, FDDI o ATM, siga estos pasos:
1. Escriba lsslot -c pci para listar todas las ranuras de conexión en caliente de la unidad del sistema
y visualizar sus características.
2. Escriba el mandato SMIT adecuado, mostrado en los ejemplos siguientes, para listar los adaptadores
instalados y visualizar el estado actual de todos los dispositivos de la unidad del sistema:

Elemento Descripción
smit lsdenet Para listar los adaptadores Ethernet
smit lsdtok Para listar los adaptadores de Red en Anillo
smit ls_atm Para listar los adaptadores ATM

Se utiliza el siguiente convenio de denominación para cada tipo deferente de adaptador:

Elemento Descripción
Nombre Tipo de adaptador
atm0, atm1, ... Adaptador ATM
ent0, ent1, ... Adaptador Ethernet
tok0, tok1, ... Adaptador de Red en Anillo

Gestión de dispositivos 193


3. Cierre todas las aplicaciones que están utilizando el adaptador cuya configuración está eliminando.
Para continuar con este procedimiento, las ubicaciones de vuelco de red deben estar inhabilitadas en
el sistema. Para buscar e inhabilitar las ubicaciones de vuelco de red, haga lo siguiente:
a) Escriba lo siguiente en una línea de mandatos:

smit dump

b) Seleccione Mostrar Dispositivos de Vuelco Actuales.


c) Compruebe si algún dispositivo de vuelco configurado muestra una ubicación de red.
Si no, salga de SMIT y está preparado para el paso 4. Para cambiar un dispositivo de vuelco a una
ubicación local, seleccione Cancelar o pulse F3 para continuar en el paso siguiente.
d) Si el dispositivo de vuelco primario muestra una ubicación de red, cámbiela por una ubicación local
seleccionando Cambiar el Dispositivo de Vuelco Primario y después especifique la ubicación en el
campo Dispositivo de vuelco primario.
e) Si el dispositivo de vuelco secundario muestra una ubicación de red, cámbiela por una ubicación
local seleccionando Cambiar el Dispositivo de Vuelco Secundario y después especifique la
ubicación local en el campo Dispositivo de vuelco secundario.
f) Cuando finalice, pulse en OK o pulse Intro.
4. Escriba netstat -i para visualizar una lista de todas las interfaces configuradas y determine si el
adaptador está configurado para TCP/IP. Se visualiza una salida similar a la siguiente:

Nom Mtu Red Dirección Ipkts Ierrs Opkts Oerrs Coll


lo0 16896 link#1 076 0 118 0 0
lo0 16896 127 127.0.0.1 076 0 118 0 0
lo0 16896 ::1 076 0 118 0 0
tr0 1492 link#2 8.0.5a.b8.b.ec 151 0 405 11 0
tr0 1492 19.13.97 19.13.97.106 151 0 405 11 0
at0 9180 link#3 0.4.ac.ad.e0.ad 0 0 0 0 0
at0 9180 6.6.6 6.6.6.5 0 0 0 0 0
en0 1500 link#5 0.11.0.66.11.1 212 0 1 0 0
en0 1500 8.8.8 8.8.8.106 212 0 1 0 0

Los adaptadores de Red en Anillo sólo tienen una interfaz. Los adaptadores Ethernet tienen dos
interfaces. Los adaptadores ATM pueden tener múltiples interfaces.
5. Escriba el mandato ifconfig adecuado, mostrado en los ejemplos siguientes, para eliminar la
interfaz de la lista de interfaces de red.

Elemento Descripción
ifconfig en0 detach Para eliminar la interfaz Ethernet estándar
ifconfig et0 detach Para eliminar la interfaz IEEE 802.3 Ethernet
ifconfig tr0 detach Para eliminar una interfaz de Red en Anillo
ifconfig at0 detach Para eliminar una interfaz ATM
6. Escriba el mandato rmdev adecuado, mostrado en los ejemplos siguientes, para eliminar la
configuración del adaptador y conservar su definición de dispositivo en la clase de objeto Dispositivos
personalizados:

Elemento Descripción
rmdev -l ent0 Para eliminar la configuración de un adaptador Ethernet
rmdev -l tok1 Para eliminar la configuración de un adaptador de Red en Anillo
rmdev -l atm1 Para eliminar la configuración de un adaptador ATM
rmdev -p pci1 Para eliminar la configuración de los hijos de un bus PCI y todos los
demás dispositivos bajo ellos mientras conservan las definiciones de
dispositivo en la clase de objeto Dispositivos personalizados.

194 AIX Versión 7.2: Gestión de dispositivos


Nota: Para eliminar la configuración del adaptador y eliminar la definición de dispositivo de la clase de
objeto Dispositivos personalizados, puede utilizar el mandato rmdev con el distintivo -d.

Atención: No utilice el distintivo -d con el mandato rmdev para una operación de conexión en
caliente a menos que intente extraer el adaptador y no sustituirlo.

Eliminación de la configuración de adaptadores WAN


Puede eliminar la configuración de un adaptador WAN.
Para eliminar la configuración de un adaptador WAN:
1. Escriba lsslot -c pci para listar todas las ranuras de conexión en caliente de la unidad del sistema
y visualizar sus características.
2. Escriba el mandato SMIT adecuado, mostrado en los ejemplos siguientes, para listar los adaptadores
instalados y visualizar el estado actual de todos los dispositivos de la unidad del sistema:

Elemento Descripción
smit 331121b9_ls Para listar los adaptadores WAN multiprotocolo de 2 puertos
smit riciophx_ls Para listar adaptadores ARTIC WAN

Se utiliza el siguiente convenio de denominación para cada tipo deferente de adaptador:

Nombre Tipo de adaptador


dpmpa Adaptador multiprotocolo de 2 puertos
riciop Adaptador ARTIC960
3. Cierre todas las aplicaciones que están utilizando el adaptador cuya configuración está eliminando.
Para continuar con este procedimiento, las ubicaciones de vuelco de red deben estar inhabilitadas en
el sistema. Para buscar e inhabilitar las ubicaciones de vuelco de red, haga lo siguiente:
a) Escriba lo siguiente en una línea de mandatos:

smit dump

b) Seleccione Mostrar Dispositivos de Vuelco Actuales.


c) Compruebe si algún dispositivo de vuelco configurado muestra una ubicación de red.
Si no, salga de SMIT y está preparado para el paso 5 de más abajo. Para cambiar un dispositivo de
vuelco a una ubicación local, seleccione Cancelar o pulse F3 para continuar en el paso siguiente.
d) Si el dispositivo de vuelco primario muestra una ubicación de red, cámbiela por una ubicación local
seleccionando Cambiar el Dispositivo de Vuelco Primario y después especifique la ubicación en el
campo Dispositivo de vuelco primario.
e) Si el dispositivo de vuelco secundario muestra una ubicación de red, cámbiela por una ubicación
local seleccionando Cambiar el Dispositivo de Vuelco Secundario y después especifique la
ubicación local en el campo Dispositivo de vuelco secundario.
f) Cuando finalice, pulse en OK o pulse Intro.
4. Utilice los mandatos de la tabla siguiente para eliminar la configuración, los controladores de
dispositivo y los puertos de emulador para estos adaptadores:

Nombre Adaptador multiprotocolo de 2 puertos


smit rmhdlcdpmpdd Para eliminar la configuración del dispositivo
smit rmsdlcscied Para eliminar la configuración del emulador SDLC
COMIO

Gestión de dispositivos 195


Nombre Adaptador PCI ARTIC960Hx
smit rmtsdd Para eliminar la configuración del controlador de dispositivo
smit rmtsdports Para eliminar un puerto de emulación MPQP COMIO

Eliminación de la configuración de adaptadores PCI Ethernet 10/100 Base-TX IBM de 4 puertos


Se debe eliminar la configuración del adaptador PCI Ethernet 10/100 Base-TX de 4 puertos y de cada
puerto para extraer el adaptador.
1. Escriba lsslot -c pci para listar todas las ranuras de conexión en caliente de la unidad del sistema
y visualizar sus características.
2. Escriba smit lsdenet para listar todos los dispositivos de la subclase PCI.
Se visualiza un mensaje similar al siguiente:

ent1 Disponible 1N-00 Adaptador IBM 10/100 Base-TX Ethernet PCI de 4 puertos
(23100020) (Puerto 1)
ent2 Disponible 1N-08 Adaptador IBM 10/100 Base-TX Ethernet PCI de 4 puertos
(23100020) (Puerto 2)
ent3 Disponible 1N-10 Adaptador IBM 10/100 Base-TX Ethernet PCI de 4 puertos
(23100020) (Puerto 3)
ent4 Disponible 1N-18 Adaptador IBM 10/100 Base-TX Ethernet PCI de 4 puertos
(23100020) (Puerto 4)

3. Cierre todas las aplicaciones que están utilizando el adaptador cuya configuración está eliminando.
Para continuar con este procedimiento, las ubicaciones de vuelco de red deben estar inhabilitadas en
el sistema. Para buscar e inhabilitar las ubicaciones de vuelco de red, haga lo siguiente:
a) Escriba lo siguiente en una línea de mandatos:

smit dump

b) Seleccione Mostrar Dispositivos de Vuelco Actuales.


c) Compruebe si algún dispositivo de vuelco configurado muestra una ubicación de red.
Si no, salga de SMIT y está preparado para el paso 4. Para cambiar un dispositivo de vuelco a una
ubicación local, seleccione Cancelar o pulse F3 para continuar en el paso siguiente.
d) Si el dispositivo de vuelco primario muestra una ubicación de red, cámbiela por una ubicación local
seleccionando Cambiar el Dispositivo de Vuelco Primario y después especifique la ubicación en el
campo Dispositivo de vuelco primario.
e) Si el dispositivo de vuelco secundario muestra una ubicación de red, cámbiela por una ubicación
local seleccionando Cambiar el Dispositivo de Vuelco Secundario y después especifique la
ubicación local en el campo Dispositivo de vuelco secundario.
f) Cuando finalice, pulse Aceptar o pulse Intro.
4. Escriba netstat -i para visualizar una lista de todas las interfaces configuradas y determine si el
adaptador está configurado para TCP/IP.
Se visualiza una salida similar a la siguiente:

Nom Mtu Red Dirección Ipkts Ierrs Opkts Oerrs Coll


lo0 16896 link#1 076 0 118 0 0
lo0 16896 127 127.0.0.1 076 0 118 0 0
lo0 16896 ::1 076 0 118 0 0
tr0 1492 link#2 8.0.5a.b8.b.ec 151 0 405 11 0
tr0 1492 19.13.97 19.13.97.106 151 0 405 11 0
at0 9180 link#3 0.4.ac.ad.e0.ad 0 0 0 0 0
at0 9180 6.6.6 6.6.6.5 0 0 0 0 0
en0 1500 link#5 0.11.0.66.11.1 212 0 1 0 0
en0 1500 8.8.8 8.8.8.106 212 0 1 0 0

Los adaptadores Ethernet pueden tener dos interfaces, por ejemplo, et0 y en0.
5. Utilice el mandato ifconfig para eliminar cada interfaz de la lista de interfaces de red.
Por ejemplo, escriba iconfig en0 detach para eliminar la interfaz Ethernet estándar y escriba
iconfig et0 para eliminar la interfaz IEEE 802.3.

196 AIX Versión 7.2: Gestión de dispositivos


6. Utilice el mandato rmdev para eliminar la configuración de adaptador y conservar la definición de
dispositivo en la clase de objeto Dispositivos personalizados.
Por ejemplo, rmdev -l ent0.
Nota: Para eliminar la configuración del adaptador y eliminar la definición de dispositivo de la clase de
objeto Dispositivos personalizados, puede utilizar el mandato rmdev con el distintivo -d.

Atención: No utilice el distintivo -d con el mandato rmdev para una operación de conexión en
caliente a menos que intente extraer el adaptador y no sustituirlo.

Eliminación de la configuración de adaptadores ATM


Debe eliminar la configuración de todos los dispositivos de LAN emulada antes de poder extraer el
adaptador.
Los protocolos clásicos de emulación de IP y LAN pueden ejecutarse en adaptadores ATM. El protocolo de
emulación de LAN habilita la implementación de LAN emuladas en una red ATM. Las LAN emuladas
pueden ser Ethernet/IEEE 802.3, Red en Anillo/IEEE 802.5 y MPOA (MultiProtocol Over ATM).
Para eliminar una interfaz LAN, haga lo siguiente:
1. Escriba lsslot -c pci para listar todas las ranuras de conexión en caliente de la unidad del
sistema y visualizar sus características.
2. Escriba smit ls_atm para listar todos los adaptadores ATM.
Se visualiza un mensaje similar al siguiente:

.
.
atm0 Disponible 04-04 Adaptador ATM IBM PCI de 155 Mbps (14107c00)
atm1 Disponible 04-06 Adaptador ATM IBM PCI de 155 Mbps (14104e00)

3. Escriba smit listall_atmle para listar todos los clientes de LAN emulada de los adaptadores.
Se visualiza un mensaje similar al siguiente:

ent1 Disponible Cliente de emulación LAN ATM (Ethernet)


ent2 Disponible Cliente de emulación LAN ATM (Ethernet)
ent3 Disponible Cliente de emulación LAN ATM (Ethernet)
tok1 Disponible Cliente de emulación LAN ATM (Red en Anillo)
tok2 Disponible Cliente de emulación LAN ATM (Red en Anillo)

Todos los adaptadores ATM pueden contener múltiples clientes emulados en ejecución.
4. Escriba smit listall_mpoa para listar todos los clientes de LAN emulada de los adaptadores.
Se visualiza un mensaje similar al siguiente:

mpc0 Disponible Cliente MPOA de emulación LAN ATM

atm0 y atm1 son los adaptadores ATM físicos. mpc0 es un cliente de MPOA emulado. ent1, ent2,
ent3, tok1 y tok2 son clientes de LAN emulada.
5. Escriba entstat para determinar en qué adaptador se ejecuta el cliente.
Se visualiza un mensaje similar al siguiente:

-------------------------------------------------------------
ESTADÍSTICAS DE ETHERNET (ent1) :
Tipo dispositivo: Emulación de LAN ATM Dirección hardware ATM: 00:04:ac:ad:e0:ad
.
.
.
Estadísticas específicas de emulación de LAN ATM:
--------------------------------------
Nombre de la LAN emulada: ETHelan3
Nombre de dispositivo ATM local: atm0
Dirección MAC LAN local:
.
.

6. Cierre todas las aplicaciones que están utilizando el adaptador cuya configuración está eliminando.

Gestión de dispositivos 197


Para continuar con este procedimiento, las ubicaciones de vuelco de red deben estar inhabilitadas en
el sistema. Para buscar e inhabilitar las ubicaciones de vuelco de red, haga lo siguiente:
a) Escriba lo siguiente en una línea de mandatos:

smit dump

b) Seleccione Mostrar Dispositivos de Vuelco Actuales.


c) Compruebe si algún dispositivo de vuelco configurado muestra una ubicación de red.
Si no, salga de SMIT y está preparado para el paso 7. Para cambiar un dispositivo de vuelco a una
ubicación local, seleccione Cancelar o pulse F3 para continuar en el paso siguiente.
d) Si el dispositivo de vuelco primario muestra una ubicación de red, cámbiela por una ubicación
local seleccionando Cambiar el Dispositivo de Vuelco Primario y después especifique la
ubicación en el campo Dispositivo de vuelco primario.
e) Si el dispositivo de vuelco secundario muestra una ubicación de red, cámbiela por una ubicación
local seleccionando Cambiar el Dispositivo de Vuelco Secundario y después especifique la
ubicación local en el campo Dispositivo de vuelco secundario.
f) Cuando finalice, pulse en OK o pulse Intro.
7. Utilice el mandato rmdev -l dispositivo para eliminar la configuración de las interfaces en el orden
siguiente:
• Interfaz emulada = en1, et1, en2, et2, tr1, tr2 ...
• Interfaz emulada = ent1, ent2, tok1, tok2 ...
• Multiprotocol Over ATM (MPOA) = mpc0
• Adaptador ATM = atm0
8. Para eliminar la configuración del adaptador SCSI scsi1 y todos sus hijos mientras conserva sus
definiciones de dispositivo en la clase de objeto Dispositivos personalizados, escriba:

rmdev -R scsi1

El sistema visualiza un mensaje similar al siguiente:

rmt0 Definido
hdisk1 Definido
scsi1 Definido

9. Para eliminar la configuración de los hijos del adaptador scsi1, pero no del propio adaptador,
mientras conserva sus definiciones de dispositivo en la clase de objeto Dispositivos personalizados,
escriba:

rmdev -p scsi1

El sistema visualiza un mensaje similar al siguiente:

rmt0 Definido
hdisk1 Definido

10. Para eliminar la configuración de los hijos del bus PCI pci1 y todos los dispositivos que se
encuentran bajo suyo mientras conserva sus definiciones en la clase de objeto Dispositivos
personalizados, escriba:

rmdev -p pci1

El sistema visualiza un mensaje similar al siguiente:

rmt0 Definido
hdisk1 Definido
scsi1 Definido
ent0 Definido

198 AIX Versión 7.2: Gestión de dispositivos


Eliminación de la configuración de adaptadores de almacenamiento
Antes de extraer o sustituir un adaptador de almacenamiento, debe eliminar la configuración de ese
adaptador.
Para realizar estas tareas, debe iniciar la sesión como usuario root.
Los pasos siguientes desconfiguran los adaptadores de almacenamiento SCSI y Fibre Channel.
La eliminación de la configuración de un adaptador de almacenamiento implica las tareas siguientes:
• Cerrar todas las aplicaciones que utilizan el adaptador que se va a extraer, sustituir o mover
• Desmontar los sistemas de archivos
• Asegurarse de que todos los dispositivos conectados al adaptador están identificados y detenidos
• Listar todas las ranuras que están actualmente en uso o la ranura ocupada por un adaptador específico
• Identificar la ubicación de la ranura del adaptador
• Hacer que los dispositivos padre e hijo no estén disponibles
• Hacer que el adaptador no esté disponible
Eliminación de la configuración de adaptadores SAS, SCSI, NVMe y Fibre Channel
Generalmente los adaptadores de almacenamiento son dispositivos padre para dispositivos de soporte
como, por ejemplo, unidades de disco o de cintas. La eliminación del padre requiere que todos los
dispositivos hijo conectados se eliminen o se coloquen en estado definido.
Para desconfigurar los adaptadores SCSI y Fibre Channel, lleve a cabo los pasos siguientes:
1. Cierre todas las aplicaciones que están utilizando el adaptador cuya configuración está eliminando.
2. Escriba lsslot-c pci para listar todas las ranuras de conexión en caliente de la unidad del sistema
y visualizar sus características.
3. Escriba lsdev -C para listar el estado actual de todos los dispositivos de la unidad del sistema.
4. Escriba umount para desmontar los sistemas de archivos montados previamente, los directorios o los
archivos que utilizan este adaptador. Para obtener información adicional, consulte Montaje de JFS o
JFS2.
5. Escriba rmdev -l adapter -R para que el adaptador no esté disponible.

Atención: No utilice el distintivo -d con el mandato rmdev para las operaciones de conexión en
caliente porque hará que se elimine la configuración.

Eliminación de la configuración de adaptadores asíncronos


Puede eliminar la configuración de un adaptador asíncrono.
Para realizar estas tareas, debe iniciar la sesión como usuario root.
Los siguientes pasos sirven para eliminar la configuración de adaptadores asíncronos.
Antes de extraer o sustituir un adaptador asíncrono, debe eliminar la configuración de ese adaptador. La
eliminación de la configuración de un adaptador asíncrono implica las tareas siguientes:
• Cerrar todas las aplicaciones que utilizan el adaptador que se va a extraer, sustituir o mover
• Asegurarse de que todos los dispositivos conectados al adaptador están identificados y detenidos
• Listar todas las ranuras que están actualmente en uso o la ranura ocupada por un adaptador específico
• Identificar la ubicación de la ranura del adaptador
• Hacer que los dispositivos padre e hijo no estén disponibles
• Hacer que el adaptador no esté disponible
Procedimiento

Gestión de dispositivos 199


Antes de poder sustituir o extraer un adaptador asíncrono, debe eliminar la configuración del adaptador y
todos los dispositivos controlados por él. Para eliminar la configuración de los dispositivos, debe terminar
todos los procesos que utilizan esos dispositivos. Siga estos pasos:
1. Cierre todas las aplicaciones que están utilizando el adaptador cuya configuración está eliminando.
2. Escriba lsslot-c pci para listar todas las ranuras de conexión en caliente de la unidad del sistema
y visualizar sus características.
3. Escriba lsdev -C -c tty para listar todos los dispositivos tty disponibles y el estado actual de
todos los dispositivos de la unidad del sistema.
4. Escriba lsdev -C -c printer para listar todos los dispositivos de impresora y trazador conectados
al adaptador.
5. Utilice el mandato rmdev para que el adaptador no esté disponible.

Atención: No utilice el distintivo -d con el mandato rmdev para las operaciones de conexión en
caliente porque hará que se elimine la configuración.

Resolución de problemas de dispositivos de E/S


Puede determinar la causa de problemas de dispositivos.

Comprobación del software de dispositivo


Corrija un problema de software de dispositivo mediante:
• La comprobación del registro de errores
• El listado de todos los dispositivos
• La comprobación del estado de un dispositivo
• La comprobación de los atributos de un dispositivo
• El cambio de los atributos de un dispositivo
• La utilización de un dispositivo con otra aplicación
• La definición de un nuevo dispositivo

Comprobación del registro de errores


Compruebe si en el registro de errores se ha registrado algún error para el dispositivo, su adaptador o la
aplicación que utiliza el dispositivo. Vaya a Recurso de registro de errores para obtener información
acerca de cómo se realiza esta comprobación. Vuelva a este paso después de completar los
procedimientos.
¿Se ha corregido el problema del dispositivo?
Si no ha podido corregir el problema utilizando el método anterior, vaya al paso siguiente (Listado de
dispositivos) para listar todos los dispositivos.

Listado de dispositivos
Utilice el mandato lsdev -C para listar todos los dispositivos definidos o disponibles. Este mandato
muestra las características de todos los dispositivos del sistema.
Si el dispositivo se encuentra en la lista de dispositivos, vaya al paso siguiente (Comprobación del estado
del dispositivo) para comprobar el estado del dispositivo.
Si el dispositivo no está en la lista de dispositivos, defina un nuevo dispositivo (consulte Definición de
nuevo dispositivo, más abajo).

Comprobación del estado del dispositivo


Busque el dispositivo en la lista generada por el mandato lsdev -C. Compruebe si el dispositivo está en
estado Disponible.

200 AIX Versión 7.2: Gestión de dispositivos


Si el dispositivo está en estado Disponible, vaya al paso siguiente (Comprobación de los atributos del
dispositivo) para comprobar los atributos del dispositivo.
Si el dispositivo no está en estado Disponible, defina un nuevo dispositivo (consulte Definición de
nuevo dispositivo, más abajo).

Comprobación de los atributos del dispositivo


Utilice el mandato lsattr -E -l NombreDispositivo para listar los atributos del dispositivo.
El mandato lsattr muestra las características de los atributos y los posibles valores de los atributos
para los dispositivos del sistema. Consulte los valores correctos en la documentación para el dispositivo
específico.
Si los atributos del dispositivo están establecidos correctamente, consulte Utilización del dispositivo
con otra aplicación, más abajo.
Si los atributos del dispositivo no están establecidos correctamente, vaya al paso siguiente, Cambio de
atributos del dispositivo.

Cambio de atributos del dispositivo


Utilice el mandato chdev -l Nombre -a Atributo=Valor para cambiar los atributos del dispositivo. Antes de
ejecutar este mandato, consulte la publicación Commands Reference, Volume 1.
El mandato chdev cambia las características del dispositivo que se especifican con el distintivo -l
Nombre.
Si el cambio de atributos no ha corregido el problema del dispositivo, vaya al paso siguiente, Utilización
del dispositivo con otra aplicación.

Utilización del dispositivo con otra aplicación


Intente utilizar el dispositivo con otra aplicación. Si el dispositivo funciona correctamente con otra
aplicación, es posible que exista un problema con la primera aplicación.
Si el dispositivo ha funcionado correctamente con otra aplicación, es posible que tenga un problema con
la primera aplicación. Informe del problema al representante de servicio de software.
Si el dispositivo no ha funcionado correctamente con otra aplicación, vaya al siguiente paso, Definición
de nuevo dispositivo.

Definición de nuevo dispositivo


Nota: Debe tener autorización de usuario root o ser un miembro del grupo de seguridad para utilizar el
mandato mkdev.
Utilice el mandato mkdev para añadir un dispositivo al sistema.
El mandato mkdev puede definir y hacer que un dispositivo nuevo esté disponible, o puede hacer que esté
disponible un dispositivo que ya está definido. Puede identificar exclusivamente el dispositivo predefinido
utilizando cualquier combinación de los distintivos -c, -s y -t. Antes de ejecutar este mandato, consulte la
publicación Commands Reference, Volume 3.
Si la definición del dispositivo no ha corregido el problema, puede detener e informar del problema al
representante de servicio o utilizar un programa de diagnósticos para probar el dispositivo.

Comprobación de las conexiones de dispositivo


Para comprobar las conexiones de dispositivo, siga estos pasos:
1. Compruebe que haya alimentación en la toma de alimentación.
2. Compruebe que el cable de alimentación del dispositivo esté conectado correctamente al dispositivo y
a la toma de alimentación.

Gestión de dispositivos 201


3. Compruebe que el cable de señal del dispositivo esté conectado correctamente al dispositivo y a la
conexión correcta de la unidad del sistema.
4. En dispositivos SCSI, compruebe que el terminador SCSI esté conectado correctamente y que el valor
de dirección SCSI sea correcto.
5. En dispositivos de comunicaciones, compruebe que el dispositivo esté conectado correctamente a la
línea de comunicaciones.
6. Compruebe que el dispositivo esté encendido.
Consulte los procedimientos de cableado y configuración en la documentación para el dispositivo
específico, así como información adicional sobre la resolución de problemas.
Si los pasos que se indican en este tema no han corregido el problema, vaya al paso siguiente.

Resolución de problemas de extracción de adaptadores


Puede recibir mensajes de error si el dispositivo está abierto cuando utiliza el mandato rmdev para
eliminar la configuración de un adaptador.
Si se visualiza el tipo siguiente de mensaje cuando utiliza el mandato rmdev para eliminar la
configuración de un adaptador, indica que el dispositivo está abierto, posiblemente porque las
aplicaciones siguen intentando acceder al adaptador que desea extraer o sustituir.

#rmdev -l ent0
Error de método (/usr/lib/methods/ucfgent):
0514-062
No se puede realizar la función pedida porque el
dispositivo especificado está ocupado.

Para resolver el problema, debe identificar las aplicaciones que siguen utilizando el adaptador y cerrarlas.
Estas aplicaciones pueden incluir las siguientes:
• TCP/IP
• SNA
• OSI
• IPX/SPX
• Novell NetWare
• Streams
• Control de enlace de datos genérico (GDLC)
– IEEE Ethernet DLC
– Red en Anillo DLC
– FDDI DLC
Aplicaciones Systems Network Architecture
Algunas aplicaciones SNA que pueden utilizar el adaptador son:
• DB2
• TXSeries (CICS & Encina)
• DirectTalk
• MQSeries
• HCON
• ADSM
Aplicaciones Streams
Algunas aplicaciones basadas en Streams que pueden utilizar el adaptador son:
• IPX/SPX
• Novell NetWare V4 y Novell NetWare Services 4.1

202 AIX Versión 7.2: Gestión de dispositivos


• Conexiones y NetBios para este sistema operativo
Aplicaciones que se ejecutan en adaptadores WAN
Las aplicaciones que pueden utilizar el adaptador WAN son:
• SDLC
• Bisync
• ISDN
Aplicaciones TCP/IP
Todas las aplicaciones TCP/IP que utilizan la capa de interfaz se pueden desconectar con el mandato
ifconfig. Esto hace que las aplicaciones que utilizan TCP/IP excedan el tiempo y de espera y avisen a
los usuarios que la interfaz está desactivada. Tras añadir o sustituir el adaptador y ejecutar el mandato
ifconfig para conectar la interfaz, las aplicaciones se reanudan.

Comprobación del estado preparado de un dispositivo


Puede comprobar si un dispositivo está en estado preparado.
Para determinar si el dispositivo está en estado preparado, haga lo siguiente:
1. Compruebe que el indicador Preparado del dispositivo esté encendido.
2. Compruebe que el soporte extraíble, como un dispositivo de cinta, disquete y óptico, esté insertado
correctamente.
3. Compruebe la cinta, el suministro de papel y el suministro de tóner para las impresoras y los
trazadores.
4. Compruebe que el soporte de grabación esté habilitado para la grabación si intenta grabar en el
dispositivo.
¿Han corregido las comprobaciones el problema del dispositivo? Si la comprobación del estado preparado
del dispositivo no ha corregido el problema, vaya al paso siguiente.

Diagnósticos de dispositivos
Para determinar si un dispositivo es defectuoso, ejecute los diagnósticos de hardware.
Si la ejecución de los diagnósticos de hardware no encuentra un problema en el dispositivo, compruebe el
software del dispositivo. Si el dispositivo pasa las pruebas de diagnóstico, puede haber un problema en el
modo en que funciona el dispositivo con el software del sistema. Si es posible que exista el problema
anterior, informe del problema a la organización del servicio de software.

Configuración de dispositivo de destino


El mandato cfgmgr se puede utilizar con el distintivo -c como opción de conexión para un ámbito
limitado de la configuración de destino en dispositivos E/S.

Configuración de destinación de dispositivos FC y FCoE


La opción cfgmgr -c se utiliza con adaptadores Fibre Channel (FC) y Fibre Channel en Ethernet (FCoE)
para la configuración de destino.
El mandato cfgmgr se puede utilizar con el distintivo -c como opción de conexión para un ámbito de
configuración de dispositivo. Para adaptadores FC y FCoE, la sintaxis es como se indica a continuación:

cfgmgr -l fscsi0 -c "parameter=val[,parameter=val,...]"

Mediante la serie de filtro de conexión, puede limitar el ámbito de la detección de dispositivo utilizando
uno o varios de los siguientes parámetros:

Gestión de dispositivos 203


Tabla 9. Parámetros del distintivo cfgmgr -c
Nombre del
parámetro Descripción
ww_name Nombre de puerto de ámbito mundial del dipositivo de destino
node_name Nombre de nodo de ámbito mundial del dipositivo de destino
scsi_id ID de N_Port de dispositivo de destino que se correlaciona con el ID de la SCSI
(Small Computer System Interface) para los dispositivos de almacenamiento
Fibre Channel Protocol (FCP)
lun_id Número de unidad lógica (LUN)

Por ejemplo, el mandato siguiente configura un único LUN de lun_id 0x1000000000000 en el puerto de
destino de almacenamiento que tiene el nombre de puerto mundial 0x5001738000330191:

# cfgmgr -l fscsi0 -c "ww_name=0x5001738000330191,lun_id=0x1000000000000"

Esta exploración sólo se produce para el puerto del adaptador de host fscsi0.
Notas:
• Los carácteres iniciales 0x en el valor del parámetro son opcionales.
• Todos los parámetros deben representarse como un número hexadecimal.
En el ejemplo siguiente, sólo se especifica un parámetro:

# cfgmgr -l fscsi0 -c "lun_id=0x1000000000000"

Este mandato explora todos los puertos del dispositivo de almacenamiento en la red de área de
almacenamiento (SAN) y configura esta única unidad lógica para cada puerto de destino SAN donde se
encuentra este LUN.

Directrices y reglas para los parámetros de filtro de conexión


Tenga en cuenta los siguientes puntos cuando utilice los parámetros de filtro de conexión:
• La configuración de destino para dispositivos FC y FCoE se aplica únicamente a entornos de adjunción y
cambios. Si especifica una cadena de conexión que se haya conectado directamente a un puerto de
destino, la conexión fallará con un mensaje que indica que los dispositivos secundarios no se pueden
encontrar.
• El distintivo - c se admite únicamente cuando va acompañado del distintivo - l del mandato cfgmgr que
limita el ámbito del mandato a un único dispositivo fscsiX a la vez.
• Si especifica -? como la serie de conexión para el distintivo -c del mandato cfgmgr, junto con el
distintivo-v, se mostrará la información de uso.
• Si especifica parámetros duplicados (por ejemplo, lun_id listados dos veces), se producirá un error. No
se detectará ningún dispositivo.
• Cualquier combinación de parámetros lun_id, scsi_id, ww_name y nombre_nodo está permitido,
excepto para duplicados. Para identificar de forma exclusiva un LUN, destino, o nodo de
almacenamiento que se debe configurar, debe especificar uno o preferiblemente dos parámetros,
aunque se permiten más. En la lista siguiente se especifica el parámetro o combinación de parámetros
necesarios para identificar de manera exclusiva un LUN, destino, o nodo de almacenamiento:
– Los parámetros ww_name y lun_id identifican de forma exclusiva un LUN en un puerto de destino
que se debe configurar.
– Los parámetros scsi_id y lun_id identifican de forma exclusiva un LUN en un puerto de destino que
se debe configurar.

204 AIX Versión 7.2: Gestión de dispositivos


– Los parámetros node_name y lun_id configuran un LUN para todos los puertos de destino de un
determinado nodo de almacenamiento. Estos parámetros pueden configurar los puertos de destino
sólo si todos los puertos de destino tienen el mismo parámetro node_name, que puede ser
verdadero para algunos dispositivos de almacenamiento.
– El parámetro ww_name configura todos los LUN para un destino específico.
– El parámetro node_name configura todos los puertos de destino para un nodo de almacenamiento
específico (únicamente si todos los puertos de destino que tienen el mismo parámetro node_name,
que puede ser verdadero para algunos dispositivos de almacenamiento).
– El parámetro lun_id configura un LUN en todos los puertos de destino que son visibles a partir de ese
dispositivo fscsi.
• Si se han especificado más de dos parámetros, el código de configuración del dispositivo utiliza esta
información adicional para validar la ubicación de dispositivo. Si alguno de los valores de parámetros
especificados están en conflicto con los valores indicados en la SAN, el mandato no funcionará y no se
configurará ningún dispositivo.

Unidades de cintas
Las funciones de la gestión del sistema descritas aquí están relacionadas con las unidades de cintas.
Muchas de estas funciones alteran y obtienen información de la base de datos de configuración de
dispositivos, que contiene información acerca de los dispositivos del sistema. La base de datos de
configuración de dispositivos consiste en la base de datos de configuración predefinida, que contiene
información acerca de todos los tipos posibles de dispositivos soportados en el sistema, y la base de
datos de configuración personalizada, que contiene información acerca de los dispositivos específicos
que hay actualmente en el sistema. Para que el sistema operativo utilice una unidad de cintas, o cualquier
otro dispositivo, el dispositivo debe estar definido en la base de datos de configuración personalizada y
debe tener un tipo de dispositivo definido en la base de datos de configuración predefinida.

Atributos de unidades de cintas


Puede ajustar los atributos de unidad de cintas para satisfacer las necesidades del sistema.
Los atributos se pueden visualizar o cambiar utilizando el SMIT, o mandatos (en particular, los mandatos
lsattr y chdev).
Cada tipo de unidad de cintas sólo utiliza un subconjunto de todos los atributos.

Información general acerca de cada atributo


Tamaño de bloque
El atributo de tamaño de bloque indica el tamaño de bloque que se debe utilizar al leer o grabar la
cinta. Los datos se graban en cinta en bloques de datos, con vacíos entre los registros de diferentes
bloques. Los registros mayores son útiles cuando se graba en cinta sin formato, porque el número de
vacíos entre registros se reduce, lo que permite grabar más datos en la cinta. El valor 0 indica bloques
de longitud variable. Los valores permitidos y los valores predeterminados varían según la unidad de
cintas.
Almacenamientos intermedios de dispositivos
El establecimiento del atributo Almacenamientos intermedios de dispositivos (utilizando el mandato
chdev) en mode=yes indica que se notifica a la aplicación la finalización de la grabación cuando los
datos se han transferido al almacenamiento intermedio de datos de la unidad de cintas, pero no
necesariamente después de que se hayan grabado realmente en la cinta. Si especifica mode=no, sólo
se notifica a la aplicación la finalización de la grabación después de que los datos se hayan grabado
realmente en la cinta. No se puede mantener la modalidad continua para lectura o grabación si este
atributo se establece en el valor mode=no. El valor predeterminado es mode=yes.
Con el valor mode=no, la unidad de cintas es más lenta pero tiene datos más completos en caso de
una interrupción de la alimentación o una anomalía del sistema y permite un manejo mejor de las
condiciones de fin de soporte.

Gestión de dispositivos 205


Marcas de archivo ampliadas
El establecimiento del atributo Marcas de archivo ampliadas (para el mandato chdev, el atributo
extfm) en el valor no graba una marca de archivo regular en la cinta siempre que se graba una marca
de archivo. Si este atributo se establece en el valor yes, se graba una marca de archivo ampliado. En
las unidades de cintas, se puede activar este atributo. El valor predeterminado es no. Por ejemplo, las
marcas de archivo ampliadas en las unidades de cintas de 8 mm utilizan 2,2 MB de cinta y pueden
tardar hasta 8,5 segundos en la grabación. Las marcas de archivos normales utilizan 184 KB y tardan
aproximadamente 1,5 segundos en grabarse.
Para reducir errores al utilizar una cinta de 8 mm en modalidad de adición, utilice marcas de archivo
ampliadas para obtener un mejor posicionamiento después de invertir operaciones en marcas de
archivos.
Retensión
El establecimiento del atributo retensión (para el mandato chdev, el atributo ret) en ret=yes hace
que la unidad de cinta retensione una cinta automáticamente siempre que se inserte una cinta o que
la unidad se restablezca. La retensión de una cinta significa rebobinar la cinta hasta el final y después
rebobinarla hasta el principio para nivelar la tensión en toda la cinta. La retensión de la cinta puede
reducir errores, pero esta acción puede tardar varios minutos. Si especifica el valor ret=no, la unidad
de cintas no retensiona automáticamente la cinta. El valor predeterminado es sí.
Valor núm. 1 de densidad y Valor núm. 2 de densidad
El Valor núm. 1 de densidad (para el mandato chdev, el atributo density_set_1) establece el valor
de densidad de grabación de la cinta cuando se utilizan los archivos especiales /dev/rmt*, /dev/
rmt*.1, /dev/rmt*.2 y /dev/rmt*.3. El Valor núm. 2 de densidad (para chdev, el atributo
density_set_2) establece el valor de densidad de grabación de la cinta cuando se utilizan los
archivos especiales /dev/rmt*.4, /dev/rmt*.5, /dev/rmt*.6 y /dev/rmt*.7. Consulte el
apartado “Archivos especiales para unidades de cintas” en la página 216 para obtener más
información.
Los valores de densidad se representan como números decimales en el rango de 0 a 255. Un valor
cero (0) selecciona la densidad predeterminada para la unidad de cintas, que normalmente es el valor
de densidad alto de la unidad. Los valores permitidos específicos y sus significados varían según los
distintos tipos de unidades de cinta. Estos atributos no afectan a la posibilidad de la unidad de cintas
de leer cintas grabadas en todas las densidades soportadas por la unidad de cintas. Es habitual
establecer el Valor núm. 1 de densidad en la densidad más alta posible de la unidad de cintas y el
Valor núm. 2 de densidad en la segunda densidad más alta posible de la unidad de cintas.
Soporte de reserva
En unidades de cintas que utilizan el atributo Reserva (para el mandato chdev, el atributo
res_support), la especificación del valor res_support=yes hace que se reserve la unidad de
cintas en el bus SCSI mientras está abierta. Si más de un adaptador SCSI comparte el dispositivo de
cintas, esto garantiza el acceso de un solo adaptador mientras el dispositivo está abierto. Algunas
unidades de cintas SCSI no soportan los mandatos de reserva o liberación. Algunas unidades de
cintas SCSI tienen un valor predefinido para este atributo para que siempre estén soportados los
mandatos de reserva o liberación.
Tamaño de bloque de longitud variable
El atributo Tamaño de bloque de longitud variable (para el mandato chdev, el atributo
var_block_size) especifica el tamaño de bloque necesario para la unidad de cintas al grabar
registros de longitud variable. Algunas unidades de cintas SCSI necesitan que se especifique un
tamaño de bloque que no sea cero en su datos de selección de modalidad aunque graben registros de
longitud variable. El atributo Tamaño de bloque se establece en 0 para indicar registros de longitud
variable. Consulte la especificación SCSI de la unidad de cintas específica para determinar si es
necesario o no.
Compresión de datos
El establecimiento del atributo Compresión de datos (para el mandato chdev, el atributo compress)
en compress=yes hace que la unidad de cintas esté en modalidad de compresión, si la unidad tiene
la capacidad de comprimir datos. Si es así, la unidad graba los datos en la cinta en formato
comprimido, por lo que caben más datos en una sola cinta. El establecimiento del atributo en no

206 AIX Versión 7.2: Gestión de dispositivos


fuerza a la unidad de cintas a grabar en modalidad nativa (no comprimida). Las operaciones de lectura
no se ven afectadas por el valor de este atributo. El valor predeterminado es yes.
Cargador automático
El establecimiento del atributo Cargador automático (para el mandato chdev, el atributo autoload)
en autoload=yes hace que el Cargador automático se active, si la unidad está equipada para ello. Si
es así, y otra cinta está disponible en el cargador, cualquier operación de lectura o grabación que
avance la cinta hasta el final, continuará automáticamente en la cinta siguiente. Los mandatos de
unidad de cintas que están restringidos a un solo cartucho de cinta no se ven afectados. El valor
predeterminado es yes.
Retraso de reintento
El atributo Retraso de reintento establece el número de segundos que el sistema espera entre que
falla un mandato y lo vuelve a emitir. El sistema puede volver a emitir un mandato que ha fallado hasta
cuatro veces. Este atributo sólo se aplica a las unidades de cintas de tipo OST. El valor
predeterminado es 45.
Tiempo de espera de lectura/grabación
El Tiempo de espera de lectura/grabación o el Retraso máximo para un atributo READ/WRITE
establece el número máximo de segundos que el sistema deja para que se complete un mandato de
lectura o grabación. Este atributo sólo se aplica a las unidades de cintas de tipo OST. El valor
predeterminado es 144.
Retorno de error en cambio de cinta
Cuando se establece el atributo Retorno de error en cambio o restablecimiento de cinta, hace que se
devuelva un error al abrir cuando la unidad de cintas se ha restablecido o se ha cambiado la cinta.
Debe haber tenido lugar una operación previa en la unidad de cintas que haya dejado la cinta
posicionada más allá del principio de la cinta al cerrar. El error que se devuelve es un -1 y errno se
establece en EIO. Una vez presentado a la aplicación, se borra la condición de error. Además, la
reconfiguración de la propia unidad de cintas borrará la condición de error.

Atributos para unidades de cintas de 4 mm y 2,0 GB (tipo 4mm2gb)


Los atributos siguientes son para las unidades de cintas de 4 mm y 2,0 GB (tipo 4mm2gb).
Tamaño de bloque
El valor predeterminado es 1024.
Almacenamientos intermedios de dispositivos
La información general de este atributo se aplica a este tipo de unidad de cintas.
Atributos con valores fijos
Si una unidad de cintas está configurada como una unidad de cintas de 4 mm y 2,0 GB, los atributos
de Retensión, Soporte de reserva, Tamaño de bloque de longitud variable, Valor núm. 1 de densidad y
Valor núm. 2 de densidad tienen valores predefinidos que no se pueden cambiar. Los valores de
densidad está predefinidos porque la unidad de cintas siempre graba en modalidad de 2,0 GB.

Atributos para unidades de cintas de 4 mm y 4,0 GB (tipo 4mm4gb)


Los atributos siguientes son para las unidades de cintas de 4 mm y 4,0 GB (tipo 4mm4gb).
Tamaño de bloque
El valor predeterminado es 1024.
Almacenamientos intermedios de dispositivos
La información general de este atributo se aplica a este tipo de unidad de cintas.
Valor núm. 1 de densidad y Valor núm. 2 de densidad
El usuario no puede cambiar el valor de densidad de esta unidad; el dispositivo se configura
automáticamente según el tipo de soporte de almacenamiento digital de datos (DDS) instalado, de la
manera siguiente:

Tipo de soporte Configuración de dispositivo


DDS Sólo lectura.
DDS |||| Lectura/grabación en modalidad de 2,0 GB solamente.

Gestión de dispositivos 207


Tipo de soporte Configuración de dispositivo
DDS2 Lectura en cualquier densidad; grabación en modalidad de 4,0 GB solamente.
No DDS No soportado; el cartucho se expulsará.

Compresión de datos
La información general de este atributo se aplica a este tipo de unidad de cintas.
Atributos con valores fijos
Si la unidad de cintas está configurada como una unidad de cintas de 4 mm y 4,0 GB, los atributos de
Retensión, Soporte de reserva, Tamaño de longitud variable, Valor núm. 1 de densidad y Valor núm. 2
de densidad tienen valores predefinidos que no se pueden cambiar.

Atributos para unidades de cintas de 8 mm y 2,3 GB (tipo 8mm)


Los atributos siguientes son para las unidades de cintas de 8 mm y 2,3 GB (tipo 8mm).
Tamaño de bloque
El valor predeterminado es 1024. Un valor inferior reduce la cantidad de datos almacenados en una
cinta.
Almacenamientos intermedios de dispositivos
La información general de este atributo se aplica a este tipo de unidad de cintas.
Marcas de archivo ampliadas
La información general de este atributo se aplica a este tipo de unidad de cintas.
Atributos con valores fijos
Si una unidad de cintas se configura como una unidad de cintas de 8mm y 2,3 GB, los atributos de
Retensión, Soporte de reserva, Tamaño de bloque de longitud variable, Compresión de datos, Valor
núm. 1 de densidad y Valor núm. 2 de densidad tienen valores predefinidos que no se pueden
cambiar. Los valores de densidad están predefinidos porque la unidad de cintas siempre graba en
modalidad de 2,3 GB.

Atributos para unidades de cintas de 8mm y 5,0GB (tipo 8mm5gb)


Los atributos siguientes son para las unidades de cintas de 8mm y 5,0GB (tipo 8mm5gb).
Tamaño de bloque
El valor predeterminado es 1024. Si una cinta se graba en modalidad de 2,3 GB, un valor inferior
reduce la cantidad de datos almacenados en una cinta.
Almacenamientos intermedios de dispositivos
La información general de este atributo se aplica a este tipo de unidad de cintas.
Marcas de archivo ampliadas
La información general de este atributo se aplica a este tipo de unidad de cintas.
Valor núm. 1 de densidad y Valor núm. 2 de densidad
Se aplican los valores siguientes:

Valor Significado
140 Modalidad de 5 GB (con capacidad de compresión)
21 Cinta no comprimida en modalidad de 5 GB
20 Modalidad de 2,3 GB
0 Valor predeterminado (modalidad de 5,0 GB)

Los valores predeterminados son 140 para el Valor núm. 1 de densidad y 20 para el Valor núm. 2 de
densidad. El valor 21 para los valores números 1 y 2 de densidad permiten al usuario leer o grabar
una cinta no comprimida en modalidad de 5 GB.
Compresión de datos
La información general de este atributo se aplica a este tipo de unidad de cintas.

208 AIX Versión 7.2: Gestión de dispositivos


Atributos con valores fijos
Si una unidad de cintas está configurada como una unidad de cintas de 8 mm y 5,0 GB, los atributos
de Retensión, Soporte de reserva y Tamaño de bloque de longitud variable tienen valores predefinidos
que no se pueden cambiar.

Atributos para unidades de cintas de 8mm y 20000 MB (configuración automática)


Los atributos siguientes son para las unidades de cintas de 8 mm y 20000 MB (configuración automática).
Tamaño de bloque
El valor predeterminado es 1024.
Almacenamientos intermedios de dispositivos
La información general de este atributo se aplica a este tipo de unidad de cintas.
Marcas de archivo ampliadas
La información general de este atributo se aplica a este tipo de unidad de cintas.
Valor núm. 1 de densidad y Valor núm. 2 de densidad
La unidad puede leer y grabar cartuchos de datos en formato de 20,0 GB. Durante un mandato de
lectura, la unidad determina automáticamente el formato en que está grabada la cinta. Durante una
grabación, el valor de densidad determina el formato de los datos grabados en la cinta.
Se aplican los valores siguientes:

Valor Significado
39 Modalidad de 20 GB (con capacidad de compresión)
0 Valor predeterminado (modalidad de 20,0 GB)

El valor predeterminado es 39 para el Valor núm. 1 de densidad y el Valor núm. 2 de densidad.


Compresión de datos
La información general de este atributo se aplica a este tipo de unidad de cintas.
Atributos con valores fijos
Si la unidad de cintas está configurada como una unidad de cintas de 8 mm y 20,0 GB, los atributos de
Retensión, Soporte de reserva y Tamaño de bloque de longitud variable tienen valores predefinidos
que no se pueden cambiar.

Atributos para unidades de cintas de 35 GB (tipo 35gb)


Los siguientes atributos son para unidades de cintas de 35 GB (tipo 35gb).
Tamaño de bloque
El rendimiento de IBM 7205 Modelo 311 es sensible al tamaño de bloque. El tamaño de bloque
mínimo recomendado para esta unidad es de 32 KB. Cualquier tamaño de bloque inferior a 32 KB
limita la velocidad de los datos (tiempo de copia de seguridad o restauración). La tabla siguiente lista
los tamaños de bloque recomendados por mandato:

Mandato soportado Tamaño de bloque RECOMENDACIÓN


predeterminado (bytes)
BACKUP 32 K ó 51,2 K (valor Utiliza 32 K o 51.2 K en función
predeterminado) de si la copia de seguridad
es por nombre o no. No se
necesita ningún cambio.
TAR 10 K Hay un error en el manual que
indica un tamaño de bloque de
512 KB. Establezca el
parámetro Blocking en -N64.
MKSYSB Consulte BACKUP El mandato MKSYSB utiliza el
mandato BACKUP. No se
necesita ningún cambio.

Gestión de dispositivos 209


Mandato soportado Tamaño de bloque RECOMENDACIÓN
predeterminado (bytes)
DD n/d Establezca el parámetro
Blocking en bs=32K.
CPIO n/d Establezca el parámetro
Blocking en -C64.

Nota: Debe tener en cuenta la capacidad y el rendimiento al seleccionar un tamaño de bloque. Los
tamaños de bloque pequeños tienen un impacto significativo en el rendimiento y un impacto mínimo
en la capacidad. La utilización de tamaños de bloque inferiores a los recomendados incide en las
capacidades del formato de 2,6 GB (densidad) y el formato de 6,0 GB (densidad). Por ejemplo, con un
tamaño de bloque de 1024 bytes para realizar la copia de seguridad de 32 GB de datos, se tarda
aproximadamente 22 horas. La copia de seguridad de los mismos 32 GB de datos utilizando un
tamaño de bloque de 32 KB tarda aproximadamente 2 horas.
Almacenamientos intermedios de dispositivos
La información general de este atributo se aplica a este tipo de unidad de cintas.
Marcas de archivo ampliadas
La información general de este atributo se aplica a este tipo de unidad de cintas.
Valor núm. 1 de densidad y Valor núm. 2 de densidad
El diagrama siguiente muestra el tipo de Cartucho de datos soportado y los Valores de densidad (en
decimal y hexadecimal) para la unidad de cintas IBM 7205-311. Cuando realiza una operación de
restauración (lectura), la unidad de cintas establece automáticamente la densidad para que coincida
con la densidad grabada. Si realiza una operación de copia de seguridad (grabación), debe establecer
el valor de densidad para que coincida con el cartucho de datos que utiliza.

Cartuchos de Capacida Capacidad de Valor de densidad SMIT Valor de


datos soportados d nativa datos comprimidos densidad
HEX
DLTtape III 2,6 GB 2,6 GB (sin 23 17h
compresión)
6,0 GB 6,0 GB (sin 24 18h
compresión)
10,0 GB 20,0 GB (valor 25 19h
predeterminado
para la unidad)
DLTtapeIIIxt 15,0 GB 30,6 GB (valor 25 19h
predeterminado
para la unidad)
DLTtapeIV 20,0 GB 40,0 GB 26 1Ah
35,0 GB 70,0 GB (valor 27 1Bh
predeterminado
para la unidad)

Nota: Si solicita una capacidad nativa no soportada para el cartucho de datos, la unidad toma de
forma predeterminada la capacidad más alta soportada para el cartucho de datos que está cargado en
la unidad.
Compresión de datos
La compresión real depende del tipo de datos que se está grabando (consulte la tabla anterior). Se
supone una proporción de compresión de 2:1 para esta capacidad de datos comprimidos.
Atributos con valores fijos
La información general de este atributo se aplica a este tipo de unidad de cintas.

210 AIX Versión 7.2: Gestión de dispositivos


Atributos para unidades de cintas de 1/4 de pulgada y 150 MB (tipo 150mb)
Los atributos siguientes son para unidades de cintas de 1/4 de pulgada y 150 MB (tipo 150mb).
Tamaño de bloque
El tamaño de bloque predeterminado es 512. El único tamaño de bloque válido adicional es 0 para los
bloques de longitud variable.
Almacenamientos intermedios de dispositivos
La información general de este atributo se aplica a este tipo de unidad de cintas.
Marcas de archivo ampliadas
Sólo se puede grabar en una cinta de 1/4 de pulgada al principio de la cinta (BOT) o después de
detectar una cinta en blanco. Si existen datos en la cinta, no pueden sobregrabar los datos excepto en
BOT. Si desea añadir datos a una cinta que se ha grabado y después rebobinado, debe avanzar hasta
detectar la siguiente marca de archivo, lo que hace que el sistema devuelva un error. Sólo entonces
puede empezar a grabar de nuevo.
Retensión
La información general de este atributo se aplica a este tipo de unidad de cintas.
Valor núm. 1 de densidad y Valor núm. 2 de densidad
Se aplican los valores siguientes:

Valor Significado
16 QIC-150
15 QIC-120
0 El valor predeterminado (QIC-150), o el último valor de densidad del sistema que lo
utilizaba.

Los valores predeterminados son 16 para el Valor núm. 1 de densidad y 15 para el Valor núm. 2 de
densidad.
Atributos con valores fijos
Si una unidad de cintas está configurada como una unidad de cintas de 1/4 de pulgada y 150 MB, los
atributos de Marcas de archivo ampliadas, Soporte de reserva, Tamaño de bloque de longitud variable
y Compresión de datos tienen valores predefinidos que no se pueden cambiar.

Atributos para unidades de cintas de 1/4 de pulgada y 525 MB (tipo 525mb)


Los atributos siguientes son para unidades de cintas de 1/4 de pulgada y 525 MB (tipo 525mb).
Tamaño de bloque
El tamaño de bloque predeterminado es 512. Los demás tamaños de bloque válidos son 0 para
bloques de longitud variable y 1024.
Almacenamientos intermedios de dispositivos
La información general de este atributo se aplica a este tipo de unidad de cintas.
Marcas de archivo ampliadas
Sólo se puede grabar en una cinta de 1/4 de pulgada al principio de la cinta (BOT) o después de
detectar una cinta en blanco. Si existen datos en la cinta, no pueden sobregrabar los datos excepto en
BOT. Si desea añadir datos a una cinta que se ha grabado y después rebobinado, debe avanzar
espacio hasta que se detecte la siguiente marca de archivo, lo que hace que el sistema devuelva un
error. Sólo entonces puede empezar a grabar de nuevo.
Retensión
Sólo se puede grabar en una cinta de 1/4 de pulgada al principio de la cinta (BOT) o después de
detectar una cinta en blanco. Si existen datos en la cinta, no pueden sobregrabar los datos excepto en
BOT. Si desea añadir datos a una cinta que se ha grabado y después rebobinado, debe avanzar
espacio hasta que se detecte la siguiente marca de archivo, lo que hace que el sistema devuelva un
error. Sólo entonces puede empezar a grabar de nuevo.
Valor núm. 1 de densidad y Valor núm. 2 de densidad
Se aplican los valores siguientes:

Gestión de dispositivos 211


Valor Significado
17 QIC-525*
16 QIC-150
15 QIC-120
0 El valor predeterminado (QIC-525), o el último valor de densidad del sistema que lo
utilizaba.

* QIC-525 es la única modalidad que soporta el tamaño de bloque de 1024.


Los valores predeterminados son 17 para el Valor núm. 1 de densidad y 16 para el Valor núm. 2 de
densidad.
Atributos con valores fijos
Si una unidad de cintas está configurada como una unidad de cintas de 1/4 de pulgada y 525 MB, los
atributos de Marcas de archivo ampliadas, Soporte de reserva, Tamaño de bloque de longitud variable
y Compresión de datos tienen valores predefinidos que no se pueden cambiar.

Atributos para unidades de cintas de 1/4 de pulgada y 1200 MB (tipo 1200mb-c)


Los siguientes atributos son para unidades de cintas de 1/4 de pulgada y 1200 MB (tipo 1200mb-c).
Tamaño de bloque
El tamaño de bloque predeterminado es 512. Los demás tamaños de bloque válidos son 0 para
bloques de longitud variable y 1024.
Almacenamientos intermedios de dispositivos
La información general de este atributo se aplica a este tipo de unidad de cintas.
Marcas de archivo ampliadas
Sólo se puede grabar en una cinta de 1/4 de pulgada al principio de la cinta (BOT) o después de
detectar una cinta en blanco. Si existen datos en la cinta, no pueden sobregrabar los datos excepto en
BOT. Si desea añadir datos a una cinta que se ha grabado y después rebobinado, debe avanzar hasta
detectar la siguiente marca de archivo, lo que hace que el sistema devuelva un error. Sólo entonces
puede empezar a grabar de nuevo.
Retensión
La información general de este atributo se aplica a este tipo de unidad de cintas.
Valor núm. 1 de densidad y Valor núm. 2 de densidad
Se aplican los valores siguientes:

Valor Significado
21 QIC-1000*
17 QIC-525*
16 QIC-150
15 QIC-120
0 El valor predeterminado (QIC-1000), o el último valor de densidad del sistema que lo
utilizaba.

* QIC-525 y QIC-1000 son las únicas modalidades que soportan el tamaño de bloque de 1024.
Los valores predeterminados son 21 para el Valor núm. 1 de densidad y 17 para el Valor núm. 2 de
densidad.
Atributos con valores fijos
Si una unidad de cintas está configurada como una unidad de cintas de 1/4 de pulgada y 1200 MB, los
atributos de Marcas de archivo ampliadas, Soporte de reserva, Tamaño de bloque de longitud variable
y Compresión de datos tienen valores predefinidos que no se pueden cambiar.

212 AIX Versión 7.2: Gestión de dispositivos


Atributos para unidades de cintas de 4 mm y 12000 MB (configuración automática)
Los atributos siguientes son para unidades de cintas de 4 mm y 12000 MB (configuración automática).
Tamaño de bloque
El rendimiento de la unidad de cintas de 4 mm y 12000 MB de IBM es sensible al tamaño de bloque.
El tamaño de bloque mínimo recomendado para esta unidad es de 32 KB. Cualquier tamaño de
bloque inferior a 32 KB limita la velocidad de los datos (tiempo de copia de seguridad o restauración).
La tabla siguiente lista los tamaños de bloque recomendados por mandato:

Mandato soportado Tamaño de bloque Recomendación


predeterminado (bytes)
BACKUP 32 K ó 51,2 K (valor Utiliza 32 K o 51.2 K en función
predeterminado) de si la copia de seguridad
es por nombre o no. No se
necesita ningún cambio.
TAR 10 K Hay un error en el manual que
indica un tamaño de bloque de
512 KB. Establezca el
parámetro Blocking en -N64.
MKSYSB Consulte BACKUP El mandato MKSYSB utiliza el
mandato BACKUP. No se
necesita ningún cambio.
DD Establezca el parámetro
Blocking en bs=32K.
CPIO Establezca el parámetro
Blocking en -C64.

Nota: Se debe tener en cuenta la capacidad y el rendimiento al seleccionar un tamaño de bloque. Los
tamaños de bloque pequeños tienen un impacto significativo en el rendimiento y un impacto mínimo
en la capacidad.
Almacenamientos intermedios de dispositivos
La información general de este atributo se aplica a este tipo de unidad de cintas.
Marcas de archivo ampliadas
La información general de este atributo se aplica a este tipo de unidad de cintas.
Valor núm. 1 de densidad y Valor núm. 2 de densidad
El diagrama siguiente muestra el tipo de cartucho de datos soportado y los valores de densidad (en
decimal y hexadecimal) para la unidad de cintas de 4 mm y 12000 MB de IBM. Cuando realiza una
operación de restauración (lectura), la unidad de cintas establece automáticamente la densidad para
que coincida con la densidad grabada. Cuando se realiza una operación de copia de seguridad
(grabación), se debe establecer la densidad para que coincida con el cartucho de datos que utiliza.

Cartuchos de Capacidad nativa Capacidad de Valor de densidad Valor de densidad


datos soportados datos SMIT HEX
comprimidos
DDS III 2 GB 4 GB 19 13h
DDS2 4 GB 8 GB 36 24h
DDS3 12 GB 24 GB 37 25h

Nota: Si solicita una capacidad nativa no soportada para el cartucho de datos, la unidad toma de
forma predeterminada la capacidad más alta soportada para el cartucho de datos que está cargado en
la unidad.

Gestión de dispositivos 213


Compresión de datos
La compresión real depende del tipo de datos que se está grabando (consulte la tabla anterior). Se
supone una proporción de compresión de 2:1 para esta capacidad de datos comprimidos.
Atributos con valores fijos
La información general de este atributo se aplica a este tipo de unidad de cintas.

Atributos para unidades de cintas de 1/4 de pulgada y 13000 (configuración automática)


Los atributos siguientes son para las unidades de cintas de 1/4 de pulgada y 13000 MB (configuración
automática).
Tamaño de bloque
El tamaño de bloque predeterminado es 512. Los demás tamaños de bloque válidos son 0 para
bloques de longitud variable y 1024.
Almacenamientos intermedios de dispositivos
La información general de este atributo se aplica a este tipo de unidad de cintas.
Marcas de archivo ampliadas
Sólo se puede grabar en una cinta de 1/4 de pulgada al principio de la cinta (BOT) o después de
detectar una cinta en blanco. Si existen datos en la cinta, no pueden sobregrabar los datos excepto en
BOT. Si desea añadir datos a una cinta que se ha grabado y después rebobinado, debe avanzar hasta
detectar la siguiente marca de archivo, lo que hace que el sistema devuelva un error. Sólo entonces
puede empezar a grabar de nuevo.
Retensión
La información general de este atributo se aplica a este tipo de unidad de cintas.
Valor núm. 1 de densidad y Valor núm. 2 de densidad
Se aplican los valores siguientes:

Valor Significado
33 QIC-5010-DC*
34 QIC-2GB*
21 QIC-1000*
17 QIC-525*
16 QIC-150
15 QIC-120
0 Valor predeterminado (QIC-5010-DC)*

* QIC-525, QIC-1000, QIC-5010-DC y QIC-2GB son las únicas modalidades que soporta el tamaño de
bloque de 1024.
Los valores predeterminados son 33 para el Valor núm. 1 de densidad y 34 para el Valor núm. 2 de
densidad.
Atributos con valores fijos
Si una unidad de cintas está configurada como una unidad de cintas de 1/4 de pulgada y 13000 MB,
los atributos Marcas de archivo ampliadas, Soporte de reserva y Tamaño de bloque
de longitud variable tienen valores predefinidos que no se pueden cambiar.

Atributos para unidades de cintas de 1/2 de pulgada y 9 pistas (tipo 9trk)


Los atributos siguientes son para las unidades de cintas de 1/2 de pulgada y 9 pistas (tipo 9trk).
Tamaño de bloque
El tamaño de bloque predeterminado es 1024.
Almacenamientos intermedios de dispositivos
La información general de este atributo se aplica a este tipo de unidad de cintas.

214 AIX Versión 7.2: Gestión de dispositivos


Valor núm. 1 de densidad y Valor núm. 2 de densidad
Se aplican los valores siguientes:

Valor Significado
3 6250 bits por pulgada (bpi)
2 1600 bpi
0 La densidad de grabación que se ha utilizado previamente

Los valores predeterminados son 3 para el Valor núm. 1 de densidad y 2 para el Valor núm. 2 de
densidad.
Atributos con valores fijos
Si una unidad de cintas está configurada como una unidad de cintas de 1/2 de pulgada y 9 pistas, los
atributos de Marcas de archivo ampliadas, Soporte de reserva, Tamaño de bloque de longitud variable
y Compresión de datos tienen valores predefinidos que no se pueden cambiar.

Atributos para el cartucho de 1/2 de pulgada 3490e (tipo 3490e)


Los atributos siguientes son para el cartucho de 1/2 de pulgada 3490e (tipo 3490e).
Tamaño de bloque
El tamaño de bloque predeterminado es 1024. Esta unidad presenta una alta velocidad de
transferencia de datos y el tamaño de bloque puede ser crítico para el funcionamiento eficaz. Los
tamaños de bloque mayores pueden mejorar mucho las velocidades operativas y, en general, deben
utilizarse los tamaños de bloque más grandes posibles.
Nota: El aumento del valor de bloque puede provocar incompatibilidades con otros programas del
sistema. Si se produce esto, recibirá el siguiente mensaje de error mientras ejecuta esos programas:

Una llamada al sistema ha recibido un parámetro que no es válido.

Almacenamientos intermedios de dispositivos


La información general de este atributo se aplica a este tipo de unidad de cintas.
Compresión
La información general de este atributo se aplica a este tipo de unidad de cintas.
Cargador automático
Esta unidad presenta un secuenciador de cintas, un cargador automático que carga y expulsa
secuencialmente una serie de cartuchos de cinta del cargador de cartuchos. Para que esta función
opere correctamente, el conmutador del panel frontal debe estar en la posición AUTO y el atributo de
cargador automático se debe establecer en yes.

Atributos para otras cintas SCSI (tipo ost)


Los atributos siguientes son para otras cintas SCSI (tipo ost).
Tamaño de bloque
El valor predeterminado del sistema es 512, pero se debe ajustar al tamaño de bloque
predeterminado para la unidad de cintas. Los valores típicos son 512 y 1024. Normalmente, las
unidades de cintas de 8 mm y 4 mm utilizan 1024 y se desaprovecha espacio de la cinta si el atributo
de tamaño de bloque se deja en 512. El valor 0 indica un tamaño de bloque variable en algunas
unidades.
Almacenamientos intermedios de dispositivos
La información general de este atributo se aplica a este tipo de unidad de cintas.
Marcas de archivo ampliadas
La información general de este atributo se aplica a este tipo de unidad de cintas.
Valor núm. 1 de densidad y Valor núm. 2 de densidad
El valor predeterminado es 0 para ambos valores. Otros valores y sus significados varían para las
diferentes unidades de cintas.

Gestión de dispositivos 215


Soporte de reserva
Este valor está desactivo de forma predeterminada. Se puede activar, si la unidad soporta los
mandatos de reserva y liberación. Si no está seguro, es más seguro el valor no.
Tamaño de bloque de longitud variable
El valor predeterminado de tamaño de bloque de longitud variable es 0. Los valores que no son cero
se utilizan principalmente en unidades de cartucho de 1/4 de pulgada (QIC). Consulte la
especificación de SCSI para la unidad de cintas determinada para obtener ayuda.
Retraso de reintento
Este atributo se aplica exclusivamente a las unidades de cintas de tipo ost.
Tiempo de espera de lectura/grabación
Este atributo se aplica exclusivamente a las unidades de cintas de tipo ost.
Atributos con valores fijos
Si una unidad de cintas está configurada como otra unidad de cintas SCSI, los atributos de Marcas de
archivo ampliadas, Retensión y Compresión de datos tienen valores predefinidos que no se pueden
cambiar.
Atributos de cinta MPIO
Los dispositivos de cintas con soporte de MPIO tendrán atributos adicionales listados bajo los
atributos de dispositivo MPIO.

Archivos especiales para unidades de cintas


Hay varios archivos especiales asociados a cada unidad de cintas conocida en el sistema operativo.
La grabación y lectura de archivos de cintas se efectúa utilizando archivos especiales rmt. Estos archivos
especiales son /dev/rmt*, /dev/rmt*.1, /dev/rmt*.2, hasta /dev/rmt*.7. rmt* es el nombre
lógico de una unidad de cintas como, por ejemplo, rmt0, rmt1, etcétera.
Mediante la selección uno de los archivos especiales asociados a una unidad de cintas, se especifica
cómo se realizarán las operaciones de E/S relacionadas con la unidad de cintas.

Elemento Descripción
Densidad Puede seleccionar si se debe grabar con el Valor núm. 1 de densidad o con
el Valor núm. 2 de densidad de la unidad de cintas. Estos valores de
densidad forman parte de los atributos de la unidad de cintas. Puesto que
es habitual establecer el Valor núm. 1 de densidad en la densidad más
alta posible para la unidad de cintas y el Valor núm. 2 de densidad en la
siguiente densidad más alta posible para la unidad de cintas, los archivos
especiales que utilizan el Valor núm. 1 de densidad se denominan a veces
de densidad alta y los archivos especiales que utilizan el Valor núm. 2 de
densidad se denominan a veces de densidad baja, pero esto no es
siempre correcto. Cuando se lee una cinta, el valor de densidad se pasa
por alto.
Rebobinar al cerrar Puede seleccionar si la cinta se rebobina cuando el archivo especial que
hace referencia a la unidad de cintas se cierra. Si se selecciona rebobinar
al cerrar, la cinta se posiciona al principio de la cinta cuando se cierra el
archivo.
Retensión al abrir Puede seleccionar si la cinta se retensiona cuando se abre el archivo. La
retensión significa avanzar hasta el final de la cinta y después rebobinar
hasta el principio de la cinta para reducir errores. Si se selecciona la
retensión al abrir, la cinta se posiciona al principio de la cinta como parte
del proceso de apertura.

La tabla siguiente muestra los nombres de los archivos especiales rmt y sus características.

216 AIX Versión 7.2: Gestión de dispositivos


Archivo especial Rebobinar al cerrar Retensión al abrir Valor de densidad
/dev/rmt* Sí No Núm. 1
/dev/rmt*.1 No No Núm. 1
/dev/rmt*.2 Sí Sí Núm. 1
/dev/rmt*.3 No Sí Núm. 1
/dev/rmt*.4 Sí No Núm. 2
/dev/rmt*.5 No No Núm. 2
/dev/rmt*.6 Sí Sí Núm. 2
/dev/rmt*.7 No Sí Núm. 2

Suponga que desea grabar tres archivos en la cinta de la unidad de cintas rmt2. El primer archivo debe
estar al principio de la cinta, el segundo archivo después del primero y el tercero después del segundo.
Además, suponga que desea utilizar el Valor núm. 1 de densidad para la unidad de cintas. Se puede
utilizar la siguiente lista de archivos especiales, en el orden dado, para grabar la cinta.
1. /dev/rmt2.3
2. /dev/rmt2.1
3. /dev/rmt2
Se eligen estos archivos especiales en particular porque:
• /dev/rmt2.3 se elige como el primer archivo porque tiene activada la Retensión al abrir, lo que
garantiza que el primer archivo estará al principio de la cinta. Rebobinar al cerrar no se elige porque la
siguiente operación de E/S debe empezar donde finaliza este archivo. Si la cinta ya se encuentra al
principio cuando se abre el primer archivo, si se utiliza el archivo /dev/rmt2.1 como el primer archivo
será más rápido ya que se elimina el tiempo para la retensión de la cinta.
• /dev/rmt2.1 se elige para el segundo archivo porque este archivo no tiene seleccionadas las opciones
de Retensión al abrir ni Rebobinar al cerrar. No hay razón para ir al principio de la cinta cuando se abre
el archivo ni cuando se cierra.
• /dev/rmt2 se elige para el tercer y último archivo porque no se desea la Retensión al abrir ya que el
tercer archivo debe seguir al segundo. Rebobinar al cerrar se selecciona porque no se tiene previsto
efectuar más grabaciones después de la grabación del tercer archivo en la cinta. La siguiente utilización
de la cinta empezará al principio de la cinta.
Además de controlar las operaciones de cinta al elegir un archivo especial rmt en particular, puede
utilizar el mandato tctl para controlar las operaciones de cinta.

Soporte de dispositivo USB


El sistema operativo AIX admite dispositivos USB (Universal Serial Bus).
El sistema operativo AIX admite los tipos siguientes de dispositivos USB de terceros y de dispositivos USB
de IBM:
• Unidad flash
• Unidad de disco
• Unidad óptica (Blu-ray, DVD y CD-ROM)
• Unidad de cintas
• Teclado
• Ratón
• Altavoces

Gestión de dispositivos 217


Nota: El sistema operativo AIX no admite impresoras USB.
Es posible que el sistema operativo AIX no reconozca algunos dispositivos USB de terceros. Por ejemplo,
es posible que haya una corriente eléctrica insuficiente distinta a la que hay disponible desde el puerto
USB de Power Systems. Por lo tanto, el sistema operativo AIX no admite todos los dispositivos USB
posibles de terceros.

Soporte para unidades flash USB


Están soportadas las unidades flash a partir de AIX 5.3 con Nivel de tecnología 5300- 09 y AIX 6.1 con
Nivel de tecnología 6100- 02 y Bus serie de (Universal USB).
En el siguiente paquete de dispositivos se incluye el soporte de estas dispositivos:

devices.usbif.08025002

El soporte de AIX para las unidades flash USB se valida frente a una muestra de unidades flash USB OEM
estándar del sector. Los controladores de dispositivo para el controlador de host USB AIX admiten USB
2.0. Las unidades flash USB están configuradas con nombres lógicos, como por ejemplo, usbms0 y
usbms1 y contienen archivos espceiales sin procesar y de bloqueo. Por ejemplo, el archivo especial sin
procesar para usbms0 es /dev/rusbms0 y el de bloqueo es /dev/usbms0.Antes de la versión 5.3 de
AIX con el nivel de tecnología de 5300-11 y la versión 6.1 de AIX con el nivel de tecnología 6100-04, las
unidades flash USB se configuraban como /dev/flashdrive0.
El sistema de archivos ISO (Organización internacional de normalización) (ISO 9660 sólo lectura) se
admite en estas unidades. Puede crear una copia de seguridad del sistema en las unidades mediante el
mandato tar, cpio o los archivados de restauración o copia de seguridad. También puede utilizar el
mandato dd para añadir las imágenes ISO en las unidades.
El sistema operativo AIX no admite la integración automática para las unidades flash USB. Para que una
unidad flash esté disponible en los usuarios AIX, un usuario root debe conectar la unidad en el puerto
USB del sistema y ejecutar el mandato siguiente:

cfgmgr -l usb0

Atención: Tenga cuidado al retirar las unidades flash de los puertos. Si las unidades no están
cerradas adecuadamente o se desmontan antes de retirarlas, se pueden dañar los datos en las
unidades.
Después de retirar las unidades, permanecerán disponibles en el Gestor de datos objeto (ODM) hasta que
el usuario root ejecute el mandato siguiente:

rmdev -l usbmsn

Cuando una unidad está disponible, puede reconectarla al sistema, y se puede volver a montar o a abrir.
Si una unidad se desconecta de un puerto USB del sistema mientras aún está accesible a un usuario, no la
podrá utilizar hasta que no la cierre y vuelva a abrirla.

Soporte para unidades Blu-ray USB de solo lectura


AIX Versión 6.1 con el nivel de tecnología 6100-06 y posterior, reconoce y configura las unidades Blu-ray
conectadas de USB.
Esta característica está incluida en el paquete de dispositivo siguiente:

devices.usbif.08025002

La capacidad del sistema operativo AIX para leer sportes Blu-ray se validó en comparación con unidades
Blu-ray USB del fabricante del equipo original del sector (OEM).
Las unidades Blu-ray USB se configuran utilizando nombres lógicos, como por ejemplo cd0 y cd1. Las
unidades presentan archivos sin procesar y de bloqueo especiales. Por ejemplo, el archivo especial sin
procesar para cd0 es /dev/rcd0 y el de bloqueo es /dev/cd0.

218 AIX Versión 7.2: Gestión de dispositivos


La función de solo lectura se proporciona en el sistema de archivos ISO(ISO de sólo lectura), el sistema
de archivos UDF (Formato de Disco Universal) (versión 2.01 o anterior) y los mandatos de acceso a
soportes ópticos estándar, como dd y tar.
El sistema operativo AIX no admite la operación de grabación en CD, DVD, o en el soporte Blu-ray
presente en la unidad Blu-ray. Aunque no se impide la operación de grabación (si la unidad puede grabar),
IBM no proporciona soporte para los problemas que se produzcan durante la operación de grabación.
El sistema operativo AIX no admite la integración automática para unidades Blu-ray USB. Para que una
unidad Blu-ray USB esté disponible en los usuarios AIX, un usuario root debe conectar la unidad en el
puerto USB del sistema y ejecutar el mandato siguiente:

cfgmgr -l usb0

Después de retirar las unidades, éstas quedan en estado disponible en el OMD (Gestor de datos objetivos)
hasta que el usuario root ejecuta el mandato siguiente:

rmdev -l cdn

Si una unidad aparece en el estado disponible, puede reconectarla al sistema. Si una unidad se
desconecta de un puerto USB del sistema mientras aún está abierta para un usuario, esa unidad no podrá
volverse a utilizar hasta que el la cierre y la vuelva a abrir.

Almacenamiento de antememoria de datos


En los dispositivos de antememoria, se admite el almacenamiento en antememoria de lado del servidor.
Los dispositivos de antememoria pueden ser uno de los siguientes tipos de dispositivos:
• Dispositivos flash adjuntos al servidor, como la unidad de estado sólido incorporada (SSD) en el
servidor.
• Los dispositivos flash que se adjuntan directamente al servidor utilizando controladores SAS (Serial
Attached SCSI).
• Recursos flash de la red de área de almacenamiento (SAN).
El sistema operativo AIX debe identificar el dispositivo como un dispositivo flash para que se utilice como
dispositivo de antememoria. El sistema operativo AIX determina si un dispositivo es un dispositivo flash
utilizando el campo MEDIUM ROTATION RATE en la página SCSI Block Device Characteristics Vital
Product Data (VPD). Si un dispositivo no admite dicha página o indica un valor distinto a 0001h Non-
rotating medium en el campo MEDIUM ROTATION RATE, el dispositivo no podría utilizarse como
dispositivo de antememoria.

Concepto de almacenamiento de datos en antememoria


Puede almacenar en antememoria los datos de almacenamiento de forma dinámica (iniciar o detener el
almacenamiento en antememoria) mientras se esté ejecutando la carga de trabajo. La carga de trabajo no
tiene que detenerse a un estado inactivo para realizar la operación de almacenamiento en antememoria.
Los siguientes términos se utilizan para explicar el concepto de almacenamiento en antememoria:
Dispositivo de antememoria
Un dispositivo de antememoria es una unidad de estado sólido (SSD) o un disco flash que se utiliza
para almacenar en antememoria.
Agrupación de antememoria
Una agrupación de antememoria es un grupo de dispositivos de antememoria que solo se utiliza para
el almacenamiento en antememoria.
Partición de antememoria
Una partición de antememoria es un dispositivo de antememoria lógico que se crea desde la
agrupación de antememoria.

Gestión de dispositivos 219


Dispositivo de destino
Un dispositivo de destino es un dispositivo de almacenamiento que se está almacenando en
antememoria.
Una partición de antememoria única se puede utilizar para almacenar en antememoria uno o varios
dispositivos de destino. Cuando se almacena en antememoria un dispositivo de destino, todas las
solicitudes de lectura para los bloques de dispositivos se direccionan al software de almacenamiento en
antememoria. Si se encuentra un bloque específico en la antememoria, la solicitud de E/S se procesará
desde el dispositivo de antememoria. Si no se encuentra el bloque solicitado en la antememoria, o si es
una solicitud de grabación, la solicitud de E/S vuelve al dispositivo de destino.

Ventajas del almacenamiento de datos en antememoria


El almacenamiento en memoria caché de lado del servidor de datos de almacenamiento puede aumentar
la densidad de la virtualización, especialmente cuando el subsistema de almacenamiento está
congestionado.
El almacenamiento de datos en antememoria tiene las siguientes ventajas:
Latencia
Las cargas de trabajo analíticas y transaccionales tienen un tiempo de consulta y respuesta reducido
porque el almacenamiento de unidad de estado sólido (SSD) tiene menores latencias. Si utiliza el
almacenamiento en memoria caché de lado del servidor, la latencia media para una carga de trabajo
transaccional puede reducirse a la mitad.
Rendimiento
Las cargas de trabajo del proceso de transacción en línea (OLTP) tienen mayores velocidades de
transacción porque el almacenamiento SSD proporciona un mejor rendimiento.
Rendimiento de grabación
En entornos donde la red de área de almacenamiento (SAN) esté congestionada, el dispositivo flash,
que se utiliza como una memoria caché, puede descargar un porcentaje significativo de solicitudes de
lectura. Cuando las solicitudes de lectura se descarguen, el SAN puede tener un mejor rendimiento de
grabación, y puede servir de forma efectiva a un número mayor de clientes y hosts.
Espacio de memoria más pequeño
Si se configura un dispositivo de memoria caché flash, algunas cargas de trabajo pueden funcionar
incluso con un espacio de memoria menor.

Limitaciones para el almacenamiento de datos en antememoria


Asegúrese de que entienda las limitaciones y los requisitos de configuración adicionales para utilizar la
característica de almacenamiento en antememoria. También debe tener en cuenta las restricciones de
aplicación para los dispositivos de destino que se deben almacenar en antememoria.
Considere las siguientes limitaciones para almacenar en antememoria los datos de almacenamiento:
• El software de almacenamiento en antememoria se configura como una antememoria de solo lectura, lo
que significa que solo se procesan las solicitudes de lectura desde la SSD (unidad de estado sólido)
flash. Todas las solicitudes de grabación las procesa el dispositivo de almacenamiento original.
• Los datos que se graban en el dispositivo de almacenamiento no se rellenan en la antememoria de
forma automática. Si la operación de grabación se realiza en un bloque que está en antememoria, los
datos existentes de la antememoria se marcarán como no válidos. El mismo bloque reaparece en
antememoria según la frecuencia y la actualidad del acceso al bloque.
• Es necesaria memoria adicional en cada partición lógica (LPAR) de AIX porque el software de
almacenamiento en antememoria gestiona metadatos en cada bloque de lectura. Es necesario un
mínimo de 4 GB de memoria para cualquier LPAR que tenga el almacenamiento en antememoria
habilitado.
• El software de almacenamiento en antememoria carga datos en la antememoria en función de patrones
de lectura locales, e invalida las entradas de antememoria localmente. Los dispositivos de destino no
los debe compartir más de un LPAR simultáneamente. Los dispositivos de destino no pueden formar
parte de ningún almacenamiento en clúster como por ejemplo Oracle Real Application Clusters (RAC),

220 AIX Versión 7.2: Gestión de dispositivos


DB2 pureScale y General Parallel File System (GPFS). Los dispositivos de destino que formen parte de
un clúster de alta disponibilidad solo se pueden almacenar en antememoria si el acceso especifica que
un único host lee o graba datos del dispositivo de destino al mismo tiempo y el almacenamiento en
antememoria solo se habilita en el nodo activo.
• El disco de antememoria se puede proporcionar en un LPAR de AIX o en un LPAR de servidor de E/S
virtual (VIOS). Los dispositivos de antememoria no se pueden compartir.
• El software de almacenamiento en antememoria debe abrir los dispositivos de destino para interceptar
cualquier solicitud de E/S en los dispositivos de destino. Si una carga de trabajo debe abrir el dispositivo
de destino de forma exclusiva una vez que se haya iniciado el almacenamiento en antememoria, la
operación de apertura exclusiva fallará. En estas instancias, el almacenamiento en memoria caché se
debe detener y reiniciar una vez que inicie la carga de trabajo. Un ejemplo para la operación abierta
exclusiva es establecer el identificador de volumen físico (PVID) para los discos de destino.
• Si los discos se utilizan como dispositivos de destino, el atributo reserve_policy del disco no se debe
establecer en single_path.
• Cuando la operación de almacenamiento en antememoria se inicie para un dispositivo de destino, la
lógica del motor de antememoria retrasa la promoción de datos en la antememoria. Este retraso es
necesario para asegurarse de que todas las operaciones de E/S pendientes del dispositivo de destino,
que se emiten antes de que se inicie la operación de almacenamiento en antememoria, se completen
antes de iniciar la operación de almacenamiento en antememoria. La hora exacta de retraso se calcula
de forma interna en función del número de vías de acceso disponibles y el atributo rw_timeout (si
existe) del disco de destino. Si una hora definida por el usuario debe sustituir la hora calculada
internamente, puede establecer la variable de entorno DEFAULT_IO_DRAIN_TIMEOUT_PD en el
archivo /etc/environment a un valor de tiempo de espera personalizado, en segundos.

Componentes del almacenamiento de datos en antememoria


El software de almacenamiento en antememoria consta de componentes de gestión de antememoria y de
motor de antememoria.
Gestión de antememoria
Puede gestionar el almacenamiento de datos en antememoria utilizando el mandato cache_mgt, que
está disponible en el sistema operativo AIX y en la VIOS (Virtual I/O Server). Puede utilizar el mandato
cache_mgt para realizar las siguientes tareas:
• Para crear y particionar una agrupación de antememoria.
• Para asignar la posición de la antememoria a un dispositivo de destino o la partición lógica (LPAR) de
AIX como un dispositivo interfaz para pequeños sistemas virtuales (vSCSI).
• Para iniciar y detener la operación de almacenamiento en antememoria.
Motor de antememoria
El motor de antememoria es la parte más esencial del software de almacenamiento en antememoria. El
motor de antememoria decide qué bloques del almacenamiento se deben almacenar en antememoria, y
si los datos se deben recuperar desde la antememoria o desde el almacenamiento primario.
El algoritmo de almacenamiento en antememoria se basa en un mecanismo de relleno al leer que rellena
la antememoria con datos que tienen localidad espacial (cerca de otros bloques que se han leído
recientemente). El algoritmo de almacenamiento en antememoria rellena datos en la antememoria de
forma más rápida cuando la antememoria está vacía.
Todos los bloques de la antememoria se supervisan para comprobar la frecuencia con la que se leen, y se
generará un mapa de calor. El mapa de calor considera la frecuencia y la cercanía en el tiempo del acceso.
Cuando la antememoria se haya rellenado completamente, se añadirán nuevas entradas a la
antememoria solo si el bloque nuevo está más caliente que el bloque más frío de la antememoria. El
bloque más frío se elimina de la antememoria, y se añadirá la nueva entrada.
El rellenado agresivo garantiza tiempos de calentamiento cortos que hacen la antememoria efectiva tan
pronto como se habilita. La política de eliminación, que se basa en el mapa de calor, garantiza que el
almacenamiento en antememoria sea dinámico y se ajuste a los patrones de carga de trabajo cambiantes.

Gestión de dispositivos 221


Configuración del almacenamiento de datos en antememoria
En el sistema operativo AIX, el almacenamiento en antememoria de lado del servidor de dispositivos
flash está soportado en varias configuraciones distintas. Estas configuraciones difieren en cómo se
provee el dispositivo de antememoria en la partición lógica (LPAR) de AIX.
El almacenamiento en antememoria de lado del servidor soporta las siguientes modalidades en el
sistema operativo AIX:
• Modalidad dedicada
• Modalidad virtual
• Modalidad NPIV (virtualización de ID de puerto de nodo)

Almacenamiento de antememoria de datos de almacenamiento en modalidad dedicada


En la modalidad dedicada, el dispositivo de antememoria está directamente suministrado a la partición
lógica (LPAR) de AIX.
Debe crear una agrupación de antememoria, y a continuación una partición de antememoria en el
dispositivo de antememoria. Solo se puede crear una partición de antememoria en un dispositivo de
antememoria dedicado. Puede utilizar la partición de la antememoria para almacenar en antememoria
cualquier número de dispositivos de destino en la LPAR de AIX. La LPAR no es móvil porque el dispositivo
de antememoria está dedicado a esta LPAR. Si la LPAR tiene que migrarse a otro servidor, debe detener
manualmente el almacenamiento en antememoria y desconfigurar el dispositivo de antememoria antes
de la migración.
La figura siguiente muestra un ejemplo de almacenar en antememoria una configuración en una LPAR de
AIX para un dispositivo de antememoria dedicado.

222 AIX Versión 7.2: Gestión de dispositivos


Figura 15. Almacenamiento de datos en antememoria: Configuración para dispositivo de antememoria
dedicado

Considere que los dispositivos de antememoria son hdisk1, hdisk2 y hdisk3, y los dispositivos de
destino son hdisk4, hdisk5 y hdisk6. Para iniciar y supervisar el almacenamiento en antememoria de
los dispositivos de destino, complete los pasos siguientes:
1. Cree una agrupación de antememoria en el almacenamiento SSD.

# cache_mgt pool create -d hdisk1,hdisk2,hdisk3 -p cmpool0

2. Cree una partición de antememoria de 80 MB desde la agrupación de antememoria.

# cache_mgt partition create -p cmpool0 -s 80M -P part1

Gestión de dispositivos 223


3. Asigne la partición de antememoria a los discos de destino que desea almacenar en antememoria.

# cache_mgt partition assign -t hdisk4 -P part1


# cache_mgt partition assign -t hdisk5 -P part1
# cache_mgt partition assign -t hdisk6 -P part1

4. Comience el almacenamiento en antememoria de los dispositivos de destino.

# cache_mgt cache start -t hdisk4


# cache_mgt cache start -t hdisk5# cache_mgt cache start -t hdisk6

5. Supervise las estadísticas en las coincidencias de antememoria.

# cache_mgt monitor get -h -s

Almacenamiento de antememoria de datos en modalidad virtual


En la modalidad virtual, el dispositivo de antememoria se asigna al servidor de E/S virtual (VIOS).
En la modalidad virtual, la agrupación de antememoria se crea en el VIOS. La agrupación de antememoria
se dividirá entonces en particiones en el VIOS. Cada partición de antememoria se puede asignar a un
adaptador de host virtual (vhost). Cuando se descubre la partición de antememoria en la partición lógica
(LPAR) de AIX, la partición de antememoria se puede utilizar para almacenar en antememoria el
dispositivo de destino. La partición de antememoria se puede migrar a otro servidor porque el dispositivo
de antememoria es virtual. Antes de la migración, el almacenamiento en antememoria se detiene
automáticamente en la LPAR de origen. Como parte de la operación de migración, se creará una partición
de antememoria del mismo tamaño de forma dinámica en el VIOS de destino si el software de
almacenamiento en antememoria está instalado y hay disponible una agrupación de antememoria en el
VIOS de destino. Durante la migración, la partición de antememoria se hace disponible en el LPAR.
Cuando la migración finalice, el almacenamiento en antememoria se iniciará automáticamente en el LPAR
de destino. En este caso, el almacenamiento en antememoria se iniciará en un estado vacío (no
rellenado).
La figura siguiente muestra un ejemplo de configuración de almacenamiento en antememoria en
modalidad virtual, donde el dispositivo de antememoria está en un LPAR de VIOS y el dispositivo de
destino está en un LPAR de AIX.

224 AIX Versión 7.2: Gestión de dispositivos


Figura 16. Almacenamiento de datos en antememoria: Configuración para dispositivo de antememoria
virtual

Considere que los dispositivos de antememoria son hdisk1, hdisk2 y hdisk3 (en la LPAR de VIOS), y
los dispositivos de destino son hdisk4 y hdisk5 (en LPAR de AIX). Para iniciar y supervisar el
almacenamiento en antememoria de los dispositivos de destino, complete el procedimiento siguiente:
1. En la LPAR de VIOS, cree una agrupación de antememoria utilizando el almacenamiento SSD.

# cache_mgt pool create -d hdisk1,hdisk2,hdisk3 -p cmpool0

2. En la LPAR de VIOS, cree una partición de antememoria de 80 MB desde la agrupación de


antememoria.

# cache_mgt partition create -p cmpool0 -s 80M -P part1

Gestión de dispositivos 225


3. En la LPAR de VIOS, asigne la partición a un adaptador host virtual.

# cache_mgt partition assign -P part1 -v vhost0

4. En la LPAR de AIX, asigne la partición de antememoria en un dispositivo de destino.

# cache_mgt partition assign -t hdisk4 -P cachedisk0


# cache_mgt partition assign -t hdisk5 -P cachedisk0

5. En la LPAR de AIX, comience el almacenamiento en antememoria de los dispositivos de destino.

# cache_mgt cache start -t hdisk4


# cache_mgt cache start -t hdisk5

6. En la LPAR de AIX, supervise estadísticas en las coincidencias de antememoria.

# cache_mgt monitor get -h -s

Almacenamiento de antememoria de datos de almacenamiento en modalidad NPIV


En esta modalidad, el dispositivo de antememoria está disponible como un dispositivo de fibra óptica
virtual (N_Port ID Virtualization) en la partición lógica (LPAR) de AIX.
Debe crear una agrupación de antememoria, y a continuación una partición de antememoria en la LPAR
de AIX. Solo se puede crear una partición de antememoria en la LPAR de AIX. Puede utilizar la partición
de la antememoria para almacenar en antememoria cualquier número de dispositivos de destino en la
LPAR de AIX. La LPAR se puede migrar a otro servidor porque el dispositivo de antememoria está
disponible desde la red del área de almacenamiento (SAN). El dispositivo de antememoria debe estar
visible en el sistema de destino. La operación de almacenamiento en antememoria puede continuar
durante el proceso de migración, y la antememoria se rellenará una vez que finalice la migración.
Almacenar en antememoria el dispositivo de destino en modalidad NPIV es lo mismo que almacenar en
antememoria los datos de almacenamiento en modalidad dedicada, excepto que el dispositivo de
antememoria está disponible desde el SAN. Sin embargo, el procedimiento para almacenar en
antememoria el dispositivo de destino es el mismo que almacenar en antememoria los datos de
almacenamiento en modalidad dedicada.

Gestión de la antememoria de datos de almacenamiento


Aunque la antememoria esté configurada, los requisitos de almacenamiento en antememoria pueden
cambiar a lo largo del tiempo. Es posible que desee añadir nuevas cargas de trabajo para que se
almacenen en antememoria. Para llevar a cabo los requisitos cambiantes, la agrupación de antememoria
se puede ampliar con dispositivos de antememoria adicionales, se puede crear una nueva partición de
antememoria en una agrupación existente, o se puede aumentar en tamaño una partición existente.
Puede utilizar los siguientes ejemplos para gestionar la configuración de almacenamiento en
antememoria:
• Para añadir un dispositivo de antememoria a la agrupación, especifique el siguiente mandato:

# cache_mgt pool extend -p pool1 -d hdisk4 -f

El distintivo -f sustituye cualquier uso existente del disco (hdisk4) si éste contiene un grupo de
volúmenes existente.
• Para crear una partición para una nueva carga de trabajo de 100 MB de tamaño, especifique el mandato
siguiente:

# cache_mgt partition create -p pool1 -s 100M -P part2

• Para aumentar el tamaño de una partición existente en 20 MB, especifique el siguiente mandato:

# cache_mgt partition extend -p part1 -s 20M

226 AIX Versión 7.2: Gestión de dispositivos


Consideraciones relacionadas con la alta disponibilidad
Si los dispositivos de destino, que se almacenan en antememoria, forman parte de un grupo de recursos
gestionados en un clúster de alta disponibilidad, la operación de migración tras error se debe planear
correctamente.
El almacenamiento en antememoria se puede activar solo en un nodo a la vez. Antes de que se inicie
ningún suceso de migración tras error, debe asegurarse de que la operación de almacenamiento en
antememoria esté inhabilitada en el sistema original. Una vez que se haya completado la migración tras
error en un sistema alternativo, debe habilitar manualmente el software de almacenamiento en
antememoria.
Para habilitar el software de almacenamiento en antememoria, complete los pasos siguientes:
1. Detenga el almacenamiento en antememoria en el sistema original.

# cache_mgt cache stop -t hdisk2

2. Inicie el almacenamiento en antememoria en el sistema nuevo una vez que se complete la


recuperación tras error.

# cache_mgt cache start -t hdisk2

Supervisión de estadísticas de antememoria


Las estadísticas de antememoria de cada dispositivo de destino se pueden visualizar utilizando el
mandato cache_mgt monitor get.
Por ejemplo, si hdisk1 es el único dispositivo de destino que está almacenado en antememoria, la salida
del mandato cache_mgt podría ser similar al ejemplo siguiente:

# cache_mgt monitor get -h -s


ETS Device I/O Statistics -- hdisk1
Start time of Statistics -- Mon Mar 27 07:10:41 2017
-----------------------------------------------------
Read Count: 152125803
Write Count: 79353626
Read Hit Count: 871
Partial Read Hit Count: 63
Read Bytes Xfer: 10963365477376
Write Bytes Xfer: 4506245999616
Read Hit Bytes Xfer: 48398336
Partial Read Hit Bytes Xfer: 5768192
Promote Read Count: 2033078104
Promote Read Bytes Xfer: 532959226494976

El mandato cache_mgt proporciona las métricas de almacenamiento en antememoria siguientes:


Read Count
El número total de todas las operaciones de lectura emitidas por todas las aplicaciones en el
dispositivo de destino. Este valor incluye también las operaciones de lectura en el dispositivo de
antememoria, si los datos están disponibles en el dispositivo de antememoria. Este valor es el
número total de solicitudes de lectura independientes y no indica el tamaño (recuento de bytes) de
las solicitudes de lectura.
Write Count
El número total de operaciones de grabación emitidas en el dispositivo de destino. Este valor es el
número total de solicitudes de grabación independientes y no indica el tamaño (recuento de bytes) de
las solicitudes de grabación.
Read Hit Count
El número total de operaciones de lectura emitidas en el dispositivo de destino que son coincidencias
de lectura completas. Una coincidencia de lectura completa es una instancia de operación de lectura
en la que el dispositivo de antememoria consuma completamente una solicitud de lectura. El valor de
Read Hit Count (Recuento de coincidencias de lectura) es el número total de solicitudes de
coincidencia de lectura independientes y no indica el tamaño (recuento de bytes) de las solicitudes de
lectura. Este valor está incluido en el valor de Read Count (Recuento de lectura).

Gestión de dispositivos 227


Partial Read Hit Count
El número total de operaciones de lectura emitidas en el dispositivo de destino que son coincidencias
de lectura parciales. Una coincidencia de lectura parcial es una instancia de operación de lectura en la
que el dispositivo de antememoria consuma de manera parcial una solicitud de lectura. Los datos
restantes, que no están disponibles en el dispositivo de antememoria, se deben adquirir del
dispositivo de destino. El valor de Partial Read Hit Count (Recuento de coincidencias de lectura
parciales) es el recuento total de solicitudes de lectura independientes y no indica el tamaño
(recuento de bytes) de las solicitudes de lectura. Este valor está incluido en el valor de Read Count
(Recuento de lectura).
Read Bytes Xfer
El número total de bytes transferidos en todas las solicitudes de lectura que han emitido las
aplicaciones para el dispositivo de destino. Este valor representa el recuento total de bytes de datos
de coincidencia de lectura completa, datos de coincidencia de lectura parcial y datos adquiridos del
dispositivo de destino.
Write Bytes Xfer
El número total de bytes transferidos en todas las solicitudes de grabación que han emitido las
aplicaciones para el dispositivo de destino.
Read Hit Bytes Xfer
El número total de bytes que se leen durante instancias de coincidencia de lectura completa.
Partial Read Hit Bytes Xfer
El número total de bytes que se leen durante instancias de coincidencia de lectura parcial.
Promote Read Count
El número total de mandatos de lectura emitidos para el dispositivo de destino cuando los datos se
ingresan en el dispositivo de antememoria. Este valor no indica el número de instancias en que los
datos se ingresan en el dispositivo de antememoria, ya que una única solicitud de incluir datos en el
dispositivo de antememoria podría dividirse en varias operaciones de lectura si el tamaño de
transferencia máxima de datos en el disco de destino es menor que el tamaño de la solicitud.
Promote Read Bytes Xfer
El número total de bytes que se leen del dispositivo de destino cuando los datos se ingresan en el
dispositivo de antememoria.

Nombres de inicio de sesión, ID del sistema y contraseñas


Para que el sistema operativo pueda proporcionarle el entorno correcto, debe identificarse.
Para identificarse en el sistema operativo, inicie la sesión escribiendo su nombre de inicio de sesión
(también denominado ID de usuario o nombre de usuario) y una contraseña. Las contraseñas son un
sistema de seguridad. Nadie que conozca su nombre de inicio de sesión podrá iniciar la sesión en el
sistema a no ser que también conozca la contraseña.
Si el sistema está configurado como un sistema multiusuario, los usuarios autorizados deberán tener una
cuenta, una contraseña y un nombre de inicio de sesión en el sistema. El sistema operativo hace un
seguimiento de los recursos utilizados por cada usuario. Esto se denomina contabilidad del sistema. Cada
usuario recibirá un área privada en el espacio de almacenamiento del sistema, que se denomina sistema
de archivos. Al iniciar la sesión, parece como si el sistema de archivos sólo tuviera los archivos del
usuario, pero hay millares de archivos en el sistema.
Es posible tener más de un nombre de inicio de sesión válido en un sistema. Si desea cambiar de un
nombre de inicio de sesión a otro, no tiene que finalizar la sesión del sistema. Puede utilizar los distintos
nombres de inicio de sesión simultáneamente en distintos shells o consecutivamente en el mismo shell
sin necesidad de finalizar la sesión. Además, si el sistema es parte de una red con conexiones a otros
sistemas, puede iniciar la sesión en cualquiera de los sistemas en los que tiene un nombre de inicio de
sesión. Esto se conoce como inicio de sesión remoto.
Cuando haya terminado de trabajar en el sistema operativo, deberá finalizar la sesión para asegurarse de
que los archivos y los datos están seguros.

228 AIX Versión 7.2: Gestión de dispositivos


Inicio de sesión en el sistema operativo
Para utilizar el sistema operativo, el sistema debe estar en funcionamiento y el usuario debe haber
iniciado una sesión. Cuando inicia la sesión en el sistema operativo, está identificándose en el sistema y
permitiendo que el sistema configure el entorno.
Puede que el sistema se haya configurado para que sólo pueda iniciar la sesión durante determinadas
horas del día y en determinados días de la semana. Si intenta iniciar la sesión en un momento no
permitido, se le denegará el acceso. El administrador del sistema puede verificar sus horas de inicio de
sesión.
Debe iniciar la sesión en el indicador de inicio de sesión. Cuando inicie la sesión en el sistema operativo,
se situará automáticamente en el directorio inicial (también llamado directorio de inicio de sesión).
Después de encender el sistema, inicie la sesión del sistema para iniciar una sesión.
1. Escriba el nombre de inicio de sesión después del indicador login::

login: NombreInicioSesión

Por ejemplo, si el nombre de inicio de sesión es denise:

inicio de sesión: denise

2. Si se visualiza el indicador contraseña:, escriba la contraseña.


(En la pantalla no se visualizará la contraseña a medida que la escribe.)

contraseña: [su contraseña)

Si no se muestra el indicador de contraseña, esto significa que no tiene ninguna contraseña definida;
puede empezar a trabajar en el sistema operativo.
Si la máquina no está encendida, realice lo siguiente antes de iniciar la sesión:
1. Coloque los interruptores de alimentación de cada dispositivo conectado en la posición de encendido.
2. Arranque la unidad del sistema colocando el interruptor de alimentación en la posición de encendido
(I).
3. Observe el visor de tres dígitos. Cuando se hayan completado las pruebas automáticas sin error, el
visor de tres dígitos estará en blanco.
Si se produce un error que requiere su atención, aparecerá permanentemente un código de tres dígitos y
la unidad del sistema se detendrá. Póngase en contacto con el administrador del sistema para solicitarle
información acerca de los códigos de error y la recuperación.
Cuando las autopruebas se hayan completado satisfactoriamente, en la pantalla se visualizará un
indicador de inicio de sesión similar al siguiente:

inicio de sesión:

Tras haber iniciado la sesión, según cómo esté configurado el sistema operativo, el sistema arrancará en
una interfaz de línea de mandatos (shell) o una interfaz gráfica (por ejemplo, AIXwindows o Common
Desktop Environment (CDE)).
Si tiene alguna duda relacionada con la configuración de la contraseña o del nombre de usuario, consulte
al administrador del sistema.

Inicio de la sesión más de una vez (mandato login)


Si el usuario está trabajando en más de un proyecto y desea mantener contabilidades separadas, puede
tener más de un inicio de sesión simultáneo. Esto puede llevarse a cabo utilizado el mismo nombre de
inicio de sesión o bien usando nombres de inicio de sesión distintos para iniciar la sesión en el sistema.
Nota: Cada sistema tiene un número máximo de nombres de inicio de sesión que pueden estar activos al
mismo tiempo. Este número lo determina el contrato de licencia y varía dependiendo de las instalaciones.

Gestión de dispositivos 229


Por ejemplo, si ya ha iniciado la sesión como denise1 y su otro nombre de inicio de sesión es denise2,
escriba lo siguiente en el indicador:

login denise2

Si se visualiza el indicador contraseña:, escriba la contraseña. (En la pantalla no se visualizará la


contraseña a medida que la escribe.) Ahora tiene dos inicios de sesión en ejecución en el sistema.
Consulte el mandato login en la publicación Commands Reference, Volume 3 para conocer la sintaxis
completa.

Convertirse en otro usuario en un sistema (mandato su)


Puede cambiar el ID de usuario que se asocia a una sesión (si conoce el nombre de inicio de sesión de ese
usuario) utilizando el mandato su (switch user, conmutar usuario).
Por ejemplo, si desea conmutar para convertirse en el usuario joyce, escriba lo siguiente en el indicador
de mandatos:

su joyce

Si se visualiza el indicador contraseña:, escriba la contraseña para el usuario joyce. Ahora su ID es


joyce. Si desconoce la contraseña, se le denegará la petición.
Para verificar si su ID de usuario es joyce, utilice el mandato id.

Supresión de los mensajes de inicio de sesión


Tras un inicio de sesión satisfactorio, el mandato login visualiza el mensaje del día, la fecha y la hora de
los últimos intentos de inicio de sesión satisfactorios y no satisfactorios de este usuario y el número total
de intentos de inicio de sesión no satisfactorios de este usuario desde el último cambio de la información
de autentificación (por lo general, una contraseña). Puede suprimir estos mensajes incluyendo un
archivo .hushlogin en el directorio inicial.

En el indicador de mandatos del directorio inicial, escriba el siguiente mandato:

touch .hushlogin

El mandato touch crea un archivo vacío denominado .hushlogin si no existe. La próxima vez que inicie
la sesión, se suprimirán todos los mensajes de inicio de sesión. Puede indicar al sistema que conserve
únicamente el mensaje del día y que suprima los otros mensajes de inicio de sesión.

Finalización de la sesión del sistema operativo (mandatos exit y logout)


Para finalizar la sesión del sistema operativo, realice una de las acciones siguientes en el indicador del
sistema.
Pulse la secuencia de teclas de control que corresponde a fin de archivo (teclas Control-D).
O bien
Escriba exit.
O bien
Escriba logout.
Tras finalizar la sesión, el sistema visualizará el indicador inicio de sesión:.

Visualización de los ID de usuario


Para visualizar los identificadores (ID) del sistema para un usuario especificado, utilice el mandato id.
Los ID del sistema son números que identifican usuarios y grupos de usuarios en el sistema.
El mandato id visualizará la información siguiente, cuando se aplique:

230 AIX Versión 7.2: Gestión de dispositivos


• Nombre del usuario e ID de usuario real
• Nombre del grupo e ID de grupo real del usuario
• Nombre de los grupos complementarios e ID de grupos complementarios del usuario, si existen.
Por ejemplo, en el indicador de mandatos escriba lo siguiente:

id

El sistema visualiza información similar a la siguiente:

uid=1544(sah) gid=300(build) euid=0(root) egid=9(printq) groups=0(system),10(audit)

En este ejemplo, el usuario tiene el nombre de usuario sah con el número de ID 1544; el nombre de
grupo primario build con el número de ID 300; el nombre de usuario efectivo root con el número de ID
0; el nombre de grupo efectivo printq con el número de ID 9; y los dos nombres de grupos
complementarios system y audit, con los números de ID 0 y 10, respectivamente.
Por ejemplo, en el indicador de mandatos escriba lo siguiente:

id carlos

El sistema visualiza información similar a la siguiente:

uid=2988(carlos) gid=1(staff)

En este ejemplo, el usuario carlos tiene el número de ID 2988 y sólo tiene el nombre de grupo primario f
staff con el número de ID 1.
Consulte el mandato id en la publicación Commands Reference, Volume 3 para conocer la sintaxis
completa.

Visualización del nombre de inicio de sesión (mandatos whoami y logname)


Cuando dispone de más de un inicio de sesión concurrente, es fácil perder la pista de los nombres de
inicio de sesión o, en particular, del nombre de inicio de sesión que está utilizando actualmente. Puede
utilizar los mandatos whoami y logname para visualizar esta información.
Utilización del mandato whoami
Para determinar qué nombre de inicio de sesión se está utilizando, en el indicador de mandatos
escriba lo siguiente:

whoami

El sistema visualiza información similar a la siguiente:

carlos

En este ejemplo, el nombre de inicio de sesión que está utilizándose es carlos.


Consulte el mandato whoami en la publicación Commands Reference, Volume 6 para conocer la
sintaxis completa.
Utilización del mandato who am i
El mandato who am i (que es una variante del mandato who) le permite visualizar el nombre de
inicio de sesión, el nombre del terminal y la hora del inicio de sesión. En el indicador de mandatos,
escriba lo siguiente:

who am i

El sistema visualiza información similar a la siguiente:

Gestión de dispositivos 231


carlos pts/0 Jun 21 07:53

En este ejemplo, el nombre de inicio de sesión es carlos, el nombre del terminal es pts/0 y también
se indica que este usuario ha iniciado la sesión el 21 de junio a las 07:53.
Consulte el mandato who en la publicación Commands Reference, Volume 6 para conocer la sintaxis
completa.
Utilización del mandato logname
Otra variante del mandato who, el mandato logname, visualiza la misma información que el mandato
who.
En el indicador de mandatos, escriba lo siguiente:

logname

El sistema visualiza información similar a la siguiente:

carlos

En este ejemplo, el nombre de inicio de sesión es carlos.

Visualización del nombre del sistema operativo (mandato uname)


Para visualizar el nombre del sistema operativo, utilice el mandato uname.
Por ejemplo, en el indicador de mandatos escriba lo siguiente:

uname

El sistema visualiza información similar a la siguiente:

AIX

En este ejemplo, el sistema operativo es AIX.


Consulte el mandato uname en la publicación Commands Reference, Volume 5 para conocer la sintaxis
completa.

Visualización del nombre del sistema (mandato uname)


Para visualizar el nombre del sistema, si está en una red, utilice el mandato uname con el distintivo -n. El
nombre del sistema identifica al sistema en la red; no es igual al ID de inicio de sesión.
Por ejemplo, en el indicador de mandatos escriba lo siguiente:

uname -n

El sistema visualiza información similar a la siguiente:

fernando

En este ejemplo, el nombre del sistema es fernando.


Consulte el mandato uname en la publicación Commands Reference, Volume 5 para ver la sintaxis
completa.

Visualización de todos los usuarios que han iniciado la sesión


Para visualizar información acerca de todos los usuarios que actualmente tienen iniciada una sesión en el
sistema local, utilice el mandato who.
Se visualizará la información siguiente: el nombre de inicio de sesión, el nombre del sistema y la fecha y la
hora del inicio de sesión.
Nota: Este mandato sólo identifica a los usuarios que han iniciado la sesión en el nodo local.

232 AIX Versión 7.2: Gestión de dispositivos


Para que se visualice información acerca de quién está utilizando el nodo del sistema local, escriba lo
siguiente:

who

El sistema visualiza información similar a la siguiente:

alberto lft/0 Jun 8 08:34


carlos pts/1 Jun 8 07:07

En este ejemplo, el usuario alberto, que está en el terminal lft/0, ha iniciado la sesión el día 8 de junio
a las 08:34.
Consulte el mandato who.

Contraseñas
Una contraseña exclusiva proporciona parte de seguridad del sistema a los archivos.
El sistema asocia una contraseña con cada cuenta. La seguridad es un aspecto importante de los
sistemas informáticos ya que impide que personas no autorizadas tengan acceso al sistema y que sean
invadidos por archivos de otros usuarios. La seguridad también puede proporcionar a algunos usuarios
privilegios exclusivos cuyos mandatos pueden utilizar y a cuyos archivos pueden acceder. Por razones
relacionadas con la protección del sistema, los administradores de sistemas sólo permiten que los
usuarios puedan acceder a determinados mandatos o archivos.

Directrices para contraseñas


Debe tener una contraseña exclusiva. Las contraseñas no deben compartirse. Proteja las contraseñas
como protegería cualquier otro bien de la empresa. Cuando cree las contraseñas, asegúrese de que no
pueden adivinarse fácilmente, pero que no sean tan difíciles de recordar que sea necesario anotarlas.
Utilizar contraseñas opacas es un buen modo de proteger el ID de usuario. Las contraseñas que se basan
en información personal, por ejemplo el nombre y la fecha de cumpleaños, son malas contraseñas.
Incluso ciertas palabras de uso común pueden adivinarse fácilmente.
Las buenas contraseñas tiene al menos seis caracteres e incluyen caracteres no alfabéticos. También son
buenas contraseñas las combinaciones de palabras extrañas y de palabras escritas expresamente de
forma incorrecta.
Nota: Si la contraseña es tan difícil de recordar que tiene que anotarla, no es una buena contraseña.
Para seleccionar una contraseña, utilice las directrices siguientes:
• No utilice su ID de usuario como contraseña. Tampoco lo utilice al revés ni modificado de algún otro
modo.
• No vuelva a utiliza la misma contraseña. Puede que el sistema se haya configurado para rechazar la
reutilización de contraseñas.
• No utilice el nombre de una persona como contraseña.
• No utilice palabras que puedan encontrarse en el diccionario de comprobación de la ortografía en línea
como contraseña.
• No utilice contraseñas de menos de seis caracteres.
• No utilice palabras obscenas; es lo primero que se prueba cuando se intenta averiguar una contraseña.
• Utilice contraseñas fáciles de recordar, de forma que no sea necesario anotarlas.
• Utilice contraseñas en las que se utilicen letras y números y que contengan palabras en minúsculas y en
mayúsculas.
• Utilice dos palabras, separadas mediante un número, como contraseña.
• Utilice contraseñas que puedan pronunciarse. Son más fáciles de recordar.
• No anote las contraseñas. No obstante, si no queda más remedio que anotarla, guárdela en un lugar
físicamente seguro, por ejemplo un archivador cerrado.

Gestión de dispositivos 233


Cambio de contraseñas (mandato passwd)
Para cambiar la contraseña, utilice el mandato passwd.
1. En el indicador de mandatos, escriba lo siguiente:

passwd

Si aún no tiene una contraseña, sáltese el paso 2.


2. Se muestra el indicador siguiente:

Cambiando contraseña para IDUsuario


Contraseña antigua de IDUsuario:

Esta solicitud evita que un usuario no autorizado cambie la contraseña cuando está fuera del sistema.
Teclee su contraseña actual y pulse Intro.
3. Se muestra la solicitud siguiente:

Contraseña nueva de IDUsuario:

Teclee la nueva contraseña que desea y pulse Intro.


4. Se muestra el indicador siguiente, que le solicita que vuelva a teclear la nueva contraseña.

Vuelva a especificar la contraseña nueva:

Esta solicitud evita que escriba una serie incorrecta para establecer la contraseña y no la pueda volver
a crear.
Consulte el mandato passwd en la publicación Commands Reference, Volume 4 para conocer la sintaxis
completa.

Establecimiento de una contraseña en nulo (mandato passwd)


Si no desea teclear una contraseña cada vez que inicia la sesión, establezca la contraseña en nulo (vacío).
Para establecer la contraseña en nulo, escriba lo siguiente:

passwd

Cuando se le solicite la nueva contraseña, pulse Intro o Control-D.


El mandato passwd no le volverá a solicitar una entrada de contraseña. Se muestra un mensaje que
verifica la contraseña nula.
Consulte el mandato passwd para obtener más información y conocer la sintaxis completa.

Resumen de mandatos para nombres de inicio de sesión, ID del sistema y contraseñas


Hay mandatos disponibles para trabajar con nombres de inicio de sesión, ID del sistema y contraseñas.
Mandatos de inicio y de fin de sesión

Elemento Descripción
login Inicia la sesión del usuario
logout Detiene todos los procesos del usuario
shutdown Finaliza el funcionamiento del sistema
su Cambia el ID de usuario que se asocia a una sesión
touch Actualiza las horas de acceso y de modificación de un archivo o bien crea un
archivo vacío

234 AIX Versión 7.2: Gestión de dispositivos


Mandatos de identificación de usuarios y sistemas

Elemento Descripción
id Visualiza las identificaciones del sistema de un usuario especificado
logname Muestra el nombre de inicio de sesión.
uname Visualiza el nombre del sistema operativo actual
who Identifica a los usuarios que actualmente han iniciado la sesión
whoami Visualiza el nombre de inicio de sesión del usuario

Mandato de contraseña

Elemento Descripción
passwd Cambia la contraseña de un usuario

Common Desktop Environment


Con el Common Desktop Environment (CDE), puede acceder a los dispositivos y a las herramientas en red
sin tener que conocer su ubicación. Puede intercambiar datos entre aplicaciones simplemente
arrastrando y soltando objetos.
Muchas de las tareas que anteriormente necesitaban una sintaxis de línea de mandatos compleja pueden
realizarse ahora más fácilmente y de forma similar entre plataformas. Por ejemplo, puede configurar y
distribuir centralmente aplicaciones a los usuarios. También puede gestionar centralmente la seguridad,
la disponibilidad y la interoperabilidad de las aplicaciones para los usuarios a los que se da soporte.
Nota: Los volúmenes de ayuda de Common Desktop Environment (CDE) 1.0, la documentación basada en
la Web y los manuales en copia impresa pueden hacer referencia al escritorio como Common Desktop
Environment, el escritorio de AIXwindows, CDE 1.0 o el escritorio.

Habilitación e inhabilitación del inicio automático del escritorio


Puede que le resulte más conveniente configurar el sistema para que inicie automáticamente Common
Desktop Environment cuando se encienda.
Puede hacerlo mediante la System Management Interface Tool (SMIT) o desde la línea de mandatos.
Requisitos previos

Debe tener autorización de usuario root para poder habilitar o inhabilitar el inicio automático del
escritorio.
Consulte la tabla siguiente para determinar cómo habilitar o inhabilitar el inicio automático del escritorio.

Tarea Vía rápida de SMIT Mandato o archivo


Habilitación del inicio automático del smit dtconfig /usr/dt/bin/dtconfig -e
escritorio1
Inhabilitación del inicio automático del smit dtconfig /usr/dt/bin/dtconfig -d
escritorio1

Nota: Reinicie el sistema tras completar esta tarea.

Inicio manual de Common Desktop Environment


Utilice este procedimiento para iniciar manualmente Common Desktop Environment.
1. Inicie la sesión en el sistema como usuario root.

Gestión de dispositivos 235


2. En la línea de mandatos, escriba lo siguiente:

/usr/dt/bin/dtlogin -daemon

Se visualiza una pantalla de Inicio de sesión del escritorio. Cuando inicie la sesión, se iniciará una sesión
de escritorio.

Detención manual de Common Desktop Environment


Cuando detiene manualmente el Gestor de inicio de sesión, se detienen todos los Servidores X y las
sesiones de escritorio que ha iniciado el Gestor de inicio de sesión.
1. Abra una ventana de emulador de terminal e inicie la sesión como usuario root.
2. Obtenga el ID de proceso del gestor de inicio de sesión escribiendo lo siguiente:

cat /var/dt/Xpid

3. Detenga el gestor de inicio de sesión escribiendo:

kill -term id_proceso

Modificación del perfil de escritorio


Cuando un usuario inicia la sesión en el escritorio, el archivo de entorno de shell (.profile o .login)
no se lee automáticamente. El escritorio ejecuta el Servidor X antes de que el usuario inicie la sesión, por
lo tanto, la función proporcionada por el archivo .profile o el archivo .login debe proporcionarla el
Gestor de inicio de sesión del escritorio.
Las variables de entorno específicas del usuario se establecen en /Directorio
inicial/ .dtprofile. Existe una plantilla para este archivo en /usr/dt/config/sys.dtprofile.
En .dtprofile han de colocarse las variables y los mandatos de shell que se aplican únicamente al
escritorio. Para incorporar el archivo de entorno de shell, añada líneas al final de .dtprofile.
Las variables de entorno del sistema pueden establecerse en los archivos de configuración del Gestor de
inicio de sesión. Para obtener información detallada acerca de la configuración de las variables de
entorno, consulte la publicación Common Desktop Environment 1.0: Advanced User's and System
Administrator's Guide.

Adición y eliminación de pantallas y terminales para Common Desktop Environment


Puede añadir y eliminar pantallas y terminales para Common Desktop Environment.
El Gestor de inicio de sesión se puede iniciar desde un sistema que disponga de una consola de gráficos o
de mapa de bits local. Sin embargo, también son posibles muchas otras situaciones (véase la figura
siguiente). Puede iniciar el Common Desktop Environment desde:
• Consolas locales
• Consolas remotas
• Sistemas de terminal X de visualización de caracteres y de mapa de bits que se ejecutan en un sistema
principal en la red

236 AIX Versión 7.2: Gestión de dispositivos


Figura 17. Puntos de la interfaz de CDE

Un sistema de terminal X consta de un dispositivo de visualización, un teclado y un ratón que sólo ejecuta
el Servidor X. Los clientes, incluido Common Desktop Environment, se ejecutan en uno o más sistemas
principales de las redes. La salida de los clientes se dirige a la pantalla de terminal X.
Las tareas de configuración del Gestor de inicio de sesión que se indican a continuación dan soporte a
muchas posibles configuraciones:
• Eliminación de una pantalla local
• Adición de un terminal ASCII o de visualización de caracteres
Para utilizar una estación de trabajo como un terminal X, escriba lo siguiente en una línea de mandatos:

/usr/bin/X11/X -query hostname

El Servidor X de la estación de trabajo que actúa como terminal X debe:


• Dar soporte a XDMCP y a la opción de línea de mandatos -query.
• Proporcionar permiso xhost (en /etc/X*.hosts) al sistema principal terminal.
Para eliminar una pantalla local, elimine su entrada del archivo Xservers, en el directorio /usr/dt/
config.
Un terminal de visualización de caracteres, o un terminal ASCII, es una configuración en la que el terminal
no es un dispositivo de mapa de bits.
Para añadir una consola ASCII o de visualización de caracteres si no existe una pantalla de mapa de bits,
siga estos pasos:
1. Si el archivo /etc/dt/config/Xservers no existe, copie el archivo /usr/dt/config/Xservers
en el directorio /etc/dt/config.
2. Si debe copiar el archivo Xservers en /etc/dt/config, cambie o añada la línea
Dtlogin.servers: de /etc/dt/config/Xconfig por:

Dtlogin*servers: /etc/dt/config/Xservers

Gestión de dispositivos 237


3. Elimine el comentario de la línea de /etc/dt/config/Xservers que inicia el Servidor X.

# * Local local@console /path/X :0

Esto inhabilita el Menú de opciones de inicio de sesión.


4. Lea los archivos de configuración del Gestor de inicio de sesión.
Para añadir una consola de visualización de caracteres si existe una pantalla de mapa de bits, siga estos
pasos:
1. Si el archivo /etc/dt/config/Xservers no existe, copie el archivo /usr/dt/config/Xservers
en el directorio /etc/dt/config.
2. Si debe copiar el archivo Xservers en /etc/dt/config, cambie o añada la línea
Dtlogin.servers: de /etc/dt/config/Xconfig por:

Dtlogin*servers: /etc/dt/config/Xservers

3. Edite la línea de /etc/dt/config/Xservers que inicia el Servidor X:

* Local local@none /path/X :0

4. Lea los archivos de configuración del Gestor de inicio de sesión.

Visualización de la personalización del dispositivo para Common Desktop Environment


Puede configurar el Gestor de inicio de Common Desktop Environment para que se ejecute en sistemas
con dos o más dispositivos de visualización.
Cuando un sistema incluye varias pantallas, deben satisfacerse los requisitos de configuración siguientes:
• En cada pantalla debe iniciarse un servidor.
• La modalidad No Windows Mode debe estar configurada para cada pantalla.
Puede que sea necesario, o deseable, utilizar distintos recursos dtlogin para cada pantalla.
Puede que también sea necesario, o deseable, utilizar distintas variables de entorno del sistema para
cada dispositivo de visualización.

Inicio del servidor en cada dispositivo de visualización


Inicie el servidor de cada dispositivo de pantalla utilizando este procedimiento.
1. Si el archivo /etc/dt/config/Xservers no existe, copie el archivo /usr/dt/config/Xservers
en el directorio /etc/dt/config.
2. Si tiene que copiar el archivo Xservers en /etc/dt/config, cambie la línea Dtlogin.servers:
de /etc/dt/config/Xconfig por:

Dtlogin*servers: /etc/dt/config/Xservers

3. Para iniciar un Servidor X en cada dispositivo de visualización, edite /etc/dt/config/Xservers.


La sintaxis general para iniciar el servidor es la siguiente:

NombrePantalla ClasePantalla TipoPantalla [ @ite ] Mandato

Solo las pantallas con un Emulador de Terminal Interno (ITE) asociado pueden operar en Modalidad sin
Windows. La modalidad sin Windows inhabilita temporalmente el escritorio para la pantalla y ejecuta un
proceso getty si aún no se ha iniciado uno. Un proceso getty es un programa UNIX que establece el tipo de
terminal y se utiliza en el proceso de inicio de sesión.
Esto le permite iniciar la sesión y llevar a cabo tareas que no pueden realizarse en el Common Desktop
Environment. Cuando finaliza la sesión, el escritorio vuelve a iniciarse para el dispositivo de visualización.
Si no hay ya un proceso getty en ejecución en un dispositivo de pantalla, el Gestor de inicio de sesión
arranca uno al iniciar la Modalidad sin Windows.
En la configuración predeterminada, cuando se omite ite, display:0 se asocia a ITE (/dev/console).

238 AIX Versión 7.2: Gestión de dispositivos


Configuración de una pantalla diferente como ITE
Siga este procedimiento para configurar una pantalla diferente como ITE.
Para especificar una pantalla distinta como ITE:
• En la pantalla ITE, establezca ITE en el dispositivo de caracteres (character device).
• En todas las demás pantallas, establezca ITE en ninguno (none).
Los ejemplos siguientes muestran entradas en el archivo Xserver que iniciar un servidor en tres
pantallas locales de sysaaa:0. La pantalla :0 será la consola (ITE).

sysaaa:0 Local local /usr/bin/X11/X :0


sysaaa:1 Local local /usr/bin/X11/X :1
sysaaa:2 Local local /usr/bin/X11/X :2

En el sistema principal sysbbb, la pantalla de mapa de bits :0 no es ITE; ITE se asocia con el
dispositivo /dev/ttyi1. Las entradas siguientes del archivo Xserver inician servidores en dos pantallas
de mapas de bits con la Modalidad sin Windows habilitada :1.

sysaaa:0 Local local@none /usr/bin/X11/X :0


sysaaa:1 Local local@ttyi1 /usr/bin/X11/X :1

Configuración del nombre de pantalla en Xconfig


No puede utilizar la sintaxis nombresistpral:0 normal para el nombre de pantalla en /etc/dt/
config/Xconfig.
Para especificar el nombre de pantalla en Xconfig:
• Utilice el carácter de subrayado en lugar del carácter de dos puntos.
• En un nombre de sistema principal calificado al completo, utilice caracteres de subrayado en lugar de
caracteres de punto.
El ejemplo siguiente muestra la configuración del nombre de pantalla en Xconfig:

Dtlogin.claaa_0.resource: valor
Dtlogin.sysaaa_prsm_ld_edu_0.resource: valor

Utilización de recursos del Gestor de inicio de sesión distintos para cada pantalla
Para utilizar recursos del Gestor de inicio de sesión diferentes para cada pantalla, siga estos pasos:
1. Si el archivo /etc/dt/config/Xconfig no existe, copie el archivo /usr/dt/config/Xconfig en
el directorio /etc/dt/config.
2. Edite el archivo /etc/dt/config/Xconfig para que especifique un archivo de recursos diferente
para cada pantalla.
Por ejemplo:

Dtlogin.NombrePantalla.resources: vía de acceso/archivo

donde vía de acceso es el nombre de vía de acceso de los archivos Xresource que se deben utilizar y
archivo es el nombre de archivo de los archivos Xresource que se deben utilizar.
3. Cree cada uno de los archivos de recursos que se especifican en el archivo Xconfig.
Un archivo Xresources específico del idioma está instalado en /usr/dt/config/<LANG>.
4. En cada archivo, coloque los recursos dtlogin que correspondan a cada pantalla.
El ejemplo siguiente muestra líneas del archivo Xconfig que especifican diferentes archivos de recursos
para tres pantallas:

Dtlogin.sysaaa_0.resources: /etc/dt/config/Xresources0
Dtlogin.sysaaa_1.resources: /etc/dt/config/Xresources1
Dtlogin.sysaaa_2.resources: /etc/dt/config/Xresources2

Gestión de dispositivos 239


Ejecución de scripts distintos para cada pantalla
Utilice este procedimiento para ejecutar un script en particular para una pantalla específica.
1. Si el archivo /etc/dt/config/Xconfig no existe, copie el archivo /usr/dt/config/Xconfig en
el directorio /etc/dt/config.
2. Utilice los recursos de arranque, restablecimiento y configuración de /etc/dt/config/Xconfig
para especificar diferentes scripts para la pantalla (estos archivos se ejecutan en lugar de los archivos
Xstartup, Xreset y Xsetup):

Dtlogin*NombrePantalla*startup:
/
vía de acceso/archivo
Dtlogin*NombrePantalla*reset:
/vía de acceso/
archivo
Dtlogin*NombrePantalla*setup:
/vía de acceso/
archivo

donde vía de acceso es el nombre de la vía de acceso del archivo que debe utilizarse y archivo es el
nombre de archivo del archivo que debe utilizarse. El script startup se ejecuta como root después de que
el usuario ha iniciado la sesión, antes de que se inicie la sesión de Common Desktop Environment.
El script /usr/dt/config/Xreset puede utilizarse para invertir la configuración que se ha realizado en
el archivo Xstartup. El archivo Xreset se ejecuta cuando el usuario finaliza la sesión.
El ejemplo siguiente muestra líneas del archivo Xconfig que especifican diferentes scripts para dos
pantallas:

Dtlogin.sysaaa_0*startup: /etc/dt/config/Xstartup0
Dtlogin.sysaaa_1*startup: /etc/dt/config/Xstartup1
Dtlogin.sysaaa_0*setup: /etc/dt/config/Xsetup0
Dtlogin.sysaaa_1*setup: /etc/dt/config/Xsetup1
Dtlogin.sysaaa_0*reset: /etc/dt/config/Xreset0
Dtlogin.sysaaa_1*reset: /etc/dt/config/Xreset1

Establecimiento de variables de entorno del sistema distintas para cada pantalla


Utilice este procedimiento para personalizar las variables de entorno del sistema para cada pantalla.
Para establecer variables del entorno del sistema distintas para cada pantalla:
1. Si el archivo /etc/dt/config/Xconfig no existe, copie el archivo /usr/dt/config/Xconfig en
el directorio /etc/dt/config.
2. Establezca el recurso environment en /etc/dt/config/Xconfig por separado para cada pantalla:

Dtlogin*NombrePantalla*environment:
valor

Se aplican las normas siguientes a las variables de entorno para cada pantalla:
• Separe las asignaciones de las variables mediante un espacio o una tabulación.
• No utilice el recurso de entorno para establecer TZ y LANG.
• No existe ningún proceso de shell dentro del archivo Xconfig.
El ejemplo siguiente muestra líneas del archivo Xconfig que establecen variables para dos pantallas:

Dtlogin*syshere_0*environment:EDITOR=vi SB_DISPLAY_ADDR=0xB00000
Dtlogin*syshere_1*environment: EDITOR=emacs \
SB_DISPLAY_ADDR=0xB00000

240 AIX Versión 7.2: Gestión de dispositivos


Live Partition Mobility con Host Ethernet Adapters
Al utilizar la característica de Live Partition Mobility (LPM) con Host Ethernet Adapters (HEA) del software
de IBM PowerVM, puede migrar una LPAR AIX y sus aplicaciones alojadas desde una partición física a otra
partición física al tiempo que el HEA se asigna a la partición de migración.
Durante la migración, el HEA se eliminará de la partición migrada, y no se restaurará en las particiones
cuando se complete la migración. Sin embargo, su conectividad de red no se verá afectada.

Requisitos para Live Partition Mobility con HEA


Antes de empezar a utilizar LPM con HEA, debe asegurarse de que el entorno de su sistema cumple los
requisitos de configuración y acceso.
Requisitos de la partición
• El CEC de origen y el CEC de destino deben estar habilitados para la migración de particiones.
• La LPAR AIX de origen no debe tener ningún recurso físico con el valor Necesario en su perfil.
• La LPAR AIX de origen no debe tener ningún recurso físico con excepción de un HEA.
Requisitos de acceso
• Debe tener autoridad de usuario raíz sobre la partición que desea migrar.
• Debe tener autoridad de hscroot o una autoridad equivalente necesaria para migración de
particiones en la HMC de origen y en la HMC de destino.
Requisitos de configuración
• El HEA no debe tener el valor Necesario en el perfil de la partición, pero puede tener el valor
Deseado en el perfil.
• Todos los HEA deben configurarse bajo el EtherChannel como adaptadores primarios.
• Todos los adaptadores primaros del EtherChannel deben ser HEA.
• El adaptador de seguridad del EtherChannel debe ser un adaptador Virtual Ethernet.
• Debe configurarse como mínimo un EtherChannel con HEA como adaptador primario y Virtual
Ethernet adapter como adaptador de seguridad.
• Se da soporte a un máximo de cuatro EtherChannel.
• La migración tras error de EtherChannel debe estar operativa.
• Debe verificar que tanto el sistema de origen como el de destino están configurados para la
migración de partición.
• Si está migrando entre dos HMC, debe configurar la autenticación SSH entre la HMC de origen y la
HMC de destino. Debe ejecutar el mandato mkauthkeys en la HMC de origen antes de iniciar la
migración.

Ejecución de Live Partition Mobility con HEA


Puede ejecutar LPM con HEA utilizando la interfaz SMIT.
Revise el tema “Requisitos para Live Partition Mobility con HEA” en la página 241 antes de intentar utilizar
LPM con HEA.
Para completar una migración de partición de LPM con HEA, complete los pasos siguientes:
1. Desde el indicador de mandatos, entre la siguiente vía de acceso rápido: smitty migration para
mostrar el menú de Live Partition Mobility con Host Ethernet Adapter (HEA).
2. Especifique el nombre de host o dirección IP de la HMC de origen.
3. Especifique el nombre de usuario de la HMC de origen.
4. Especifique no si los sistemas de origen y de destino se gestionan mediante la misma HMC y vaya al
paso 5. Especifique yes si los sistemas de origen y de destino se gestionan mediante HMC distintas y
complete los pasos siguientes:

Gestión de dispositivos 241


Nota: Debe ejecutar el mandato mkauthkeys en la HMC de origen antes de especificar yes.
a) Especifique el nombre de host o dirección IP de la HMC remota.
b) Especifique el nombre de usuario de la HMC de origen.
5. Especifique el nombre del sistema de origen.
6. Especifique el nombre del sistema de destino.
7. Especifique el nombre de la partición que desea migrar.
8. Especifique no si desea realizar la migración sin validación. Especifique yes si desea realizar
solamente la validación de la migración. Si especifica yes la migración no se lleva a cabo, y se realiza
solamente la validación.
Nota: Debe realizar una validación de la migración de la partición antes de realizar la migración de la
partición.
9. Verifique que todos los campos contienen la información correcta y pulse Intro para ejecutar la
migración.
Nota: Se le solicitará que entre dos veces la contraseña. Entre la contraseña para el usuario de la HMC
de origen que especificó previamente en el paso 4b.
En este ejemplo se está migrando la partición X desde el CEC C gestionado por la HMC A al CEC D
gestionado por la HMC B. Ejecute el mandato mkauthkeys en la HMC A para la autenticación entre la
HMC A y la HMC B.
Para este proceso de migración, se han especificado en SMIT los valores siguientes:

Nombre de host o dirección IP de la HMC de origen: A


Nombre de usuario de la HMC de origen: hscroot
Migración entre dos HMC: yes
Nombre de host o dirección IP de la HMC remota: B
Nombre de usuario de la HMC remota: hscroot
Sistema de origen: C
Sistema de destino: D
Nombre de la partición que se migrará: X
Sólo validación de la migración: no

Otro ejemplo sería migrar la partición X desde el CEC C gestionado por la HMC A al CEC D también
gestionado por la HMC A.
Para este proceso de migración, se han especificado en SMIT los valores siguientes:

Nombre de host o dirección IP de la HMC de origen: A


Nombre de usuario de la HMC de origen: hscroot
Migración entre dos HMC: no
Nombre de host o dirección IP de la HMC remota:
Nombre de usuario de la HMC remota:
Sistema de origen: C
Sistema de destino: D
Nombre de la partición que se migrará: X
Sólo validación de la migración: no

En caso de anomalía en la migración, siga el procedimiento para realizar Live Partition Mobility desde la
HMC de origen.

Migración de un cliente NIM utilizando LPM


Cuando Live Partition Mobility (LPM) se utiliza para mover una máquina de un servidor físico a otro y la
máquina se ha definido como un cliente NIM (Gestión de instalación de red), el administrador de NIM
debe actualizar el atributo cpuid para que el cliente NIM refleje el nuevo valor de hardware una vez que
finalice la migración de LPM.
Para actualicar el atributo cpuid, lleve a cabo los pasos siguientes:
1. En el caso del cliente NIM, adquiera el nuevo ID de cpuid ejecutando el siguiente mandato:

uname -a

242 AIX Versión 7.2: Gestión de dispositivos


2. En el maestro NIM, ejecute el siguiente mandato:

nim -o change -a cpuid=cpuid client

Nota: El instalador de red OS_install ya no admite la instalación del sistema operativo Linux porque
se ha eliminado el soporte de la Gestión de sistemas de clúster (CSM) en el sistema operativo AIX.

Reubicación de un adaptador para DLPAR


Debe configurar los adaptadores de gráfico antes de la reubicación de un adaptador para operaciones de
particionamiento lógico dinámico (DLPAR).
Utilice las siguientes instrucciones para reubicar de manera dinámica un adaptador gráfico, por ejemplo
5748 FC:
1. Asegúrese de que no hay procesos actuales (Desktop y Xserver) y que está utilizando el adaptador de
gráficos (por ejemplo,/dev/lft0).
2. Verifique que la consola no está establecida en lft0. Para identificar las interfaces de dependientes
definidas o disponibles (lft o rcm), especifique el mandato siguiente:

lsdev -C | grep lft


lsdev -C | grep rcm

Para obtener un adaptador PCI padre (Peripheral Component Interconnect) después de que se defina
el adaptador de gráficos, especifique el siguiente mandato:

odmget -q name=<cortina adapter name. for instance cor0> CuDv

Este mandato proporciona información sobre el padre y cortina.


3. Para eliminar todas las interfaces de dependientes para que preparar el adaptador para la operación,
especifique el siguiente mandato:

# pdisable lft0

# rmdev -l rcm0
rcm0 Defined

# rmdev -l lft0
lft0 Defined

# rmdev -Rdl pci23


cor0 deleted
pci23 deleted

La interfaz de consola de gestión se puede utilizar para operaciones DLPAR efectuadas en el adaptador de
gráficos.

Dispositivo de bucle de retorno


Un dispositivo de bucle de retorno es un dispositivo que se puede utilizar como un dispositivo de bloque
para acceder a los archivos.
El archivo de bucle de retorno puede contener una imagen ISO, una imagen de disco, un sistema de
archivos o una imagen de volumen lógico. Por ejemplo, al adjuntar una imagen ISO de CD-ROM a un
dispositivo de bucle de retorno y montarla, puede acceder a la imagen del mismo modo que accede a la
imagen de CD-ROM.
Utilice el mandato loopmount para crear un dispositivo de bucle de retorno, enlazar un archivo
especificado al dispositivo de bucle de retorno y montar el dispositivo de bucle de retorno. Utilice el
mandato loopumount para desmontar un archivo de imagen montado previamente en un dispositivo de
bucle de retorno y para eliminar el dispositivo. No existe límite con respecto al número de dispositivos de
bucle de retorno en AIX. Un dispositivo de bucle de retorno nunca se crea de modo predeterminado; el

Gestión de dispositivos 243


usuario lo debe crear explícitamente. El tamaño de bloque de un dispositivo de bucle de retorno siempre
es de 512 bytes.
También se puede crear un nuevo dispositivo con el mandato mkdev, cambiar con el mandato chdev y
eliminar con el mandato rmdev. Una vez que se ha creado un dispositivo, se puede montar para acceder a
la imagen subyacente, o bien, se puede utilizar como un bloque de dispositivo para una E/S sin formato.
Con el mandato ioctl (IOCINFO), puede obtener información sobre la imagen subyacente.
A un dispositivo de bucle de retorno en AIX, se aplican las restricciones siguientes:
• No se da soporte al mandato varyonvg en una imagen de disco.
• Únicamente se da soporte a las imágenes CD ISO y DVD UDF+ISO, así como otras imágenes CD/DVD en
formato de sólo lectura.
• Un archivo de imagen sólo se puede asociar a un dispositivo de bucle de retorno.
• Sólo se da soporte a los dispositivos de bucle de retorno en particiones de carga de trabajo.

244 AIX Versión 7.2: Gestión de dispositivos


Avisos
Esta información se ha escrito para productos y servicios ofrecidos en Estados Unidos.
IBM puede no ofrecer los productos, servicios o funciones descritos en este documento en otros países.
Póngase en contacto con el representante de IBM local para obtener información sobre los servicios y
productos actualmente disponibles en su área. Cualquier referencia a un producto, programa o servicio
de IBM no pretende indicar ni implicar que sólo pueda utilizarse dicho producto, programa o servicio de
IBM. En su lugar, puede utilizarse cualquier producto, programa o servicio equivalente que no vulnere los
derechos de propiedad intelectual de IBM. Sin embargo, será responsabilidad del usuario evaluar y
verificar el funcionamiento de cualquier producto, programa o servicio que no sea de IBM.
IBM puede tener patentes o aplicaciones pendientes de patente que cubran el asunto descrito en este
documento. La entrega de este documento no le otorga ninguna licencia sobre dichas patentes. Puede
enviar sus consultas de licencias, por escrito, a la dirección siguiente:

IBM Director of LicensingIBM S.A.North Castle Drive, MD-NC119


Armonk, NY 10504-1785
EE.UU.

Para realizar consultas sobre licencias relativas a la información de doble byte (DBCS), póngase en
contacto con el Departamento de propiedad intelectual de IBM de su país o envíe sus consultas, por
escrito, a:

Intellectual Property Licensing


Legal and Intellectual
Property Law IBM Japan Ltd.
19-21, Nihonbashi-Hakozakicho, Chuo-kuTokyo 103-8510, Japón

INTERNATIONAL BUSINESS MACHINES CORPORATION PROPORCIONA ESTA PUBLICACIÓN "TAL CUAL"


SIN GARANTÍAS DE NINGÚN TIPO, NI EXPLÍCITAS NI IMPLÍCITAS, INCLUYENDO PERO NO
LIMITÁNDOSE A ELLAS, LAS GARANTÍAS IMPLÍCITAS DE NO-VULNERACIÓN, COMERCIALIZACIÓN O
IDONEIDAD PARA UN FIN CONCRETO. Algunas jurisdicciones no permiten la renuncia de las garantías
explícitas o implícitas en determinadas transacciones, por lo que es posible que esta declaración no sea
aplicable en su caso.
Esta información podría incluir imprecisiones técnicas o errores tipográficos. Periódicamente se realizan
cambios en la información que aquí se presenta; estos cambios se incorporarán en las nuevas ediciones
de la publicación. IBM puede efectuar mejoras y/o cambios en los productos y/o programas descritos en
esta publicación en cualquier momento y sin previo aviso.
Las referencias que aparecen en esta información a sitios web que no son de IBM sólo se proporcionan
para comodidad del usuario y de ningún modo constituyen un respaldo de esos sitios web. Los materiales
de dichos sitios websites no forman parte de los materiales para este producto de IBM y el uso de dichos
sitios websites corre a cuenta y riesgo del Cliente.
IBM puede utilizar o distribuir la información que usted le suministre del modo que IBM considere
conveniente sin incurrir por ello en ninguna obligación para con usted.
Los tenedores de licencias de este programa que deseen disponer de información acerca de éste con el
fin de permitir: (i) el intercambio de información entre programas creados independientemente y otros
programas (incluido éste) y (ii) la utilización mutua de la información que se ha intercambiado, deben
ponerse en contacto con:

IBM Director of LicensingIBM S.A.North Castle Drive, MD-NC119


Armonk, NY 10504-1785
EE.UU.

Esta información podría estar disponible, en función de los términos y condiciones correspondientes,
incluyendo en algunos casos el pago de una tarifa.

© Copyright IBM Corp. 2010, 2018 245


El programa bajo licencia que se describe en este documento y todo el material bajo licencia disponible
los proporciona IBM bajo los términos de las Condiciones Generales de IBM, Acuerdo Internacional de
Programas Bajo Licencia de IBM o cualquier acuerdo equivalente entre las partes.
Los ejemplos de datos de rendimiento y de clientes citados se presentan solamente a efectos ilustrativos.
Los resultados reales de rendimiento pueden variar en función de configuraciones específicas y
condiciones de operación.
La información relacionada con los productos que no son de IBM se ha obtenido de los proveedores de
tales productos, de los anuncios que éstos han publicado o de otras fuentes de información públicamente
disponibles. IBM no ha comprobado estos productos y no puede confirmar la precisión de su rendimiento,
compatibilidad ni contemplar ninguna otra reclamación relacionada con los productos que no son de IBM.
Las preguntas relacionadas con las posibilidades de los productos que no son de IBM deben dirigirse a
los proveedores de tales productos.
Las declaraciones relacionadas con las futuras directrices o intenciones de IBM están sujetas a cambios o
a su retirada sin previo aviso y sólo representan metas u objetivos.
Todos los precios de IBM mostrados son los precios de distribución propuestos por IBM, son actuales y
están sujetos a cambios sin previo aviso. Los precios de los concesionarios pueden ser diferentes.
Esta documentación se suministra sólo a efectos de planificación. La información aquí contenida puede
cambiar antes de la comercialización de los productos descritos.
Esta información contiene ejemplos de datos y de informes que se utilizan diariamente en las operaciones
de las empresas. Para mostrarlos de la forma más completa posible, los ejemplos incluyen nombres de
personas, de empresas, de marcas y de productos. Todos estos nombres son ficticios y cualquier similitud
con nombres reales de personas o empresas es mera coincidencia.
LICENCIA DE COPYRIGHT:
Esta información contiene programas de aplicaciones de ejemplo en código fuente, que ilustran técnicas
de programación en las distintas plataformas operativas. Puede copiar, modificar y distribuir estos
programas de muestra de cualquier forma sin realizar ningún pago a IBM, con el fin de desarrollar, utilizar,
comercializar o distribuir programas de aplicación que se ajusten a la interfaz de programación de
aplicaciones para la plataforma operativa para la que se han escrito los programas de muestra. Estos
programas no se han probado exhaustivamente bajo todas las condiciones. Por lo tanto, IBM no puede
garantizar ni implicar la fiabilidad, servicio o funcionamiento de estos programas. Los programas de
ejemplo se proporcionan "TAL CUAL", sin garantía de ninguna clase. IBM no es responsable de ningún
daño que resulte del uso de los programas de muestra.
Cada copia de cualquier parte de estos programas de ejemplo o de cualquier trabajo derivado debe incluir
un aviso de copyright, tal como se indica a continuación:
© (su nombre de empresa) (año).

Algunas partes de este código procede de los programas de ejemplo de IBM Corp. Sample Programs.
© Copyright IBM Corp. _especificar año o años_.

Consideraciones de política de privacidad


’Los productos de software de IBM, que incluyen el software como soluciones de servicios, (“Ofertas de
software”) pueden utilizar cookies u otras tecnologías para recopilar información de uso de producto y así
mejorar la experiencia del usuario final y adaptar las interacciones con el usuario final o para otros fines.
En la mayoría de los casos, las Ofertas de software no recopilan información de identificación personal.
Algunas de nuestras Ofertas de software le ayudan a recopilar dicha información. En caso de que una
Oferta de software utilice cookies para recopilar información de identificación personal, se detalla a
continuación información específica sobre el uso que hace de las cookies esta oferta.
Esta Oferta de software no utiliza cookies ni otras tecnologías para recopilar información de identificación
personal.

246 Avisos
Si las configuraciones implementadas para esta Oferta de software le ofrecen como cliente la posibilidad
de recopilar información de identificación personal de los usuarios finales mediante cookies y otras
tecnología, debería buscar asesoramiento jurídico sobre las leyes aplicables con respecto a la
recopilación de datos así como tener noción de los requisitos expresos de notificación y consentimiento.
Si desea obtener más información sobre el uso de varias tecnologías, incluyendo el uso de las ’cookies’
para la recopilación de datos, consulte la Política de privacidad de IBM en http://www.ibm.com/privacy y
las declaraciones de privacidad en línea de IBM en http://www.ibm.com/privacy/details, la sección
denominada “Cookies, balizas de web y otras tecnologías” y “Declaración de privacidad de productos
software y ofertas de Software-as-a-Service (SaaS) de IBM” en http://www.ibm.com/software/info/
product-privacy.

Marcas registradas
IBM, el logotipo de IBM e ibm.com son marcas registradas o marcas comerciales registradas de
International Business Machines Corp., registradas en muchas jurisdicciones de todo el mundo. Puede
que otros productos o nombres de servicio sean marcas registradas de IBM u otras compañías. Se
encuentra disponible una lista de las marcas registradas de IBM en el sistio web en Copyright and
trademark information en www.ibm.com/legal/copytrade.shtml.
Linux es una marca registrada de Linus Torvalds en los Estados Unidos, en otros países o en ambos.
UNIX es una marca registrada de The Open Group en Estados Unidos y/o en otros países.
Windows es una marca registrada de Microsoft Corporation en los Estados Unidos, en otros países, o
ambos.

Avisos 247
248 AIX Versión 7.2: Gestión de dispositivos
Índice

Caracteres Especiales C
árbol de directorios 122 cables
área de descriptor de grupo de volúmenes (VGDA) 2 comprobar conexiones 201
área de estado de grupo de volúmenes (VGSA) 2 cambio
a otro directorio 124
convertirse en otro usuario 230
A CD-ROM
almacenamiento de volumen lógico sistemas de archivos 87
definición 39 cfgmgr 203
desbordamientos de disco 96 códigos de ubicación
grupos de volúmenes 40 adaptador 174
grupos de volúmenes sin quórum 4 definidos 174
particiones lógicas 41 diales/teclado LPF 176
política de asignación entre discos 56 dispositivo SCSI 175
política de asignación intradisco 58 impresora/trazador 174
política de planificación de grabación 54, 55 puerto multiprotocolo 176
quórums 2 tty 175
sistemas de archivos 41 códigos de ubicación de adaptador 174
tamaños máximos 42 códigos de ubicación de diales/teclado LPF 176
volúmenes físicos 39 Coherencia de grabación de réplica (MWC) 55
volúmenes lógicos 41 Common Desktop Environment
antememoria adición de pantallas y de terminales 236
supervisión de estadísticas 227 eliminación de pantallas y terminales 236
Antememoria modificación de los perfiles 236
Componentes 221 personalización de los dispositivos de visualización 238
Concepto 219 compresión de datos
Configuración 222 costes de rendimiento de 116
Configuración en modalidad dedicada 222 fragmentos 107
Configuración en modalidad NPIV 226 comprobar incoherencias de sistemas de archivos 89
Configuración en modalidad virtual 224 configuración de dispositivo de destino 203
Consideraciones relacionadas con la alta disponibilidad contraseñas
227 cambio o establecimiento 234
Gestión 226 descripción 228
Limitaciones 220 directrices 233
Ventajas 220 establecimiento en nulo 234
API controladores de dispositivos
Gestor de carga de trabajo (WLM) 168 efecto del uso de fragmentos en el tamaño de 118
archivo .hushlogin 230 copia de seguridad
archivos efecto de fragmentos en 118
.hushlogin 230 creación
comparación 128 directorios 123
montar 101
nombres de vías de acceso 123 D
archivos de correlaciones 59
asignaciones de poner archivo a cero 113 desbordamientos de disco, arreglar 96
detener Gestor de carga de trabajo 137
diagnosticar problemas de unidad de disco 24
B direccionabilidad de fragmento de sistema de archivos 111
base de datos de configuración de dispositivos Directorio /export 80
sincronizar con el Gestor de volúmenes lógicos 33 Directorio /usr/share 78
bloque de control de volumen lógico directorio de trabajo 122
no protegido del acceso de volúmenes lógicos sin directorio inicial 122
formato 45 directorio padre 122
bloques directorio Shared Product Object Tree (SPOT) 80
costes de rendimiento de 111 directorio SPOT 80
directorios

249
directorios (continuación) eliminación (continuación)
cambio 124 pantalla local 236
comparación de contenido 128 eliminar réplica
copia 125 grupo de volúmenes 46
creación 123 espacio
eliminación 127 visualización disponible 82
estructura 122 espacio de intercambio
inicio 122 véase espacio de paginación 63
listado de archivos 126 espacio de paginación
montar 101 asignar 63
mover 124 cambiar características de 67
nombres de vías de acceso 123 cambiar tamaño de hd6 68
organización 122 características para crear 65
padre 122 eliminación 67
raíz 121 mandatos para gestionar 65
renombrar 124 modalidad de asignación tardía 63
subdirectorios 122 modalidad de asignación temprana 63
supresión 127 mover hd6 68
tipos 121 visión general 63
trabajo 122 estaciones de trabajo sin discos
visión general 121 seguridad de montajes 102
visualización 124 estrategia de asignación entre discos 56
visualización del contenido 126 estrategia de asignación intradisco 58
disco extracción de disco en caliente 8, 46
adición 8 extracción en caliente 30, 46, 48
eliminación 46
disco duro 15
discos (unidades de disco duro)
F
configurar 15 finalización de la sesión
disponibilidad del sistema operativo 230
para anomalía de adaptador o fuente de alimentación fragmentación de disco 59
52 fragmentos
para anomalía de disco 52 costes de rendimiento de 111
dispositivo efecto en copia de seguridad/restauración 118
configurar una unidad óptica de lectura/grabación 36 efecto sobre la utilización de disco 107
instalación 35 limitación para controladores de dispositivos 118
dispositivos tamaño de
cambiar atributos 200 especificar 110
clases 172 identificar 110
códigos de ubicación 174 y número variable de i-nodos 107
comprobar atributos 200
comprobar el estado preparado 203
comprobar el software 200 G
comprobar estado de 200
gestión de conexión en caliente
comprobar las conexiones 201
PCI 179
con posibilidad de MPIO 184
Gestor de carga de trabajo
configurar números grandes 37
API 168
definir nuevo 200
iniciar y detener 137
ejecutar diagnósticos 203
Gestor de memoria virtual 70
estados 173
Gestor de memoria virtual (VMM)
MPIO
visión general 63
cableado 185
Gestor de volúmenes lógicos 5
nodos 172
Gestor de volúmenes lógicos (LVM)
dispositivos SCSI
definición 1
códigos de ubicación 175
sincronizar con base de datos de configuración de
DVD
dispositivos 33
sistemas de archivos 87
grupo de volúmenes
eliminar réplica 46
E raíz
replicar 44
E/S de múltiples vías de acceso 183 replicar 43
EFS subdivisión de un disco duplicado de 23
sistemas de archivos cifrados 81 grupo de volúmenes raíz (rootvg)
eliminación

250
grupo de volúmenes raíz (rootvg) (continuación) JFS (continuación)
reducción del tamaño de sistemas de archivos 90 copiar en otro volumen físico 119
replicar 44 JFS (sistema de archivos de diario)
grupo de volúmenes replicados compresión de datos 114
sustitución de un volumen físico 17 con número variable de i-nodos 107
grupos de volúmenes en soporte óptico de lectura/grabación 87
alta disponibilidad 51 fragmentos 107
cambiar a estado sin quórum 4 limitaciones de tamaño 110
casos en que se deben crear independientes 51 tamaño máximo de 111
definición de 40 JFS2 (sistema de archivos de diario ampliado)
definidas por el usuario limitaciones de tamaño 110, 112
importar 90
estrategia para 51
exportación 12
L
implementación de política 62 lectura del visor de tres dígitos 229
importar 12 limitaciones
mover 12 volúmenes lógicos 32
proceso de activación 2 logout
quórums 2 visión general 229
replicados LVCB (bloque de control de volumen lógico)
sustitución de un volumen físico 17 no protegido del acceso de volúmenes lógicos sin
sin quórum 4 formato 45
sustituir un disco 31 LVM 5, 35
grupos de volúmenes definidos por el usuario
importar 90
grupos de volúmenes sin quórum 4 M
mandato cd 122, 124
H mandato chdev 200
mandato cp 125
habilitar sistemas de archivos mandato df 82
asignaciones de poner archivo a cero 113 mandato dircmp 128
mandato exit 230
I mandato id 230
mandato ln 121
i-nodos mandato login 229
número de bytes por (NBPI) mandato logname 231
especificar 110 mandato logout 230
identificar 110 mandato ls 126
número variable de 110 mandato lsattr 200
y fragmentos 107 mandato lsdev 200
i-nodos, número de 111 mandato mkdev 200
ID de usuario mandato mkdir 123
cambio por otro 230 mandato mvdir 124
importación de grupos de volúmenes definidos por el Mandato passwd 234
usuario 90 mandato pwd 124
impresora mandato rmdir 127
códigos de ubicación 174 mandato skulker 24
iniciar Gestor de carga de trabajo 137 mandato su 230
inicio de sesión mandato touch 230
como otro usuario 230 mandato uname 232
directorio 229 mandato who 231, 232
en el sistema operativo 229 mandato who am i 231
más de una vez 229 mandato whoami 231
nombre 228 mandatos
supresión de los mensajes 230 cd 122, 124
visión general 229 chdev 200
visualización del nombre 231 cp 125
interfaz de programación de aplicaciones df 82
Gestor de carga de trabajo (API) 168 dircmp 128
exit 230
id 230
J inicio de sesión 229
JFS ln 121

251
mandatos (continuación) política de planificación de grabación 54
logname 231 política de verificación de la grabación 60
logout 230 poner archivo a cero, asignaciones (kproc) 113
ls 126 procedimientos de recuperación para unidad de disco que
lsattr 200 ha fallado
lsdev 200 ejemplo de 29
mkdev 200 proceso de activación
mkdir 123 anular anomalía de 33
mvdir 124 puerto multiprotocolo
passwd 234 códigos de ubicación 176
pwd 124 puntos de montaje 101
rmdir 127
su 230
touch 230
Q
uname 232 quórums
who 231, 232 cambiar a estado sin quórum 4
who am i 231 definición 2
whoami 231 grupos de volúmenes sin quórum 4
mandatos y vías rápidas 5
mantenimiento 5
modificación R
perfiles de escritorio 236
recuperar datos de un disco sin volverlo a formatear 25
montar
red
locales
visualización del nombre del sistema 232
definición 101
registro cronológico del sistema de archivos 10
montaje de sistema de archivos 101
registro cronológico JFS 10
montajes automáticos 102
registro cronológico JFS2 10
montajes automáticos de /etc/filesystem 102
registro de errores
montajes de estación de trabajo sin disco
comprobar errores de dispositivo 200
descripción de 104
registro de JFS (sistema de archivos de diario)
seguridad 102
tamaño de 111
remotos
remotos
definición 101
inicio de sesión 228
utilizar múltiples montajes 101
rendimiento
MPIO
mejora
gestionar 184
definición de volúmenes lógicos sin formato 45
renombrar
N directorios 124
replicar
NBPI 110 grupo de volúmenes 43
nombre absoluto de vía de acceso 123 grupo de volúmenes raíz (rootvg) 44
nombre relativo de vía de acceso 123 subdivisión de un disco duplicado de un grupo de
nombres de vías de acceso volúmenes 23
absolutos 123 restore
directorio 123 efecto de fragmentos en 118
relativos 123 restringir usuarios de directorios especificados 24
número de bytes por i-nodo (NBPI) 110 reubicar
número de inodo 121 adaptador para DLPAR 243
número de referencia de nodo de índice 121 RSET de uso exclusivo
número variable de i-nodos conjunto de recursos de procesador de uso exclusivo
y fragmentos 107 162

P S
particiones físicas sistema
definición 40 contabilidad 228
tamaño 40 encendido 229
particiones lógicas visualización del nombre 232
definición 41 sistema de archivos
definición del tamaño de 90 imágenes 118
estrategia de asignación entre discos 56 pasar por alto 45
personalización sistema de archivos / (raíz) 75
dispositivos de visualización 238 sistema de archivos /opt 73

252
sistema de archivos /proc 73 software (continuación)
Sistema de archivos /var 79 comprobar problemas de dispositivo 200
Sistema de archivos CD-ROM (CDRFS) 106 Soporte de dispositivo USB 217
Sistema de archivos de diario (JFS) 106 Soporte de unidades Blu-ray USB 218
Sistema de archivos de diario mejorado (JFS2) 106 soporte óptico
Sistema de archivos de red (NFS) 106 utilizar sistemas de archivos en lectura/grabación 87
sistema de archivos inicial 73 subdivisión de un disco duplicado de un grupo de volúmenes
sistema de archivos raíz 73 23
sistema de archivos raíz (/) 75 supresión
sistema operativo directorios 127
finalización de la sesión 230
inicio de sesión 229
visualización del nombre 232
T
sistemas de archivos tamaño de grupo de asignación 111
/opt 73 terminal X 236
/proc 73 terminales ASCII
árbol de archivos adición 236
Directorio /export 80 terminales de visualización de caracteres
directorio /usr/share 78 adición 236
sistema de archivos / (raíz) 75 tty (teletypewriter)
sistema de archivos /usr 77 códigos de ubicación 175
sistema de archivos /var 79
sistema de archivos raíz (/) 75
visión general 73 U
archivos dispersos 113
unidad de disco que ha fallado
archivos grandes 113
ejemplo de recuperación 29
arreglar el dañado 94
Unidad flash USB 218
CDRFS 87
unidad óptica
compresión de datos 114
configurar 36
desbordamientos de disco 96
unidades de cintas
descripción 228
archivos especiales para 216
desmontar 84
atributos
disponible, espacio 82
cambiables 205, 207–209, 211–215
en soporte óptico de lectura/grabación 87
gestionar 205
estructura 73
unidades de disco
fragmentos 107
desmontar sistemas de archivos de un disco 84
grupos
diagnosticar 24
desmontar 84
eliminar archivos obsoletos de 24
montar 84
liberar espacio en 24
i-nodos 107
montar espacio de otro disco 25
inicio 73
recuperar datos
mandatos para gestionar 81, 83
sin volver a formatear 25
montar 84, 101
recuperar problemas 24
raíz 73
restringir acceso a directorios en 24
reducción del tamaño del grupo de volúmenes raíz 90
véase también volúmenes físicos 17
Sistema de archivos CD-ROM (CDRFS) 106
unidades de disco (unidades de disco duro)
Sistema de archivos de diario (JFS) 106
anomalía de
Sistema de archivos de diario mejorado (JFS2) 106
ejemplo de recuperación 29
Sistema de archivos de red (NFS) 106
listar sistemas de archivos 84
tareas de gestión 81
unidades de disco fijo (unidades de disco)
tipos
véase también unidades de disco 24
CD-ROM 106
usuario
DVD-ROM 106
cambio por otro 230
Network File System (NFS) 106
usuarios
sistema de archivos de diario (JFS) 106
visualización de quién ha iniciado la sesión 232
sistema de archivos de diario ampliado (JFS2) 106
visualización del ID del sistema 230
UDFS 87
utilización de disco
verificar integridad de 89
efecto de fragmentos en 107
sistemas de archivos CDRFS 87
sistemas de archivos habilitados
crear 113 V
espacio libre 113
geometría de archivos grandes 113 valor entre discos estricto 57
software valor entre discos superestricto 57

253
valor Rango 56
verificar sistemas de archivos 89
VGDA (área de descriptor de grupo de volúmenes) 2
VGSA (área de estado de grupo de volúmenes) 2
vías de acceso
directorio 123
visor de tres dígitos 229
visualización
contenido de un directorio de archivos 126
directorio de archivos 124
espacio disponible 82
ID de usuario 230
nombre de inicio de sesión 231
nombre del sistema 232
nombre del sistema operativo 232
usuarios que han iniciado la sesión 232
VMM 70
volumen físico
copia de JFS en otro 119
copiar volumen lógico en otro 9
volumen lógico
copiar en otro volumen físico 9
sin formato
definir 45
volumen lógico sin formato
definir 45
volúmenes físicos
configurar un disco 15
crear a partir de unidad de disco disponible 16
definición 39
mover contenido 13
sustitución de un grupo de volúmenes replicados 17
volúmenes lógicos
añadir un sistema de archivos en uno nuevo 81
archivos de correlaciones 59
cambiar nombre 8
definición 41
estrategia para 52
fragmentado 59
limitaciones 32
mover contenido a otro sistema 13
política de grupo de volúmenes 62
política de verificación de la grabación 60
sustituir un disco 31
tamaño
aumentar 81
comprobación 81
reducir 81
zonas activas 61

W
WLM
API 168

Z
zonas activas en volúmenes lógicos 61

254
IBM®

También podría gustarte