Está en la página 1de 9

Prerequisitos Oracle Grid Insfrastructure & RAC 11.2.0.

3 para DataGuard Plataforma: Solaris 10 Sparc 64


Preinstalacin del Grid Infrastructure
1. Sistema Operativo: Oracle Solaris 10 9/10 s10s_u9wos_14a SPARC (Generic_144488-17) o superior (no instalar o deshabilitar NTPNetwork Time Protocol). 2. Tener instalados los siguientes paquetes de Sun:
SUNWarc SUNWbtool SUNWcsl SUNWhea SUNWlibC SUNWlibm SUNWlibms SUNWsprot SUNWtoo SUNWi1of SUNWi1cs (ISO8859-1) SUNWi15cs (ISO8859-15) SUNWxwfnt SUNWcsl

Verificar con el comando:


$ pkginfo -i SUNWarc SUNWbtool SUNWcsl SUNWhea SUNWlibC SUNWlibm SUNWlibms SUNWsprot SUNWtoo SUNWi1of SUNWi1cs SUNWi15cs SUNWxwfnt

3. Tener instalados los siguientes parches de Sun:


119963-14 or later (SunOS 5.10: Shared library patch for C++) 120753-06 or later (SunOS 5.10: Microtasking libraries (libmtsk) patch) 139574-03 or later (SunOS 5.10: file crle ldd stings elfdump patch, required for OracleClusterware)) 125555-03 140796-01 140899-01 141016-01 139555-08 141414-10 141736-05 141414-02 141444-09

Verificar con el comando:


$ /usr/sbin/patchadd -p | grep 141737

4. Crear usuario oracle, y grupos dba, oinstall y oper en cada nodo del cluster.

$ $ $ $

/usr/sbin/groupadd -g 200 oinstall /usr/sbin/groupadd -g 201 dba /usr/sbin/groupadd -g 202 oper /usr/sbin/useradd -u 200 -g oinstall -G dba,oper oracle

5. Verificar que el usuario oracle tenga asignados los grupos correctamente:


$ id -a uid=200(oracle) gid=200(oinstall) groups=200(oinstall),201(dba),202(oper)

6. Crear el Proyecto en Solaris 10 para el manejo de recursos del usuario oracle (con el usuario root).
$ projadd -p 200 -c "Project for Oracle Installations" -U oracle 'group.dba'

7. Agregar la siguiente lnea al archivo /etc/user_attr con el usuario root.


oracle::::project=group.dba

8. Verificar que el usuario oracle tenga como Proyecto por default group.dba.
$ id p uid=200(oracle) gid=200(oinstall) projid=200(group.dba)

9. Ajustar el archivo .profile del usuario oracle que se encuentra en el home del usuario con los siguientes parmetros:
#GENERAL ENVIRONMENT umask 022 stty erase ^H set -o vi clear alias rm='rm -i' date >> $HOME/.sh_history who am i >> $HOME/.sh_history echo "._________________________________________________________________." banner "SCBD-11gR2" echo "._________________________________________________________________." #ORACLE ENVIRONMENT VARIABLES export ORACLE_UNQNAME=BRSCBD export ORACLE_SID=SCBD1 export ORACLE_BASE=/u01/app/oracle export ORACLE_HOME=/u01/app/oracle/product/11.2.0.2/dbhome_1 export GRID_HOME=/u01/grid/oracle/product/11.2.0.2/grid export TNS_ADMIN=$ORACLE_HOME/network/admin #GENERAL ENVIRONMENT VARIABLES IPSOURCE=`who am i` DISPLAY=`expr "$IPSOURCE" : ".*(\([0-9]*\.[0-9]*\.[0-9]*\.[0-9]*\))"` export DISPLAY="${DISPLAY}:0" export PS1='[$LOGNAME@'`uname -n`':$PWD ]$' MAIL=/usr/mail/${LOGNAME:?} export ENV="$HOME/.kshrc" EDITOR=vi export EDITOR

PATH=$PATH:/usr/sbin:/usr/bin:/usr/ccs/bin:/usr/openwin/bin:/usr/dt/bin: /usr/ucb:. export PATH=$ORACLE_HOME/bin: $PATH:/u01/grid/oracle/product/11.2.0.2/grid/OPatch:/u01/grid/oracle/product/11.2.0.2/ grid/bin:. #STACK PARAMETER FOR ULIMIT ulimit -s 32768

10.

Verificar los siguientes requerimientos mnimos de hardware: a. Al menos 2.5 Gb de RAM:


$ /usr/sbin/prtconf | grep "Memory size" Memory size: 16384 Megabytes

b. Espacio en swap:
RAM Espacio en Swap

Entre 1 Gb MB y 2 1.5 veces el tamao de la Gb RAM Ms de 2 Gb


$ swap -l swapfile /dev/md/dsk/d1

Igual al tamao de la RAM


dev 85,1 swaplo blocks free 16 37752944 37752944

c. 1 Gb de espacio en el directorio /tmp:


$ df -h /tmp Filesystem swap size 31G used 144K avail capacity 31G 1% Mounted on /tmp

d. Filesystem /u01 de mnimo 60 Gb con permisos oracle:oinstall en cada nodo. i. 4 Gb mnimo para los binarios del software del Grid Infrastructure. ii. 5 Gb mnimo para los binarios del software del RDBMS.
$ df -h /u01 Filesystem /dev/dsk/c2t0d0s0 size 59G used 60M avail capacity 58G 1% Mounted on /u01

$ chown -R oracle:oinstall /u01 $ chmod -R 775 /u01/

e. Filesystem /archive de 50 Gb con permisos oracle:oinstall UNICAMENTE EN EL NODO 1. Revisar si con discos locales alcanza, sin necesidad de usar discos EMC. 11. Para mejorar el performance del software, agregar las siguientes lneas en el archivo /etc/system con el usuario root:
set rlim_fd_max = 65536

set maxuprc = 16384

12. Configurar los siguientes parmetros de kernel al proyecto group.dba con el usuario root:
Replaced by Resource Recommended Control value NA 1 100 1024

Parameter noexec_user_stack

semsys:seminfo_sem project.max-sem-ids mni semsys:seminfo_sem NA mns

semsys:seminfo_sem process.max-sem-nsems 256 msl semsys:seminfo_sem NA vmx shmsys:shminfo_shm project.max-shmmax memory shmsys:shminfo_shm project.max-shm-ids mni process.max-filedescriptor 32767 21474836480 100 65536

Ejemplo:
$ $ $ $ $ projmod projmod projmod projmod projmod -sK -sK -sK -sK -sK "project.max-sem-ids=(privileged,100,deny)" group.dba "process.max-sem-nsems=(privileged,256,deny)" group.dba "project.max-shm-memory=(privileged,20G,deny)" group.dba "project.max-shm-ids=(privileged,100,deny)" group.dba "process.max-file-descriptor=(privileged,65536,deny)" group.dba

13. Agregar los siguientes semforos al archivo /etc/system con el usuario root:
set set set set set set set noexec_user_stack=1 semsys:seminfo_semmni=100 semsys:seminfo_semmns=1024 semsys:seminfo_semmsl=256 semsys:seminfo_semvmx=32767 shmsys:shminfo_shmmax=21474836480 shmsys:shminfo_shmmni=100

14. Ajustar los siguientes parmetros de UDP en un archivo de arranque del nivel 2:
Se crea el archivo de arranque con los parmetros necesarios de Oracle: $ cd /etc/rc2.d $ vi S99ndd ndd -set /dev/udp udp_xmit_hiwat 65536 ndd -set /dev/udp udp_recv_hiwat 65536 $ ls -lh S99ndd

-rw-r--r--

1 root

root

78 Jul

8 14:05 S99ndd

15. Reiniciar los nodos y verificar que los parmetros han sido ajustados; checar el archivo /etc/project:
$ $ $ $ $ $ $ prctl n project.max-sem-ids i project group.dba prctl -n process.max-sem-nsems -i process $$ prctl n project.max-shm-memory i project group.dba prctl n project.max-shm-ids i project group.dba prctl -n process.max-file-descriptor -i process $$ ndd /dev/udp udp_xmit_hiwat ndd /dev/udp udp_recv_hiwat

$ more /etc/project group.dba:200:Project for Oracle Installations:oracle::process.max-filedescriptor=(privileged,65536,deny);process.max-sem-nsems=(privileged,256,deny);p roject.max-sem-ids=(privileged,100,deny);project.max-shmids=(privileged,100,deny);project.max-shm-memory=(privileged,21474836480,deny) $ projects -l group.dba group.dba projid : comment: users : groups : attribs: 200 "Project for Oracle Installations" oracle (none) process.max-file-descriptor=(privileged,65536,deny) process.max-sem-nsems=(privileged,256,deny) project.max-sem-ids=(privileged,100,deny) project.max-shm-ids=(privileged,100,deny) project.max-shm-memory=(privileged,21474836480,deny)

16. Limpiar los discos que sern usados por ASM. Hacer esto desde todos los nodos del cluster. Ejemplo:
# dd if=/dev/zero of=/dev/rdsk/emcpower3h bs=8192 count=1024 1024+0 records in 1024+0 records out

17. Configurar los siguientes permisos sobre los discos que sern usados por ASM. Hacer sto desde todos los nodos del cluster. Ejemplo:
# chown oracle:oinstall /devices/pseudo/emcp@23:h,raw # chmod 640 /devices/pseudo/emcp@23:h,raw

18. Para el OCR/Voting disk se utilizarn 2 Raw devices, cada uno montado en 1 mismo disco EMC, pero diferente slice (f y g) y de tamao 1Gb:
/dev/rdsk/emcpower0f /dev/rdsk/emcpower0g

19. Los permisos para el Raw Device de OCR deben ser:


(640) root:oinstall

20. Los permisos para el Raw Device de Voting Disk deben ser:
(640) oracle:oinstall

21. Utilizar NDD para asegurarse de que el rango de puertos TCP/IP del Kernel de Solaris est establecido de 9000 - 65500. Este rango es ms grande que el rango default (32768-65536).
# /usr/sbin/ndd /dev/tcp tcp_smallest_anon_port tcp_largest_anon_port 32768 65535 # /usr/sbin/ndd /dev/udp udp_smallest_anon_port 32768 65535 udp_largest_anon_port

Si es necesario, actualizar los rangos de puertos UDP y TCP a 9000 65500, y asegurarse de que los cambios persistan despus de un reboot.
# # # # /usr/sbin/ndd /usr/sbin/ndd /usr/sbin/ndd /usr/sbin/ndd -set -set -set -set /dev/tcp /dev/tcp /dev/udp /dev/udp tcp_smallest_anon_port 9000 tcp_largest_anon_port 65500 udp_smallest_anon_port 9000 udp_largest_anon_port 65500

22. Habilitar la creacin de core files. Durante la instalacin, el instalador checa el archivo de configuracin de sistema que establece las preferencias para los core dumps para ver si los core dumps estn habilitados.
# coreadm global global init init core file pattern: core file content: core file pattern: core file content: global core dumps: per-process core dumps: global setid core dumps: per-process setid core dumps: global core dump logging: default core default disabled enabled disabled disabled disabled

Para habilitar la creacin de core files: 1. Loggearse con root y ejecutar los siguientes comandos:
# mkdir -p /var/cores # coreadm -g /var/cores/%f.%n.%p.%t.core -e global -e global-setid -e log -e process -e proc-setid

Donde: o -g especifica patrn de nombre de los core files globales. De este modo los core files son almacenados en el directorio especificado con un nombre en el formato program.node.pid.time.core. Por ejemplo: mytest.myhost.1234.1102010309.core. o -e especifica las opciones a habilitar. El comando de ejemplo habilita lo siguiente:

Uso de un patrn de nombre de core files global (a nivel de todo el sistema), asegurando una localizacin consistente de los core files. Capacidad para que los programas setuid para que tambin puedan generar core dump files usando el mismo patrn. Generacin por parte del sistema operativo de un log de mensajes durante el intento de generar un core dump, ya sea que el intento haya sido exitoso o no. -d especifica las opciones a deshabilitar. El comando de ejemplo deshabilita lo siguiente: Core dumps listados utilizando un patrn de procesos de core file Core dumps listados por process ID de programas setuid.

2. En el comando de ejemplo, se configura al sistema operativo para almacenar todos los core dumps en una locacin central con nombres identificando qu proceso gener el core dump y cundo fue generado. Estos cambios solo afectan los procesos que se inicien despus de ejecutar el commando coreadm. Si se quiere asegurar que se capturen core dumps de todos los procesos existentes, entonces se debe ejecutar el comando coreadm u. 23. Configurar los lmites de Shell con los siguientes valores recomendados:
Recommended Shell Limits for Solaris Systems Shell Limit TIME FILE DATA STACK NOFILES VMEMORY Recommended Value -1 (Unlimited) -1 (Unlimited) Minimum value: 1048576 Minimum value: 32768 Minimum value: 4096 Minimum value: 4194304

24. Verificar el idioma y el formato de la fecha para que queden de la siguiente manera:
$locale LANG= LC_CTYPE=en_US.ISO8859-1 LC_NUMERIC=en_US.ISO8859-15 LC_TIME=en_US.ISO8859-15 LC_COLLATE=en_US.ISO8859-15

LC_MONETARY=en_US.ISO8859-15 LC_MESSAGES=C LC_ALL= $date Tuesday, September 20, 2011 01:45:34 PM CDT

25.

Configurar los siguientes requisitos de Red. a. Cada nodo del cluster debe tener al menos 2 interfaces de red: una para la red pblica y otra para la red privada (interconnect). b. Las interfaces pblicas y privadas en todos los nodos del cluster deben ser las mismas. Por ejemplo, no se puede configurar una interfaz pblica en el nodo1 sobre hme0 y configurar la misma interfaz en el nodo2 en hme1. Si hme1 es la interfaz privada en el nodo1, entonces en el nodo2 tambin debe ser hme1. c. Slo las interfaces pblicas deben estar configuradas con IPMP; las privadas no. d. Las IPs asignadas a las interfaces privadas deben pertenecer a diferentes segmentos en un mismo nodo (por ejemplo nxge0-192.168.10.XXX y nxge2-192.168.11.XXX). e. Conectar el cable de red de cada interfaz privada al switch del Interconnect. f. Para la red pblica, cada adaptador de red debe soportar TCP/IP. g. Para la red privada, el interconnect debe soportar UDP usando adaptadores de red de alta velocidad y switches que soporten TCP/IP (por ejemplo Gigabit Ethernet). h. Para el interconnect de cada nodo (red privada), la IP debe cumplir con lo siguiente: i. Debe estar separada de la red pblica. Se usarn las siguientes IPs:
br-scbd1: br-scbd2: Interface Interface Interface Interface 1: 2: 1: 2: 192.168.19.1 192.168.20.1 192.168.19.2 192.168.20.2 br-scbd101-priv br-scbd102-priv br-scbd201-priv br-scbd202-priv

ii. Debe ser accesible en la misma interfaz de red en cada nodo. iii. Debe ser una direccin nica en cada nodo. iv. Las direcciones IP privadas deben estar disponibles en el archivo /etc/hosts de cada nodo. i. Se requiere otra IP pblica disponible para todo el cluster que ser utilizada por la nueva funcionalidad de SCAN (Simple Client Access Name), a la cual se le asignar un nombre global para todo el cluster y se pondr en el /etc/hosts de todos los nodos. Se usar el siguiente nombre e IP:

10.81.8.110 10.81.8.111

br-scbd1-vip br-scbd2-vip

j. Todas las IP usadas para las interfaces pblicas deben ser parte de la misma subred. Pueden usarse las mismas que se tenan en los equipos HP-UX u otras si no es posible por el segmento de red. Ejemplo:
br-scbd1: br-scbd2: Interface Interface Virtual: Interface Interface Virtual: 1: 2: 1: 2: 10.81.8.83 10.81.8.84 10.81.8.85 10.81.8.86 10.81.8.87 10.81.8.88 br-scbd101 br-scbd102 br-scbd1 br-scbd201 br-scbd202 br-scbd2

k. Se requiere otra IP pblica disponible para todo el cluster que ser utilizada por la nueva funcionalidad de SCAN (Simple Client Access Name), a la cual se le asignar un nombre global para todo el cluster y se pondr en el /etc/hosts de todos los nodos. Ejemplo:
10.81.8.112 brscbdcrs-scan.elektra.com

También podría gustarte