Quantcast
Channel: Apuntes de Solaris
Viewing all 94 articles
Browse latest View live

Configurar JET para instalacion desatendida

$
0
0
Todo este procedimiento fue realizado con los siguientes elementos:
Notebook HP modelo HP430 con sistema operativo linux CentOS 6, dentro de la misma, le instale Oracle Virtual Box,
con sistema operativo Solaris x86 release 09/10
#configurar JET para instalacion desatendida

En el linux, en el directorio /usr/scripts/ tengo las imagenes .iso del dvd de solaris 10 y del dvd del EIS
Dentro del Oracle Virtual Box, hay una opcion que se llama "shared folders", ahi le digo que fs o directorio quiero compartir a en este caso mi solaris
Cuando levanta el solaris, monta automaticamente los fs que comparti desde el Virtual Box anteriormente
Aca va un ejemplo de como montamos la imagen .iso del dvd del EIS
# lofiadm -a /mnt/sf_ISOs/eis-diciembre2011-one.iso
/dev/lofi/1
# mkdir /eis
# mount -o ro -F hsfs /dev/lofi/1 /eis
# cd /eis
# ls -ltra
dr-xr-xr-x 7 root root 2048 Jul 21 2010 sun
-r--r--r-- 1 root root 2520 Dec 13 11:48 README-14DEC11
-r--r--r-- 1 root root 90353 Dec 13 11:56 .eis-dvd1.md5
# cd sun
# cd progs/JET/
# ls -tlra
-r--r--r-- 1 root root 417542 Dec 8 21:05 JET-EIS.pkg.bz2
# cp -p JET-EIS.pkg.bz2 /usr/scripts/
# cd /usr/scripts/
# bzip2 -d JET-EIS.pkg.bz2
# pkgadd -d ./JET-EIS.pkg
The following packages are available:
1 JetEISCD EIS CD JET module
(sparc,i386) 4.3
2 JetEXPLO jet explo product
(sparc,i386) 3.1.22
3 JetFLASH JET flash product
(sparc,i386) 3.1.11
4 JetISO JET ISO product
(sparc) 1.0.2
5 JetJASS JASS product
(sparc,i386) 3.0.17
6 JetLDOM JET LDOM product
(sparc,i386) 2.5
7 JetRBAC JET RBAC product
(sparc) 1.1.5
8 JetSAN JET san product
(sparc,i386) 3.1.14
9 JetSBD Secure By Default product
(sparc,i386) 1.0.4
10 JetSC3 JET sc3 Product
(sparc,i386) 3.3.40
11 JetSDS JET sds product
(sparc,i386) 3.5
12 JetVFS JET vfs product
(sparc) 1.0.3
13 JetVTS JET VTS product
(sparc,i386) 3.0.15
14 JetVXFS VxFS product
(sparc) 3.0.7
15 JetVXVM JET VXVM product
(sparc) 3.2.8
16 JetVXVM4 JET VXVM4 product
(sparc) 1.2
17 JetWanBoot JET WanBoot support
(sparc) 1.3.2
18 JetZFS JET zfs product
(sparc,i386) 1.2
19 JetZONES JET Zones module
(sparc,i386) 1.3.17
20 SUNWjet Sun JumpStart Enterprise Toolkit
(sparc,i386) 4.9.2
21 SUNWjetd JET Documentation
(sparc) 4.5

Select package(s) you wish to process (or 'all' to process
all packages). (default: all) [?,??,q]: all
Processing package instance from
The selected base directory must exist before
installation is attempted.
Do you want this directory created now [y,n,?,q] y
Using as the package base directory.
## Processing package information.
## Processing system information.
## Verifying disk space requirements.
## Checking for conflicts with packages already installed.
## Checking for setuid/setgid programs.
This package contains scripts which will be executed with super-user
permission during the process of installing this package.
Do you want to continue with the installation of [y,n,?] y
Installing Sun JumpStart Enterprise Toolkit as

## Executing preinstall script.
Adding 'jet' group to /etc/group
## Installing part 1 of 1.
/opt/SUNWjet/Products/base_config/solaris/base_config.conf
/opt/SUNWjet/Products/base_config/solaris/boot_image_patches
.........
Corto la salida porque es larguisima
............
Processing package instance from
JET Documentation(sparc) 4.5
Installation of was successful.
Installing JET sds product as
Installing JET vfs product as
Installing JET VXVM product as
Installation of was successful.
Installing JET VXVM4 product as
Installation of was successful.
Installing VxFS product as
Installation of was successful.
Installing EIS CD JET module as
Installation of was successful.
Installing JET VTS product as
Installation of was successful.
Installing jet explo product as
Installation of was successful.
Installing JET san product as
Installation of was successful.
Installing JET sc3 Product as
Installation of was successful.
Installation of was successful.
Installing JET Zones module as
Installation of was successful.
Installing JASS product as
Installation of was successful.
Installing Secure By Default product as
Installation of was successful.
Installing JET RBAC product as
Installation of was successful.
Installing JET WanBoot support as
Installation of was successful.
Installing JET LDOM product as
Installation of was successful.
Installing JET ISO product as
Installation of was successful.
Installing JET zfs product as
####### Aca yo habia sacado los shares viejos para despues no hacerme quilombo. La idea es que el share del /opt/SUNWjet te lo agrega solo automaticamente.
# vi /etc/dfs/dfstab
# share -F nfs -o rw=engineering -d "home dirs" /export/home2
share -F nfs -o ro,anon=0 /usr/scripts/Solaris_10
share -F nfs -o ro,anon=0 -d "JET Framework" /opt/SUNWjet
# shareall
# share
- /opt/SUNWjet ro,anon=0 "JET Framework"
# cd /usr/scripts
# ls -tlra
-r--r--r-- 1 root root 2143232 Dec 8 21:05 JET-EIS.pkg
drwxr-xr-x 6 root root 512 Mar 6 15:47 Solaris_10
###### Aca borre la vieja instalacion del dvd de solaris para no mezclarme con lo nuevo que iba a instalar.
# rm -r Solaris_10/
# mkdir /sun-dvd
# pwd
/usr/scripts
# lofiadm -a /mnt/sf_ISOs/sol10SparcNov2011.iso
/dev/lofi/2
# mount -o ro -F hsfs /dev/lofi/2 /sun-dvd/
###### Aca se modifican los tres directorios pkgs, patches y media (si los queremos cambiar de la ubicacion default) y la clave que orignalmente es newroot.
Editar el sig archivo y configurar donde va a buscar los archivos a instalar

# vi /opt/SUNWjet/etc/jumpstart.conf
JS_Default_Root_PW=boajrOmU7GFmY
JS_BUILD_DIR=/var/opt/sun/jet
JS_PKG_DIR=/usr/scripts/jumpstart/pkgs
JS_PATCH_DIR=/usr/scripts/jumpstart/patches
JS_CFG_SVR=
JS_SOLARIS_DIR=/usr/scripts/jumpstart/media
JS_DHCP_VENDOR="SUNW.Ultra-5_10 SUNW.Ultra-30"
JS_CLIENT_MANAGEMENT="dhcp bootp"
JS_CLIENT_MANAGEMENT="bootp"
JS_CLIENT_BOOT="local"

# /opt/SUNWjet/bin/copy_solaris_media -n sol10u10_sparc /sun-dvd/
Copying Solaris image....
Verifying target directory...
Calculating the required disk space for the Solaris_10 product
| /
Install Server setup complete
Added Solaris image sol10u10_sparc at the following location:
Media: /usr/scripts/jumpstart/media/Solaris_10
removing directory /usr/scripts/jumpstart/media/3465

# cd /usr/scripts
# cp -p /eis/sun/progs/explorer/Explorer_6.9.tar.gz .
# gzip -d Explorer_6.9.tar.gz
# tar xvf Explorer_6.9.tar
# /opt/SUNWjet/bin/copy_product_media explo 6 /eis/sun/progs/explorer/ sparc
Transferring package instance
Transferring package instance
Packges copied.


####### Este paso tarda como 3 horas... se ve que los discos compartido con virtual box van muy lento.
# /opt/SUNWjet/bin/copy_eiscd /eis/
Scanning for components in /eis/
Copying DVD

/usr/scripts/jumpstart/patches/eiscd/14DEC11 already exists...
Copying from EIS-DVD image into /usr/scripts/jumpstart/patches/eiscd/14DEC11....
Copying contents of directory sun...
Completed... Please ensure that following line exists in /etc/dfs/dfstab

share -F nfs -o ro,anon=0 /usr/scripts/jumpstart/patches/eiscd/14DEC11
Installtaion of DVD (1) finished

###### Agrego la linea que me pasa el copy_eiscd
# vi /etc/dfs/df stab
share -F nfs -o ro,anon=0 -d "JET Framework" /opt/SUNWjet
share -F nfs -o ro,anon=0 /usr/scripts/jumpstart/patches/eiscd/14DEC11
# shareall
###### Cambiamos las cosas basicas en estos 3 archivos de configuracion en el primero es importante modificar base_config_client_allocation y agregarle bootp
###### El resto son detalles para despues cuando el make_template no tener que tocar a mano mucho el archivo que me devuelve.
###### Yo en el primero modifique el timezone el system_locale, profile_root, profile_swap, dns_domain, dns_nameservers, ntp_servers.
###### En el archvio eiscd modifique solo eiscd_product_version le puse latest
###### En el archivo explo.conf el numero de version en 6. explo_product_version=6
# vi /opt/SUNWjet/Products/base_config/solaris/base_config.conf
# vi /opt/SUNWjet/Products/eiscd/eiscd.conf
# vi /opt/SUNWjet/Products/explo/explo.conf

# make_template -E 0:3:ba:4:96:d9 cabarulo base_config sds sbd explo eiscd

Adding product configuration information for
+ base_config
+ sds
+ sbd
+ explo
+ eiscd
Updating base_config template specifics
Client template created in /opt/SUNWjet/Templates
# cd /opt/SUNWjet/Templates
# ls -tlra
total 324
drwxr-xr-x 11 root root 512 Mar 8 14:23 ..
-rw-rw-r-- 1 root jet 104070 Mar 8 14:23 sample.template
-rw-rw-r-- 1 root jet 48389 Mar 8 16:21 cabarulo
drwxrwsr-x 2 root jet 512 Mar 8 16:21 .
################################3
Editar el sig archivo ( es el nombre del host que quiero instalar ) y configurar lo que quiero que se instale automaticamente, por ejemplo, tamano de los fs
a crear, parches, si quiero mirror.

base_config_ClientEther=0:3:ba:4:96:d9 ( aca va la mac address del Servidor que quiero instalar, una de las formas de verlo es con el equipo en OBP, tipear
banner )
base_config_ClientOS=sol10u10_sparc
base_config_products=" sds sbd explo eiscd"

base_config_sysidcfg_nameservice=NONE
base_config_sysidcfg_network_interface=PRIMARY
base_config_sysidcfg_ip_address=10.11.33.108 ( esta es la ip del equipo que quiero instalar)
base_config_sysidcfg_netmask=255.255.255.0
base_config_sysidcfg_root_password=boajrOmU7GFmY ( si dejamos esto boajrOmU7GFm la passwd de root que le pone es newroot)
base_config_sysidcfg_system_locale=en_US
base_config_sysidcfg_timeserver=localhost
base_config_sysidcfg_timezone=America/Buenos_Aires
base_config_sysidcfg_terminal=vt100
base_config_sysidcfg_security_policy=NONE
base_config_sysidcfg_protocol_ipv6=no
base_config_sysidcfg_default_route=10.11.33.1

base_config_profile_usedisk=rootdisk.
base_config_profile_dontuse=""
base_config_profile_root=30000 ( le deje 30gb al / )
base_config_profile_swap=8192 ( le deje 8gb al swap )
base_config_dns_domain="eldominio.com.ar"
base_config_dns_searchpath=""
base_config_dns_nameservers="10.XX.7.16"
base_config_dns_disableforbuild="yes"
base_config_ntp_servers="10.xx.33.30" ( ip del servidor de NTP )
Parametros de Solaris Disksuite porque quiero mirrorear el equipo
sds_root_mirror=""
sds_use_fmthard="yes"
sds_database_locations="rootdisk.s7:3"
sds_database_partition="s7:32"
sds_root_alias="rootdisk"
sds_root_mirror_devalias_name="rootmirror"

Valores para El Explorer
explo_product_version=6
###### Agrego el fs que me falte.. la idea es que tienen que estar compartidos los tres directorios principales mas el de instalacion (media,patches,pkgs y o
pt/SUNWjet)
share -F nfs -o ro,anon=0 -d "JET Framework" /opt/SUNWjet
share -F nfs -o ro,anon=0 /usr/scripts/jumpstart/patches/eiscd/14DEC11
share -F nfs -o ro,anon=0 /usr/scripts/jumpstart/media/Solaris_10/Solaris_10/Tools/Boot
share -F nfs -o ro,anon=0 /usr/scripts/jumpstart/pkgs

# shareall
# make_client cabarulo
Gathering network information..
Client: 10.11.33.108 (10.11.33.0/255.255.255.0)
Server: 10.11.33.109 (10.11.33.0/255.255.255.0, SunOS)
Solaris: client_prevalidate
Clean up /etc/ethers
Solaris: client_build
Creating sysidcfg
Creating profile
Adding base_config specifics to client configuration
Adding sds specifics to client configuration
Adding sbd specifics to client configuration
SBD: Setting Secure By Default to limited_net
Adding eiscd specifics to client configuration
Solaris: Configuring JumpStart boot for cabarulo
Solaris: Configure bootparams build
Starting SMF services for JumpStart
cleaning up preexisting install client "cabarulo"
removing cabarulo from bootparams
removing /etc/bootparams, since it is empty
removing /tftpboot/inetboot.SUN4U.Solaris_10-1
updating /etc/bootparams
copying boot file to /tftpboot/inetboot.SUN4U.Solaris_10-1
Force bootparams terminal type
-Restart bootparamd
Running '/opt/SUNWjet/bin/check_client cabarulo'
Client: 10.11.33.108 (10.11.33.0/255.255.255.0)
Server: 10.11.33.109 (10.11.33.0/255.255.255.0, SunOS)
Checking product base_config/solaris
BASE_CONFIG/SOLARIS: JS_PKG_DIR is on a remote server. Not checking
BASE_CONFIG/SOLARIS: JS_PATCH_DIR is on a remote server. Not checking
Checking product sds
Product sbd does not support 'check_client'
Checking product explo
WARNING: EXPLO: Unable to locate package SUNWexplo
WARNING: EXPLO: Unable to locate package SUNWexplu
Checking product eiscd
EISCD: Using latest EISCD version -> 14DEC11
--------------------------------------------------------------
Check of client cabarulo

#######
En mi maquina virtual de Solaris x86, (luego de conectar los cables como muestro mas abajo en la foto ) hice
ifconfig e1000g0 10.11.33.109 netmask 255.255.255.0 up

svcadm restart svc:/network/rarp:default

####
Desde mi linux, hice:
minicom para conectarme a la consola del servidor v240 donde quiero hacer la instalacion
Una vez conectado y en OBP hice
boot net - install










Esta instalacion fue realizada en conjunto con mi compañero de equipo,Nicolas Morono

Discos IBm en multipath

$
0
0
No me reconocia los discos Ibm en Multipath.
La Solucion es que el vendor id tiene que tener 8 caracteres, y en estos ibm hay que agregarle 5 espacion en blanco, de esta menra el /kernel/drv/scsi_vhci.conf quedaria asi "IBM_____2105800" donde _ es un espacio en blanco.

Instalacion de Solaris 11 x86 en un Blade IBM

$
0
0
Esta Instalacion fue realizada en el siguiente Hardware
Product Name LS20 Blade Server, 2 AMD Opteron dual-core sockets, 2x GB Enet
Description LS20 (Type 8850)
Machine Type/Model 885065U
El release instalado fue Oracle Solaris 11 11/11 X86, Assembled 18 October 2011

Cantidad de memoria del Servidor
Memory size: 2048 Megabytes

Esta es la salida del prtdiag -v
System Configuration: IBM IBM eServer BladeCenter LS20 -[885065U]-
BIOS Configuration: IBM -[BKE121AUS-1.08]- 01/12/2006
BMC Configuration: IPMI 1.5 (KCS: Keyboard Controller Style)

==== Processor Sockets ====================================

Version Location Tag
-------------------------------- --------------------------
AMD Opteron CPU 1
AMD Opteron CPU 2
AMD Opteron CPU 3
AMD Opteron CPU 4

==== Memory Device Sockets ================================

Type Status Set Device Locator Bank Locator
----------- ------ --- ------------------- ----------------
DDR in use 1 DIMM1 Slot 1
DDR in use 1 DIMM2 Slot 2
DDR in use 2 DIMM3 Slot 3
DDR in use 2 DIMM4 Slot 4

==== On-Board Devices =====================================
ATI Radeon
Ethernet 1 BroadCom 5704S Ethernet Controller
Ethernet 2 BroadCom 5704S Ethernet Controller
LSI Logic 1020/1030 Ultra320 SCSI Adapter

A continuacion, el paso a paso en fotos

En la Figura 1, se muestra la primer pantalla de instalacion donde pregunta el
Figura 1

En la Figura 2, se muestra el menu de instalacion, varia respecto a las versiones anteriores

Figura 2

En la Figura 3, muestra los discos disponibles y donde se instalara Solaris.
Figura 3

En la Figura 4, muestra el Nuevo menu, donde pregunta el nombre del host, y que tipo de configuracion vamos a realizar ( se cambia con )
Figura 4



En la Figura 5, muestra ( esto tambien es Nuevo ) las placas de red a configurar, notese que la bge0 cambio por net0, que es como la veremos de ahora en mas cuando hagamos un ifconfig -a
Figura 5



En la Figura 6, se ve como le tenemos que cargar los datos a la red, en este menu tambien nos movemos con la tecla TAB
Figura 6



En la Figura 7, nos pide la configuracion del DNS
Figura 7

En la Figura 8, al igual que en versiones anteriores, nos pregunta si queremos NIS, LDAP o Ninguno
Figura 8



En la Figura 9, el TIMEZONE, en mi caso elijo America, Buenos Aires, Argentina
Figura 9

En la Figura 10, fecha y hora....vamos vamos que terminamos
Figura 10



En la Figura 11, Atencion, esto es Nuevo y muy distinto, pide password de root, tiene que ser con al menos un caracter especial, y un usuario comun, con la misma caracteristica que root en cuanto al password, es decir, con al menos un caracter especial.
Con este usuario nos vamos a loguear,y luego recien nos podemos sustituir como root, porque Root ahora es un ROL.
Figura 11


Bueno, ya lo instale, notese como cambio el ifconfig -a
root@nuve:~# ifconfig -a
lo0: flags=2001000849 mtu 8232 index 1
inet 127.0.0.1 netmask ff000000
net0: flags=1000843 mtu 1500 index 2
inet 10.19.33.100 netmask ffffff00 broadcast 10.19.33.255 ether 0:14:5e:86:20:90
lo0: flags=2002000849 mtu 8252 index 1
inet6 ::1/128
net0: flags=20002004841 mtu 1500 index 2
inet6 fe80::214:5eff:fe86:2090/10  ether 0:14:5e:86:20:90
root@nuve:~#

Otra cosa, es que el querido UFS no te lo deja elegir en el proceso de instalacion, te pone de prepo el ZFS
mira la salida del df -h
root@nuve:~# df -h
Filesystem                   Size     Used    Available    Capacity        Mounted on
rpool/ROOT/solaris     67G     1.4G         63G           3%              /
/devices 0K 0K 0K 0% /devices
/dev 0K 0K 0K 0% /dev
ctfs 0K 0K 0K 0% /system/contract
proc 0K 0K 0K 0% /proc
mnttab 0K 0K 0K 0% /etc/mnttab
swap                            1.9G    1.4M       1.9G           1%           /system/volatile
objfs 0K 0K 0K 0% /system/object
sharefs 0K 0K 0K 0% /etc/dfs/sharetab
/usr/lib/libc/libc_hwcap2.so.1     65G 1.4G 63G 3% /lib/libc.so.1
fd 0K 0K 0K 0%                /dev/fd
rpool/ROOT/solaris/var       67G    215M      63G        1%      /var
swap                                    1.9G      44K     1.9G        1%      /tmp
rpool/export                          67G      32K      63G        1%      /export
rpool/export/home                67G       32K      63G       1%      /export/home
rpool/export/home/diego      67G       32K      63G        1%     /export/home/diego
rpool                                     67G       39K     63G        1%     /rpool
/export/home/diego               63G       32K     63G        1%     /home/diego
root@nuve:~#

Otra cosita, el dladm show-dev NO VA MAS,( en realidad el dladm toma protagonismo es esta version de Solaris) el que vamos a usar es ....
root@nuve:~# dladm show-phys
LINK MEDIA STATE SPEED DUPLEX DEVICE
net1 Ethernet unknown 0 unknown bge1
net0 Ethernet up 1000 full bge0
root@nuve:~#











Send mondo Timeout o problema de Hardware y/o Software

$
0
0

Problema de Hardware o Software ? leer todo

Send mondo timeout panic
Elequipo,generounpanicyswitcheoalotronododelcluster,aparentementeseriaporhardware,estaeslasalidafmdump



Jun 13 07:51:24 sol5002 fmd: [ID 441519 daemon.error] SUNW-MSG-ID: FMD-8000-2K, TYPE: Defect, VER: 1, SEVERITY: Minor
Jun 13 07:51:24 sol5002 EVENT-TIME: Wed Jun 13 07:51:24 ART 2012
Jun 13 07:51:24 sol5002 PLATFORM: SUNW,Sun-Fire-15000, CSN: -, HOSTNAME: sol5002
Jun 13 07:51:24 sol5002 SOURCE: fmd-self-diagnosis, REV: 1.0
Jun 13 07:51:24 sol5002 EVENT-ID: 2ad4ec18-b1a4-eca0-a67d-a268a7af7071
Jun 13 07:51:24 sol5002 DESC: A Solaris Fault Manager component has experienced an error that required the module to be disabled. Refer to http://sun.com/msg/FMD-8000-2K for more information.
Jun 13 07:51:24 sol5002 AUTO-RESPONSE: The module has been disabled. Events destined for the module will be saved for manual diagnosis.
Jun 13 07:51:24 sol5002 IMPACT: Automated diagnosis and response for subsequent events associated with this module will not occur.

Envie un explorer del equipo y explorer de la SC para que lo analizaran en Oracle.
Lo que vi, fue que la falla estaria en el dimm de memoria J16301 . de la SB1,P3,B1
Lo primero que vieron en el analisis del explorer fue lo siguiente :

*///Salida del FMA confirma evento de hardware.
::::::::::::::
fmadm-faulty.out
::::::::::::::
STATE RESOURCE / UUID
-------- ----------------------------------------------------------------------
faulted fmd:///module/cpumem-diagnosis
2ad4ec18-b1a4-eca0-a67d-a268a7af7071

*///La probalidad de falla es del 100% en memoria RAM, pero no apunta a un FRU especfico.
fmdump-vu_2ad4ec18-b1a4-eca0-a67d-a268a7af7071.out
::::::::::::::
TIME UUID SUNW-MSG-ID
Jun 13 07:51:24.7743 2ad4ec18-b1a4-eca0-a67d-a268a7af7071 FMD-8000-2K
100% defect.sunos.fmd.module

Problem in: fmd:///module/cpumem-diagnosis
Affects: fmd:///module/cpumem-diagnosis
FRU: -
Location: -

*///Numero alto de errores en DIMM
fmdump-e.out
::::::::::::::
TIME CLASS
Jun 13 03:09:59.7741 ereport.cpu.ultraSPARC-IVplus.ce
Jun 13 03:09:59.7740 ereport.cpu.ultraSPARC-IVplus.ce
Jun 13 03:09:59.7736 ereport.cpu.ultraSPARC-IVplus.ce
Jun 13 03:09:59.7733 ereport.cpu.ultraSPARC-IVplus.ce
Jun 13 03:09:59.7731 ereport.cpu.ultraSPARC-IVplus.ce
Jun 13 03:09:59.7730 ereport.cpu.ultraSPARC-IVplus.ce
Jun 13 03:09:59.7730 ereport.cpu.ultraSPARC-IVplus.ce

*///Ubicando el origen exacto de la falla, multiples dimms en SB1 involucrados.
fmdump-eV.out |grep unum|more
unum = SB1/P2/B1/D0 J15301
unum = SB1/P1/B1/D0 J14301
unum = SB1/P2/B0/D0 J15300
unum = SB1/P3/B0/D0 J16300
unum = SB1/P3/B1/D0 J16301
unum = SB1/P0/B0/D0 J13300
unum = SB1/P1/B0/D0 J14300
unum = SB1/P0/B1/D0 J13301
unum = SB1/P2/B0/D0 J15300
unum = SB1/P0/B0/D0 J13300
unum = SB1/P0/B1/D0 J13301



1er conclusion

Luego, del analisis del ingeniero del caso, realizado al explorer de la System controller, nos indica que hay muchos RSTOPS reportados, comenzaron en Junio 10, apuntando a DIMMs de SB1/P1

Jun 10 12:14:13 2012 e25k-5-sc0 ssd[1091]: [1319 7280716936303484 NOTICE StartupManager.cc 2602] efhd output: ECC correctable errors detected from Processor Port SB1/P1, no
Jun 10 12:14:13 2012 e25k-5-sc0 ssd[1091]: [1319 7280716944070151 NOTICE StartupManager.cc 2602] efhd output: corresponding parity error in DXs or DCDSs.
Jun 10 12:14:13 2012 e25k-5-sc0 ssd[1091]: [1319 7280716944567150 NOTICE StartupManager.cc 2602] efhd output: Assuming the error originated in memory on this port.
Jun 10 12:14:13 2012 e25k-5-sc0 ssd[1091]: [1319 7280716944976756 NOTICE StartupManager.cc 2602] efhd output: Data syndrome 049 is CE bit 49.
Jun 10 12:14:13 2012 e25k-5-sc0 ssd[1091]: [1319 7280716945364851 NOTICE StartupManager.cc 2602] efhd output: This bit is in one of Dimm SB1/P1/B0/D0 or Dimm SB1/P1/B1/D0.

Jun 10 12:15:24 2012 e25k-5-sc0 dsmd[27493]: [2517 7280787849650558 WARNING Domain.cc 591] Record stop has been detected in domain B.
Jun 10 12:16:14 2012 e25k-5-sc0 dsmd[27493]: [2517 7280837789222307 WARNING Domain.cc 591] Record stop has been detected in domain B.
Jun 10 12:16:46 2012 e25k-5-sc0 dsmd[27493]: [2517 7280869346469788 WARNING Domain.cc 591] Record stop has been detected in domain B.
Jun 10 12:17:02 2012 e25k-5-sc0 dsmd[27493]: [2517 7280886045362988 WARNING Domain.cc 591] Record stop has been detected in domain B.

El 12 de Junio, mas rstops, esta vez sobre DIMMs de SB1/P2

Jun 12 19:37:13 2012 e25k-5-sc0 ssd[1091]: [1319 7480096796647204 NOTICE StartupManager.cc 2602] efhd output: This bit is in one of Dimm SB1/P2/B0/D0 or Dimm SB1/P2/B1/D0.
Jun 12 19:37:13 2012 e25k-5-sc0 ssd[1091]: [1319 7480096797043039 NOTICE StartupManager.cc 2602] efhd output: Bank/Dimm fault attribution for data CEs is the responsibility of
Jun 12 19:37:13 2012 e25k-5-sc0 ssd[1091]: [1319 7480096797435634 NOTICE StartupManager.cc 2602] efhd output: lpost or domain software which has address information that
Jun 12 19:37:13 2012 e25k-5-sc0 ssd[1091]: [1319 7480096797824449 NOTICE StartupManager.cc 2602] efhd output: allows error attribution to a bank. No action taken here.
NW,UltraSPARC-IV+:send_one_mondo+160 (24, 24, 995c5647, 1, 18b1448, 1)


*///Finalmente viene el panic en el dominio en Junio 13.

Jun 13 06:39:34 sol5002 ^Mpanic[cpu35]/thread=2a100a77cc0:
Jun 13 06:39:34 sol5002 unix: [ID 862289 kern.notice] send mondo timeout (target 0x24) [1470496 NACK 0 BUSY]
Jun 13 06:39:34 sol5002 unix: [ID 100000 kern.notice]
*////El rstop mas cercano a esa hora, es este. Donde se reporta falla en los procesadores P2 y P1. de la SB1.-------------------------------------------------------------------
desde la SC, dentro de /var/opt/SUNWMS/adm/B/dump , podemos ver el log de los record stop
redxl> dumpf load dsmd.rstop.120613.0647.41
Created Wed Jun 13 06:47:41 2012
By hpost v. 1.6 Generic 124319-04 Oct 12 2007 11:30:48 executing as pid=20198
On ssc name: e25k-5-sc0.
Primary service FRU is Slot SB1.

redxl> wfail -B
port SB1/P2 # redx wfail of dump 120613.0447.41
port SB1/P3 # redx wfail of dump 120613.0447.41


CONCLUSION de los ingenieros de Oracle
==============================
PanicproducidoporfalladehardwareenSB1.
PLAN de ACCION
===========

Reemplazo de SB1
540-6753
540-6753 [F] CPU/Memory Uniboard w/4× US IV+ 1.8GHz, 0MB
Se recomienda altamente actualizar los patches de kernel para un mejor control de estos eventos.
Referencia:
Systems With UltraSPARC IV+ Processors Running Solaris 9 or 10 May Experience "send mondo timeout" Panic (Doc ID 1019109.1)

Eso hicimos, instalamos los parches recomendados , pero …....
Luego de reemplazar la System Board, y memoria
El equipo levanto.
Luego del boot, se chequeo los eventos fma y vimos esta condicion

 fmd:///module/cpumem-diagnosis degraded, se le hizo un fmadm repair y lo reparo.
el fmdump muestra eventos anteriores sobre el mismo modulo.

Envio el explorer y la contestacion fue :
Hemosrevisadolainformacióndelexplorerdeldominio,luegodelcambiodelaSB1.

//Lasalidadelcomando'fmadmfaulty"nomuestraenventos.
::::::::::::::
fmadm-faulty.out
::::::::::::::
STATERESOURCE/UUID
------------------------------------------------------------------------------
//Lasalidadelcomando"fmadmfaulty-a"siempremostraraloseventosanteriores.Estosyanorequierenningunaaccion.
:::::::::::::
fmadm-faulty-a.out
::::::::::::::
STATE RESOURCE / UUID
-------- ----------------------------------------------------------------------
faulted mem:///unum=SB1/P0/B1/D0,J13301/offset=22e70d5a
ff12f344-8d86-eac6-832b-92ac8e1063eb
-------- ----------------------------------------------------------------------
faulted mem:///unum=SB1/P0/B1/D0,J13301/offset=22e712fa
7ea9887b-6631-4a28-806e-d74a61cd4733
-------- ----------------------------------------------------------------------
faulted mem:///unum=SB1/P0/B1/D0,J13301/offset=22e7368e
44d9d55f-8277-cdeb-f205-8ca3a2d52ab6
-------- ----------------------------------------------------------------------
faulted mem:///unum=SB1/P1/B0/D0,J14300/offset=227500dc
d100412a-3592-493e-95f1-d460a157e15b
-------- ----------------------------------------------------------------------
faulted mem:///unum=SB1/P1/B0/D0,J14300/offset=4657339a
//El FMA (fmdump -e ) reporta eventos nuevamente  uhhhh
Jun 13 17:30:30.2977 ereport.cpu.ultraSPARC-IVplus.ivc
Jun 13 17:30:30.293 ereport.cpu.ultraSPARC-IVplus.ivc
Jun 13 17:30:30.3054 ereport.cpu.ultraSPARC-IVplus.ivc
Jun 13 17:30:30.3113 ereport.cpu.ultraSPARC-IVplus.ce

*///Estos son los DIMMS involucrados.

unum = SB1/P3/B0/D0 J16300
unum = SB1/P2/B0/D0 J15300
unum = SB1/P1/B1/D0 J14301
unum = SB1/P3/B1/D0 J16301

Me pidieron otro explorer del equipo y de la System Controller
Envie un explorer de la sc y me contestaron :

// El ultimo rstop registrado en el equipo, se presento el dia de hoy, 13 de Junio, a las 15:01 horas.
-rw-r--r-- 1 sctools other 2288 Jun 13 15:00 wfailoutput.120613.1659.57
-rw-r--r-- 1 sctools other 1934 Jun 13 15:00 wfailoutput.120613.1700.32
-rw-r--r-- 1 sctools other 2288 Jun 13 15:01 wfailoutput.120613.1701.16 
 ElultimoPOSTregistradoenelequipo,nosindicaaquehorafueremplazadalasystemboardylaultimavezenqueeldominiofueencendido.
///
Loslogsnosdanlamismafecha:13deJunioalas15:01
horas:-rw-r--r--1sctoolsother1035Jun1315:00post120613.1700.10.log
-rw-r--r--
1sctoolsother924Jun1315:00post120613.1700.33.log
-rw-r--r--
1sctoolsother1035Jun1315:00post120613.1700.52.log
-rw-r--r--
1sctoolsother924Jun1315:01post120613.1701.16.log
-rw-r--r--
1sctoolsother1035Jun1315:01post120613.1701.27.log<----


///
EstaeslahoraenlaquesecapturoelexplorerdelaSC:
=========== SUN(TM) EXPLORER DATA COLLECTOR (Version 5.10) =======
== Esto indica que desde las 15:01, hora en que se levanto por ultima vez el dominio, hasta las 20:42, hora en que se recolecto el explorer, no se han presentado nuevos record stops.


REVISANDO EL EXPLORER DEL DOMINIO
=================================
/ El fma faulty no muestra errores:
$ more fmadm-faulty.ou
STATE RESOURCE / UUID
-------- ----------------------------------------------------------------------

/// El fmadm faulty -i tampoco aparecen errores:
$ more fmadm-faulty-i.out
STATE RESOURCE / CACHE-ID
-------- ----------------------------------------------------------------------

// Es en el fmdump -a donde aparecen errores de memoria, pero no se muestra la fecha de origen de dichos eventos:
ATE RESOURCE / UUID
-------- ----------------------------------------------------------------------
faulted mem:///unum=SB1/P0/B1/D0,J13301/offset=22e70d5a
ff12f344-8d86-eac6-832b-92ac8e1063eb
-------- ----------------------------------------------------------------------
faulted mem:///unum=SB1/P0/B1/D0,J13301/offset=22e712fa
7ea9887b-6631-4a28-806e-d74a61cd4733
-------- ----------------------------------------------------------------------
faulted mem:///unum=SB1/P0/B1/D0,J13301/offset=22e7368e
44d9d55f-8277-cdeb-f205-8ca3a2d52ab6
-------- ----------------------------------------------------------------------
faulted mem:///unum=SB1/P1/B0/D0,J14300/offset=227500dc
d100412a-3592-493e-95f1-d460a157e15b
-------- ----------------------------------------------------------------------
faulted mem:///unum=SB1/P1/B0/D0,J14300/offset=4657339a
296a078c-9763-6c57-f7c9-89a413657bdc
 Enelfmdump-e,aparecenalgunoserroresqueparecieranindicarerroresdeeccenmemoriaycpu:
bash-3.2$
tailfmdump-e.out
Jun
1317:30:20.8827ereport.cpu.ultraSPARC-IVplus.ce
Jun
1317:30:22.9015ereport.cpu.ultraSPARC-IVplus.ivc
Jun
1317:30:22.9015ereport.cpu.ultraSPARC-IVplus.ce
Jun
1317:30:24.8022ereport.cpu.ultraSPARC-IVplus.ivc
Jun
1317:30:26.8814ereport.cpu.ultraSPARC-IVplus.ce
Jun
1317:30:30.1206ereport.io.xmits.ecc.dwce
Jun
1317:30:30.2977ereport.cpu.ultraSPARC-IVplus.ivc
Jun
1317:30:30.2993ereport.cpu.ultraSPARC-IVplus.ivc
Jun
1317:30:30.3054ereport.cpu.ultraSPARC-IVplus.ivc
Jun
1317:30:30.3113ereport.cpu.ultraSPARC-IVplus.ce//Estossontodoslosarchivosfmdump-vurecolectadosenelexplorer:
bash-3.2$
ls-lrt|grepfmdump-vu
-rwxrwxrwx+
1rootstaff320Jun1315:30fmdump-vu_2bd9feed-7269-c64a-8f54-a269a93cec55.out
-rwxrwxrwx+
1rootstaff320Jun1315:30fmdump-vu_ca963465-a151-cc2d-9521-a8e0e6749a70.out-rwxrwxrwx+1rootstaff320Jun1315:30fmdump-vu_d002087b-50d0-64c8-fe5a-8de2099fa3b4.out
-rwxrwxrwx+
1rootstaff320Jun1315:30fmdump-vu_bd302929-fe79-49bd-b1b4-9c9599c7f7db.out
-rwxrwxrwx+
1rootstaff320Jun1315:30fmdump-vu_d1c88b3a-affd-c8fd-b7ad-e161f51f7c2d.out
-rwxrwxrwx+
1rootstaff320Jun1315:30fmdump-vu_92f53876-b809-4969-d00d-dac6859754b6.out
-rwxrwxrwx+
1rootstaff320Jun1315:31fmdump-vu_210c66e3-a939-62c6-d0e3-8b040b97ff82.out
-rwxrwxrwx+
1rootstaff320Jun1315:31fmdump-vu_cdf55e54-0758-6e26-9f46-de77a562dd5a.out
/ Revisando del ultimo hacia el primero, se encuentra que siempre se reporta un error en el modulo de fma llamado cpumem-diagnosis:

bash-3.2$ more fmdump-vu_fde87c22-19d6-e8c6-a9a6-a80bb9a1dcf4.out
TIME UUID SUNW-MSG-ID
Jun 13 09:03:58.0344 fde87c22-19d6-e8c6-a9a6-a80bb9a1dcf4 FMD-8000-2K
100% defect.sunos.fmd.module

Problem in: fmd:///module/cpumem-diagnosis
Affects: fmd:///module/cpumem-diagnosis
FRU: -
Location: -

bash-3.2$ more fmdump-vu_e2ca8c9b-20e2-c419-a73a-e3f0f3198fd2.out
TIME UUID SUNW-MSG-ID
Jun 13 08:46:46.2303 e2ca8c9b-20e2-c419-a73a-e3f0f3198fd2 FMD-8000-2K
100% defect.sunos.fmd.module

Problem in: fmd:///module/cpumem-diagnosis
Affects: fmd:///module/cpumem-diagnosis
FRU: -
Location: -

bash-3.2$ more fmdump-vu_2ad4ec18-b1a4-eca0-a67d-a268a7af7071.out
TIME UUID SUNW-MSG-ID
Jun 13 07:51:24.7743 2ad4ec18-b1a4-eca0-a67d-a268a7af7071 FMD-8000-2K
100% defect.sunos.fmd.module

Problem in: fmd:///module/cpumem-diagnosis
Affects: fmd:///module/cpumem-diagnosis
FRU: -
Location: -

bash-3.2$ more fmdump-vu_2af501d9-6d9b-cc47-bfd9-b27d4214a161.out
TIME UUID SUNW-MSG-ID
Jun 08 02:41:09.9915 2af501d9-6d9b-cc47-bfd9-b27d4214a161 FMD-8000-2K
100% defect.sunos.fmd.module

Problem in: fmd:///module/cpumem-diagnosis
Affects: fmd:///module/cpumem-diagnosis
FRU: -
Location: -

bash-3.2$ more fmdump-vu_9512e0a0-f65f-4d3d-8010-c94ad974d5de.out
TIME UUID SUNW-MSG-ID
Jun 01 02:40:48.2977 9512e0a0-f65f-4d3d-8010-c94ad974d5de FMD-8000-2K
100% defect.sunos.fmd.module

Problem in: fmd:///module/cpumem-diagnosis
Affects: fmd:///module/cpumem-diagnosis
FRU: -
Location: -


== Esta informacion nos direcciona hacia un posible error o bug del fma.


Plan de accion.
1) Limpiar logs de fma.
(aun no se han limpiado todos, ya que en el explorer hay logs con fecha del 1 de Junio y anteriores; si estuviera completamente limpio, veriamos solo logs de fma del dia de hoy).
Favor de aplicar todos los pasos.

Clearing FMA Faults from the O/S
================================

Please run the following commands from the O/S:

1. Run the fmadm faulty command

# fmadm faulty

When you run the fmadm faulty command you may see the output similar to below, and it is the long hex number that is the UUID
STATE RESOURCE / UUID
-------- ----------------------------------------------------------------------
degraded dev:////pci@8,700000 d83323bd-f87b-6cc9-f754-c62f479c7706
-------- ----------------------------------------------------------------------

**NOTE: if fmadm comes back clean, skip to step 3 and continue

2. Run the fmadm repair command on all the UUIDs.
Since you will probably see the same UUID for each event, you will only need to repair that UUID. If you see different UUIDs, run it on each one.

#fmadm repair d83323bd-f87b-6cc9-f754-c62f479c7706

3. Clear ereports and resource cache

# cd /var/fm/fmd
# rm e* f* c*/eft/* r*/*

4. Reset the fmd serd modules
# fmadm reset cpumem-diagnosis
# fmadm reset cpumem-retire
# fmadm reset eft
# fmadm reset io-retire


5. Reboot the system to clear the errors.
En este punto, es necesario monitorear si aparecen nuevos errores de fma despues del reboot.


2) Si llegara a suceder que el problema continuara (que aparecieran nuevos errores de fma), entonces sera necesario aplicar un POST 96 al dominio ,para descartar en su totalidad que haya una falla de hardware en el system board, memoria o en el expander board.

Para correr el POST 96, es necesario dar de baja y apagar el dominio con un setkeyswitch off y encenderlo con el siguiente comando:
setkeyswitch -d B -l 96 on
donde "B" es el identificador del dominio y "l" es el nivel del POST

A esta Altura, el ingeniero de Oracle, recomendo cambiar el EXPANDER BOARD ( ya habiamos reemplazados 2 SB y Memorias )
Al momento, las cosas venian asi :
El equipo venia presentando record stops desde Diciembre, pero el 13 de Junio a las 07:51 presento un panic.

Con la ayuda de un ingeniero de campo, reemplazamos la system board y todos los dimms de memoria, pero el problema continuaba. Entonces se remplazo tambien la expander board pero el problema persiste.

Se corrio un post 96 con todo este nuevo hardware y no aparecio ningun error.
El ingeniero en sitio hizo la prueba de hacer un boot del dominio desde un dvd de solaris en una version mas reciente a la que esta instalada en el equipo (utilizo Solaris 10 Release 09/10)y el problema persistio, se siguieron presentando los record stops en el dominio.


A esta altura es un kilombo, esto seria un resumen
====================
El equipo genera record stops todo el tiempo cuando el sistema operativo esta corriendo. Los record stops indican problemas en los cpus.
En el sistema operativo, se presentan mensajes de fma que indican errores de memoria.
AUN NO HEMOS PODIDO DETERMINAR SI EL PROBLEMA ES DE HARDWARE O DE SOFTWARE.

De acuerdo al analisis del nuevo ingeniero que tomo el caso se desprende:
Del core generado Jun 13 9:03 ,
- El panic fue debido a un "send mondo timeout", lo cual se traduce a un excesivo numero de CE registrados, sumado a que no se tienen los parches para hacer un mejor manejo de los errores de FMA.
- Los parches de FMA estan desactualizados, se deben actualizar para mejorar el manejo de los mensajes de error (rstops)
- La SB actual no presenta falla en ninguno de sus componentes en Post 96 , pero los rstops siguen generandose.
$ strings vmcore.0 | head
SunOS
sol5002
5.10
Generic_127111-09
sun4u
SUNW,Sun-Fire-15000
send mondo timeout (target 0x24) [1470496 NACK 0 BUSY] --* Indica el problema antes mencionado!!
.symtab
.strtab
.shstrtab


Anexo link con informacion al respecto :
https://support.us.oracle.com/oip/faces/secure/km/DocumentDisplay.jspx?id=1019109.1&h=Y
https://support.us.oracle.com/oip/faces/secure/km/DocumentDisplay.jspx?id=1000495.1&h=Y

patch 125369-03 esta obsoleto y reemplazado por 127755-01
patch 137111-01 esta obsoleto y reemplazado por 137137-09

*** Rstops :
------------

Cambian un poco en relacion al Hw instalado pero me da la impresion que la mayor parte de ellos hacen referencia a CE.
por lo que la instalacion de los parches de FMA son necesarios
-Current Action Plan:
--------------------------------------------------------------

1.- Instalar parches faltantes de FMA:
FMA Patch 127755 missing (rps -01, current -01): SunOS 5.10: Fault Manager patch
FMA Patch 127127 missing (rps -11, current -11): SunOS 5.10: kernel patch
FMA Patch 137137 missing (rps -09, current -09): SunOS 5.10: kernel patch
FMA Patch 139555 missing (rps -08, current -08): SunOS 5.10: Kernel Patch
FMA Patch 141444 missing (rps -09, current -09): SunOS 5.10: kernel patch
FMA Patch 142909 missing (rps -17, current -17): SunOS 5.10: kernel patch
FMA Patch 144500 missing (rps -19, current -19): SunOS 5.10: Solaris kernel patch
FMA Patch 147790 missing (current -01): SunOS 5.10: fmd patch
FMA Patch 146582 missing (current -02): SunOS 5.10: fmadm patch
FMA Patch 147705 missing (rps -01, current -02): SunOS 5.10: pciex patch
FMA Patch 147778 missing (current -01): SunOS 5.10: fmd patch
FMA Patch 148629 missing (current -01): SunOS 5.10: xaui patch

2.- Reiniciar equipo y verificar que haya reducido o detenido el numero de rstops
Se abrieron dos escalaciones técnicas, a ingenieros de Kernel y a Ingenieros de Sparc
De las dos escalaciones se logra concluir:

1)causa del panic reportado por cliente en este SR:
Could be a hardware or OBP, firmware and fma patch issues.

Solucion:
Actulizar patches de OS

Solucion implementada:
Patches recomendados del EIS-March-2012 fueron aplicados anoche por FEs. 
2)Respecto a los Rstops.

Estos vienen ocurriendo desde el 2011, son del tipo CE, "errores corregibles" por lo que no
requieren accion.
Solo si el FMA del dominio los reporta deberan ser reemplazados. No se deben cambiar DIMMS que no
esten reportados en logs del FMA.




Plan de accion
================
1. Actualizar patches de SC-SMS
Correr post en nivel 127 domain B.


El post 127 tarda aprox 70 minutos

_________________________________-
Esto conteste yo
Se realizo, el ultimo action plan, que consistia en la instalacion de parches de SC-SMS + un setkeyswitch -d B -l 127.

Al levantar el dominio luego de pocos minutos el FMA reporta errores nuevamente:

[sol5002] /opt/SUNWexplo/output # fmdump -v
TIME UUID SUNW-MSG-ID
Jun 16 02:54:24.5023 79a1d7cf-9a4a-cd58-b57b-ca35d705af4c SUN4U-8001-32
100% fault.memory.datapath

Problem in: hc://:product-id=SUNW,Sun-Fire-15000:server-id=sol5002/component=EX1
Affects: hc://:product-id=SUNW,Sun-Fire-15000:server-id=sol5002/component=EX1
FRU: hc://:product-id=SUNW,Sun-Fire-15000:server-id=sol5002/component=EX1
Location: -
A esta altura ( empezamos un miercoles a las 7am y terminamos un sabado 15 hs ) el ingeniero de campo Ojea Quintana tuvo la solucion final.
Probamos de levantar el sistema operativo con las placas de red unplumbed y levanta sin RecordStop (es decir, sin fallas).

El problema se acoto a lo que es el IO Board, y se reemplazo 
laIO1(501-7394queeselIOboardcompleto).
El cluster levanto sin errores de ningún tipo. 



No funciona el boot net -s

$
0
0

Intento hacer un booteo por red, y el sector de booteo esta corrupto
 Sun Fire E25K, using IOSRAM based Console
 Ethernet address 0:0:be:a9:fb:e9, Host ID: 82a9fbe9.
 {20} ok
 {20} ok boot net -s
 Boot device: /pci@3c,70.0000/network@3,1  File and args: -s
 Requesting Internet Address for 0:0:be:a9:fb:e9
 boot: cannot open kernel/sparcv9/unix
 Enter filename [kernel/sparcv9/unix]:
boot: cannot open kernel/sparcv9/unix
Enter filename [kernel/sparcv9/unix]: ^C^D
 Type  'go' to resume
 {20} ok
Chequeo con devalias , si esta bien seteado la red 
Sep 28 11:39:39 2012 {20} ok devalias
Sep 28 11:40:16 2012 net                      /pci@3c,70.0000/network@3,1
Luego de haber chequeado que los parametros de OBP estan correctos, el problema es que probablemente este corrupto el sector de booteo 
Esto se soluciona asi :
Primero , chequeo en el bootparams, de donde saco el boot que le corresponde a ese dominio, en este caso tomo de ejemplo el dominio B 
root@e25k-1-sc0 # grep e25k-1-b /etc/bootparams
e25k-1-b  root=e25k-1-sc-i1:/export/install/SOL_10_1009_SPARC/Solaris_10/Tools/Boot install=e25k-1-sc-i1:/export/install/SOL_10_1009_SPARC boottype=:in   rootopts=:rsize=8192
root@e25k-1-sc0 #
Me paro en el directorio que tiene los comandos para generar el boot nuevo pra el dominio que yo le indique
cd /export/install/SOL_10_1009_SPARC/Solaris_10/Tools
Ejecuto el comando que hace la magia ( Ojo, que esto me borra el anterior, por si me interesaba guardarlo para algo, sino da igual )
./add_install_client e25k-1-b sun4u
Listo, chequeo como  quedo.
grep e25k-1-b /etc/bootparams
Y luego puedo ejecutar el booteo por red ( seguramente tenga que realizar fsck )
console -d B
 {20} ok boot net -s
 Resetting...
 Rebooting with command: boot net -s
 Boot device: /pci@3c,70.0000/network@3,1  File and args: -s
 Requesting Internet Address for 0:0:be:a9:fb:e9
Booting to milestone "milestone/single-user:default".
 Configuring devices.
 SUNW,eri0 : 100 Mbps half duplex link up
Using RPC Bootparams for network configuration information.
 Attempting to configure interface dman0...
 Configured interface dman0
 Attempting to configure interface ce5...
 Skipped interface ce5
 Attempting to configure interface ce4...
 Skipped interface ce4
 Attempting to configure interface ce3...
 Skipped interface ce3
 Attempting to configure interface ce2...
 Skipped interface ce2
 Attempting to configure interface ce1...
 Skipped interface ce1
 Attempting to configure interface ce0...
 Skipped interface ce0
 Attempting to configure interface eri0...
 Configured interface eri0
 ip_arp_done: init failed
 ifconfig: setifflags: SIOCSLIFFLAGS: eri0: Cannot assign requested address
 Requesting System Maintenance Mode
 SINGLE USER MODE
 # format
Searching for disks...done
 AVAILABLE DISK SELECTIONS:
        0. c0t10d0
           /pci@3c,700000/pci@1/pci@1/scsi@2/sd@a,0
        1. c0t11d0
          /pci@3c,700000/pci@1/pci@1/scsi@2/sd@b,0
# fsck -y /dev/rdsk/c0t10d0s0
 ** /dev/rdsk/c0t10d0s0
 ** Last Mounted on /
 ** Phase 1 - Check Blocks and Sizes
 ** Phase 2 - Check Pathnames
 ** Phase 3a - Check Connectivity
 ** Phase 3b - Verify Shadows/ACLs
 ** Phase 4 - Check Reference Counts
 UNREF FILE  I=617432  OWNER=root MODE=100644
SIZE=28 MTIME=Sep 27 02:39 2012
 RECONNECT?  yes
LINK COUNT FILE I=617432  OWNER=root MODE=100644
 SIZE=28 MTIME=Sep 27 02:39 2012  COUNT 0 SHOULD BE 1
 ADJUST?  yes
 ** Phase 5 - Check Cylinder Groups
***** FILE SYSTEM WAS MODIFIED *****
 #  fsck -y /dev/rdsk/c0t10d0s0
 ** /dev/rdsk/c0t10d0s0
 ** Last Mounted on /
** Phase 1 - Check Blocks and Sizes
 ** Phase 2 - Check Pathnames
 ** Phase 3a - Check Connectivity
 ** Phase 3b - Verify Shadows/ACLs
 ** Phase 4 - Check Reference Counts
 ** Phase 5 - Check Cylinder Groups
 195904 files, 9421235 used, 15688572 free (92068 frags, 1949563 blocks, 0.4% fragmentation)
 #
 #  fsck -y /dev/rdsk/c0t11d0s0
 ** /dev/rdsk/c0t11d0s0
** Last Mounted on /
 ** Phase 1 - Check Blocks and Sizes
 ** Phase 2 - Check Pathnames
 ** Phase 3a - Check Connectivity
 ** Phase 3b - Verify Shadows/ACLs
 ** Phase 4 - Check Reference Counts
 UNREF FILE  I=617432  OWNER=root MODE=100644
 SIZE=28 MTIME=Sep 27 02:39 2012
 RECONNECT?  yes
 LINK COUNT FILE I=617432  OWNER=root MODE=1

Luego init 6 

Agregar en caliente Raw Device a Sun cluster 3.3 con Oracle RAC

$
0
0

[sunrac1]  # vxdctl -c mode  ( Chequeo el nodo que tiene el control de los discos )
mode: enabled: cluster active - MASTER
master: sunrac1

Primero le doy un label a cada disco que quiero agregar ( con el comando format )y luego ejecuto en caliente, el siguiente comando ( puede tardar unos minutos en sincronizar los 2 nodos )
[psunrac1]  # cldev populate
Configuring DID devices
did instance 35 created.
did subpath sunrac1:/dev/rdsk/c6t60050768019901B4000000000000080Cd0 created for instance 35.
did instance 36 created.
did subpath sunrac1:/dev/rdsk/c6t60050768019901B4000000000000080Bd0 created for instance 36.
did instance 37 created.
did subpath sunrac1:/dev/rdsk/c6t60050768019901B4000000000000080Ad0 created for instance 37.
Configuring the /dev/global directory (global devices)
obtaining access to all attached disks

[sunrac1]  # vxdctl enable  ( en ambos nodos )

Todos los comandos a continuacion se ejecutan solo en el nodo que tiene el control de los discos.

[sunrac1]  # vxdiskadm , opcion1
Select disk devices to add: [,all,list,q,?] list

DEVICE       DISK         GROUP        STATUS
c0t0d0       rootdg_1     rootdg       online
c0t1d0       -            -            online invalid
c2t0d0       rootmirror   rootdg       online
c2t1d0       -            -            online invalid
san_vc0_0    -            -            online invalid
san_vc0_1    san_vc0_1    Datosdg      online shared
san_vc0_2    san_vc0_2    Datosdg      online shared
san_vc0_3    san_vc0_3    Datosdg      online shared
san_vc0_4    san_vc0_4    Datosdg      online shared
san_vc0_5    san_vc0_5    Datosdg      online shared
san_vc0_6    san_vc0_6    Datosdg      online shared
san_vc0_7    san_vc0_7    Datosdg      online shared
san_vc0_8    san_vc0_8    Datosdg      online shared
san_vc0_9    san_vc0_9    Datosdg      online shared
san_vc0_10   san_vc0_10   Datosdg      online shared
san_vc0_11   san_vc0_11   Datosdg      online shared
san_vc0_12   san_vc0_13   Crsdg        online shared
san_vc0_13   san_vc0_14   Interdg      online
san_vc0_14   san_vc0_15   Interdg      online
san_vc0_15   san_vc0_16   Interdg      online
san_vc0_16   san_vc0_17   Interdg      online
san_vc0_17   localrac1dg01 localrac1dg  online
san_vc0_18   Redodg01     Redodg       online shared
san_vc0_19   san_vc0_20   Interdg      online
san_vc0_20   Archdg01     Archdg       online
san_vc0_21   san_vc0_21   Datosdg      online shared
san_vc0_22   san_vc0_22   Datosdg      online shared
san_vc0_23   -            -            online invalid
san_vc0_24   -            -            online invalid
san_vc0_25   -            -            online invalid

Select disk devices to add: [,all,list,q,?]  san_vc0_23 san_vc0_24 san_vc0_25

 Chequeo el tamaño de los discos que agregue
[sunrac1] # vxassist -g Datosdg maxsize san_vc0_23
Maximum volume size: 276723712 (135119Mb)
[sunrac1]  # vxassist -g Datosdg maxsize san_vc0_24
Maximum volume size: 276723712 (135119Mb)
[sunrac1]  # vxassist -g Datosdg maxsize san_vc0_25
Maximum volume size: 276723712 (135119Mb)
[sunrac1]  #

[sunrac1]  # vxassist -g Datosdg -U gen make datos14 135119M san_vc0_23
[sunrac1]  # vxassist -g Datosdg -U gen make datos15 135119M san_vc0_24
[sunrac1]  # vxassist -g Datosdg -U gen make datos16 135119M san_vc0_25
[sunrac1]  # vxedit -g Datosdg set group=asmadmin user=grid mode=660 datos14
[sunrac1]  # vxedit -g Datosdg set group=asmadmin user=grid mode=660 datos15
[sunrac1]  # vxedit -g Datosdg set group=asmadmin user=grid mode=660 datos16

Chequeo que hayan quedado con los permisos correctos

[psunrac1]  # ls -lt /dev/vx/rdsk/Datosdg/ 
crw-rw----   1 grid     asmadmin 335, 61000 Jan 24 10:29 datos1
crw-rw----   1 grid     asmadmin 335, 61015 Jan 24 10:27 datos16
crw-rw----   1 grid     asmadmin 335, 61014 Jan 24 10:27 datos15
crw-rw----   1 grid     asmadmin 335, 61013 Jan 24 10:27 datos14
crw-rw----   1 grid     asmadmin 335, 61012 Jan 24 10:23 datos13
crw-rw----   1 grid     asmadmin 335, 61007 Jan 24 10:07 datos8
crw-rw----   1 grid     asmadmin 335, 61006 Jan 24 01:41 datos7
crw-rw----   1 grid     asmadmin 335, 61011 Jan 24 00:17 datos12

Errores cometidos y Soluciones aplicadas :

Al intentar agregar los discos con vxdiskadm fallo porque no veia los discos en el otro nodo.
La solucion fue ejecutar el vxdctl enable en el otro nodo y volver a correr el vxdiskadm en el nodo primario.
Otro error fue con el vxdiskadm, cuando agregamos los discos, pusimos los nombres default en lugar del nombre que queriamos poner a los discos.
La solucion fue , una vez agregado los discos, desde la linea de comando, renombramos los discos de la siguiente manera :

[sunrac1]  # vxedit -g Datosdg rename Datosdg01 san_vc0_23
[sunrac1]  # vxedit -g Datosdg rename Datosdg02 san_vc0_24
[sunrac1]  # vxedit -g Datosdg rename Datosdg03 san_vc0_25

Tareas realizadas con mi colega Nicolas Morono

Replica de Datos

$
0
0

La finalidad del documento es, mostrar  la replica de datos  mediante un storage externo.
Sobre un Sun Cluster 3.2 con Oracle Rac, en 2 servidores m5000 hay conectado un storage externo de ibm llamado ds 2145, y el manejador de volumenes Veritas Volume Manager 5.0
La replica de caja se realiza a dos dominios de una E25k, con Solaris 10 y Veritas Volume Manager 5.0


Replica de Datos




En que consiste la Copia ?
De los equipos en cluster Sunrac1 y Sunrac2 , que  serian los equipo productivos, se debe copiar los datos contenidos en los 3 diskgroups  ( RedoDG, DatosDG y ArchDG ) a 2 servidores  los cuales servirán uno de Reportes (sun5rep )  y otro de Backup ( sun5bkp )
Como funciona la copia ?
La copia se realiza por discos agrupados en disk groups de Veritas.
En el cuadro de abajo, se muestran en que servidor se ejecuta cada script.



SUN5REP
SUNRAC1/SUNRAC2
SUN5BKP
1
oracle_replication.sh stop_grid


2
Desmonto_DG_y_FS.ksh

Desmonto_DG_y_FS.ksh
3

oracle_replication.sh begin_backup

4
Semanal_Copia_de_Caja.ksh


5

oracle_replication.sh end_backup

6
Semanal_Copia_de_Caja_Solo_Archive.ksh


7
Monto_DG_y_FS_Redo_y_Data.ksh

Monto_DG_y_FS_Redo_y_Data.ksh
8
Monto_DG_y_FS_Archive.ksh

Monto_DG_y_FS_Archive.ksh
9
oracle_replication.sh start_grid


10
oracle_replication.sh recover_database



 oracle_replication.sh stop_grid En este script le doy stop a la base de datos , al ASM y a los diskgroups del Grid.

 Desmonto_DG_y_FS.ksh Realizo un Stop y deport de los DiskGroups y luego umount del filesystem del Archive Log.
oracle_replication.sh begin_backup Setea la Base de datos en modo Begin Backup
Semanal_Copia_de_caja.ksh Ejecuta la replica del storage, invocandolo desde un ssh al equipo que administra la caja, algo asi user@10.xx.xx.xx "svctask startfcconsistgrp -prep SUN5REP_DB"
oracle_replication.sh end_backup Setea la Base de datos en modo End Backup
Semanal_Copia_de_Caja_Solo_Archive.ksh Ejecuto la replica SOLO de los Archives Logs , ejemplo ssh usuario@10.xx.xx.16 "svctask startfcconsistgrp -prep SUN5REP_ARCH"
Monto_DG_y_FS_Redo_y_Data.ksh Realizo un Import y un Start de los Volumenes
Monto_DG_y_FS_Archive.ksh Realizo un Import y un Start del volume Archive y luego un mount del filesystem /archives
oracle_replication.sh start_grid Levanta los diskgroups, el ASM y la Base de datos en modo MOUNT
oracle_replication.sh recover_database Recupera la base de datos


Nota:
De requerir los scripts, solicitarlos en el comentario.
Documento realizado con Nicolas Morono ( @nicomorono )


Resetear password de ALOM

$
0
0
Para resetear la password de un usuario de ALOM, desde el Sistema Operativo, tipear :

cd /usr/platform/`uname -i`/sbin
scadm userpassword username  donde username generalmente es admin

Si quiero verificar previamente que usuarios existen
scadm usershow 

Configurar M5000 con un dominio

$
0
0

Finalidad del documento :
En Base a un m5000 con 2 dominios asignados y con Solaris instalado, tenemos que armar un solo dominio con todos los componentes de hardware que disponemos.
Hardware utilizado :
1 m5000 con 64gb de ram , 4 cpu octacore

Descripcion de los componentes del m5000
XSB, eXtended System Board, estas se pueden configurar en 2 modos, Uni-mod y quad-mode, para poder configurar dominios, cada uno de estos debe tener un  LSB asociada.
PSB, Physical System Board, cada PSB esta compuesta por CPU , Memoria y IO board.
CPUM , Cpu Memory Board
MEMB, Memory Board
LSB, Logical System Board

A continuacion, se muestra como esta la configuracion del hardware, antes del armado final.
Vemos que hay 2 dominios configurados con 2 S.O corriendo

XSCF> showboards -a
XSB  DID(LSB) Assignment  Pwr  Conn Conf Test    Fault  
---- -------- ----------- ---- ---- ---- ------- --------
00-0 00(00)   Assigned    y    y    y    Passed  Normal  
01-0 01(00)   Assigned    y    y    y    Passed  Normal  
XSCF> showdomainstatus -a
DID         Domain Status
00          Running
01          Running
02          -
03          -
XSCF> showdomainstatus -d0
DID         Domain Status
00          Running
XSCF> showdscp

DSCP Configuration:
Network: 192.168.224.0
Netmask: 255.255.255.0

 Location     Address
----------   ---------
XSCF         192.168.224.1
Domain #00   192.168.224.2
Domain #01   192.168.224.3
Domain #02   192.168.224.4
Domain #03   192.168.224.5
XSCF> 

XSCF> showfru -a sb
Device  Location    XSB Mode        Memory Mirror Mode  
sb      00          Uni             no                  
sb      01          Uni             no                  
XSCF> showhardconf 
SPARC Enterprise M5000;
    + Serial:BDF1245599; Operator_Panel_Switch:Locked;
    + Power_Supply_System:Single; SCF-ID:XSCF#0;
    + System_Power:On; System_Phase:Cabinet Power On;
    Domain#0 Domain_Status:Running;
    Domain#1 Domain_Status:Running;

    MBU_B Status:Normal; Ver:4401h; Serial:BD124500AG  ;
        + FRU-Part-Number:CF00541-4360 01   /541-4360-01          ;
        + Memory_Size:64 GB;
        + Type:2;
        CPUM#0-CHIP#0 Status:Normal; Ver:0601h; Serial:PP124200D2  ;
            + FRU-Part-Number:CA06761-D205 C3   /371-4932-03          ;
            + Freq:2.660 GHz; Type:48;
            + Core:4; Strand:2;
        CPUM#0-CHIP#1 Status:Normal; Ver:0601h; Serial:PP124200D2  ;
            + FRU-Part-Number:CA06761-D205 C3   /371-4932-03          ;
            + Freq:2.660 GHz; Type:48;
            + Core:4; Strand:2;
        CPUM#2-CHIP#0 Status:Normal; Ver:0601h; Serial:PP124101TJ  ;
            + FRU-Part-Number:CA06761-D205 C3   /371-4932-03          ;
            + Freq:2.660 GHz; Type:48;
            + Core:4; Strand:2;
        CPUM#2-CHIP#1 Status:Normal; Ver:0601h; Serial:PP124101TJ  ;
            + FRU-Part-Number:CA06761-D205 C3   /371-4932-03          ;
            + Freq:2.660 GHz; Type:48;
            + Core:4; Strand:2;
        MEMB#0 Status:Normal; Ver:0101h; Serial:NN1242F7UL  ;
            + FRU-Part-Number:CF00541-0545 09   /541-0545-09          ;
            MEM#0A Status:Normal;
                + Code:ce0000000000000001M3 93T5160FBA-CE6 4146-2343f93f;
                + Type:4B; Size:4 GB;
            MEM#0B Status:Normal;
                + Code:ce0000000000000001M3 93T5160FBA-CE6 4146-2343f935;
                + Type:4B; Size:4 GB;
            MEM#1A Status:Normal;
                + Code:ce0000000000000001M3 93T5160FBA-CE6 4146-2343f93e;
                + Type:4B; Size:4 GB;
            MEM#1B Status:Normal;
                + Code:ce0000000000000001M3 93T5160FBA-CE6 4146-2343f940;
                + Type:4B; Size:4 GB;
            MEM#2A Status:Normal;
                + Code:ce0000000000000001M3 93T5160FBA-CE6 4146-2343f999;
                + Type:4B; Size:4 GB;
            MEM#2B Status:Normal;
                + Code:ce0000000000000001M3 93T5160FBA-CE6 4146-2343f92a;
                + Type:4B; Size:4 GB;
            MEM#3A Status:Normal;
                + Code:ce0000000000000001M3 93T5160FBA-CE6 4146-2343f937;
                + Type:4B; Size:4 GB;
            MEM#3B Status:Normal;
                + Code:ce0000000000000001M3 93T5160FBA-CE6 4146-2343f93a;
                + Type:4B; Size:4 GB;
        MEMB#4 Status:Normal; Ver:0101h; Serial:NN1242F7V2  ;
            + FRU-Part-Number:CF00541-0545 09   /541-0545-09          ;
            MEM#0A Status:Normal;
                + Code:ce0000000000000001M3 93T5160FBA-CE6 4146-2344045b;
                + Type:4B; Size:4 GB;
            MEM#0B Status:Normal;
                + Code:ce0000000000000001M3 93T5160FBA-CE6 4146-234403d6;
                + Type:4B; Size:4 GB;
            MEM#1A Status:Normal;
                + Code:ce0000000000000001M3 93T5160FBA-CE6 4146-234403e1;
                + Type:4B; Size:4 GB;
            MEM#1B Status:Normal;
                + Code:ce0000000000000001M3 93T5160FBA-CE6 4146-2343035a;
                + Type:4B; Size:4 GB;
*           MEM#2A Status:Degraded;
                + Code:ce0000000000000001M3 93T5160FBA-CE6 4146-2344047f;
                + Type:4B; Size:4 GB;
            MEM#2B Status:Normal;
                + Code:ce0000000000000001M3 93T5160FBA-CE6 4146-2344045d;
                + Type:4B; Size:4 GB;
            MEM#3A Status:Normal;
                + Code:ce0000000000000001M3 93T5160FBA-CE6 4146-23440340;
                + Type:4B; Size:4 GB;
            MEM#3B Status:Normal;
                + Code:ce0000000000000001M3 93T5160FBA-CE6 4146-23440459;
                + Type:4B; Size:4 GB;
        DDC_A#0 Status:Normal;
        DDC_A#1 Status:Normal;
        DDC_A#2 Status:Normal;
        DDC_A#3 Status:Normal;
        DDC_B#0 Status:Normal;
        DDC_B#1 Status:Normal;
    IOU#0 Status:Normal; Ver:0101h; Serial:NN1235ETAK  ;
        + FRU-Part-Number:CF00541-2240 05   /541-2240-05          ;
        + Type:1;
        DDC_A#0 Status:Normal;
        DDCR Status:Normal;
            DDC_B#0 Status:Normal;
        PCI#1 Name_Property:SUNW,qlc; Card_Type:Other;
        PCI#2 Name_Property:network; Card_Type:Other;
        PCI#3 Name_Property:SUNW,qlc; Card_Type:Other;
        PCI#4 Name_Property:SUNW,qlc; Card_Type:Other;
    IOU#1 Status:Normal; Ver:0101h; Serial:NN1234EGTL  ;
        + FRU-Part-Number:CF00541-2240 05   /541-2240-05          ;
        + Type:1;
        DDC_A#0 Status:Normal;
        DDCR Status:Normal;
            DDC_B#0 Status:Normal;
        PCI#1 Name_Property:SUNW,qlc; Card_Type:Other;
        PCI#2 Name_Property:network; Card_Type:Other;
        PCI#3 Name_Property:SUNW,qlc; Card_Type:Other;
        PCI#4 Name_Property:SUNW,qlc; Card_Type:Other;
    XSCFU Status:Normal,Active; Ver:0101h; Serial:NN1239F0NH  ;
        + FRU-Part-Number:CF00541-0481 05   /541-0481-05          ;
    OPNL Status:Normal; Ver:0101h; Serial:NN1235EMT1  ;
        + FRU-Part-Number:CF00541-0850 06   /541-0850-06          ;
    PSU#0 Status:Normal; Serial:476856F+1142AD0055;
        + FRU-Part-Number:CF00300-2311 0101 /300-2311-01-01;
        + Power_Status:On; AC:200 V;
    PSU#1 Status:Normal; Serial:476856F+1153AD00M6;
        + FRU-Part-Number:CF00300-2311 0101 /300-2311-01-01;
        + Power_Status:On; AC:200 V;
    PSU#2 Status:Normal; Serial:1357FYG-1047AD003J;
        + FRU-Part-Number:CF00300-2311 0101 /300-2311-01-01;
        + Power_Status:On; AC:200 V;
    PSU#3 Status:Normal; Serial:476856F+1141AD0019;
        + FRU-Part-Number:CF00300-2311 0101 /300-2311-01-01;
        + Power_Status:On; AC:200 V;
    FANBP_C Status:Normal; Ver:0501h; Serial:NN1235ER95;
        + FRU-Part-Number:CF00541-3099 01   /541-3099-01          ;
        FAN_A#0 Status:Normal;
        FAN_A#1 Status:Normal;
        FAN_A#2 Status:Normal;
        FAN_A#3 Status:Normal;
XSCF> 


Ahora comenzamos con las tareas de reconfiguracion
XSCF> 
XSCF>showfru sb 00
Device  Location    XSB Mode        Memory Mirror Mode  
sb      00          Uni             no                  
XSCF> showdcl -a
DID   LSB   XSB   Status   
00                Running  
      00    00-0           
---------------------------
01                Running  
      00    01-0           
XSCF> showboards -a -v
XSB  R DID(LSB) Assignment  Pwr  Conn Conf Test    Fault    COD 
---- - -------- ----------- ---- ---- ---- ------- -------- ----
00-0   00(00)   Assigned    y    y    y    Passed  Normal   n   
01-0   01(00)   Assigned    y    y    y    Passed  Normal   n   
XSCF> showfru sb 0
Device  Location    XSB Mode        Memory Mirror Mode  
sb      00          Uni             no                  
XSCF> showfru sb 1
Device  Location    XSB Mode        Memory Mirror Mode  
sb      01          Uni             no                  

Antes de sacar la placa XSB , los dominios tienen que estar apagados, sino sucedera este error :

XSCF> deleteboard -c unassign 00-0
XSB#00-0 will be unassigned from domain immediately. Continue?[y|n] :y
XSB#00-0 is the last LSB for DomainID 0, and this domain is still running. Operation failed.

Ahora si, apagamos los dominios.
XSCF> poweroff -d 0
DomainIDs to power off:00
Continue? [y|n] :y
00 :Powering off

*Note*
 This command only issues the instruction to power-off.
 The result of the instruction can be checked by the "showlogs power".
XSCF> showdcl -a
DID   LSB   XSB   Status   
00                Running (Waiting for OS Shutdown)
      00    00-0           
---------------------------
01                Running  
      00    01-0           
XSCF> poweroff -d 1               
DomainIDs to power off:01
Continue? [y|n] :y
01 :Powering off

*Note*
 This command only issues the instruction to power-off.
 The result of the instruction can be checked by the "showlogs power".
XSCF> showdcl -a   
DID   LSB   XSB   Status   
00                Running (Waiting for OS Shutdown)
      00    00-0           
---------------------------
01                Running (Waiting for OS Shutdown)
      00    01-0           
XSCF> showdcl -a
DID   LSB   XSB   Status   
00                Shutdown Started
      00    00-0           
---------------------------
01                Running (Waiting for OS Shutdown)
      00    01-0           
XSCF> showdcl -a
DID   LSB   XSB   Status   
00                Powered Off
      00    00-0           
---------------------------
01                Running (Waiting for OS Shutdown)
      00    01-0           
XSCF> showdcl -a
DID   LSB   XSB   Status   
00                Powered Off
      00    00-0           
---------------------------
01                Shutdown Started
      00    01-0           
XSCF> showdcl -a
DID   LSB   XSB   Status   
00                Powered Off
      00    00-0           
---------------------------
01                Powered Off
      00    01-0           

Ahora que estan apagados los 2 dominios, procedemos a quitar la board 0 y 1
XSCF> deleteboard -c unassign 00-0
XSB#00-0 will be unassigned from domain immediately. Continue?[y|n] :y
XSCF> deleteboard -c unassign 00-0
XSCF> setdcl -d 0 -r 00
XSCF> deleteboard -c unassign 01-0
XSB#01-0 will be unassigned from domain immediately. Continue?[y|n] :y
XSCF> 
XSCF> setdcl -d 0 -r 01           
XSCF> showboards -av
XSB  R DID(LSB) Assignment  Pwr  Conn Conf Test    Fault    COD 
---- - -------- ----------- ---- ---- ---- ------- -------- ----
00-0   SP       Available   n    n    n    Passed  Normal   n   
01-0   SP       Available   n    n    n    Passed  Normal   n   
XSCF>  showdomainstatus -a
DID         Domain Status
00          -
01          -
02          -
03          -

XSCF> setupfru -x 1 sb 0    
XSCF> showfru -a sb 
Device  Location    XSB Mode        Memory Mirror Mode  
sb      00          Uni             no                  
sb      01          Uni             no                  
XSCF> showfru sb 0
Device  Location    XSB Mode        Memory Mirror Mode  
sb      00          Uni             no                  
XSCF> showfru sb 1
Device  Location    XSB Mode        Memory Mirror Mode  
sb      01          Uni             no                  
XSCF> setupfru -x 1 sb 1
XSCF> showfru sb 1
Device  Location    XSB Mode        Memory Mirror Mode  
sb      01          Uni             no                  
XSCF> setdcl -d 0 -a 0=00-0
XSCF> setdcl -d 0 -a 1=00-1
XSCF> setdcl -d 0 -a 0=01-0
LSB#00 is already registered in DCL.
XSCF> setdcl -d 0 -a 2=01-0
XSCF> setdcl -d 0 -a 3=01-1
XSCF> addboard -c assign -d 0 00-0
XSB#00-0 will be assigned to DomainID 0. Continue?[y|n] :y
XSCF> addboard -c assign -d 0 00-1
XSB#00-1 will be assigned to DomainID 0. Continue?[y|n] :y
XSB#00-1 is not installed.
XSCF> addboard -c assign -d 0 01-0
XSB#01-0 will be assigned to DomainID 0. Continue?[y|n] :y
XSCF> addboard -c assign -d 0 01-1
XSB#01-1 will be assigned to DomainID 0. Continue?[y|n] :y
XSB#01-1 is not installed.
XSCF> showdcl -v -d 0
DID   LSB   XSB   Status   No-Mem   No-IO    Float    Cfg-policy
00                Powered Off                         FRU      
      00    00-0           False    False    False             
      01    00-1           False    False    False             
      02    01-0           False    False    False             
      03    01-1           False    False    False             
      04    -                                                  
      05    -                                                  
      06    -                                                  
      07    -                                                  
      08    -                                                  
      09    -                                                  
      10    -                                                  
      11    -                                                  
      12    -                                                  
      13    -                                                  
      14    -                                                  
      15    -                                                  
XSCF> showboards -v -a
XSB  R DID(LSB) Assignment  Pwr  Conn Conf Test    Fault    COD 
---- - -------- ----------- ---- ---- ---- ------- -------- ----
00-0 * 00(00)   Assigned    n    n    n    Unknown Normal   n   
01-0 * 00(02)   Assigned    n    n    n    Unknown Normal   n   
XSCF> showdcl -v -a
DID   LSB   XSB   Status   No-Mem   No-IO    Float    Cfg-policy
00                Powered Off                         FRU      
      00    00-0           False    False    False             
      01    00-1           False    False    False             
      02    01-0           False    False    False             
      03    01-1           False    False    False             
      04    -                                                  
      05    -                                                  
      06    -                                                  
      07    -                                                  
      08    -                                                  
      09    -                                                  
      10    -                                                  
      11    -                                                  
      12    -                                                  
      13    -                                                  
      14    -                                                  
      15    -                                                  
---------------------------------------------------------------
01                Powered Off                         FRU      
      00    01-0           False    False    False             
      01    -                                                  
      02    -                                                  
      03    -                                                  
      04    -                                                  
      05    -                                                  
      06    -                                                  
      07    -                                                  
      08    -                                                  
      09    -                                                  
      10    -                                                  
      11    -                                                  
      12    -                                                  
      13    -                                                  
      14    -                                                  
      15    -                                                  
XSCF> showdcl -a
DID   LSB   XSB   Status   
00                Powered Off
      00    00-0           
      01    00-1           
      02    01-0           
      03    01-1           
---------------------------
01                Powered Off
      00    01-0           
XSCF> setdcl -d 1 -r 00
XSCF> showdcl -a       
DID   LSB   XSB   Status   
00                Powered Off
      00    00-0           
      01    00-1           
      02    01-0           
      03    01-1           
XSCF> addboard -c assign -d 0 00-1
XSB#00-1 will be assigned to DomainID 0. Continue?[y|n] :y
XSB#00-1 is not installed.
XSCF> addboard -c assign -d 0 01-1
XSB#01-1 will be assigned to DomainID 0. Continue?[y|n] :y
XSB#01-1 is not installed.
XSCF> poweron -d 0
DomainIDs to power on:00
Continue? [y|n] :y
00 :Powering on

*Note*
 This command only issues the instruction to power-on.
 The result of the instruction can be checked by the "showlogs power".
XSCF> console -d 0

Console contents may be logged.
Connect to DomainID 0?[y|n] :y
POST Sequence 01 CPU Check
LSB#02 (XSB#01-0): POST 2.17.0 (2011/11/17 10:29)
POST Sequence 02 Banner
LSB#00 (XSB#00-0): POST 2.17.0 (2011/11/17 10:29)
POST Sequence 03 Fatal Check
POST Sequence 04 CPU Register
POST Sequence 05 STICK
POST Sequence 06 MMU
POST Sequence 07 Memory Initialize
POST Sequence 08 Memory
POST Sequence 09 Raw UE In Cache
POST Sequence 0A Floating Point Unit
POST Sequence 0B SC
POST Sequence 0C Cacheable Instruction
POST Sequence 0D Softint
POST Sequence 0E CPU Cross Call
POST Sequence 0F CMU-CH
POST Sequence 10 PCI-CH
POST Sequence 11 Master Device
POST Sequence 12 DSCP
POST Sequence 13 SC Check Before STICK Diag
POST Sequence 14 STICK Stop
POST Sequence 15 STICK Start
POST Sequence 16 Error CPU Check
POST Sequence 17 System Configuration
POST Sequence 18 System Status Check
POST Sequence 19 System Status Check After Sync
POST Sequence 1A OpenBoot Start...
POST Sequence Complete.

SPARC Enterprise M5000 Server, using Domain console
Copyright (c) 1998, 2012, Oracle and/or its affiliates. All rights reserved.
Copyright (c) 2012, Oracle and/or its affiliates and Fujitsu Limited. All rights reserved.
OpenBoot 4.33.5.d, 65536 MB memory installed, Serial #102844532.
Ethernet address 0:10:e0:21:48:74, Host ID: 86214874.

Aborting auto-boot sequence.
{0} ok 

root@m5kd0 # prtdiag -v
System Configuration:  Oracle Corporation  sun4u SPARC Enterprise M5000 Server
System clock frequency: 1012 MHz
Memory size: 65536 Megabytes

==================================== CPUs ====================================

      CPU                 CPU                         Run    L2$    CPU   CPU 
LSB   Chip                 ID                         MHz     MB    Impl. Mask
---   ----  ----------------------------------------  ----   ---    ----- ----
 00     0      0,   1,   2,   3,   4,   5,   6,   7   2660  11.0        7  193
 00     1      8,   9,  10,  11,  12,  13,  14,  15   2660  11.0        7  193
 02     0     64,  65,  66,  67,  68,  69,  70,  71   2660  11.0        7  193
 02     1     72,  73,  74,  75,  76,  77,  78,  79   2660  11.0        7  193

============================ Memory Configuration ============================

       Memory  Available           Memory     DIMM    # of  Mirror  Interleave
LSB    Group   Size                Status     Size    DIMMs Mode    Factor    
---    ------  ------------------  -------    ------  ----- ------- ----------
 00    A        16384MB            okay       4096MB      4 no       2-way
 00    B        16384MB            okay       4096MB      4 no       2-way
 02    A        16384MB            okay       4096MB      4 no       2-way
 02    B        16384MB            okay       4096MB      4 no       2-way
picl_initialize failed: Daemon not responding

==================== Hardware Revisions ====================

System PROM revisions:
----------------------

OBP 4.33.5.d 2012/07/18 06:55


=================== Environmental Status ===================

Mode switch is in LOCK mode 
picl_initialize failed: Daemon not responding

En la primer salida del showhardconf, vemos que un dimm de memoria esta con status DEGRADED, y con un * asterisco al lado.
*           MEM#2A Status:Degraded;
                + Code:ce0000000000000001M3 93T5160FBA-CE6 4146-2344047f;
                + Type:4B; Size:4 GB;

Eso significa que el dimm de memoria esta en falla.
Desde la XSCF ejecutamos el comando snapshot -L F -t user@milinux:/tmp
esto me genero un archivo .zip en mi linux, que al descomprimirlo es similar al explorer de solaris.
Dentro del archivo @scf@log@monitor.log se ve claramente la posicion del dimm de memoria en falla

Feb 15 06:26:37 m5k Warning: /MBU_B/MEMB#4/MEM#2A:DOMAIN:DIMM permanent correctable error

para poder correr este comando se debe tener coneccion de red, lo que hicimos fue conectar un cable cruzado entre el servidor y mi linux que oficiaba 
de terminal (con minicom) configuramos una ip en el server y otro en mi linux, y enviamos la salida del snapshot al linux mio.

Diferencia entre la salida del luxadm y fcinfo hba-port

$
0
0

Luego de  conectar 2 cables de fibra a un m5000 y al switch de fibras del storage,
 y ambas con link del lado del equipo y del storage, chequeo como ve el solaris las conecciones estas y noto que :
la salida del luxadm -e port y del comando fcinfo hba-port difieren.
Con el luxadm veo solo 1 fibra conectada y con el fcinfo veo las 2 en online.

# luxadm -e port
/devices/pci@2,600000/SUNW,qlc@0/fp@0,0:devctl                     NOT CONNECTED
/devices/pci@2,600000/SUNW,qlc@0,1/fp@0,0:devctl                   CONNECTED
/devices/pci@0,600000/pci@0/pci@9/SUNW,qlc@0/fp@0,0:devctl         NOT CONNECTED
/devices/pci@0,600000/pci@0/pci@9/SUNW,qlc@0,1/fp@0,0:devctl       NOT CONNECTED
/devices/pci@3,700000/SUNW,qlc@0,1/fp@0,0:devctl                   NOT CONNECTED
/devices/pci@3,700000/SUNW,qlc@0/fp@0,0:devctl                     NOT CONNECTED
#

 # fcinfo hba-port|grep Stat
        State: offline
        State: online
        State: online
        State: offline
        State: offline
        State: offline
 #


Esto se debe a que el status CONNECTED o NOT CONNECTED no indica una coneccion fisica.
El luxadm -e port CONNECTED indica que establecio comunicacion entre el FC initiatior ( HBA ) y
el FC Target por ejemplo el port del storage.
Si la zona en el storage no esta creada la comunicacion no existe y el status sera NOT_CONNECTED.

Luego que configuren la zona en el storage, recien ahi veo "CONNECTED" las 2 placas


 # luxadm -e port
/devices/pci@2,600000/SUNW,qlc@0/fp@0,0:devctl                     NOT CONNECTED
/devices/pci@2,600000/SUNW,qlc@0,1/fp@0,0:devctl                   CONNECTED
/devices/pci@0,600000/pci@0/pci@9/SUNW,qlc@0/fp@0,0:devctl         CONNECTED
/devices/pci@0,600000/pci@0/pci@9/SUNW,qlc@0,1/fp@0,0:devctl       NOT CONNECTED
/devices/pci@3,700000/SUNW,qlc@0,1/fp@0,0:devctl                   NOT CONNECTED
/devices/pci@3,700000/SUNW,qlc@0/fp@0,0:devctl                     NOT CONNECTED
 #

tar remoto

$
0
0
Rapido y sencillo  tar remoto

Copiar el filesystem /var/mqm/local en el equipo 10.78.33.XX y descomprimirlo en el destino en el filesystem /var/mqm/local

Pararme en el equipo origen, desde el cual extraere los datos

cd /var/mqm
tar cvf - local | ssh -l root 10.78.33.XX  "(cd /var/mqm ; tar xvf - )"


Dominio de 25k, caido

$
0
0
Dominio de 25k, caido.No responde el ping, ni el ssh , ni con un console -d al dominio
Primero me conecto a la consola, y luego apago y prendo el equipo.
Luego van surgiendo otros problemas que los voy solucionando de a uno.
[e25k-2-sc0] / # su - sms-svc
e25k-2-sc0:sms-svc:3> setkeyswitch -d g standby
Current virtual key switch position is "ON".
Are you sure you want to change to the "STANDBY" position (yes/no)? yes
Domain is up.
Sending domain shutdown request.
Domain has picked up shutdown request.
Waiting for domain to complete shutdown .............
Domain failed to shutdown.
Do you want to force a shutdown (yes/no)? yes
Waiting on exclusive access to EXB(s): 3FFFF.
Resetting and deconfiguring: V3CPU at SB11
Resetting and deconfiguring: HPCI+ at IO11
Resetting and deconfiguring: EXB at EX11
Powering on: CSB at CS0
Powering on: CSB at CS1
e25k-2-sc0:sms-svc:4> showkeyswitch -d g
Virtual key switch position: STANDBY
e25k-2-sc0:sms-svc:5>
e25k-2-sc0:sms-svc:5> setkeyswitch -d g off
Waiting on exclusive access to EXB(s): 3FFFF.
Powering off: V3CPU at SB11
Powering off: HPCI+ at IO11
Powering off: EXB at EX11
e25k-2-sc0:sms-svc:6>
e25k-2-sc0:sms-svc:6> setkeyswitch -d g on
Powering on: CSB at CS0
 Corto la salida porque es muy larga...

POST (level=16, verbose=20) execution time 9:35
e25k-2-sc0:sms-svc:7> showkeyswitch -d g
Virtual key switch position: ON
e25k-2-sc0:sms-svc:8>
e25k-2-sc0:sms-svc:8> console -d g ( Hay que darle 2 o 3 enter)
Trying to connect...
Connected to Domain Server.
Your console is in exclusive mode now.
{160} ok boot
Boot device: rootdisk  File and args:
\
SunOS Release 5.10 Version Generic_142900-07 64-bit
Copyright 1983-2010 Sun Microsystems, Inc.  All rights reserved.
Use is subject to license terms.
Hostname: sun007
SUNW,eri0 : 100 Mbps half duplex link up
The / file system (/dev/md/rdsk/d10) is being checked.

WARNING - Unable to repair the / filesystem. Run fsck
manually (fsck -F ufs /dev/md/rdsk/d10).

Oct  3 17:44:08 svc.startd[7]: svc:/system/filesystem/usr:default: Method "/lib/svc/method/fs-usr" failed with e
xit status 95.
Oct  3 17:44:08 svc.startd[7]: system/filesystem/usr:default failed fatally: transitioned to maintenance (see 's
vcs -xv' for details)
Requesting System Maintenance Mode
(See /lib/svc/share/README for more information.)
Console login service(s) cannot run

Root password for system maintenance (control-d to bypass):
single-user privilege assigned to /dev/console.
Entering System Maintenance Mode

Oct  3 17:44:50 su: 'su root' succeeded for LOGIN on /dev/console
Sun Microsystems Inc.   SunOS 5.10      Generic January 2005
You have new mail.
Sourcing //.profile-EIS.....

TERM=vt100
[sun2007] / # fsck -F ufs /dev/md/rdsk/d10
** /dev/md/rdsk/d10
** Last Mounted on /
** Phase 1 - Check Blocks and Sizes
** Phase 2 - Check Pathnames
** Phase 3a - Check Connectivity
** Phase 3b - Verify Shadows/ACLs
** Phase 4 - Check Reference Counts
UNREF FILE  I=11621  OWNER=root MODE=100644
SIZE=484 MTIME=Nov 23 21:51 2011
RECONNECT? y

LINK COUNT FILE I=11621  OWNER=root MODE=100644
SIZE=484 MTIME=Nov 23 21:51 2011  COUNT 0 SHOULD BE 1
ADJUST? y

** Phase 5 - Check Cylinder Groups

CORRECT BAD CG SUMMARIES FOR CG 278? y
CORRECTED SUPERBLOCK SUMMARIES FOR CG 278
CORRECTED SUPERBLOCK SUMMARIES FOR CG 291
1360604 files, 22794043 used, 2315764 free (157924 frags, 269730 blocks, 0.6% fragmentation)

***** FILE SYSTEM WAS MODIFIED *****
[sun2007] / # ^
[sun2007] / # fsck -y -F ufs /dev/md/rdsk/d10
** /dev/md/rdsk/d10
** Last Mounted on /
** Phase 1 - Check Blocks and Sizes
** Phase 2 - Check Pathnames
** Phase 3a - Check Connectivity
** Phase 3b - Verify Shadows/ACLs
** Phase 4 - Check Reference Counts
** Phase 5 - Check Cylinder Groups
1360604 files, 22794043 used, 2315764 free (157924 frags, 269730 blocks, 0.6% fragmentation)
[sun2007] / #
[sun2007] / # fsck -y -F ufs /dev/md/rdsk/d30
** /dev/md/rdsk/d30
** Last Mounted on /var/crash
** Phase 1 - Check Blocks and Sizes
** Phase 2 - Check Pathnames
** Phase 3a - Check Connectivity
** Phase 3b - Verify Shadows/ACLs
** Phase 4 - Check Reference Counts
** Phase 5 - Check Cylinder Groups
5 files, 12 used, 10327120 free (8 frags, 1290889 blocks, 0.0% fragmentation)
[sun2007] / #

Luego un init 6
Pero al levantar me da errores el dcs
Aplique la solucion que puse hace tiempo atras en mi blog http://solaris4ever.blogspot.com.ar/2011/10/error-al-agregar-una-sb-con-dr.html?m=1

estos son los errores
Oct  3 18:56:11 dsun2007 inetd[427]: Property 'name' of instance svc:/platform/sun4u/dcs:default is missing, inconsistent or invalid
Oct  3 18:56:11 dsun2007 inetd[427]: Property 'endpoint_type' of instance svc:/platform/sun4u/dcs:default is missing, inconsistent or invalid
Oct  3 18:56:11 dsun2007 inetd[427]: Property 'isrpc' of instance svc:/platform/sun4u/dcs:default is missing, inconsistent or invalid
Oct  3 18:56:11 dsun2007 inetd[427]: Property 'wait' of instance svc:/platform/sun4u/dcs:default is missing, inconsistent or invalid
Oct  3 18:56:11 dsun2007 inetd[427]: Unspecified inetd_start method for instance svc:/platform/sun4u/dcs:default

[sun2007] /export/zona4/root/var/spool/clientmqueue # svcs dcs
STATE          STIME    FMRI
maintenance    18:30:06 svc:/platform/sun4u/dcs:default
[sun2007] /export/zona4/root/var/spool/clientmqueue # inetadm -l dcs
SCOPE    NAME=VALUE
Error: Required property name is missing.
Error: Required property endpoint_type is missing.
Error: Required property proto is missing.
Error: Required property isrpc is missing.
Error: Required property wait is missing.
Error: Required property exec is missing.
Error: Required property user is missing.
default  bind_addr=""
default  bind_fail_max=-1
default  bind_fail_interval=-1
default  max_con_rate=-1
default  max_copies=-1
default  con_rate_offline=-1
default  failrate_cnt=40
default  failrate_interval=60
default  inherit_env=TRUE
default  tcp_trace=FALSE
default  tcp_wrappers=FALSE
default  connection_backlog=10
[sun2007] / # svcadm disable dcs
[sun2007] / # 
[sun2007] / # svcs dcs
STATE          STIME    FMRI
disabled       18:56:11 svc:/platform/sun4u/dcs:default
[sun2007] /#  svccfg -v delete dcs
svccfg: Expected property external of property group svc:/platform/sun4u/dcs/:properties/network is missing.
svccfg: Expected property external of property group svc:/platform/sun4u/dcs/:properties/cryptosvc is missing.
svccfg: Expected property external of property group svc:/platform/sun4u/dcs/:properties/filesystem_usr is missing.
svccfg: Expected property external of property group svc:/platform/sun4u/dcs/:properties/nodename is missing.
svccfg: Expected property external of property group svc:/platform/sun4u/dcs/:properties/sckmd is missing.
[sun2007] /#
[sun2007] / # svcs dcs
svcs: Pattern 'dcs' doesn't match any instances
STATE          STIME    FMRI
[sun2007] / # svccfg -v import /var/svc/manifest/platform/sun4u/dcs.xml
svccfg: Taking "initial" snapshot for svc:/platform/sun4u/dcs:default.
svccfg: Taking "last-import" snapshot for svc:/platform/sun4u/dcs:default.
svccfg: Refreshed svc:/platform/sun4u/dcs:default.
svccfg: Successful import.
[sun2007] / # svcs dcs
STATE          STIME    FMRI
disabled       19:04:43 svc:/platform/sun4u/dcs:default
[sun2007] / #
[sun2007] / # svcadm enable dcs
[sun2007] /# svcs dcs
STATE          STIME    FMRI
online         19:06:24 svc:/platform/sun4u/dcs:default
[sun2007] / #

Cluster en modo mantenimiento

$
0
0
Para poder realizar determinadas acciones en alguno de los nodos del cluster, y que este no switchee al otro nodo, por ejemplo, poder bajar la base de datos para aplicar algun parametro , debemos poner el cluster en modo mantenimiento o suspendido.

Para poner un recurso del cluster en modo mantenimiento realizar lo siguiente :
clrg suspend cct-rg    ( con esto pongo en mantenimiento todos los recursos de CCT )



Para volver a su estado anterior y que el cluster vuelva a tomar el control, se debe tipear
clrg resume cct-rg

Export de datos de mysql a una hoja de calculo

$
0
0
Tenia que extraer datos de una tabla, para un reporte gerencial que me pidieron, los cuales residen en una herramienta construida in house, dicha herramienta guarda datos de inventarios de equipos, en un repositorio mysql.
 Como no tengo conocimientos del mysql , estuve investigando una herramienta que me permitiera en pocos pasos hacer esto para mi,  y encontre esta herramienta dbForge Studio for my sql de la empresa Devart  lo descargue de este link http://www.devart.com/dbforge/mysql/studio    ,  dejo a continuacion el paso a paso y como resultado final y satisfactorio, la tabla excel con los nombres de mis servidores.

 Abrir una nueva coneccion desde mi pc hacia el equipo donde reside los datos de mysql 











Los datos a llenar son : numero de ip del equipo , numero de port del mysql , usuario y password












Selecciono a la izquierda, el nombre de la tabla a Exportar











Con boton derecho parado en la tabla servers elijo Export Data











Elijo el formato excel.











Termina el export 











Producto terminado

Asignar discos a un LDOM

$
0
0
Este documento tiene la finalidad de describir como agregar nuevas luns a un ldom, desde un pdom con multiples ldom
El hardware utilizado es un m5-32 con pdom instalados con solaris 11.1 y ldoms con solaris 10 release 1/13.
Las luns asignadas pertenecen a un storage IBM svc 2145

Como este pdom tiene multiples port de WWN , debo saber previamente cual es el port de wwn que esta asignado a mi ldom, de aca en mas llamado  ldom sun1003
Nota: en el caso de sun1003 el wwn es #HBA Port WWN: 21000024ff56c29c

Entro al Physical Domain ( pdom2)
Primero identfico los discos que tiene asignado con el sig comando:
# fcinfo remote-port -sl -p 21000024ff56c29c | grep OS | sort -u
          OS Device Name: /dev/rdsk/c0t60050768018107A79000000000000004d0s2
          OS Device Name: /dev/rdsk/c0t60050768018107A79000000000000008d0s2
          OS Device Name: /dev/rdsk/c0t60050768018107A79000000000000009d0s2
          OS Device Name: /dev/rdsk/c0t60050768018107A7900000000000000Ad0s2
#

Luego chequeo con format , los discos nuevos que fueron descubiertos ( los que me muestra como configured ) y verifico que coincidan con las luns que me mostro el comando anterior ( fcinfo )

# format
Searching for disks...done
c0t60050768018107A79000000000000004d0s2 configured with capacity of 199.99GB
c0t6000144000000010602742B9EE6B55F0d0: configured with capacity of 199.99GB
c0t6000144000000010602742B9EE6B55F6d0: configured with capacity of 199.99GB
c0t6000144000000010602742B9EE6B55FCd0: configured with capacity of 199.99GB

el disco  c0t60050768018107A79000000000000004d0s2   es el que voy a agregar al ldom.

Los discos que encontro el format como configured, pertenecen a otro WWN de otro ldom.
el resto de los discos que me muestra el comando fcinfo , son discos pertenecientes al ldom que ya fueron asignados.Si quiero verificar esto, ejecuto el comando

# ldm ls-services 

    NAME             LDOM             VOLUME         OPTIONS          MPGROUP        DEVICE
    sun1003-vds0    primary          vol1           excl                            /dev/zvol/dsk/sun1003_so/vol1
                                      vol2           excl                            /dev/rdsk/c0t60050768018107A79000000000000008d0s2
                                      vol3           excl                            /dev/rdsk/c0t60050768018107A79000000000000009d0s2
                                      vol4           excl                            /dev/rdsk/c0t60050768018107A7900000000000000Ad0s2

Ahora, sabiendo cual es el disco que necesito agregar al ldom de nombre sun1003, continuo con los comandos
#ldm add-vdsdev options=excl/dev/rdsk/c0t60050768018107A79000000000000004d0s2 vol5@sun1003-vds0
** options=excl es para indicarle que lo excluya de la lista de los discos que ve el pdom, ya que de ahora en mas sera exclusivo para el ldom que le indique , siendo mas claro, desde el ldom sun1003 cuando haga un format voy a ver estos discos 
** vol5 es totalmente a eleccion, se utiliza para darle un orden, este nombre dado se utilizara en el siguiente comando para referenciar al disco agregado

# ldm add-vdisk vdisk5 vol5@sun1003-vds0 sun1003-ldm
** vdisk5 lo relaciono con el nombre que use anteriormente cuando cree el vol5@sun1003-vds0 

Chequeo como quedo en el ldom dentro del pdom,  de la sig manera
# ldm list-domain -o disk 
sun1003-ldm
DISK
    NAME             VOLUME                      TOUT ID   DEVICE  SERVER         MPGROUP
    vdisk1           vol1@sun1003-vds0               0    disk@0  primary
    vdisk2           vol2@sun1003-vds0               1    disk@1  primary
    vdisk3           vol3@sun1003-vds0               2    disk@2  primary
    vdisk4           vol4@sun1003-vds0               3    disk@3  primary
    vdisk5           vol5@sun1003-vds0               5    disk@5  primary

A esta altura, ya asigne el disco c0t60050768018107A79000000000000004d0s2   al logical domain y si ejecuto un desde el pdom, un format, ya no me lo va a mostrar mas ( esto es por la opcion excl del ldm add-vdsdev ejecutada anteriormente) ya que de ahora en mas se vera dentro del ldom sun1003-ldm

Nota:
Documento realizado con mi colega Nicolas Morono ( @nicomorono )

Forzar un crash dump en Solaris Sparc

$
0
0
Puedo generar un Crash Dump desde linea de comando con los siguientes comandos
# reboot -d
o
# uadmin 5 0
o
# mdb -kw
rootdir/w 0

Aca va un ejemplo de la salida del comando mdb -kw

[cocodrilo] / # mdb -kw
Loading modules: [ unix genunix specfs dtrace ufs sd pcisch ip hook neti sctp arp usba fcp fctl nca ssd zfs md cpc random crypto logindmux ptm sppp nfs mpt ipc ]

> rootdir/w 0   (Esto escribe un valor incorrecto al vnode del root directory )

rootdir:        0       =       0x0
>
Dec  7 11:30:12 cocodrilo savecore: [ID 570001 auth.error] reboot after panic: BAD TRAP: type=10 rp=2a101b4ba40 addr=10f2294 mmu_fsr=0
Dec  7 11:30:12 cocodrilo savecore: [ID 748169 auth.error] saving system crash dump in /var/crash/cocodrilo/*.1
Dec  7 11:30:17 cocodrilo sddsrv[635]: [ID 451523 user.error] sddsrv probing enabled with interval 5 min

ora-27102: Out of memory ( solaris 10 )

$
0
0
Al agregarle espacio a la sga de la bd , cuando quiero levantar la instancia me da el siguiente error de memoria.
SQL> startup
ORA-27102: out of memory
SVR4 Error: 22: Invalid argument

Chequeo la ram disponibe en el equipo
prtconf |grep Memory
Memory size: 110592 Megabytes

Chequeo el project asociado a oracle
# su - oracle
Sun Microsystems Inc.   SunOS 5.10      Generic January 2005

# id -p
uid=1001(oracle) gid=101(dba) projid=100(oracle)
#

Chequeo los valores actuales de shared memory asociado al project oracle ( el id 100 en este caso)

prctl -n project.max-shm-memory -i project 100
project: 100: oracle
NAME    PRIVILEGE       VALUE    FLAG   ACTION                       RECIPIENT
project.max-shm-memory
        privileged      16.0GB      -   deny                                 -
        system          16.0EB    max   deny        


Tengo 16gb para la shared memory, pero el dba necesita amliar ese parametro al doble
lo que hago es la siguiente cuenta, para pasarselo al valor en el projmod
32 x 1024 =32768
32768 x 1024 x 1024 = "34359738368"
Me logueo como " root "

#  projmod -s -K "project.max-shm-memory=(priv,34359738368,deny)" oracle

Luego me logueo como usuario "oracle" para chequear que quedaron los cambios
# prctl -n project.max-shm-memory -i project 100
project: 100: oracle
NAME    PRIVILEGE       VALUE    FLAG   ACTION                       RECIPIENT
project.max-shm-memory
        privileged      32.0GB      -   deny                                -
        system          16.0EB    max   deny                                 -
#

Levanto la base de datos
SQL> startup
ORACLE instance started.

Total System Global Area 5804916736 bytes
Fixed Size                  2245592 bytes
Variable Size            3483089960 bytes
Database Buffers         2315255808 bytes
Redo Buffers                4325376 bytes
Database mounted.
Database opened.

Perfecto

NOTA: Los cambios con el projmod los hago como "root". No es necesario reboot, solo hay que desloguearse y volver a loguearse con usuario "oracle"



Instalar Veritas Volume Manager 5.1 SP4

$
0
0

# tar xvf VRTS_SF_HA_Solutions_5.1_SP1_Solaris_SPARC.tar
x ./dvd1-sol_sparc, 0 bytes, 0 tape blocks
x ./dvd1-sol_sparc/dynamic_multipathing, 0 bytes, 0 tape blocks
x ./dvd1-sol_sparc/dynamic_multipathing/copyright, 874 bytes, 2 tape blocks
x ./dvd1-sol_sparc/dynamic_multipathing/docs, 0 bytes, 0 tape blocks
x ./dvd1-sol_sparc/dynamic_multipathing/docs/dmp_admin_51sp1_sol.pdf, 2273804 bytes, 4442 tape blocks
******
*****
corto la salida del tar para no extender demasiado
x ./dvd1-sol_sparc/3rdpartyattributions.pdf, 320766 bytes, 627 tape blocks
x ./dvd1-sol_sparc/getting_started.pdf, 364819 bytes, 713 tape blocks
x ./dvd1-sol_sparc/jumpstart_readme.txt, 5516 bytes, 11 tape blocks
x ./dvd1-sol_sparc/readme_first.txt, 29923 bytes, 59 tape blocks
x ./dvd1-sol_sparc/windows, 0 bytes, 0 tape blocks
x ./dvd1-sol_sparc/windows/VRTSvradv.msi, 29723136 bytes, 58053 tape blocks

 # cd dvd1-sol_sparc
  # cd volume manager
 # ls
copyright    docs         EULA         installvm    pkginfo.txt  tools        uninstallvm
 # ./installvm

                                          Veritas Volume Manager 5.1 SP1 Install Program

Copyright (c) 2010 Symantec Corporation. All rights reserved.  Symantec, the Symantec Logo are trademarks or registered trademarks of Symantec Corporation or its affiliates in the U.S. and other countries. Other names may be trademarks of their respective owners.
The Licensed Software and Documentation are deemed to be "commercial computer software" and "commercial computer software documentation" as defined in FAR Sections 12.212 and DFARS Section 227.7202.

Logs are being written to /var/tmp/installvm-201502231307dhv while installvm is in progress.

Do you agree with the terms of the End User License Agreement as specified in the volume_manager/EULA/en/EULA_SF_Ux_5.1SP1.pdf
file present on media? [y,n,q,?] y

                                          Veritas Volume Manager 5.1 SP1 Install Program


    1)  Install minimal required Veritas Volume Manager packages - 244 MB required
     2)  Install recommended Veritas Volume Manager packages - 409 MB required
     3)  Display packages to be installed for each option

Select the packages to be installed on all systems? [1-3,q,?] (2) 2

Enter the Solaris Sparc system names separated by spaces: [q,?] (sun2009)
                                          Veritas Volume Manager 5.1 SP1 Install Program

                                                             sun2009

Logs are being written to /var/tmp/installvm-201502231307dhv while installvm is in progress

    Verifying systems: 100%                                                                                    
    Estimated time remaining: 0:00                                                                                      8 of 8

    Checking system communication.............................................................. Done
    Checking release compatibility ................................................................ Done
    Checking installed product  ..................................................................... Done
    Checking prerequisite patches and packages ........................................... Done
    Checking platform version     .................................................................. Done
    Checking file space ................................................................................ Done
    Performing product license checks .......................................................... Done
    Performing product prechecks ................................................................. Done

System verification checks completed successfully

                                          Veritas Volume Manager 5.1 SP1 Install Program

                                                             sun2009


The following Veritas Volume Manager packages will be installed on all systems:

Package           Package Description

VRTSvlic          Veritas Licensing
VRTSperl          Veritas Perl 5.10.0 Redistribution
VRTSspt           Veritas Software Support Tools by Symantec
VRTSvxvm          Veritas Volume Manager Binaries
VRTSaslapm        Volume Manager - ASL/APM
VRTSob            Veritas Enterprise Administrator Service by Symantec
VRTSsfmh          Veritas Storage Foundation Managed Host by Symantec

The following Veritas Volume Manager patches will be installed on all systems:

Patch             Package

142629-06         VRTSvxvm
143687-02         VRTSob

Press [Enter] to continue:
Logs are being written to /var/tmp/installvm-201502231307dhv while installvm is in progress

   
    Installing VM: 100%                                                                      
    Estimated time remaining: 0:00                                                                                    12 of 12

    Performing VM preinstall tasks ....................................................... Done
    Installing VRTSvlic package............................................................ Done
    Installing VRTSperl package........................................................... Done
    Installing VRTSspt package ........................................................... Done
    Installing VRTSvxvm package ........................................................ Done
    Installing VRTSaslapm package....................................................... Done
    Installing VRTSob package ............................................................ Done
    Installing 142629-06 patch ............................................................. Done
    Installing 143687-02 patch ............................................................. Done
    Installing VRTSsfmh package .......................................................... Done
    Performing VM postinstall tasks ...................................................... Done
    Copying installer libraries and scripts ................................................ Done

Veritas Volume Manager Install completed successfully
                                          Veritas Volume Manager 5.1 SP1 Install Program

                                                             sun2009

*****ACA AGREGO LAS LICENCIAS ****
To comply with the terms of Symantec's End User License Agreement, you have 60 days to either:

* Enter a valid license key matching the functionality in use on the systems
* Enable keyless licensing and manage the systems with a Management Server.  For more details visit
http://go.symantec.com/sfhakeyless.  The product is fully functional during these 60 days.

     1)  Enter a valid license key
     2)  Enable keyless licensing and complete system licensing later

How would you like to license the systems? [1-2,q] (2)1

Checking system licensing
VM is unlicensed on all systems

Enter a VM license key: [b,q,?]AJZU-XXXX-XXXX-XXXX-XXXX-XXXX-C6PP-XXXX-P
Storage Foundation Enterprise successfully registered on sun2009
Do you wish to enter additional licenses? [y,n,q,b] (n) n
VM is licensed on all systems

                                          Veritas Volume Manager 5.1 SP1 Install Program

                                                             sun2009


Logs are being written to /var/tmp/installvm-201502231307dhv while installvm is in progress

    Starting VM: 100%                        


    Estimated time remaining: 0:00                                                            11 of 11

    Performing VM configuration .................................................................. Done
    Starting vxdmp ........................................................................................ Done
    Starting vxio ............................................................................................ Done
    Starting vxspec ........................................................................................ Done
    Starting vxconfigd .................................................................................... Done
    Starting vxesd .......................................................................................... Done
    Starting vxrelocd ...................................................................................... Done
    Starting vxcached ..................................................................................... Done
    Starting vxconfigbackupd .......................................................................... Done
    Starting vxattachd ..................................................................................... Done
    Performing VM poststart tasks .................................................................. Done

Veritas Volume Manager Startup completed successfully

installvm log files, summary file, and response file are saved at:

        /opt/VRTS/install/logs/installvm-201502231307dhv

*** Ahora ,voy a instalar los parches para el Veritas

root@sun2009 # gzip -d sfha-sol_sparc-5.1SP1RP4-patches.tar.gz
root@sun2009 # tar xvf sfha-sol_sparc-5.1SP1RP4-patches.tar
x ./sol_sparc, 0 bytes, 0 tape blocks
x ./sol_sparc/copyright, 882 bytes, 2 tape blocks
x ./sol_sparc/scripts, 0 bytes, 0 tape blocks
x ./sol_sparc/scripts/bin, 0 bytes, 0 tape blocks
***********
Corto la salida por ser muy extensa
x ./sol_sparc/perl/lib/site_perl/5.10.0/Bundle/LWP.pm, 923 bytes, 2 tape blocks
x ./sol_sparc/sfha_notes_51sp1rp4_sol.pdf, 2437518 bytes, 4761 tape blocks
x ./sol_sparc/pkgs, 0 bytes, 0 tape blocks
x ./sol_sparc/pkgs/README_SYMC.VRTSaslapm, 676 bytes, 2 tape blocks
x ./sol_sparc/pkgs/VRTSaslapm.pkg, 1637888 bytes, 3199 tape blocks

root@sun2009 # cd sol_sparc
root@sun2009 # ls
copyright                    perl                         sfha_notes_51sp1rp4_sol.pdf  xprtl
installrp                    pkgs                         uninstallrp
patches                      scripts                      webinstaller
root@sun2009 # cd patches

Estos son los parches que necesito
drwxr-xr-x   2 root     root         512 Feb 23 11:41 142629-06
drwxr-xr-x   2 root     root         512 Feb 23 11:41 143687-02
drwxr-xr-x   2 root     root         512 Feb 23 12:19 142629-19
drwxr-xr-x   2 root     root         512 Feb 23 12:28 143687-04
drwxr-xr-x   2 root     root         512 Feb 23 12:29 144159-01
drwxr-xr-x   2 root     root         512 Feb 23 12:34 149806-01

patchadd -d 142629-19
patchadd -d 142629-06
patchadd -d 143687-02
patchadd -d 143687-04
patchadd -d 144159-01
patchadd -d 149806-01

Listo
root@sun2009 # pkginfo -l VRTSvxvm
   PKGINST:  VRTSvxvm
      NAME:  Binaries for VERITAS Volume Manager by Symantec
  CATEGORY:  system
      ARCH:  sparc
   VERSION:  5.1,REV=10.06.2009.22.05
   BASEDIR:  /
    VENDOR:  Symantec Corporation
      DESC:  Virtual Disk Subsystem
    PSTAMP:  5.1.104.000-5.1SP1RP4-2013-08-07-142629-19
  INSTDATE:  Feb 23 2015 13:39
   HOTLINE:  http://support.veritas.com/phonesup/phonesup_ddProduct_.htm
     EMAIL:  support@veritas.com
    STATUS:  completely installed
     FILES:      955 installed pathnames
                  35 shared pathnames
                 116 directories
                 428 executables
              419176 blocks used (approx)

root@sun2009 #




Solaris 11 - Crear Repositorio Local

$
0
0

El primer paso es bajar de la web de oracle la imagen .iso que contiene el repositorio que vamos a utilizar .
http://www.oracle.com/technetwork/server-storage/solaris11/downloads/local-repository-2245081.html

Son 4 archivos .zip mas un script instal-repo.ksh y un README
sol-11_2-repo-1of4.zip
sol-11_2-repo-2of4.zip
sol-11_2-repo-3of4.zip
sol-11_2-repo-4of4.zip

Una vez hecho los pasos anteriores, comienzo con la creacion de mi repositorio local.

Como tengo espacio, voy a crear un zpool exclusivo para que quede como repositorio, pero
en caso de no contar con discos como para crear un nuevo zpool, se puede utilizar un
fs ya existente yque tenga espacio, como puede ser un /export/home/

zpool create REPOpool c0t60050768018285D2700000000000005Ad0s0
zfs set mountpoint=/repo REPOpool

Chequeo como quedo 
# zpool status REPOpool
  pool: REPOpool
 state: ONLINE
  scan: none requested
config:

        NAME                                       STATE     READ WRITE CKSUM
        REPOpool                                   ONLINE       0     0     0
          c0t60050768018285D2700000000000005Ad0s0  ONLINE       0     0     0

errors: No known data errors
#

Copio la imagen .iso que contiene los repositorios del solaris 11 , que baje previamente,y describi mas arriba en este documento.

#lofiadm -a /repo/sol-11_2-repo.iso
#mount -F hsfs /dev/lofi/1 /mnt
# rsync -aP /mnt/repo /repo
# umount /mnt

# df -h /repo
Filesystem             Size   Used  Available Capacity  Mounted on
REPOpool                54G    15G        39G    28%    /repo
#

# ls -ltrh
total 15589252
-rwxr-xr-x   1 root     root        5.8K Jun 25  2014 README-repo-iso.txt
-rw-r--r--   1 root     root        1.6K Jun 25  2014 NOTICES
-rw-r--r--   1 root     root        3.2K Jun 25  2014 COPYRIGHT
dr-xr-xr-x   3 root     root           4 Jun 12 02:57 repo
-rw-r--r--   1 root     root        8.2G Jun 18 06:58 sol-11_2-repo.iso
#

Ahora si, a tirar comandos para crear el repositorio
# svccfg -s application/pkg/server setprop pkg/inst_root=/repo/repo
# svccfg -s application/pkg/server setprop pkg/readonly=true
# svcadm refresh application/pkg/server
# svcadm enable application/pkg/server
#

# pkg set-publisher -O http://10.77.100.212 solaris
# pkgrepo refresh -s /repo/repo
Initiating repository refresh.
#
Pruebo si encuentra algun paquete como para instalar
# pkg search xclock
INDEX        ACTION         VALUE                    PACKAGE
basename            file   usr/share/X11/app-defaults/XClock    pkg:/x11/xclock@1.0.7-0.175.2.0.0.42.1406
basename            file   usr/bin/xclock              pkg:/x11/xclock@1.0.7-0.175.2.0.0.42.1406
basename           link   usr/X11/bin/xclock         pkg:/x11/xclock@1.0.7-0.175.2.0.0.42.1406
com.oracle.info.description set    the xclock utility   pkg:/x11/xclock@1.0.7-0.175.2.0.0.42.1406
com.oracle.info.name     set    xclock   pkg:/x11/xclock@1.0.7-0.175.2.0.0.42.1406
pkg.description         set    xclock is the classic X Window System clock utility.  It displays the time in analog or digital form, continuously updated at a frequency which may be specified by the user. pkg:/x11/xclock@1.0.7-0.175.2.0.0.42.1406
pkg.fmri          set    solaris/x11/xclock   pkg:/x11/xclock@1.0.7-0.175.2.0.0.42.1406
pkg.summary    set    xclock - analog / digital clock for X  pkg:/x11/xclock@1.0.7-0.175.2.0.0.42.1406
#
Con el sig comando se instala el paquete xclock
# pkg install xclock
           Packages to install:  1
       Create boot environment: No
Create backup boot environment: No
DOWNLOAD                                PKGS         FILES    XFER (MB)   SPEED
Completed                                1/1           8/8      0.0/0.0  970k/s

PHASE                                          ITEMS
Installing new actions                         33/33
Updating package state database                 Done
Updating package cache                           0/0
Updating image state                            Done
Creating fast lookup database                   Done
Updating package cache                           1/1
root@psunp006:/repo#

Otro ejemplo del uso del pkg para instalar un paquete

# pkg install gcc
           Packages to install: 17
           Mediators to change:  1
            Services to change:  1
       Create boot environment: No
Create backup boot environment: No
Planning linked: 0/1 done; 1 working: zone:zona1
Planning linked: 1/1 done
DOWNLOAD                                PKGS         FILES    XFER (MB)   SPEED
Completed                              17/17     2865/2865    61.1/61.1  5.8M/s

Downloading linked: 0/1 done; 1 working: zone:zona1
Downloading linked: 1/1 done
PHASE                                          ITEMS
Installing new actions                     3389/3389
Updating package state database                 Done
Updating package cache                           0/0
Updating image state                            Done
Creating fast lookup database                   Done
Executing linked: 0/1 done; 1 working: zone:zona1
Executing linked: 1/1 done
Updating package cache                           1/1
#

Para ver que grupo quedo instalado 
# pkg info -r group/system/solaris-large-server
          Name: group/system/solaris-large-server
       Summary: Oracle Solaris Large Server
   Description: Provides an Oracle Solaris large server environment
      Category: Meta Packages/Group Packages
         State: Installed
     Publisher: solaris
       Version: 0.5.11
 Build Release: 5.11
        Branch: 0.175.2.0.0.42.0
Packaging Date: June 23, 2014 09:49:37 PM
          Size: 5.46 kB
          FMRI: pkg://solaris/group/system/solaris-large-server@0.5.11,5.11-0.175.2.0.0.42.0:20140623T214937Z
#

Solaris 11 - ZFS Mirror boot

$
0
0
Crear un mirror del disco de booteo con zfs
Partiendo de la base que tengo estos dos discos internos y el Sistema Operativo esta alojado en el disco c1t0d0

     c1t0d0
          /pci@0,600000/pci@0/pci@8/pci@0/scsi@1/sd@0,0
     c1t1d0
          /pci@0,600000/pci@0/pci@8/pci@0/scsi@1/sd@1,0

root# zpool status rpool
  pool: rpool
 state: ONLINE
  scan: none requested
config:

        NAME        STATE     READ WRITE CKSUM
        rpool       ONLINE       0     0     0
          c1t0d0s0  ONLINE       0     0     0

errors: No known data errors
root#
Copio la vtoc del disco primario ( c1t0d0 ) al disco secundario ( c1t1d0 )

root# prtvtoc /dev/rdsk/c1t0d0s2 | fmthard -s - /dev/rdsk/c1t1d0s2
fmthard:  New volume table of contents now in place.
root#

Agrego el disco c1t1d0s0 al pool de disco rpool 

root# zpool attach -f rpool c1t0d0s0 c1t1d0s0
Make sure to wait until resilver is done before rebooting.
root#

root@psunp006:/repo# zpool status rpool
  pool: rpool
 state: DEGRADED
status: One or more devices is currently being resilvered.  The pool will
        continue to function in a degraded state.
action: Wait for the resilver to complete.
        Run 'zpool status -v' to see device specific details.
  scan: resilver in progress since Thu Jun 18 09:16:09 2015
    22.6G scanned
    5.02G resilvered at 106M/s, 20.58% done, 0h2m to go
config:

        NAME          STATE     READ WRITE CKSUM
        rpool         DEGRADED     0     0     0
          mirror-0    DEGRADED     0     0     0
            c1t0d0s0  ONLINE       0     0     0
            c1t1d0s0  DEGRADED     0     0     0  (resilvering)

errors: No known data errors
root#

Chequeo como va la sincronizacion de los discos
root# zpool status -v rpool
  pool: rpool
 state: DEGRADED
status: One or more devices is currently being resilvered.  The pool will
        continue to function in a degraded state.
action: Wait for the resilver to complete.
  scan: resilver in progress since Thu Jun 18 09:16:09 2015
    22.6G scanned
    20.3G resilvered at 94.8M/s, 89.04% done, 0h0m to go
config:

        NAME          STATE     READ WRITE CKSUM
        rpool         DEGRADED     0     0     0
          mirror-0    DEGRADED     0     0     0
            c1t0d0s0  ONLINE       0     0     0
            c1t1d0s0  DEGRADED     0     0     0  (resilvering)

device details:

        c1t1d0s0    DEGRADED      scrub/resilver needed
        status: ZFS detected errors on this device.
                The device is missing some data that is recoverable.
           see: http://support.oracle.com/msg/ZFS-8000-QJ for recovery


errors: No known data errors

root#

Ahora si, ya esta espejado 

root# zpool status -v rpool
  pool: rpool
 state: ONLINE
  scan: resilvered 22.6G in 0h5m with 0 errors on Thu Jun 18 09:21:48 2015
config:

        NAME          STATE     READ WRITE CKSUM
        rpool         ONLINE       0     0     0
          mirror-0    ONLINE       0     0     0
            c1t0d0s0  ONLINE       0     0     0
            c1t1d0s0  ONLINE       0     0     0

errors: No known data errors
root#

Ahora a copiarle el sector de booteo al disco que agregue como mirror

root# installboot -F zfs -f /usr/platform/`uname -i`/lib/fs/zfs/bootblk /dev/rdsk/c1t1d0s0
root#

Si lo ejecuto sin la opcion -f , me da un error como el siguiente

root# installboot -F zfs /usr/platform/`uname -i`/lib/fs/zfs/bootblk /dev/rdsk/c1t1d0s0
WARNING: target device /dev/rdsk/c1t1d0s0 has a versioned bootblock but no versioning information was provided.
bootblock version installed on /dev/rdsk/c1t1d0s0 is more recent or identical
Use -f to override or install without the -u option
Viewing all 94 articles
Browse latest View live