Quantcast
Channel: Apuntes de Solaris
Viewing all 94 articles
Browse latest View live

Instalar Solaris 11.2 en un M5000

$
0
0
La finalidad de este documento es describir el paso a paso de la instalacion de
un Solaris 11_2 en un servidor sparc M5000
Todo este procedimiento fue realizado con los siguientes elementos:
Notebook Olivetti con sistema operativo linux Ubuntu 14.04.2 LTS, Trusty Tahr, dentro de la misma, le instale Oracle Virtual Box, con sistema operativo Solaris 11_1 x86

Preparacion previa en mi notebook
En el linux de mi notebook , en el directorio /home/coneja/Downloads/ tengo las imagenes .iso del dvd


Dentro del Oracle Virtual Box, hay una opcion que se llama "shared folders", ahi
 le digo que fs o directorio quiero compartir a  mi solaris
( NO hacerlo en modo read only )
En mi caso, el fs compartido fue /home/coneja/Downloads
***Aclaracion importante: cuando creo en el VirtualBox el Solaris, debo hacerlo
con la opcion de red "Bridge " para que funcione cuando lo conecte al server qu
e quiero instalar ***

Cuando levanta el solaris, monta automaticamente los fs que comparti desde el Virtual Box anteriormente
Bajar de la web de oracle, el repositorio de solaris 11.
Son 4 archivos .zip mas un script instal-repo.ksh y un README
sol-11_2-repo-1of4.zip
sol-11_2-repo-2of4.zip
sol-11_2-repo-3of4.zip
sol-11_2-repo-4of4.zip



Cuando Levanto el solaris de mi maquina virtual, automaticamente monta
el filesystem que le indique en el shared folders.
Luego lo que hice fue , asignarle un disco virtual al solaris 11
que estan en mi Virtual Box (Esto se hace con el solaris 11 del VBox apagado ).
Genere un zpool llamado repopool , el cual sera destino de el repositorio
de parches.
Para esto, los comandos utilizados en el solaris11 de mi VBox fueron

zpool create -f repopool c7t2d0s0
zpool list
zfs set mountpoint=/repo


El paso siguiente fue, en el solaris 11 de mi VBox, pararme en el fs compartido
/home/coneja/Downloads y ejecutar el
install-repo.ksh    ( tal como esta en la       foto siguiente)

Este script, hace un md5 checksum de los archivos que baje, posteriormente realiza un uncompress de los archivos .zip y genera un solo.iso que alojara en el
filesystem compartido





 
/home/coneja/Downloads que fue donde estaba parado cuando ejecute el script .

 En el fs de mi solaris11 de la VBox /repo/  dejara todo el contenido del iso pero ya listo para usar.
Todo este procedimiento tardo 11 horas, es muy lento.

# svccfg -s application/pkg/server setprop pkg/inst_root=/repo/repo
# svccfg -s application/pkg/server setprop pkg/readonly=true

# svcadm refresh application/pkg/server
# svcadm enable application/pkg/server


Aca le agrego la ip de mi VirtualBox con Solaris

root@sol11vm:/export/home# pkg set-publisher -O http://192.168.30.1 solaris
root@sol11vm:/export/home# pkg publisher
PUBLISHER                   TYPE     STATUS P LOCATION
solaris                     origin   online F http://192.168.30.1/
root@sol11vm:/export/home# pkgrepo refresh -s /repo
Initiating repository refresh.
Chequeo que pueda ver el contenido, buscando algun paquete, uso el viejo y querido xclock de ejemplo
root@sol11vm:/export/home# pkg search xclock
INDEX           ACTION VALUE                                                                                                                                                                         PACKAGE
basename        file   usr/share/X11/app-defaults/XClock                                                                                                                                             pkg:/x11/xclock@1.0.6-0.175.1.0.0.24.1317
basename        file   usr/bin/xclock                                                                                                                                                                pkg:/x11/xclock@1.0.6-0.175.1.0.0.24.1317
basename        link   usr/X11/bin/xclock                                                                                                                                                            pkg:/x11/xclock@1.0.6-0.175.1.0.0.24.1317
pkg.description set    xclock is the classic X Window System clock utility.  It displays the time in analog or digital form, continuously updated at a frequency which may be specified by the user. pkg:/x11/xclock@1.0.6-0.175.1.0.0.24.1317
pkg.fmri        set    solaris/x11/xclock                                                                                                                                                            pkg:/x11/xclock@1.0.6-0.175.1.0.0.24.1317
pkg.summary     set    xclock - analog / digital clock for X                                                                                                                                         pkg:/x11/xclock@1.0.6-0.175.1.0.0.24.1317
root@sol11vm:/export/home# zfs list
NAME                       USED  AVAIL  REFER  MOUNTPOINT
repopool                  8.35G  32.8G  8.34G  /repo
rpool                     25.6G  5.37G  4.58M  /rpool
rpool/IPS                 11.6G  5.37G  11.6G  /IPS
rpool/ROOT                4.49G  5.37G    31K  legacy
rpool/ROOT/solaris-1      4.49G  5.37G  2.22G  /
rpool/ROOT/solaris-1/var  1.29G  5.37G  1.20G  /var
rpool/VARSHARE            84.5K  5.37G  84.5K  /var/share
rpool/dump                 792M  5.39G   768M  -
rpool/export              7.73G  5.37G   711M  /export
rpool/export/home         7.03G  5.37G  7.03G  /export/home
rpool/export/home/gojea   35.5K  5.37G  35.5K  /export/home/gojea
rpool/swap                1.03G  5.40G  1.00G  -

root@sol11vm:/export/home# zfs create repopool/ai
root@sol11vm:/export/home# zfs list
NAME                       USED  AVAIL  REFER  MOUNTPOINT
repopool                  8.35G  32.8G  8.34G  /repo
repopool/ai                 31K  32.8G    31K  /repo/ai
rpool                     25.6G  5.37G  4.58M  /rpool
rpool/IPS                 11.6G  5.37G  11.6G  /IPS
rpool/ROOT                4.49G  5.37G    31K  legacy
rpool/ROOT/solaris-1      4.49G  5.37G  2.22G  /
rpool/ROOT/solaris-1/var  1.29G  5.37G  1.20G  /var
rpool/VARSHARE            84.5K  5.37G  84.5K  /var/share
rpool/dump                 792M  5.39G   768M  -
rpool/export              7.73G  5.37G   711M  /export
rpool/export/home         7.03G  5.37G  7.03G  /export/home
rpool/export/home/gojea   35.5K  5.37G  35.5K  /export/home/gojea
rpool/swap                1.03G  5.40G  1.00G  -
root@sol11vm:/export/home# zfs get -r dedup repopool
NAME         PROPERTY  VALUE  SOURCE
repopool     dedup     on     local
repopool/ai  dedup     on     inherited from repopool
root@sol11vm:/export/home# zfs mountpoint=repopool/ai
root@sol11vm:/export/home# ls -ltrh /mnt/sf_coneja/Downloads/
total 34186824
-rw-r-----   1 root     vboxsf      500M Jun  6 21:04 sol-11_2-ai-sparc.iso
-rw-r-----   1 root     vboxsf      731M Jun  7 21:03 sol-11_2-text-sparc.iso
-rwxr-xr-x   1 root     vboxsf      5.5K Jun  7 22:49 install-repo.ksh
-rw-r-----   1 root     vboxsf      1.8G Jun  7 22:50 sol-11_2-repo-2of4.zip
-rw-r-----   1 root     vboxsf      3.1K Jun  7 22:50 README-zipped-repo.txt
-rw-r-----   1 root     vboxsf       228 Jun  7 22:51 sol-11_2-repo-md5sums.txt
-rw-r-----   1 root     vboxsf      1.8G Jun  8 00:27 sol-11_2-repo-3of4.zip
-rw-r-----   1 root     vboxsf      1.7G Jun  8 13:22 sol-11_2-repo-4of4.zip
-rw-rw-r--   1 root     vboxsf      1.7G Jun  8 22:09 sol-11_2-repo-1of4.zip
-rw-r--r--   1 root     vboxsf      406K Jun 12 06:32 mkiso.log
-rw-r--r--   1 root     vboxsf      8.2G Jun 12 06:32 sol-11_2-repo.iso
sol11vm:/export/home# cp -pr /mnt/sf_coneja/Downloads/sol-11_2-ai-sparc.iso /ai
root@sol11vm:/export/home# ls -ltrh /ai
total 757116
-rw-r-----   1 root     vboxsf      500M Jun  6 21:04 sol-11_2-ai-sparc.iso
root@sol11vm:/export/home# svcs -a|grep dns
disabled       16:02:37 svc:/network/dns/client:default
disabled       16:02:40 svc:/network/dns/multicast:default
disabled       16:02:41 svc:/network/dns/server:default
root@sol11vm:/export/home# svcadm enable dns/client
disabled       16:02:40 svc:/network/dns/multicast:default
disabled       16:02:41 svc:/network/dns/server:default
offline*        9:57:25 svc:/network/dns/client:default
root@sol11vm:/export/home# svcs -a|grep dns
disabled       16:02:41 svc:/network/dns/server:default
online          9:57:35 svc:/network/dns/client:default
online          9:57:58 svc:/network/dns/multicast:default
root@sol11vm:/ai#
# installadm create-service -n sol11-2-ai -i 192.168.30.10 -c 10 -s /ai/sol-11_2-ai-sparc.iso /ai/sol11-2-ai.target

Creating service from: /ai/sol-11_2-ai-sparc.iso
OK to use default image path: /export/auto_install/sol11-2-ai? [y/N]: y
Setting up the image ...

Creating sparc service: sol11-2-ai

Image path: /export/auto_install/sol11-2-ai

Service discovery fallback mechanism set up
Creating SPARC configuration file
Adding IP range to local DHCP configuration

Unable to add IP range: check_subnet_for_overlap: adding range causes
overlap on subnet
192.168.30.0

The install service has been created but the DHCP configuration has
not been completed. Please see dhcpd(8) for further information.

Refreshing install services





FINALIZADA la preparacion previa de la notebook , se viene la instalacion de solaris 11.2 en el servidor m5000






Conectar el cable de red de la notebook al IOU0 red interna del m5000
























Conectar el cable usb serial a mi notebook y el otro extremo al serial del equipo
desde el linux, tipear 
minicom -D /dev/ttyUSB0  ( esto depende en que usb lo conecte, lo verifico con un dmesg )
Esta configuracion fue la que funciono con el minicom, modifico lo sig:
Serial device : /dev/ttyUSB0
BPS :  9600 8N1
Hardware FLOW control :  YES
Software Flow Control NO














Una vez que se conecta el minicom, voy a estar parado en la XSCF del M5000
lo tengo que llevar a OBP con lo s siguientes comandos
Puedo chequear primero si se ven entre el M5000 y mi linux , desde el linux con el comandoethtool eth0 como lo muestro en la foto















XSCF> console -d 0
pongo la clave de root y le doy init 0 .
En el caso que no tenga la clave de root, me vuelvo a la XSCF con la combinacion de teclas#. ( numeral + punto )
XSCF> reset -d 0

desde OBP ejecutoboot net:dchp - install  ( CUIDADO, respetar los espacios y el guion - antes de install sino falla la instalacion porque no encuentra el boot image)




























En la foto de arriba muestra que termino la instalacion del miniroot y esta booteando el solaris 12

En la foto de abajo , muestro como  esta instalando desde la imagenes 














Booting














Listo, ya instalado, ejecuto un pkg update y compruebo que esta todo.
Una vez que finaliza la instalacion hay que hacer un init 6
Esta instalacion te deja en el sys.unconfig  y ahi hay que configurar el
hostname, el TIMEZONE, etc.
















Una vez booteado de disco, hay que agregar la ip, configurar el defaultrouter,etc.

Para configurar la ip seria 
root@psunp006:~# dladm show-link
LINK                CLASS     MTU    STATE    OVER
net3                phys      1500   unknown  --
net0                phys      1500   unknown  --
net4                phys      1500   unknown  --
net2                phys      1500   unknown  --
net5                phys      1500   unknown  --
net1                phys      1500   unknown  --
root@psunp006:~# netadm enable -p ncp defaultfixed
ncp 'DefaultFixed' is already enabled
root@psunp006:~# dladm show-phys
LINK              MEDIA                STATE      SPEED  DUPLEX    DEVICE
net3              Ethernet             unknown    0      unknown   e1000g1
net0              Ethernet             unknown    0      unknown   bge0
net4              Ethernet             unknown    0      unknown   e1000g2
net2              Ethernet             unknown    0      unknown   e1000g0
net5              Ethernet             unknown    0      unknown   e1000g3
net1              Ethernet             unknown    0      unknown   bge1
root@psunp006:~# ipadm
NAME              CLASS/TYPE STATE        UNDER      ADDR
lo0               loopback   ok           --         --
   lo0/v4         static     ok           --         127.0.0.1/8
   lo0/v6         static     ok           --         ::1/128
sppp0             ip         ok           --         --
   sppp0/?        static     ok           --         192.168.200.2->192.168.200.1
root@psunp006:~#
root@psunp006:~# ifconfig -a
lo0: flags=2001000849 mtu 8232 index 1
        inet 127.0.0.1 netmask ff000000
sppp0: flags=1010010008d1 mtu 1500 index 2
        inet 192.168.200.2 --> 192.168.200.1 netmask ffffff00
        ether 0:0:0:0:0:0
lo0: flags=2002000849 mtu 8252 index 1
        inet6 ::1/128
root@psunp006:~#
root@psunp006:~# ipadm create-ip net0
root@psunp006:~# ipadm create-addr -T static -a local=10.77.100.212/24 net0/addr
root@psunp006:~# ipadm show-addr
ADDROBJ           TYPE     STATE        ADDR
lo0/v4            static   ok           127.0.0.1/8
sppp0/?           static   ok           192.168.200.2->192.168.200.1
net0/addr         static   inaccessible 10.77.100.212/24
lo0/v6            static   ok           ::1/128
root@psunp006:~#

root@psunp006:~# ifconfig -a
lo0: flags=2001000849 mtu 8232 index 1
        inet 127.0.0.1 netmask ff000000
sppp0: flags=1010010008d1 mtu 1500 index 2
        inet 192.168.200.2 --> 192.168.200.1 netmask ffffff00
        ether 0:0:0:0:0:0
net0: flags=1000803 mtu 1500 index 4
        inet 10.77.100.212 netmask ffffff00 broadcast 10.77.100.255
        ether 0:21:28:1a:75:20
lo0: flags=2002000849 mtu 8252 index 1
        inet6 ::1/128
net0: flags=20002000800 mtu 1500 index 4
        inet6 ::/0
        ether 0:21:28:1a:75:20
root@psunp006:~#
root@psunp006:~# route -p add default 10.77.100.1
add net default: gateway 10.77.100.1


Este equipo ya tenia storage conectado, asi que el paso siguiente que hice fue poner los discos conectados a la SAN , en multipath
root@psunp006:/kernel/drv# stmsboot -D fp -e
WARNING: This operation will require a reboot.
Do you want to continue ? [y/n] (default: y) y
The changes will come into effect after rebooting the system.
Reboot the system now ? [y/n] (default: y) y


psunp006 console login: syncing file systems... done
rebooting...
Resetting...
POST Sequence 01 CPU Check
POST Sequence 02 Banner
LSB#00 (XSB#00-0): POST 2.9.0 (2009/02/18 14:34)
POST Sequence 03 Fatal Check
POST Sequence 04 CPU Register
POST Sequence 05 STICK
POST Sequence 06 MMU
POST Sequence 07 Memory Initialize
POST Sequence 08 Memory
POST Sequence 09 Raw UE In Cache
POST Sequence 0A Floating Point Unit
POST Sequence 0B SC
POST Sequence 0C Cacheable Instruction
POST Sequence 0D Softint
POST Sequence 0E CPU Cross Call
POST Sequence 0F CMU-CH
POST Sequence 10 PCI-CH
POST Sequence 11 Master Device
POST Sequence 12 DSCP
POST Sequence 13 SC Check Before STICK Diag
POST Sequence 14 STICK Stop
POST Sequence 15 STICK Start
POST Sequence 16 Error CPU Check
POST Sequence 17 System Configuration
POST Sequence 18 System Status Check
POST Sequence 19 System Status Check After Sync
POST Sequence 1A OpenBoot Start...
POST Sequence Complete.

Sun SPARC Enterprise M5000 Server, using Domain console
Copyright 2008 Sun Microsystems, Inc.  All rights reserved.
Copyright 2008 Sun Microsystems, Inc. and Fujitsu Limited. All rights reserved.
OpenBoot 4.24.10, 32768 MB memory installed, Serial #86543492.
Ethernet address 0:21:28:28:8c:84, Host ID: 85288c84.



Rebooting with command: boot
Boot device: /pci@0,600000/pci@0/pci@8/pci@0/scsi@1/disk@0,0:a  File and args:
SunOS Release 5.11 Version 11.2 64-bit
Copyright (c) 1983, 2014, Oracle and/or its affiliates. All rights reserved.
stmsboot: Root is on ZFS
stmsboot: configuring devices

stmsboot: vfstab has been updated
stmsboot: now regenerating boot archive
Hostname: psunp006





*********************************************************************************
Este trabajo lo realize con la ayuda de mi colega Nicolas Morono.
Agradezco la ayuda y soporte de los Fied Engineer Marcelo Herrera y Guillermo Ojea Quintana
*********************************************************************************


Desasignar System Board en 25k

$
0
0
Para desasignar una System Board con el sistema operativo ejecutandose, realizar desde la system controller :
**** OJO que esto me freeza el Sistema Operativo por unos minutos ***
e25k> deleteboard -c unconfigure SB12
System may be temporarily suspended, proceed
(yes/no)? yes
request suspend SUNW_OS
request suspend SUNW_OS done
request delete capacity (8 cpus)
request delete capacity (4194304 pages)
request delete capacity SB12 done
request offline SUNW_cpu/cpu384
request offline SUNW_cpu/cpu388
request offline SUNW_cpu/cpu385
request offline SUNW_cpu/cpu389
request offline SUNW_cpu/cpu386
request offline SUNW_cpu/cpu390
request offline SUNW_cpu/cpu387
request offline SUNW_cpu/cpu391
request offline SUNW_cpu/cpu384 done
request offline SUNW_cpu/cpu388 done
request offline SUNW_cpu/cpu385 done
request offline SUNW_cpu/cpu389 done
request offline SUNW_cpu/cpu386 done
request offline SUNW_cpu/cpu390 done
request offline SUNW_cpu/cpu387 done
request offline SUNW_cpu/cpu391 done
unconfigure SB12
unconfigure SB12 done
notify remove SUNW_cpu/cpu384
notify remove SUNW_cpu/cpu388
notify remove SUNW_cpu/cpu385

request offline SUNW_cpu/cpu389 done
request offline SUNW_cpu/cpu386 done
request offline SUNW_cpu/cpu390 done
request offline SUNW_cpu/cpu387 done
request offline SUNW_cpu/cpu391 done
unconfigure SB12
unconfigure SB12 done
notify remove SUNW_cpu/cpu384
notify remove SUNW_cpu/cpu388
notify remove SUNW_cpu/cpu385
notify remove SUNW_cpu/cpu389
notify remove SUNW_cpu/cpu386
notify remove SUNW_cpu/cpu390
notify remove SUNW_cpu/cpu387
notify remove SUNW_cpu/cpu391
notify remove SUNW_cpu/cpu384 done
notify remove SUNW_cpu/cpu388 done
notify remove SUNW_cpu/cpu385 done
notify remove SUNW_cpu/cpu389 done
notify remove SUNW_cpu/cpu386 done
notify remove SUNW_cpu/cpu390 done
notify remove SUNW_cpu/cpu387 done
notify remove SUNW_cpu/cpu391 done
notify capacity change (8 cpus)
notify capacity change (4194304 pages)
notify capacity change SB12 done
notify resume SUNW_OS
notify resume SUNW_OS done
e25k>

Del lado del sistema operativo ( parado en la consola) muestra estos mensajes ( me freezo unos 5 o 10 minutos el OS )
root@psun5ads #
DR: suspending user threads...

DR: checking devices...
DR: suspending drivers...
suspending scsa,00.bvhci@g60050768019901b400000000000004dd (aka ssd)
suspending scsa,00.bvhci@g60050768019901b400000000000004e1 (aka ssd)
suspending scsa,00.bvhci@g60050768019901b400000000000004e0 (aka ssd)
suspending scsa,00.bvhci@g60050768019901b400000000000004df (aka ssd)
suspending scsa,00.bvhci@g60050768019901b400000000000004de (aka ssd)
suspending memory-controller@140,400000 (aka mc-us3)
suspending memory-controller@141,400000 (aka mc-us3)
suspending memory-controller@142,400000 (aka mc-us3)
suspending memory-controller@143,400000 (aka mc-us3)
suspending pci108e,c416@2 (aka sbbc)
suspending pci100b,35@0 (aka ce)
suspending pci100b,35@1 (aka ce)
suspending sd@8,0
suspending sd@9,0
suspending sd@a,0
suspending sd@b,0
suspending ses@5,0
suspending pci1000,b@2 (aka glm)
suspending pci1000,b@2,1 (aka glm)
suspending pciclass,060400@1 (aka pci_pci)
suspending pci108e,1101@3,1 (aka eri)
suspending pciclass,0c0310@3,3 (aka ohci)
suspending pciclass,060400@1 (aka pci_pci)
suspending pci108e,8002@15c,700000 (aka pcisch)
suspending pci108e,8002@15c,600000 (aka pcisch)
suspending pci100b,35@0 (aka ce)
suspending pci100b,35@1 (aka ce)
suspending pci100b,35@2 (aka ce)
suspending pci100b,35@3 (aka ce)
suspending pciclass,060400@1 (aka pci_pci)
suspending pci108e,8002@15d,700000 (aka pcisch)
suspending fp@0,0
suspending pci1077,2422@1 (aka qlc)
suspending scsiclass,01@w500507630f415635,0 (aka st)
suspending scsiclass,01@w500507630f415632,0 (aka st)
suspending scsiclass,01@w500507630f415643,0 (aka st)
suspending scsiclass,01@w500507630f415634,0 (aka st)
suspending scsiclass,01@w500507630f415644,0 (aka st)
suspending scsiclass,01@w500507630f415633,0 (aka st)
suspending pci1077,2422@1,1 (aka qlc)
suspending pci108e,8002@15d,600000 (aka pcisch)
suspending memory-controller@180,400000 (aka mc-us3)
suspending memory-controller@181,400000 (aka mc-us3)
suspending memory-controller@182,400000 (aka mc-us3)
suspending memory-controller@183,400000 (aka mc-us3)
suspending pci108e,c416@2 (aka sbbc)
suspending pci108e,1101@3,1 (aka eri)
suspending pciclass,0c0310@3,3 (aka ohci)
suspending pciclass,060400@1 (aka pci_pci)
suspending pci108e,8002@19c,700000 (aka pcisch)
suspending pci108e,8002@19c,600000 (aka pcisch)
suspending pci108e,8002@19d,700000 (aka pcisch)
suspending fp@0,0
suspending pci1077,2422@1 (aka qlc)
suspending fp@0,0
suspending pci1077,2422@1,1 (aka qlc)
suspending pci108e,8002@19d,600000 (aka pcisch)
suspending wrsm@ffff,0
suspending wrsm@100
suspending wrsm@101
suspending wrsm@102
suspending wrsm@103
suspending wrsm@104
suspending wrsm@105
suspending wrsm@106
suspending wrsm@107
suspending wrsm@108
suspending wrsm@109
suspending wrsm@110
suspending wrsm@111
suspending wrsm@112
suspending wrsm@113
suspending wrsm@114
suspending wrsm@115
suspending iosram@10,900000 (aka iosram)
suspending iosram@10,900000 (aka iosram)
suspending SUNW,axq@15e,0 (aka axq)
suspending SUNW,axq@15f,0 (aka axq)
suspending SUNW,axq@19e,0 (aka axq)
suspending SUNW,axq@19f,0 (aka axq)
resuming SUNW,axq@19f,0 (aka axq)
resuming SUNW,axq@19e,0 (aka axq)
resuming SUNW,axq@15f,0 (aka axq)
resuming SUNW,axq@15e,0 (aka axq)
resuming iosram@10,900000 (aka iosram)
resuming iosram@10,900000 (aka iosram)
resuming wrsm@115
resuming wrsm@114
resuming wrsm@113
resuming wrsm@112
resuming wrsm@111
resuming wrsm@110
resuming wrsm@109
resuming wrsm@108
resuming wrsm@107
resuming wrsm@106
resuming wrsm@105
resuming wrsm@102
resuming wrsm@101
resuming wrsm@100
resuming wrsm@ffff,0
resuming pci108e,8002@19d,600000 (aka pcisch)
resuming pci1077,2422@1,1 (aka qlc)
resuming fp@0,0
resuming pci1077,2422@1 (aka qlc)
resuming fp@0,0
resuming pci108e,8002@19d,700000 (aka pcisch)
resuming pci108e,8002@19c,600000 (aka pcisch)
resuming pci108e,8002@19c,700000 (aka pcisch)
resuming pciclass,060400@1 (aka pci_pci)
resuming pciclass,0c0310@3,3 (aka ohci)
resuming pci108e,1101@3,1 (aka eri)
resuming pci108e,c416@2 (aka sbbc)
resuming memory-controller@183,400000 (aka mc-us3)
resuming memory-controller@182,400000 (aka mc-us3)
resuming memory-controller@181,400000 (aka mc-us3)
resuming memory-controller@180,400000 (aka mc-us3)
resuming pci108e,8002@15d,600000 (aka pcisch)
resuming pci1077,2422@1,1 (aka qlc)
resuming fp@0,0
resuming scsiclass,01@w500507630f415642,0 (aka st)
resuming scsiclass,01@w500507630f415641,0 (aka st)
resuming scsiclass,01@w500507630f415631,0 (aka st)
resuming scsiclass,01@w500507630f415645,0 (aka st)
resuming scsiclass,01@w500507630f415633,0 (aka st)
resuming scsiclass,01@w500507630f415644,0 (aka st)
resuming scsiclass,01@w500507630f415634,0 (aka st)
resuming scsiclass,01@w500507630f415643,0 (aka st)
resuming pci1077,2422@1 (aka qlc)
resuming fp@0,0
resuming pci108e,8002@15d,700000 (aka pcisch)
resuming pciclass,060400@1 (aka pci_pci)
resuming pci100b,35@3 (aka ce)
resuming pci100b,35@2 (aka ce)
resuming pci100b,35@1 (aka ce)
resuming pci100b,35@0 (aka ce)
resuming pci108e,8002@15c,600000 (aka pcisch)
resuming pci108e,8002@15c,700000 (aka pcisch)
resuming pciclass,060400@1 (aka pci_pci)
resuming pciclass,0c0310@3,3 (aka ohci)
resuming pci108e,1101@3,1 (aka eri)
resuming pciclass,060400@1 (aka pci_pci)
resuming pci1000,b@2,1 (aka glm)
resuming pci1000,b@2 (aka glm)
resuming ses@5,0
resuming sd@b,0
resuming sd@a,0
resuming sd@9,0
resuming sd@8,0
resuming pci100b,35@1 (aka ce)
resuming pci100b,35@0 (aka ce)
Jan 9 20:33:11 psun5ads eri: SUNW,eri0 : No response from Ethernet network : Link down -- cable problem?
Jan 9 20:33:29 psun5ads eri: SUNW,eri1 : 100 Mbps half duplex link up
resuming pci108e,c416@2 (aka sbbc)
resuming memory-controller@143,400000 (aka mc-us3)
resuming memory-controller@142,400000 (aka mc-us3)
resuming memory-controller@141,400000 (aka mc-us3)
resuming memory-controller@140,400000 (aka mc-us3)
resuming scsa,00.bvhci@g60050768019901b400000000000004de (aka ssd)
resuming scsa,00.bvhci@g60050768019901b400000000000004df (aka ssd)
resuming scsa,00.bvhci@g60050768019901b400000000000004e0 (aka ssd)
resuming scsa,00.bvhci@g60050768019901b400000000000004e1 (aka ssd)
resuming scsa,00.bvhci@g60050768019901b400000000000004dd (aka ssd)
DR: resuming user threads...
Jan 9 20:33:49 psun5ads scsi: ASC: 0x29 (power on, reset, or bus reset occurred), ASCQ: 0x0, FRU: 0x0
DR: resume COMPLETED
Jan 9 20:33:57 psun5ads dman: NOTICE: dman0 Link up


Luego , desde la SC con un showboards -d F ( donde F es el dominio que le voy a sacar la SB )
SB12 On V3CPU Active Passed F

e25k-5-sc0:sms-svc:12> deleteboard SB12

disconnect SB12
disconnect SB12 done
poweroff SB12
poweroff SB12 done
SB12 successfully unassigned.
e25k-5-sc0:sms-svc:13>
showboards -d F ( recien ahora muestra la SB12 apagada y lista para ser usada o extraida )
SB12 Off V3CPU Available Unknown Isolated

Resolucion de Nombres en Solaris 11 ( resolv.conf ) y nsswitch

$
0
0
En las versiones anteriores de Solaris , la forma de resolver el nombre era simplemente agregar en /etc/resolv.conf , el nombre del dominio y los nameservers , luego en el /etc/nsswitch.conf  le agregaba si lo queria resolver primero por hosts ( files) o dns. Ahora en Solaris 11, se debe realizar los siguientes pasos:

Con este comando listo las propiedades
# svccfg -s network/dns/client listprop config
config                      application
config/value_authorization astring     solaris.smf.value.name-service.dns.client

Compruebo si puedo llegar al equipo "desarrollo"
ping desarrollo
ping: unknown host desarrollo

Ahora seteo el nombre del dominio  (respetar los espacios en blanco)
# svccfg -s network/dns/client setprop config/domain = astring: midominio.com.ar
# svccfg -s network/dns/client listprop config
config                      application
config/value_authorization astring     solaris.smf.value.name-service.dns.client
config/domain              astring     midominio.com.ar
Agrego las ip de los nameserver 
# svccfg -s network/dns/client setprop config/nameserver = net_address: "(10.66.10.16 10.10.66.132)"
# svccfg -s network/dns/client listprop config
config                      application
config/value_authorization astring     solaris.smf.value.name-service.dns.client
config/domain              astring     midominio.com.ar
config/nameserver          net_address 10.66.10.16 10.10.66.132
#
Agrego el orden de resolucion como  lo hacia en el nsswitch.conf
# svccfg -s name-service/switch setprop config/ipnodes = astring: '("files dns")'
# svccfg -s name-service/switch setprop config/host = astring: '("files dns")'
# svccfg -s network/dns/client listprop config
config                      application
config/value_authorization astring     solaris.smf.value.name-service.dns.client
config/domain              astring     midominio.com.ar
config/nameserver          net_address 10.66.10.16 10.10.66.132
#
# svcadm enable dns/client
# svcs -a|grep dns
disabled       Jun_25   svc:/network/dns/multicast:default
disabled       Jun_25   svc:/network/dns/server:default
online         Jun_25   svc:/network/dns/client:default
# nscfg export svc:/network/dns/client:default
#
# svcadm refresh name-service/switch
Chequeo como quedo armado el nsswitch.con y verifico si ahora llego al equipo "desarrollo"
# cat /etc/nsswitch.conf
# ping desarrollo
desarrollo is alive

Creacion de Zonas en Solaris 11 e Instalacion del motor Oracle

$
0
0
Como primer paso voy a crear un POOL llamado TEST, con un disco de 54gb, donde alojare mis zonas.
root@psunp006:~# zpool create TEST c0t60050768018285D270000000000004CBd0s0
root@psunp006:~# zfs create TEST/zona3
root@psunp006:~# zfs set mountpoint=/export/zona3 TEST/zona3

root@psunp006:~# zfs list -r
NAME                                       USED  AVAIL  REFER  MOUNTPOINT
TEST                                       180K  58.6G    31K  /TEST
TEST/zona3                                  31K  58.6G    31K  /export/zona3

root@psunp006:~# chmod 700 /export/zona3

Comienzo la configuracion basica de la zona, si quiero usar la misma placa de la zona global
debo usar la opcion ip-type=shared

root@psunp006:~# zonecfg -z zona3
Use 'create' to begin configuring a new zone.
zonecfg:zona3> create -b
zonecfg:zona3> set zonepath=/export/zona3
zonecfg:zona3> set autoboot=true
zonecfg:zona3> add net
zonecfg:zona3:net> set address=10.67.100.123/24
zonecfg:zona3:net> set physical=net2
zonecfg:zona3:net> end
zonecfg:zona3> set ip-type=shared
zonecfg:zona3> verify
zonecfg:zona3> commit
zonecfg:zona3> exit

------
root@psunp006:~# zoneadm list -cv
  ID NAME             STATUS      PATH                         BRAND      IP
   0 global           running     /                            solaris    shared
   - zona3            configured  /export/zona3                solaris    shared
root@psunp006:~# zoneadm -z zona3 install
Progress being logged to /var/log/zones/zoneadm.20150713T140435Z.zona3.install
       Image: Preparing at /export/zona3/root.

 Install Log: /system/volatile/install.7979/install_log
 AI Manifest: /tmp/manifest.xml.gYa4Jp
  SC Profile: /usr/share/auto_install/sc_profiles/enable_sci.xml
    Zonename: zona3
Installation: Starting ...

        Creating IPS image
Startup linked: 1/1 done
        Installing packages from:
            solaris
                origin:  http://10.77.100.212/
DOWNLOAD                                PKGS         FILES    XFER (MB)   SPEED
Completed                            282/282   53172/53172  372.0/372.0  5.2M/s

PHASE                                          ITEMS
Installing new actions                   70790/70790
Updating package state database                 Done
Updating package cache                           0/0
Updating image state                            Done
Creating fast lookup database                   Done
Updating package cache                           1/1
Installation: Succeeded

        Note: Man pages can be obtained by installing pkg:/system/manual
 done.
        Done: Installation completed in 240.491 seconds.
  Next Steps: Boot the zone, then log into the zone console (zlogin -C)
              to complete the configuration process.
Log saved in non-global zone as 
/export/zona3/root/var/log/zones/zoneadm.20150713T140435Z.zona3.install
root@psunp006:~#

Perfecto, ya quedo instalada la zona con Solaris 11, y ahora tal cual lo indica ellog de instalacion, queda
bootear la zona y loguearse a la consola de la zona con zlogin -C zona3

root@psunp006:~# zoneadm list -cv
  ID NAME             STATUS      PATH                         BRAND      IP
   0 global           running     /                            solaris    shared
   - zona3            installed   /export/zona3                solaris    shared
root@psunp006:~#

Ahora voy a crear un pool zfs llamado ORACLE , donde alojare en el los fs u00  y u01 para la bd.

root@psunp006:~# zpool create ORACLE c0t60050768018285D270000000000002E2d0s0
root@psunp006:~# zpool status ORACLE
  pool: ORACLE
 state: ONLINE
  scan: none requested
config:

        NAME                                       STATE     READ WRITE CKSUM
        ORACLE                                     ONLINE       0     0     0
          c0t60050768018285D270000000000002E2d0s0  ONLINE       0     0     0

errors: No known data errors
root@psunp006:~#
root@psunp006:~# zfs create ORACLE/u00
root@psunp006:~# zfs create ORACLE/u01
root@psunp006:~#zonecfg -z zona3
zonecfg:zona3> add dataset
zonecfg:zona3:dataset> set name=ORACLE/u00
zonecfg:zona3:dataset> set name=ORACLE/u01
zonecfg:zona3:dataset> end
zonecfg:zona3> verify
zonecfg:zona3> commit
zonecfg:zona3>exit

*** MUY IMPORTANTE, SETEAR EL PARAMETRO LEGACY AL FS QUE LE QUIERO AGREGAR A LA ZONA
root@psunp006:~# zfs set mountpoint=legacy ORACLE/u00
root@psunp006:~# zfs set mountpoint=legacy ORACLE/u01

root@psunp006:~# zonecfg -z zona3
zonecfg:zona3> add fs
zonecfg:zona3:fs> set type=zfs
zonecfg:zona3:fs> set special=/ORACLE/u00
zonecfg:zona3:fs> set dir=/u00
zonecfg:zona3:fs> end
zonecfg:zona3> add fs
zonecfg:zona3:fs> set type=zfs
zonecfg:zona3:fs> set special=ORACLE/u01
zonecfg:zona3:fs> set dir=/u01
zonecfg:zona3:fs> end
zonecfg:zona3> verify
zonecfg:zona3> commit
zonecfg:zona3> exit
root@psunp006:~#

ahora un zlogin a la zona , y a crear el usuario oracle, grupo dba
root@psunp006:~# zlogin zona3
root@orazona:~# df -h
Filesystem             Size   Used  Available Capacity  Mounted on
rpool/ROOT/solaris      54G   680M        53G     2%    /
/dev                     0K     0K         0K     0%    /dev
u00                     54G   2.6G        51G     5%    /u00
u01                     51G    31K        51G     1%    /u01
rpool/ROOT/solaris/var
                        54G    39M        53G     1%    /var
---- corte la salida, la intencion es mostrar como monto los fs /u00 y /u01 dentro de la zona

root@orazona:~# groupadd -g 100 dba
root@orazona:~# groupadd -g 101 oinstall
root@orazona:~# useradd -u 1000 -g 100 -m -d /export/home/oracle -s /usr/bin/bash oracle
Agregue la siguiente linea al /etc/project
user.oracle:100::oracle::project.max-shm-memory=(priv,214748364800,deny)

Instalando la base Oracle, nos dio el siguiente error
>>> Ignoring required pre-requisite failures. Continuing...
Preparing to launch Oracle Universal Installer from /tmp/OraInstall2015-07-13_12-24-41PM.
Please wait ...oracle@orazona:/u00/database$ Exception in thread "main" java.lang.UnsatisfiedLinkError: /tmp/OraInstall2015-07-13_12-24-41PM/jdk/jre/lib/sparcv9/motif21/libmawt.so: ld.so.1: java: fatal: libXm.so.4: open failed: No such file or directory
Preparing to launch Oracle Universal Installer from /tmp/OraInstall2015-07-13_12-24-41PM.
Please wait ...oracle@orazona:/u00/database$ Exception in thread "main"
java.lang.UnsatisfiedLinkError: /tmp/OraInstall2015-07-13_12-24-41PM/jdk/jre/lib/sparcv9/motif21/libmawt.so: ld.so.1: java: fatal: libXm.so.4:
open failed: No such file or directory

La solucion a ese error es instalar las librerias de motif

lo ejecute desde la zona global
root@psunp006:~# pkg install pkg://solaris/library/motif
           Packages to install:  2
       Create boot environment: No
Create backup boot environment: No
Planning linked: 0/2 done; 1 working: zone:zona3
Planning linked: 1/2 done; 1 working: zone:zona1
Planning linked: 2/2 done
DOWNLOAD                                PKGS         FILES    XFER (MB)   SPEED
Completed                                2/2       742/742      5.0/5.0  1.3M/s

Downloading linked: 0/2 done; 1 working: zone:zona3
Downloading linked: 1/2 done; 1 working: zone:zona1
Downloading linked: 2/2 done
PHASE                                          ITEMS
Installing new actions                       841/841
Updating package state database                 Done
Updating package cache                           0/0
Updating image state                            Done
Creating fast lookup database                   Done
Executing linked: 0/2 done; 1 working: zone:zona3
Executing linked: 1/2 done; 1 working: zone:zona1
Executing linked: 2/2 done
Updating package cache                           1/1
root@psunp006:~#

La instalacion siguio fallando por falta de algunos paquetes, que instale desde la zona global

root@psunp006:~#
root@psunp006:~# pkg install SUNWfont-xorg-core
           Packages to install:  1
            Services to change:  1
       Create boot environment: No
Create backup boot environment: No
Planning linked: 0/2 done; 1 working: zone:zona3
Planning linked: 1/2 done; 1 working: zone:zona1
Planning linked: 2/2 done
DOWNLOAD                                PKGS         FILES    XFER (MB)   SPEED
Completed                                1/1       634/634    10.7/10.7  3.6M/s

Downloading linked: 0/2 done; 1 working: zone:zona3
Downloading linked: 1/2 done; 1 working: zone:zona1
Downloading linked: 2/2 done
PHASE                                          ITEMS
Installing new actions                       665/665
Updating package state database                 Done
Updating package cache                           0/0
Updating image state                            Done
Creating fast lookup database                   Done
Executing linked: 0/2 done; 1 working: zone:zona3
Executing linked: 1/2 done; 1 working: zone:zona1
Executing linked: 2/2 done
Updating package cache                           1/1
root@psunp006:~#
root@psunp006:~# pkg install SUNWfont-xorg-iso8859-1
           Packages to install:  1
            Services to change:  1
       Create boot environment: No
Create backup boot environment: No
Planning linked: 0/2 done; 1 working: zone:zona3
Planning linked: 1/2 done; 1 working: zone:zona1
Planning linked: 2/2 done
DOWNLOAD                                PKGS         FILES    XFER (MB)   SPEED
Completed                                1/1       417/417      2.0/2.0  974k/s

Downloading linked: 0/2 done; 1 working: zone:zona3
Downloading linked: 1/2 done; 1 working: zone:zona1
Downloading linked: 2/2 done
PHASE                                          ITEMS
Installing new actions                       442/442
Updating package state database                 Done
Updating package cache                           0/0
Updating image state                            Done
Creating fast lookup database                   Done
Executing linked: 0/2 done; 1 working: zone:zona3
Executing linked: 1/2 done; 1 working: zone:zona1
Executing linked: 2/2 done
Updating package cache                           1/1
root@psunp006:~#
root@psunp006:~# pkg install SUNWxorg-client-programs
           Packages to install: 44
            Services to change:  4
       Create boot environment: No
Create backup boot environment: No
Planning linked: 0/2 done; 1 working: zone:zona3
Planning linked: 1/2 done; 1 working: zone:zona1
Planning linked: 2/2 done
DOWNLOAD                                PKGS         FILES    XFER (MB)   SPEED
Completed                              44/44       780/780      7.8/7.8  1.4M/s

Downloading linked: 0/2 done; 1 working: zone:zona3
Downloading linked: 1/2 done; 1 working: zone:zona1
Downloading linked: 2/2 done
PHASE                                          ITEMS
Installing new actions                     1991/1991
Updating package state database                 Done
Updating package cache                           0/0
Updating image state                            Done
Creating fast lookup database                   Done
Executing linked: 0/2 done; 1 working: zone:zona3
Executing linked: 1/2 done; 1 working: zone:zona1
Executing linked: 2/2 done
Updating package cache                           1/1
root@psunp006:~#

La instalacion continuo hasta que en el paso 11 de la misma, mostro el sig error ( faltaba el make, ver foto )


La solucion fue :
loguearme en la zona ( no desde la global) y ejecutar el pkg correspondiente

root@orazona:~# pkg install make
           Packages to install:  1
       Create boot environment: No
Create backup boot environment: No
DOWNLOAD                                PKGS         FILES    XFER (MB)   SPEED
Completed                                1/1         10/10      0.2/0.2  2.3M/s

PHASE                                          ITEMS
Installing new actions                         20/20
Updating package state database                 Done
Updating package cache                           0/0
Updating image state                            Done
Creating fast lookup database                   Done
Updating package cache                           1/1
root@orazona:~#



Ya en su paso final, arrojo un error comun en este entorno de Solaris 11, debido a que
 la instalacion de la Base de datos, en la fase de relinkeo, utiliza un paquete developer/assembler
 y no esta instalado por default, pero viene en los paquetes a instalar de S.O.


INFO: (if [ "assemble" = "assemble" ] ; then \
  /u00/app/oracle/product/11.2.0/dbhome_1/bin/gennttab > ntcontab.s ;\
  /usr/ccs/bin/as -P -m64 -o ntcontab.o ntcontab.s ;\
  rm -f /u00/app/oracle/product/11.2.0/dbhome_1/lib/ntcontab.o ;\
  mv ntcontab.o /u00/app/oracle/product/11.2.0/dbhome_1/lib/ ;\
          /usr/ccs/bin/ar rv /u00/app/oracle/product/11.2.0/dbhome_1/lib/libn11.a /u00/app/oracle/product/11.2.0/dbhome_1/lib/ntcontab.o ; fi)

INFO: sh[2]: /usr/ccs/bin/as: not found [No such file or directory]

La solucion es loguearse en la zona y ejecutar :

root@orazona:~# pkg install developer/assembler
           Packages to install:  1
       Create boot environment: No
Create backup boot environment: No
DOWNLOAD                                PKGS         FILES    XFER (MB)   SPEED
Completed                                1/1           5/5      0.2/0.2  1.9M/s

PHASE                                          ITEMS
Installing new actions                         11/11
Updating package state database                 Done
Updating package cache                           0/0
Updating image state                            Done
Creating fast lookup database                   Done
Updating package cache                           1/1
root@orazona:~#

Listo, ya esta instalado Oracle 11g .



Agradecimiento: A Leandro Zungri ( dba Oracle ), que realizo la instalacion del motor de Oracle y  la configuracion de la instancia creada para este documento

Crear un Servidor JumpStart

$
0
0
Para crear un servidor JumpStart ( como para hacer un booteo por red boot -net -s )

Crear archivo de configuracion de tftp (en /var/tmp p.e.) con la siguiente linea
tftp dgram udp6 wait root /usr/sbin/in.tftpd in.tftpd -s /tftpboot
inetconv -i /var/tmp/tftpd.conf

Reiniciar o verificar que este arriba el tftp
svcs -a |grep tftp

### Probamos desde una ip del mismo segmento poder hacer un put y un get con el comando tftp

### Creacion del server de instalacion.
mkdir /export/install/sol10u9_sparc
### Voy al cdrom o en este caso a donde monte la iso con lofiadm
cd /mnt/Solaris_10/Tools/
./setup_install_server /export/install/sol10u9_sparc/
Verifying target directory...
Calculating the required disk space for the Solaris_10 product
Calculating space required for the installation boot image
Copying the CD image to disk...
Copying Install Boot Image hierarchy...
Copying /boot netboot hierarchy...
Install Server setup complete

share -F nfs -o ro,anon=0 -d "install server directory" /export/install/sol10u9_sparc
### Lo agrego al /etc/dfs/dfstab

######## PARA AGREGAR CLIENTES UNO A UNO
### Agregar al /etc/ethers con el formato mac tabulacion hostname
### Agregar al /etc/hosts con el formato ip tabulacion hostname
cd /export/install/sol10u9_sparc/Solaris_10/Tools
./add_install_client sunp002 sun4u


Documento realizado por Nicolas Morono

Configurar JET para instalacion desatendida

$
0
0
Todo este procedimiento fue realizado con los siguientes elementos:
Notebook HP modelo HP430 con sistema operativo linux CentOS 6, dentro de la misma, le instale Oracle Virtual Box,
con sistema operativo Solaris x86 release 09/10
#configurar JET para instalacion desatendida

En el linux, en el directorio /usr/scripts/ tengo las imagenes .iso del dvd de solaris 10 y del dvd del EIS
Dentro del Oracle Virtual Box, hay una opcion que se llama "shared folders", ahi le digo que fs o directorio quiero compartir a en este caso mi solaris
***Aclaracion importante: cuando creo en el VirtualBox el Solaris, debo hacerlo con la opcion de red "Bridget " para que funcione cuando lo conecte al server que quiero instalar ***
Cuando levanta el solaris, monta automaticamente los fs que comparti desde el Virtual Box anteriormente
Aca va un ejemplo de como montamos la imagen .iso del dvd del EIS
# lofiadm -a /mnt/sf_ISOs/eis-diciembre2011-one.iso
/dev/lofi/1
# mkdir /eis
# mount -o ro -F hsfs /dev/lofi/1 /eis
# cd /eis
# ls -ltra
dr-xr-xr-x 7 root root 2048 Jul 21 2010 sun
-r--r--r-- 1 root root 2520 Dec 13 11:48 README-14DEC11
-r--r--r-- 1 root root 90353 Dec 13 11:56 .eis-dvd1.md5
# cd sun
# cd progs/JET/
# ls -tlra
-r--r--r-- 1 root root 417542 Dec 8 21:05 JET-EIS.pkg.bz2
# cp -p JET-EIS.pkg.bz2 /usr/scripts/
# cd /usr/scripts/
# bzip2 -d JET-EIS.pkg.bz2
# pkgadd -d ./JET-EIS.pkg
The following packages are available:
1 JetEISCD EIS CD JET module
(sparc,i386) 4.3
2 JetEXPLO jet explo product
(sparc,i386) 3.1.22
3 JetFLASH JET flash product
(sparc,i386) 3.1.11
4 JetISO JET ISO product
(sparc) 1.0.2
5 JetJASS JASS product
(sparc,i386) 3.0.17
6 JetLDOM JET LDOM product
(sparc,i386) 2.5
7 JetRBAC JET RBAC product
(sparc) 1.1.5
8 JetSAN JET san product
(sparc,i386) 3.1.14
9 JetSBD Secure By Default product
(sparc,i386) 1.0.4
10 JetSC3 JET sc3 Product
(sparc,i386) 3.3.40
11 JetSDS JET sds product
(sparc,i386) 3.5
12 JetVFS JET vfs product
(sparc) 1.0.3
13 JetVTS JET VTS product
(sparc,i386) 3.0.15
14 JetVXFS VxFS product
(sparc) 3.0.7
15 JetVXVM JET VXVM product
(sparc) 3.2.8
16 JetVXVM4 JET VXVM4 product
(sparc) 1.2
17 JetWanBoot JET WanBoot support
(sparc) 1.3.2
18 JetZFS JET zfs product
(sparc,i386) 1.2
19 JetZONES JET Zones module
(sparc,i386) 1.3.17
20 SUNWjet Sun JumpStart Enterprise Toolkit
(sparc,i386) 4.9.2
21 SUNWjetd JET Documentation
(sparc) 4.5

Select package(s) you wish to process (or 'all' to process
all packages). (default: all) [?,??,q]: all
Processing package instance from
The selected base directory must exist before
installation is attempted.
Do you want this directory created now [y,n,?,q] y
Using as the package base directory.
## Processing package information.
## Processing system information.
## Verifying disk space requirements.
## Checking for conflicts with packages already installed.
## Checking for setuid/setgid programs.
This package contains scripts which will be executed with super-user
permission during the process of installing this package.
Do you want to continue with the installation of [y,n,?] y
Installing Sun JumpStart Enterprise Toolkit as

## Executing preinstall script.
Adding 'jet' group to /etc/group
## Installing part 1 of 1.
/opt/SUNWjet/Products/base_config/solaris/base_config.conf
/opt/SUNWjet/Products/base_config/solaris/boot_image_patches
.........
Corto la salida porque es larguisima
............
Processing package instance from

JET Documentation(sparc) 4.5
Installation of was successful.
Installing JET sds product as
Installing JET vfs product as
Installing JET VXVM product as
Installation of was successful.
Installing JET VXVM4 product as
Installation of was successful.
Installing VxFS product as
Installation of was successful.
Installing EIS CD JET module as
Installation of was successful.
Installing JET VTS product as
Installation of was successful.
Installing jet explo product as
Installation of was successful.
Installing JET san product as
Installation of was successful.
Installing JET sc3 Product as
Installation of was successful.
Installation of was successful.
Installing JET Zones module as
Installation of was successful.
Installing JASS product as
Installation of was successful.
Installing Secure By Default product as
Installation of was successful.
Installing JET RBAC product as
Installation of was successful.
Installing JET WanBoot support as
Installation of was successful.
Installing JET LDOM product as
Installation of was successful.
Installing JET ISO product as
Installation of was successful.
Installing JET zfs product as
####### Aca yo habia sacado los shares viejos para despues no hacerme quilombo. La idea es que el share del /opt/SUNWjet te lo agrega solo automaticamente.
# vi /etc/dfs/dfstab
# share -F nfs -o rw=engineering -d "home dirs" /export/home2
share -F nfs -o ro,anon=0 /usr/scripts/Solaris_10
share -F nfs -o ro,anon=0 -d "JET Framework" /opt/SUNWjet
# shareall
# share
- /opt/SUNWjet ro,anon=0 "JET Framework"
# cd /usr/scripts
# ls -tlra
-r--r--r-- 1 root root 2143232 Dec 8 21:05 JET-EIS.pkg
drwxr-xr-x 6 root root 512 Mar 6 15:47 Solaris_10
###### Aca borre la vieja instalacion del dvd de solaris para no mezclarme con lo nuevo que iba a instalar.
# rm -r Solaris_10/
# mkdir /sun-dvd
# pwd
/usr/scripts
# lofiadm -a /mnt/sf_ISOs/sol10SparcNov2011.iso
/dev/lofi/2
# mount -o ro -F hsfs /dev/lofi/2 /sun-dvd/
###### Aca se modifican los tres directorios pkgs, patches y media (si los queremos cambiar de la ubicacion default) y la clave que orignalmente es newroot.
Editar el sig archivo y configurar donde va a buscar los archivos a instalar

# vi /opt/SUNWjet/etc/jumpstart.conf
JS_Default_Root_PW=boajrOmU7GFmY
JS_BUILD_DIR=/var/opt/sun/jet
JS_PKG_DIR=/usr/scripts/jumpstart/pkgs
JS_PATCH_DIR=/usr/scripts/jumpstart/patches
JS_CFG_SVR=
JS_SOLARIS_DIR=/usr/scripts/jumpstart/media
JS_DHCP_VENDOR="SUNW.Ultra-5_10 SUNW.Ultra-30"
JS_CLIENT_MANAGEMENT="dhcp bootp"
JS_CLIENT_MANAGEMENT="bootp"
JS_CLIENT_BOOT="local"

# /opt/SUNWjet/bin/copy_solaris_media -n sol10u10_sparc /sun-dvd/
Copying Solaris image....
Verifying target directory...
Calculating the required disk space for the Solaris_10 product
| /
Install Server setup complete
Added Solaris image sol10u10_sparc at the following location:
Media: /usr/scripts/jumpstart/media/Solaris_10
removing directory /usr/scripts/jumpstart/media/3465

# cd /usr/scripts
# cp -p /eis/sun/progs/explorer/Explorer_6.9.tar.gz .
# gzip -d Explorer_6.9.tar.gz
# tar xvf Explorer_6.9.tar
# /opt/SUNWjet/bin/copy_product_media explo 6 /eis/sun/progs/explorer/ sparc
Transferring package instance
Transferring package instance
Packges copied.


####### Este paso tarda como 3 horas... se ve que los discos compartido con virtual box van muy lento.
# /opt/SUNWjet/bin/copy_eiscd /eis/
Scanning for components in /eis/
Copying DVD

/usr/scripts/jumpstart/patches/eiscd/14DEC11 already exists...
Copying from EIS-DVD image into /usr/scripts/jumpstart/patches/eiscd/14DEC11....
Copying contents of directory sun...
Completed... Please ensure that following line exists in /etc/dfs/dfstab

share -F nfs -o ro,anon=0 /usr/scripts/jumpstart/patches/eiscd/14DEC11
Installtaion of DVD (1) finished

###### Agrego la linea que me pasa el copy_eiscd
# vi /etc/dfs/df stab
share -F nfs -o ro,anon=0 -d "JET Framework" /opt/SUNWjet
share -F nfs -o ro,anon=0 /usr/scripts/jumpstart/patches/eiscd/14DEC11
# shareall
###### Cambiamos las cosas basicas en estos 3 archivos de configuracion en el primero es importante modificar base_config_client_allocation y agregarle bootp
###### El resto son detalles para despues cuando el make_template no tener que tocar a mano mucho el archivo que me devuelve.
###### Yo en el primero modifique el timezone el system_locale, profile_root, profile_swap, dns_domain, dns_nameservers, ntp_servers.
###### En el archvio eiscd modifique solo eiscd_product_version le puse latest
###### En el archivo explo.conf el numero de version en 6. explo_product_version=6
# vi /opt/SUNWjet/Products/base_config/solaris/base_config.conf
# vi /opt/SUNWjet/Products/eiscd/eiscd.conf
# vi /opt/SUNWjet/Products/explo/explo.conf

# make_template -E 0:3:ba:4:96:d9 cabarulo base_config sds sbd explo eiscd

Adding product configuration information for
+ base_config
+ sds
+ sbd
+ explo
+ eiscd
Updating base_config template specifics
Client template created in /opt/SUNWjet/Templates
# cd /opt/SUNWjet/Templates
# ls -tlra
total 324
drwxr-xr-x 11 root root 512 Mar 8 14:23 ..
-rw-rw-r-- 1 root jet 104070 Mar 8 14:23 sample.template
-rw-rw-r-- 1 root jet 48389 Mar 8 16:21 cabarulo
drwxrwsr-x 2 root jet 512 Mar 8 16:21 .
################################3
Editar el sig archivo ( es el nombre del host que quiero instalar ) y configurar lo que quiero que se instale automaticamente, por ejemplo, tamano de los fs
a crear, parches, si quiero mirror.

base_config_ClientEther=0:3:ba:4:96:d9 ( aca va la mac address del Servidor que quiero instalar, una de las formas de verlo es con el equipo en OBP, tipear
banner )
base_config_ClientOS=sol10u10_sparc
base_config_products=" sds sbd explo eiscd"

base_config_sysidcfg_nameservice=NONE
base_config_sysidcfg_network_interface=PRIMARY
base_config_sysidcfg_ip_address=10.11.33.108 ( esta es la ip del equipo que quiero instalar)
base_config_sysidcfg_netmask=255.255.255.0
base_config_sysidcfg_root_password=boajrOmU7GFmY ( si dejamos esto boajrOmU7GFm la passwd de root que le pone es newroot)
base_config_sysidcfg_system_locale=en_US
base_config_sysidcfg_timeserver=localhost
base_config_sysidcfg_timezone=America/Buenos_Aires
base_config_sysidcfg_terminal=vt100
base_config_sysidcfg_security_policy=NONE
base_config_sysidcfg_protocol_ipv6=no
base_config_sysidcfg_default_route=10.11.33.1

base_config_profile_usedisk=rootdisk.
base_config_profile_dontuse=""
base_config_profile_root=30000 ( le deje 30gb al / )
base_config_profile_swap=8192 ( le deje 8gb al swap )
base_config_dns_domain="eldominio.com.ar"
base_config_dns_searchpath=""
base_config_dns_nameservers="10.XX.7.16"
base_config_dns_disableforbuild="yes"
base_config_ntp_servers="10.xx.33.30" ( ip del servidor de NTP )
Parametros de Solaris Disksuite porque quiero mirrorear el equipo
sds_root_mirror=""
sds_use_fmthard="yes"
sds_database_locations="rootdisk.s7:3"
sds_database_partition="s7:32"
sds_root_alias="rootdisk"
sds_root_mirror_devalias_name="rootmirror"

Valores para El Explorer
explo_product_version=6
###### Agrego el fs que me falte.. la idea es que tienen que estar compartidos los tres directorios principales mas el de instalacion (media,patches,pkgs y o
pt/SUNWjet)
share -F nfs -o ro,anon=0 -d "JET Framework" /opt/SUNWjet
share -F nfs -o ro,anon=0 /usr/scripts/jumpstart/patches/eiscd/14DEC11
share -F nfs -o ro,anon=0 /usr/scripts/jumpstart/media/Solaris_10/Solaris_10/Tools/Boot
share -F nfs -o ro,anon=0 /usr/scripts/jumpstart/pkgs

# shareall
# make_client cabarulo
Gathering network information..
Client: 10.11.33.108 (10.11.33.0/255.255.255.0)
Server: 10.11.33.109 (10.11.33.0/255.255.255.0, SunOS)
Solaris: client_prevalidate
Clean up /etc/ethers
Solaris: client_build
Creating sysidcfg
Creating profile
Adding base_config specifics to client configuration
Adding sds specifics to client configuration
Adding sbd specifics to client configuration
SBD: Setting Secure By Default to limited_net
Adding eiscd specifics to client configuration
Solaris: Configuring JumpStart boot for cabarulo
Solaris: Configure bootparams build
Starting SMF services for JumpStart
cleaning up preexisting install client "cabarulo"
removing cabarulo from bootparams
removing /etc/bootparams, since it is empty
removing /tftpboot/inetboot.SUN4U.Solaris_10-1
updating /etc/bootparams
copying boot file to /tftpboot/inetboot.SUN4U.Solaris_10-1
Force bootparams terminal type
-Restart bootparamd
Running '/opt/SUNWjet/bin/check_client cabarulo'
Client: 10.11.33.108 (10.11.33.0/255.255.255.0)
Server: 10.11.33.109 (10.11.33.0/255.255.255.0, SunOS)
Checking product base_config/solaris
BASE_CONFIG/SOLARIS: JS_PKG_DIR is on a remote server. Not checking
BASE_CONFIG/SOLARIS: JS_PATCH_DIR is on a remote server. Not checking
Checking product sds
Product sbd does not support 'check_client'
Checking product explo
WARNING: EXPLO: Unable to locate package SUNWexplo
WARNING: EXPLO: Unable to locate package SUNWexplu
Checking product eiscd
EISCD: Using latest EISCD version -> 14DEC11
--------------------------------------------------------------
Check of client cabarulo

#######
En mi maquina virtual de Solaris x86, (luego de conectar los cables como muestro mas abajo en la foto ) hice
ifconfig e1000g0 10.11.33.109 netmask 255.255.255.0 up

svcadm restart svc:/network/rarp:default

####
Desde mi linux, hice:
minicom para conectarme a la consola del servidor v240 donde quiero hacer la instalacion
Una vez conectado y en OBP hice
boot net - install











Esta instalacion fue realizada en conjunto con mi compañero de equipo,Nicolas Morono

Discos IBm en multipath

$
0
0
No me reconocia los discos Ibm en Multipath.
La Solucion es que el vendor id tiene que tener 8 caracteres, y en estos ibm hay que agregarle 5 espacion en blanco, de esta menra el /kernel/drv/scsi_vhci.conf quedaria asi "IBM_____2105800" donde _ es un espacio en blanco.

Instalacion de Solaris 11 x86 en un Blade IBM

$
0
0
Esta Instalacion fue realizada en el siguiente Hardware
Product Name LS20 Blade Server, 2 AMD Opteron dual-core sockets, 2x GB Enet
Description LS20 (Type 8850)
Machine Type/Model 885065U
El release instalado fue Oracle Solaris 11 11/11 X86, Assembled 18 October 2011

Cantidad de memoria del Servidor
Memory size: 2048 Megabytes

Esta es la salida del prtdiag -v
System Configuration: IBM IBM eServer BladeCenter LS20 -[885065U]-
BIOS Configuration: IBM -[BKE121AUS-1.08]- 01/12/2006
BMC Configuration: IPMI 1.5 (KCS: Keyboard Controller Style)

==== Processor Sockets ====================================

Version Location Tag
-------------------------------- --------------------------
AMD Opteron CPU 1
AMD Opteron CPU 2
AMD Opteron CPU 3
AMD Opteron CPU 4

==== Memory Device Sockets ================================

Type Status Set Device Locator Bank Locator
----------- ------ --- ------------------- ----------------
DDR in use 1 DIMM1 Slot 1
DDR in use 1 DIMM2 Slot 2
DDR in use 2 DIMM3 Slot 3
DDR in use 2 DIMM4 Slot 4

==== On-Board Devices =====================================
ATI Radeon
Ethernet 1 BroadCom 5704S Ethernet Controller
Ethernet 2 BroadCom 5704S Ethernet Controller
LSI Logic 1020/1030 Ultra320 SCSI Adapter

A continuacion, el paso a paso en fotos

En la Figura 1, se muestra la primer pantalla de instalacion donde pregunta el
Figura 1

En la Figura 2, se muestra el menu de instalacion, varia respecto a las versiones anteriores

Figura 2

En la Figura 3, muestra los discos disponibles y donde se instalara Solaris.
Figura 3

En la Figura 4, muestra el Nuevo menu, donde pregunta el nombre del host, y que tipo de configuracion vamos a realizar ( se cambia con )
Figura 4



En la Figura 5, muestra ( esto tambien es Nuevo ) las placas de red a configurar, notese que la bge0 cambio por net0, que es como la veremos de ahora en mas cuando hagamos un ifconfig -a
Figura 5



En la Figura 6, se ve como le tenemos que cargar los datos a la red, en este menu tambien nos movemos con la tecla TAB
Figura 6



En la Figura 7, nos pide la configuracion del DNS
Figura 7

En la Figura 8, al igual que en versiones anteriores, nos pregunta si queremos NIS, LDAP o Ninguno
Figura 8



En la Figura 9, el TIMEZONE, en mi caso elijo America, Buenos Aires, Argentina
Figura 9

En la Figura 10, fecha y hora....vamos vamos que terminamos
Figura 10



En la Figura 11, Atencion, esto es Nuevo y muy distinto, pide password de root, tiene que ser con al menos un caracter especial, y un usuario comun, con la misma caracteristica que root en cuanto al password, es decir, con al menos un caracter especial.
Con este usuario nos vamos a loguear,y luego recien nos podemos sustituir como root, porque Root ahora es un ROL.
Figura 11


Bueno, ya lo instale, notese como cambio el ifconfig -a
root@nuve:~# ifconfig -a
lo0: flags=2001000849 mtu 8232 index 1
inet 127.0.0.1 netmask ff000000
net0: flags=1000843 mtu 1500 index 2
inet 10.19.33.100 netmask ffffff00 broadcast 10.19.33.255 ether 0:14:5e:86:20:90
lo0: flags=2002000849 mtu 8252 index 1
inet6 ::1/128
net0: flags=20002004841 mtu 1500 index 2
inet6 fe80::214:5eff:fe86:2090/10  ether 0:14:5e:86:20:90
root@nuve:~#

Otra cosa, es que el querido UFS no te lo deja elegir en el proceso de instalacion, te pone de prepo el ZFS
mira la salida del df -h
root@nuve:~# df -h
Filesystem                   Size     Used    Available    Capacity        Mounted on
rpool/ROOT/solaris     67G     1.4G         63G           3%              /
/devices 0K 0K 0K 0% /devices
/dev 0K 0K 0K 0% /dev
ctfs 0K 0K 0K 0% /system/contract
proc 0K 0K 0K 0% /proc
mnttab 0K 0K 0K 0% /etc/mnttab
swap                            1.9G    1.4M       1.9G           1%           /system/volatile
objfs 0K 0K 0K 0% /system/object
sharefs 0K 0K 0K 0% /etc/dfs/sharetab
/usr/lib/libc/libc_hwcap2.so.1     65G 1.4G 63G 3% /lib/libc.so.1
fd 0K 0K 0K 0%                /dev/fd
rpool/ROOT/solaris/var       67G    215M      63G        1%      /var
swap                                    1.9G      44K     1.9G        1%      /tmp
rpool/export                          67G      32K      63G        1%      /export
rpool/export/home                67G       32K      63G       1%      /export/home
rpool/export/home/diego      67G       32K      63G        1%     /export/home/diego
rpool                                     67G       39K     63G        1%     /rpool
/export/home/diego               63G       32K     63G        1%     /home/diego
root@nuve:~#

Otra cosita, el dladm show-dev NO VA MAS,( en realidad el dladm toma protagonismo es esta version de Solaris) el que vamos a usar es ....
root@nuve:~# dladm show-phys
LINK MEDIA STATE SPEED DUPLEX DEVICE
net1 Ethernet unknown 0 unknown bge1
net0 Ethernet up 1000 full bge0
root@nuve:~#












Reemplazar modulos de cpu y memorias de un m5000

$
0
0
La finalidad de este documento es sacar los modulos de cpu y memoria de un servidor M5000.

Para esto, partimos de la base que el equipo esta en un rack, caso contrario salteamos los pasos 2 y 3
1) Primero apagar el equipo ( shutdown -g0 -i0 ) y luego desenchufar los cables de corriente.

2) Para desarmar la tapa superior o Top Cover del m5000, primero se debe sacar el rack's antitilt, estas son las 2 patas naranjas como se ve en la foto, que aguantan y balancean el peso del equipo.

3) Chequear los cables que tenemos conectados en la parte de atras del equipo ( red, fibra,power) y luego
 Desplazar el m5000 hacia adelante

4) En la tapa superior, hay 2 tornillos ( Phillips) que debemos aflojar.
Hecho esto, se debe empujar la tapa hacia atras y luego levantar



5) Aca nos encontramos con los modulos  de cpu y memoria. Para ambos es el mismo procedimiento.
Para sacar el modulo de cpu tiene 2  trabas (levers ) que deben empujar hacia arriba simultaneamente, esto destraba la caja , y luego tirar hacia arriba.



Una vez reemplazados los modulos. los pasos son :
a) Conectar la corriente al equipo
b) Conectarme a la xscf
c) chequear con showhardconf si tomo los modulos de cpu y o memoria reemplazados.
d)Encender el dominio con poweron -d 0
e) conectarme a la consola y levantar el sistema operativo
console -d 0
boot
f) Una vez dentro del sistema operativo, chequeamos con prtdiag -v si el S.O tomo los modulos asignados.


Esta tarea fue realizada con mi colega Nicolas Morono 

Fin de un equipo con Historia

$
0
0
Hoy 19 de noviembre del 2015, apagamos definitivamente un equipo historico,  y cuando digo historico lo digo mas que nada por un tema personal, ya que para mi el SF6800 tiene historia.
Es o era parte un cluster, de un Sun Cluster 3.0 , con solaris 8 y Veritas 3.x
System Controller, Master Console, IO Board, System Board  ( que era eso ?  )
conectado cada dominio a un D240 ( y eso ? )

Fue un equipo con tecnologia de avanzada para la epoca, era lo ultimo  que habia salido, y eramos pioneros en aplicarla.
Tenia discos EMC conectado por direct attach.
Hacia copias de volumenes , con BCV ( Business Continuance Volume ) .
Hasta aca viene todo muy lindo pero ....
 Mi compañero estaba dedicado full time junto con gente de Sun y Emc  al armado de este proyecto y yo no habia participado hasta el momento en nada de esto. Faltando 2 o 3 dias para sacar el equipo a produccion, mi compañero se anoto en una maraton de Carrefour, y cuando estaba corriendo se infarto.
Nooooo, como que se infarto ? Si ( por suerte se recupero y ahora esta muy bien).
Cuando me dieron la noticia, fue doblemente mala, ya que no sabia detalles de lo sucedido y la otra era que tenia que aprender toda esa tecnologia para el lunes, porque el equipo salia a produccion .
Asi que a leer manuales, pdf's  y para los bcv con ayuda de gente de emc, y Sun salimos adelante.
Hoy 19 de noviembre, luego de 15 años , lo apagamos

Chau, Sun Fire 6800
Hola M5-32




Agregar Discos en Cluster sobre LDOM

$
0
0
Se pidieron 3 discos de 50 gb.
Se uso en el pdom (en ambos lados m5-1 m5-2) el script de /usr/scripts  Agrega.sh pero en definitiva los comandos fueron estos.

m5-2-pdom2
ldm add-vdsdev  /dev/rdsk/c0t6000144000000010602742B9EE6B61F2d0s2 vol41@sun2009-vds0

ldm add-vdsdev  /dev/rdsk/c0t6000144000000010602742B9EE6B61F8d0s2 vol42@sun2009-vds0

ldm add-vdsdev  /dev/rdsk/c0t6000144000000010602742B9EE6B61FEd0s2 vol43@sun2009-vds0

ldm add-vdisk vdisk41  vol41@sun2009-vds0 sun2009-ldm
ldm add-vdisk vdisk42  vol42@sun2009-vds0 sun2009-ldm
ldm add-vdisk vdisk43  vol43@sun2009-vds0 sun2009-ldm

m5-1-pdom2
ldm add-vdsdev  /dev/rdsk/c0t6000144000000010602742B9EE6B61F2d0s2 vol41@sun5002-vds0

ldm add-vdsdev  /dev/rdsk/c0t6000144000000010602742B9EE6B61F8d0s2 vol42@sun5002-vds0

ldm add-vdsdev  /dev/rdsk/c0t6000144000000010602742B9EE6B61FEd0s2 vol43@sun5002-vds0

ldm add-vdisk vdisk41  vol41@sun5002-vds0 sun5002-ldm
ldm add-vdisk vdisk42  vol42@sun5002-vds0 sun5002-ldm
ldm add-vdisk vdisk43  vol43@sun5002-vds0 sun5002-ldm

NOTA: Con esto se asignaron los discos a ambos nodos y sin la opción excl.

Seguimos dentro de los ldoms con la asignación al equipo y al cluster.

psun2009
Se verifican los discos asignados con un format y se los labelea.

En ambos nodos (sun2009,sun5002) , de a un comando por nodo ejecuto
scdidadm -C
scdidadm -r
scgdevs

Confirmo que todos los discos queden ok con el siguiente comando (tardo 10min reloj en dejarlos ok todos)
scdpm -p all:all

En ambos nodos (sun2009,sun5002)
vxdctl enable
vxdisk list

Agrego los discos nuevos al disk group solo en el nodo donde esta activo el dg (sun2009)
vxdiskadm
(opción 1)
Estas son las opciones del vxdiskadm usadas (las elegidas están en negritas, si no dice nada es porque fue la default).
Select disk devices to add: [,all,list,q,?]  disk_40 disk_41 disk_42
Continue operation? [y,n,q,?]  (default: y) y
Which disk group [,none,list,q,?]  (default: none) CPARKdg
Use default disk names for these disks? [y,n,q,?]  (default: y) n
Add disks as spare disks for CPARKdg? [y,n,q,?]  (default: n)
Exclude disks from hot-relocation use? [y,n,q,?]  (default: n)
Add site tag to disks? [y,n,q,?]  (default: n)
Continue with operation? [y,n,q,?]  (default: y) y
Encapsulate these devices? [Y,N,S(elect),q,?]  (default: Y) N
Instead of encapsulating, initialize? [Y,N,S(elect),q,?]  (default: N) Y
Do you want to use the default layout for all disks being initialized? [y,n,q,?]  (default: y)
Enter disk name for disk_40 [,q,?]  (default: CPARKdg01) CPARKdgvmax04
Enter disk name for disk_41 [,q,?]  (default: CPARKdg01) CPARKdgvmax05
Enter disk name for disk_42 [,q,?]  (default: CPARKdg01) CPARKdgvmax06
Add or initialize other disks? [y,n,q,?]  (default: n) n

vxprint -htg CPARKdg

La idea es usar las luns stripeadas crear un volumen y que me queden para crear otras dos luns a futuro. Por lo que el volumen se va a crear de un tercio del total.
Veo el tamaño total del stripe (para hacer la cuenta de cuanto voy a poner por volumen)

vxassist -g CPARKdg maxsize  layout=stripe CPARKdgvmax04 CPARKdgvmax05 CPARKdgvmax06
Maximum volume size: 314349568 (153491Mb)

Creo el volumen
vxassist -g CPARKdg make vol15 51163m layout=stripe CPARKdgvmax04 CPARKdgvmax05 CPARKdgvmax06

Sincroniza los dispositivos recien creados y genera los links en ambos nodos. (tarda algunos minutos en reflejarse)
cldevicegroup sync CPARKdg

newfs /dev/vx/rdsk/CPARKdg/vol15
mkdir /x06
mount /dev/vx/dsk/CPARKdg/vol15 /x06
vi /etc/vfstab
#Agrego la linea que sigue
/dev/vx/dsk/CPARKdg/vol15       /dev/vx/rdsk/CPARKdg/vol15      /x06    ufs     1       no      logging

Ejecuto en el otro nodo (sun5002)
mkdir /x06
vi /etc/vfstab
#Agrego la linea que sigue
/dev/vx/dsk/CPARKdg/vol15       /dev/vx/rdsk/CPARKdg/vol15      /x06    ufs     1       no      logging

Ahora solo falta agregar el fs al cluster y se puede hacer en cualquiera de los dos nodos. ( o pones en modo suspend el paquete o lo haces a lo macho , pero si te equivocas armando el comando se va todo a la m...da)
clrs show -g central-park-rg -p FileSystemMountPoints cpark-hastp-rs
FilesystemMountPoints:                        /x00 /x01 /x02 /x03 /x04 /x05 /archive_POKPKPR1 /archive_POKPKPR1_old /exports_POKPKPR1 /app/parque/batch /interfaz/parque /export/home/x302168 /export/home/x302168/scripts_parque /TSM_Backup_CPARK

Este es el comando para agregar los fs al cluster, es muy importante aclarar, que los filesystems van entre comillas dobles, sin espacios ni antes ni después, y separados por comas para ir a línea siguiente no dejas ningún espacio pones una contrabarra y le das enter.
clrs set -g central-park-rg -p FileSystemMountPoints="/x00,/x01,/x02,/x03,/x04,/x05,/x06,/archive_POKPKPR1,\
/archive_POKPKPR1_old,/exports_POKPKPR1,/app/parque/batch,/interfaz/parque,\
/export/home/x302168,/export/home/x302168/scripts_parque,/TSM_Backup_CPARK" cpark-hastp-rs  

Aclaracion: La opcion excl  cuando se asignan los discos, se utiliza cuando NO se quieren ver los discos desde el PDOM cuando tiramos un format.

Creditos : Documento realizado por mi colega Nicolas Morono  @nicomorono

zfs snapshot remoto para backup de Sistema Operativo

$
0
0
La finalidad es backupear en forma remota a un equipo que montamos por nfs, un backup de sistema operativo, con zfs
#!/usr/bin/ksh -x
## Script de resguardo de Sistema Operativo Solaris
### Monto por NFS
mount 10.xx.33.114:/BACKUPS /mnt
MONTO=$?
UBICA=/mnt/`uname -n`
cd $UBICA
LOGerr="/export/home/backup/LOGS/backup_SO_Zonas_`date +%d_%m_%y.err`"
LOG="/export/home/backup/LOGS/backup_SO_Zonas_`date +%d_%m_%y`"
MAILTO="root tecnico.solaris@gmail.com  "
###Variables agregadas para zfs
RPOOL=rpool

#
### FIN DE ASIGNACION DE VARIABLES ESPECIFICAS
#
if [ "$MONTO" -eq 0 ]
then
        :       echo "# El FS por NFS fue montado OK"
else
        echo "error NO se pudo montar por NFS el ERROR fue $MONTO"
        echo "################################"
        echo "################################"
        exit 1
fi
backup_FS_to_NFS()     {
      echo

        if zpool status $RPOOL
        then
                echo backupZFS
                ### DATOS ZFS
                zpool list $RPOOL > $UBICA/zpool.list.$RPOOL.cfg
                zpool get all $RPOOL > $UBICA/zpool.getall.$RPOOL.cfg
                zfs get -r all $RPOOL > $UBICA/zfs.getall.$RPOOL.cfg
                zpool status $RPOOL > $UBICA/zpool.status.$RPOOL.cfg
                DISK=`zpool status $RPOOL | grep c.d.s. | awk '{ print $1 }'`
                for k in $DISK
                do
                k=`echo $k | sed "s/\/dev\/rdsk\///" `
                prtvtoc /dev/rdsk/$k > $UBICA/prtvtoc.$RPOOL.$k.lst
                done
                ifconfig -a > $UBICA/ifconfig-a.cfg
                zfs snapshot -r ${RPOOL}@archive
                zfs destroy ${RPOOL}/swap@archive
                zfs destroy ${RPOOL}/dump@archive
                date >> $UBICA/backup_LOG.log
                zfs send -Rv ${RPOOL}@archive  | cat > $UBICA/${RPOOL}.zfs
                zfs destroy -r ${RPOOL}@archive
        else
                ###echo ":::: Montando fsssnap"
                #fssnap -F ufs -o backing-store=/snaps/root.backup.dmp /
                echo ":::: Efectuando DUMP de / (`date +%d_%m-%T`)"
                ufsdump 0uf $UBICA/BARRA.DMP /
                echo ":::: BACKUP: FIN backup fs /  (`date +%d_%m-%T`)"
        fi
} 1>>$LOG 2>>$LOGerr
backup_NFS
################################
cp $LOG $UBICA
cp $LOG.err $UBICA
cp $EXPLORER/explorer*gz $UBICA
cd /
umount /mnt
echo $?

### Notificar Resultados via email
cat $LOGerr|mailx -s "Backup `uname -n`" $MAILTO

Restore por ZFS snapshot de un LDOM completo.

$
0
0
Para ver como realize el backup por zfs , mirar este  enlace

Me posiciono en el Physical Domain ( PDOM ) y chequeo el LDOM que quiero recuperar , en este caso es ldom dsun1001-ldm que reside en el rpool_dsun1001 

root@pdom # zpool status rpool_dsun1001
  pool: rpool_dsun1001
 state: ONLINE
  scan: none requested
config:

        NAME                                     STATE     READ WRITE CKSUM
        rpool_dsun1001                           ONLINE       0     0     0
          c0t60050768018107A7900000000000016Bd0  ONLINE       0     0     0

errors: No known data errors
root@pdom #

####despues le di desde el PDOM
zpool destroy rpool_dsun1001

#### Lo cree de vuelta con el mismo disco.  el tamaño del volumen lo puedo sacar del backup en zpool.list.rpool.cfg
zpool create rpool_dsun1001 c0t60050768018107A7900000000000016Bd0
zfs set mountpoint=none rpool_dsun1001
zfs create -V 144g rpool_dsun1001/vol1_dsun1001


###le agrego un cdrom y a reinstalar.( esto es porque ya tenemos hecho un .iso )
ldm add-vdisk cdrom s10-iso@primary-vds0 dsun1001-ldm
ldm start dsun1001-ldm

telnet localhost 5003 ( el 5003 es el puerto del ldom , lo sacas con ldm ls )
### TODOS LOS COMANDOS ACA ABAJO SE EJECUTAN Desde el LDOM ,
boot cdrom -s
#### La red... tengo un ifconfig en el backup siempre que tengo zfs.
ifconfig vnet101000 plumb
ifconfig vnet101000 10.XX.32.77 netmask 255.255.252.0
ifconfig vnet101000 up
route add default 10.XX.32.1

ping 10.xx.33.114 ( chequeo que llegue al servidor en el cual deposito los backups )
mount 10.xx.33.114:/BACKUPS /mnt


#### Restore parado en el LDOM
format  #### todo el tamaño al slice 0 del disco del rpool


zpool create -f -o failmode=continue -R /a -m legacy -o cachefile=/etc/zfs/zpool.cache rpool c0d0s0
cat /mnt/dsun1001-ldm/rpool.zfs | zfs receive -Fdu rpool

zfs list
### el dato siguiente lo saco del backup de zpool.getall.rpool.cfg
zpool set bootfs=rpool/ROOT/s10s_u11wos_24a rpool

installboot -F zfs /usr/platform/`uname -i`/lib/fs/zfs/bootblk /dev/rdsk/c0d0s0
umount /mnt
init 0


boot



Creditos : Documento realizado por mi colega Nicolas Morono  @nicomorono

Nos equivocamos ? teniendo backup...lo arreglamos

$
0
0
Como decia Palito Ortega ...Yo me equivoque, Yo me equivoque, cuidese compadre pa' que no le pase a usted
Por error formatee el disco que contenia el sistema operativo del Ldom ( por suerte mientras no estaba productivo ) asi que si llegara a pasar, tener en cuenta lo siguiente :

###############################################################
###############################################################
### Cuidado, si voy a formatear este disco, tener en cuenta que si los datos que tenia eran con ZFS, lo debo labelear con EFI , si era con ufs lo debere labelear con SMI ( en mi caso como era ZFS lo labelee con EFI )
Si por error lo labeleo con SMI y tenia ZFS, no me dejara hacer ni el zpool destroy, ni nada , es probable que se cuelgue todo el  Physical Domain ( pdom) , y la unica solucion es rebootear el PDOM )
root@pdom # format -e c0t60050768018107A7900000000000016Bd0
selecting c0t60050768018107A7900000000000016Bd0
[disk formatted]
/dev/dsk/c0t60050768018107A7900000000000016Bd0s0 is part of active ZFS pool rpool_dsun1001. Please see zpool(1M).
FORMAT MENU:
        disk       - select a disk
        type       - select (define) a disk type
        partition  - select (define) a partition table
        current    - describe the current disk
        format     - format and analyze the disk
        repair     - repair a defective sector
        label      - write label to the disk
        analyze    - surface analysis
        defect     - defect list management
        backup     - search for backup labels
        verify     - read and display labels
        inquiry    - show disk ID
        scsi       - independent SCSI mode selects
        cache      - enable, disable or query SCSI disk cache
        volname    - set 8-character volume name
        !     - execute , then return
        quit
format> label
[0] SMI Label
[1] EFI Label
Specify Label type[1]: 1

root@pdom #

############################################################
############################################################

Montando en Single User el ZFS recien restaurado

$
0
0
## Creamos el rpool en el disco que corresponde.
zpool create -f -o failmode=continue -R /a -m legacy -o cachefile=/etc/zfs/zpool.cache rpool c0d0s0

## Restoreamos del nfs que habiamos montado.
 cat /mnt/psun5000-ldm/rpool.zfs | zfs receive -Fdu rpool

## Montamos el / de lo restoreado. Primero lo listo para saber el nombre de lo que tengo que montar.
# zfs list       
NAME                                     USED  AVAIL  REFER  MOUNTPOINT
rpool                                   16.5G  61.7G   106K  /a/rpool
rpool@archive                               0      -   106K  -
rpool/ROOT                              16.5G  61.7G    31K  legacy
rpool/ROOT@archive                          0      -    31K  -
rpool/ROOT/s10s_u11wos_24a              16.5G  61.7G  6.45G  /a
rpool/ROOT/s10s_u11wos_24a@archive          0      -  6.45G  -
rpool/ROOT/s10s_u11wos_24a/var          10.1G  61.7G  10.1G  /a/var
rpool/ROOT/s10s_u11wos_24a/var@archive      0      -  10.1G  -
rpool/export                             561K  61.7G    38K  /a/export
rpool/export@archive                        0      -    38K  -
rpool/export/home                        523K  61.7G   523K  /a/export/home
rpool/export/home@archive                   0      -   523K  -


zfs mount rpool/ROOT/s10s_u11wos_24a 

### un df para ver que este montado
# df -h 
Filesystem             size   used  avail capacity  Mounted on
/ramdisk-root:a        212M   187M   3.6M    99%    /
/devices                 0K     0K     0K     0%    /devices
ctfs                     0K     0K     0K     0%    /system/contract
proc                     0K     0K     0K     0%    /proc
mnttab                   0K     0K     0K     0%    /etc/mnttab
swap                    29G   344K    29G     1%    /etc/svc/volatile
objfs                    0K     0K     0K     0%    /system/object
sharefs                  0K     0K     0K     0%    /etc/dfs/sharetab
swap                    29G   1.1M    29G     1%    /tmp
/tmp/dev                29G   1.1M    29G     1%    /dev
fd                       0K     0K     0K     0%    /dev/fd
/devices/virtual-devices@100/channel-devices@200/disk@106:a
                       2.2G   2.2G     0K   100%    /cdrom
df: cannot statvfs /platform/sun4v/lib/libc_psr.so.1: Operation not applicable
df: cannot statvfs /platform/sun4v/lib/sparcv9/libc_psr.so.1: Operation not applicable
swap                    29G     8K    29G     1%    /tmp/root/var/run
10.11.33.114:/BACKUPS
                       1.8T   1.6T   173G    91%    /mnt
rpool/ROOT/s10s_u11wos_24a
                        78G   6.5G    62G    10%    /a

## Queda montado en /a entro y modifico hostname, ip, vfstab, shadow y/o lo que necesite.





Creditos : Documento realizado por mi colega Nicolas Morono  @nicomorono

ufsdump error

$
0
0
Al hacer un ufsdump del Sistema Operativo , tira este error y aborta
  
DUMP: Warning - block 1952473204 is beyond the end of `/dev/rdsk/c0d0s0'
  DUMP: More than 32 block read errors from dump device `/dev/rdsk/c0d0s0'
  DUMP: Warning - block 1684029600 is beyond the end of `/dev/rdsk/c0d0s0'
  DUMP: Warning - block 2587919012 is beyond the end of `/dev/rdsk/c0d0s0'
  DUMP: More than 32 block read errors from dump device `/dev/rdsk/c0d0s0'
  DUMP: NEEDS ATTENTION: Do you want to attempt to continue? ("yes" or "no")   DUMP: NEEDS ATTENTION: Do you want to attempt to continue? ("yes" or "no")   DUMP: The ENTIRE dump is aborted

NO googlees mas ,no busques mas.
La unica solucion es volver a ejecutarlo, en otro momento, el error es porque esos bloques estan siendo accedidos en ese momento.

Se supone que un mundo ideal, se deberia poner el equipo en single-user y ejecutar el backup de sistema operativo, pero en la realidad es impracticable, pedir un corte de servicio para esto, asi que ejecutalo en otro momento.





@diego_qac

Configurar memoria y cpu a un ldom

$
0
0
Desde el pdom, vamos a agregarle 32gb y 16 cpus al ldom dsunp008-ldm

ldm stop dsunp008-ldm  ( bajamos el equipo )
ldm unbind dsunp008-ldm
ldm set-memory 32g dsunp008-ldm
ldm set-vcpu 16 dsunp008-ldm
ldm start dsunp008-ldm

Luego , como el ldm stop dejo el ldom en OBP, me conecto con
telnet localhost 5004 ( es el puerto donde esta configurado el ldom en el pdom)
boot


Zfs consume mucha memoria

$
0
0
En los monitoreos , con herramientas externas al S.O. detectaron que el equipo esta consumiendo un total de 96% de la memoria del equipo.
Los administradores de las aplicaciones, no encuentran con los comandos habituales, que haya un consumo excesivo de memoria y mucho menos que aplicacion es la que la esta utilizando.
El vmstat , prstat  no muestran valores significativos ni preocupantes.
Aca es donde hay que mirar un poco mas a fondo.
Para eso utilizo el comando mdb donde observo que el ZFS esta tomando el 67 % de la memoria del equipo
# mdb -kw
Loading modules: [ unix genunix dtrace specfs zfs ldc ip hook neti sockfs dls sctp arp usba fctl nca lofs md cpc random crypto fcip logindmux ptm ufs sppp nfs ipc ]
> ::memstat
Page Summary                Pages                MB  %Tot
------------     ----------------  ----------------  ----
Kernel                     821817              6420   10%
ZFS File Data             5611890             43842   67%
Anon                      1633674             12763   19%
Exec and libs                9035                70    0%
Page cache                   2320                18    0%
Free (cachelist)             3400                26    0%
Free (freelist)            306472              2394    4%
Total                    8388608             65536

root #

Aca, la explicacion :

ZFS cache data o ZFS File Data ( como vemos en la salida del mdb) es donde ZFS almacena ( cachea ) todos los storage pools activos. Zfs crece y consume memoria al inicio del equipo.
Cuando una nueva aplicacion se inicia, necesita memoria, ZFS devuelve de la que tomo.
Hasta el momento, no se ve cual es el problema. Pero ....algunas aplicaciones que cuando inician chequean la freemem, como por ejemplo java,  van a ver que hay poca memoria en la freelist y no van a iniciar.

Aca, la solucion :

Existe un parametro a modificar en el /etc/system , que se le indica al zfs que tome
un maximo X de memoria al inicio, este parametro es zfs:zfs_arc_max .
El valor a asignarle varia dependiendo la cantidad de pooles de zfs que tengamos y la cantidad de memoria.
En mi caso, que tengo solo dos pooles, y 65 gb de ram, opte por limitar a 12b de ram
set zfs:zfs_arc_max=12884901888

Luego del reboot.
chequeo con echo ::memstat | mdb -k
Page Summary                Pages                MB  %Tot
------------     ----------------  ----------------  ----
Kernel                     473869              3702    6%
ZFS File Data             1567085             12242   19%
Anon                      1090066              8516   13%
Exec and libs               10325                80    0%
Page cache                   3339                26    0%
Free (cachelist)             9461                73    0%
Free (freelist)           5234463             40894   62%
Total                    8388608             65536


Nota: Este tunning fue realizado en un solaris 10 1/13 s10s_u11wos_24a SPARC Generic_150400-28
En un T5-2 , con 65 gb de ram

Los parametros y explicaciones estan detallados con nivel de excelencia en la web solarisinternals.com

@diego_qac

Backstage de la Review de Solaris

$
0
0
La semana pasada, se contacto conmigo, por email, Javed Mohammed, quien se desempeña como Community Manager para el sector Systems ( persona muy amable por cierto), para ofrecerme una entrevista , y dar mi opinion como Oracle ACE de Solaris,  en la prestigiosa  IT Central Station, esta web es muy utilizada por los CIO, como consulta habitual de opiniones, algo asi como el Tripadvisor para los viajeros, pero enfocado en sistemas.
La entrevista se desarrollo, mediante envio de emails, y un cuestionario en ingles, donde la cuestion a desarrollar era la experiencia sobre Oracle Solaris.

Una vez, finalizada, la devolucion fue en un mail por parte del Community Director de IT, Ariel Lindenfeld el cual me avisaba que ya se encuentra on line la "Review"

Para el que guste leer , les dejo el link de la entrevista






Salgo por un rato del lado tecnico, y agradezco a :
Mi esposa Liliana, que me ayudo a traducir al ingles, lo que deberia haber escrito yo, si le hubiese hecho caso a mis padres cuando me insistian que estudie ingles.
A Rick Ramsey, ex Community Manager de Oracle ( EEUU ), el cual siempre me ayudo y confio en mi cuando escribia y le enviaba articulos tecnicos a Sun Microsystems .
A  Carlos Lazarte, y Diego Torres Dho, que ante cualquier duda especifica que no estan en manuales o en la web, sino mas bien de la experiencia de campo no dudan en darme una mano.
 A mi compañero Nicolas Morono, con el cual a diario desde la trinchera, damos soporte, e investigamos estas tecnologias.
A mis hijas Meli y Cande

Creacion de un LDOM paso a paso

$
0
0
Paso a paso de la creacion de un Ldom
Se utilizo un t5-2 . Documento realizado por Nicolas Morono


### Seteamos los parametros de la primary (memoria y cpu)
ldm set-vcpu 16 primary
ldm set-memory 16g primary
### Agregamos vcc vsw vds y los isos de instalacion
## Creamos el virtual console conentrator.
ldm add-vcc port-range=5000-5100 primary-vcc0 primary
## Creamos el virtual network switch
ldm add-vsw net-dev=net4 vsw4 primary
ldm add-vsw net-dev=net5 vsw5 primary
ldm add-vsw net-dev=net1 vsw1 primary
## Creamos el virtual disk server y le agregamos dos isos.
ldm add-vds primary-vds0 primary



#### Creando los zpool
zpool create psunt100_so c0t600014400000001070211E0F481E625Ed0
zpool create psunt200_so c0t600014400000001070211E0F481E625Fd0

### Creando zvols
 zfs set mountpoint=none psunt100_so 
 zfs create -V 75g psunt100_so/vol1
 zfs create -V 200m psunt100_so/volreplicas  (esto es porque dentro del Ldom uso SVM )

 zfs set mountpoint=none psunt200_so 
 zfs create -V 75g psunt200_so/vol1
 zfs create -V 200m psunt200_so/volreplicas


 ### Creando los ldoms
 ldm add-domain psunt100
 ldm add-domain psunt200
 ldm add-vcpu 64 psunt100
 ldm add-vcpu 32 psunt200
 ldm add-memory 64g psunt100
 ldm add-memory 32g psunt200
 ldm add-vnet vnet1 vsw4 psunt100
 ldm add-vnet vnet2 vsw1 psunt100
 ldm add-vnet vnet1 vsw5 psunt200
 ldm add-vnet vnet2 vsw1 psunt200

 ### Me parece muy poca la memoria en los ldoms y mucha en el primary asi que reconfiguro
 ldm start-reconf primary
 ldm set-vcpu 8 primary
 ldm set-memory 16G primary 
 ### Reinicio

 ### Creando el virtual disk server de cada ldom
 ldm  add-vds psunt100-vds0 primary 
 ldm  add-vds psunt200-vds0 primary 

 ### Asignando vdsdevs
 ldm add-vdsdev /dev/zvol/dsk/psunt100_so/vol1 vol1@psunt100-vds0       
 ldm add-vdsdev /dev/zvol/dsk/psunt100_so/volreplicas volreplicas@psunt100-vds0

 ldm add-vdsdev /dev/zvol/dsk/psunt200_so/vol1 vol1@psunt200-vds0               
 ldm add-vdsdev /dev/zvol/dsk/psunt200_so/volreplicas volreplicas@psunt200-vds0 

 ### Asignado vdisk a los ldoms
 ldm add-vdisk vdiskrep volreplicas@psunt100-vds0 psunt100
 ldm add-vdisk vdisk1 vol1@psunt100-vds0 psunt100           

 ldm add-vdisk vdiskrep volreplicas@psunt200-vds0 psunt200 
 ldm add-vdisk vdisk1 vol1@psunt200-vds0 psunt200          

 ### Creando y montando los dvd para instalar y parchear (los dos de una sola vez)
 ldm add-vdsdev options=ro /sun/sol-10-u11-ga-sparc-dvd.iso sol10u11@primary-vds0 
 ldm add-vdsdev options=ro,slice /sun/EIS-DVD-ONE-20APR16.iso eis20160420@primary-vds0

 ldm add-vdsdev options=ro /sun/sol-10-u11-ga-sparc-dvd.iso sol10u11_2@primary-vds0 
 ldm add-vdsdev options=ro,slice /sun/EIS-DVD-ONE-20APR16.iso eis20160420_2@primary-vds0

 ldm add-vdisk sol10u11 sol10u11@primary-vds0 psunt100 
 ldm add-vdisk eis20160420 eis20160420@primary-vds0 psunt100 

 ldm add-vdisk sol10u11 sol10u11_2@primary-vds0 psunt200 
 ldm add-vdisk eis20160420 eis20160420_2@primary-vds0 psunt200 

 ### Seteo variable
 ldm add-variable auto-boot?=false psunt100
 ldm add-variable auto-boot?=false psunt200

 ### Bindeo los ldoms y empiezo a instalar
 ldm bind psunt100
 ldm bind psunt200

 ### Esto para que funcione la consola de las ldom
 svcadm enable svc:/ldoms/vntsd:default

 ### Starteo 
 ldm start psunt100
 ldm start psunt200

### Me conecto y busco el dispositivo del cdrom y le agrego :f al final para que bootee del slice que corresponde
telnet 0 5000
OBP> show-disks
OBP> boot /virtual-devices@100/channel-devices@200/disk@2:f


### Despues de instalar monto el EIS.
mkdir /cdrom
mount -F hsfs -o=ro /dev/dsk/c0d3s0 /cdrom 
cd /cdrom/sun/patch
patch-EIS /var/tmp
cd /var/tmp/10; ./install_all_patches
Viewing all 94 articles
Browse latest View live