Diferencias entre las revisiones 31 y 32
Versión 31 con fecha 2009-08-09 01:13:06
Tamaño: 4864
Editor: JuanjoAmor
Comentario:
Versión 32 con fecha 2009-08-10 01:31:51
Tamaño: 4557
Editor: JuanjoAmor
Comentario: adaptacion a opensolaris 2009.06 (1)
Los textos eliminados se marcan así. Los textos añadidos se marcan así.
Línea 32: Línea 32:
       0. c0t0d0 <SUN72G cyl 14087 alt 2 hd 24 sec 424>        0. c6t0d0 <SUN72G cyl 14087 alt 2 hd 24 sec 424>
Línea 34: Línea 34:
       1. c0t1d0 <SUN72G cyl 14087 alt 2 hd 24 sec 424>        1. c6t1d0 <SUN72G cyl 14087 alt 2 hd 24 sec 424>
Línea 37: Línea 37:
=== Tabla de particiones ===
Los discos se van a montar en mirror, la tabla de particiones para ambos discos es la siguiente:

Con un CD de rescate, los discos se verán seguramente como ''c0t0d0'' y ''c0t1d0'', respectivamente.

== Sistema Operativo ==

La máquina, anteriormente con Solaris 10, ha sido reinstalada con Opensolaris 2009.06.

En [[http://tech.libresoft.es/doku.php/installingsparc|este documento]] se detallan los pasos seguidos para instalarla.

=== Sistemas de ficheros ===

La instalación se realiza con ZFS como sistema de ficheros. El sistema deja los siguientes:
Línea 41: Línea 51:
Part Tag Flag Cylinders Size Blocks
  0 root wm 1611 - 2617 4.89GB (1007/0/0) 10247232
  1 swap wu 0 - 1610 7.82GB (1611/0/0) 16393536
  2 backup wm 0 - 14086 68.35GB (14087/0/0) 143349312
  3 var wm 2618 - 3624 4.89GB (1007/0/0) 10247232
  4 unassigned wm 4632 - 14069 45.80GB (9438/0/0) 96041082
  5 unassigned wm 0 0 (0/0/0) 0
  6 usr wm 3625 - 4631 4.89GB (1007/0/0) 10247232
  7 unassigned wm 14070 - 14085 79.50MB (16/0/0) 162816
NAME USED AVAIL REFER MOUNTPOINT
rpool 28.6G 38.4G 65K /rpool
rpool/ROOT 4.19G 38.4G 19K legacy
rpool/ROOT/opensolaris 4.19G 38.4G 3.83G /
rpool/dump 15.9G 38.4G 15.9G -
rpool/export 432M 38.4G 22K /export
rpool/swap 8G 46.4G 25.8M -
Línea 51: Línea 59:
Nótese que backup es una porción (slice) especial que abarca todo el disco. Nótese que se reserva en el slice 7, espacio para la base de datos de SDS (Solaris Volume Manager), que usaremos para espejar los discos que no van en ZFS.
Línea 53: Línea 60:
Para el futuro espejado, tanto SDS como ZFS, es necesario que el disco 1 (sin usar) tenga el mismo particionado que el disco 0. En [[http://es.gnome.org/Administradores/T200/DuplicarTablaParticiones|esta página]] se detalla el proceso seguido.

El proceso de espejado SDS se detalla en [[http://es.gnome.org/Administradores/T200/EspejadoSDS|esta página]].

=== Sistemas de ficheros ===
|| /dev/md/dsk/d0 || 4.8G || UFS || / ||
|| /dev/md/dsk/d1 || 7.8G || swap || swap ||
|| /dev/md/dsk/d3 || 4.8G || UFS || /var ||
|| /dev/md/dsk/d6|| 4.8G || UFS || /usr/local ||
|| c0t0d0s4, c0t1d0s4 (mirror) || 45G || ZPool (ZFS) || /export ||
Los sistemas de ficheros en ZFS son un concepto lógico, más abstracto de lo usual. Cada sistema de ficheros se asocia a un ZPool en lugar de a un volumen o partición como solía hacerse. En este sentido, ZFS se podría considerar como un sistema de ficheros convencional integrado en un gestor de volúmenes logicos.

En primer lugar debemos crear el pool de ZFS, en modo mirror, con el siguiente comando:
Los sistemas de ficheros ZFS se encuentran en el pool rpool, que una vez seguido el procedimiento correspondiente, está construido con los dos discos, configurados en RAID-1:
Línea 68: Línea 63:
# zpool create export mirror c0t0d0s4 c0t1d0s4         NAME STATE READ WRITE CKSUM
        rpool ONLINE 0 0 0
          mirror ONLINE 0 0 0
            c6t0d0s0 ONLINE 0 0 0
            c6t1d0s0 ONLINE 0 0 0
Línea 70: Línea 69:

Los sistemas de ficheros en ZFS son un concepto lógico, más abstracto de lo usual. Cada sistema de ficheros se asocia a un ZPool en lugar de a un volumen o partición como solía hacerse. En este sentido, ZFS se podría considerar como un sistema de ficheros convencional integrado en un gestor de volúmenes logicos.
Línea 79: Línea 80:
export/home/jamor 27.5K 45.0G 27.5K /export/home/jamor export/home/jjamor 27.5K 45.0G 27.5K /export/home/jjamor
Línea 90: Línea 91:
Línea 107: Línea 109:
== Enlaces externos == == Referencias y enlaces externos ==
 * [[http://es.gnome.org/Administradores/T200/DuplicarTablaParticiones|Duplicación de tabla de particiones]]
 * [[http://es.gnome.org/Administradores/T200/EspejadoSDS|Espejado RAID-1 con Solaris Volume Manager]]

Sun Fire T2000

sunT2000.jpg

Características

HOSTNAME

gnomehispano.osuosl.org (habría que bautizarla)

IP

140.211.167.154

CPU

64bit SPARC, 1.2Ghz, 8 cores (32 threads)

RAM

32GB

Sistema Operativo

Opensolaris 2009.06

Acceso

Las siguientes personas tienen acceso root a la máquina:

  • Jose Angel Diaz < jose_at_nccextremadura.org >

  • Juanjo Amor < jjamor_at_gmail.com >

  • Alberto Ruiz < aruiz_at_gnome.org >

  • Rodrigo Moya < rodrigo_at_gnome-db.org >

  • Miguel Vidal < mvidal_at_libresoft.es >

Acceso a consola.

Servicios

Servicios configurados en la máquina:

Discos

La máquina cuenta con dos discos SCSI de 68Gigas sobre una controladora PCI Express:

       0. c6t0d0 <SUN72G cyl 14087 alt 2 hd 24 sec 424>
          /pci@780/pci@0/pci@9/scsi@0/sd@0,0
       1. c6t1d0 <SUN72G cyl 14087 alt 2 hd 24 sec 424>
          /pci@780/pci@0/pci@9/scsi@0/sd@1,0

Con un CD de rescate, los discos se verán seguramente como c0t0d0 y c0t1d0, respectivamente.

Sistema Operativo

La máquina, anteriormente con Solaris 10, ha sido reinstalada con Opensolaris 2009.06.

En este documento se detallan los pasos seguidos para instalarla.

Sistemas de ficheros

La instalación se realiza con ZFS como sistema de ficheros. El sistema deja los siguientes:

NAME                         USED  AVAIL  REFER  MOUNTPOINT
rpool                       28.6G  38.4G    65K  /rpool
rpool/ROOT                  4.19G  38.4G    19K  legacy
rpool/ROOT/opensolaris      4.19G  38.4G  3.83G  /
rpool/dump                  15.9G  38.4G  15.9G  -
rpool/export                 432M  38.4G    22K  /export
rpool/swap                     8G  46.4G  25.8M  -

Los sistemas de ficheros ZFS se encuentran en el pool rpool, que una vez seguido el procedimiento correspondiente, está construido con los dos discos, configurados en RAID-1:

        NAME          STATE     READ WRITE CKSUM
        rpool         ONLINE       0     0     0
          mirror      ONLINE       0     0     0
            c6t0d0s0  ONLINE       0     0     0
            c6t1d0s0  ONLINE       0     0     0

Los sistemas de ficheros en ZFS son un concepto lógico, más abstracto de lo usual. Cada sistema de ficheros se asocia a un ZPool en lugar de a un volumen o partición como solía hacerse. En este sentido, ZFS se podría considerar como un sistema de ficheros convencional integrado en un gestor de volúmenes logicos.

Para gestionar los backups de forma más eficiente, vamos a crear las zonas y los homes en sistemas de ficheros ZFS diferentes:

$ zfs list
NAME                USED  AVAIL  REFER  MOUNTPOINT
export              474K  45.0G  26.5K  /export
export/home         309K  45.0G   254K  /export/home
export/home/aruiz  27.5K  45.0G  27.5K  /export/home/aruiz
export/home/jjamor  27.5K  45.0G  27.5K  /export/home/jjamor

Cada vez que creemos un usuario nuevo, debemos crear un sistema de ficheros ZFS nuevo en export/home/$USER:

# useradd $USER -d /export/home/$USER -g staff
# export USER=pepe
# zfs create export/home/$USER
# cp /etc/skel/* /export/home/$USER
# chown -R $USER:staff /export/home/$USER

Seguridad básica

Todos los servicios no necesarios se encuentran desactivados. Por ejemplo, el rpc:

# svcadm disable svc:/network/rpc/bind

El puerto de SSH ha sido cambiado, debido a los ataques que se reciben por el estándar (22).

# vi /etc/ssh/sshd_config
...
# Port 22
Port XXXXX
...

Referencias y enlaces externos

Administradores/T200 (última edición 2009-12-06 17:44:31 efectuada por JuanjoAmor)