Diferencias entre las revisiones 1 y 31 (abarca 30 versiones)
Versión 1 con fecha 2007-12-10 17:59:15
Tamaño: 230
Editor: AlbertoRuiz
Comentario:
Versión 31 con fecha 2009-08-09 01:13:06
Tamaño: 4864
Editor: JuanjoAmor
Comentario:
Los textos eliminados se marcan así. Los textos añadidos se marcan así.
Línea 1: Línea 1:
= Sun Fire T200 =
== Caracteristicas ==
'''~+Sun Fire T2000+~'''
Línea 4: Línea 3:
||<tablewidth="100%" tablealign=""> HOSTNAME || gnomehispano.osuosl.org (habria que bautizarla)|| <<TableOfContents>>

{{attachment:sunT2000.jpg}}

== Características ==
||<tablewidth="100%"> HOSTNAME || gnomehispano.osuosl.org (habría que bautizarla) ||
Línea 6: Línea 10:
|| CPU || SPARC 1.2Ghz 32 Threads ||
|| RAM || 32Gb ||
|| CPU || 64bit SPARC, 1.2Ghz, 8 cores (32 threads) ||
|| RAM || 32GB ||
|| Sistema Operativo || Opensolaris 2009.06 ||
== Acceso ==
Las siguientes personas tienen acceso root a la máquina:

 * Jose Angel Diaz < jose_at_nccextremadura.org >
 * Juanjo Amor < jjamor_at_gmail.com >
 * Alberto Ruiz < aruiz_at_gnome.org >
 * Rodrigo Moya < rodrigo_at_gnome-db.org >
 * Miguel Vidal < mvidal_at_libresoft.es >
[[Administradores/T200/AccesoConsola|Acceso a consola]].

== Servicios ==
Servicios configurados en la máquina:

 * [[Administradores/T200/Backups|Backups]] de los servicios de la [[Administradores/DomuUDC|máquina de la UDC]].
 * [[Administradores/T200/BuildBrigade|Esclavo para el Build Brigade]]
== Discos ==
La máquina cuenta con dos discos SCSI de 68Gigas sobre una controladora PCI Express:

{{{
       0. c0t0d0 <SUN72G cyl 14087 alt 2 hd 24 sec 424>
          /pci@780/pci@0/pci@9/scsi@0/sd@0,0
       1. c0t1d0 <SUN72G cyl 14087 alt 2 hd 24 sec 424>
          /pci@780/pci@0/pci@9/scsi@0/sd@1,0
}}}
=== Tabla de particiones ===
Los discos se van a montar en mirror, la tabla de particiones para ambos discos es la siguiente:

{{{
Part Tag Flag Cylinders Size Blocks
  0 root wm 1611 - 2617 4.89GB (1007/0/0) 10247232
  1 swap wu 0 - 1610 7.82GB (1611/0/0) 16393536
  2 backup wm 0 - 14086 68.35GB (14087/0/0) 143349312
  3 var wm 2618 - 3624 4.89GB (1007/0/0) 10247232
  4 unassigned wm 4632 - 14069 45.80GB (9438/0/0) 96041082
  5 unassigned wm 0 0 (0/0/0) 0
  6 usr wm 3625 - 4631 4.89GB (1007/0/0) 10247232
  7 unassigned wm 14070 - 14085 79.50MB (16/0/0) 162816
}}}
Nótese que backup es una porción (slice) especial que abarca todo el disco. Nótese que se reserva en el slice 7, espacio para la base de datos de SDS (Solaris Volume Manager), que usaremos para espejar los discos que no van en ZFS.

Para el futuro espejado, tanto SDS como ZFS, es necesario que el disco 1 (sin usar) tenga el mismo particionado que el disco 0. En [[http://es.gnome.org/Administradores/T200/DuplicarTablaParticiones|esta página]] se detalla el proceso seguido.

El proceso de espejado SDS se detalla en [[http://es.gnome.org/Administradores/T200/EspejadoSDS|esta página]].

=== Sistemas de ficheros ===
|| /dev/md/dsk/d0 || 4.8G || UFS || / ||
|| /dev/md/dsk/d1 || 7.8G || swap || swap ||
|| /dev/md/dsk/d3 || 4.8G || UFS || /var ||
|| /dev/md/dsk/d6|| 4.8G || UFS || /usr/local ||
|| c0t0d0s4, c0t1d0s4 (mirror) || 45G || ZPool (ZFS) || /export ||
Los sistemas de ficheros en ZFS son un concepto lógico, más abstracto de lo usual. Cada sistema de ficheros se asocia a un ZPool en lugar de a un volumen o partición como solía hacerse. En este sentido, ZFS se podría considerar como un sistema de ficheros convencional integrado en un gestor de volúmenes logicos.

En primer lugar debemos crear el pool de ZFS, en modo mirror, con el siguiente comando:

{{{
# zpool create export mirror c0t0d0s4 c0t1d0s4
}}}

Para gestionar los backups de forma más eficiente, vamos a crear las zonas y los homes en sistemas de ficheros ZFS diferentes:

{{{
$ zfs list
NAME USED AVAIL REFER MOUNTPOINT
export 474K 45.0G 26.5K /export
export/home 309K 45.0G 254K /export/home
export/home/aruiz 27.5K 45.0G 27.5K /export/home/aruiz
export/home/jamor 27.5K 45.0G 27.5K /export/home/jamor
}}}
Cada vez que creemos un usuario nuevo, debemos crear un sistema de ficheros ZFS nuevo en export/home/$USER:

{{{
# useradd $USER -d /export/home/$USER -g staff
# export USER=pepe
# zfs create export/home/$USER
# cp /etc/skel/* /export/home/$USER
# chown -R $USER:staff /export/home/$USER
}}}
== Seguridad básica ==
Todos los servicios no necesarios se encuentran desactivados. Por ejemplo, el rpc:

{{{
# svcadm disable svc:/network/rpc/bind
}}}

El puerto de SSH ha sido cambiado, debido a los ataques que se reciben por el estándar (22).

{{{
# vi /etc/ssh/sshd_config
...
# Port 22
Port XXXXX
...
}}}

== Enlaces externos ==
 * [[http://www.opensolaris.org/os/community/zfs/|Comunidad ZFS en OpenSolaris.org]].
 * [[http://www.opensolaris.org/os/community/smf/|Comunidad SMF en OpenSolaris.org]].
 * [[http://es.opensolaris.org/gesce/|Guía del Estudiante OpenSolaris CE]].
 * [[http://docs.sun.com/app/docs/coll/t2000-es|Documentación de la T2000]].

Sun Fire T2000

sunT2000.jpg

Características

HOSTNAME

gnomehispano.osuosl.org (habría que bautizarla)

IP

140.211.167.154

CPU

64bit SPARC, 1.2Ghz, 8 cores (32 threads)

RAM

32GB

Sistema Operativo

Opensolaris 2009.06

Acceso

Las siguientes personas tienen acceso root a la máquina:

  • Jose Angel Diaz < jose_at_nccextremadura.org >

  • Juanjo Amor < jjamor_at_gmail.com >

  • Alberto Ruiz < aruiz_at_gnome.org >

  • Rodrigo Moya < rodrigo_at_gnome-db.org >

  • Miguel Vidal < mvidal_at_libresoft.es >

Acceso a consola.

Servicios

Servicios configurados en la máquina:

Discos

La máquina cuenta con dos discos SCSI de 68Gigas sobre una controladora PCI Express:

       0. c0t0d0 <SUN72G cyl 14087 alt 2 hd 24 sec 424>
          /pci@780/pci@0/pci@9/scsi@0/sd@0,0
       1. c0t1d0 <SUN72G cyl 14087 alt 2 hd 24 sec 424>
          /pci@780/pci@0/pci@9/scsi@0/sd@1,0

Tabla de particiones

Los discos se van a montar en mirror, la tabla de particiones para ambos discos es la siguiente:

Part      Tag    Flag     Cylinders         Size            Blocks
  0       root    wm    1611 -  2617        4.89GB    (1007/0/0)   10247232
  1       swap    wu       0 -  1610        7.82GB    (1611/0/0)   16393536
  2     backup    wm       0 - 14086       68.35GB    (14087/0/0) 143349312
  3        var    wm    2618 -  3624        4.89GB    (1007/0/0)   10247232
  4 unassigned    wm    4632 - 14069       45.80GB    (9438/0/0)   96041082
  5 unassigned    wm       0                0         (0/0/0)             0
  6        usr    wm    3625 -  4631        4.89GB    (1007/0/0)   10247232
  7 unassigned    wm   14070 - 14085       79.50MB    (16/0/0)       162816

Nótese que backup es una porción (slice) especial que abarca todo el disco. Nótese que se reserva en el slice 7, espacio para la base de datos de SDS (Solaris Volume Manager), que usaremos para espejar los discos que no van en ZFS.

Para el futuro espejado, tanto SDS como ZFS, es necesario que el disco 1 (sin usar) tenga el mismo particionado que el disco 0. En esta página se detalla el proceso seguido.

El proceso de espejado SDS se detalla en esta página.

Sistemas de ficheros

/dev/md/dsk/d0

4.8G

UFS

/

/dev/md/dsk/d1

7.8G

swap

swap

/dev/md/dsk/d3

4.8G

UFS

/var

/dev/md/dsk/d6

4.8G

UFS

/usr/local

c0t0d0s4, c0t1d0s4 (mirror)

45G

ZPool (ZFS)

/export

Los sistemas de ficheros en ZFS son un concepto lógico, más abstracto de lo usual. Cada sistema de ficheros se asocia a un ZPool en lugar de a un volumen o partición como solía hacerse. En este sentido, ZFS se podría considerar como un sistema de ficheros convencional integrado en un gestor de volúmenes logicos.

En primer lugar debemos crear el pool de ZFS, en modo mirror, con el siguiente comando:

# zpool create export mirror c0t0d0s4 c0t1d0s4

Para gestionar los backups de forma más eficiente, vamos a crear las zonas y los homes en sistemas de ficheros ZFS diferentes:

$ zfs list
NAME                USED  AVAIL  REFER  MOUNTPOINT
export              474K  45.0G  26.5K  /export
export/home         309K  45.0G   254K  /export/home
export/home/aruiz  27.5K  45.0G  27.5K  /export/home/aruiz
export/home/jamor  27.5K  45.0G  27.5K  /export/home/jamor

Cada vez que creemos un usuario nuevo, debemos crear un sistema de ficheros ZFS nuevo en export/home/$USER:

# useradd $USER -d /export/home/$USER -g staff
# export USER=pepe
# zfs create export/home/$USER
# cp /etc/skel/* /export/home/$USER
# chown -R $USER:staff /export/home/$USER

Seguridad básica

Todos los servicios no necesarios se encuentran desactivados. Por ejemplo, el rpc:

# svcadm disable svc:/network/rpc/bind

El puerto de SSH ha sido cambiado, debido a los ataques que se reciben por el estándar (22).

# vi /etc/ssh/sshd_config
...
# Port 22
Port XXXXX
...

Enlaces externos

Administradores/T200 (última edición 2009-12-06 17:44:31 efectuada por JuanjoAmor)