4800
Comentario:
|
4699
obsoleta
|
Los textos eliminados se marcan así. | Los textos añadidos se marcan así. |
Línea 10: | Línea 10: |
|| CPU || 64bit SPARC, 1.2Ghz, 8 cores (32 Threads) || | || CPU || 64bit SPARC, 1.2Ghz, 8 cores (32 threads) || |
Línea 12: | Línea 12: |
|| Sistema Operativo || Opensolaris 2009.06 || | |
Línea 15: | Línea 16: |
* Jose Angel Diaz < jose@nccextremadura.org > * Juanjo Amor < jjamor@gmail.com > * Alberto Ruiz < aruiz@gnome.org > * Rodrigo Moya < rodrigo@gnome-db.org > * Miguel Vidal < mvidal@libresoft.es > |
* Jose Angel Diaz < jose_at_nccextremadura.org > * Juanjo Amor < jjamor_at_gmail.com > * Alberto Ruiz < aruiz_at_gnome.org > * Rodrigo Moya < rodrigo_at_gnome-db.org > * Miguel Vidal < mvidal_at_libresoft.es > |
Línea 28: | Línea 29: |
La maquina cuenta con dos discos SCSI de 68Gigas sobre una controladora PCI Express: | La máquina cuenta con dos discos SCSI de 68Gigas sobre una controladora PCI Express: |
Línea 31: | Línea 32: |
0. c0t0d0 <SUN72G cyl 14087 alt 2 hd 24 sec 424> | 0. c6t0d0 <SUN72G cyl 14087 alt 2 hd 24 sec 424> |
Línea 33: | Línea 34: |
1. c0t1d0 <SUN72G cyl 14087 alt 2 hd 24 sec 424> | 1. c6t1d0 <SUN72G cyl 14087 alt 2 hd 24 sec 424> |
Línea 36: | Línea 37: |
=== Tabla de particiones === Los discos se van a montar en mirror, la tabla de particiones para ambos discos es la siguiente: |
Con un CD de rescate, los discos se verán seguramente como ''c0t0d0'' y ''c0t1d0'', respectivamente. == Sistema Operativo == La máquina, anteriormente con Solaris 10, ha sido reinstalada con Opensolaris 2009.06. En [[http://tech.libresoft.es/doku.php/installingsparc|este documento]] se detallan los pasos seguidos para instalarla. == Sistemas de ficheros == La instalación se realiza con ZFS como sistema de ficheros. El sistema deja los siguientes: |
Línea 40: | Línea 51: |
Part Tag Flag Cylinders Size Blocks 0 root wm 1611 - 2617 4.89GB (1007/0/0) 10247232 1 swap wu 0 - 1610 7.82GB (1611/0/0) 16393536 2 backup wm 0 - 14086 68.35GB (14087/0/0) 143349312 3 var wm 2618 - 3624 4.89GB (1007/0/0) 10247232 4 unassigned wm 4632 - 14069 45.80GB (9438/0/0) 96041082 5 unassigned wm 0 0 (0/0/0) 0 6 usr wm 3625 - 4631 4.89GB (1007/0/0) 10247232 7 unassigned wm 14070 - 14085 79.50MB (16/0/0) 162816 |
NAME USED AVAIL REFER MOUNTPOINT rpool 28.6G 38.4G 65K /rpool rpool/ROOT 4.19G 38.4G 19K legacy rpool/ROOT/opensolaris 4.19G 38.4G 3.83G / rpool/dump 15.9G 38.4G 15.9G - rpool/export 432M 38.4G 22K /export rpool/swap 8G 46.4G 25.8M - |
Línea 50: | Línea 59: |
Nótese que backup es una porción (slice) especial que abarca todo el disco. Nótese que se reserva en el slice 7, espacio para la base de datos de SDS (Solaris Volume Manager), que usaremos para espejar los discos que no van en ZFS. | |
Línea 52: | Línea 60: |
Para el futuro espejado, tanto SDS como ZFS, es necesario que el disco 1 (sin usar) tenga el mismo particionado que el disco 0. En [[http://es.gnome.org/Administradores/T200/DuplicarTablaParticiones|esta página]] se detalla el proceso seguido. El proceso de espejado SDS se detalla en [[http://es.gnome.org/Administradores/T200/EspejadoSDS|esta página]]. === Sistemas de ficheros === || /dev/md/dsk/d0 || 4.8G || UFS || / || || /dev/md/dsk/d1 || 7.8G || swap || swap || || /dev/md/dsk/d3 || 4.8G || UFS || /var || || /dev/md/dsk/d6|| 4.8G || UFS || /usr/local || || c0t0d0s4, c0t1d0s4 (mirror) || 45G || ZPool (ZFS) || /export || Los sistemas de ficheros en ZFS son un concepto lógico, más abstracto de lo usual. Cada sistema de ficheros se asocia a un ZPool en lugar de a un volumen o partición como solía hacerse. En este sentido, ZFS se podría considerar como un sistema de ficheros convencional integrado en un gestor de volúmenes logicos. En primer lugar debemos crear el pool de ZFS, en modo mirror, con el siguiente comando: |
Los sistemas de ficheros ZFS se encuentran en el pool rpool, que una vez seguido el procedimiento correspondiente, está construido con los dos discos, configurados en RAID-1: |
Línea 67: | Línea 63: |
# zpool create export mirror c0t0d0s4 c0t1d0s4 | NAME STATE READ WRITE CKSUM rpool ONLINE 0 0 0 mirror ONLINE 0 0 0 c6t0d0s0 ONLINE 0 0 0 c6t1d0s0 ONLINE 0 0 0 |
Línea 69: | Línea 69: |
Los sistemas de ficheros en ZFS son un concepto lógico, más abstracto de lo usual. Cada sistema de ficheros se asocia a un ZPool en lugar de a un volumen o partición como solía hacerse. En este sentido, ZFS se podría considerar como un sistema de ficheros convencional integrado en un gestor de volúmenes logicos. |
|
Línea 78: | Línea 80: |
export/home/jamor 27.5K 45.0G 27.5K /export/home/jamor | export/home/jjamor 27.5K 45.0G 27.5K /export/home/jjamor |
Línea 89: | Línea 91: |
Línea 90: | Línea 93: |
Todos los servicios no necesarios se encuentran desactivados. Por ejemplo, el rpc: | Todos los servicios no necesarios se quieren desactivados. En particular, hemos tenido que desactivar el rpcbind y sendmail: |
Línea 94: | Línea 97: |
# svcadm disable svc:/network/smtp:sendmail | |
Línea 104: | Línea 108: |
# svcadm restart svc:/network/ssh |
|
Línea 106: | Línea 112: |
== Enlaces externos == | == Referencias y enlaces externos == * [[http://es.gnome.org/Administradores/T200/DuplicarTablaParticiones|Duplicación de tabla de particiones]] * [[http://es.gnome.org/Administradores/T200/EspejadoSDS|Espejado RAID-1 con Solaris Volume Manager]] |
Línea 111: | Línea 119: |
Prueba de cambio |
Sun Fire T2000
Tabla de Contenidos
Características
HOSTNAME |
gnomehispano.osuosl.org (habría que bautizarla) |
IP |
140.211.167.154 |
CPU |
64bit SPARC, 1.2Ghz, 8 cores (32 threads) |
RAM |
32GB |
Sistema Operativo |
Opensolaris 2009.06 |
Acceso
Las siguientes personas tienen acceso root a la máquina:
Jose Angel Diaz < jose_at_nccextremadura.org >
Juanjo Amor < jjamor_at_gmail.com >
Alberto Ruiz < aruiz_at_gnome.org >
Rodrigo Moya < rodrigo_at_gnome-db.org >
Miguel Vidal < mvidal_at_libresoft.es >
Servicios
Servicios configurados en la máquina:
Backups de los servicios de la máquina de la UDC.
Discos
La máquina cuenta con dos discos SCSI de 68Gigas sobre una controladora PCI Express:
0. c6t0d0 <SUN72G cyl 14087 alt 2 hd 24 sec 424> /pci@780/pci@0/pci@9/scsi@0/sd@0,0 1. c6t1d0 <SUN72G cyl 14087 alt 2 hd 24 sec 424> /pci@780/pci@0/pci@9/scsi@0/sd@1,0
Con un CD de rescate, los discos se verán seguramente como c0t0d0 y c0t1d0, respectivamente.
Sistema Operativo
La máquina, anteriormente con Solaris 10, ha sido reinstalada con Opensolaris 2009.06.
En este documento se detallan los pasos seguidos para instalarla.
Sistemas de ficheros
La instalación se realiza con ZFS como sistema de ficheros. El sistema deja los siguientes:
NAME USED AVAIL REFER MOUNTPOINT rpool 28.6G 38.4G 65K /rpool rpool/ROOT 4.19G 38.4G 19K legacy rpool/ROOT/opensolaris 4.19G 38.4G 3.83G / rpool/dump 15.9G 38.4G 15.9G - rpool/export 432M 38.4G 22K /export rpool/swap 8G 46.4G 25.8M -
Los sistemas de ficheros ZFS se encuentran en el pool rpool, que una vez seguido el procedimiento correspondiente, está construido con los dos discos, configurados en RAID-1:
NAME STATE READ WRITE CKSUM rpool ONLINE 0 0 0 mirror ONLINE 0 0 0 c6t0d0s0 ONLINE 0 0 0 c6t1d0s0 ONLINE 0 0 0
Los sistemas de ficheros en ZFS son un concepto lógico, más abstracto de lo usual. Cada sistema de ficheros se asocia a un ZPool en lugar de a un volumen o partición como solía hacerse. En este sentido, ZFS se podría considerar como un sistema de ficheros convencional integrado en un gestor de volúmenes logicos.
Para gestionar los backups de forma más eficiente, vamos a crear las zonas y los homes en sistemas de ficheros ZFS diferentes:
$ zfs list NAME USED AVAIL REFER MOUNTPOINT export 474K 45.0G 26.5K /export export/home 309K 45.0G 254K /export/home export/home/aruiz 27.5K 45.0G 27.5K /export/home/aruiz export/home/jjamor 27.5K 45.0G 27.5K /export/home/jjamor
Cada vez que creemos un usuario nuevo, debemos crear un sistema de ficheros ZFS nuevo en export/home/$USER:
# useradd $USER -d /export/home/$USER -g staff # export USER=pepe # zfs create export/home/$USER # cp /etc/skel/* /export/home/$USER # chown -R $USER:staff /export/home/$USER
Seguridad básica
Todos los servicios no necesarios se quieren desactivados. En particular, hemos tenido que desactivar el rpcbind y sendmail:
# svcadm disable svc:/network/rpc/bind # svcadm disable svc:/network/smtp:sendmail
El puerto de SSH ha sido cambiado, debido a los ataques que se reciben por el estándar (22).
# vi /etc/ssh/sshd_config ... # Port 22 Port XXXXX ... # svcadm restart svc:/network/ssh
Referencias y enlaces externos
Prueba de cambio