[OpenSUSE] Sistema de archivos distribuido sobre un clúster

Uthark

Lanero Reconocido
11 Sep 2004
2,822
LANeros, cordial saludo a todos.

Tengo la oportunidad de configurar varios equipos con OpenSUSE 11.4 para que compartan una partición de su disco duro con los demás equipos de la red, formando así un clúster de almacenamiento distribuido y redundante.

Cuento con lo siguiente:

  • Core i5 2300
  • 4 GB RAM DDR3
  • HDD 1 TB
  • LAN Gigabit

Y quiero que parte de ese disco (por ejemplo un volumen lógico LVM), pueda sincronizarse en red con los demás volúmenes presentes en los otros equipos, formando así un gran sistema de archivos en red que pueda ser usado simultáneamente por todos los equipos.

Mi pregunta es: con qué programa podría hacer este clúster? Estuve leyendo acerca de GFS, Gluster, DRBD, Lustre, OCFS2 y Ceph, sin embargo aún estoy confundido acerca del programa que me podría servir en este caso.
 
Se que la herramienta nativa de SuSE es heartbeat, para cluster.

Pero leyendo tu planteamiento, me quedo una duda, como vas a hacer el cluster, tienes una san, nas, o pretendes presentar los disco locales, de las maquinas, hacia las otras maquinas?. quieres hacer balanceo de carga, o alta disponibilidad de servicio. no me queda claro tu proyecto
 
Se que la herramienta nativa de SuSE es heartbeat, para cluster.

Pero leyendo tu planteamiento, me quedo una duda, como vas a hacer el cluster, tienes una san, nas, o pretendes presentar los disco locales, de las maquinas, hacia las otras maquinas?. quieres hacer balanceo de carga, o alta disponibilidad de servicio. no me queda claro tu proyecto
Hola Bitutles, gracias por responder.

Quiero usar una parte de cada uno de los discos duros de las máquinas, para proveer un clúster de almacenamiento de alta disponibilidad de servicio (el balanceo de carga no es tan importante), por ejemplo:

Dispongo de 500 GB en cada máquina, y son 6 máquinas. Cómo hago para agrupar los 6 volúmenes de 500 GB de tal manera que cuando un usuario almacene algo, se vea replicado a las demás máquinas automáticamente?
 
Para esto se crearon los Servidores... Monte un equipo con toda la información centralizada y listo...

No veo la utilidad de que la información se replique a todas partes... Aparte de que congestiona la red de datos...

Lo que quiere implementar no es funcional... ¿Y si quiere adicionar más computadores? No quiero pensar en como se congestionaría toda la red...
 
Para esto se crearon los Servidores... Monte un equipo con toda la información centralizada y listo...

No veo la utilidad de que la información se replique a todas partes... Aparte de que congestiona la red de datos...

Lo que quiere implementar no es funcional... ¿Y si quiere adicionar más computadores? No quiero pensar en como se congestionaría toda la red...
La opción del servidor también congestiona la red, incluso de una manera más notoria ya que todas las peticiones van hacia una única máquina con capacidad de tráfico limitada. El hecho de que la información esté replicada en varios equipos permite que los usuarios de esos archivos tengan acceso mucho más rápido que si estuvieran en un equipo centralizado, como Ud. sugiere, y sin congestionar la red (ya que el acceso es local y no a un volumen remoto). Esto, claro está, si la sincronización se hace de manera asíncrona.

Además, por seguridad, si la información está replicada en máquinas diferentes que se sincronizan de forma asíncrona, Ud. está más protegido contra daños en disco, corrupción de sistema de archivos y borrados accidentales, ya que sin importar cuál sea el daño y sea necesario remover una máquina del clúster, la información está disponible en todos los demás.

En el esquema de servidor centralizado, cuando un usuario borra un archivo o éste se daña, debe proceder a restaurarlo desde un backup (buscar entre el listado de backups, buscar la cinta de datos, llamar a la persona que lo sabe hacer, etc.) mientras que si borra ese mismo archivo dentro de un clúster, con solo sincronizar con los demás nodos (mediante un programa ó un script) podrá recuperar ese archivo más rápidamente.

Si se quieren agregar más máquinas, mucho mejor, ya que se comporta similar a un archivo distribuido por Bittorrent: mientras más máquinas tengan una copia, menos tráfico tendrá que aportar cada una para mantener sincronizado el clúster, así como más tolerancia a fallos.
 
interesante,mas k interesante....esto me recuerda a un disco duro externo k a su vez comparte su contenido con todas las makinas conectadas a el de forma automatica y no solo bajo pedido...voy a seguir leyendo este thead....
 
Por ahora lo que más se acomoda a lo que necesito es Ceph, sin embargo está muy nuevo y me preocupa la inestabilidad.

Otra opción sería usar GIT, solo que ya no sería un sistema de archivos en clúster sino un grupo de repositorios distribuido donde cada máquina pide y aporta según el usuario lo decida.
 

Los últimos mensajes

Los últimos temas