© Josep Ros. Con la tecnología de Blogger.

Consulta Técnica: USO de HP AIO 400 en producción con VI3

A raíz de uno de los últimos artículos que he escrito en este blog referente a la cabina All-In-One 400 de HP, mi colega Mikel me realiza la siguiente Consulta:

Hola Josep,

Quisiera hacerte una pregunta:


¿Pondrias en produccion un sistema vi con ha y vmotion basado en este equipo?


¿Que switches gigabit recomendarias para la parte de iscsi?


¿Que configuración de red recomendarias?


Yo tengo la idea de usar switches procurve 1824 para conectar al storage iscsi y otros 1824 o similares para los servidores y los puestos de trabajo.



¿Crees que se notaria si se usan los mismos switches pero se usan distintas vlans para datos e iscsi?



Gracias

Mikel

Veamos, este equipo, como comenté en el artículo anterior, a mi entender, es un equipo de primera línea de entrada, muy económico y que me produce unas serias dudas sobre su rendimiento óptimo en entornos productivos. Igualmente me parece un sistema perfecto para realizar todo tipo de pruebas y tener VM en producción no demasiado importantes.

En las pruebas que realizamos el entorno de red no era nada óptimo, habían switches a GB Procurve de Hp pero habían problemas en la red derivados del entorno heredado.

Desde mi portátil me conecté a los dos servidores que teníamos (HP DL350 G5) y el rendimiento era perfecto. Introduje diferentes VM a través del Converter y fueron muy bien. La configuración de VMotion, HA y DRS fue a la primera y muy fina. Todo eso con tan sólo dos tarjetas de red (sudamos para conseguirlas...) Una dedicada a VM y otra dedicada a VMotion e iSCSI.

Mi recomendación sería:

Como cabina de partida una EMC Clariion 150 iSCSI que tiene un rendimiento extraordinario, para su precio que es de risa. Tiene una tarjeta Qlogic iSCSI que es una megabestia (puede tener dos tarjetas) y dispone de discos Hitachi (pata negra) SATA 2. . Esto como primera cabina recomendable para producción. Ya no hablo de cabinas FC tipo MSA 1000, EVA o iSCSI de NetAPP tipo 3020 que serían entornos más caros y de un mayor rendimiento. Eché en falta en la AIO de HP un dispositivo iSCSI puro, lo que me da cierto temor de qué tal será su rendimiento con bastantes VM trabajando a piñón.

Por otra parte en los servidores pondría una tarjeta quad port y dedicaría una tarjeta a VMotion (HA y DRS), otra tarjeta a iSCSI y dos tarjetas en Team para las VM (si sólo vamos a tener una red productiva). Por supuesto más tarjetas de red mejorarían el rendimiento, pero para empezar no estaría nada mal este escenario que te comento.

El tema de utilizar VLAN pues es como todo, efectivamente tendría un beneficio en cuanto al aislamiento del tráfico y estaría soportado por el propio ESX pero tiene la complicación de la administración, hay que poner ambas cosas en una balanza y decidir. No sé qué capacidad administrativa tenéis, eso siempre es algo a valorar. A veces vale más tener un par de switches no tan pata negra y separar físicamente el tráfico que embarcarnos en switches muy caros administrables que nos pueden dar más trabajo que otra cosa. Claro está que el Switch tendría que tener un canal interno de comunicación lo más eficaz posible.

Los Switches que me comentas no están nada mal. Tendrás un rendimiento bueno. y si tienes uno para comunicación iSCSI y otro para VM pues perfecto.

Te recomiendo la lectura de un artículo de José Luis Medina que no tiene desperdicio, en él tendrás detalle de cada apartado de VI3 para que el entorno quede niquelado.

http://bevirtual.blogspot.com/2007/01/caso-prctico-virtualizacin-de-entorno.html

Ya me contarás qué tal la implementación.

3 comentarios:

J. L. Medina dijo...

Puestos a poner Procurve, por favor de la gama 26xx o incluso mejor la 28xx... los 1800 se quedan demasiado cortos. Las VLAN no dan tanta lata, Josep... una vez que se las conoce, se les coge cariño. De hecho, en entornos algo complejos (con más de una red) se hacen imprescindibles. No recomiendo mezclar iSCSI con vMotion... vamos.. ni mezclarlo con nada. En el escenario propuesto, preferiría dedicar una tarjeta a iSCSI, otra a vMotion y una a VM... porque... ¿para qué queremos 2Gbit/sec en VM's?... si tienes tales necesidades de ancho de banda (cosa que dudo), mejor no virtualices. Cada Gbit/sec que te pidan las VM se viene comiendo un Ghz de velocidad de procesador....

J. L. Medina dijo...

Otra cosa.... "eso" no es una cabina... es un Windows Storage Server... así que no esperes mucho en rendimiento, ni NFS ni iSCSI. Además, creo que no está en la HCL de Vmware, por lo cual no me arriesgaría a montar un DRS con un Windows Storage Server por iSCSI. Los problemas derivados de las reservas iSCSI pueden ser la mar de divertidos... si no tienes nada mejor que hacer.

Josep Ros dijo...

Buenas...

Del primer comentario efectivamente cuánto mayor en la gama pues más productividad, claro. respecto a las tarjetas de red y uso, pues lo que yo comenté ¿no? VMotion por un lado, iSCSI por otro y redes por otro. Si nos sobra un NIC siempre lo podemos dedicar a administración o redundancia de VM, aunque no se utilice.

En cuanto al comentario sobre la cabina, decir que lo probé y, efectivamente hace bien todo: el VMotion, el HA, el DRS. El rendimiento me sorprendió para ser el trasto que es, aunque no tuvimos la oportunidad de darle caña con muchas VM. Por cierto que sí que está en la HCL de VMware. El rollo es que desde el Storage Server y a través de un software de HP se monta una LUN para VMware ESX con soporte pleno de las tres funcionalidades del VI Enterprise.

Consulta Técnica

[Consulta Técnica][bleft]

Virtualización

[Virtualización][twocolumns]

Naturaleza

[Naturaleza][grids]