martes, 14 de julio de 2015

Introducción al Big Data con Pentaho

En este mundo tan cambiante de las tecnologías de la informacion llevamos meses escuchando conceptos como Internet de las Cosas (Internet of things - IoT) o Big Data, con su propia nomenclatura tan característica que incluye términos tales como Científico de Datos o Lago de Datos.

Y es que nuestro mundo es muy cambiante y hay que adaptarse rápidamente o morir. Así aquellos que se han quedado anclados en la virtualiación deberían saber que hablar de virtualización como novedad es como hablar de sistema operativo como novedad, un sinsentido. Hay que mirar más allá de la infraestructura y dirigir nuestros esfuerzos cada vez más al negocio.

Porque una vez que tenemos bien asentada la infraestructura, con un hardware adecuadamente sobredimensionado a las necesidades empresariales y debidamente protegido tanto internamente en el CPD de producción como a nivel de Disaster Recovery con un CPD de contingencia testado y verificado, estamos en condiciones de centrarnos en la inteligencia de negocio.

Conviene pues hablar con el equipo de dirección, crear un gabinete mixto de personas de negocio y personas de mundo TIC y abordar conjuntamente los retos que nuestra organizacion precisa para mejorar su competitividad.

Y aquí nos encontramos con el Big Data que se integra por tres componentes difíciles de conciliar:

1. Personas de dirección de negocio. Muchas veces las personas propietarias del negocio o aquellos que tienen la responsabilidad última en la toma de decisiones, viven  un poco de espaldas al mundo tecnológico. Aquí hay que decir que hemos realizado un gran esfuerzo desde el mundo TIC en crearnos una fama de frikis muy encerrados en nuestro mundo y poco abiertos a escuchar otros temas. Habría que pedir a estos responsables de negocio que tengan paciencia con los otros dos grupos y les sepan escuchar y pidan aquellas explicaciones de nomenclaturas 'extrañas' para que todos se puedan entender adecuadamente.

2. Personas de infraestructuras. Son aquellos responsables del departamento TIC que tienen que poner la base hardware para que los datos puedan fluir en tiempo real. Las nuevas cabinas con multitiering en tiempo real y la adopción de discos SSD y discos Flash de altísimas capacidades de rendimiento nos permiten que todo el negocio de la empresa pueda fluír y ser analizado en tiempo real, sin largas esperas de informes críticos. Este equipo de personas deben empezar a hablar lenguaje empresarial y orientar más su discurso a hablar de servicios a prestar y menos a utilizar tecnicismos que le separan del primer grupo de personas.

3. Científicos de datos. Esta profesión, con escasos meses de vida tiene un largo futuro y es una evolución de aquellas personas que siempre han trabajado alrededor del análisis de datos. Los científicos de datos van a traducir los datos de a empresa a valores inteligibles por la dirección, yendo un paso más allá que el de dar mensajes triviales tales como qué hemos vendido cada trimestre, para pasar a interactuar con todo tipo de fuentes de información como redes sociales, patrones de tiempo, Internet de las cosas y muchas otras que harán que podamos tomar decisiones a nivel empresarial para optimizar el producto que vendemos a nuestros clientes.

Sorprende que una empresa como Hitachi Data Systems, muy centrada en infraestructura y, particularmente, en almacenamiento, haya dado el paso de adquirir varias empresas relacionadas con el Big Data, la salud y el IoT. Concretamente se ha hecho ya oficial la adquisición de Pentaho, que es un software de libre distribución muy conocido en el mundo del Big Data. Con este paso HDS se posiciona dando importancia a un tipo de tecnología que está en plena efervescencia, al igual que están haciendo el resto de compañías tecnológicas.

Podemos ver en la Wikipedia que Pentaho se define a si mismo como una plataforma de BI “orientada a la solución” y “centrada en procesos” que incluye todos los principales componentes requeridos para implementar soluciones basados en procesos y ha sido concebido desde el principio para estar basada en procesos.


Pentaho se compone de un servidor OLAP (Pentaho Analysis Services, un motor de presentación (Pentaho Reporting) un módulo de análisis predictivo (Pentaho Data Mining), una plataforma de presentación de datos (Pentaho Dashboard) y un conector para el acceso al lago de datos manejado por Hadoop (Pentaho para Apache Hadoop).

HDS está diseñando una plataforma hardware que integrará la potencia de sus sistemas SAN con la suite de Pentaho, creando así un producto integrado que se pueda implementar en el cliente y empezar a realizar tareas de Big Data de forma óptima desde el minuto 0.

Desde Ncora vamos a seguir muy de cerca todas las tecnologías de Big Data porque pensamos que forman parte inerente de los sistemas de información y es una pieza clave para la competitividad de negocio.

Feliz verano! Nos volvemos a ver a principios del curso escolar! :-)

martes, 9 de junio de 2015

5 ventajas de emplear Autotiering en almacenamiento

Hoy publico en el blog de Josep Ros, en el de Ncora y, por primera vez también en Linkedin, a ver qué tal funciona que soy bastante novato posteando en esta red social :-)

Os quería hablar de la importancia de una tecnología de almacenamiento (de las muchísimas que existen) como es el Automatic Storage Tiering, también llamado más coloquialmente Autotiering.

Esta tecnología nos permite que podamos configurar un movimiento automático de datos entre diferentes espacios de almacenamiento que tienen diversas funcionalidades cada uno de ellos.

El propio sistema de almacenamiento será quien decida qué datos deben estar en cada nivel (tier) de acceso de datos, moviéndolo cuando realmente sea necesario.

Así podemos tener discos de diferentes tipos, como por ejemplo:

1. Flash con altísimo rendimiento (50K IOPS) y prácticamente nula latencia, donde viven exclusivamente los datos de altísimo valor de la empresa.

2. Luego podemos tener una capa más baja, aunque de unas prestaciones extraordinarias como discos SSD (5K IOPS) donde se almacenará gran cantidad de información importante también para la empresa, pero a la que tal vez no requiramos un acceso tan feroz como en Flash.

3. Discos SAS. El tercer gran espacio de almacenamiento de datos serán discos SAS de 15K o 10K (entre 140 y 210 IOPS). Ahí podremos almacenar información de propósito general que sea consultable de forma habitual pero sin una gran necesidad de latencia.

4. Discos SATA. Aquí almacenaremos los datos históricos de la empresa o servicios que son accedidos por muy pocos usuarios. Un disco SATA de 7.2K apenas nos proporciona entre 75 y 100 IOPS.

5. Espacio Cloud. Enlazar nuestro almacenamiento contra un quinto espacio de almacenamiento en cloud, muy lento y con gran disponibilidad puede ser una buena idea. Ahí podemos ubicar proyectos de menor dimensión y con una necesidad de latencia más baja.


Así pues, una vez descrito en qué consiste el autotiering, vamos a ver qué beneficios puede tener en nuestra empresa si nos decidimos a implementarlo.

1. Aumento de competitividad. Disponer de un buen sistema de almacenamiento con autotiering, que tiene un coste de adquisición indudable, va a permitir a nuestra empresa mejorar notoriamente su competitividad. Es cierto que las aplicaciones tienen que estar bien diseñadas, la estrategia de márketing alineada, etc. Pero esta pieza, creedme, es un punto clave para que nuestra empresa saque la cabeza por encima del resto en el mercado cada vez más exigente.

2. Simplicidad en la ampliación. Ampliar un sistema es muy sencillo. Normalmente iremos ampliando en SATA si lo que nos falta es capacidad o en Flash/SSD si lo que necesitamos es rendimiento. De hecho hay muchas voces que insisten en que el futuro del  almacenamiento se reducirá a discos Flash y SATA, desapareciendo los SAS y los SSD.

3. Aumento en la productividad y mejora de marca. Cuando un usuario está ante su escritorio de VDI o su PC y todo va muuuuy lento, su día a día es poco productivo. Si eso se replica en todos los usuarios el hastío llega fácilmente a los clientes que aprecian su malestar y sus comentarios negativos, repercutiendo, por tanto, negativamente contra la marca. Disponer de autotiering nos permite de una manera genial y muy simple, darle la vuelta a la tortilla. Trabajadores contentos son más productivos y la mejora de la marca es inmediata. El talento de nuestra organización se puede concentrar en los retos y en las ideas y no quedar trabado por motivos tecnológicos.

4. Reducción de carga de administración de la información corporativa. Si habilitamos el autotiering, tendremos que estar mucho menos pendientes del almacenamiento. Los recursos que dedicábamos a eso ahora podrán realizar otras funciones, formarse en otras tecnologías y atender mejor el negocio. Será necesario, eso sí, estar pendiente de que la cabina, a nivel global, disponga de espacio y que su evolución sea la adecuada. Disponer de esta funcionalidad y no activar su automatización es un pecado ¿no os parece?

5. Ahorro en costes de archivado. En muchas empresas existen costes sostenidos de mantenimiento de software de archivado, con su hardware asociado. El autotiering hará que, de forma natural, los datos menos reclamados viajen hasta los discos SATA o el espacio cloud, significando un ahorro importante en coste de mantenimiento de nuestra información.


¿Qué os parecen estas reflexiones? Espero vuestros comentarios!

¡Hasta el próximo post!

martes, 17 de marzo de 2015

Curso de administración de vSphere 6


En Ncora vamos a hacer un curso de Administración de vSphere 6 la semana que viene del 23 al 27 demarzo. Es un curso online con lo que os podéis inscribir desde cualquier parte del mundo.

Lo vamos a impartir mi compañero Ivan Sampietro y yo mismo :-)

Aquí tenéis más información:

http://store.ncora.com/cursos-online/50-administracion-vsphere-6.html

Y el PDF con los contenidos, precio, etc.

http://store.ncora.com/index.php?controller=attachment&id_attachment=93

Creo que os puede ser de mucho interés. Es una revisión mayor del hipervisor más utilizado y más potente del mercado, así que, sin duda es una formación valiosa.

Por otra parte solo vale 299€ + IVA, un coste más que razonable para un curso de 24h lectivas. Los cursos son susceptibles de acogerse a la Fundación Tripartita.

Más información? formacion@ncora.com 

Os espero!

jueves, 12 de marzo de 2015

Charla de virtualización en Oviedo


Buenas! Este finde estoy en Oviedo y el domingo 15 por la mañana, de 10 a 12h doy una charla sobre temas de virtualización de servidores y escritorios con el título:


“Virtualización de servidores y escritorios, pros y contras. Una visión práctica”


Será una charla muy práctica hablando de casos concretos y de pros y contras. Humo no gracias. Es gratuita pero solo se puede acceder mediante invitación.

Si os interesa venir mandadme mail a eventos@ncora.com

Os espero! ¿Me invitaréis a unas sidras o qué? :-)

lunes, 9 de marzo de 2015

Sorteo Netwrix Auditor for Windows Server


Para todos aquellos interesados, la gente de Netwrix va a sortear una licencia de Netwrix Auditor for Windows Server, para 200 usuarios para 2 años.

A todos los que tenéis un homelab o sencillamente trabajáis con tecnologías Windows y queréis tentar a la suerte, aquí os dejo el link para participar.

http://netwrix.es/sorteo_auditor_ws.html

viernes, 27 de febrero de 2015

Ncora University 2015


Ya tenemos aquí el Ncora University de este año. Como siempre la mejor manera de estar al día en las tecnologías más utilizadas del CPD.

Ya sabéis que si tenéis disponibles créditos de la Fundación Tripartita os puede salir gratis. Cada curso vale 150€ (100 si sois ya clientes de Ncora). El pack completo vale 900€ (720€ si sois clientes de Ncora).

Este año os hemos preparado estos cursos:

Marzo: Curso de Hacking ético de sistemas y redes. 

El objetivo del curso es que el alumno conozca las técnicas de hacking ético de sistemas y redes con el fin de poder aplicarlas a la hora de detectar posibles fallos de seguridad en los sistemas de información de una organización, lo que le permitirá saber qué contramedidas se deberán implementar para solucionar y mitigar los posibles riesgos. 

Abril: VMware Horizon View: La gestión del cambio en VDI

En este curso comprobaremos cómo las novedades de VMware Horizon View nos ayudan a la gestión de los puestos de trabajo, se darán algunos consejos sobre la implantación de proyectos de VDI en nuestros entornos y sobre cómo facilitar la gestión del cambio de informática tradicional a VDI. 

Mayo: Novedades de Microsoft Windows Server 2012 R2 y Scale-Out File Servers.

En este curso conoceremos la nueva versión del protocolo SMB implementado en Windows Server 2012 R2 (SMB 3.0), que nos trae características cómo Scale-out File Servers que afectan en gran medida al rendimiento del entorno y cómo aplicar estas mejoras. 

Junio: Novedades de vSphere 6

En este curso conoceremos todas las novedades que nos trae VMware vSphere 6 y cómo se aplican a nuestros entornos de virtualización. Haremos un repaso por cada nueva funcionalidad y su utilización. 

Julio: Introducción a VMware Mirage

VMware Mirage es la solución de VMware para la gestión unificada de imágenes de escritorio para escritorios físicos que permite la gestión de los escritorios de forma centralizada, mejorando la productividad del usuario final y facilitando las migraciones de sistemas operativos Microsoft Windows. 

Septiembre: Novedades de Microsoft Exchange 2013

En este curso conoceremos el conjunto de tecnologías, funciones y servicios que ofrece Microsoft Exchange 2013, orientadas a la comunicación desde un enfoque colaborativo. 

Octubre: Introducción a VMware NSX

Durante más de 20 años las tecnologías de networking en el datacenter han permanecido inalterables, hasta la aparición de VMware NSX. Solución de SDN (Software Defined Networking) que permite trasladar las ventajas de la virtualización al mundo de las comunicaciones, alejándonos de las ataduras con el mundo físico. 

Noviembre: VMware Virtual SAN

En este curso aprenderemos la mejores prácticas para mantener nuestro almacenamiento funcionando al máximo rendimiento y las herramientas de diagnóstico necesarias para detectar cuellos de botella en nuestra infraestructura, así mismo mostraremos cómo funciona vSAN, Data Protector y vSphere replication como herramientas de protección de datos en nuestro almacenamiento. 

Diciembre: Aplicación de los Servicios de Microsoft Azure a la empresa española.

En este curso aprenderemos qué servicios ofrece Microsoft Azure de forma general, las posibilidades de integración con nuestra actual infraestructura y cómo pueden convivir para crear una infraestructura de nube híbrida. Igualmente veremos cómo esta estrategia puede alinearse con las demandas de negocio. 

Más información y precios aquí:

www.ncora.com/university

miércoles, 11 de febrero de 2015

Formación de vSphere 6, Exchange 2013 y Windows Server 2012 R2


Ya están disponibles los cursos online de Ncora de 2015. Son cursos en directo en los que podéis interactuar con los profesores, preguntar, hacer laboratorios, etc. Muy económicos y os lo podéis financiar con la Fundación Tripartita :-)

Como sabéis los cursos los imparten mis compañeros consultores muy experimentados y certificados en ls diferentes materias, así que no son los típicos cursos de leer un powerpoint, sino que tocaréis chicha y hablaréis con alguien que sabe de lo que habla.

Si quieres apuntarte manda un mail a formacion@ncora.com o bien llama al 971 633 179 y pregunta por mi compañera Magui que te atenderá encantada :-)

Ya tenemos curso de Administración de vSphere 6, el nuevo hipervisor líder del mercado. Por menos de 300€ puedes ponerte al día y dominar este producto básico en cualquier infraestructura que se precie de 2015. Lo imparte el crack de Eduardo Aguilar que es uno de mis nuevos compis en Ncora :-)

Otro curso muy interesante es el de Active Directory en Windows Server 2012 R2 que imparte mi compañero +Ricard Ibañez un crack :-) Es importante conocer bien la base de la organización y autenticación de nuestros usuarios.


Y qué me decís de los servidores de archivos en Windows Server 2012 R2 con el montón de novedades que hay? Hay que ponerse las pilas en este tema y aprovecharlas a tope para mejorar la calidad de nuestro entorno. También lo imparte +Ricard Ibañez



Para concluir mi querido amigo Xavier Genestós nos imparte el curso de Exchange Server 2013 donde podemos ponerlos al día de este gran sistema de correo de Microsoft.

Ya sabéis, si sois clientes de Ncora tenéis descuento.

Os esperamos!

Charla en la Sysmana 2015 en el IES Gran Capitán de Córdoba

Muy buenas! Mi querido amigo Rafael del Castillo me ha invitado a dar una charla en la Sysmana 2015 del IES Gran Capitán en Córdoba. Hablaré con David Marquina de la nueva propuesta del mercado del datacenter: la hiperconvergencia.

Siempre que voy a Córdoba es un placer hablar con los estudiantes de FP que están con la ilusión de acabar los estudios y poderse enfrentar al mercado laboral.

Os espero allí!