Los grandes desarrolladores de datos están bajo presión para navegar por la delgada línea que separa las aplicaciones críticas para el negocio de las inútiles. Descubra cómo las herramientas de automatización ayudan a los desarrolladores de aplicaciones a hacer frente a estos desafíos.

    Un importante fabricante farmacéutico utilizó análisis avanzados para aumentar significativamente su rendimiento en la producción de vacunas sin incurrir en gastos de capital adicionales, según un artículo de McKinsey & Company de 2014. Mediante el uso de análisis estadísticos, el equipo del proyecto farmacéutico se centró en los nueve parámetros de proceso más influyentes durante la fabricación, realizó cambios en el proceso y aumentó el rendimiento de las vacunas en más de un 50%, lo que supuso un ahorro anual de entre 5 y 10 millones de euros.

    Más información sobre Big Data

    Este es el tipo de datos grandes y resultados analíticos que la C-suite corporativa espera ver, ahora que los días de luna de miel de la experimentación de grandes datos han terminado, y las empresas están desplegando grandes aplicaciones de datos en producción.

    «A medida que las empresas trasladan sus grandes aplicaciones de datos a la producción, descubren que los grandes sistemas de datos están sujetos a muchas de las mismas reglas que los sistemas de datos transaccionales establecidos», dijo Ash Munshi, CEO de Pepperdata, un gran proveedor de herramientas de rendimiento de datos. «Los grandes sistemas de datos deben ser confiables y escalables para acomodar a un gran número de usuarios concurrentes del sistema. Estos sistemas también deben funcionar bien. Puede haber una delgada línea entre un sistema que es crítico o inútil para el negocio, y es la forma en que el sistema funciona lo que determina si se cruza esa línea».

    Hay muchas maneras de determinar qué tan bien está funcionando un sistema, pero hay tres áreas clave en las que se destacan las preguntas sobre el rendimiento de los datos:

    1. la rapidez con la que se desarrollan e implementan las nuevas aplicaciones;
    2. qué tan bien está ejecutando el sistema estas nuevas aplicaciones; y
    3. si el sistema funciona de la forma más económica y eficiente posible.

    «Para lograr estos objetivos, hay que tener en cuenta todos los aspectos de la cadena de desarrollo de aplicaciones», dijo Munshi. «Ya sea que se utilice un analizador de clúster para evaluar cómo se están capturando y procesando los datos, para supervisar la utilización de los recursos con herramientas que aseguren que el procesamiento se realiza en condiciones óptimas del sistema, para ayudar a los desarrolladores con herramientas de depuración para su código y para detectar las áreas de la cadena de desarrollo de software que necesitan el desarrollo de una política formal, de modo que, por ejemplo, un trabajo aleatorio y de baja prioridad no sea inyectado en un flujo de trabajo que retrase el procesamiento crítico de la misión».

    VER: La verdad sobre MooCs y bootcamps: Su mayor beneficio no es crear más codificadores (ConsejoTecnologico.com download)

    LinkedIn es una compañía con la que Pepperdata se ha asociado para ayudar a los grandes desarrolladores de datos que están creando aplicaciones de misión crítica. Las dos compañías han tomado el proyecto Dr. Elephant de LinkedIn y lo han integrado con el perfilador de aplicaciones del conjunto de herramientas de análisis de Pepperdata.

    «Lo que hace el Dr. Elephant es proporcionar recomendaciones de rendimiento que los grandes desarrolladores de aplicaciones de datos pueden consultar mientras desarrollan software», dijo Munshi. «Les dice lo que está pasando en un gran cluster de procesamiento de datos con el que están trabajando, y luego les da una lista de recomendaciones de ajuste de rendimiento.»

    La adición de herramientas de autoayuda para desarrolladores de aplicaciones como éstas no podría llegar en mejor momento. Es difícil desarrollar aplicaciones y prever cada posible cuello de botella del sistema cuando se trabaja con una aplicación que atraviesa muchos servidores, unidades de almacenamiento y redes diferentes, lo que es precisamente el caso de los grandes datos.

    «Gran parte de esta comprobación cruzada puede omitirse cuando los desarrolladores tienen plazos de entrega ajustados», dijo Munshi. «Aquí es donde las herramientas automatizadas pueden jugar un papel importante. Le dan a los grandes desarrolladores de aplicaciones de datos una mejor comprensión de lo que está pasando».

    Boletín informativo de Big Data Insights

    Domine los fundamentos de la analítica de datos de gran tamaño siguiendo estos consejos de expertos y leyendo los conocimientos sobre las innovaciones de la ciencia de datos.

    Lunes de entrega

    mismo