Categories
54cuatro

Cómo DataOps ayuda a las organizaciones a tomar mejores decisiones 

DataOps es un enfoque ágil que combina la ingeniería de datos en los procesos de operaciones. Su objetivo es crear valor comercial a partir de big data, promoviendo prácticas y procedimientos de gestión de datos que mejoren la velocidad y precisión de los análisis. Esto incluye automatización, acceso a datos, integración, control de calidad e implementación y gestión de modelos.

Los problemas resueltos por DataOps 

Los principios fundamentales de #DataOps son simples. La disciplina está formada por la metodología ágil y se esfuerza por integrar análisis de datos continuos y en tiempo real en el proceso DevOps. En la práctica, significa incorporar DevOps y personal de gestión de datos en un equipo colaborativo. 

Data Operations | Derevo

Los equipos de DataOps valoran los análisis que funcionan y determinan el rendimiento del análisis de datos por los conocimientos que ofrecen. Aquí enumeramos algunos de los problemas que DataOps resuelve: 

Corrección de errores: además de mejorar la agilidad de los procesos de desarrollo, DataOps tiene el poder de impulsar el proceso de gestión de incidentes. Es probable que la reparación de errores y defectos en los productos incluya aportes de expertos en datos y desarrollo, y también es una función comercial esencial. Con una mejor comunicación y colaboración entre grupos, el tiempo para responder a errores y defectos se reduce drásticamente. 

Eficiencia: en DataOps, los equipos de datos y de desarrollo trabajan juntos y, por lo tanto, el flujo de información es horizontal. En lugar de comparar información en reuniones mensuales, el intercambio ocurre regularmente, lo que mejora significativamente la eficiencia de la organización. 

Establecimiento de objetivos: DataOps proporciona a los equipos de desarrollo y administración, datos en tiempo real sobre el rendimiento de sus sistemas de datos. Dichos datos no son útiles para monitorear el éxito en relación con cualquier objetivo comercial. Sin embargo, si los procesos de negocios son los adecuados, los datos permiten a los gerentes ajustar y actualizar los objetivos de desempeño en tiempo real. 

Colaboración limitada: implementar flujos de trabajo de DataOps significa aumentar la colaboración entre los equipos centrados en los datos y los equipos centrados en el desarrollo. DataOps también tiene como objetivo eliminar las diferencias entre estas dos funciones comerciales.  

Respuesta lenta: uno de los desafíos más destacados que enfrentan las organizaciones hoy en día es responder a las solicitudes de desarrollo, tanto de los usuarios como de la alta dirección. En general, las solicitudes para integrar nuevas funciones incluyen los mismos reclamos que se envían hacia adelante y hacia atrás entre los científicos de datos y el equipo de desarrollo. 

Como el equipo de DataOps involucra ambas funciones, el personal puede trabajar en conjunto en nuevas solicitudes. Permite que el equipo de desarrollo sea testigo del efecto que tienen las funciones originales en el flujo de datos a través de la organización. Además, ayuda a los equipos de datos a concentrarse mejor en procesar los objetivos reales de la organización. 

Desafíos que enfrenta DataOps 

Es un hecho que más datos significan más dependencias, más puntos de falla y administración. Entonces, ¿cuáles son los desafíos que enfrentan los equipos de DataOps? 

The Difference Between Operational and Analytical Data Systems

Silos de datos: DataOps necesita hacer frente a los silos de datos que se crean como diferentes departamentos, y los equipos crean grupos de datos con procesos individualizados y estrechamente optimizados. Muchos grupos ven sus operaciones como inviolables en las que cada silo es una barrera hacia el éxito para implementar mejores estrategias de gestión de datos en toda la organización. 

Falta de uso de la nube: la mayoría de los expertos en tecnología han entendido los beneficios que ofrece la nube. Sin embargo, aún así, muchas organizaciones no almacenan sus aplicaciones en la nube. Como resultado, los equipos de DataOps están sobrecargados con aplicaciones de datos que requieren más servidores de almacenamiento y grupos reconfigurados para garantizar la optimización de la base de datos. 

Falta de habilidades: es un hecho que los profesionales de datos de todo tipo son escasos en el mercado tecnológico. La falta de disponibilidad de las personas adecuadas para administrar proyectos de Big Data significa que los proyectos no se ejecutan rápidamente o es probable que fracasen. Por lo tanto, poner más datos en un equipo que no tiene el conocimiento y los recursos para manejarlos es una forma de fallar. 

¿Qué es un marco de DataOps? 

El marco DataOps consta de cinco elementos esenciales y distintos. Los elementos son: 

1.Tecnologías habilitadoras 

Estas tecnologías incluyen inteligencia artificial (IA), aprendizaje automático (ML), herramientas de gestión de datos y automatización de TI. 

2. Arquitectura adaptativa 

La arquitectura adaptativa admite innovaciones continuas en los principales procesos, servicios y tecnologías. 

3. Enriquecimiento de datos 

Estos datos son metadatos inteligentes creados por el sistema y colocados en un contexto útil para un análisis oportuno y preciso. 

4. Metodología DataOps 

Esta metodología implica construir e implementar análisis de datos, siguiendo la gestión de su modelo y el gobierno de datos. 

5.Gente y Cultura 

Debe crear una cultura colaborativa entre las diferentes áreas de tecnología y el negocio. Esta cultura ayuda a poner la información correcta en el lugar correcto en el momento correcto para maximizar el valor de su organización. 

¿Cuál es la diferencia entre DataOps y DevOps? 

Categories
54cuatro

REINFORCEMENT LEARNING : ¿que es?

En la ciencia de datos existen diversas áreas de investigación, entre la cuales se encuentra Reinforcement Learning (RL). Ante el avance del #DeepLearning, las grandes cantidades de datos ya no representan una dificultad y han surgido nuevos modelos de entrenamiento de algoritmos como el que estamos mencionando. 

Este es el tercer método desarrollado de modelos de Machine Learning, mediante el cual los algoritmos aprenden por sí mismos, después del aprendizaje supervisado y el aprendizaje no supervisado. 

Reinforcement Learning o Aprendizaje por Refuerzo se basa en obtener recompensas ante el aprendizaje de una nueva tarea, es decir, consiste en entrenar modelos para la toma de decisiones sin requerir datos para el condicionamiento. De este modo, los datos se generan a través de un método de prueba y error, donde se marcan con una etiqueta.  

Durante varias fases de entrenamiento el algoritmo recibe marcas de recompensa cuando lleva a cabo la función correcta. Tras repetir la experiencia y verificar las recompensas recibidas, aprende por sí mismo. 

En definitiva, Reinforcement Learning, es un aprendizaje autónomo por el cual se aprende la acción que debe realizarse al interactuar con el entorno, recibiendo señales de error o recompensas en función de las acciones que se lleven a cabo. Es decir, el sistema busca encontrar la toma de decisiones más eficiente que le permita maximizar las recompensas. 

Ejemplos de aplicaciones de Reinforcement Learning 

Conducción autónoma: la toma de decisiones de conducción basadas en las entradas de cámaras es un área adecuada para reinforcement learning, teniendo en cuenta el éxito de las redes neuronales profundas en aplicaciones relacionadas con imágenes. 

Robótica: Reinforcement Learning puede ayudar en aplicaciones tales como el agarre robótico, por ejemplo, para enseñar a un brazo robótico a manipular diversos objetos para la aplicación del sistema pick-and-place. Otras aplicaciones de robótica incluyen colaboración humano-robot y robot-robot. 

Planificación: los problemas de planificación aparecen en muchos escenarios, incluidos los sistemas de control de semáforos y la coordinación de recursos en fábricas para cumplir objetivos. Reinforcement Learning es una buena alternativa a los métodos evolutivos para resolver estos problemas de optimización combinatoria. 

Calibración: las aplicaciones relacionadas con la calibración manual de parámetros, como, por ejemplo, la calibración de una unidad de control electrónico (ECU), pueden ser buenas candidatas para Reinforcement Learning. 

Videojuegos: los videojuegos son idóneos para el Reinforcement Learning, ya que incluyen diferentes entornos de simulación y opciones de control. Por lo general, el método de funcionamiento de los videojuegos es presentar un problema y obligar a resolverlo mediante tareas complejas, obteniendo puntuaciones o recompensas a cambio. Reinforcement Learning aprende jugando contra sí mismo para mejorar la experiencia del usuario. 

Beneficios del aprendizaje por refuerzo 

El aprendizaje por refuerzo es aplicable a una amplia gama de problemas complejos que no se pueden abordar con otros algoritmos de aprendizaje automático. RL está más cerca de la inteligencia artificial general (AGI), ya que posee la capacidad de buscar un objetivo a largo plazo mientras explora varias posibilidades de forma autónoma. Algunos de los beneficios de RL incluyen: 

  • Se enfoca en el problema como un todo.  Los algoritmos de aprendizaje automático convencionales están diseñados para sobresalir en subtareas específicas, sin una noción del panorama general. RL, por otro lado, no divide el problema en subproblemas; trabaja directamente para maximizar la recompensa a largo plazo. Tiene un propósito obvio, entiende el objetivo y es capaz de intercambiar recompensas a corto plazo por beneficios a largo plazo. 
  • No necesita un paso de recopilación de datos por separado. En RL, los datos de entrenamiento se obtienen a través de la interacción directa del agente con el entorno. Los datos de entrenamiento son la experiencia del agente de aprendizaje, no una colección separada de datos que se debe alimentar al algoritmo. Esto reduce significativamente la carga del supervisor a cargo del proceso de capacitación. 
  • Trabaja en entornos dinámicos e inciertos.  Los algoritmos de RL son inherentemente adaptables y están diseñados para responder a los cambios en el entorno. En RL, el tiempo importa y la experiencia que recopila el agente no se distribuye de forma independiente e idéntica, a diferencia de los algoritmos de aprendizaje automático convencionales. Dado que la dimensión del tiempo está profundamente arraigada en la mecánica de RL, el aprendizaje es inherentemente adaptativo. 

Conclusiones 

Este tipo de aprendizaje automático se centra en problemas complejos a través de un enfoque de ensayo y error. Sin duda alguna, RL se puede aplicar en diferentes ámbitos, desde las finanzas a los sistemas de recomendación hasta los videojuegos o la robótica. 

No obstante, también se debe tener en cuenta que es un método que requiere sesiones de entrenamiento con simulación, para en un futuro recibir las recompensas reales. En cualquier caso, el aprendizaje por refuerzo es un método del aprendizaje automático que permite resolver problemas cada vez más complejos y controlar gran variedad de procesos. 

En definitiva, se busca que la #AI sea capaz de resolver problemas de forma autónoma sin recibir instrucciones previas del ser humano. Este método demuestra ser más rápido y eficiente, y se espera obtener mejores resultados. 

¿Conocés a #TGA (https://www.tgacompany.com/) y todas las soluciones de gamificación basadas en modelos de machine learning?  

Categories
54cuatro

El camino hacia el análisis y la modernización de los datos

La mayoría de las organizaciones aspiran a estar un paso por delante de la competencia, capaces de tomar decisiones más informadas sobre su negocio y sus clientes para que no sólo tengan éxito, sino que prosperen en un panorama empresarial en constante cambio. Sin embargo, aunque muchas organizaciones tienen los datos para hacerlo, a menudo carecen de la tecnología, los procesos y las personas para optimizar por completo su valor. 

¿Qué es la modernización de datos?  

La modernización no es sólo la palabra de moda más reciente, aunque parece que todos tienen su propia forma de definirla. La modernización de datos tampoco se trata de una sola acción o de implementar un conjunto de herramientas. Es repensar cómo usas los datos y el análisis como empresa. ​ 

Embracing the Future - The Push for Data Modernization Today

A menudo, las personas caracterizan la modernización de datos como simplemente trasladarse a la nube; pero el enfoque que adopta y las ventajas que obtiene van más allá de la simple adopción de la nube. Las soluciones modernas exponen capacidades analíticas avanzadas que ayudan a los usuarios de su negocio a tomar decisiones más inteligentes.  

La modernización de datos requiere principios de gestión de datos modernos. Implica pasar de bases de datos y arquitecturas heredadas a plataformas modernas basadas en la nube y arquitecturas escalables, y migrar a herramientas de análisis modernas.  

¿Cuáles son los beneficios de seguir el camino de la modernización de datos? 

A medida que hay más datos disponibles y los usuarios comerciales requieren análisis mejores y más avanzados, la organización debe poder actuar rápidamente para satisfacer esas demandas.  

La modernización de datos permite escalar y ser flexible, integrar nuevas fuentes de datos, obtener información más rápidamente, democratizar los datos y planificar de manera efectiva el futuro del negocio. 

Los cinco pilares para migrar y modernizar los datos. 

1.) Estrategia de datos 

Es la base de todo lo que haces en el futuro. Va a actuar como una guía para la organización en términos de cómo abordar los #datos y el análisis, no sólo desde una perspectiva técnica, sino también desde una perspectiva de personas y procesos.  

2.) Arquitectura de datos 

Se necesita un pipeline de datos ágil, basado en la nube y preparado para el futuro que permita un acceso más fácil, rápido y flexible a grandes volúmenes de datos y diferentes fuentes de datos.  

3.) Gestión y gobierno de datos  

La gestión moderna de datos requiere que los datos sean precisos y estén disponibles para las personas adecuadas en el momento adecuado.  

4.) Herramientas de análisis 

La migración a herramientas de análisis más nuevas proporcionará mejores capacidades de análisis, incluido análisis en tiempo real, análisis integrado, colaboración mejorada y más.  

5.) Las personas y procesos adecuados 

Es fundamental entender que un esfuerzo de modernización no es sólo un cambio en la tecnología, sino que también un cambio en las habilidades y la formación constante en el “cómo lo uso”. Se necesitan desarrollar las fortalezas y capacidades de la nueva herramienta, y no simplemente tratar de recrear conceptos que funcionaban en la herramienta anterior.  

Conclusión

Las organizaciones deben continuar evolucionando y hacer de la modernización de los datos una prioridad ya que las nuevas tendencias fuerzan cambios significativos en la estrategia de gestión de datos. La modernización requiere que las organizaciones adopten una visión integral de su entorno de aplicaciones e infraestructura.  

Darse cuenta de los beneficios de la modernización de datos requiere pensar más allá de las aplicaciones y la infraestructura y expandirse para considerar cómo impactan y son impactadas por los procesos comerciales, las personas, los datos nuevos, el desarrollo de una cultura #DevOps, el crecimiento de la compañía y sus futuras ventas. 

Categories
54cuatro

Cómo contar historias con datos

Por Ezequiel Bianucci.

¿Qué es el Data Storytelling? 

El Data Storytelling es la traducción del análisis de datos en conocimientos de fácil comprensión para influir en la acción o la toma de decisiones comerciales. Es el proceso de tomar datos, analizarlos y comunicar su importancia a los clientes. Esto se logra con la ayuda de tres componentes principales: 

¿Por qué el Data Storytelling es tan importante? 

Las historias conectan a las personas, generan confianza y crean conexiones significativas. La narración de datos ayuda a los científicos de datos y a las partes interesadas clave a visualizar la información presentada y formar opiniones, conocimientos y argumentos basados ​​en los datos. 

Lo que hace una historia es una relación de “causa y efecto”. Si no tiene el “qué, por qué y cómo”, la narrativa será solo una serie de eventos y no habrá nada con lo que el oyente o el lector se relacionen.  

Algunas de las razones por las que el Data Storytelling es importante: 

1. Las historias dan significado 

Usamos historias y narrativas para dar contexto a los datos y los números, lo que nos ayuda a interpretar mejor y obtener mejores conocimientos. Estas son las cosas que hacen que los datos sean significativos, relevantes e interesantes. 

2. Es un poderoso modelo de análisis que te distingue de la competencia 

La narración de datos es perfecta para las relaciones públicas y, cuando se hace correctamente, puede darle a tu marca el reconocimiento de la competencia. Es decir, las empresas pueden mejorar el valor de sus productos o servicios para su público objetivo con una cultura de data storytelling. 

3. Impulsa la comunicación y el compromiso del cliente 

Si bien las empresas utilizan muchas estrategias para recopilar y analizar datos, mantener una conversación interesante durante un período prolongado con los clientes puede ser una tarea difícil para muchas organizaciones. Construir una comunicación efectiva con el cliente va más allá de recopilar tanta información en una presentación, también deseas utilizar el data storytelling para transmitir resultados de una manera inteligible y demostrar el valor de tus productos o servicios. 

4. Crea un atractivo visual 

Como los humanos son conocidos por tener una capacidad de atención cada vez menor, la visualización de datos puede ser de gran ayuda para comunicar tus resultados. Esto se puede hacer a través de elementos visuales como gráficos, diagramas, mapas de calor y más, todo lo cual se reduce a crear un atractivo visual para el usuario final.  

La combinación de elementos de datos, información y conocimientos en un formato visual puede ser increíblemente valioso en los informes de los clientes. 

5. La narración es clave para la ciencia de datos 

Es la naturaleza humana que seamos narradores. En el contexto de la ciencia de datos, después de recopilar, limpiar y analizar datos, el siguiente paso es transmitir el contexto utilizando una narrativa y elementos visuales convincentes que les ayuden a comprender la importancia de los datos. 

¿Cuáles son los beneficios de Data Storytelling? 

El beneficio principal de la narración de datos es crear información inteligente y procesable sobre los datos. Una narrativa convincente hará que los datos se sientan vivos. Puede crear un momento “Ajá” o una visión profunda. En un contexto empresarial, la historia que cuentan los datos se puede adaptar al público objetivo, haciéndola significativa y relevante.  

Si un analista de datos no tiene la habilidad de contar una historia con los datos, el impacto de los hallazgos puede perderse. Sin una historia que resuene en la audiencia, es difícil inspirar la acción.  

Los beneficios de la narración de datos son: 

  • Proporcionar información clave 
  • Presentar nuevas perspectivas 
  • Interpretar información compleja. 
  • Inspirar acción 

En resumidas cuentas 

La narración de datos conecta el mundo de los números con la experiencia humana cotidiana y proporciona una comprensión y una visión más profunda del mundo en el que vivimos.  

Además, la narración puede servir para estandarizar la comunicación de datos y en conjunto, los mejores analistas de datos también son excelentes narradores con el poder de usar los datos para generar cambios. 

En última instancia, la narración de datos es una herramienta poderosa para utilizar los conocimientos de la ciencia de datos para motivar el cambio e inspirar la acción. Si bien un científico de datos tiene hechos, contar una historia con los datos puede cambiar el mundo. 

Categories
54cuatro

App Modernization – modernizando las aplicaciones – 2/2

En el post anterior, analizamos estrategias de modernización de aplicaciones hacia la nube. En este post, vamos a analizar la modernización desde la vista de las áreas de desarrollo.

¿Qué hacer?

Seguimos manteniendo una aplicación legada, seguimos desarrollando sobre una plataforma obsoleta; o ¿arrancamos de cero?

Reescribir el código no es una tarea simple. Nos enfrentamos con código mal escrito, poco performante, y además es una tarea que requiere mucho tiempo.

Adicionalmente en caso de decidir reconstruir software, luego viene una etapa de migración del “viejo código” al “nuevo código”. Eso involucra 2 métodos.

  1. Una migración BigBang. Esta estrategia consiste en un apagado del sistema antiguo y un encendido del nuevo.
  2. Una migración gradual, donde se vayan reemplazando modularmente partes del “viejo código”, por el nuevo.

¿Cuando deberíamos refactorizar y mantener una aplicación como está?

Si el código actual funciona, y pueda ser mejorado, decidir seguir manteniendolo es una buena decisión.

Si el código tiene mucha inversión, se adapta a los nuevos tiempos y cumple su funcionalidad, mantenerlo es buena decisión.

Si el código no requiere de evolutivos/cambios, y no genera costos operativos altos, mantenerlo es una buena decisión.

¿Cuando deberíamos arrancar con cambio desde cero?

Aquel código legado, que corre en estructuras monolíticas y que requiere modernización para ir hacia arquitecturas SOA/Microservicios, requiere ser recreado bajo estándares modernos.

Aquel código que no puede adaptarse a metodologías Ágiles/#DevOps, requiere ser recreado.

Si la plataforma es insegura y el riesgo de robos de información o de fallas es alto, recrearlo es una buena decisión.

¿Por dónde comenzar?

Lo más importante es entender desde la óptica de negocios y desde la óptica de ingeniería en qué situación se encuentra una plataforma, y sea cual fuera la decisión, poder analizar los pro y contras de las tareas a realizar.

Si se ha decidido a realizar una modernización de sus aplicaciones, es necesario poder relevar todos sus componentes y generar un ‘mapeo aplicativo’ que contenga:

  • Detalles de los #frameworks utilizados
  • Detalles de la #infraestructura donde corre la plataforma
  • Detalles de integraciones
  • Detalles de bases de datos

Con toda este levantamiento de información se puede realizar un planeamiento sobre qué estrategia utilizar para modernizar una aplicación, adoptando frameworks nuevos, nuevos componentes de infraestructura como containers, bases de datos administradas, servicios PaaS/SaaS, etc.

En 54cuatro podemos ayudarte a realizar un #assessment y generar un roadmap de cómo modernizar tus aplicaciones. Contactanos para comenzar ya mismo con tu #AppModernization.


Contactate

Categories
54cuatro

App Modernization – modernizando las aplicaciones – 1/2

Cuando hablamos de modernizar una aplicación aparecen algunas confusiones producto de la tendencia asociada a “subir” aplicaciones a la nube.

Cuando tenemos que modificar una app para poder ser llevada a la #nube, o porque simplemente necesitamos actualizarla, recordemos que debemos modificar cuestiones relacionadas a su arquitectura aplicativa y su arquitectura de infraestructura; y que por lo general son tareas que merecen un análisis para entender que estrategia utilizar, ponderando cuestiones tecnológicas y de costos.

Estrategias asociadas

Existe un concepto ampliamente extendido por los proveedores de nube que consiste en las 5R.

Estas 5R son: Rehost, Refactor, Rearchitect, Rebuild, y Replace. Algunos agregan 2R a esta lista, pero en líneas generales, son los conceptos más extendidos.

Enumeremos cada una de ellas con una breve explicación:

  • #Rehost: es el concepto más simple de migración a la nube. Consiste en la técnica de “lift & shift” es decir, levantar toda la plataforma tal cual está y montarla en otro destino sin mayores cambios.
  • #Refactor: el refactor tiene la ventaja de realizar algunos cambios mínimos sobre las aplicaciones, utilizando por ejemplo servicios PaaS. En este caso una técnica habitual es migrar a la nube y -ej- usar bases de datos administradas por sobre motores instalados en VM.
  • #Rearchitect: tiene en consideración el hecho de hacer cambios en las aplicaciones, ya sea porque utiliza componentes obsoletos, porque no fue pensada para nube o por cualquier situación que provoca que ese deba repensar la solución para que se adapte a un nuevo entorno cloud.
  • #Rebuild: en este punto estamos hablando de reconstruir enteramente una aplicación. La actual muere de inanición y se crea en paralelo una plataforma que reemplace las funcionalidades de la app actual, pero con un nacimiento 100% cloud native.
  • #Replace: por último en este caso, al igual que el rebuild, deja de lado la plataforma / software actual, y en su lugar se reemplaza en su totalidad, ya sea por un software o plataforma de un 3ro o por un nuevo desarrollo in-house.

¿Que estrategia debo elegir?

La respuesta es DEPENDE. Y como decía la canción de Jarabe de Palo, ¿de qué depende? Depende de las necesidades que se deban cumplir.

Yendo desde un Rehost > Refactor > Rearchitect > Rebuild > Replace podemos indicar que iniciando con un Rehost los costos operativos de efectuar la migración son menores, pero los costos de los servicios de nube serán mayores. A medida que nos vamos hacia el Rearchitect o Rebuild, el esfuerzo por modernizar una aplicación es mayor pero al ir hacia un modelo mas cercano al #CloudNative hace que los costos de nube disminuyan.

La decisión va a pasar entonces por definir si se requiere cumplir con tiempos cortos, el Rehost o Refactor sean convenientes, asumiendo costos de servicios cloud más altos.

Si se requiere cumplir con una aplicación más performante, con menores costos de nube y donde el tiempo no importe tanto, el Rearchitect, Rebuild / Replace, serían las estrategias a elegir.


Contactate

Categories
54cuatro

Data Mesh. ¿Qué es?

Se viene hablando mucho sobre data mesh, y existen muy buenas explicaciones respecto al tema.

Muy buen video Zhamak Dehgani

#DataMesh o Malla de Datos, es un término que hace mención a la evolución de los pipelines de datos, abordado desde 4 dimensiones:

  • Propiedad y arquitectura descentralizada de datos orientada al dominio
  • Datos como producto.
  • Infraestructura de datos de autoservicio como plataforma
  • Gobierno federado.

Cada principio impulsa una nueva visión lógica de la arquitectura técnica y la estructura organizativa.

Para entender que es un #dominio, sugerimos leer acerca de DDD (domain driven design).

Objetivo de la Malla de Datos

En la actualidad existen 2 grandes modelos de gestión de datos, el #EDW (Datawarehouse) y el #Datalake, y aunque se impulsa un concepto híbrido denominado #lakehouse, la realidad es que sigue existiendo complejidades asociadas a las fallas constantes de los #ETL, un incremento exponencial de los #data #pipelines y eso genera cada día mayor necesidad de administración.

La malla de datos reconoce y respeta las diferencias entre estos dos planos: la naturaleza y la topología de los datos, los diferentes casos de uso, las personas individuales de los consumidores de datos y, en última instancia, sus diversos patrones de acceso. Sin embargo, intenta conectar estos dos planos bajo una estructura diferente: un modelo invertido y una topología basada en dominios y no en una pila de tecnología.- con un enfoque en el plano de datos analíticos.

El objetivo de la malla de datos es crear una base para obtener valor de los datos analíticos y los hechos históricos a escala . La escala se aplica al cambio constante del panorama de datos , la proliferación de fuentes de datos y consumidores , la diversidad de transformación y procesamiento que requieren los casos de uso , la velocidad . de respuesta al cambio .

Modelo de Data Mesh

Malla de datos

Descripción de los pilares

  • Propiedad y arquitectura descentralizada de datos orientada al dominio: este punto hace referencia a la transferencia de la propiedad de los datos a los responsables de dominio. Un experte de dominio según DDD es aquel con conocimientos específicos sobre un sector/área de la compañia, como gerencias, departamentos, etc. Esta transferencia hace que los expertos de dominios, sean los dueños y por ende se delega en ellos la responsabilidad de asegurar la calidad y seguridad de la data.
  • Datos como producto: en este punto, el objetivo es que los dominios sean capaces de generar sus productos de datos. Bajo un concepto de Product Owner, la idea es que cada responsable pueda mantener, validar y mejorar la calidad de la información; buscando que además la información sea colaborativa y pueda ser consumida por diferentes actores interesados.
  • Infraestructura de datos de autoservicio como plataforma: este ítem busca la simplificación de la gestión de la plataforma, permitiendo a los usuarios especialistas de dominios poder trabajar sobre la data sin depender de especialistas.
  • Gobierno federado: la importancia de la gobernanza no puede quedar de lado. Este punto refiere a la necesidad de cumplir con los puntos de seguridad/compliance/políticas corporativas, con el objetivo de asegurar la privacidad, el cumplimiento normativo y la seguridad.

Contactate

Categories
54cuatro

El ROI de IoT y su impacto en la Sustentabilidad 

Las organizaciones de hoy en día están bajo una enorme presión por parte de la gerencia y los clientes para ofrecer productos y servicios de mayor calidad a costos más bajos, y a su vez, hacerlo utilizando los recursos existentes.  

Se espera que cualquier gasto que hagan las empresas para ayudarlas a lograr este objetivo genere un #ROI medible y efectivo, y lo haga rápidamente. Aunque un número cada vez mayor de empresas aprovechan el IoT como parte de su estrategia de sustentabilidad, sigue existiendo una clara necesidad de poder demostrar los beneficios de hacerlo. 

Los líderes del mercado de hoy entienden que el ROI es multidimensional y que, en muchos casos, el componente de ahorro de costos puede ser secundario a otros beneficios, como mejorar la satisfacción del cliente, el valor generado hacia la sustentabilidad, la diferenciación de la marca y la recopilación de datos precisos, todo lo cual también puede generar mayores ingresos. 

A medida que las empresas hacen todo lo posible para retener y expandir las relaciones con los clientes existentes, sus activos más valiosos, los nuevos modelos comerciales y los servicios de valor agregado pasan a primer plano, y con ellos surgen nuevas oportunidades significativas para la empresa.  

ROI de IoT: beneficios y más allá 

Algunos beneficios relacionados al uso de #dispositivos #IoT es que se pueden convertir en métricas y esa recopilación de datos es instantánea y continua en el tiempo, proporcionando una forma de medir y cuantificar resultados. 

Por ejemplo, el uso de energía. Los #sensores y análisis de IoT proporcionan un marco para monitorear, medir y catalogar datos de sensores ambientales y de energía, incluidos el consumo y la demanda de energía, la calidad del aire y el consumo de agua de manera granular y dinámica. 

Tener todos esos datos de los dispositivos IoT al alcance de la mano produce información sobre las instalaciones y operaciones que conducen a decisiones más inteligentes. La “datificación” es el proceso de traducir operaciones que alguna vez fueron aparentemente invisibles en datos, y luego transformarlos en información para crear valor. 

Encontrar el valor 

Cada producto requiere cierto nivel de servicio y soporte y para ello las organizaciones adoptan cada vez más soluciones de servicio que identifican, diagnostican y resuelven problemas de forma remota.  

Una estrategia de IoT ayuda a brindar servicios proactivos que mejoran el tiempo de actividad y reducen la cantidad de visitas de campo o la duración de las llamadas de soporte. Al mismo tiempo, reduce drásticamente los costos del servicio, allanando el camino para el desarrollo de servicios de valor agregado basados ​​en los datos que se devuelven desde los dispositivos. 

Las organizaciones que fueron las primeras en poner sus dispositivos en línea ahora se están dando cuenta de que el verdadero “oro” en IoT es tomar esos datos e integrarlos con servicios de #CRM, #ERP, #DataWarehouse, que permiten optimizar procesos comerciales críticos, reduciendo llamadas de servicio, tiempos y gestión eficiente de retiro de productos, etc.  

Los datos de IoT de los activos conectados, en colaboración con otros sistemas empresariales, pueden proporcionar visibilidad y automatización que antes no eran posibles en todas las organizaciones.  

Por ejemplo, los datos de productos que fluyen a través de un sistema CRM también se pueden enviar a facturación o a un sistema de gestión de la cadena de suministro, lo que ayuda a eliminar los pasos manuales propensos a errores y brinda nuevas oportunidades de ventas para cosas como la reposición de consumibles o la renovación de la garantía. Además, la integración con el control de calidad o la gestión del ciclo de vida del producto (#PLM) puede ayudar a mejorar las características del producto en función de datos del mundo real que muestran patrones de uso o problemas del equipo, lo que ayuda a mejorar la satisfacción del cliente y agilizar los procesos. 

Hoy los dispositivos IoT ofrecen a las empresas la capacidad de brindar un mejor servicio a un menor costo, minimizar el tiempo de respuesta y maximizar el uso y el alcance de sus recursos. Al mismo tiempo, permite mejorar los ingresos, los márgenes, la participación de mercado y, lo que es más importante, la satisfacción del cliente. Las soluciones de IoT pueden ser la clave para brindar un servicio de excelencia a sus clientes, obtener información comercial certera, mejorar los procesos comerciales y generar valor en productos, servicios e innovación. 

Medición de su desarrollo sostenible 

IoT puede proporcionar una mayor visibilidad de sus procesos y condiciones ambientales, específicamente el consumo de energía, la calidad del aire y la calidad del agua. Examinar esos datos a lo largo del tiempo le brindará un mecanismo de retroalimentación que le permitirá “ver” el impacto de sus esfuerzos. 

Dependiendo de su empresa y sus objetivos/prioridades, una o más métricas pueden ser más “ponderadas” para usted que para otra organización. En última instancia, su desempeño en estas categorías debe combinarse en un mecanismo de informes integral, una especie de “Cuadro de Mando Integral de Sustentabilidad”, que se puede evaluar fácilmente. No sólo obtendrá una mejor perspectiva de la eficacia de lo que está haciendo, sino que sus accionistas, inversores y clientes tendrán una forma cuantificable de evaluar su desempeño de sustentabilidad a lo largo del tiempo. 

Estas medidas también se pueden comparar con otros datos, como los cambios en el compromiso de los empleados, la satisfacción del cliente o los datos de ventas. Las correlaciones pueden indicar que sus esfuerzos están teniendo un impacto y que su capacidad para cuantificar los esfuerzos de sustentabilidad está, por ejemplo, aumentando el valor de su marca o mejorando el compromiso de los empleados. 


Contactate

    Por favor, demuestra que eres humano mediante la selección la casa.