Compartir

El propósito de este taller es hacer una introducción del marco de Data Ops como herramienta para analizar las arquitecturas de datos de las compañías, y mostrar, algunas «Best Practices» destacadas de arquitectura de modelado de datos como DataVault, que potencian la eficiencia de nuestros sistemas de consumo de información.

Dirigido a:

– Analistas y expertos en data modelling, – Data architecture, – Data warehouse, – Datalake, – Data management, – Data ingenieros, – Responsables de gobierno datos, – Personas cercanas al área CDO, etc.

Dinámica del Workshop:

Al inicio de la sesión se realizarán dos lecciones teóricas con un break al final. Posteriormente, se realizarán unos ejercicios prácticos, y por último un pequeño resumen y espacio para dudas y comentarios.

  1. La primera lección tratará sobre Data Ops; trataremos cómo un framework nos puede ayudar a sentar las bases de los elementos clave de nuestra arquitectura de datos, y ver qué puntos podríamos potenciar o añadir valor estratégico. También veremos algunos casos en los que aplicamos el uso de algunas tecnologías en algunos clientes en los que utilizamos el Framework DataOps. Por último, daremos lugar a preguntas y comentarios.
  2. La segunda lección tratará sobre Data Vault; mostraremos cómo aplicando estas «Best Practices», que cada vez están siendo más utilizadas en grandes compañías actualmente y ya no sólo en el extranjero, podemos estructurar y modelizar los datos para dar una visión amplia, versátil y eficiente de consumir los datos. También veremos cómo enlaza el mundo de Data Vault, conjuntamente con el Data Ops y sacar así el máximo beneficio versus otras técnicas como Inmon / Kimball. Por último, daremos lugar a preguntas y comentarios.
  3. Haremos un break de 10 minutos.
  4. En la tercera parte de la sesión realizaremos un ejercicio práctico y sencillo de modelización de un ejemplo pre-establecido, aplicando metodología DataVault utilizando técnicas DataOps.
  5. A continuación, veremos mediante una introducción y demostración práctica como juntando ambos mundos, DataOps y DataVault y mediante metadatos, se puede construir el modelo DV, como así ingestar y automatizar la información construyendo un DWH en un entorno analítico en la plataforma Snowflake
  6. Por último, haremos una recapitulación de los temas tratados, y daremos paso a preguntas o comentarios y así poder profundizar sobre algún tema en concreto.

Programa

Parte I: FECHA OPS (30 min) • Introducción Data Ops: Beneficios • Cómo afrontar el paradigma DataOps mediante un Framework • Data Management Engines como acelerador de arquitecturas Metadata-Driven • Referencias • Turno de preguntas Parte II: FECHA VAULTO (40 min) • Introducción Data Vault 2.0: Beneficios • Arquitectura Diseño Modelos DV 2.0 • Arquitectura Funcional DV 2.0 en Data OPS • Consideraciones Diseño Data Vault 2.0 (+ Snowflake) • Referencias • Turno de preguntas PAUSA (10 min) Parte III: WorkShop (70 min) • Ejercicio: Diseñar Modelo DV 2.0 • Ejercicio: Construir Modelo DV 2.0 con estratégia DataOps • Resumen / Conclusiones • Turno de preguntas

Impartido por:

César Segura
Subject Matter Expert Data Technologies en SDG Group
CIDAI