El propósito de este taller es hacer una introducción del marco de Data Ops como herramienta para analizar las arquitecturas de datos de las compañías, y mostrar, algunas «Best Practices» destacadas de arquitectura de modelado de datos como DataVault, que potencian la eficiencia de nuestros sistemas de consumo de información.
Dirigido a:
– Analistas y expertos en data modelling, – Data architecture, – Data warehouse, – Datalake, – Data management, – Data ingenieros, – Responsables de gobierno datos, – Personas cercanas al área CDO, etc.
Dinámica del Workshop:
Al inicio de la sesión se realizarán dos lecciones teóricas con un break al final. Posteriormente, se realizarán unos ejercicios prácticos, y por último un pequeño resumen y espacio para dudas y comentarios.
- La primera lección tratará sobre Data Ops; trataremos cómo un framework nos puede ayudar a sentar las bases de los elementos clave de nuestra arquitectura de datos, y ver qué puntos podríamos potenciar o añadir valor estratégico. También veremos algunos casos en los que aplicamos el uso de algunas tecnologías en algunos clientes en los que utilizamos el Framework DataOps. Por último, daremos lugar a preguntas y comentarios.
- La segunda lección tratará sobre Data Vault; mostraremos cómo aplicando estas «Best Practices», que cada vez están siendo más utilizadas en grandes compañías actualmente y ya no sólo en el extranjero, podemos estructurar y modelizar los datos para dar una visión amplia, versátil y eficiente de consumir los datos. También veremos cómo enlaza el mundo de Data Vault, conjuntamente con el Data Ops y sacar así el máximo beneficio versus otras técnicas como Inmon / Kimball. Por último, daremos lugar a preguntas y comentarios.
- Haremos un break de 10 minutos.
- En la tercera parte de la sesión realizaremos un ejercicio práctico y sencillo de modelización de un ejemplo pre-establecido, aplicando metodología DataVault utilizando técnicas DataOps.
- A continuación, veremos mediante una introducción y demostración práctica como juntando ambos mundos, DataOps y DataVault y mediante metadatos, se puede construir el modelo DV, como así ingestar y automatizar la información construyendo un DWH en un entorno analítico en la plataforma Snowflake
- Por último, haremos una recapitulación de los temas tratados, y daremos paso a preguntas o comentarios y así poder profundizar sobre algún tema en concreto.