Data Management Fundamentals
- Owner, Site |
¿Por qué este curso?
El curso de Data Management Fundamentals nace de la inquietud de algunos miembros de DAMA España para facilitar la cultura del dato dentro de las empresas. Analizando los diferentes framework se ha diseñado un recorrido formativo que toca todas las áreas del Data Management (DM) para que las empresas puedan mejorar el conocimiento de sus activos empresariales. Se trata de un curso diseñado e impartido por profesionales para profesionales y estudiantes con perfiles STEM que quieran ampliar sus conocimientos y poder llegar al mundo de la empresa con la preparación necesaria.
Quien lo realiza
El curso está promovido y organizado por la IDESE (Nunsys) y la UCLM y por diferentes profesionales asociados de DAMA España. Son los profesionales pertenecientes a esta asociación quienes, a través de las diferentes sesiones y especialidades de que consta el curso, transfieren su experiencia profesional y sus conocimientos aplicados del DM en diferentes sectores empresariales. Estos conocimientos constituyen una buena base para la profesionalización del sector a través de la obtención de certificaciones existentes en el mercado.
Información del curso
Objetivos
Objetivos del curso:
- Enfocar el Data Management en su conjunto, aplicar los frameworks más reconocidos del sector
- Acercarse al conocimiento sobre datos con casos prácticos de la mano de unos profesionales reconocidos y certificados
- Conocer las buenas prácticas en las diferentes áreas del Data Management
- Evitar errores y aplicar correctamente los conocimientos en materia
- Facilitar la obtención de las certificaciones más reconocidas del mundo del Data Management
Contenido
Módulo 1 – Data Management Process – Docente Michele Iurillo
Se habla mucho de transformación digital como “proyecto” pero en realidad se trata de un un proceso continuo que necesita la Data Governance de la misma forma que necesita otros aspectos relacionados con los datos (Data Quality, Data Analyzing, Data Architecture , Data Modelling etc.)
Estamos en la era de los Metadatos. Si es verdad que la Inteligencia de Negocio ha cristalizado la estrategia (pasando de “qué” hacer a “como” hacerlo), la Data Virtualization ha permitido liberar los datos de vínculos físicos; la Data Governance va a focalizar sus esfuerzo en los metadatos. Ya no importa la cantidad de datos que podamos tratar ni como lo tratamos. Necesitamos saber que estos datos dicen y quien decide que digan algo. Los datos son activos empresariales no algo que solo descansan en el departamento TI hay que romper los reinos, feudos y taifas de datos hay que liberar los datos para que se transformen en información útil a la empresa.
Estructura y roles del DM
El modelo operativo es un punto de partida para mejorar las prácticas de gestión de datos y de gobernanza de datos. Para desplegarlo hay que hacerse ciertas preguntas: ¿Cómo puede repercutir en la organización actual? ¿Cómo debe evolucionar con el tiempo?
Entender la empresa para entender sus datos es un proceso fundamental antes de ponerse manos a la obra. Por ello hay que seguir indagando antes de poner en marcha cualquier proceso de DM: ¿Cuál es el papel de los datos en la organización? ¿Qué procesos clave son impulsados por los datos? ¿Cómo se definen y comprenden las necesidades de datos? ¿Hasta qué punto se reconoce la función que desempeñan los datos en la estrategia de la organización?
Big data and data science – Docente Oscar Alonso
Los conceptos de big y data science están íntimamente ligados y relacionados con la evolución tecnológica que nos ha permitido generar, almacenar, y analizar no sólo cantidades ingentes de datos (volumen), sino además datos con una gran variedad producidos a una enorme velocidad. De acuerdo con diferentes autores, se considera a big data como una colección considerable de datos con dificultades para almacenarse en bases de datos tradicionales, y también para procesarse en servidores estándar y para analizarse con aplicaciones habituales.
Gracias al paradigma de big data, la anteriormente llamada estadística aplicada, se ha visto potenciada utilizando estas fuentes de información para descubrir patrones y ha pasado a ser denominada data science, integrando diferentes métodos para analizar todo tipo de datos con el objetivo de encontrar respuestas a preguntas no conocidas al comienzo del análisis y que van surgiendo en el proceso exploratorio.
Data Architecture docente Mario de Francisco
Lo que implica exactamente el ámbito de Arquitectura del Dato puede ser confuso para las personas que no están relacionadas con el tema y que no reconocen todas las aristas que la componen por lo que una razón por la cual los marcos arquitectónicos de datos son valiosos es que permiten a los que no son arquitectos comprender los diferentes niveles y enfoques desde el punto de vista de la gestión de los datos a distintos niveles dentro de la organización (conceptual, lógicos y físico) y para los distintos dominios de información.
En este contexto, la Arquitectura de Datos es fundamental para la gestión de datos ya que las organizaciones, debido a que tienen más datos de los que las personas pueden comprender, tienen la necesidad de representar estos activos de información en diferentes niveles de abstracción para que puedan entenderse y se puedan tomar decisiones al respecto.
Así pues, el objetivo de la Arquitectura de Datos es ser un puente entre la estrategia empresarial y la ejecución de la tecnología, porque la Arquitectura de Datos es más valiosa cuando impulsa completamente las necesidades de toda la empresa permitiendo la estandarización e integración consistente de los datos en todo su ciclo de vida.
Document and Content Management – Docente Mario Salamanca
La Gestión del Contenido y Documentación generada en un proceso de Data Management es el pegamento que da sentido a todo el trabajo realizado, aportando el orden necesario para que pueda ser reutilizado y accesible por toda la organización.
Está centrado en asegurar la integridad de toda la información generada en torno a cualquier rama de la gestión de los datos, así como el acceso apropiado a esta. Especialmente relevante es esta práctica cuando se dispone de una mezcla de fuentes de información estructuradas y no estructuradas, para lograr una homogeneización en la forma de almacenar los datos.
Data Ethics – Docente Oscar Alonso
La transparencia en el uso de los datos personales además de ser un requerimiento legal constituye la oportunidad perfecta para la creación de confianza con nuestros clientes, y por tanto de valor añadido.
La ética en el tratamiento de los datos tiene que ver con la forma en la que obtenemos, almacenamos, administramos, usamos y disponemos de los datos. Gestionar los datos de manera ética es necesario para el éxito a largo plazo de cualquier organización, y en última instancia, para los profesionales de la gestión de datos y las organizaciones para las que trabajan, la ética de datos es una cuestión de responsabilidad social.
Crear una cultura ética implica introducir una gobernanza adecuada, incluida la institución de controles para garantizar que los resultados previstos y resultantes del procesamiento de datos sean éticos y no violen la confianza ni infrinjan la dignidad humana.
Data Governance – Docente Mario de Francisco
El Gobierno del Dato es el eje central de toda estrategia de Gestión de Datos y su función es la de guiar el resto de funciones de Gestión del Dato. Como tal, tiene que tener un ojo puesto en todas y cada una de las otras áreas incluidas en el rosco de DAMA y su propósito consiste en asegurar que los datos son gestionados adecuadamente, de acuerdo a las políticas y mejores prácticas definidas.
Mientras que el objetivo general de la gestión de los datos es asegurar que una organización obtiene valor de sus datos, el Gobierno del Dato se focaliza en cómo se toman las decisiones acerca de los datos y cómo se espera que la gente y los procesos se comporten en relación a los datos.
Así pues, el Gobierno del Dato se define como el ejercicio de autoridad y control (planificación, monitorización y aplicación) sobre la gestión de los activos de datos y se convierte en el elemento clave y la palanca de cambio necesaria para conseguir una transformación completa de la organización en su camino hacia convertirse en data-driven.
Data Integration and Interoperability – Docente Cesar Pecharroman
Cuando hablamos de datos, siempre pensamos en que debemos disponer de datos correctos en la aplicación que estamos usando en ese momento, pero raramente nos paramos a pensar, esos datos donde se han generado. Es más, en la mayoría de los casos estos datos han sido generados en sistemas o bases de datos distintos, al que estamos usando para consumirlos. Pero si además pensamos que ese mismo dato, puede ser requerido en otro sistema totalmente distinto, entonces, el tema empieza a complicarse. Donde se origina, por donde pasa, cómo evoluciona, en donde se consume…
Con la Integración de Datos y la Interoperabilidad, vamos a ver las reglas, los procesos y las mejores prácticas que tenemos que poner en práctica para precisamente, lograr eso que parecía en el párrafo anterior tan complejo, el asegurar que el camino que siguen los datos por diferentes sistemas a lo largo de una organización, se hace de manera organizada, correcta, y aseguramos que los datos correctos son consumidos donde sea necesitado en el momento adecuado.
Master and Reference Data – Docente Cesar Pecharroman
Al ponernos a hacer cualquier actividad con Datos, probablemente no utilizaremos todos los datos de una organización, pero lo que seguro que vamos a necesitar serán Datos Maestros y de Referencia. Esto nos lleva a pensar, que probablemente una de las actividades que tenemos que asegurar es que nuestros datos maestros y de referencia son correctos, únicos y consistentes.
Para ello hemos de entender y diferenciar entre datos maestros y de referencia del resto, así como datos maestros de los de referencia. Ya que en función del tipo de estos necesitaremos unos cuidados u otros.
Al mismo tiempo hemos de saber cómo organizar y asegurar unicidad, integridad y una correcta evolución del dato maestro y de Referencia a lo largo de todo su ciclo de vida, así como una correcta estructura para su adecuada gestión. Cubriremos todos estos puntos para asegurarnos un correcto gobierno de los mismos, y lo más importante, una adecuada disponibilidad en tiempo y forma.
Data Modelling and Design – Docente Jose Mª Arce
Nos adentraremos en el apasionante arte del modelado de los datos, recorriendo y comprendiendo los diversos modelos de datos implicados específicamente en las soluciones de Data Warehouse. Comprendiendo las actividades y pasos necesarios para comprender los requerimientos analíticos del negocio, las cuales nos permitirán diseñar modelos con altas capacidades. Necesidades que implican la definición de dimensiones con sus entidades, con sus jerarquías y la relación de estas a través de tablas de hechos, las cuales nos permiten medir y evaluar el comportamiento de los hechos a analizar. Juntos conoceremos los principales modelos existentes, analizaremos las ventajas e inconvenientes de cada uno y sobre todo la necesidad de la existencia de un buen modelo de datos.
Data Quality – Docente Lucia Engo
Todas las disciplinas de la gestión de los datos contribuyen a mejorar la calidad de los datos de una organización. Sin embargo, aquellas organizaciones que gestionan formalmente la calidad de sus datos tienen menos problemas que aquellos que no lo hacen.
La gestión formal de la calidad requiere de un equipo dedicado a un programa que se dedica a gestionar la calidad de los datos a lo largo de todo su ciclo de vida. Para ello, se deben definir una serie de estándares y especificaciones que permitan realizar controles de calidad como parte del propio ciclo de vida del dato, implementar los procesos que permitan medir, monitorear e informar sobre los niveles de calidad, realizar correcciones y finalmente identificar oportunidades de mejora en los procesos y sistemas con el objetivo de dotar a los datos de la calidad que los consumidores necesitan.
Data security – Docente Oscar Alonso
La relación entre la seguridad de los datos y los requerimientos regulatorios para el gobierno, propiedad, y gestión de los datos se está fortaleciendo a pasos agigantados. En el fondo la gestión de los datos, la propiedad de estos, y su gobierno se ocupan del qué, quién y cómo.
La adecuada implantación de programas de gestión y de gobierno de los datos crea nuevas líneas de defensa para los datos en riesgo, aquellos que si cayeran en manos no autorizadas comprometerían a una organización y/o a sus clientes. Estas líneas de defensa son, a alto nivel: (1) identificar datos en riesgo; (2) localizar datos sensibles; (3) identificar a los usuarios de los datos sensibles y garantizar la coherencia de los procesos de acceso a los datos; y (4) garantizar un acceso más seguro a los datos sensibles.
Conociendo esta relación podremos validar si nuestros datos se rigen de forma consistente bajo una única visión. Si no, una organización podría tener desplegadas políticas inconsistentes e incluso contradictorias, lo que introduce nuevos riesgos.
Data Storage and Operations – Docente Cesar Pecharroman
Cuando se habla de gobierno del Dato, pensamos en modelado, master data, seguridad, Roles, definiciones,… pero en la mayoría de las veces se nos olvida pensar que para tener un gobierno correcto, necesitamos tener perfectamente definido e identificado, el donde vamos a almacenar nuestros datos y cómo vamos a realizar todas las operaciones desde la definición del proyecto a la implementación, el mantenimiento, y la disponibilidad de los datos.
Todo esto, aunque a veces tengamos capas de software, que sea los que en algunos casos va a ver los usuarios finales, lo vamos a realizar en el almacenes o Bases de datos. Éstas, últimamente han evolucionado debido a las nuevas necesidades que han surgido por el Big data por lo que fundamentalmente tendremos Bases de Datos Relacionales y NoSql.
Hablaremos acerca de los diferentes aspectos que debemos conocer y tener en cuenta para un proyecto, así como de las operaciones necesarias que deben llevarse a cabo en el día a día para asegurar un correcto funcionamiento y disponibilidad de los datos.
Data Warehouse and Business Intelligence Docente Jose Mª Arce
Se propone conocer el término que surgió en los años ochenta y que hoy en día continúa en auge debido a la necesidad de disponer de un almacén unificado para la correcta toma de decisiones, necesidad que crece y se complementa con los paradigmas asociados al Big Data.
Nos adentraremos en las metas y principios que conlleva, sus conceptos, los enfoques para su desarrollo y sus características. Romperemos los mitos y comprenderemos la visión de Kimbal vs Inmon. Observaremos la importancia de un buen modelo y como esté en sí mismo ofrece información del negocio. Veremos los procesos implicados en el diseño, desarrollo y construcción de una Data Warehouse. Un paseo por el fascinante mundo del Business Intelligence.
Metadata Management – Docente Michele Iurillo
La definición más común de metadatos, «datos sobre datos», es engañosamente simple. El tipo de información que puede clasificarse como Metadatos es muy amplio.
Brindan información sobre procesos técnicos y comerciales, reglas y limitaciones de los datos y estructuras lógicas y físicas de los datos.
Describen los datos propiamente dichos (por ejemplo, bases de datos, elementos de datos, modelos de datos), los conceptos que representan los datos (por ejemplo, procesos comerciales, sistemas de aplicación, código de software, infraestructura tecnológica) y las conexiones (relaciones) entre los datos y los conceptos. También ayudan a una organización a comprender sus datos, sus sistemas y sus flujos de trabajo. Su gestión pro-activa permite evaluar la calidad de los datos y son parte integrante de la gestión de las bases de datos y otras aplicaciones. Los metadatos contribuyen a la capacidad de procesar, mantener, integrar, asegurar, auditar y gobernar otros datos.
Change Management – Docente Mario Salamanca
Cualquier proyecto o actividad derivada de la transformación digital que conlleve la gestión de datos tiene tres aspectos principales a monitorizar: los procesos, la tecnología y las personas. Se da la circunstancia de que tanto los procesos como la tecnología los configuran las personas y casualmente estas sean el eslabón más débil de la cadena.
Lograr un alineamiento ordenado y efectivo entre todos los intervinientes del proceso de gestión de información es el mayor reto al que se enfrentan los profesionales del dato. Es necesario generar en ellos una necesidad de urgencia en lograr los objetivos, así como hacerles partícipes de las ventajas que aporta el cambio tecnológico y de mentalidad en torno al dato.
En todo este proceso se lidia con todo tipo de perfiles, desde los más favorables a los más reacios al cambio. Necesitamos lograr una mayor influencia en estos últimos y apoyarnos en los primeros para alcanzar los objetivos
Metodologia
- 8 sesiones de 3 horas online
- Todas las sesiones se graban y se ponen en esta platform para su consultacion
- Mas de 400 slides de preparación
- Una copia PDF del DmBok2 en Castellano o en Ingles
- 450 test de entrano
- Material exclusivo de los grupos de trabajo de DAMA España
. Glosario y Foro de Ayuda
Docentes
Mario de Francisco
Ingeniero en Telecomunicaciones por la Universidad de Zaragoza, MsC en Consultoría de Negocios por ICADE, Certified Data Management Professional (CDMP – Associate) y Responsable del Comité de Gobierno del Dato & Metadatos de DAMA España.
Su actividad profesional siempre ha estado ligada, desde el inicio, con el emprendimiento y el mundo corporativo, uniendo los mundos del negocio y la tecnología. Poco a poco se fue especializando en el mundo de los datos y actualmente es CEO de Anjana Data, empresa que fundó en 2019 para lanzar al mercado una nueva solución de gobierno del dato basada en un enfoque innovador, disruptivo y diferencial. Además, le encanta escribir y hablar sobre su visión y enfoque en torno a la estrategia, la gestión y el gobierno de los datos como un catalizador para ayudar a las organizaciones a convertirse en data-driven y generar valor a partir del correcto uso de los datos.
Asignaturas: Data Governance, Data Architecture
José María Arce Argos
Arce cuenta con 31 años de trayectoria profesional en empresas de consultoría, especializándose en DW/BI, con más 27 años de experiencia dedicados en exclusiva al Business Intelligence & Analytics.
Ha desarrollado su carrera en empresas como: Leinsa (Banesto), Retesa (B.Santander), IBM, Ernst & Young, SAS Institute, Bull España, Altran SDB, Oesia, Accenture o Zurich-Santander Insurance América.
A lo largo de su trayectoria ha diseñado, coordinado, participado o dirigido iniciativas de BI/BA en empresas tan importantes como: Publiespaña, Seur, Ferrovial, Telefónica, British American Tobacco, Banca Halifax, Amadeus, ONT, Red Eléctrica de España, Continente, Carrefour, Grupo Abangoa, ABN Anro Bank, B. Santander, Open Bank, Dirección General de Estadística (JCYL), Telemadrid, Hospital San Cecilio de Granada, Diputación Foral de Álava, RED.ES, Egailan, INEM, INSS, Policía Municipal de Madrid, Canal de Isabel II, Endesa, etc…
Ha sido profesor, durante 10 años del master “Sistemas de Información e Investigación de Mercados”, en ESIC Business & Marketing School, impartiendo también la materia de “Balanced Scorecard”. En 2018, Arce vuelve a ICEMED, como profesor del Master Big Data Management (MBDM). En la actualidad también es docente en la Universidad Politécnica de Valencia del curso Data Management Fundamentals. Chema es Responsable del Comité de Arquitectura de Datos de DAMA España y miembro del Comité de Business Intelligence y Data Modelling
Asignaturas: Business Intelligence, Data Modelling, Data Warehousing
Lucía Engo Bermejo
Lucía Engo es Ingeniera de Telecomunicaciones por la Universidad de Alcalá y miembro y responsable del Comité de Calidad de Datos de DAMA España.
Su actividad profesional siempre ha estado ligada al mundo de la consultoría, principalmente basada en el desarrollo y gestión de proyectos enfocados al ámbito del Business Intelligence, participando en todas sus fases: desde la extracción y tratamiento de información, hasta la definición de KPI´s, diseño de cuadros de mando y exposición de conclusiones.
Durante los últimos años, ha participado y gestionado varios proyectos que tenían como principal objetivo la definición e implantación de modelos de Gobierno del Dato a nivel organizativo, así como programas de Calidad de Datos. Lucía es Responsable del Comité de Calidad de Datos de DAMA España. Actualmente es la presidenta de DAMA España.
Asignaturas: Data Quality
Oscar Alonso
Óscar es Ingeniero Técnico en Informática de Gestión por la Universidad Autónoma de Barcelona (UAB), Máster en Ingeniería del Software por la Universidad Politécnica de Cataluña (UPC), y graduado en Minería de Datos por la Universitat Oberta de Catalunya (UOC). Además, es alumni de ESADE Business School, donde cursó el CIO Advanced Program.
Cuenta con una amplia experiencia en consultoría IT y proyectos de estrategia IT en diferentes áreas, es autor de numerosos artículos y estudios sobre la aplicación de los sistemas de información a las estrategias empresariales, y ponente habitual en eventos del sector IT.
Además, Óscar es docente en la Universitat Oberta de Catalunya (UOC), ESIC Business & Marketing School, EAE Busines School, UPC School e ISDI, en ámbitos relacionados con estrategia y gobierno de los datos.
Asignatura: Data Security, Data Ethics
Mario Salamanca
Mario Salamanca es Ingeniero de Telecomunicación por la Universidad de Valladolid, está certificado en CDMP y es coordinador del grupo de Gestión del Cambio y Transformación Digital de DAMA España.
En su trayectoria profesional, Mario tiene 11 años de experiencia en consultoría, siempre ligado a actividades relacionadas con la Gestión de datos. Lidera proyectos de asesoramiento a las Data Office y áreas de negocio de las empresas en diferentes industrias, principalmente en los ámbitos de Gobierno y Calidad de los datos.
Al haber realizado proyectos de esta naturaleza desde diferentes perspectivas, conoce de primera mano las inquietudes de todos los intervinientes del ciclo de vida de los datos y les facilita las herramientas necesarias para ayudarles en la gestión del cambio cultural, tan necesario en las organizaciones hoy en día.
Asignatura: Gestión del Cambio, Document and Content Management
César Pecharroman
César es estadístico de formación, toda su trayectoria la ha dedicado a entender y modelar la sociedad que le rodeaba, en base a los datos. Para ello, no ha parado de profundizar en las diferentes áreas de empresa a través de la formación con un Master en Dirección Comercial y Marketing, un postgrado en Operaciones Logística y Transporte, o un EMBA. Además de ello, también en evolucionar las últimas tendencias alrededor de los datos con un programa de dirección en transformación Digital o un Master en Analítica y Big Data.
En cuanto a su trayectoria profesional, más de 20 años trabajando en torno al Dato, desde diferentes ámbitos, y siempre en empresas líderes en su sector. Empezó como Data Science y BI/DWH Analyst en Wanadoo (Orange), de ahí pasó a DuPont, donde desempeñó varios puestos como Process Optimizer, Global Master & Reference Data Leader o IT-BI & DWH Project manager.
Posteriormente, estuvo como Chief Data Officer en Axalta Coatings Systems, en Burger King Corporation como EMEA Chief Information Officer y terminar como Global Data Governance Manager, SAP & Digital Transformation en Jacob Holm, donde está en la actualidad.
Asignatura: Master Data Management, Integration & Interoperability
Michele Iurillo
Michele Iurillo es miembro de DAMA Italy y Responsable de Formación DAMA Spain, y fundador del Data Management Summit, evento de referencia en el mundo del manejo de los datos. Es actualmente Country Manager de Irion en España & Latam y Founder de Synergo!. Se ha ocupado de Inteligencia de Negocios durante los últimos 10 años. Ha sido Country Manager en España de TARGIT, Qerona y colabora con diferentes medios de comunicación y con Dataversity, verdadera referencia mundial en el mundo de los datos. Es certificado CDMP por DAMA-I, dicta conferencias sobre la necesidad de que las empresas descubran el tesoro de los datos que sus sistemas generan a diario.
Tutor del curso
Asignaturas: Metadata, Data Management Principles
Test Final de Aprobación
Un test donde es necesario sacar una puntuacion de mas de 60%
Tutores
Owner, Site