Análisis de entrega de alimentos a través de servicios de entrega en restaurantes: Granularidad temporal Fase (2)

Hola muy buenos días , tardes o noches.

El día de hoy abordaremos la primera fase del reto de https://fp20analytics.com/challenge, el reto número 6, el cual trae un maravilloso data set CHALLENGE 6 RESTAURANT FOOD DELIVERY ANALYSIS. En este caso seguimos con la segunda fase que es la creación de la dimensión fecha.

En el proceso de análisis de datos, contar con una dimensión de fechas adecuada es fundamental para realizar un análisis efectivo y obtener información valiosa sobre nuestros datos. En este caso, vamos a revisar los pasos gramaticalmente para crear una tabla de fechas utilizando Power Query. Estos pasos nos permitirán establecer un rango continuo de fechas basado en los datos de nuestra tabla y agregar columnas adicionales que nos brindarán granularidad y facilitarán el análisis temporal.

En esta fase 2 que vamos a realizar, en este caso, para poder ejecutar y crear la tabla de fechas, es decir, la dimensión de fecha, la crearemos con Power Query para continuar creando un modelo de dimensión efectivo y dar respuesta a este caso.

Paso 1) Creamos un proceso en blanco en el editor de consultas. Esto implica abrir Power Query y crear una nueva consulta sin ningún dato inicial. Esto nos permitirá construir paso a paso nuestra tabla de fechas.

Paso 2) En este caso, procesamos cómo ejecutar el código para obtener la fecha mínima y la fecha máxima de nuestra tabla de datos (Fact_table). Utilizamos las siguientes variables:

  • Fuente = Fact_table: Definimos la tabla de datos como nuestra fuente principal.
  • FechaMinima = List.Min(Fact_table[Date]): Encontramos la fecha más antigua en la columna «Date» de la tabla.
  • FechaMaxima = List.Max(Fact_table[Date]): Encontramos la fecha más reciente en la columna «Date» de la tabla.
  • RangoNumeros = {Number.From(FechaMinima)..Number.From(FechaMaxima)}: Creamos un rango de números que abarca desde la fecha mínima hasta la fecha máxima.

in RangoNumeros: Devolvemos el rango de números como resultado de este paso.

Paso 3) Convertimos nuestra lista de números en una tabla. Tomamos el rango de números generado en el paso anterior y lo convertimos en una tabla para poder manipularlo y agregar más columnas en los pasos siguientes.

Paso 4) Convertimos la columna de números en formato de fecha. Dado que nuestra columna en la tabla es una lista de números, la convertimos en una columna de fechas para que sea más útil en nuestro análisis. Ahora tenemos un rango de fechas continuo basado en la fecha mínima y máxima de nuestros datos.

Paso 5) Utilizando las ventajas y facilidades que nos brinda Power Query, comenzamos a ingresar las columnas de fechas adicionales para realizar un análisis más detallado. Estas columnas pueden incluir el mes, el año, el día, la semana del año y el nombre del mes. Agregar estas columnas nos permite realizar agrupaciones y filtrados más específicos en función de diferentes aspectos temporales.

Paso 6) Utilizamos los datos con los que estamos trabajando para cargar eficientemente el proceso de la tabla. Esto implica vincular nuestra tabla de fechas con los datos relevantes en nuestro modelo dimensional. Es común que la columna de fecha sea utilizada como clave de vinculación entre las tablas de hechos y las tablas de dimensión en un modelo dimensional.

Con esto, podemos ver cómo, al seguir estos pasos, podemos trabajar de manera efectiva y crear un análisis muy robusto. Al tener una dimensión de fecha adecuada, con granularidad y columnas adicionales, podemos obtener información valiosa sobre nuestros datos, permitiéndonos realizar análisis más enriquecedores y profundos en diferentes períodos de tiempo, como días, semanas, meses o años.

 

La creación de una dimensión de fechas mediante los pasos mencionados nos proporciona una base sólida para el análisis temporal de datos. Al aprovechar las funcionalidades de Power Query y agregar columnas adicionales, podemos obtener un análisis enriquecedor y comprender mejor la evolución de nuestros datos a lo largo del tiempo. Esto nos permite obtener información valiosa para la toma de decisiones y aprovechar al máximo el potencial de nuestros datos.

 

 

En los siguientes post continuaremos modelando nuestro dataset para afrontar de mejor manera este maravilloso reto.

Vicente Antonio Juan Magallanes

Business Intelligence Technical.

 

Perfil linkedin.

 

Loading

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *