Skip to content

No-Country-simulation/c21-57-t-data-bi

Repository files navigation

c21-57-t-data-bi

Proyecto: Análisis de Carrito Abandonado

Objetivo: Analizar el comportamiento de los usuarios que abandonan el carrito de compras en un sitio web de e-commerce para identificar posibles razones y proponer estrategias de retención.

Streamlit web app: Streamlit

Dataset: Dataset

Tabla de Contenidos

Colaboradores

  • Raphael Nicaise: Data Engineer & Project Manager GitHub LinkedIn
  • Ruth Estefania Puyo: Data Analyst & BI Analyst GitHub LinkedIn
  • Pamela Cardozo: Data Analyst GitHub LinkedIn
  • Leando Matias Luna: ML Developer GitHub LinkedIn
  • Yalideth Sánchez: Data Analyst GitHub LinkedIn

Stack Tech

Trello GitHub Slack Python Jupyter Visual Studio Code Pandas Numpy Matplotlib Prefect Streamlit Seaborn Power BI

Instalación y Ejecución

  1. Clonar el repositorio
git clone https://github.com/No-Country-simulation/c21-57-t-data-bi
  1. Crear un entorno virtual en la carpeta raiz del proyecto
pip install virtualenv                               
python -m venv venv
./venv/Scripts/activate
pip install -r requirements.txt
  1. (Local) Ejecutar la aplicación Streamlit
  • (Aunque la pagina este deployada en la nube, se puede ejecutar localmente)
streamlit run app.py
  1. (Cloud) Ejecutar el ETL
  • Crear cuenta en Prefect Cloud y crear un proyecto.
  • Copiar el API Key y ejecutar el siguiente comando:
prefect cloud login -k <API_KEY>
  • Ejecutar el flujo de trabajo:
py data_engineer/main.py

Estructura del Proyecto

c21-57-t-data-bi
    ├───/data
    │   ├───/bronze
    │   ├───/gold
    │   └───/silver
    ├───/data_analysts_bi
    ├───/data_engineer
    ├───/ml_developers
    ├──app.py
    └──requirements.txt

El proyecto se divide en 4 carpetas principales:

  • /data: Data Lake con los datos en diferentes niveles de procesamiento. (Medallion Methodology):
    • 🔸/bronze: Datos en bruto.
    • 🔹/silver: Datos procesados y limpios.
    • 🌟/gold: Datos finales extras y/o de analisis.
  • /data_analysts_bi: Contiene los notebooks de los analistas de datos y BI.
  • /data_engineer: Contiene el flujo de trabajo del ETL.
  • /ml_developers: Contiene los notebooks de los desarrolladores de ML.

Ademas, el proyecto cuenta con:

  • Un archivo app.py que contiene la aplicación web de Streamlit
  • Un archivo requirements.txt con las dependencias del proyecto.

Streamlit Web App Docs

En la aplicación web de Streamlit se pueden encontrar las siguientes secciones:

  • Informacion: Donde se encuentra este mismo README.MD.
  • Consultas: Seccion donde tenemos algunos filtros para consultar datos.
  • Visualizaciones: Seccion donde se encuentran las visualizaciones de los datos.
  • Resultados del Modelo: Seccion donde se encuentran los resultados del modelo de ML. Se encuentran tanto graficos, como un carrito simulado en el que podemos predecir si, el carrito va a ser concretado o cancelado.

About

No description, website, or topics provided.

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published