Este proyecto es un ejemplo de un Análisis Exploratorio de Datos (EDA) realizado sobre el dataset de pingüinos. Se basa en el trabajo realizado en este proyecto y sirve como ejemplo de cómo usar Cookiecutter para estructurar un proyecto de ciencia de datos con información detallada.
El cuaderno de Jupyter incluido en este repositorio realiza un análisis exploratorio completo del dataset de pingüinos, que es una alternativa al famoso dataset de iris. El objetivo es identificar patrones y relaciones entre las variables para entender mejor las características de las diferentes especies de pingüinos.
Este proyecto también muestra cómo utilizar Cookiecutter para generar una estructura estándar de proyecto, facilitando la organización y escalabilidad del código y los datos.
- notebooks/: Contiene el cuaderno de Jupyter 
1.0 EDA.ipynbcon el análisis exploratorio. - data/: Directorio destinado a almacenar los datos brutos y procesados.
 - src/: Código fuente utilizado para el procesamiento y análisis de datos.
 - requirements.txt: Lista de dependencias y paquetes necesarios.
 - README.md: Este archivo, que proporciona una descripción general del proyecto.
 
- Python 3.x
 - Jupyter Notebook o JupyterLab
 - Paquetes listados en 
requirements.txt 
- 
Install cookiecutter:
pipx install cookiecutter-data-science # con pipx o pip install cookiecutter-data-science # con pip
 - 
Usar el comando de cookiecutter y el repositorio:
ccds https://github.com/Andnog/Example-EDA-MDC-FCD
 - 
Navegar al directorio del proyecto:
cd tu_proyecto - 
Crear un entorno virtual y activarlo:
python -m venv venv source venv/bin/activate # En Windows usa 'venv\Scripts\activate'
 - 
Instalar las dependencias:
pip install -r requirements.txt
 
Sigue las celdas del cuaderno para ver el proceso de análisis y visualización de datos.
El dataset de pingüinos proporciona información sobre tres especies diferentes: Adelie, Chinstrap y Gentoo. Incluye características como:
- Longitud y profundidad del pico
 - Longitud de las aletas
 - Masa corporal
 - Sexo
 - Isla de origen
 
Este proyecto utiliza Cookiecutter para crear una estructura estándar, lo que facilita:
- Organización: Separación clara entre código, datos y documentación.
 - Escalabilidad: Base sólida para ampliar el proyecto en el futuro.
 - Colaboración: Facilita que otros contribuyan y entiendan la estructura del proyecto.
 
Para más información sobre Cookiecutter, visita la documentación oficial.
- Proyecto base: Análisis exploratorio de datos
 - Dataset de pingüinos: Disponible en la librería 
seaborno en palmerpenguins - Cookiecutter Data Science: Repositorio oficial
 
Este proyecto es un ejemplo educativo y no está abierto para contribuciones externas. Sin embargo, eres libre de utilizarlo como referencia o punto de partida para tus propios proyectos.
Este proyecto se distribuye bajo la Licencia MIT. Consulta el archivo LICENSE para más detalles.
├── LICENSE            <- Open-source license if one is chosen
├── Makefile           <- Makefile with convenience commands like `make data` or `make train`
├── README.md          <- The top-level README for developers using this project.
├── data
│   ├── external       <- Data from third party sources.
│   ├── interim        <- Intermediate data that has been transformed.
│   ├── processed      <- The final, canonical data sets for modeling.
│   └── raw            <- The original, immutable data dump.
│
├── docs               <- A default mkdocs project; see www.mkdocs.org for details
│
├── models             <- Trained and serialized models, model predictions, or model summaries
│
├── notebooks          <- Jupyter notebooks. Naming convention is a number (for ordering),
│                         the creator's initials, and a short `-` delimited description, e.g.
│                         `1.0-jqp-initial-data-exploration`.
│
├── pyproject.toml     <- Project configuration file with package metadata for 
│                         project_name and configuration for tools like black
│
├── references         <- Data dictionaries, manuals, and all other explanatory materials.
│
├── reports            <- Generated analysis as HTML, PDF, LaTeX, etc.
│   └── figures        <- Generated graphics and figures to be used in reporting
│
├── requirements.txt   <- The requirements file for reproducing the analysis environment, e.g.
│                         generated with `pip freeze > requirements.txt`
│
├── setup.cfg          <- Configuration file for flake8
│
└── project_name   <- Source code for use in this project.
    │
    ├── __init__.py             <- Makes project_name a Python module
    │
    ├── config.py               <- Store useful variables and configuration
    │
    ├── dataset.py              <- Scripts to download or generate data
    │
    ├── features.py             <- Code to create features for modeling
    │
    ├── modeling                
    │   ├── __init__.py 
    │   ├── predict.py          <- Code to run model inference with trained models          
    │   └── train.py            <- Code to train models
    │
    └── plots.py                <- Code to create visualizations