Herramientas para exportar el catálogo de datos.gob.es de forma periódica usando la API JSON.
# Instalar dependencias
make setup
# Obtener datos completos del catálogo
make catalog
# Subir a Hugging Face (requiere HUGGINGFACE_TOKEN)
make upload- uv
- Token de HuggingFace (para subir conjuntos de datos)
- Clonar el repositorio:
git clone <url-del-repositorio>
cd datosgobes-catalog- Instalar dependencias:
make setupEsto usará uv para instalar todos los paquetes especificados en el archivo pyproject.toml.
El Makefile proporciona comandos útiles para obtener diferentes tipos de datos:
make apidata-docs- Obtener y guardar la documentación de la APImake datasets- Exportar todos los metadatos de conjuntos de datosmake publishers- Exportar información de publicadoresmake spatials- Exportar datos de cobertura geográficamake themes- Exportar información de temas/categoríasmake public-sectors- Exportar taxonomía del sector públicomake provinces- Exportar información de provinciasmake catalog- Ejecutar todas las exportaciones (instantánea completa del catálogo)
La documentación de la API de datos.gob.es se actualiza automáticamente y se guarda en apidata.md. Este archivo contiene:
- Endpoints disponibles
- Formatos de respuesta (JSON, XML, RDF, Turtle, CSV)
- Parámetros de consulta para filtrado y paginación
- Ejemplos de uso de la API
Los datos exportados se guardan en el directorio catalog/ con la siguiente estructura:
catalog/
├── datasets/ # Metadatos de conjuntos de datos
├── publishers/ # Información de publicadores
├── spatials/ # Cobertura geográfica
├── themes/ # Categorías/temas
├── public-sectors/ # Taxonomía NTI del sector público
└── provinces/ # Datos de provincias
Para subir el catálogo a Hugging Face Hub:
export HUGGINGFACE_TOKEN=tu_token_aquí
make uploadEsto sube todo el directorio catalog/ al repositorio de conjunto de datos datania/datosgobes-catalog.
MIT.