Scraper to extract data from opportunity-related websites (e.g. funds, scholarships, etc.) and convert them into structured data.
├── .github
│ └── workflows
│ └── update-data.yml
├── .gitignore
├── LICENSE
├── Makefile
├── Pipfile
├── Pipfile.lock
├── README.md
├── assets
│ └── new_urls.csv
├── data
│ ├── processed
│ │ ├── opportunities.db
│ │ └── opportunities_db.csv
│ └── raw
│ └── opportunities_urls.csv
├── docs
│ ├── data-dictionary.md
│ ├── explore-data.md
│ ├── references
│ └── reports
│ ├── index.html
│ └── style.css
├── log.txt
├── notebooks
│ ├── 0.0-analyzing-data.ipynb
│ └── 0.1-create-database.ipynb
├── opportunities_db
│ ├── __init__.py
│ ├── data
│ │ ├── __init__.py
│ │ ├── analyze.py
│ │ ├── export.py
│ │ ├── load.py
│ │ └── process.py
│ └── utils
│ ├── __init__.py
│ └── paths.py
├── outputs
│ ├── figures
│ └── tables
├── package.json
├── requirements.txt
├── scripts
│ └── 01-process-data.py
├── setup.py
└── yarn.lock
This project is released under MIT License.
This repository was generated with cookiecutter.