49 lines
1.9 KiB
Markdown
49 lines
1.9 KiB
Markdown
# suivi_produit
|
||
|
||
Suite self-hosted pour suivre les prix et l'état des produits Amazon.fr (et autres stores à venir).
|
||
|
||
## Structure
|
||
- `backend/` : API FastAPI + scraper Playwright + persistance SQLite
|
||
- `frontend/` : SPA Gruvbox dark pour afficher les vignettes, graphiques et logs
|
||
- `docker/` : fichiers nécessaires pour docker-compose + builds
|
||
- `docs/`, `TODO.md`, `CHANGELOG.md`, `kanban.md` : documentation et suivi
|
||
|
||
## Objectif MVP
|
||
1. CRUD produits + historique des snapshots
|
||
2. Scraper Amazon via Playwright avec logs et artifacts
|
||
3. Interface responsive avec vignettes & graphique 30j
|
||
4. Configuration JSON frontend/backend rangée dans le repo
|
||
5. Docker Compose + scheduler interne pour lancer les scrapes
|
||
|
||
## Environnement
|
||
1. Copier `cp .env.example .env` avant tout lancement backend/tests.
|
||
2. Activer le venv :
|
||
- `source .venv/bin/activate`
|
||
- ou `poetry shell`
|
||
3. `poetry install` (backend)
|
||
4. `npm install` (frontend, à compléter)
|
||
|
||
## Tests
|
||
- Toujours exécuter `poetry run pytest` dans l’environnement `.env` avant un `docker compose up`.
|
||
- Test scraper en CLI (Playwright) :
|
||
- `SCRAPE_TEST_MAX=0 .venv/bin/poetry run python backend/app/scraper/run_scrape_tests.py`
|
||
- Optionnel (ouvrir le navigateur si blocage) :
|
||
- `SCRAPE_TEST_HEADFUL_ON_BLOCK=1 SCRAPE_TEST_MAX=0 .venv/bin/poetry run python backend/app/scraper/run_scrape_tests.py`
|
||
|
||
## Audit code (imports / code mort)
|
||
- Installer les outils (dans le venv) :
|
||
- `.venv/bin/pip install ruff vulture coverage pip-check-reqs pyright`
|
||
- Lancer l’audit :
|
||
- `.venv/bin/ruff check backend/`
|
||
- `.venv/bin/vulture backend/`
|
||
- `.venv/bin/pip-check-reqs backend/`
|
||
- `.venv/bin/coverage run -m pytest`
|
||
- `.venv/bin/coverage report -m`
|
||
|
||
## Déploiement
|
||
1. `docker compose up --build` (à configurer)
|
||
|
||
## Notes
|
||
- Le scraping est volontairement lent (15-20 produits/jour) pour éviter le blocage.
|
||
- Le raw JSON est conservé pendant 30 jours dans `backend/data/raw`.
|