claude code

This commit is contained in:
2026-01-28 19:22:30 +01:00
parent f9b1d43c81
commit bdbfa4e25a
104 changed files with 9591 additions and 261 deletions

View File

121
backend/app/core/config.py Normal file
View File

@@ -0,0 +1,121 @@
"""Configuration de l'application HomeStock.
Utilise Pydantic Settings pour charger et valider les variables d'environnement.
Documentation : https://docs.pydantic.dev/latest/concepts/pydantic_settings/
"""
from functools import lru_cache
from typing import Literal
from pydantic import Field, field_validator
from pydantic_settings import BaseSettings, SettingsConfigDict
class Settings(BaseSettings):
"""Configuration globale de l'application.
Les valeurs sont chargées depuis les variables d'environnement ou le fichier .env.
"""
model_config = SettingsConfigDict(
env_file=".env",
env_file_encoding="utf-8",
case_sensitive=False,
extra="ignore",
)
# === Application ===
APP_NAME: str = Field(default="HomeStock", description="Nom de l'application")
APP_VERSION: str = Field(default="0.1.0", description="Version de l'application")
ENVIRONMENT: Literal["development", "production"] = Field(
default="development", description="Environnement d'exécution"
)
DEBUG: bool = Field(default=True, description="Mode debug")
LOG_LEVEL: Literal["DEBUG", "INFO", "WARNING", "ERROR"] = Field(
default="DEBUG", description="Niveau de log"
)
# === Serveur ===
BACKEND_HOST: str = Field(default="0.0.0.0", description="Host du serveur backend")
BACKEND_PORT: int = Field(default=8000, description="Port du serveur backend")
BACKEND_RELOAD: bool = Field(
default=True, description="Hot reload en développement"
)
# === Base de données ===
DATABASE_URL: str = Field(
default="sqlite+aiosqlite:///./data/homestock.db",
description="URL de connexion à la base de données",
)
@field_validator("DATABASE_URL")
@classmethod
def validate_database_url(cls, v: str) -> str:
"""Valide et normalise l'URL de la base de données."""
# Pour SQLite, s'assurer que le driver async est utilisé
if v.startswith("sqlite:///"):
return v.replace("sqlite:///", "sqlite+aiosqlite:///")
return v
# === CORS ===
CORS_ORIGINS: str = Field(
default="http://localhost:5173,http://10.0.0.50:5173",
description="Origines autorisées pour CORS (séparées par des virgules)",
)
CORS_ALLOW_CREDENTIALS: bool = Field(
default=False, description="Autorise les credentials CORS"
)
@property
def cors_origins_list(self) -> list[str]:
"""Retourne la liste des origines CORS autorisées."""
return [origin.strip() for origin in self.CORS_ORIGINS.split(",")]
# === Stockage fichiers ===
UPLOAD_DIR: str = Field(default="./uploads", description="Répertoire des uploads")
MAX_UPLOAD_SIZE_MB: int = Field(
default=50, description="Taille max des uploads en Mo"
)
ALLOWED_EXTENSIONS: str = Field(
default="jpg,jpeg,png,gif,pdf,doc,docx",
description="Extensions de fichiers autorisées (séparées par des virgules)",
)
@property
def allowed_extensions_list(self) -> list[str]:
"""Retourne la liste des extensions autorisées."""
return [ext.strip().lower() for ext in self.ALLOWED_EXTENSIONS.split(",")]
@property
def max_upload_size_bytes(self) -> int:
"""Retourne la taille max en octets."""
return self.MAX_UPLOAD_SIZE_MB * 1024 * 1024
# === Recherche ===
SEARCH_MIN_QUERY_LENGTH: int = Field(
default=2, description="Longueur minimale des requêtes de recherche"
)
# === Propriétés calculées ===
@property
def is_development(self) -> bool:
"""Indique si l'environnement est en développement."""
return self.ENVIRONMENT == "development"
@property
def is_production(self) -> bool:
"""Indique si l'environnement est en production."""
return self.ENVIRONMENT == "production"
@lru_cache
def get_settings() -> Settings:
"""Retourne l'instance singleton de la configuration.
Utilise lru_cache pour ne charger la configuration qu'une seule fois.
"""
return Settings()
# Instance globale de configuration
settings = get_settings()

View File

@@ -0,0 +1,99 @@
"""Configuration de la base de données avec SQLAlchemy.
Utilise SQLAlchemy 2.0+ avec support asynchrone (aiosqlite pour SQLite).
Documentation : https://docs.sqlalchemy.org/en/20/orm/extensions/asyncio.html
"""
from collections.abc import AsyncGenerator
from typing import Any
from sqlalchemy import event
from sqlalchemy.ext.asyncio import (
AsyncSession,
async_sessionmaker,
create_async_engine,
)
from sqlalchemy.orm import DeclarativeBase
from app.core.config import settings
class Base(DeclarativeBase):
"""Classe de base pour tous les modèles SQLAlchemy."""
pass
# Création du moteur asynchrone
engine = create_async_engine(
settings.DATABASE_URL,
echo=settings.DEBUG, # Log SQL en mode debug
future=True,
# Pool de connexions pour SQLite
pool_pre_ping=True, # Vérifie la connexion avant utilisation
)
# Configuration spécifique pour SQLite (activation des foreign keys)
@event.listens_for(engine.sync_engine, "connect")
def set_sqlite_pragma(dbapi_conn: Any, connection_record: Any) -> None:
"""Active les contraintes de clés étrangères pour SQLite.
SQLite désactive par défaut les foreign keys, il faut les activer manuellement.
"""
cursor = dbapi_conn.cursor()
cursor.execute("PRAGMA foreign_keys=ON")
cursor.close()
# Session factory pour créer des sessions asynchrones
AsyncSessionLocal = async_sessionmaker(
engine,
class_=AsyncSession,
expire_on_commit=False, # Ne pas expirer les objets après commit
autocommit=False,
autoflush=False,
)
async def get_db() -> AsyncGenerator[AsyncSession, None]:
"""Générateur de session de base de données pour FastAPI.
Utilisé comme dépendance FastAPI pour injecter une session dans les routes.
Usage:
@router.get("/items")
async def get_items(db: AsyncSession = Depends(get_db)):
...
Yields:
AsyncSession: Session SQLAlchemy asynchrone
"""
async with AsyncSessionLocal() as session:
try:
yield session
await session.commit()
except Exception:
await session.rollback()
raise
finally:
await session.close()
async def init_db() -> None:
"""Initialise la base de données.
Crée toutes les tables définies dans les modèles.
À utiliser uniquement en développement ou pour les tests.
En production, utiliser Alembic pour les migrations.
"""
async with engine.begin() as conn:
await conn.run_sync(Base.metadata.create_all)
async def close_db() -> None:
"""Ferme proprement les connexions à la base de données.
À appeler lors de l'arrêt de l'application.
"""
await engine.dispose()

105
backend/app/core/logging.py Normal file
View File

@@ -0,0 +1,105 @@
"""Configuration du système de logging avec Loguru.
Loguru est une bibliothèque de logging moderne et simple à utiliser.
Documentation : https://loguru.readthedocs.io/
"""
import sys
from pathlib import Path
from loguru import logger
from app.core.config import settings
# Supprimer les handlers par défaut de loguru
logger.remove()
def setup_logging() -> None:
"""Configure le système de logging pour l'application.
- En développement : logs dans stdout + fichier debug
- En production : logs dans fichiers avec rotation
"""
# Format de log avec couleurs pour stdout
log_format = (
"<green>{time:YYYY-MM-DD HH:mm:ss.SSS}</green> | "
"<level>{level: <8}</level> | "
"<cyan>{name}</cyan>:<cyan>{function}</cyan>:<cyan>{line}</cyan> - "
"<level>{message}</level>"
)
# Format de log sans couleurs pour fichiers
log_format_file = (
"{time:YYYY-MM-DD HH:mm:ss.SSS} | "
"{level: <8} | "
"{name}:{function}:{line} - "
"{message}"
)
# === Configuration commune ===
# Handler pour stdout (console)
logger.add(
sys.stdout,
format=log_format,
level=settings.LOG_LEVEL,
colorize=True,
backtrace=True, # Affiche le traceback complet des exceptions
diagnose=settings.DEBUG, # Affiche les valeurs des variables en debug
)
# Créer le répertoire des logs s'il n'existe pas
log_dir = Path("logs")
log_dir.mkdir(exist_ok=True)
# === Configuration par environnement ===
if settings.is_development:
# En développement : logs détaillés dans un fichier
logger.add(
"logs/homestock_dev.log",
format=log_format_file,
level="DEBUG",
rotation="10 MB", # Rotation tous les 10 Mo
retention="7 days", # Garde les logs 7 jours
compression="zip", # Compression des logs archivés
backtrace=True,
diagnose=True,
)
else:
# En production : logs normaux + logs d'erreurs séparés
logger.add(
"logs/homestock.log",
format=log_format_file,
level="INFO",
rotation="50 MB",
retention="30 days",
compression="zip",
backtrace=True,
diagnose=False,
)
# Fichier séparé pour les erreurs
logger.add(
"logs/homestock_errors.log",
format=log_format_file,
level="ERROR",
rotation="50 MB",
retention="90 days", # Garde les erreurs plus longtemps
compression="zip",
backtrace=True,
diagnose=False,
)
logger.info(f"Logging configuré (level={settings.LOG_LEVEL}, env={settings.ENVIRONMENT})")
def get_logger(name: str) -> "logger":
"""Retourne un logger avec un nom spécifique.
Args:
name: Nom du logger (généralement __name__ du module)
Returns:
Logger configuré avec le nom spécifié
"""
return logger.bind(name=name)