IIIF-Studio / CLAUDE.md
Claude
fix: Sprint 6 — CLAUDE.md endpoint sync, UncertaintyConfig validator, annotation docs
894cbe3 unverified

IIIF Studio — Instructions permanentes pour Claude Code

Version 2.0 — mise à jour Sprint 2


1. Contexte du projet

IIIF Studio est une plateforme générique de génération d'éditions savantes augmentées pour documents patrimoniaux numérisés : manuscrits médiévaux, incunables, cartulaires, archives, chartes, papyri — tout type de document, toute époque, toute langue.

Pipeline général : images sources → ingestion → normalisation → analyse Google AI → JSON maître → passes dérivées → ALTO / METS / Manifest IIIF → interface web → validation humaine

Premier démonstrateur : Beatus de Saint-Sever (BnF Latin 8878, manuscrit enluminé, latin carolingien, XIe siècle). Le Beatus est un profil parmi d'autres — pas un cas spécial.


2. Stack technique

Composant Technologie
Backend Python 3.11+, FastAPI, Uvicorn
Validation Pydantic v2 (JAMAIS v1)
Base de données SQLite via SQLAlchemy 2.0 async + aiosqlite
IA Google AI — provider sélectionnable (section 9)
SDK Google google-genai (PAS google-generativeai — paquet différent)
XML lxml
Images Pillow (PIL)
HTTP client httpx (téléchargement images IIIF)
Tests pytest, pytest-cov, pytest-asyncio
Frontend React + Vite, TypeScript, Tailwind CSS (sprint 4+)
Hébergement HuggingFace Spaces (Docker) + HF Datasets

pyproject.toml — dépendances exactes

[project]
name = "iiif-studio-backend"
version = "0.2.0"
requires-python = ">=3.11"

dependencies = [
    "fastapi>=0.111",
    "uvicorn[standard]>=0.29",
    "pydantic>=2.7",
    "pydantic-settings>=2.0",
    "sqlalchemy>=2.0",
    "aiosqlite>=0.20",
    "google-genai>=1.0",
    "google-auth>=2.0",
    "httpx>=0.27",
    "lxml>=5.2",
    "Pillow>=10.3",
    "python-multipart>=0.0.9",
    "mistralai>=1.0",
]

[project.optional-dependencies]
dev = [
    "pytest>=8.2",
    "pytest-cov>=5.0",
    "pytest-asyncio>=0.23",
]

[tool.pytest.ini_options]
asyncio_mode = "auto"
testpaths = ["tests"]

3. Arborescence du repo — structure canonique

iiif-studio/
│
├── CLAUDE.md               ← CE FICHIER — ne pas modifier sans instruction
├── STATUS.md               ← état courant (mis à jour avant chaque session)
│
├── backend/
│   ├── app/
│   │   ├── __init__.py
│   │   ├── main.py                  ← point d'entrée FastAPI (sprint 4+)
│   │   ├── config.py                ← settings Pydantic depuis env vars
│   │   ├── api/
│   │   │   └── v1/
│   │   │       ├── __init__.py
│   │   │       ├── corpora.py
│   │   │       ├── pages.py
│   │   │       ├── jobs.py
│   │   │       ├── models.py        ← endpoints sélection modèle IA
│   │   │       └── export.py
│   │   ├── models/                  ← modèles SQLAlchemy (tables BDD)
│   │   │   ├── __init__.py
│   │   │   ├── corpus.py
│   │   │   ├── page.py
│   │   │   └── job.py
│   │   ├── schemas/                 ← modèles Pydantic (SOURCE CANONIQUE)
│   │   │   ├── __init__.py
│   │   │   ├── corpus_profile.py    ← ✓ Sprint 1
│   │   │   ├── page_master.py       ← ✓ Sprint 1
│   │   │   └── annotation.py        ← ✓ Sprint 1
│   │   └── services/
│   │       ├── __init__.py
│   │       ├── ingest/
│   │       │   ├── __init__.py
│   │       │   └── image_loader.py  ← chargement images (URL/fichier)
│   │       ├── image/
│   │       │   ├── __init__.py
│   │       │   └── processor.py     ← dérivés + thumbnails
│   │       ├── ai/
│   │       │   ├── __init__.py
│   │       │   ├── client.py        ← factory provider A/B/C
│   │       │   ├── models.py        ← listage modèles disponibles
│   │       │   ├── prompt_loader.py ← chargement + rendu templates
│   │       │   └── pipeline.py      ← orchestration appels IA
│   │       ├── export/
│   │       │   ├── __init__.py
│   │       │   ├── alto.py          ← générateur ALTO (sprint 3+)
│   │       │   ├── mets.py          ← générateur METS (sprint 3+)
│   │       │   └── iiif.py          ← générateur manifest IIIF (sprint 3+)
│   │       └── search/
│   │           ├── __init__.py
│   │           └── index.py         ← index recherche (sprint 6+)
│   ├── tests/
│   │   ├── __init__.py
│   │   ├── test_schemas.py          ← ✓ 26 tests Sprint 1
│   │   ├── test_profiles.py         ← ✓ 28 tests Sprint 1
│   │   ├── test_ai_connection.py    ← Sprint 2 Session A
│   │   ├── test_image_processing.py ← Sprint 2 Session B
│   │   └── test_pipeline.py         ← Sprint 2 Session C
│   └── pyproject.toml
│
├── prompts/                         ← ✓ Sprint 1
│   ├── medieval-illuminated/
│   │   ├── primary_v1.txt
│   │   ├── transcription_v1.txt
│   │   ├── translation_v1.txt
│   │   ├── commentary_v1.txt
│   │   └── iconography_v1.txt
│   ├── medieval-textual/
│   │   ├── primary_v1.txt
│   │   ├── translation_v1.txt
│   │   └── commentary_v1.txt
│   ├── early-modern-print/
│   │   └── primary_v1.txt
│   └── modern-handwritten/
│       └── primary_v1.txt
│
├── profiles/                        ← ✓ Sprint 1
│   ├── medieval-illuminated.json
│   ├── medieval-textual.json
│   ├── early-modern-print.json
│   └── modern-handwritten.json
│
├── data/                            ← JAMAIS versionné (.gitignore)
│   └── corpora/
│       └── {corpus_slug}/
│           ├── masters/             ← images uploadées (mode fichier uniquement)
│           ├── derivatives/         ← JPEG 1500px (mode fichier uniquement)
│           ├── thumbnails/          ← aperçus 300px (mode fichier uniquement)
│           │   NOTE : en mode IIIF natif, masters/, derivatives/ et
│           │   thumbnails/ sont VIDES — les images sont streamées
│           │   depuis le serveur IIIF d'origine.
│           ├── iiif/
│           │   ├── manifest.json
│           │   └── annotations/
│           └── pages/
│               └── {folio_label}/
│                   ├── master.json      ← PageMaster canonique
│                   ├── ai_raw.json      ← réponse brute IA (JAMAIS effacée)
│                   ├── alto.xml
│                   └── annotations.json
│
├── frontend/                        ← React + TypeScript + Vite
│   ├── src/
│   │   ├── App.tsx
│   │   ├── main.tsx
│   │   ├── lib/api.ts               ← client API typé
│   │   ├── pages/                   ← Home, Reader, Editor, Admin
│   │   └── components/              ← Viewer, retro/, SearchBar, etc.
│   ├── package.json
│   └── vite.config.ts
│
├── Dockerfile                       ← multi-stage (frontend + backend)
│
└── infra/
    └── docker-compose.yml           ← dev local uniquement

4. Modèles de données — schémas Pydantic canoniques

4.1 CorpusProfile (corpus_profile.py)

from enum import Enum
from pydantic import BaseModel, ConfigDict, Field

class LayerType(str, Enum):
    IMAGE = "image"
    OCR_DIPLOMATIC = "ocr_diplomatic"
    OCR_NORMALIZED = "ocr_normalized"
    TRANSLATION_FR = "translation_fr"
    TRANSLATION_EN = "translation_en"
    SUMMARY = "summary"
    SCHOLARLY_COMMENTARY = "scholarly_commentary"
    PUBLIC_COMMENTARY = "public_commentary"
    ICONOGRAPHY_DETECTION = "iconography_detection"
    MATERIAL_NOTES = "material_notes"
    UNCERTAINTY = "uncertainty"

class ScriptType(str, Enum):
    CAROLINE = "caroline"
    GOTHIC = "gothic"
    PRINT = "print"
    CURSIVE = "cursive"
    OTHER = "other"

class ExportConfig(BaseModel):
    mets: bool = True
    alto: bool = True
    tei: bool = False

class UncertaintyConfig(BaseModel):
    flag_below: float = Field(0.4, ge=0.0, le=1.0)
    min_acceptable: float = Field(0.25, ge=0.0, le=1.0)

class CorpusProfile(BaseModel):
    model_config = ConfigDict(frozen=True)
    profile_id: str
    label: str
    language_hints: list[str]
    script_type: ScriptType
    active_layers: list[LayerType]
    prompt_templates: dict[str, str]      # {"primary": "prompts/.../v1.txt"}
    uncertainty_config: UncertaintyConfig
    export_config: ExportConfig

4.2 PageMaster (page_master.py)

from datetime import datetime
from typing import Any, Literal
from pydantic import BaseModel, ConfigDict, Field, field_validator

class RegionType(str, Enum):
    TEXT_BLOCK = "text_block"
    MINIATURE = "miniature"
    DECORATED_INITIAL = "decorated_initial"
    MARGIN = "margin"
    RUBRIC = "rubric"
    OTHER = "other"

class Region(BaseModel):
    id: str
    type: RegionType
    bbox: list[int] = Field(..., min_length=4, max_length=4)
    confidence: float = Field(..., ge=0.0, le=1.0)
    polygon: list[list[int]] | None = None
    parent_region_id: str | None = None

    @field_validator("bbox")
    @classmethod
    def bbox_must_be_valid(cls, v: list[int]) -> list[int]:
        if any(x < 0 for x in v):
            raise ValueError("bbox: toutes les valeurs doivent être >= 0")
        if v[2] <= 0 or v[3] <= 0:
            raise ValueError("bbox: width et height doivent être > 0")
        return v

class ImageInfo(BaseModel):
    master: str                        # path ou URL source
    derivative_web: str | None = None  # JPEG 1500px
    thumbnail: str | None = None       # JPEG 300px
    iiif_base: str | None = None
    width: int
    height: int

class OCRResult(BaseModel):
    diplomatic_text: str = ""
    blocks: list[dict] = []
    lines: list[dict] = []
    language: str = "la"
    confidence: float = Field(0.0, ge=0.0, le=1.0)
    uncertain_segments: list[str] = []

class Translation(BaseModel):
    fr: str = ""
    en: str = ""

class Summary(BaseModel):
    short: str = ""
    detailed: str = ""

class CommentaryClaim(BaseModel):
    claim: str
    evidence_region_ids: list[str] = []
    certainty: Literal["high", "medium", "low", "speculative"] = "medium"

class Commentary(BaseModel):
    public: str = ""
    scholarly: str = ""
    claims: list[CommentaryClaim] = []

class ProcessingInfo(BaseModel):
    provider: str                       # "google_ai_studio"|"vertex_api_key"|"vertex_service_account"
    model_id: str                       # ID technique retourné par l'API
    model_display_name: str
    prompt_version: str                 # ex: "primary_v1"
    raw_response_path: str              # chemin vers ai_raw.json
    processed_at: datetime
    cost_estimate_usd: float | None = None

class EditorialStatus(str, Enum):
    MACHINE_DRAFT = "machine_draft"
    NEEDS_REVIEW = "needs_review"
    REVIEWED = "reviewed"
    VALIDATED = "validated"
    PUBLISHED = "published"

class EditorialInfo(BaseModel):
    status: EditorialStatus = EditorialStatus.MACHINE_DRAFT
    validated: bool = False
    validated_by: str | None = None
    version: int = 1
    notes: list[str] = []

class PageMaster(BaseModel):
    schema_version: str = "1.0"        # OBLIGATOIRE — ne jamais omettre
    page_id: str                        # format: {corpus_slug}-{folio_label}
    corpus_profile: str                 # profile_id du CorpusProfile utilisé
    manuscript_id: str
    folio_label: str                    # ex: "13r", "f29"
    sequence: int                       # ordre dans le manuscrit (1-based)
    image: ImageInfo
    layout: dict                        # {"regions": [Region, ...]}
    ocr: OCRResult | None = None
    translation: Translation | None = None
    summary: Summary | None = None
    commentary: Commentary | None = None
    extensions: dict[str, Any] = {}    # données spécifiques au profil
    processing: ProcessingInfo | None = None
    editorial: EditorialInfo = EditorialInfo()

4.3 AnnotationLayer (annotation.py)

class LayerStatus(str, Enum):
    PENDING = "pending"
    RUNNING = "running"
    DONE = "done"
    FAILED = "failed"
    NEEDS_REVIEW = "needs_review"
    VALIDATED = "validated"

class AnnotationLayer(BaseModel):
    id: str
    page_id: str
    layer_type: LayerType
    status: LayerStatus = LayerStatus.PENDING
    version: int = 1
    source_model: str | None = None
    prompt_version: str | None = None
    created_at: datetime

class ModelConfig(BaseModel):
    corpus_id: str
    provider: str
    selected_model_id: str
    selected_model_display_name: str
    supports_vision: bool
    last_fetched_at: datetime
    available_models: list[dict] = []

5. Exemple complet d'un master.json valide

Cet exemple est la référence. Tout master.json produit doit avoir cette forme.

{
  "schema_version": "1.0",
  "page_id": "beatus-lat8878-0013r",
  "corpus_profile": "medieval-illuminated",
  "manuscript_id": "beatus-lat8878",
  "folio_label": "13r",
  "sequence": 25,
  "image": {
    "master": "https://gallica.bnf.fr/ark:/12148/btv1b8432314s/f29.highres",
    "derivative_web": "data/corpora/beatus-lat8878/derivatives/0013r.jpg",
    "thumbnail": "data/corpora/beatus-lat8878/thumbnails/0013r.jpg",
    "iiif_base": null,
    "width": 3543,
    "height": 4724
  },
  "layout": {
    "regions": [
      {
        "id": "r1",
        "type": "text_block",
        "bbox": [320, 510, 2900, 3200],
        "confidence": 0.91,
        "polygon": null,
        "parent_region_id": null
      },
      {
        "id": "r2",
        "type": "miniature",
        "bbox": [320, 3750, 2900, 800],
        "confidence": 0.95,
        "polygon": null,
        "parent_region_id": null
      }
    ]
  },
  "ocr": {
    "diplomatic_text": "Explicit liber primus incipit secundus...",
    "blocks": [],
    "lines": [],
    "language": "la",
    "confidence": 0.74,
    "uncertain_segments": ["primus incipit"]
  },
  "translation": {
    "fr": "Fin du premier livre, début du second...",
    "en": "End of the first book, beginning of the second..."
  },
  "summary": {
    "short": "Page de transition entre deux livres avec scène apocalyptique.",
    "detailed": "Ce folio marque la fin du livre I et l'ouverture du livre II..."
  },
  "commentary": {
    "public": "Cette page illustre la transition narrative entre deux grandes parties...",
    "scholarly": "Le programme iconographique de ce folio suit la tradition des Beatus...",
    "claims": [
      {
        "claim": "La scène de la région r2 représente l'ouverture du cinquième sceau",
        "evidence_region_ids": ["r2"],
        "certainty": "medium"
      }
    ]
  },
  "extensions": {
    "iconography": [
      {
        "region_id": "r2",
        "label": "ouverture_cinquieme_sceau",
        "description": "Personnages en prière, autel central, âmes des martyrs",
        "confidence": 0.78,
        "tags": ["apocalypse", "sceau", "martyrs", "autel"]
      }
    ],
    "materiality": {
      "notes": ["Légère décoloration dans la marge inférieure droite"],
      "pigment_hints": ["ocre", "lapis-lazuli probable", "blanc de plomb"]
    }
  },
  "processing": {
    "provider": "vertex_api_key",
    "model_id": "gemini-2.0-flash-exp",
    "model_display_name": "Gemini 2.0 Flash Experimental",
    "prompt_version": "primary_v1",
    "raw_response_path": "data/corpora/beatus-lat8878/pages/0013r/ai_raw.json",
    "processed_at": "2025-01-01T10:00:00Z",
    "cost_estimate_usd": 0.004
  },
  "editorial": {
    "status": "machine_draft",
    "validated": false,
    "validated_by": null,
    "version": 1,
    "notes": []
  }
}

6. Règles absolues — NE JAMAIS ENFREINDRE

R01 — Zéro logique hardcodée par corpus

# ❌ INTERDIT
if profile_id == "medieval-illuminated":
    process_iconography()

# ✅ CORRECT
if "iconography_detection" in corpus_profile.active_layers:
    process_iconography()

R02 — Le JSON maître est la source canonique

Toutes les sorties (IIIF, ALTO, METS) sont générées depuis PageMaster. Jamais depuis ai_raw.json directement.

R03 — Convention bbox [x, y, width, height] UNIQUEMENT

# ❌ INTERDIT — coordonnées de coins opposés
bbox = [x1, y1, x2, y2]

# ✅ CORRECT — origine + dimensions
bbox = [x, y, x2 - x1, y2 - y1]

Pixels entiers absolus dans l'image. Width et height > 0. Toujours validé par Pydantic.

R04 — Prompts dans des fichiers versionnés, jamais dans le code

# ❌ INTERDIT
prompt = f"Tu analyses un {profile.label}. Retourne ce JSON..."

# ✅ CORRECT
prompt = load_and_render_prompt(
    corpus_profile.prompt_templates["primary"],
    {"profile_label": profile.label, ...}
)

R05 — Double stockage obligatoire des réponses IA

# ❌ INTERDIT — un seul fichier
master = parse(response)
save(master, "master.json")

# ✅ CORRECT — toujours deux fichiers distincts
save_raw(response.text, page_dir / "ai_raw.json")      # brut, jamais effacé
master = parse_and_validate(response.text)
save_json(master.model_dump(), page_dir / "master.json")

R06 — Secrets uniquement dans les variables d'environnement

Jamais dans le code, les logs, les fichiers versionnés, les exports JSON.

R07 — Pydantic v2 exclusivement

# ❌ INTERDIT — syntaxe v1
class Config:
    frozen = True

# ✅ CORRECT — syntaxe v2
model_config = ConfigDict(frozen=True)

R08 — Tests pour tout nouveau modèle

Aucun schéma Pydantic sans test de validation et de rejet.

R09 — schema_version dans tout PageMaster

schema_version: str = "1.0" — obligatoire, valeur par défaut suffit.

R10 — Endpoints préfixés /api/v1/

R11 — SDK google-genai, pas google-generativeai

# ❌ INTERDIT
import google.generativeai as genai

# ✅ CORRECT
from google import genai

R12 — Jamais le master TIFF/JP2 brut envoyé à l'IA

Toujours passer par le dérivé JPEG 1500px max.


7. Patterns de code attendus

Config depuis variables d'environnement (config.py)

from pydantic_settings import BaseSettings

class Settings(BaseSettings):
    ai_provider: str = "vertex_api_key"
    google_ai_studio_api_key: str | None = None
    vertex_api_key: str | None = None
    vertex_project_id: str | None = None
    vertex_location: str = "europe-west1"
    vertex_service_account_json: str | None = None
    data_dir: str = "data"

    model_config = ConfigDict(env_file=".env", extra="ignore")

settings = Settings()

Pattern SQLAlchemy (models/)

from sqlalchemy import String, Integer, Float, DateTime, JSON
from sqlalchemy.orm import DeclarativeBase, Mapped, mapped_column
from datetime import datetime

class Base(DeclarativeBase):
    pass

class PageModel(Base):
    __tablename__ = "pages"

    id: Mapped[str] = mapped_column(String, primary_key=True)
    manuscript_id: Mapped[str] = mapped_column(String, index=True)
    folio_label: Mapped[str] = mapped_column(String)
    sequence: Mapped[int] = mapped_column(Integer)
    processing_status: Mapped[str] = mapped_column(String, default="ingested")
    confidence_summary: Mapped[float | None] = mapped_column(Float, nullable=True)
    created_at: Mapped[datetime] = mapped_column(DateTime, default=datetime.utcnow)
    updated_at: Mapped[datetime] = mapped_column(DateTime, default=datetime.utcnow)

Pattern FastAPI endpoint (api/v1/)

from fastapi import APIRouter, HTTPException, Depends
from app.schemas.page_master import PageMaster

router = APIRouter(prefix="/api/v1")

@router.get("/pages/{page_id}/master-json", response_model=PageMaster)
async def get_master_json(page_id: str) -> PageMaster:
    master_path = get_page_dir(page_id) / "master.json"
    if not master_path.exists():
        raise HTTPException(status_code=404, detail=f"Page {page_id} not found")
    return PageMaster.model_validate_json(master_path.read_text())

@router.put("/pages/{page_id}/master-json", response_model=PageMaster)
async def update_master_json(page_id: str, master: PageMaster) -> PageMaster:
    # incrémenter la version
    master = master.model_copy(update={"editorial": {
        **master.editorial.model_dump(),
        "version": master.editorial.version + 1
    }})
    save_json(master.model_dump(), get_page_dir(page_id) / "master.json")
    return master

Pattern gestion d'erreur IA

import json
import logging
from pydantic import ValidationError

logger = logging.getLogger(__name__)

def parse_ai_response(raw_text: str, page_id: str) -> PageMaster:
    # 1. Nettoyer les éventuels blocs markdown (triple backtick json)
    cleaned = raw_text.strip()
    if cleaned.startswith("```"):
        lines = cleaned.split("\n")
        cleaned = "\n".join(lines[1:-1])

    # 2. Parser le JSON
    try:
        data = json.loads(cleaned)
    except json.JSONDecodeError as e:
        logger.error("JSON invalide", extra={"page_id": page_id, "error": str(e)})
        raise ValueError(f"Réponse IA non parseable pour {page_id}: {e}")

    # 3. Valider avec Pydantic
    try:
        return PageMaster.model_validate(data)
    except ValidationError as e:
        logger.error("Validation Pydantic échouée", extra={"page_id": page_id, "errors": e.errors()})
        raise ValueError(f"JSON IA invalide pour {page_id}: {e}")

8. Rendu des prompts — conventions

Variables disponibles dans tous les templates

{{profile_label}}      → CorpusProfile.label
{{language_hints}}     → ", ".join(CorpusProfile.language_hints)
{{script_type}}        → CorpusProfile.script_type.value
{{folio_label}}        → Page.folio_label
{{manuscript_title}}   → Manuscript.title (si disponible)

Implémentation attendue (prompt_loader.py)

from pathlib import Path

def load_and_render_prompt(template_path: str, context: dict[str, str]) -> str:
    """Charge un template de prompt et injecte les variables."""
    path = Path(template_path)
    if not path.exists():
        raise FileNotFoundError(f"Template introuvable : {template_path}")

    content = path.read_text(encoding="utf-8")

    for key, value in context.items():
        content = content.replace("{{" + key + "}}", str(value))

    # Vérifier qu'il ne reste pas de variables non résolues
    if "{{" in content:
        import re
        unresolved = re.findall(r"\{\{\w+\}\}", content)
        raise ValueError(f"Variables non résolues dans le prompt : {unresolved}")

    return content

9. Providers Google AI — architecture à 3 options

Variables d'environnement (GitHub Secrets)

# Option A — Google AI Studio (développement, gratuit)
GOOGLE_AI_STUDIO_API_KEY  = AIza...

# Option B — Vertex AI avec clé API Express (production)
VERTEX_API_KEY             = AQ.Ab...
VERTEX_PROJECT_ID          = beatus-490422
VERTEX_LOCATION            = europe-west1

# Option C — Vertex AI avec compte de service (institutions)
VERTEX_SERVICE_ACCOUNT_JSON = { ...json complet... }
VERTEX_PROJECT_ID           = (même)
VERTEX_LOCATION             = (même)

# Sélecteur actif — changer pour switcher de provider
AI_PROVIDER = vertex_api_key

Factory client (client.py)

from google import genai
import os, json, logging

logger = logging.getLogger(__name__)

def get_ai_client() -> genai.Client:
    provider = os.environ.get("AI_PROVIDER", "google_ai_studio")
    logger.info(f"Initialisation client IA", extra={"provider": provider})

    if provider == "google_ai_studio":
        # Option A — Google AI Studio, clé AIza
        return genai.Client(
            api_key=os.environ["GOOGLE_AI_STUDIO_API_KEY"]
        )

    elif provider == "vertex_api_key":
        # Option B — Vertex Express, clé AQ.Ab
        # SYNTAXE EXACTE À VALIDER EN SPRINT 2 SESSION A
        # Tester approche 1 en premier :
        return genai.Client(
            api_key=os.environ["VERTEX_API_KEY"]
        )
        # Si approche 1 échoue, tester approche 2 :
        # return genai.Client(
        #     api_key=os.environ["VERTEX_API_KEY"],
        #     http_options={"api_version": "v1beta"}
        # )

    elif provider == "vertex_service_account":
        # Option C — Vertex avec compte de service JSON
        creds_json = os.environ["VERTEX_SERVICE_ACCOUNT_JSON"]
        creds_dict = json.loads(creds_json)
        return genai.Client(
            vertexai=True,
            project=os.environ["VERTEX_PROJECT_ID"],
            location=os.environ.get("VERTEX_LOCATION", "europe-west1"),
            credentials=creds_dict,
        )

    raise ValueError(f"AI_PROVIDER inconnu : {provider!r}. "
                     "Valeurs acceptées : google_ai_studio, vertex_api_key, vertex_service_account")

Listage des modèles disponibles (models.py)

def list_available_models(client: genai.Client) -> list[dict]:
    """
    Retourne les modèles disponibles supportant vision + generateContent.
    Format : [{"id": str, "display_name": str, "supports_vision": bool}]
    """
    models = []
    for model in client.models.list():
        # Garder uniquement les modèles multimodaux
        supported = getattr(model, "supported_generation_methods", [])
        if "generateContent" not in supported:
            continue
        # Vérifier le support vision (input_token_limit et modalities)
        modalities = getattr(model, "supported_actions", None) or []
        supports_vision = "image" in str(model).lower() or "vision" in str(model.name).lower()
        models.append({
            "id": model.name,
            "display_name": getattr(model, "display_name", model.name),
            "supports_vision": supports_vision,
        })
    return models

10. Structure des exports documentaires

ALTO (par page)

ALTO contient la géométrie textuelle uniquement.

<alto>
  <Layout>
    <Page WIDTH="{width}" HEIGHT="{height}" ID="{page_id}">
      <PrintSpace>
        <!-- Pour chaque région de type text_block -->
        <TextBlock ID="{region.id}"
                   HPOS="{bbox[0]}" VPOS="{bbox[1]}"
                   WIDTH="{bbox[2]}" HEIGHT="{bbox[3]}">
          <TextLine>
            <String CONTENT="{text}" WC="{confidence}"/>
          </TextLine>
        </TextBlock>
        <!-- Pour chaque région de type miniature -->
        <Illustration ID="{region.id}"
                      HPOS="{bbox[0]}" VPOS="{bbox[1]}"
                      WIDTH="{bbox[2]}" HEIGHT="{bbox[3]}"/>
      </PrintSpace>
    </Page>
  </Layout>
</alto>

ALTO ne porte PAS : commentaires savants, iconographie, couches éditoriales.

IIIF Manifest (par manuscrit)

Structure minimale V1 :

{
  "@context": "http://iiif.io/api/presentation/3/context.json",
  "id": "https://{base_url}/api/v1/manuscripts/{id}/iiif-manifest",
  "type": "Manifest",
  "label": {"fr": ["{manuscript.title}"]},
  "metadata": [],
  "items": [
    {
      "id": "https://{base_url}/canvas/{page_id}",
      "type": "Canvas",
      "width": "{image.width}",
      "height": "{image.height}",
      "items": [{"type": "AnnotationPage", "items": [
        {"type": "Annotation", "motivation": "painting",
         "body": {"type": "Image", "id": "{image.derivative_web}",
                  "format": "image/jpeg",
                  "width": "{image.width}", "height": "{image.height}"},
         "target": "https://{base_url}/canvas/{page_id}"}
      ]}]
    }
  ]
}

11. Statuts métier

Corpus  : CREATED → INGESTING → INGESTED → PROCESSING → READY → ERROR
Page    : INGESTED → PREPARED → ANALYZED → LAYERED → EXPORTED → VALIDATED → ERROR
Layer   : PENDING → RUNNING → DONE → FAILED → NEEDS_REVIEW → VALIDATED
Éditorial: machine_draft → needs_review → reviewed → validated → published

12. Endpoints API — liste complète

# Providers & modèles IA
GET    /api/v1/providers
GET    /api/v1/providers/{provider_type}/models
POST   /api/v1/models/refresh
PUT    /api/v1/corpora/{id}/model
GET    /api/v1/corpora/{id}/model

# Profils
GET    /api/v1/profiles
GET    /api/v1/profiles/{id}

# Corpus
POST   /api/v1/corpora
GET    /api/v1/corpora
GET    /api/v1/corpora/{id}
DELETE /api/v1/corpora/{id}
GET    /api/v1/corpora/{id}/manuscripts

# Manuscrits
GET    /api/v1/manuscripts/{id}/pages

# Ingestion
POST   /api/v1/corpora/{id}/ingest/files
POST   /api/v1/corpora/{id}/ingest/iiif-manifest
POST   /api/v1/corpora/{id}/ingest/iiif-images

# Jobs
POST   /api/v1/corpora/{id}/run
POST   /api/v1/pages/{id}/run
GET    /api/v1/jobs/{job_id}
POST   /api/v1/jobs/{job_id}/retry

# Pages
GET    /api/v1/pages/{id}
GET    /api/v1/pages/{id}/master-json
PUT    /api/v1/pages/{id}/master-json                    # Sprint 6+
GET    /api/v1/pages/{id}/layers
POST   /api/v1/pages/{id}/layers/{layer_type}/regenerate # Sprint 6+

# Export
GET    /api/v1/manuscripts/{id}/iiif-manifest
GET    /api/v1/manuscripts/{id}/mets
GET    /api/v1/pages/{id}/alto
GET    /api/v1/manuscripts/{id}/export.zip

# Validation
POST   /api/v1/pages/{id}/validate                      # Sprint 6+
POST   /api/v1/pages/{id}/corrections
GET    /api/v1/pages/{id}/history

# Recherche
GET    /api/v1/search?q=
POST   /api/v1/search/reindex
GET    /api/v1/manuscripts/{id}/search?q=                # Sprint 6+

13. État du projet par sprint

Sprint 1 — Fondations du modèle de données        
  54 tests passants. Schémas Pydantic. 4 profils. 9 templates prompts.

Sprint 2 — Pipeline page unique                    
  Connexion Google AI validée → ingestion image → master.json

Sprint 3 — Exports documentaires                   
  ALTO par page + METS + Manifest IIIF

Sprint 4 — API FastAPI + interface de lecture       
  Endpoints + visionneuse OpenSeadragon + 4 couches

Sprint 5 — Traitement en lot + HuggingFace         
  Pipeline batch + déploiement public

Sprint 6 — Validation humaine + V1 complète       
  Éditeur + versionnement + recherche

Règle stricte : ne jamais implémenter du code d'un sprint futur. Si une idée émerge, la noter dans STATUS.md section "Backlog" et ne pas la coder.


14. Ce que tu NE dois PAS faire sans demande explicite

  • Modifier le schéma PageMaster (champs, types, noms, structure)
  • Modifier la convention bbox
  • Ajouter des dépendances non listées dans pyproject.toml section 2
  • Refactoriser du code existant si la session n'a pas ce but
  • Créer des fichiers hors de l'arborescence section 3
  • Implémenter du code d'un sprint futur (section 13)
  • "Simplifier" un schéma pour "faire plus propre" — les schémas sont figés
  • Créer une logique spécifique à un corpus (règle R01)
  • Utiliser google-generativeai au lieu de google-genai (règle R11)
  • Laisser une variable d'environnement dans le code (règle R06)