Fenêtres de Contexte et Architecture de Traduction
Les fenêtres de contexte—la quantité maximale de texte qu'un LLM peut traiter en une seule requête—façonnent fondamentalement l'architecture de traduction. Les modèles modernes offrent des fenêtres de 8 000 tokens (GPT-3.5-turbo) à 200 000 tokens (Claude 3 Opus), mais même les plus grandes sont insuffisantes pour des documents de longueur livre. Le chunking stratégique permet de traduire du contenu de longueur illimitée tout en maintenant la cohérence.
