Retour aux outils
Infra pragmatique

Ollama

Garder le contrôle et expérimenter sans dépendre du cloud.

Exécution de modèles LLM en local.