loading…
Search for a command to run...
loading…
KFabric is a platform for building traceable and weighted documentary corpora from heterogeneous sources, prioritizing data quality before RAG implementation. I
KFabric is a platform for building traceable and weighted documentary corpora from heterogeneous sources, prioritizing data quality before RAG implementation. It provides tools for document discovery, scoring, and fragment synthesis via an MCP server to prepare high-quality indexable artifacts.
KFabric est une plateforme Python-first de fabrication de corpus documentaires. Le projet vise un problème très concret : aider à construire un corpus traçable, pondéré et réutilisable à partir de sources hétérogènes, avant même de brancher un assistant RAG conversationnel.
Au lieu de passer directement du web au chat, KFabric se concentre d'abord sur la qualité du matériau documentaire :
Dans beaucoup de pipelines RAG, la vraie faiblesse n'est pas le modèle mais le corpus. KFabric part de l'idée inverse :
Le MVP actuel couvre déjà un flux bout en bout :
Le projet est structuré comme un monolithe modulaire Python :
Installation minimale :
python3.12 -m venv .venv
source .venv/bin/activate
pip install setuptools wheel
pip install -e ".[dev]" --no-build-isolation
cp .env.example .env
uvicorn kfabric.api.app:app --reload
Si tu veux aussi les dépendances plus lourdes liées aux connecteurs et à la préparation RAG étendue :
pip install -e ".[dev,extended]" --no-build-isolation
L'application démarre ensuite sur :
http://127.0.0.1:8000/http://127.0.0.1:8000/docsCommandes utiles via Makefile :
make install-extended
make test
make run-api
make stack-up
Les traitements asynchrones de KFabric fonctionnent maintenant en mode broker-only :
async doivent être dispatchés via CeleryVariables recommandées dans .env.example :
KFABRIC_PREFER_CELERY_TASKS=true
KFABRIC_CELERY_ALWAYS_EAGER=false
Dans docker-compose.yml, les services KFabric utilisent toujours les hôtes
internes postgres, redis, rabbitmq et qdrant, même si ton fichier
.env contient des URLs localhost pour un lancement hors Docker.
En environnement de test, KFABRIC_CELERY_ALWAYS_EAGER=true reste utile pour
exécuter les tâches immédiatement sans broker externe.
KFabric dispose maintenant d'un mode d'exploitation local plus stable :
docker-compose.yml avec migrations, healthchecks et volume de stockageMakefile pour les commandes courantesreadiness détaillée sur /api/v1/readinessLe runbook dédié est disponible dans docs/v1-runbook.md.
KFabric peut fonctionner sans authentification en local, mais dès qu'une clé API est configurée via KFABRIC_API_KEY, l'accès est protégé :
X-API-Key ou Authorization: Bearer .../authtrace_id et des headers de sécuritéExemple :
export KFABRIC_API_KEY="change-me"
curl -H "Authorization: Bearer change-me" http://127.0.0.1:8000/api/v1/version
Deux scénarios de démonstration reproductibles sont fournis dans docs/demo-scenarios.md.
Génération rapide :
export KFABRIC_DATABASE_URL="sqlite:////tmp/kfabric-demo.db"
export KFABRIC_STORAGE_PATH="/tmp/kfabric-demo-storage"
./.venv/bin/python scripts/generate_demo_scenarios.py \
--base-url "http://127.0.0.1:8010" \
--output /tmp/kfabric-demo-manifest.json
Les captures de démonstration peuvent ensuite être générées depuis l’UI locale, et les corpus sont exportables en HTML et en Markdown.
Page d'accueil avec les requêtes récentes :

Workflow corpus-first sur le scénario "savon Europe" :

Export HTML prêt pour une démo ou une revue documentaire :

La galerie complète des scénarios validés est disponible dans docs/demo-scenarios.md.
Les tests principaux peuvent être lancés avec :
pytest
Le dépôt exécute aussi une CI GitHub Actions sur push et pull_request via
ci.yml.
Le MVP a été vérifié localement avec :
KFabric expose deux surfaces complémentaires :
Exemples de capacités exposées :
create_querydiscover_documentslist_candidatescollect_candidateanalyze_documentaccept_documentreject_documentconsolidate_fragmentsgenerate_fragment_synthesisbuild_corpusprepare_indexget_corpus_statusKFabric est aujourd'hui un MVP technique fonctionnel.
Ce qui existe :
Ce qui viendra ensuite :
Ce projet a été conçu et développé avec assistance IA, puis structuré, contrôlé, vérifié et arbitré manuellement.
L'IA a servi d'accélérateur pour :
Les choix d'architecture, la validation du flux MVP et la cohérence produit ont été assumés et consolidés manuellement.
Licence non encore définie.
Добавь это в claude_desktop_config.json и перезапусти Claude Desktop.
{
"mcpServers": {
"kfabric": {
"command": "npx",
"args": []
}
}
}