Proxy API qui expose une interface compatible OpenAI et forward vers Anthropic Claude. Permet de partager l'accès LLM sans exposer la clé API.
# Installer les deps
python -m venv venv
./venv/Scripts/pip install -r requirements.txt # Windows
# ou: source venv/bin/activate && pip install -r requirements.txt # Linux/Mac
# Configurer
cp .env.example .env
# Editer .env avec ta clé ANTHROPIC_API_KEY
# Lancer
./venv/Scripts/python server.py# Lancer le serveur
./venv/Scripts/python server.py
# Tester que ca tourne
curl http://localhost:8000/
# Tester un appel chat
curl http://localhost:8000/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{"messages":[{"role":"user","content":"dis bonjour"}]}'
# Lister les modeles
curl http://localhost:8000/v1/models
# Killer le serveur (Windows)
taskkill //F //IM python.exe
# Killer le serveur (Linux/Mac)
pkill -f "python server.py"| Endpoint | Description |
|---|---|
GET / |
Status du serveur |
GET /health |
Health check |
GET /v1/models |
Liste des modeles disponibles |
POST /v1/chat/completions |
Chat completion (format OpenAI) |
ANTHROPIC_API_KEY=sk-ant-xxx # Required
DEFAULT_MODEL=claude-sonnet-4-20250514
REQUEST_LIMIT_PER_MINUTE=30
PORT=8000# Build et run
docker-compose up -d
# Logs
docker-compose logs -f
# Stop
docker-compose downDans francine/.env :
LLM_PRESET=gateway