"还记得昨天讨论的微服务架构方案吗?" → "抱歉,我不记得..." → 😤
| 👤 个人开发者 | 👥 团队Leader | 🏗️ 项目经理 | 🏢 企业高管 | |
|---|---|---|---|---|
| 💔 核心痛点 | 🔄 每天重复解释项目背景给AI 🧠 上下文丢失:AI无法理解开发意图 🌀 重复劳动:相似问题反复解决 |
📚 知识断层:老员工经验无法传承 💬 沟通成本高:反复解释相同问题 🚫 决策延迟:缺乏历史上下文参考 |
🔧 技术债务:历史决策原因不明 ⏱️ 项目延期:新人上手周期长 📋 文档滞后:代码与文档不同步 |
💸 人才流失:核心知识随人员离职 📈 ROI下降:跨项目最佳实践难复用 🎯 竞争劣势:创新速度被拖慢 |
| ⚡ 直接影响 | 🔥30%开发时间浪费 | 📉团队效率下降40% | 💰项目成本超预算2x | ⏰人才培养成本6-12个月 |
- 📊 50%开发者每天重复解释项目背景给AI助手
- 💰 平均成本:替换一个资深工程师需要6-12个月
- ⏱️ 时间损失:新人完全熟悉复杂项目需要3-6个月
- 🔄 重复工作:团队中30-40%的技术问题是重复性的
核心问题:AI工具缺乏持续记忆能力,无法形成智能的知识积累和传承体系。面对这些困境,我们需要的不是另一个记忆工具,而是一个真正理解开发者意图的智能大脑。🚀 Context-Keeper:突破传统边界的智能解决方案
%%{init: {'theme':'base', 'themeVariables': {'fontSize':'16px', 'fontFamily':'Arial, sans-serif'}}}%%
graph LR
subgraph Stage1["🔍 多维宽召回<br/>(高覆盖率)"]
A1("语义检索<br/>TOP-50")
A2("时间线检索<br/>TOP-30")
A3("知识图谱<br/>TOP-20")
A1 --> A4("候选集<br/>~100条")
A2 --> A4
A3 --> A4
end
subgraph Stage2["🧠 LLM精排序<br/>(高准确率)"]
A4 --> B1("LLM智能分析")
B1 --> B2("质量评估")
B2 --> B3("相关性排序")
B3 --> B4("TOP-N<br/>精准结果")
end
subgraph Stage3["🎯 多维融合<br/>(个性化输出)"]
B4 --> C1("语义维度")
B4 --> C2("时间维度")
B4 --> C3("知识维度")
C1 --> C4("智能融合引擎")
C2 --> C4
C3 --> C4
C4 --> C5("个性化方案")
end
style Stage1 fill:#e3f2fd,stroke:#e2e8f0,stroke-width:1px,rx:8,ry:8
style Stage2 fill:#fff3e0,stroke:#e2e8f0,stroke-width:1px,rx:8,ry:8
style Stage3 fill:#e8f5e9,stroke:#e2e8f0,stroke-width:1px,rx:8,ry:8
| 突破点 | 传统方案痛点 | Context-Keeper解决方案 | 核心优势 |
|---|---|---|---|
| 🧠 智能推理 | 机械匹配,无法理解意图 | LLM深度推理:理解开发场景和项目上下文 | 准确率75%+ |
| ⚡ 宽召回+精排序 | 召回率与准确率矛盾 | 两阶段架构:宽召回(100条) → 精排序(TOP-N) | 覆盖率80%+ |
| 🎯 多维融合 | 单一语义检索,信息孤立 | 三维记忆空间:语义+时间+知识图谱深度融合 | 关联发现率3倍提升 |
| 应用场景 | 开发者问题 | Context-Keeper智能响应 | 价值体现 |
|---|---|---|---|
| 架构决策回顾 | "为什么选择微服务而非单体?" | 基于3月15日技术评审记录的详细分析 | 🧠 历史智慧复用 |
| Bug修复复用 | "类似性能问题怎么解决?" | 发现2个相关案例并提供解决方案 | ⚡ 经验快速复用 |
| 技术选型参考 | "Redis集群配置最佳实践?" | 项目历史配置+业界最佳实践对比 | 🎯 决策支持优化 |
- 📈 开发效率提升: 减少重复性解释和讨论
- 💰 人力成本节省: 新员工培训时间大幅度缩短
- 🎯 决策质量提升: 基于历史经验的智能建议
- 🔄 知识资产积累: 团队智慧的系统性沉淀
Context-Keeper目前经历了两个版本的迭代:
📚 长短期记忆分层设计
- 短期记忆:存储完整的近期对话,使用本地文件系统,保证高速访问
- 长期记忆:存储关键信息摘要,使用向量数据库永久保存
- 渐进式压缩:信息从短期记忆的详细记录逐步转化为长期记忆的语义摘要
👤 用户隔离与个性化
- 会话隔离:每个用户拥有独立的会话空间,确保数据安全和隐私保护
- 工作空间隔离:不同项目/工作空间的上下文完全隔离,避免信息串扰
- 个性化记忆策略:根据用户工作风格自动调整记忆阈值和摘要策略
- 跨会话知识传递:在同一用户的不同会话间建立智能关联
🔄 记忆与批次管理机制
- 记忆ID (memoryID):用户视角的"完整记忆",对应一个工作任务或主题
- 批次ID (batchID):系统视角的"存储单元",对应连续对话片段
- 智能重要性评估:自动识别关键决策点,确保核心内容永久保存
Context-Keeper基于LLM驱动的智能上下文记忆管理系统,在一期基础上实现了两个关键突破:
🧠 LLM驱动的宽召回+精排序架构 - 构建"意图理解 → 宽召回 → 精排序 → 智能合成"的LLM驱动架构
⭐️ 智能上下文管理 - 四维统一上下文模型+LLM驱动的全生命周期智能管理
sequenceDiagram
participant User as 👤 用户
participant LLM1 as 🧠 LLM阶段一
participant MDRE as 🔍 多维检索引擎
participant LLM2 as 🧠 LLM阶段二
participant Context as 🌟 上下文管理
User->>LLM1: "回忆项目架构设计"
LLM1->>LLM1: 🎯 意图分析<br/>核心意图+领域上下文+应用场景
LLM1->>MDRE: 检索策略+查询改写
par 宽召回阶段
MDRE->>MDRE: 向量检索:架构语义
MDRE->>MDRE: 时间线检索:设计讨论
MDRE->>MDRE: 知识图谱:架构关联
end
MDRE->>LLM2: 候选集 (~100条)
LLM2->>LLM2: 🧠 精排序<br/>质量评估+相关性排序
LLM2->>Context: 结构化合成
Context->>User: ✅ 个性化架构方案
| 层级 | 核心能力 | 技术实现 | 性能优势 |
|---|---|---|---|
| 🧠 智能层 | 两阶段LLM协同推理 | 意图分析+智能合成分工 | 准确率75% |
| 🔍 检索层 | 多维宽召回+精排序 | 语义+时间+图谱混合检索 | 召回率80%+ |
| ⭐️ 管理层 | 智能上下文管理 | 四维协同+实时同步 | 响应<500ms |
Context-Keeper构建了四维统一上下文模型作为上下文信息的载体,通过LLM驱动的智能管理机制,实现上下文从初始构建→填充完善→智能分析&更新上下文(循环往复)的全生命周期管理
核心设计:
- 🏗️ 统一上下文模型:四维协同的数据存储基石
- 🔄 智能管理过程:LLM驱动的全生命周期管理机制
- ⚡️ 实时变更感知:语义级别的上下文变化检测与更新
sequenceDiagram
participant User as 👤 用户
participant SessionMgmt as 🚀 会话管理工具
participant RetrieveCtx as 🔍 上下文检索工具
participant StoreConv as 💾 对话存储工具
participant AssocFile as 📝 文件关联工具
participant Context as ⭐️ 上下文管理
participant LLM1 as 🧠 LLM阶段一
participant MDRE as 🔍 多维检索
participant LLM2 as 🧠 LLM阶段二
participant Storage as 💾 存储层
Note over User,Storage: 🆕 初始构建(首次会话)
User->>SessionMgmt: session_management(get_or_create)
SessionMgmt->>SessionMgmt: 工程感知分析<br/>技术栈·架构·依赖识别
SessionMgmt->>Context: 触发初始构建管理
Context->>Context: 创建ProjectContext<br/>构建统一上下文模型基础
Context->>Storage: 持久化ProjectContext
Note over User,Storage: 🔍 填充完善(首次检索)
User->>RetrieveCtx: retrieve_context(query, sessionId)
RetrieveCtx->>Context: 获取当前上下文
Context-->>RetrieveCtx: 返回ProjectContext
RetrieveCtx->>LLM1: 用户查询+上下文
LLM1->>LLM1: 意图理解+查询改写
LLM1->>MDRE: 宽召回指令
par 宽召回并行检索
MDRE->>MDRE: 向量检索
MDRE->>MDRE: 时间线检索
MDRE->>MDRE: 知识图谱检索
end
MDRE->>LLM2: 候选集数据
LLM2->>Context: 获取当前上下文进行比对
Context-->>LLM2: ProjectContext(其他维度待填充)
LLM2->>LLM2: 🧠 语义比对+精排序合成
LLM2->>Context: 触发填充完善管理
Context->>Context: 完整构建TopicCtx+ConvCtx<br/>(CodeCtx由代码变更触发)
Context->>Storage: 持久化完整上下文模型
RetrieveCtx->>User: 返回智能合成结果
Note over User,Storage: 🔄 变更管理(后续所有交互)
loop 标准SOP循环:每次MCP工具调用
alt 检索触发
User->>RetrieveCtx: retrieve_context(query, sessionId)
RetrieveCtx->>Context: 获取当前上下文
Context-->>RetrieveCtx: 完整四维上下文
RetrieveCtx->>LLM1: 查询+上下文
LLM1->>MDRE: 宽召回
MDRE->>LLM2: 候选集
LLM2->>Context: 语义比对+变更检测
else 存储触发
User->>StoreConv: store_conversation(messages, sessionId)
StoreConv->>Context: 获取当前上下文
Context->>Context: 基于当前上下文进行变更检测
else 代码变更触发
User->>AssocFile: associate_file(filePath, sessionId)
AssocFile->>Context: 获取当前上下文
Context->>Context: 结合主题上下文更新CodeContext
end
Context->>Context: 🎯 变更检测管理<br/>当前上下文 vs 新数据
alt 检测到语义变更
Context->>Context: ⚡️ 智能更新管理<br/>增量变更+冲突解决
Context->>Storage: 持久化变更
else 无变更
Context->>Context: 保持当前状态
end
alt 检索触发
RetrieveCtx->>User: 返回检索结果
else 存储触发
StoreConv->>User: 返回存储确认
else 代码变更触发
AssocFile->>User: 返回关联确认
end
end
🔥 管理机制核心优势:
- ✅ 统一存储基石:四维统一上下文模型作为所有管理操作的数据基础
- ✅ 全生命周期覆盖:从初始构建→填充完善→循环变更的完整管理链路
- ✅ LLM智能驱动:每个管理环节都有LLM参与决策,非传统规则引擎
- ✅ 实时变更感知:基于语义分析的上下文变化检测
- ✅ 无冲突合并:LLM驱动的智能冲突解决和优先级仲裁
在部署Context-Keeper之前,需要准备以下基础设施:
1. 向量数据库(必需)
我们设计了统一的向量存储接口,可按照开发者/企业需要自行扩展,支持多种向量数据库:
- 阿里云DashVector:可在阿里云控制台快速申请
- 京东云Vearch:可在京东云快速申请
- 自定义实现扩展:基于统一接口可扩展实现其他向量存储(如Milvus、Weaviate等)
# 配置示例(二选一)
# 选项1:使用阿里云DashVector
VECTOR_STORE_TYPE=aliyun
VECTOR_DB_URL=https://your-instance.dashvector.cn-hangzhou.aliyuncs.com
VECTOR_DB_API_KEY=your-dashvector-api-key
# 选项2:使用京东云Vearch
VECTOR_STORE_TYPE=vearch
VEARCH_URL=http://your-vearch-instance.jd.local
VEARCH_USERNAME=your-username
VEARCH_PASSWORD=your-password2. 时序数据库(必须)
自行安装:TimescaleDB/PostgreSQL(用于时间线存储)
3. 图数据库(必须)
自行安装:Neo4j(用于知识图谱和关联分析)
4. LLM模型配置(必须)
我们支持本地和云端大模型配置,灵活满足不同场景需求:
🏠 本地模型(推荐)
- 基于Ollama框架,响应快、成本低、数据安全
- 安装Ollama:
curl -fsSL https://ollama.ai/install.sh | sh - 按需安装模型:
ollama pull deepseek-coder-v2:16b - 支持模型:CodeQwen、DeepSeek Coder、Llama等
☁️ 云端模型(备用)
- 申请对应LLM厂商的API密钥即可
- 支持:OpenAI、DeepSeek、Claude、通义千问等
- 配置简单,按需调用
- Go 1.21+
- 4GB+ 内存
- 支持Docker环境(可选)
# 1. 获取Context-Keeper
git clone https://github.com/redleaves/context-keeper.git
cd context-keeper
# 2. 环境配置(重要!)
cp config/env.template config/.env
# 编辑配置文件,填入必要参数
vim config/.env基于项目实际的 config/.env 配置文件:
# =================================
# 基础服务配置
# =================================
SERVICE_NAME=context-keeper # 服务名称
PORT=8088 # HTTP服务端口
DEBUG=false # 调试模式
STORAGE_PATH=./data # 数据存储路径
# =================================
# 向量存储配置(必需)
# =================================
# 向量存储类型: aliyun | vearch
VECTOR_STORE_TYPE=aliyun # 支持阿里云DashVector和京东云Vearch
# 阿里云DashVector配置
VECTOR_DB_URL=https://your-instance.dashvector.cn-hangzhou.aliyuncs.com
VECTOR_DB_API_KEY=your-dashvector-api-key
VECTOR_DB_COLLECTION=context_keeper
VECTOR_DB_DIMENSION=1536
SIMILARITY_THRESHOLD=0.4
# 京东云Vearch配置(可选替代)
VEARCH_URL=http://your-vearch-instance.jd.local
VEARCH_USERNAME=root
VEARCH_PASSWORD=your-password
VEARCH_DATABASE=db
VEARCH_REQUIRED_SPACES=context_keeper_vector,context_keeper_users
# =================================
# Embedding服务配置(必需)
# =================================
EMBEDDING_API_URL=https://dashscope.aliyuncs.com/compatible-mode/v1/embeddings
EMBEDDING_API_KEY=your-dashscope-api-key
# 批量Embedding配置
BATCH_EMBEDDING_API_URL=https://dashscope.aliyuncs.com/api/v1/services/embeddings/text-embedding/text-embedding
BATCH_QUEUE_SIZE=100
BATCH_WORKER_POLL_INTERVAL=5s
# =================================
# LLM配置(重点:支持本地和云端模型)
# =================================
# 🌟 支持本地和云端模型,本地模型响应快、灵活,适合语义分析和识别
LLM_PROVIDER=ollama_local # 默认使用本地模型
LLM_MODEL=deepseek-coder-v2:16b # 本地代码理解模型
LLM_MAX_TOKENS=80000 # 最大Token数
LLM_TEMPERATURE=0.1 # 温度参数(精确分析)
LLM_TIMEOUT_SECONDS=600 # 超时时间
# 云端模型API Keys(备用)
DEEPSEEK_API_KEY=your-deepseek-key # DeepSeek云端API
OPENAI_API_KEY=your-openai-key # OpenAI API
CLAUDE_API_KEY=your-claude-key # Claude API
# 时间线存储(TimescaleDB/PostgreSQL)
TIMELINE_STORAGE_ENABLED=true
TIMESCALEDB_HOST=localhost
TIMESCALEDB_PORT=5432
TIMESCALEDB_DATABASE=context_keeper_timeline
TIMESCALEDB_USERNAME=your-username
TIMESCALEDB_PASSWORD=your-password
# 知识图谱存储(Neo4j)
KNOWLEDGE_GRAPH_ENABLED=true
NEO4J_URI=bolt://localhost:7687
NEO4J_USERNAME=neo4j
NEO4J_PASSWORD=your-neo4j-password
NEO4J_DATABASE=neo4j
# =================================
# 会话管理配置
# =================================
SESSION_TIMEOUT=120m # 会话超时时间(分钟)
CLEANUP_INTERVAL=30m # 清理任务间隔
SHORT_MEMORY_MAX_AGE=3 # 短期记忆保留天数基于项目实际的 config/llm_config.yaml 配置文件:
🌟 重点特性:支持本地和云端模型,本地模型响应快、灵活,特别适合语义分析和识别任务
llm:
default:
primary_provider: "ollama_local" # 🔥 优先使用本地模型
fallback_provider: "deepseek" # 云端模型作为备用
providers:
# 🏠 本地模型配置(推荐)
ollama_local:
base_url: "http://localhost:11434"
model: "deepseek-coder-v2:16b" # 默认本地模型
timeout: "60s" # 本地响应更快
rate_limit: 0 # 无限流限制
available_models: # 支持多种本地模型
- "codeqwen:7b" # 代码生成专用
- "deepseek-coder:33b" # 高性能代码模型
- "deepseek-coder-v2:16b" # 新一代代码模型
# ☁️ 云端模型配置(备用)
deepseek:
api_key: "${DEEPSEEK_API_KEY}"
model: "deepseek-chat"
timeout: "120s"
rate_limit: 6000
openai:
api_key: "${OPENAI_API_KEY}"
model: "gpt-3.5-turbo"
claude:
api_key: "${CLAUDE_API_KEY}"
model: "claude-3-sonnet-20240229"| 参数分类 | 参数名 | 必需 | 说明 | 默认值 |
|---|---|---|---|---|
| 基础服务 | SERVICE_NAME |
✅ | 服务名称 | context-keeper |
PORT |
✅ | HTTP服务监听端口 | 8088 |
|
STORAGE_PATH |
✅ | 数据存储目录 | ./data |
|
| 向量存储 | VECTOR_STORE_TYPE |
✅ | 向量数据库类型:aliyun/vearch | aliyun |
VECTOR_DB_URL |
✅ | 阿里云DashVector地址 | - | |
VECTOR_DB_API_KEY |
✅ | DashVector API密钥 | - | |
VEARCH_URL |
❌ | 京东云Vearch地址 | - | |
VEARCH_USERNAME |
❌ | Vearch用户名 | root |
|
| Embedding | EMBEDDING_API_URL |
✅ | 阿里云嵌入服务地址 | DashScope API |
EMBEDDING_API_KEY |
✅ | DashScope API密钥 | - | |
| LLM模型 | LLM_PROVIDER |
✅ | LLM提供商:ollama_local/deepseek/openai | ollama_local |
LLM_MODEL |
✅ | 使用的模型名称 | deepseek-coder-v2:16b |
|
LLM_MAX_TOKENS |
❌ | 最大Token数 | 80000 |
|
| 时序存储 | TIMELINE_STORAGE_ENABLED |
✅ | 是否启用TimescaleDB | true |
TIMESCALEDB_HOST |
✅ | PostgreSQL主机地址 | localhost |
|
TIMESCALEDB_DATABASE |
✅ | 数据库名称 | context_keeper_timeline |
|
| 图数据库 | KNOWLEDGE_GRAPH_ENABLED |
✅ | 是否启用Neo4j | true |
NEO4J_URI |
✅ | Neo4j连接地址 | bolt://localhost:7687 |
|
NEO4J_USERNAME |
✅ | Neo4j用户名 | neo4j |
|
| 会话管理 | SESSION_TIMEOUT |
❌ | 会话超时时间 | 120m |
SHORT_MEMORY_MAX_AGE |
❌ | 短期记忆保留天数 | 7 |
# 3. 一键启动
./scripts/manage.sh deploy http --port 8088
# 4. 验证部署
curl http://localhost:8088/health
# 预期输出: {"status":"healthy","version":"v2.0.0"}# 测试MCP协议连接
curl -X POST http://localhost:8088/mcp \
-H "Content-Type: application/json" \
-d '{"jsonrpc":"2.0","id":1,"method":"tools/list"}'
# 测试智能记忆功能
curl -X POST http://localhost:8088/mcp \
-H "Content-Type: application/json" \
-d '{
"jsonrpc":"2.0","id":2,"method":"tools/call",
"params":{
"name":"memorize_context",
"arguments":{
"sessionId":"test_session",
"content":"这是一个架构设计讨论,采用微服务模式"
}
}
}'
# 测试智能检索功能
curl -X POST http://localhost:8088/mcp \
-H "Content-Type: application/json" \
-d '{
"jsonrpc":"2.0","id":3,"method":"tools/call",
"params":{
"name":"retrieve_context",
"arguments":{
"sessionId":"test_session",
"query":"架构设计"
}
}
}'步骤1:配置MCP连接
{
"mcpServers": {
"context-keeper": {
"url": "http://localhost:8088/mcp"
}
}
}步骤2:安装智能记忆规则
# 复制预置的记忆管理规则(或者根据IDE实际情况拷贝复制)
cp .cursor/rules/memory-rules.md ~/.cursor/rules/context-keeper.md
# 规则内容预览
cat ~/.cursor/rules/context-keeper.md
# 包含:自动代码关联、实时记忆同步、智能检索提示等步骤3:验证集成效果
// 在Cursor中测试
你: "帮我回忆一下这个项目的Redis缓存策略"
AI: [自动触发Context-Keeper检索]
"根据8月15日的架构讨论,你们选择了Redis集群模式,
主要考虑了以下因素:[显示历史讨论详情]"# 安装扩展
code --install-extension context-keeper.cursor-integration# 1. 构建镜像
docker build -t context-keeper:latest .
# 2. 使用Docker Compose部署
cat > docker-compose.yml << 'EOF'
version: '3.8'
services:
context-keeper:
image: context-keeper:latest
ports:
- "8088:8088"
environment:
- PORT=8088
- LLM_PROVIDER=openai
- OPENAI_API_KEY=${OPENAI_API_KEY}
- VECTOR_PROVIDER=dashvector
- DASHVECTOR_API_KEY=${DASHVECTOR_API_KEY}
volumes:
- ./data:/app/data
- ./config:/app/config
restart: unless-stopped
healthcheck:
test: ["CMD", "curl", "-f", "http://localhost:8088/health"]
interval: 30s
timeout: 10s
retries: 3
EOF
# 3. 启动服务
docker-compose up -d
# 4. 查看服务状态
docker-compose ps
docker-compose logs -f context-keeper# 1. 构建镜像(使用项目提供的Dockerfile)
docker build -t context-keeper:latest .
# 2. 运行容器
docker run -d \
--name context-keeper \
-p 8088:8088 \
-v $(pwd)/data:/app/data \
-v $(pwd)/config:/app/config \
--env-file config/.env \
context-keeper:latest
# 3. 查看运行状态
docker ps
docker logs context-keeper# 使用项目提供的docker-compose.yml
docker-compose up -d
# 查看服务状态
docker-compose ps
docker-compose logs -f context-keeper
# 停止服务
docker-compose downContext-Keeper采用阶梯式演进策略,从基础记忆能力逐步升级为企业级AI大脑:
gantt
title Context-Keeper 产品发展路线图
dateFormat YYYY-MM-DD
section 🏗️ 基础架构
双层记忆系统 :done, basic1, 2025-04-01, 2025-06-30
MCP协议集成 :done, basic2, 2025-04-01, 2025-06-30
多向量引擎支持 :done, basic3, 2025-04-01, 2025-06-30
section 🧠 智能大脑
用户/工作空间隔离 :done, brain0, 2025-07-01, 2025-09-30
LLM两阶段分析 :done, brain1, 2025-07-01, 2025-09-30
三要素智能识别 :done, brain2, 2025-07-01, 2025-09-30
多维检索融合 :done, brain3, 2025-07-01, 2025-09-30
section 🕸️ 知识图谱
知识图谱存储引擎 :done, kg1, 2025-10-01, 2025-12-31
图谱向量混合检索 :done, kg2, 2025-10-01, 2026-01-15
跨项目知识复用 :active, kg3, 2026-01-01, 2026-03-31
section 🏢 企业级
多租户SaaS架构 :enterprise1, 2026-01-01, 2026-03-31
安全合规体系 :enterprise2, 2026-01-01, 2026-03-31
全球化部署 :enterprise3, 2026-01-01, 2026-03-31
📅 时间窗口: 2025年Q4 → 2026年Q1 🎯 核心目标: 知识图谱与向量语义的深度融合检索
-
🕸️ 企业知识图谱构建
interface KnowledgeGraph { entities: ProjectEntity[]; relationships: EntityRelationship[]; concepts: ConceptNode[]; contextClusters: ContextCluster[]; } interface ProjectEntity { id: string; type: "function" | "module" | "concept" | "decision"; properties: Record<string, any>; connections: EntityConnection[]; }
- 技术突破: 自动从代码和对话中提取实体关系
- 预期效果: 构建项目的完整知识网络
-
🧠 关系推理引擎
interface ReasoningEngine { findRelatedConcepts(entity: string): ConceptPath[]; inferMissingLinks(context: Context): InferredRelation[]; explainDecisionPath(decision: Decision): ReasoningChain; }
- 技术突破: 多跳路径查询与智能推理
- 预期效果: 发现隐藏的知识关联
-
🔄 跨项目知识复用
interface CrossProjectKnowledge { patternMatching: PatternMatcher; bestPracticeExtraction: BestPracticeEngine; knowledgeTransfer: TransferLearning; }
- 技术突破: 跨项目的最佳实践自动识别和迁移
- 预期效果: 加速新项目的知识积累
📊 预期量化目标:
- 🎯 知识图谱覆盖率: 90%+
- ⚡ 关系推理准确率: 85%+
- 🔧 跨项目知识复用率: 70%+
🎯 核心目标: 构建企业级SaaS服务和全球化部署能力
-
🏗️ 多租户SaaS架构
- 租户数据完全隔离
- 弹性资源分配
- 企业级性能保障
-
🔒 安全合规体系
- 数据加密和权限管理
- 审计日志和合规报告
- 企业级安全认证
-
🌍 全球化部署
- 多区域部署支持
- 国际化和本地化
- 全球数据同步
Context-Keeper致力于构建一个开放、创新、共赢的AI编程工具社区,让每一位开发者都能享受到智能记忆带来的效率提升。
%%{init: {'theme':'base', 'themeVariables': {'fontSize':'16px', 'fontFamily':'Arial, sans-serif'}}}%%
graph LR
A[开源项目] -->|开发者贡献| B[技术创新]
B -->|产品优化| C[用户体验提升]
C -->|社区壮大| D[生态繁荣]
D -->|反哺开源| A
style A fill:#e8f5e9,stroke:#e2e8f0,stroke-width:0.5px,rx:8,ry:8
style B fill:#e3f2fd,stroke:#e2e8f0,stroke-width:0.5px,rx:8,ry:8
style C fill:#fff3e0,stroke:#e2e8f0,stroke-width:0.5px,rx:8,ry:8
style D fill:#f3e5f5,stroke:#e2e8f0,stroke-width:0.5px,rx:8,ry:8
# 1. Fork并克隆项目
git clone https://github.com/YOUR_USERNAME/context-keeper.git
cd context-keeper
# 2. 环境准备
go version # 确保Go 1.21+
node --version # 确保Node.js 16+
# 3. 依赖安装
go mod download
npm install
# 4. 本地开发启动
cp config/.env.example config/.env
go run main.go --dev
# 5. 运行测试套件
go test ./...
npm test
# 6. 代码质量检查
golangci-lint run
npm run lint# 1. 创建功能分支
git checkout -b feature/amazing-new-feature
# 2. 开发与测试
# ... 进行开发工作 ...
go test ./...
# 3. 提交代码(遵循Conventional Commits)
git add .
git commit -m "feat: add intelligent query rewriting engine
- Implement semantic query expansion
- Add multi-language support for query analysis
- Integrate with LLM providers for intent recognition
- Add comprehensive test coverage
Closes #123"
# 4. 推送并创建PR
git push origin feature/amazing-new-feature
# 在GitHub上创建Pull Request| 贡献类型 | 技能要求 | 认可方式 | 影响力 |
|---|---|---|---|
| 🐛 Bug修复 | Go/TypeScript基础 | Contributor徽章 | 直接提升产品稳定性 |
| ✨ 功能开发 | 中高级编程技能 | Core Contributor | 推动产品能力演进 |
| 📚 文档完善 | 技术写作能力 | Documentation Expert | 降低新用户使用门槛 |
| 🧪 测试用例 | 测试思维与技能 | Quality Assurance | 保障产品质量 |
| 🌍 国际化 | 多语言能力 | Localization Champion | 扩大全球用户覆盖 |
| 🎨 UI/UX设计 | 设计与前端技能 | Design Contributor | 提升用户体验 |
🧠 Context-Keeper - 重新定义AI助手的记忆边界
让每一次对话都有意义,让每一个决策都有传承
# 1️⃣ 获取Context-Keeper
git clone https://github.com/redleaves/context-keeper.git
# 2️⃣ 一键启动服务
./scripts/manage.sh deploy http --port 8088
# 3️⃣ 集成到您的IDE
# Cursor用户:配置MCP连接
# VSCode用户:安装官方扩展| 🎯 场景 | 🔗 链接 | 📝 描述 |
|---|---|---|
| ⚡ 快速体验 | 5分钟快速开始 | 最快速度上手体验 |
| 🏗️ 技术深入 | 系统架构设计 | 了解技术原理与创新 |
| 📖 部署指南 | 部署与集成 | 生产环境部署方案 |
| 🗺️ 产品规划 | 发展路线图 | 未来发展方向 |
| 🤝 参与贡献 | 贡献指南 | 加入开源社区 |
⭐ 如果Context-Keeper对您有帮助,请给我们一个Star!
📢 分享给更多需要智能记忆的开发者:
本项目基于 MIT License 开源许可证,欢迎自由使用、修改和分发。
🏆 核心贡献者:
- @weixiaofeng - 项目发起人&首席架构师
- @lixiao - LLM架构师
🌍 社区支持:
- Model Context Protocol - 协议标准支持
- Go语言社区 - 技术生态与工具链
- OpenAI开发者社区 - AI技术生态支持
Copyright © 2025 Context-Keeper Team. All rights reserved.


