Skip to content

🧠 LLM-Driven Intelligent Memory & Context Management System (AI记忆管理与智能上下文感知平台) AI记忆管理平台 | 智能上下文感知 | RAG检索增强生成 | 向量检索引擎

License

Notifications You must be signed in to change notification settings

redleaves/context-keeper

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

9 Commits
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Context-Keeper Logo

Context-Keeper

基于LLM驱动的智能记忆与上下文管理系统

重新定义AI助手的记忆边界,让每一次对话都有意义

GitHub Stars License Go Version MCP Protocol

English | 简体中文


📋 目录导航


1. AI时代的开发困境:当智能工具遇到记忆断层

"还记得昨天讨论的微服务架构方案吗?" → "抱歉,我不记得..." → 😤

📊 四维痛点:你是哪一种?

👤 个人开发者 👥 团队Leader 🏗️ 项目经理 🏢 企业高管
💔 核心痛点 🔄 每天重复解释项目背景给AI
🧠 上下文丢失:AI无法理解开发意图
🌀 重复劳动:相似问题反复解决
📚 知识断层:老员工经验无法传承
💬 沟通成本高:反复解释相同问题
🚫 决策延迟:缺乏历史上下文参考
🔧 技术债务:历史决策原因不明
⏱️ 项目延期:新人上手周期长
📋 文档滞后:代码与文档不同步
💸 人才流失:核心知识随人员离职
📈 ROI下降:跨项目最佳实践难复用
🎯 竞争劣势:创新速度被拖慢
⚡ 直接影响 🔥30%开发时间浪费 📉团队效率下降40% 💰项目成本超预算2x ⏰人才培养成本6-12个月

🔥 行业现状数据

  • 📊 50%开发者每天重复解释项目背景给AI助手
  • 💰 平均成本:替换一个资深工程师需要6-12个月
  • ⏱️ 时间损失:新人完全熟悉复杂项目需要3-6个月
  • 🔄 重复工作:团队中30-40%的技术问题是重复性的

核心问题:AI工具缺乏持续记忆能力,无法形成智能的知识积累和传承体系。面对这些困境,我们需要的不是另一个记忆工具,而是一个真正理解开发者意图的智能大脑。🚀 Context-Keeper:突破传统边界的智能解决方案


2. 核心特性

%%{init: {'theme':'base', 'themeVariables': {'fontSize':'16px', 'fontFamily':'Arial, sans-serif'}}}%%
graph LR
    subgraph Stage1["🔍 多维宽召回<br/>(高覆盖率)"]
        A1("语义检索<br/>TOP-50") 
        A2("时间线检索<br/>TOP-30")
        A3("知识图谱<br/>TOP-20")
        A1 --> A4("候选集<br/>~100条")
        A2 --> A4
        A3 --> A4
    end
    
    subgraph Stage2["🧠 LLM精排序<br/>(高准确率)"]
        A4 --> B1("LLM智能分析")
        B1 --> B2("质量评估")
        B2 --> B3("相关性排序")
        B3 --> B4("TOP-N<br/>精准结果")
    end
    
    subgraph Stage3["🎯 多维融合<br/>(个性化输出)"]
        B4 --> C1("语义维度")
        B4 --> C2("时间维度") 
        B4 --> C3("知识维度")
        C1 --> C4("智能融合引擎")
        C2 --> C4
        C3 --> C4
        C4 --> C5("个性化方案")
    end
    
    style Stage1 fill:#e3f2fd,stroke:#e2e8f0,stroke-width:1px,rx:8,ry:8
    style Stage2 fill:#fff3e0,stroke:#e2e8f0,stroke-width:1px,rx:8,ry:8
    style Stage3 fill:#e8f5e9,stroke:#e2e8f0,stroke-width:1px,rx:8,ry:8
Loading

🚀 三大核心突破

突破点 传统方案痛点 Context-Keeper解决方案 核心优势
🧠 智能推理 机械匹配,无法理解意图 LLM深度推理:理解开发场景和项目上下文 准确率75%+
⚡ 宽召回+精排序 召回率与准确率矛盾 两阶段架构:宽召回(100条) → 精排序(TOP-N) 覆盖率80%+
🎯 多维融合 单一语义检索,信息孤立 三维记忆空间:语义+时间+知识图谱深度融合 关联发现率3倍提升

🎯 业务价值

对开发团队的价值

应用场景 开发者问题 Context-Keeper智能响应 价值体现
架构决策回顾 "为什么选择微服务而非单体?" 基于3月15日技术评审记录的详细分析 🧠 历史智慧复用
Bug修复复用 "类似性能问题怎么解决?" 发现2个相关案例并提供解决方案 经验快速复用
技术选型参考 "Redis集群配置最佳实践?" 项目历史配置+业界最佳实践对比 🎯 决策支持优化

对企业的价值

  • 📈 开发效率提升: 减少重复性解释和讨论
  • 💰 人力成本节省: 新员工培训时间大幅度缩短
  • 🎯 决策质量提升: 基于历史经验的智能建议
  • 🔄 知识资产积累: 团队智慧的系统性沉淀

3. 架构设计

Context-Keeper目前经历了两个版本的迭代:

🧠 一期核心设计

📚 长短期记忆分层设计

  • 短期记忆:存储完整的近期对话,使用本地文件系统,保证高速访问
  • 长期记忆:存储关键信息摘要,使用向量数据库永久保存
  • 渐进式压缩:信息从短期记忆的详细记录逐步转化为长期记忆的语义摘要

👤 用户隔离与个性化

  • 会话隔离:每个用户拥有独立的会话空间,确保数据安全和隐私保护
  • 工作空间隔离:不同项目/工作空间的上下文完全隔离,避免信息串扰
  • 个性化记忆策略:根据用户工作风格自动调整记忆阈值和摘要策略
  • 跨会话知识传递:在同一用户的不同会话间建立智能关联

🔄 记忆与批次管理机制

  • 记忆ID (memoryID):用户视角的"完整记忆",对应一个工作任务或主题
  • 批次ID (batchID):系统视角的"存储单元",对应连续对话片段
  • 智能重要性评估:自动识别关键决策点,确保核心内容永久保存

🚀 二期LLM驱动升级

Context-Keeper基于LLM驱动的智能上下文记忆管理系统,在一期基础上实现了两个关键突破:

🧠 LLM驱动的宽召回+精排序架构 - 构建"意图理解 → 宽召回 → 精排序 → 智能合成"的LLM驱动架构

⭐️ 智能上下文管理 - 四维统一上下文模型+LLM驱动的全生命周期智能管理


🧠 3.1 LLM驱动的宽召回+精排序架构

🏗️ 架构图

LLM驱动的宽召回+精排序架构图

⏱️ 时序图

sequenceDiagram
    participant User as 👤 用户
    participant LLM1 as 🧠 LLM阶段一
    participant MDRE as 🔍 多维检索引擎
    participant LLM2 as 🧠 LLM阶段二
    participant Context as 🌟 上下文管理
    
    User->>LLM1: "回忆项目架构设计"
    LLM1->>LLM1: 🎯 意图分析<br/>核心意图+领域上下文+应用场景
    LLM1->>MDRE: 检索策略+查询改写
    
    par 宽召回阶段
        MDRE->>MDRE: 向量检索:架构语义
        MDRE->>MDRE: 时间线检索:设计讨论
        MDRE->>MDRE: 知识图谱:架构关联
    end
    
    MDRE->>LLM2: 候选集 (~100条)
    LLM2->>LLM2: 🧠 精排序<br/>质量评估+相关性排序
    LLM2->>Context: 结构化合成
    Context->>User: ✅ 个性化架构方案
Loading

📋 架构核心特性

层级 核心能力 技术实现 性能优势
🧠 智能层 两阶段LLM协同推理 意图分析+智能合成分工 准确率75%
🔍 检索层 多维宽召回+精排序 语义+时间+图谱混合检索 召回率80%+
⭐️ 管理层 智能上下文管理 四维协同+实时同步 响应<500ms

📋 3.2 智能上下文管理

Context-Keeper构建了四维统一上下文模型作为上下文信息的载体,通过LLM驱动的智能管理机制,实现上下文从初始构建→填充完善→智能分析&更新上下文(循环往复)的全生命周期管理

核心设计

  • 🏗️ 统一上下文模型:四维协同的数据存储基石
  • 🔄 智能管理过程:LLM驱动的全生命周期管理机制
  • ⚡️ 实时变更感知:语义级别的上下文变化检测与更新

🏗️ 智能上下文管理分层架构

LLM驱动的宽召回+精排序架构图

⏱️ 智能上下文管理时序

sequenceDiagram
    participant User as 👤 用户
    participant SessionMgmt as 🚀 会话管理工具
    participant RetrieveCtx as 🔍 上下文检索工具
    participant StoreConv as 💾 对话存储工具
    participant AssocFile as 📝 文件关联工具
    participant Context as ⭐️ 上下文管理
    participant LLM1 as 🧠 LLM阶段一
    participant MDRE as 🔍 多维检索
    participant LLM2 as 🧠 LLM阶段二
    participant Storage as 💾 存储层
    
    Note over User,Storage: 🆕 初始构建(首次会话)
    
    User->>SessionMgmt: session_management(get_or_create)
    SessionMgmt->>SessionMgmt: 工程感知分析<br/>技术栈·架构·依赖识别
    SessionMgmt->>Context: 触发初始构建管理
    Context->>Context: 创建ProjectContext<br/>构建统一上下文模型基础
    Context->>Storage: 持久化ProjectContext
    
    Note over User,Storage: 🔍 填充完善(首次检索)
    
    User->>RetrieveCtx: retrieve_context(query, sessionId)
    RetrieveCtx->>Context: 获取当前上下文
    Context-->>RetrieveCtx: 返回ProjectContext
    RetrieveCtx->>LLM1: 用户查询+上下文
    LLM1->>LLM1: 意图理解+查询改写
    LLM1->>MDRE: 宽召回指令
    
    par 宽召回并行检索
        MDRE->>MDRE: 向量检索
        MDRE->>MDRE: 时间线检索  
        MDRE->>MDRE: 知识图谱检索
    end
    
    MDRE->>LLM2: 候选集数据
    LLM2->>Context: 获取当前上下文进行比对
    Context-->>LLM2: ProjectContext(其他维度待填充)
    LLM2->>LLM2: 🧠 语义比对+精排序合成
    LLM2->>Context: 触发填充完善管理
    Context->>Context: 完整构建TopicCtx+ConvCtx<br/>(CodeCtx由代码变更触发)
    Context->>Storage: 持久化完整上下文模型
    RetrieveCtx->>User: 返回智能合成结果
    
    Note over User,Storage: 🔄 变更管理(后续所有交互)
    
    loop 标准SOP循环:每次MCP工具调用
        alt 检索触发
            User->>RetrieveCtx: retrieve_context(query, sessionId)
            RetrieveCtx->>Context: 获取当前上下文
            Context-->>RetrieveCtx: 完整四维上下文
            RetrieveCtx->>LLM1: 查询+上下文
            LLM1->>MDRE: 宽召回
            MDRE->>LLM2: 候选集
            LLM2->>Context: 语义比对+变更检测
        else 存储触发
            User->>StoreConv: store_conversation(messages, sessionId)
            StoreConv->>Context: 获取当前上下文
            Context->>Context: 基于当前上下文进行变更检测
        else 代码变更触发
            User->>AssocFile: associate_file(filePath, sessionId)
            AssocFile->>Context: 获取当前上下文
            Context->>Context: 结合主题上下文更新CodeContext
        end
        
        Context->>Context: 🎯 变更检测管理<br/>当前上下文 vs 新数据
        
        alt 检测到语义变更
            Context->>Context: ⚡️ 智能更新管理<br/>增量变更+冲突解决
            Context->>Storage: 持久化变更
        else 无变更
            Context->>Context: 保持当前状态
        end
        
        alt 检索触发
            RetrieveCtx->>User: 返回检索结果
        else 存储触发
            StoreConv->>User: 返回存储确认
        else 代码变更触发
            AssocFile->>User: 返回关联确认
        end
    end
Loading

🔥 管理机制核心优势

  • 统一存储基石:四维统一上下文模型作为所有管理操作的数据基础
  • 全生命周期覆盖:从初始构建→填充完善→循环变更的完整管理链路
  • LLM智能驱动:每个管理环节都有LLM参与决策,非传统规则引擎
  • 实时变更感知:基于语义分析的上下文变化检测
  • 无冲突合并:LLM驱动的智能冲突解决和优先级仲裁

4. 部署与集成

🛠️ 前置准备

在部署Context-Keeper之前,需要准备以下基础设施:

📊 多维存储基础设施

1. 向量数据库(必需)

我们设计了统一的向量存储接口,可按照开发者/企业需要自行扩展,支持多种向量数据库:

  • 阿里云DashVector:可在阿里云控制台快速申请
  • 京东云Vearch:可在京东云快速申请
  • 自定义实现扩展:基于统一接口可扩展实现其他向量存储(如Milvus、Weaviate等)
# 配置示例(二选一)
# 选项1:使用阿里云DashVector
VECTOR_STORE_TYPE=aliyun
VECTOR_DB_URL=https://your-instance.dashvector.cn-hangzhou.aliyuncs.com
VECTOR_DB_API_KEY=your-dashvector-api-key

# 选项2:使用京东云Vearch  
VECTOR_STORE_TYPE=vearch
VEARCH_URL=http://your-vearch-instance.jd.local
VEARCH_USERNAME=your-username
VEARCH_PASSWORD=your-password

2. 时序数据库(必须)

自行安装:TimescaleDB/PostgreSQL(用于时间线存储)

3. 图数据库(必须)

自行安装:Neo4j(用于知识图谱和关联分析)

4. LLM模型配置(必须)

我们支持本地和云端大模型配置,灵活满足不同场景需求

🏠 本地模型(推荐)

  • 基于Ollama框架,响应快、成本低、数据安全
  • 安装Ollama:curl -fsSL https://ollama.ai/install.sh | sh
  • 按需安装模型:ollama pull deepseek-coder-v2:16b
  • 支持模型:CodeQwen、DeepSeek Coder、Llama等

☁️ 云端模型(备用)

  • 申请对应LLM厂商的API密钥即可
  • 支持:OpenAI、DeepSeek、Claude、通义千问等
  • 配置简单,按需调用

5分钟快速开始

环境要求

  • Go 1.21+
  • 4GB+ 内存
  • 支持Docker环境(可选)

一键本地部署

# 1. 获取Context-Keeper
git clone https://github.com/redleaves/context-keeper.git
cd context-keeper

# 2. 环境配置(重要!)
cp config/env.template config/.env

# 编辑配置文件,填入必要参数
vim config/.env

⚙️ 详细参数配置

真实配置文件说明

基于项目实际的 config/.env 配置文件:

# =================================
# 基础服务配置
# =================================
SERVICE_NAME=context-keeper         # 服务名称
PORT=8088                          # HTTP服务端口
DEBUG=false                        # 调试模式
STORAGE_PATH=./data                # 数据存储路径

# =================================
# 向量存储配置(必需)
# =================================
# 向量存储类型: aliyun | vearch
VECTOR_STORE_TYPE=aliyun           # 支持阿里云DashVector和京东云Vearch

# 阿里云DashVector配置
VECTOR_DB_URL=https://your-instance.dashvector.cn-hangzhou.aliyuncs.com
VECTOR_DB_API_KEY=your-dashvector-api-key
VECTOR_DB_COLLECTION=context_keeper
VECTOR_DB_DIMENSION=1536
SIMILARITY_THRESHOLD=0.4

# 京东云Vearch配置(可选替代)
VEARCH_URL=http://your-vearch-instance.jd.local
VEARCH_USERNAME=root
VEARCH_PASSWORD=your-password
VEARCH_DATABASE=db
VEARCH_REQUIRED_SPACES=context_keeper_vector,context_keeper_users

# =================================
# Embedding服务配置(必需)
# =================================
EMBEDDING_API_URL=https://dashscope.aliyuncs.com/compatible-mode/v1/embeddings
EMBEDDING_API_KEY=your-dashscope-api-key

# 批量Embedding配置
BATCH_EMBEDDING_API_URL=https://dashscope.aliyuncs.com/api/v1/services/embeddings/text-embedding/text-embedding
BATCH_QUEUE_SIZE=100
BATCH_WORKER_POLL_INTERVAL=5s

# =================================
# LLM配置(重点:支持本地和云端模型)
# =================================
# 🌟 支持本地和云端模型,本地模型响应快、灵活,适合语义分析和识别
LLM_PROVIDER=ollama_local          # 默认使用本地模型
LLM_MODEL=deepseek-coder-v2:16b    # 本地代码理解模型
LLM_MAX_TOKENS=80000               # 最大Token数
LLM_TEMPERATURE=0.1                # 温度参数(精确分析)
LLM_TIMEOUT_SECONDS=600            # 超时时间

# 云端模型API Keys(备用)
DEEPSEEK_API_KEY=your-deepseek-key  # DeepSeek云端API
OPENAI_API_KEY=your-openai-key      # OpenAI API
CLAUDE_API_KEY=your-claude-key      # Claude API


# 时间线存储(TimescaleDB/PostgreSQL)
TIMELINE_STORAGE_ENABLED=true
TIMESCALEDB_HOST=localhost
TIMESCALEDB_PORT=5432
TIMESCALEDB_DATABASE=context_keeper_timeline
TIMESCALEDB_USERNAME=your-username
TIMESCALEDB_PASSWORD=your-password

# 知识图谱存储(Neo4j)
KNOWLEDGE_GRAPH_ENABLED=true
NEO4J_URI=bolt://localhost:7687
NEO4J_USERNAME=neo4j
NEO4J_PASSWORD=your-neo4j-password
NEO4J_DATABASE=neo4j

# =================================
# 会话管理配置
# =================================
SESSION_TIMEOUT=120m               # 会话超时时间(分钟)
CLEANUP_INTERVAL=30m               # 清理任务间隔
SHORT_MEMORY_MAX_AGE=3            # 短期记忆保留天数

LLM模型选择配置

基于项目实际的 config/llm_config.yaml 配置文件:

🌟 重点特性:支持本地和云端模型,本地模型响应快、灵活,特别适合语义分析和识别任务

llm:
  default:
    primary_provider: "ollama_local"    # 🔥 优先使用本地模型
    fallback_provider: "deepseek"      # 云端模型作为备用
    
  providers:
    # 🏠 本地模型配置(推荐)
    ollama_local:
      base_url: "http://localhost:11434"
      model: "deepseek-coder-v2:16b"   # 默认本地模型
      timeout: "60s"                   # 本地响应更快
      rate_limit: 0                    # 无限流限制
      available_models:                # 支持多种本地模型
        - "codeqwen:7b"               # 代码生成专用
        - "deepseek-coder:33b"        # 高性能代码模型
        - "deepseek-coder-v2:16b"     # 新一代代码模型
    
    # ☁️ 云端模型配置(备用)
    deepseek:
      api_key: "${DEEPSEEK_API_KEY}"
      model: "deepseek-chat"
      timeout: "120s"
      rate_limit: 6000
      
    openai:
      api_key: "${OPENAI_API_KEY}"
      model: "gpt-3.5-turbo"
      
    claude:
      api_key: "${CLAUDE_API_KEY}"
      model: "claude-3-sonnet-20240229"

配置参数详解

参数分类 参数名 必需 说明 默认值
基础服务 SERVICE_NAME 服务名称 context-keeper
PORT HTTP服务监听端口 8088
STORAGE_PATH 数据存储目录 ./data
向量存储 VECTOR_STORE_TYPE 向量数据库类型:aliyun/vearch aliyun
VECTOR_DB_URL 阿里云DashVector地址 -
VECTOR_DB_API_KEY DashVector API密钥 -
VEARCH_URL 京东云Vearch地址 -
VEARCH_USERNAME Vearch用户名 root
Embedding EMBEDDING_API_URL 阿里云嵌入服务地址 DashScope API
EMBEDDING_API_KEY DashScope API密钥 -
LLM模型 LLM_PROVIDER LLM提供商:ollama_local/deepseek/openai ollama_local
LLM_MODEL 使用的模型名称 deepseek-coder-v2:16b
LLM_MAX_TOKENS 最大Token数 80000
时序存储 TIMELINE_STORAGE_ENABLED 是否启用TimescaleDB true
TIMESCALEDB_HOST PostgreSQL主机地址 localhost
TIMESCALEDB_DATABASE 数据库名称 context_keeper_timeline
图数据库 KNOWLEDGE_GRAPH_ENABLED 是否启用Neo4j true
NEO4J_URI Neo4j连接地址 bolt://localhost:7687
NEO4J_USERNAME Neo4j用户名 neo4j
会话管理 SESSION_TIMEOUT 会话超时时间 120m
SHORT_MEMORY_MAX_AGE 短期记忆保留天数 7

启动服务

# 3. 一键启动
./scripts/manage.sh deploy http --port 8088

# 4. 验证部署
curl http://localhost:8088/health
# 预期输出: {"status":"healthy","version":"v2.0.0"}

验证功能完整性

# 测试MCP协议连接
curl -X POST http://localhost:8088/mcp \
  -H "Content-Type: application/json" \
  -d '{"jsonrpc":"2.0","id":1,"method":"tools/list"}'

# 测试智能记忆功能  
curl -X POST http://localhost:8088/mcp \
  -H "Content-Type: application/json" \
  -d '{
    "jsonrpc":"2.0","id":2,"method":"tools/call",
    "params":{
      "name":"memorize_context",
      "arguments":{
        "sessionId":"test_session",
        "content":"这是一个架构设计讨论,采用微服务模式"
      }
    }
  }'

# 测试智能检索功能
curl -X POST http://localhost:8088/mcp \
  -H "Content-Type: application/json" \
  -d '{
    "jsonrpc":"2.0","id":3,"method":"tools/call",
    "params":{
      "name":"retrieve_context", 
      "arguments":{
        "sessionId":"test_session",
        "query":"架构设计"
      }
    }
  }'

💻 IDE深度集成

Cursor/Qoder集成

步骤1:配置MCP连接

{
  "mcpServers": {
    "context-keeper": {
      "url": "http://localhost:8088/mcp"
    }
  }
}

步骤2:安装智能记忆规则

# 复制预置的记忆管理规则(或者根据IDE实际情况拷贝复制)
cp .cursor/rules/memory-rules.md ~/.cursor/rules/context-keeper.md

# 规则内容预览
cat ~/.cursor/rules/context-keeper.md
# 包含:自动代码关联、实时记忆同步、智能检索提示等

步骤3:验证集成效果

// 在Cursor中测试
你: "帮我回忆一下这个项目的Redis缓存策略"
AI: [自动触发Context-Keeper检索]
   "根据8月15日的架构讨论,你们选择了Redis集群模式,
    主要考虑了以下因素:[显示历史讨论详情]"

VSCode集成

# 安装扩展
code --install-extension context-keeper.cursor-integration

☁️ 生产环境部署

Docker部署(推荐)

# 1. 构建镜像
docker build -t context-keeper:latest .

# 2. 使用Docker Compose部署
cat > docker-compose.yml << 'EOF'
version: '3.8'
services:
  context-keeper:
    image: context-keeper:latest
    ports:
      - "8088:8088"
    environment:
      - PORT=8088
      - LLM_PROVIDER=openai
      - OPENAI_API_KEY=${OPENAI_API_KEY}
      - VECTOR_PROVIDER=dashvector
      - DASHVECTOR_API_KEY=${DASHVECTOR_API_KEY}
    volumes:
      - ./data:/app/data
      - ./config:/app/config
    restart: unless-stopped
    healthcheck:
      test: ["CMD", "curl", "-f", "http://localhost:8088/health"]
      interval: 30s
      timeout: 10s
      retries: 3
EOF

# 3. 启动服务
docker-compose up -d

# 4. 查看服务状态
docker-compose ps
docker-compose logs -f context-keeper

🐳 Docker部署

使用项目Dockerfile

# 1. 构建镜像(使用项目提供的Dockerfile)
docker build -t context-keeper:latest .

# 2. 运行容器
docker run -d \
  --name context-keeper \
  -p 8088:8088 \
  -v $(pwd)/data:/app/data \
  -v $(pwd)/config:/app/config \
  --env-file config/.env \
  context-keeper:latest

# 3. 查看运行状态
docker ps
docker logs context-keeper

Docker Compose部署(推荐)

# 使用项目提供的docker-compose.yml
docker-compose up -d

# 查看服务状态
docker-compose ps
docker-compose logs -f context-keeper

# 停止服务
docker-compose down

5. 产品发展路线图

🎯 技术演进战略

Context-Keeper采用阶梯式演进策略,从基础记忆能力逐步升级为企业级AI大脑:

gantt
    title Context-Keeper 产品发展路线图
    dateFormat  YYYY-MM-DD
    section 🏗️ 基础架构
    双层记忆系统          :done, basic1, 2025-04-01, 2025-06-30
    MCP协议集成          :done, basic2, 2025-04-01, 2025-06-30
    多向量引擎支持        :done, basic3, 2025-04-01, 2025-06-30
    
    section 🧠 智能大脑  
    用户/工作空间隔离      :done, brain0, 2025-07-01, 2025-09-30
    LLM两阶段分析        :done, brain1, 2025-07-01, 2025-09-30
    三要素智能识别        :done, brain2, 2025-07-01, 2025-09-30
    多维检索融合         :done, brain3, 2025-07-01, 2025-09-30
    
    section 🕸️ 知识图谱
    知识图谱存储引擎       :done, kg1, 2025-10-01, 2025-12-31
    图谱向量混合检索       :done, kg2, 2025-10-01, 2026-01-15
    跨项目知识复用        :active, kg3, 2026-01-01, 2026-03-31
    
    section 🏢 企业级
    多租户SaaS架构       :enterprise1, 2026-01-01, 2026-03-31
    安全合规体系         :enterprise2, 2026-01-01, 2026-03-31
    全球化部署           :enterprise3, 2026-01-01, 2026-03-31
Loading

🔥 第三阶段:知识图谱能力(核心已完成 ✅)

📅 时间窗口: 2025年Q4 → 2026年Q1 🎯 核心目标: 知识图谱与向量语义的深度融合检索

核心特性开发

  1. 🕸️ 企业知识图谱构建

    interface KnowledgeGraph {
      entities: ProjectEntity[];
      relationships: EntityRelationship[];
      concepts: ConceptNode[];
      contextClusters: ContextCluster[];
    }
    
    interface ProjectEntity {
      id: string;
      type: "function" | "module" | "concept" | "decision";
      properties: Record<string, any>;
      connections: EntityConnection[];
    }
    • 技术突破: 自动从代码和对话中提取实体关系
    • 预期效果: 构建项目的完整知识网络
  2. 🧠 关系推理引擎

    interface ReasoningEngine {
      findRelatedConcepts(entity: string): ConceptPath[];
      inferMissingLinks(context: Context): InferredRelation[];
      explainDecisionPath(decision: Decision): ReasoningChain;
    }
    • 技术突破: 多跳路径查询与智能推理
    • 预期效果: 发现隐藏的知识关联
  3. 🔄 跨项目知识复用

    interface CrossProjectKnowledge {
      patternMatching: PatternMatcher;
      bestPracticeExtraction: BestPracticeEngine;
      knowledgeTransfer: TransferLearning;
    }
    • 技术突破: 跨项目的最佳实践自动识别和迁移
    • 预期效果: 加速新项目的知识积累

📊 预期量化目标:

  • 🎯 知识图谱覆盖率: 90%+
  • ⚡ 关系推理准确率: 85%+
  • 🔧 跨项目知识复用率: 70%+

🏢 第四阶段:企业级部署(2026年Q1)

🎯 核心目标: 构建企业级SaaS服务和全球化部署能力

企业级特性

  1. 🏗️ 多租户SaaS架构

    • 租户数据完全隔离
    • 弹性资源分配
    • 企业级性能保障
  2. 🔒 安全合规体系

    • 数据加密和权限管理
    • 审计日志和合规报告
    • 企业级安全认证
  3. 🌍 全球化部署

    • 多区域部署支持
    • 国际化和本地化
    • 全球数据同步

6. 贡献指南

🌟 开源社区愿景

Context-Keeper致力于构建一个开放、创新、共赢的AI编程工具社区,让每一位开发者都能享受到智能记忆带来的效率提升。

📈 社区发展目标

%%{init: {'theme':'base', 'themeVariables': {'fontSize':'16px', 'fontFamily':'Arial, sans-serif'}}}%%
graph LR
    A[开源项目] -->|开发者贡献| B[技术创新]
    B -->|产品优化| C[用户体验提升]
    C -->|社区壮大| D[生态繁荣]
    D -->|反哺开源| A
    
    style A fill:#e8f5e9,stroke:#e2e8f0,stroke-width:0.5px,rx:8,ry:8
    style B fill:#e3f2fd,stroke:#e2e8f0,stroke-width:0.5px,rx:8,ry:8
    style C fill:#fff3e0,stroke:#e2e8f0,stroke-width:0.5px,rx:8,ry:8
    style D fill:#f3e5f5,stroke:#e2e8f0,stroke-width:0.5px,rx:8,ry:8
Loading

🚀 快速参与贡献

🔧 开发环境搭建

# 1. Fork并克隆项目
git clone https://github.com/YOUR_USERNAME/context-keeper.git
cd context-keeper

# 2. 环境准备
go version  # 确保Go 1.21+
node --version  # 确保Node.js 16+

# 3. 依赖安装
go mod download
npm install

# 4. 本地开发启动
cp config/.env.example config/.env
go run main.go --dev

# 5. 运行测试套件
go test ./...
npm test

# 6. 代码质量检查
golangci-lint run
npm run lint

📝 贡献流程

# 1. 创建功能分支
git checkout -b feature/amazing-new-feature

# 2. 开发与测试
# ... 进行开发工作 ...
go test ./...

# 3. 提交代码(遵循Conventional Commits)
git add .
git commit -m "feat: add intelligent query rewriting engine

- Implement semantic query expansion
- Add multi-language support for query analysis  
- Integrate with LLM providers for intent recognition
- Add comprehensive test coverage

Closes #123"

# 4. 推送并创建PR
git push origin feature/amazing-new-feature
# 在GitHub上创建Pull Request

📋 贡献方式与认可体系

🎯 多样化贡献途径

贡献类型 技能要求 认可方式 影响力
🐛 Bug修复 Go/TypeScript基础 Contributor徽章 直接提升产品稳定性
✨ 功能开发 中高级编程技能 Core Contributor 推动产品能力演进
📚 文档完善 技术写作能力 Documentation Expert 降低新用户使用门槛
🧪 测试用例 测试思维与技能 Quality Assurance 保障产品质量
🌍 国际化 多语言能力 Localization Champion 扩大全球用户覆盖
🎨 UI/UX设计 设计与前端技能 Design Contributor 提升用户体验

🎊 立即开始您的智能记忆之旅

🧠 Context-Keeper - 重新定义AI助手的记忆边界

让每一次对话都有意义,让每一个决策都有传承

🚀 三步开启智能记忆时代

# 1️⃣ 获取Context-Keeper
git clone https://github.com/redleaves/context-keeper.git

# 2️⃣ 一键启动服务  
./scripts/manage.sh deploy http --port 8088

# 3️⃣ 集成到您的IDE
# Cursor用户:配置MCP连接
# VSCode用户:安装官方扩展

🎯 选择最适合您的方案

🏠 个人开发者 🏢 企业团队 🤝 开源贡献


🔗 快速链接

🎯 场景 🔗 链接 📝 描述
⚡ 快速体验 5分钟快速开始 最快速度上手体验
🏗️ 技术深入 系统架构设计 了解技术原理与创新
📖 部署指南 部署与集成 生产环境部署方案
🗺️ 产品规划 发展路线图 未来发展方向
🤝 参与贡献 贡献指南 加入开源社区

⭐ 如果Context-Keeper对您有帮助,请给我们一个Star!

📢 分享给更多需要智能记忆的开发者:

Twitter分享 LinkedIn分享


📄 许可证与致谢

📜 开源许可

本项目基于 MIT License 开源许可证,欢迎自由使用、修改和分发。

🙏 特别致谢

🏆 核心贡献者

🌍 社区支持


Copyright © 2025 Context-Keeper Team. All rights reserved.

About

🧠 LLM-Driven Intelligent Memory & Context Management System (AI记忆管理与智能上下文感知平台) AI记忆管理平台 | 智能上下文感知 | RAG检索增强生成 | 向量检索引擎

Topics

Resources

License

Code of conduct

Contributing

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published