Files
smartmate/backend/services/memory
Losita 61db646805 Version: 0.9.80.dev.260506
后端:
1. LLM 独立服务与统一计费出口落地:新增 `cmd/llm`、`client/llm` 与 `services/llm/rpc`,补齐 BillingContext、CreditBalanceGuard、价格规则解析、stream usage 归集与 `credit.charge.requested` outbox 发布,active-scheduler / agent / course / memory / gateway fallback 全部改走 llm zrpc,不再各自本地初始化模型。
2. TokenStore 收口为 Credit 权威账本:新增 credit account / ledger / product / order / price-rule / reward-rule 能力与 Redis 快照缓存,扩展 tokenstore rpc/client 支撑余额快照、消耗看板、商品、订单、流水、价格规则和奖励规则,并接入 LLM charge 事件消费完成 Credit 扣费落账。
3. 计费旧链路下线与网关切口切换:`/token-store` 语义整体切到 `/credit-store`,agent chat 移除旧 TokenQuotaGuard,userauth 的 CheckTokenQuota / AdjustTokenUsage 改为废弃,聊天历史落库不再同步旧 token 额度账本,course 图片解析请求补 user_id 进入新计费口径。

前端:
4. 计划广场从 mock 数据切到真实接口:新增 forum api/types,首页支持真实列表、标签、搜索、防抖、点赞、导入和发布计划,详情页补齐帖子详情、评论树、回复和删除评论链路,同时补上“至少一个标签”的前后端约束与默认标签兜底。
5. 商店页切到 Credit 体系并重做展示:顶部改为余额 + Credit/Token 消耗看板,支持 24h/7d/30d/all 周期切换;套餐区展示原价与当前价;历史区改为当前用户 Credit 流水并支持查看更多,整体视觉和交互同步收口。

仓库:
6. 配置与本地启动体系补齐 llm / outbox 编排:`config.example.yaml` 增加 llm rpc 和统一 outbox service 配置,`dev-common.ps1` 把 llm 纳入多服务依赖并自动建 Kafka topic,`docker-compose.yml` 同步初始化 agent/task/memory/active-scheduler/notification/taskclass-forum/llm/token-store 全量 outbox topic。
2026-05-06 20:16:53 +08:00
..
2026-05-05 23:25:07 +08:00
2026-05-05 19:31:39 +08:00
2026-05-06 20:16:53 +08:00
2026-05-05 19:31:39 +08:00
2026-05-05 19:31:39 +08:00
2026-05-05 23:25:07 +08:00
2026-05-05 23:25:07 +08:00
2026-05-05 23:25:07 +08:00
2026-05-05 19:31:39 +08:00

Memory 模块现状说明

当前已打通的链路

  1. 用户消息落聊天历史时,会通过 outbox 发布 memory.extract.requested
  2. 事件消费者只负责把请求幂等写入 memory_jobs,不在消费回调里做重 LLM 计算。
  3. 启动期会拉起 memory worker,后台轮询 memory_jobs
  4. worker 抢占任务后,调用 backend/infra/llm 驱动的记忆抽取编排器。
  5. 抽取结果会被标准化后写入 memory_items,同时写入 memory_audit_logs
  6. 全部落库成功后,任务状态推进到 success;失败则走可重试状态机。

当前目录职责

  • module.go:对外统一门面,负责组装 repo / service / worker / orchestrator。
  • model/:记忆模块 DTO、状态常量、配置对象。
  • repo/memory_jobs / memory_items / memory_audit_logs / memory_user_settings 访问层。
  • service/:任务入队、读取重排、管理维护、配置加载。
  • orchestrator/:记忆抽取编排。
    • write_orchestrator.go 是纯本地 fallback。
    • llm_write_orchestrator.go 是当前主用的 LLM 抽取器。
  • worker/:任务执行器与后台轮询循环。
  • utils/JSON 提取、候选事实标准化、设置过滤、审计构造等纯函数工具。

当前已补齐的内部能力

  1. Module
    • 负责把 repo / service / worker / orchestrator 组装成统一门面。
    • 外部现在优先依赖 memory.Module,而不是自己手搓内部组件。
    • 支持 WithTx(tx),方便接入现有统一事务管理器。
  2. EnqueueService
    • 负责把 memory.extract.requested 事件转成 memory_jobs,不做重 LLM 计算。
  3. Runner + RunPollingLoop
    • 负责后台轮询任务、调用抽取器、写入 memory_items、补写 memory_audit_logs
  4. ReadService
    • 负责在 memory 内部做“按用户开关过滤 + 轻量重排 + 访问时间刷新”。
    • 当前还没有接到 newAgent prompt 注入侧,这是刻意保留的切流点。
  5. ManageService
    • 负责记忆管理面能力:列出记忆、软删除记忆、读取/更新用户记忆开关。
    • 删除动作会同步写入审计日志,保证“有变更就有审计”。

当前推荐接入姿势

  1. 启动阶段统一创建:
    • memoryModule := memory.NewModule(db, llmClient, memory.LoadConfigFromViper())
  2. 后台 worker 启动:
    • memoryModule.StartWorker(ctx)
  3. 事务内写入记忆任务:
    • memoryModule.WithTx(tx).EnqueueExtract(ctx, payload, eventID)
  4. 后续 agent 读取:
    • 直接调用 memoryModule.Retrieve(...)

当前实现边界

  1. 已实现异步写入链路,也已补齐 memory 内部读取与管理能力,但还没有接“读取召回 + prompt 注入”。
  2. 已实现 MySQL 事实落库,但还没有接 Milvus 向量同步。
  3. 已实现 LLM 抽取和基础审计日志,但还没有做 ADD/UPDATE/DELETE/NONE 决策型冲突消解。
  4. 当前更偏“先把 memory 自己的闭环打通”,后续再继续做 agent 注入、向量检索和冲突更新。

当前推荐验证方式

  1. 发起一条用户消息,确认 outbox 中生成 memory.extract.requested
  2. 等待事件消费后,确认 memory_jobs 出现 pending 或被 worker 抢占为 processing
  3. 等待后台 worker 执行后,确认:
    • memory_jobs.status = success
    • memory_items 出现新记忆
    • memory_audit_logs 出现对应 create 记录
  4. 直接调用 ManageService
    • ListItems 能列出 active/archived 记忆
    • DeleteItem 会把状态改成 deleted,并新增一条 delete 审计
    • GetUserSetting / UpsertUserSetting 能返回并更新用户记忆开关

下一步建议

  1. ReadService 接进 newAgent,先注入“偏好 / 约束 / 最近 todo_hint”三类高价值记忆。
  2. 引入向量召回与 rerank把“当前话题相关的事实类记忆”补进候选集合。
  3. 再补 ADD/UPDATE/DELETE/NONE 决策,解决“同义记忆去重”和“旧记忆更新”。