后端:
1. LLM 客户端从 newAgent/llm 提升为 infra/llm 基础设施层
- 删除 backend/newAgent/llm/(ark.go / ark_adapter.go / client.go / json.go)
- 等价迁移至 backend/infra/llm/,所有 newAgent node 与 service 统一改引用 infrallm
- 消除 newAgent 对模型客户端的私有依赖,为 memory / websearch 等多模块复用铺路
2. RAG 基础设施完成可运行态接入(factory / runtime / observer / service 四层成型)
- 新建 backend/infra/rag/factory.go / runtime.go / observe.go / observer.go /
service.go:工厂创建、运行时生命周期、轻量观测接口、检索服务门面
- 更新 infra/rag/config/config.go:补齐 Milvus / Embed / Reranker 全部配置项与默认值
- 更新 infra/rag/embed/eino_embedder.go:增强 Eino embedding 适配,支持 BaseURL / APIKey 环境变量 / 超时 /
维度等参数
- 更新 infra/rag/store/milvus_store.go:完整实现 Milvus 向量存储(建集合 / 建 Index / Upsert / Search /
Delete),支持 COSINE / L2 / IP 度量
- 更新 infra/rag/core/pipeline.go:适配 Runtime 接口,Pipeline 由 factory 注入而非手动拼装
- 更新 infra/rag/corpus/memory_corpus.go / vector_store.go:对接 Memory 模块数据源与 Store 接口扩展
3. Memory 模块从 Day1 骨架升级为 Day2 完整可运行态
- 新建 memory/module.go:统一门面 Module,对外封装 EnqueueExtract / ReadService / ManageService / WithTx /
StartWorker,启动层只依赖这一个入口
- 新建 memory/orchestrator/llm_write_orchestrator.go:LLM 驱动的记忆抽取编排器,替代原 mock 抽取
- 新建 memory/service/read_service.go:按用户开关过滤 + 轻量重排 + 访问时间刷新的读取链路
- 新建 memory/service/manage_service.go:记忆管理面能力(列出 / 软删除 / 开关读写),删除同步写审计日志
- 新建 memory/service/common.go:服务层公共工具
- 新建 memory/worker/loop.go:后台轮询循环 RunPollingLoop,定时抢占 pending 任务并推进
- 新建 memory/utils/audit.go / settings.go:审计日志构造、用户设置过滤等纯函数
- 更新 memory/model/item.go / job.go / settings.go / config.go / status.go:补齐 DTO 字段与状态常量
- 更新 memory/repo/item_repo.go / job_repo.go / audit_repo.go / settings_repo.go:补齐 CRUD 与查询能力
- 更新 memory/worker/runner.go:Runner 对接 Module 与 LLM 抽取器,任务状态机完整化
- 更新 memory/README.md:同步模块现状说明
4. newAgent 接入 Memory 读取注入与工具注册依赖预埋
- 新建 service/agentsvc/agent_memory.go:定义 MemoryReader 接口 + injectMemoryContext,在 graph
执行前统一补充记忆上下文
- 更新 service/agentsvc/agent.go:新增 memoryReader 字段与 SetMemoryReader 方法
- 更新 service/agentsvc/agent_newagent.go:调用 injectMemoryContext 注入 pinned block,检索失败仅降级不阻断主链路
- 更新 newAgent/tools/registry.go:新增 DefaultRegistryDeps(含 RAGRuntime),工具注册表支持依赖注入
5. 启动流程与事件处理器接线更新
- 更新 cmd/start.go:初始化 RAG Runtime → Memory Module → 注册事件处理器 → 启动 Worker 后台轮询
- 更新 service/events/memory_extract_requested.go:改用 memory.Module.WithTx(tx) 统一门面,事件处理器不再直接依赖
repo/service 内部包
6. 缓存插件与配置同步
- 更新 middleware/cache_deleter.go:静默忽略 MemoryJob / MemoryItem / MemoryAuditLog / MemoryUserSetting
等新模型,避免日志刷屏;清理冗余注释
- 更新 config.example.yaml:补齐 rag / memory / websearch 配置段及默认值
- 更新 go.mod / go.sum:新增 eino-ext/openai / json-patch / go-openai 依赖
前端:无 仓库:无
216 lines
7.3 KiB
Go
216 lines
7.3 KiB
Go
package llm
|
||
|
||
import (
|
||
"context"
|
||
"errors"
|
||
"fmt"
|
||
"strings"
|
||
|
||
"github.com/cloudwego/eino/schema"
|
||
)
|
||
|
||
// ThinkingMode 描述本次模型调用对 thinking 的期望。
|
||
//
|
||
// 职责边界:
|
||
// 1. 这里只表达“调用方希望怎样配置推理模式”;
|
||
// 2. 不直接绑定某个具体模型厂商的参数枚举;
|
||
// 3. 真正如何把它翻译成 ark / OpenAI / 其他 provider 的 option,由后续适配层负责。
|
||
type ThinkingMode string
|
||
|
||
const (
|
||
ThinkingModeDefault ThinkingMode = "default"
|
||
ThinkingModeEnabled ThinkingMode = "enabled"
|
||
ThinkingModeDisabled ThinkingMode = "disabled"
|
||
)
|
||
|
||
// GenerateOptions 是统一模型调用选项。
|
||
//
|
||
// 设计目的:
|
||
// 1. 先把“每个 skill / worker 都会反复传的参数”收敛成一份结构;
|
||
// 2. 让上层以后只表达“我要什么”,不再自己重复组织 option;
|
||
// 3. 暂时不追求覆盖所有 provider 参数,先把最常用的几个公共位抽出来。
|
||
type GenerateOptions struct {
|
||
Temperature float64
|
||
MaxTokens int
|
||
Thinking ThinkingMode
|
||
Metadata map[string]any
|
||
}
|
||
|
||
// TextResult 是统一文本生成结果。
|
||
//
|
||
// 职责边界:
|
||
// 1. Text 保存模型最终返回的纯文本;
|
||
// 2. Usage 保存本次调用的 token 使用量,供后续统一统计;
|
||
// 3. 不负责 JSON 解析,不负责业务字段映射。
|
||
type TextResult struct {
|
||
Text string
|
||
Usage *schema.TokenUsage
|
||
}
|
||
|
||
// StreamReader 抽象了“可逐块 Recv 的流式返回器”。
|
||
//
|
||
// 之所以不直接依赖某个具体 SDK 的 reader 类型,是因为现在还处在骨架收敛阶段,
|
||
// 后续接 ark、OpenAI 兼容层还是别的 provider,都可以往这个最小接口上适配。
|
||
type StreamReader interface {
|
||
Recv() (*schema.Message, error)
|
||
Close() error
|
||
}
|
||
|
||
// TextGenerateFunc 是文本生成的统一适配函数签名。
|
||
type TextGenerateFunc func(ctx context.Context, messages []*schema.Message, options GenerateOptions) (*TextResult, error)
|
||
|
||
// StreamGenerateFunc 是流式生成的统一适配函数签名。
|
||
type StreamGenerateFunc func(ctx context.Context, messages []*schema.Message, options GenerateOptions) (StreamReader, error)
|
||
|
||
// Client 是统一模型客户端门面。
|
||
//
|
||
// 职责边界:
|
||
// 1. 负责把调用方的“模型调用意图”收敛到统一入口;
|
||
// 2. 负责统一参数校验、空响应防御、GenerateJSON 复用;
|
||
// 3. 不负责写 prompt,不负责业务 fallback,也不直接持有具体厂商 SDK 细节。
|
||
type Client struct {
|
||
generateText TextGenerateFunc
|
||
streamText StreamGenerateFunc
|
||
}
|
||
|
||
// NewClient 创建统一模型客户端。
|
||
func NewClient(generateText TextGenerateFunc, streamText StreamGenerateFunc) *Client {
|
||
return &Client{
|
||
generateText: generateText,
|
||
streamText: streamText,
|
||
}
|
||
}
|
||
|
||
// GenerateText 执行一次统一文本生成。
|
||
//
|
||
// 职责边界:
|
||
// 1. 负责做最小必要的入参校验;
|
||
// 2. 负责统一拦截“模型空响应”这类公共问题;
|
||
// 3. 不负责业务 prompt 拼接,也不负责把文本再映射成业务结构。
|
||
func (c *Client) GenerateText(ctx context.Context, messages []*schema.Message, options GenerateOptions) (*TextResult, error) {
|
||
if c == nil || c.generateText == nil {
|
||
return nil, errors.New("llm client is not ready")
|
||
}
|
||
if len(messages) == 0 {
|
||
return nil, errors.New("llm messages is empty")
|
||
}
|
||
|
||
result, err := c.generateText(ctx, messages, options)
|
||
if err != nil {
|
||
return nil, err
|
||
}
|
||
if result == nil {
|
||
return nil, errors.New("llm result is nil")
|
||
}
|
||
if strings.TrimSpace(result.Text) == "" {
|
||
return nil, errors.New("llm returned empty text")
|
||
}
|
||
return result, nil
|
||
}
|
||
|
||
// GenerateJSON 先走统一文本生成,再走统一 JSON 解析。
|
||
//
|
||
// 设计说明:
|
||
// 1. 把“Generate -> 提取 JSON -> 反序列化”这段公共链路收敛起来;
|
||
// 2. 上层只关心业务结构,不需要重复实现解析样板;
|
||
// 3. 返回 parsed + rawResult,方便打点与回退时保留原文。
|
||
func GenerateJSON[T any](ctx context.Context, client *Client, messages []*schema.Message, options GenerateOptions) (*T, *TextResult, error) {
|
||
result, err := client.GenerateText(ctx, messages, options)
|
||
if err != nil {
|
||
return nil, nil, err
|
||
}
|
||
|
||
parsed, err := ParseJSONObject[T](result.Text)
|
||
if err != nil {
|
||
return nil, result, err
|
||
}
|
||
return parsed, result, nil
|
||
}
|
||
|
||
// Stream 打开统一流式调用入口。
|
||
//
|
||
// 职责边界:
|
||
// 1. 只负责把“流式生成能力”暴露给上层;
|
||
// 2. 不负责 chunk 到 OpenAI 协议的转换,那部分应放在 stream/;
|
||
// 3. 不负责累计全文,也不负责 token 统计落库。
|
||
func (c *Client) Stream(ctx context.Context, messages []*schema.Message, options GenerateOptions) (StreamReader, error) {
|
||
if c == nil || c.streamText == nil {
|
||
return nil, errors.New("llm stream client is not ready")
|
||
}
|
||
if len(messages) == 0 {
|
||
return nil, errors.New("llm messages is empty")
|
||
}
|
||
return c.streamText(ctx, messages, options)
|
||
}
|
||
|
||
// BuildSystemUserMessages 构造最常见的“system + history + user”消息列表。
|
||
//
|
||
// 设计说明:
|
||
// 1. 先把最稳定的消息编排方式沉淀下来,减少各业务域样板代码;
|
||
// 2. 只做消息切片装配,不做 prompt 生成;
|
||
// 3. 供 agent / memory 等多个能力域复用。
|
||
func BuildSystemUserMessages(systemPrompt string, history []*schema.Message, userPrompt string) []*schema.Message {
|
||
messages := make([]*schema.Message, 0, len(history)+2)
|
||
if strings.TrimSpace(systemPrompt) != "" {
|
||
messages = append(messages, schema.SystemMessage(systemPrompt))
|
||
}
|
||
if len(history) > 0 {
|
||
messages = append(messages, history...)
|
||
}
|
||
if strings.TrimSpace(userPrompt) != "" {
|
||
messages = append(messages, schema.UserMessage(userPrompt))
|
||
}
|
||
return messages
|
||
}
|
||
|
||
// CloneUsage 深拷贝 token usage,避免后续多处累加时共享同一指针。
|
||
func CloneUsage(usage *schema.TokenUsage) *schema.TokenUsage {
|
||
if usage == nil {
|
||
return nil
|
||
}
|
||
copied := *usage
|
||
return &copied
|
||
}
|
||
|
||
// MergeUsage 合并两段 usage。
|
||
//
|
||
// 合并策略:
|
||
// 1. 对“同一次调用不同流分片”的场景,取更大值作为最终值;
|
||
// 2. 对“多次独立调用累计”的场景,应由上层显式做加法,而不是用这个函数;
|
||
// 3. 该函数只适用于“同一次调用的分块 usage 收敛”。
|
||
func MergeUsage(base *schema.TokenUsage, incoming *schema.TokenUsage) *schema.TokenUsage {
|
||
if incoming == nil {
|
||
return CloneUsage(base)
|
||
}
|
||
if base == nil {
|
||
return CloneUsage(incoming)
|
||
}
|
||
|
||
merged := *base
|
||
if incoming.PromptTokens > merged.PromptTokens {
|
||
merged.PromptTokens = incoming.PromptTokens
|
||
}
|
||
if incoming.CompletionTokens > merged.CompletionTokens {
|
||
merged.CompletionTokens = incoming.CompletionTokens
|
||
}
|
||
if incoming.TotalTokens > merged.TotalTokens {
|
||
merged.TotalTokens = incoming.TotalTokens
|
||
}
|
||
if incoming.PromptTokenDetails.CachedTokens > merged.PromptTokenDetails.CachedTokens {
|
||
merged.PromptTokenDetails.CachedTokens = incoming.PromptTokenDetails.CachedTokens
|
||
}
|
||
if incoming.CompletionTokensDetails.ReasoningTokens > merged.CompletionTokensDetails.ReasoningTokens {
|
||
merged.CompletionTokensDetails.ReasoningTokens = incoming.CompletionTokensDetails.ReasoningTokens
|
||
}
|
||
return &merged
|
||
}
|
||
|
||
// FormatEmptyResponseError 统一生成“模型返回空结果”的错误文案。
|
||
func FormatEmptyResponseError(scene string) error {
|
||
scene = strings.TrimSpace(scene)
|
||
if scene == "" {
|
||
scene = "unknown"
|
||
}
|
||
return fmt.Errorf("模型在 %s 场景返回空结果", scene)
|
||
}
|