Files
smartmate/backend/service/agent.go
LoveLosita 204e78d1fe Version: 0.4.3.dev.260305
perf:  引入 Redis 缓存优化上下文读写性能

* 为上下文写入与提取逻辑新增 Redis 缓存层,减少数据库直接读取开销
* 在 Redis 中实现简单滑动窗口裁剪策略,控制上下文消息数量并降低存储压力

refactor: ♻️ 上下文持久化逻辑改为异步执行

* 对写缓存与写数据库逻辑引入 `goroutine` 实现简单异步处理
* 降低接口阻塞时间,提高 Agent 对话接口响应性能
* 当前尚未完善异步流程中的错误传递与处理机制,后续将补充完整错误链路管理
2026-03-05 22:36:53 +08:00

127 lines
3.6 KiB
Go

package service
import (
"context"
"log"
"github.com/LoveLosita/smartflow/backend/agent"
"github.com/LoveLosita/smartflow/backend/conv"
"github.com/LoveLosita/smartflow/backend/dao"
"github.com/LoveLosita/smartflow/backend/inits"
"github.com/cloudwego/eino/schema"
)
type AgentService struct {
AIHub *inits.AIHub
repo *dao.AgentDAO
agentCache *dao.AgentCache
}
func NewAgentService(aiHub *inits.AIHub, repo *dao.AgentDAO, agentRedis *dao.AgentCache) *AgentService {
return &AgentService{
AIHub: aiHub,
repo: repo,
agentCache: agentRedis,
}
}
func (s *AgentService) AgentChat(ctx context.Context, userMessage string, ifThinking bool, userID int, chatID string) (<-chan string, <-chan error) {
//1. 创建一个输出通道
outChan := make(chan string, 5)
errChan := make(chan error, 1)
//2. 先确保这个会话存在(如果不存在就创建一个新的)
//先看看缓存里面有没有这个会话
result, err := s.agentCache.GetConversationStatus(ctx, chatID)
if err != nil {
errChan <- err
close(outChan)
close(errChan)
return outChan, errChan
}
//如果缓存里面没有,就去查库
if !result {
innerResult, err := s.repo.IfChatExists(ctx, userID, chatID)
if err != nil {
errChan <- err
close(outChan)
close(errChan)
return outChan, errChan
}
if !innerResult {
//如果会话不存在,先创建一个新的会话
_, err := s.repo.CreateNewChat(userID, chatID)
if err != nil {
errChan <- err
close(outChan)
close(errChan)
return outChan, errChan
}
}
}
//能走到这里,要么缓存里有这个会话,要么数据库里有这个会话了
//4. 提取出历史消息,构建上下文
//先尝试从缓存里拿历史消息
var chatHistory []*schema.Message
chatHistory, err = s.agentCache.GetHistory(ctx, chatID)
if err != nil {
errChan <- err
close(outChan)
close(errChan)
return outChan, errChan
}
//如果缓存里没有历史消息,就从数据库里拿
if chatHistory == nil {
//先从数据库拿到历史消息
histories, err := s.repo.GetUserChatHistories(ctx, userID, 20, chatID)
if err != nil {
errChan <- err
close(outChan)
close(errChan)
return outChan, errChan
}
//再转换成 Eino 的消息格式
chatHistory = conv.ToEinoMessages(histories)
//把历史消息放到缓存里,方便下次直接拿
err = s.agentCache.BackfillHistory(ctx, chatID, chatHistory)
if err != nil {
errChan <- err
close(outChan)
close(errChan)
return outChan, errChan
}
}
//3. 将用户消息异步落缓存和库
go func() {
//这里先不管落库成功与否了,毕竟不想因为落库失败而影响用户的聊天体验
_ = s.agentCache.PushMessage(ctx, chatID, &schema.Message{
Role: "user",
Content: userMessage,
})
_ = s.repo.SaveChatHistory(ctx, userID, chatID, "user", userMessage)
}()
//5. 启动一个 goroutine 来处理聊天逻辑
go func() {
defer close(outChan) // 确保在函数结束时关闭通道
//3. 调用 StreamChat 函数进行流式聊天
fullText, err := agent.StreamChat(ctx, s.AIHub.Worker, userMessage, ifThinking, chatHistory, outChan)
if err != nil {
errChan <- err
return
}
//4. 将 AI 的回复异步落缓存和库
go func() {
_ = s.agentCache.PushMessage(ctx, chatID, &schema.Message{
Role: "assistant",
Content: fullText,
})
err = s.repo.SaveChatHistory(context.Background(), userID, chatID, "assistant", fullText)
if err != nil {
log.Printf("Failed to save chat history to database: %v", err)
return
}
}()
}()
return outChan, errChan
}