后端:
1.Execute 上下文修复(无限循环 / 重复确认根治)
- 更新node/execute.go:speak 写入历史(修复旧 TODO);confirm 动作 speak 不再丢失;
continue 无工具调用时写 reason 保证上下文推进;区分 tool_call 数组/JSON损坏两种
correction hint;goal_check hint 区分 plan/ReAct 模式
- 更新node/execute.go:新增 AlwaysExecute 字段,extra.always_execute=true 时写工具
跳过确认闸门直接执行并持久化
- 更新model/graph_run_state.go:AgentGraphRequest 新增 AlwaysExecute;新增
WriteSchedulePreviewFunc 类型和 WriteSchedulePreview Dep
- 更新service/agentsvc/agent.go:新增 readAgentExtraBool 辅助
2.粗排全链路修复
- 更新service/agentsvc/agent_newagent.go:makeRoughBuildFunc 改用 HybridScheduleEntry
而非 TaskClassItem.EmbeddedTime,普通时段放置不再被丢弃
- 更新conv/schedule_provider.go:LoadScheduleState 从 task class 日期范围推算多周
规划窗口,不再硬编码当前周 7 天;DayMapping 覆盖全部相关周,粗排跨周结果不再
被 WeekDayToDay 静默丢弃
- 更新node/rough_build.go:pinned block 区分有/无未覆盖 pending 任务两种情况,
有 pending 时明确操作顺序(find_free→place)和完成判定,防止 LLM 重复调
list_tasks;新增 countPendingTasks 辅助(只统计 Slots 为空的真正未覆盖任务)
- 更新model/common_state.go:新增 StartDirectExecute(),Chat 直接路由 execute 时
清空旧 PlanSteps,修复跨会话 HasPlan() 误判导致 ReAct 走 plan 模式的 bug
- 更新node/chat.go:handleRouteExecute 改用 StartDirectExecute()
3.排程预览缓存迁移至 Deliver 节点
- 更新node/agent_nodes.go:Deliver 节点完成后调用 WriteSchedulePreview,只有任务
真正完成才写预览缓存,中断路径不写中间态
- 更新service/agentsvc/agent_newagent.go:注入 makeWriteSchedulePreviewFunc;移除
graph 结束后的内联写入;makeRoughBuildFunc 注释修正
- 更新conv/schedule_preview.go:ScheduleStateToPreview 补设 GeneratedAt
- 更新model/agent.go:GetSchedulePlanPreviewResponse 新增 HybridEntries 字段
- 更新service/agentsvc/agent_schedule_preview.go:GET handler Redis/MySQL 两条路径
均透传 HybridEntries
4.Execute thinking 模式修复
- 更新newAgent/llm/ark_adapter.go:thinking 开启时强制 temperature=1,MaxTokens 自
动托底至 16000,调用方与适配层行为对齐
- 更新node/execute.go:调用参数同步改为 temperature=1.0 / MaxTokens=16000
undo:
1.流式推送换行未修复(undo)
2.上下文依然待审视
前端:无
仓库:无
112 lines
3.6 KiB
Go
112 lines
3.6 KiB
Go
package newagentllm
|
||
|
||
import (
|
||
"context"
|
||
"errors"
|
||
"io"
|
||
|
||
"github.com/cloudwego/eino-ext/components/model/ark"
|
||
einoModel "github.com/cloudwego/eino/components/model"
|
||
"github.com/cloudwego/eino/schema"
|
||
arkModel "github.com/volcengine/volcengine-go-sdk/service/arkruntime/model"
|
||
)
|
||
|
||
// WrapArkClient 将 ark.ChatModel 适配为 newAgent 的统一 Client。
|
||
//
|
||
// 职责边界:
|
||
// 1. generateText:调用 ark.ChatModel.Generate(非流式),供 GenerateJSON 使用;
|
||
// 2. streamText:调用 ark.ChatModel.Stream(流式),供 EmitPseudoAssistantText 等使用;
|
||
// 3. 两者共用 buildArkStreamOptions 统一构造调用选项。
|
||
func WrapArkClient(arkChatModel *ark.ChatModel) *Client {
|
||
if arkChatModel == nil {
|
||
return nil
|
||
}
|
||
|
||
// 非流式文本生成,供 GenerateJSON / GenerateText 调用路径使用。
|
||
generateFunc := func(ctx context.Context, messages []*schema.Message, options GenerateOptions) (*TextResult, error) {
|
||
arkOpts := buildArkStreamOptions(options)
|
||
msg, err := arkChatModel.Generate(ctx, messages, arkOpts...)
|
||
if err != nil {
|
||
return nil, err
|
||
}
|
||
if msg == nil {
|
||
return nil, errors.New("ark model returned nil message")
|
||
}
|
||
return &TextResult{Text: msg.Content}, nil
|
||
}
|
||
|
||
// 流式文本生成。
|
||
streamFunc := func(ctx context.Context, messages []*schema.Message, options GenerateOptions) (StreamReader, error) {
|
||
arkOpts := buildArkStreamOptions(options)
|
||
reader, err := arkChatModel.Stream(ctx, messages, arkOpts...)
|
||
if err != nil {
|
||
return nil, err
|
||
}
|
||
return &arkStreamReaderAdapter{reader: reader}, nil
|
||
}
|
||
|
||
return NewClient(generateFunc, streamFunc)
|
||
}
|
||
|
||
// buildArkStreamOptions 将 newAgent 的 GenerateOptions 转换为 ark 的流式调用选项。
|
||
func buildArkStreamOptions(options GenerateOptions) []einoModel.Option {
|
||
thinkingEnabled := options.Thinking == ThinkingModeEnabled
|
||
|
||
// Thinking
|
||
thinkingType := arkModel.ThinkingTypeDisabled
|
||
if thinkingEnabled {
|
||
thinkingType = arkModel.ThinkingTypeEnabled
|
||
}
|
||
opts := []einoModel.Option{
|
||
ark.WithThinking(&arkModel.Thinking{Type: thinkingType}),
|
||
}
|
||
|
||
// Temperature:thinking 模型强制要求 temperature=1,否则 API 静默忽略 thinking。
|
||
if thinkingEnabled {
|
||
opts = append(opts, einoModel.WithTemperature(1.0))
|
||
} else if options.Temperature > 0 {
|
||
opts = append(opts, einoModel.WithTemperature(float32(options.Temperature)))
|
||
}
|
||
|
||
// MaxTokens:thinking 模式下 thinking token 占用 max_tokens 预算,
|
||
// 调用方设定的值仅代表"期望输出长度",实际预算需留出思考空间。
|
||
// 最低保障 16000,避免思考链被截断导致输出为空或非 JSON。
|
||
maxTokens := options.MaxTokens
|
||
if thinkingEnabled {
|
||
const minThinkingBudget = 16000
|
||
if maxTokens < minThinkingBudget {
|
||
maxTokens = minThinkingBudget
|
||
}
|
||
}
|
||
if maxTokens > 0 {
|
||
opts = append(opts, einoModel.WithMaxTokens(maxTokens))
|
||
}
|
||
|
||
return opts
|
||
}
|
||
|
||
// arkStreamReaderAdapter 适配 ark.ChatModel.Stream 返回的 reader。
|
||
// ark.Stream 返回 schema.StreamReader[*schema.Message],其 Close() 方法无返回值
|
||
// 而我们的 StreamReader 接口要求 Close() error
|
||
type arkStreamReaderAdapter struct {
|
||
reader *schema.StreamReader[*schema.Message]
|
||
}
|
||
|
||
// Recv 转发到 ark reader 的 Recv 方法。
|
||
func (r *arkStreamReaderAdapter) Recv() (*schema.Message, error) {
|
||
if r == nil || r.reader == nil {
|
||
return nil, io.EOF
|
||
}
|
||
return r.reader.Recv()
|
||
}
|
||
|
||
// Close 转发到 ark reader 的 Close 方法。
|
||
// ark 的 Close() 无返回值,我们适配为返回 nil
|
||
func (r *arkStreamReaderAdapter) Close() error {
|
||
if r == nil || r.reader == nil {
|
||
return nil
|
||
}
|
||
r.reader.Close()
|
||
return nil
|
||
}
|