avatar-decorate
获赞
5199
粉丝
214
关注
229
看过 TA
697
西昌学院
2011
golang
IP属地:河南
微信公众号:福大大架构师每日一题
私信
关注
picoclaw v0.1.2 发布:引入本地AI增强安全性,新增多渠道支持、完善异步任务机制与Docker构建优化全解析v0.1.2 带来了大量实用新特性,覆盖渠道、工具、搜索、异步机制等众多核心模块:• 新增本地 AI Ollama 支持,提升数据交互安全性(cd638ff)。• 引入 LINE 官方账号渠道支持(f294a71)。• 新增 OneBot 渠道支持(7fa641a)。• 新增 Discord 长消息自动分段功能(32cb8fd)。• 支持 ShengSuanYun、Github Copilot、DeepSeek、DuckDuckGo 等多 AI 提供商(896eae4、5faa67b、18d3634、2f5849b)。• 新增硬件交互工具 I2C 与 SPI 支持,方便嵌入式场景开发(2720fa7)。• 支持在 onboard 阶段安装内置 AGENT 文件和技能(skills)(a9557aa)。• 新增心跳(heartbeat)异步任务执行支持、状态保存原子操作等机制(US-007 至 US-021 系列)。• 新增 ShellTool、MessageTool、WebTool、FilesystemTool、EditTool、SubagentTool 等测试与功能完善。• CLI 输出中新增 git commit hash 信息,便于版本追踪(5aa4dd2)。• 新增容器健康检查端点 /health 与 /ready,更好地支持容器编排系统的存活检测(341dbd3)。• 支持 Linux/loong64 架构构建(159a954)。• 支持在 Discord 回复中显示 Typing 状态(811e4f8)。• 新增工具接口(ToolResult)统一异步回调机制,彻底提升 AgentLoop 的稳定性与扩展性。• 新增 DuckDuckGo fallback 搜索机制,优化搜索容错性(53df8d1)。• 新增 CronTool 与 SpawnTool 重构版本,完成异步架构接入(061b071)。• 新增 gorereleaser 发布 Docker 镜像与二进制构建流程(0d18210)。
0 点赞 评论 收藏
分享
excelize v2.10.1发布:全新图表数据点、性能翻倍优化、超细致功能更新与Bug修复一览2026年2月25日,Excelize迎来 v2.10.1 最新版本 正式发布。本次版本不仅带来了多个全新功能点和性能优化,还修复了大量问题,进一步提升了稳定性与易用性。以下是本次版本的详细更新内容。🌟重大变更(Breaking Change)在本次版本中,移除了三个导出的错误变量:• ErrStreamSetColStyle• ErrStreamSetColWidth• ErrStreamSetPanes这意味着在代码迁移时,需注意原有错误变量的调整。💡亮点功能(Notable Features)1. 全新数据类型与字段支持• 新增 ChartDataPoint 数据类型• 新增 ChartSeries 中的 DataPoint字段• 新增 ChartAxis 中的 DropLines 与 HighLowLines字段• 新增 GraphicOptions 中的 Name字段2. 全新常量与错误变量• 新增两个常量:• MaxGraphicAltTextLength• MaxGraphicNameLength• 新增7个导出的错误变量:• ErrFillType• ErrFillGradientColor• ErrFillGradientShading• ErrFillPatternColor• ErrFillPattern• ErrMaxGraphicAltTextLength• ErrMaxGraphicNameLength3. 新增导出函数与增强支持• 新增 GetHyperLinkCells 函数,用于获取超链接单元格。• 新增 GetSheetProtection 函数,用于获取工作表保护设置。• AddComment 函数现在在为已有评论的单元格添加评论时会返回错误。• 新增 ICO图片 插入功能。• CalcCellValue 函数新增支持公式函数 SORTBY 和 UNIQUE。• AddChart 与 AddChartSheet 支持为甜甜圈图、饼图和3D饼图配置数据点颜色。• AddChart 支持设置东亚和复杂脚本字体的字体族。• AddChart 现支持区域图与折线图的下垂线和高低线。• GetPictures 可以返回部分格式化属性。• 流式写入器新增 SetColVisible 函数,可设置列的可见性。• 流式写入器新增 SetColOutlineLevel 函数,可对列进行分组。• AddShape 与 AddSlicer 支持单元格锚点定位。• GetSlicers 支持获取单元格锚点定位的切片器。• SetConditionalFormat、GetConditionalFormats、UnsetConditionalFormat 支持更多图标集,包括 3三角形、3星形、5方块 等条件格式。• UnsetConditionalFormat 现支持删除指定单元格范围内的特定格式规则或数据验证。• AddPicture 与 AddPictureFromBytes 支持设置图片名称。• AddChart 与 AddShape 支持设置图表和形状的名称与替代文本。• AddSlicer 支持设置切片器的替代文本。• 新增图形名称与替代文本长度验证;若超出限制会返回错误。• 新增 UTF-16感知长度检测与截断支持。⚙️兼容性提升(Improve the Compatibility)• 保存时移除空行,减少生成的工作簿文件大小。
0 点赞 评论 收藏
分享
lmdeploy v0.12.1 最新版本发布!全面支持glm-4.7-flash,优化Qwen3系列模型与Transformers v5兼容性,稳定性与性能双提升!🚀 新功能(Features)在v0.12.1中,新增了几个关键功能:• 支持glm-4.7-flash:新增对glm-4.7-flash模型的全面支持,为用户提供更高效的推理体验。• Ascend平台支持EP:正式支持Ascend平台的EP运行模式,提升在华为昇腾硬件上的兼容和性能表现。💥 改进(Improvements)性能与兼容性方面进行了多项优化:• 修复Transformers v5的rotary embedding兼容问题:有效解决了在新版transformers中旋转嵌入异常的问题,提升模型稳定性。• 改进指标日志(metrics log)输出:优化指标记录与性能监控机制,使调试与性能评估更直观。• 支持Qwen3模型量化配置中忽略特定层:进一步增强Qwen3模型的量化灵活性,方便开发者自定义量化策略。• 新增自定义noaux kernel:提升系统可扩展性和内核处理能力。• 修复Qwen3-VL与Transformers v5兼容问题:保证视觉语言模型在最新Transformers环境下的兼容与稳定运行。🐞 Bug修复(Bug fixes)本次版本修复了多个关键问题,有效提升系统的稳定性与可靠性:• 修复工具调用解析器的流式游标问题。• 解决TP模式下引导解码的并发竞争问题。• 修复FA3检查逻辑。• 修复时间序列预处理中出现的异常。• 修复Attention算子中负KV序列长度错误。• 修复Qwen3-VL-MOE模型在长上下文场景下的不稳定问题。• 优化smooth quant逻辑,将量化后的norm移至CPU,避免旧q_linear引用问题。• 更新noaux-kernel检查机制,提升内核稳定性。🌐 其他更新(Other)在系统环境与文档方面也进行了更新:• 输入CUDA版本调整为12.6.2,适配最新CUDA环境,提高兼容性。• 在llm_compressor.md中新增Qwen3-8B精度评估,为开发者提供更全面的参考指标。• 重构CI测试用例,提升持续集成的稳定性与效率。• 设置interns1_1为interns1_pro别名,简化模型调用配置。• Docker构建优化:在使用CU13环境时自动跳过FA2组件,提高构建灵活性。• 最后,版本号正式升级至v0.12.1。
0 点赞 评论 收藏
分享
openclaw v2026.2.21版本正式发布:新增Gemini 3.1支持、火山引擎对接、全新Discord语音系统与超200项安全和性能升级1. CLI增强CLI新增每账户与每渠道的默认外发路由回退配置,当设置了默认目标通道时,执行 openclaw agent --deliver 语句无需显式指定 --reply-to 即可自动发送,提高自动化调用体验。同时,CLI实现了更严格的JSON参数解析机制,新增 --strict-json 选项以减少命令歧义,--json 仍被保留为兼容别名。根命令保持 openclaw -v 作为版本显示,不再与子命令的 -v 或 --verbose 冲突。2. 通道配置与模型管理通过 channels.modelByChannel 提供每通道模型覆盖能力,允许用户在不同消息平台上使用不同模型配置,并在 /status 接口中清晰展示。3. Telegram与Discord再升级Telegram与Discord两个主要平台进行了大规模重构:• Telegram:• 预览流式配置简化为 channels.telegram.streaming 布尔值。• 移除复杂的预览分支结构,旧模式自动映射为统一流式逻辑。• 新增生命周期状态表情反应机制:思考、工具、完成、错误等阶段都可配置emoji与时序。• 增强流预览清理机制,在异常抛出时自动清理临时消息。• 增强针对重复bot-token检测与冲突处理,防止多账户轮询冲突。• Discord:• 新增 语音通道管理:支持 /vc 命令加入、离开及状态监控,可用于实时语音会话。• 增强临时消息响应默认值,可设定交互命令是否使用短暂回馈。• 支持论坛标签编辑,频道编辑时可动态更新forum标签集。• 增强多级线程绑定 Subagent 会话模型,支持线程聚焦与路由。• 支持实时预览流模式,可配置块化或分块响应。此外,Discord与Telegram共享生命周期反应控制器,允许全局可视化状态更新机制,极大增强交互的即时反馈性。
0 点赞 评论 收藏
分享
0 点赞 评论 收藏
分享
0 点赞 评论 收藏
分享
ComfyUI v0.14.2 发布:修复 Gemini/Nano banana 节点空白图像问题,全新 MIME 匹配机制登场1. 更新目标:解决 Gemini/Nano API 空白图像问题在此前版本中,ComfyUI 的 API 节点在处理 Gemini 模型生成的内容时,偶尔会出现返回空白图像的情况。这个问题主要出现在节点对返回的 MIME 类型进行匹配的过程中,系统仅能识别具体的字符串类型(如 "image/png"),而无法通配或灵活识别其他类型,例如 "image/jpeg" 或 "image/webp" 等。此问题导致部分模型生成的图片未能正确提取和呈现,严重影响使用体验。v0.14.2 版本针对这一问题进行了根本性的技术改进,通过使用 glob(通配符)匹配机制,使 MIME 类型匹配更加灵活和智能,从而彻底解决这一潜在漏洞。2. 代码关键改动:增加 _mime_matches 函数在 comfy_api_nodes/nodes_gemini.py 文件中新增了如下逻辑:def _mime_matches(mime: GeminiMimeType | None, pattern: str) -> bool:"""Check if a MIME type matches a pattern. Supports fnmatch globs (e.g. 'image/*')."""if mime is None:return Falsereturn fnmatch(mime.value, pattern)这一函数通过引入 Python 标准库 fnmatch 模块,实现了基于通配符的 MIME 字符串匹配。从原先的严格字符串等值判断,演进为支持标准通配表达式,如:• "image/*" —— 匹配所有图像类型;• "text/*" —— 匹配所有文本类型;• "application/*" —— 匹配所有应用数据类型。这样一来,当 Gemini 模型在返回数据时使用不同的 MIME 描述(例如某些模型可能返回 "image/jpeg" 或 "image/webp"),程序都可以自动识别并正确提取图像数据,极大提升了兼容性与稳定性。3. 函数 get_parts_by_type 改进:全面采用 _mime_matches 匹配机制在此函数中,原本用于判断 MIME 类型的逻辑为直接字符串比较:elif part.inlineData and part.inlineData.mimeType == part_type:新的代码将其改为:elif part.inlineData and _mime_matches(part.inlineData.mimeType, part_type):同样地,文件数据部分也采用相同逻辑:elif part.fileData and _mime_matches(part.fileData.mimeType, part_type):这意味着无论数据是 inlineData(内嵌数据) 还是 fileData(文件数据),都能通过灵活的模式匹配来识别不同类型的输入内容。这一步调整是本次更新的核心,它直接关联到 Gemini 节点的图像提取逻辑,也是解决空白图像问题的根本。4. 函数 get_image_from_response 改进:支持所有图像类型此前版本中,程序仅从响应中提取 "image/png" 类型的内容:parts = get_parts_by_type(response, "image/png")但由于很多模型会生成多种不同格式的图像,因此新版将其改为:parts = get_parts_by_type(response, "image/*")这意味着系统现在可以从返回的任何图像类型(包括 JPEG、WEBP、GIF、TIFF 等)中识别并提取图像数据,大幅度提升兼容性与处理效率。这一调整配合 _mime_matches 函数的通配符匹配机制,可视为一次重要的底层增强,为未来扩展更多的模型支持打下了坚实基础。
0 点赞 评论 收藏
分享
dify 1.13.0——Human-in-the-Loop与工作流执行架构全面升级,释放AI与人的协作潜力一、核心特性:Human-in-the-Loop (HITL)Dify 1.13.0 最大的创新在于引入了 Human Input 节点,这是一个革命性更新,让人类输入成为工作流原生组成部分。此前的工作流往往只能在“自动化”或“手动执行”两种模式之间切换,对于需要人工判断的高风险场景,这种二元结构显得捉襟见肘。而 HITL 的引入,弥合了这种“信任鸿沟”,让自动化流程具备人工纠偏能力。1. 背景说明以往工作流要么完全由 AI 自动执行,要么依赖人工操作,这导致在涉及关键业务判断的场景中,难以平衡 AI 的效率与人工的可靠性。现在,Dify 支持将人工审核步骤直接嵌入工作流执行图中,实现真正的智能协作。2. 核心功能(1)原生工作流暂停机制在流程关键节点插入“Human Input”节点,工作流即会暂停,等待人工输入。这对于涉及敏感决策或需人工校验的数据场景尤为必要。(2)人工审核与编辑暂停后系统会生成可视化界面,人工可审阅 AI 输出内容,修改关键变量(如草稿、数据结果等),再继续执行流程,从而保证精准度。(3)操作路由控制可配置自定义按钮,如“批准”、“拒绝”、“升级处理”等,用于决定后续工作流路径。不同操作对应不同的逻辑分支,实现高度灵活的决策流。(4)多渠道输入方式人工输入表单可通过 Web 应用或邮件推送形式完成。在云环境下,邮件方式可能受订阅计划或功能设置影响。二、架构更新:支持暂停和恢复的工作流机制为支持 HITL 所需的状态化暂停与恢复机制,Dify 对执行引擎进行了全面重构。1. 执行架构变化• Workflow-Based Streaming Executions 和 Advanced Chat Executions 现均由 Celery workers 执行。• 非流式的工作流运行仍在 API 进程中处理。• 所有暂停/恢复路径(包括 HITL)均通过 Celery 恢复执行,事件流式返回经由 Redis Pub/Sub 实现。2. 大规模部署及自托管建议Dify 引入了新的 Celery 队列:workflow_based_app_execution。标准部署模式可直接使用,但对于高并发、高吞吐环境,官方建议进行如下优化:• Scale Workers(扩展 Worker 数量):根据工作负载增加对该队列的 Worker。• Dedicated Redis(专用 Redis 实例):大规模部署推荐配置 PUBSUB_REDIS_URL 指向专用 Redis;使用 Redis Cluster 模式结合分片 PubSub,可实现水平扩展与稳定高性能。
0 点赞 评论 收藏
分享
go-zero v1.10.0发布!全面支持Go 1.23、MCP SDK迁移、性能与稳定性双提升🎉 版本亮点(Highlights)v1.10.0 重点更新包括:• 支持Go 1.23:框架底层升级,全面适配Go 1.23的新特性与优化。• MCP SDK迁移:切换至官方go-sdk,API更简洁更易用。• 性能优化与稳定性提升:修复了多个竞争条件(race condition)相关问题,增强并发稳定性。✨ 新功能(New Features)1. Go 1.23 支持• 最低Go版本升级至1.23。• 新版本中更好地利用Go编译器优化与运行时性能。2. MCP Framework - SDK迁移• 框架核心迁移到官方go-sdk。• API简化,开发体验明显提升。3. Gateway增强• 新增WithDialer选项,支持自定义gRPC客户端配置。• 网络灵活性与可扩展性进一步提升。🐛 问题修复(Bug Fixes)1. 熔断器机制(Circuit Breaker)修复• 修复由于context取消导致的熔断器异常触发问题,使HTTP客户端更稳定。2. 服务发现(Service Discovery)数据竞争修复• 解决了服务发现过程中的map访问竞争,进一步提升并发可靠性。3. 配置优化(Configuration)• 修复属性值中等号的解析问题。• 移除冗余的配置校验逻辑,让配置更直观。🔧 改进项(Improvements)1. MCP Routes优化• 路由实现重构,增强AddTool功能的稳定性与可用性。2. 测试体系完善• 为Load函数新增全面验证测试,确保配置加载过程稳定可靠。🗑️ 弃用功能(Deprecations)• Jaeger Exporter移除• 由于官方已弃用该模块,本版本彻底移除相关实现。• 推荐使用其他分布式追踪方案替代。
0 点赞 评论 收藏
分享
redis 8.6.0 正式发布!性能暴涨、内存占用大降、全新热键检测与更智能的逐出策略来了!与 Redis 8.4 相比的主要变化• 显著性能提升Redis 8.6 对核心执行逻辑进行了深度优化,在命令执行效率及系统调用上大幅提速。• 内存占用显著下降对哈希表(hashtable 编码)和有序集合(skiplist 编码)结构进行了优化,减少了内存占用。• Streams:新增 XADD 幂等写入机制通过添加新参数 IDMPAUTO 与 IDMP,实现了 “至多一次”(at-most-once) 的写入保障,确保流式数据写入更安全。• 新增逐出策略(Eviction Policies)新增策略:• volatile-lrm:基于“最近修改时间”的易失键逐出;• allkeys-lrm:基于“最近修改时间”的全键空间逐出。这是继 LRU/LFU 后的全新思路——基于“修改活跃度”的内存淘汰机制。• 热键检测与上报(Hot Keys Detection)通过新命令 HOTKEYS 可以实时检测访问频繁的键,方便进行精细化性能优化和缓存热点分析。• TLS 证书自动认证Redis 8.6 支持基于证书的客户端自动认证机制,无需手动配置即可完成安全通信身份校验。• 时间序列(Time Series)增强新增对 NaN(非数值) 的支持;新增聚合函数:• COUNTNAN:统计 NaN 值数量• COUNTALL:统计所有值数量为时间序列数据分析提供了更强的灵活性。
0 点赞 评论 收藏
分享
DeepSpeed v0.18.6发布:修复关键并发问题,全面支持Python 3.14,性能更稳定更智能!✅ 版本号更新版本文件已同步到 0.18.6,确保用户可以准确获取最新版本信息,版本管理更加规范。⚙️ 并发与模块优化本次更新修复了 leaf 模块的竞态条件问题,进一步提升了模型在高并发环境下的稳定性。同时,这意味着在分布式训练过程中,模块之间的同步与数据安全性得到了更好保障。🧠 推理阶段优化在 模型评估(eval) 阶段,系统将 跳过序列并行操作,显著减少无效计算,进一步优化了推理效率。这一改动对大模型推理特别友好,尤其是资源有限的推理部署场景。🔧 AutoTP智能分区增强此次版本还新增了 AutoTP的自定义分区模式支持,并修复了 AutoTP自定义模式中未正确遵循use_default_specs参数 的问题。这让用户能够更加灵活地定义Tensor分区策略,从而在不同硬件架构下获得最优性能表现。📈 训练稳定性改进修复了 Gradient is ready with z2 的梯度计算问题,并修正了 在ZeRO stage 0配置下,bf16梯度范数发散的问题,显著提升了混合精度训练的收敛稳定性。这对使用ZeRO优化的超大模型训练尤为关键。🧩 Python 3.14兼容性更新DeepSpeed v0.18.6全面 支持Python 3.14的新注解处理机制,为未来Python版本的适配铺平道路,开发者可放心升级Python环境。🧮 函数库更新用 math.gcd 替代了已弃用的 fractions.gcd,保持代码兼容性与标准化,确保长远维护更轻松。⚡ 性能改进:JIT替换为编译模式本次更新将 torch.jit.script 替换为 torch.compile,充分利用PyTorch新一代的编译优化能力,提升执行效率的同时简化模型编译部署流程。
0 点赞 评论 收藏
分享

创作者周榜

更多
关注他的用户也关注了:
牛客网
牛客网在线编程
牛客网题解
牛客企业服务