avatar-decorate
获赞
5199
粉丝
214
关注
229
看过 TA
699
西昌学院
2011
golang
IP属地:北京
微信公众号:福大大架构师每日一题
私信
关注
rust 1.94.0 正式发布:稳定性与性能再升级,RISC-V 支持增强、Cargo 配置更灵活、引入29项稳定API一、语言层面更新Rust 1.94.0 在语言行为和编译检查层面进行了多项优化与增强。以下五项更新是重点:1. Impls 与 impl 项继承 dead_code lint 级别在过去版本中,某些 impl 块未能继承对应 trait 或 trait 项的 dead_code lint 配置,可能导致部分代码未被标记。现在,impls 和 impl items 将自动继承相应 trait 项的 dead_code lint 级别,使得 lint 行为更加一致,减少隐藏的未使用代码。2. 稳定化了 29 项 RISC-V 目标特性Rust 对 RISC-V 平台的支持进一步强化,这次新增并稳定了 29 项目标特性,包括 RVA22U64 和 RVA23U64 配置的大部分内容。此举显著提升了 Rust 在嵌入式和处理器架构层面的适配能力,为 RISC-V 开发者提供更完善的编译支持。3. 新增 warn-by-default unused_visibilities lint该 lint 专门用于检查常量声明中不必要的可见性修饰符。在 Rust 1.94.0 中,当为常量添加无效或无用的可见性时,会触发默认警告。这样可以帮助开发者保持更清晰的代码结构,避免滥用 visibility。4. 更新到 Unicode 17Rust 的字符与字符串处理逻辑现在全面兼容 Unicode 17 版本,提升了跨语言字符处理的一致性。这一更新使得文本相关的操作在国际化场景下更加可靠。5. 避免闭包中的错误生命周期推断编译器在闭包处理方面进行了关键修复,避免在复杂闭包捕获场景下出现错误的生命周期判断。之前某些闭包可能会提示错误的生命周期约束,现在该问题得到了有效规避。
0 点赞 评论 收藏
分享
agno v2.5.6发布:GitHub App认证、HEIC图片上传、Team Task全面增强,全新强势升级详解!1. GitHub App Authentication for Knowledge Sources在v2.5.6版本中,Agno正式支持以GitHub App的方式进行认证。过去开发者只能使用Personal Access Token(个人访问令牌),现在通过新增 app_id、installation_id、private_key 等参数,Agno可作为GitHub App安全地访问GitHub资源。该功能具备以下特点:• 支持GitHub App身份认证,允许更安全、可控的访问。• 内置线程安全的token缓存机制,保证在高并发下的安全性能。• 同时支持同步与异步版本的认证操作,满足不同的开发模式需求。这一变更代表着Agno在知识源管理方面的安全性进一步提升,为开发者实现Git数据整合提供了更灵活的方案。2. 文件上传:支持HEIC和HEIF格式在当前应用中,HEIC与HEIF图片格式使用率大幅提升。Agno v2.5.6紧跟时代步伐,在文件上传接口中新增对image/heic和image/heif的支持。这意味着:• 用户或应用能够直接上传iPhone和现代相机生成的高质量图片文件,避免因格式不兼容而出错。• 对图像处理的扩展性更强,为未来图像识别、内容检索等工具扩展提供了基础。3. Approvals机制增强新增了批准状态接口(approval status endpoint)及管理员控制的“继续运行”审批机制(admin-gated continue run enforcement)。该功能主要作用在多用户协作场景中:• 管理员可控制某个任务是否允许继续运行,从而提高流程安全性。• 增加可查询的审批状态接口,便于系统自动化处理。这一新增功能强化了Agno在团队协作和任务流控制上的治理能力。4. Traces高级过滤DSL在Agent OS模块中,新增了高级过滤DSL(Domain-Specific Language)支持。这项特性让开发者可以使用更灵活的表达式语法来筛选追踪数据(traces),轻松处理复杂的查询与分析需求,为运维监控和性能追踪提供更精确的数据支持。
0 点赞 评论 收藏
分享
ollama v0.17.5正式发布:新增Qwen3.5系列模型,全方位优化GPU/CPU分配、采样惩罚与内存管理机制详解一、版本核心更新概览1. 新增模型系列:Qwen3.5v0.17.5引入了全新的模型系列——Qwen3.5,包括 0.8B、2B、4B 与 9B 四个参数规模版本。这使得开发者能根据硬件资源灵活选择不同性能梯度的模型。值得注意的是,在此次版本中,Qwen3.5模型支持 GPU 与 CPU 混合加载模式,同时针对模型“自我重复”问题进行了深度修复。新模型可通过命令重新下载:ollama pull qwen3.5:35b2. GPU & CPU分配相关修复新版本修复了Qwen3.5模型在GPU与CPU拆分运行时的崩溃问题。此前,当模型部分参数映射至CPU后,DeltaNet层或KV缓存命中时容易出现panic,如今通过对线性注意力张量缺失、conv1d权重校验、层级递归验证进行系统修复,显著提升了混合资源下的运行稳定性。二、性能与内存系统全面升级1. Verbose模式新增峰值内存统计ollama run --verbose 现在会显示峰值内存使用情况。新增的参数结构 Metrics 中增加了:• PeakMemory:以GiB或人类可读格式输出峰值内存;• formatPeakMemory()函数:自动判断单位并格式化显示;• Summary()方法中新增内存输出逻辑。这可以帮助开发者在分析模型运行性能时,即时观察峰值占用,便于评估MLX引擎的内存优化效果。2. MLX运行器内存修复与优化MLX runner一系列补丁包括:• 修复了在KV缓存命中时引发panic的问题;• 报告真实内存使用,而非理论分配值;• 增加错误传播机制,通过api.StatusError将pipeline异常上报到客户端;• 严格限制模型上下文长度以防越界;• 优化prompt评估计时逻辑,使计时与计数更精确;• 引入内存峰值复位API mlx_reset_peak_memory()。这一系列操作让MLX在处理大模型时更稳定,也为后续GPU监控功能奠定基础。
0 点赞 评论 收藏
分享
0 点赞 评论 收藏
分享
0 点赞 评论 收藏
分享
ollama v0.17.4发布:Qwen 3.5与LFM 2全新登场,稳定工具调用索引机制全面升级!一文读懂最新改动与技术细节一、版本概览与关键更新1. 新模型发布简介在 v0.17.4 中,Ollama官方引入了两个重量级的模型家族:• Qwen 3.5:这一新系列是开源的多模态模型家族,具备出色的实用性与性能表现。它延续了 Qwen 系列的强项,在文本、视觉等不同模态任务中都有极高的表现力,兼具开放性与高效性。• LFM 2:LFM2 是一类混合型模型家族,专为设备端部署(on-device deployment)设计。其重点成员 LFM2-24B-A2B 拥有高达 240亿 参数的规模,在保证模型推理效率的前提下,将架构进行有效扩展,从而实现更高的本地计算性能。这标志着 Ollama 在本地模型与云端模型之间的融合迈出了关键一步——不仅支持更大的参数规模,同时为多模态与本地推理场景提供了优化支持。2. 并行工具调用索引机制升级(Tool Call Indexing)v0.17.4 的核心更新之一是:“Tool call indices will now be included in parallel tool calls”这意味着在进行多工具调用的场景中,每一次工具调用(Tool Call)都会带有独立且稳定的索引(Index)值。这一机制的引入,保证了多线程或流式调用环境下,调用顺序能够明确追踪,不会出现索引错乱的情况。对于需要依赖多工具协同的模型(例如 Qwen3、GLM4.6、GLM4.7 等),该功能的提升显著增强了解析的稳定性与保证测试的一致性。
0 点赞 评论 收藏
分享
picoclaw v0.1.2 发布:引入本地AI增强安全性,新增多渠道支持、完善异步任务机制与Docker构建优化全解析v0.1.2 带来了大量实用新特性,覆盖渠道、工具、搜索、异步机制等众多核心模块:• 新增本地 AI Ollama 支持,提升数据交互安全性(cd638ff)。• 引入 LINE 官方账号渠道支持(f294a71)。• 新增 OneBot 渠道支持(7fa641a)。• 新增 Discord 长消息自动分段功能(32cb8fd)。• 支持 ShengSuanYun、Github Copilot、DeepSeek、DuckDuckGo 等多 AI 提供商(896eae4、5faa67b、18d3634、2f5849b)。• 新增硬件交互工具 I2C 与 SPI 支持,方便嵌入式场景开发(2720fa7)。• 支持在 onboard 阶段安装内置 AGENT 文件和技能(skills)(a9557aa)。• 新增心跳(heartbeat)异步任务执行支持、状态保存原子操作等机制(US-007 至 US-021 系列)。• 新增 ShellTool、MessageTool、WebTool、FilesystemTool、EditTool、SubagentTool 等测试与功能完善。• CLI 输出中新增 git commit hash 信息,便于版本追踪(5aa4dd2)。• 新增容器健康检查端点 /health 与 /ready,更好地支持容器编排系统的存活检测(341dbd3)。• 支持 Linux/loong64 架构构建(159a954)。• 支持在 Discord 回复中显示 Typing 状态(811e4f8)。• 新增工具接口(ToolResult)统一异步回调机制,彻底提升 AgentLoop 的稳定性与扩展性。• 新增 DuckDuckGo fallback 搜索机制,优化搜索容错性(53df8d1)。• 新增 CronTool 与 SpawnTool 重构版本,完成异步架构接入(061b071)。• 新增 gorereleaser 发布 Docker 镜像与二进制构建流程(0d18210)。
0 点赞 评论 收藏
分享
excelize v2.10.1发布:全新图表数据点、性能翻倍优化、超细致功能更新与Bug修复一览2026年2月25日,Excelize迎来 v2.10.1 最新版本 正式发布。本次版本不仅带来了多个全新功能点和性能优化,还修复了大量问题,进一步提升了稳定性与易用性。以下是本次版本的详细更新内容。🌟重大变更(Breaking Change)在本次版本中,移除了三个导出的错误变量:• ErrStreamSetColStyle• ErrStreamSetColWidth• ErrStreamSetPanes这意味着在代码迁移时,需注意原有错误变量的调整。💡亮点功能(Notable Features)1. 全新数据类型与字段支持• 新增 ChartDataPoint 数据类型• 新增 ChartSeries 中的 DataPoint字段• 新增 ChartAxis 中的 DropLines 与 HighLowLines字段• 新增 GraphicOptions 中的 Name字段2. 全新常量与错误变量• 新增两个常量:• MaxGraphicAltTextLength• MaxGraphicNameLength• 新增7个导出的错误变量:• ErrFillType• ErrFillGradientColor• ErrFillGradientShading• ErrFillPatternColor• ErrFillPattern• ErrMaxGraphicAltTextLength• ErrMaxGraphicNameLength3. 新增导出函数与增强支持• 新增 GetHyperLinkCells 函数,用于获取超链接单元格。• 新增 GetSheetProtection 函数,用于获取工作表保护设置。• AddComment 函数现在在为已有评论的单元格添加评论时会返回错误。• 新增 ICO图片 插入功能。• CalcCellValue 函数新增支持公式函数 SORTBY 和 UNIQUE。• AddChart 与 AddChartSheet 支持为甜甜圈图、饼图和3D饼图配置数据点颜色。• AddChart 支持设置东亚和复杂脚本字体的字体族。• AddChart 现支持区域图与折线图的下垂线和高低线。• GetPictures 可以返回部分格式化属性。• 流式写入器新增 SetColVisible 函数,可设置列的可见性。• 流式写入器新增 SetColOutlineLevel 函数,可对列进行分组。• AddShape 与 AddSlicer 支持单元格锚点定位。• GetSlicers 支持获取单元格锚点定位的切片器。• SetConditionalFormat、GetConditionalFormats、UnsetConditionalFormat 支持更多图标集,包括 3三角形、3星形、5方块 等条件格式。• UnsetConditionalFormat 现支持删除指定单元格范围内的特定格式规则或数据验证。• AddPicture 与 AddPictureFromBytes 支持设置图片名称。• AddChart 与 AddShape 支持设置图表和形状的名称与替代文本。• AddSlicer 支持设置切片器的替代文本。• 新增图形名称与替代文本长度验证;若超出限制会返回错误。• 新增 UTF-16感知长度检测与截断支持。⚙️兼容性提升(Improve the Compatibility)• 保存时移除空行,减少生成的工作簿文件大小。
0 点赞 评论 收藏
分享
lmdeploy v0.12.1 最新版本发布!全面支持glm-4.7-flash,优化Qwen3系列模型与Transformers v5兼容性,稳定性与性能双提升!🚀 新功能(Features)在v0.12.1中,新增了几个关键功能:• 支持glm-4.7-flash:新增对glm-4.7-flash模型的全面支持,为用户提供更高效的推理体验。• Ascend平台支持EP:正式支持Ascend平台的EP运行模式,提升在华为昇腾硬件上的兼容和性能表现。💥 改进(Improvements)性能与兼容性方面进行了多项优化:• 修复Transformers v5的rotary embedding兼容问题:有效解决了在新版transformers中旋转嵌入异常的问题,提升模型稳定性。• 改进指标日志(metrics log)输出:优化指标记录与性能监控机制,使调试与性能评估更直观。• 支持Qwen3模型量化配置中忽略特定层:进一步增强Qwen3模型的量化灵活性,方便开发者自定义量化策略。• 新增自定义noaux kernel:提升系统可扩展性和内核处理能力。• 修复Qwen3-VL与Transformers v5兼容问题:保证视觉语言模型在最新Transformers环境下的兼容与稳定运行。🐞 Bug修复(Bug fixes)本次版本修复了多个关键问题,有效提升系统的稳定性与可靠性:• 修复工具调用解析器的流式游标问题。• 解决TP模式下引导解码的并发竞争问题。• 修复FA3检查逻辑。• 修复时间序列预处理中出现的异常。• 修复Attention算子中负KV序列长度错误。• 修复Qwen3-VL-MOE模型在长上下文场景下的不稳定问题。• 优化smooth quant逻辑,将量化后的norm移至CPU,避免旧q_linear引用问题。• 更新noaux-kernel检查机制,提升内核稳定性。🌐 其他更新(Other)在系统环境与文档方面也进行了更新:• 输入CUDA版本调整为12.6.2,适配最新CUDA环境,提高兼容性。• 在llm_compressor.md中新增Qwen3-8B精度评估,为开发者提供更全面的参考指标。• 重构CI测试用例,提升持续集成的稳定性与效率。• 设置interns1_1为interns1_pro别名,简化模型调用配置。• Docker构建优化:在使用CU13环境时自动跳过FA2组件,提高构建灵活性。• 最后,版本号正式升级至v0.12.1。
0 点赞 评论 收藏
分享
openclaw v2026.2.21版本正式发布:新增Gemini 3.1支持、火山引擎对接、全新Discord语音系统与超200项安全和性能升级1. CLI增强CLI新增每账户与每渠道的默认外发路由回退配置,当设置了默认目标通道时,执行 openclaw agent --deliver 语句无需显式指定 --reply-to 即可自动发送,提高自动化调用体验。同时,CLI实现了更严格的JSON参数解析机制,新增 --strict-json 选项以减少命令歧义,--json 仍被保留为兼容别名。根命令保持 openclaw -v 作为版本显示,不再与子命令的 -v 或 --verbose 冲突。2. 通道配置与模型管理通过 channels.modelByChannel 提供每通道模型覆盖能力,允许用户在不同消息平台上使用不同模型配置,并在 /status 接口中清晰展示。3. Telegram与Discord再升级Telegram与Discord两个主要平台进行了大规模重构:• Telegram:• 预览流式配置简化为 channels.telegram.streaming 布尔值。• 移除复杂的预览分支结构,旧模式自动映射为统一流式逻辑。• 新增生命周期状态表情反应机制:思考、工具、完成、错误等阶段都可配置emoji与时序。• 增强流预览清理机制,在异常抛出时自动清理临时消息。• 增强针对重复bot-token检测与冲突处理,防止多账户轮询冲突。• Discord:• 新增 语音通道管理:支持 /vc 命令加入、离开及状态监控,可用于实时语音会话。• 增强临时消息响应默认值,可设定交互命令是否使用短暂回馈。• 支持论坛标签编辑,频道编辑时可动态更新forum标签集。• 增强多级线程绑定 Subagent 会话模型,支持线程聚焦与路由。• 支持实时预览流模式,可配置块化或分块响应。此外,Discord与Telegram共享生命周期反应控制器,允许全局可视化状态更新机制,极大增强交互的即时反馈性。
0 点赞 评论 收藏
分享

创作者周榜

更多
关注他的用户也关注了:
牛客网
牛客网在线编程
牛客网题解
牛客企业服务