ollama v0.15.1更新:全面优化 GLM-4.7-Flash 性能、增强 Claude 与

ollama v0.15.1更新:全面优化 GLM-4.7-Flash 性能、增强 Claude 与 OpenCode 集成、提升跨平台构建效率

一、GLM-4.7-Flash 模型优化
本次更新对 GLM-4.7-Flash 模型进行了大幅性能优化与正确性修复,解决了部分重复回答与工具调用质量问题。同时,在量化策略上进行了改进:

• 量化更多张量为 q8_0 格式。
• 避免了双重 BOS Token 的问题。
• 修复了注意力机制中 scale 计算的错误,提升注意力计算精度和生成稳定性。
此外,server/quantization.go 中针对多头注意力(MLA)相关权重进行了精度提升,确保模型在高压缩量化下仍能保持高质量输出。

二、跨平台性能改进
Ollama v0.15.1 修复了 macOS 与 arm64 Linux 上的性能问题,并在各平台构建脚本中增加了高效优化编译参数:

• CGO 优化标志: 增加 -O3 编译优化。
• macOS 构建脚本(scripts/build_darwin.sh):
启用 -O3 优化并保持 -mmacosx-version-min 限定版本。
• Windows 构建脚本(scripts/build_windows.ps1):
若没有手动设置,会自动为 CGO_CFLAGS 与 CGO_CXXFLAGS 添加 -O3 优化。
这些改动显著提升了编译后可执行文件的运行效率。

三、工具集成:Claude 与 OpenCode 全新增强
本次更新最大亮点之一,是对 Claude Code 与全新集成项目 OpenCode 的支持完善。

1. Claude Code 一键启动优化
• 新增 ollama launch claude 命令的 智能路径检测机制:
可在系统 PATH 未找到 claude 时自动回退查找 ~/.claude/local/claude(Windows 系统为 claude.exe)。
• 若仍无法找到,将提示用户从官方站点下载安装。
• 测试文件 claude_test.go 覆盖了 PATH 检测、fallback 查找以及异常路径三种场景,确保健壮性。
2. OpenCode 集成正式登场
新版本引入了 OpenCode 这一开源终端 AI 编码助手,并提供完整的 Ollama 集成方案。

命令行支持:

ollama launch opencode
或仅配置不启动:

ollama launch opencode --config
配置文件(~/.config/opencode/opencode.json)示例中默认支持添加本地与云端模型:

• 本地模型示例:qwen3-coder
• 云端模型示例:glm-4.7:cloud
对应逻辑实现涵盖:

• 避免重复条目;
• 保留用户自定义字段;
• 自动将旧 [Ollama] 后缀条目迁移为 _launch 标记;
• 精确区分由 Ollama 管理的模型条目。
#大模型# #福大大架构师每日一题#
全部评论

相关推荐

02-01 12:05
复旦大学 Java
腾讯的提前批大概率应该是没有笔试的,但是这个时候有相当部分的同学简历估计都没有准备好,没准备好的同学也不用急,大部分都是3月之后开,这个时候开的绝大多数都是神仙打架,问的东西也比较难,打算投递的同学也多看下计算机网络和操作系统,腾讯对这部分的知识问的比较多。另外多刷下牛客的热门题库,刷题注意刷ACM模式,和牛客的周赛题,腾讯有的部门会从这里面出原题。我是@程序员花海关注我,带你了解更多校招资讯!
程序员花海:还没有来得及准备的同学可以看下学习路线:https://www.nowcoder.com/discuss/824693499982315520?sourceSSR=users算法题:https://www.nowcoder.com/feed/main/detail/20e7a999fa04485b88340a274411ca0d?sourceSSR=users八股文:https://www.nowcoder.com/discuss/833102362771251200?sourceSSR=users简历书写方式:https://www.nowcoder.com/discuss/839907820706205696?sourceSSR=users都是以前在牛客发的文章~
软开人,秋招你打算投哪些...
点赞 评论 收藏
分享
评论
1
收藏
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务