兄弟们,还记得前段时间被 Claude “背刺”时的兵荒马乱吗?

从那之后,我就改用了智谱的 GLM Coding Lite 的包月套餐。讲真的,刚开始我也怀疑国产大模型的代码能力,但反正试试无妨,关键是它无缝支持 Claude Code 等工具,迁移毫无成本。

图片

用了一段时间后,我感觉 GLM-4.5 已经让人眼前一亮,没想到短时间内,智谱又推出了新一代旗舰大模型——GLM-4.6。

图片

如果说 GLM-4.5 是雪中送炭,那 GLM-4.6 就是王炸开局。它不仅在性能上全面进阶,更是在我最关心的代码能力上,超越了昨日发布的 DeepSeek-V3.2-Exp,登顶国内最好的 Coding 模型。

一、编程能力稳居国产模型首位

这次 GLM-4.6 的表现,堪称“惊艳”。

图片

根据官方技术报告,GLM-4.6 在 AIME 25、SWE-Bench 等 8 项主流通用能力基准测试中的部分成绩,已与 Claude Sonnet 4 和 Claude Sonnet 4.5 比肩,稳居国产大模型首位(算上了最新的 DeepSeek-V3.2-Exp)。

作为开发者我最关心的,不是花哨的跑分,而是实打实的编码能力。

图片

在真实编程场景下,智谱团队在 Claude Code 环境中用 74 个真实编程任务测试了 GLM-4.6。结果显示,GLM-4.6 的实测表现已追平甚至略优于 Claude Sonnet 4,远超其他国产模型。

这意味着,“Claude 替代”不再只是口号,GLM-4.6 的编程能力已与国际主流大模型并肩。

二、真实项目开发体验

在实际开发中,通常是做项目的某个模块,而不是写个 demo,项目理解很重要。所以我以为 HelloGitHub 社区开发一个「学习路径」板块为例,路径节点指引学习方向,知识点对应开源项目。

下面是实际测效果如下:

图片

简单看下来,两者表现都不错,智谱 GLM-4.6 首轮测试完全达标!

我从最开始只有一个模糊的想法,没有任何具体设计。全程采用自然语言驱动 GLM-4.6 进行编码。当效果满意后,我就让 AI 先为当前代码生成一份清晰的文档,我通过阅读文档来快速理解代码结构,然后再下达更精准的优化指令。这一番操作下来生成的代码不仅结构清晰且可读性高。

最终 HelloGitHub 社区的「学习路径」功能开发的阶段性效果,如下:

图片

整个过程始终都在我的掌控之中,用过 AI 编程的小伙伴都懂,让 AI 在复杂任务下不写出“屎山”代码,除了交互和提示词,模型本身的编码能力同样关键。

三、体验升级:不仅更强,而且更省

我之前测试过 20 块钱的 GLM Coding Lite 套餐用量,在我高强度“压榨”了差不多 5 个小时后,终于提示配额已用完以及重置时间。

<span data-cacheurl="" data-remoteid="" data-lazy-bgimg="https://mmbiz.qpic.cn/mmbiz_svg/jJSbu4Te5ibibksGFm2QbyZzLnAtuicwoCxuWTT1zicHg98A9iaviaicia1DeADkxdv6icbd0URLRox6ZoHTI0tYt3JrXGovZYKNvAgAZ/640?wx_fmt=svg&amp;from=appmsg" data-fail="0"><span leaf="">⎿  API Error (429 {<span leaf="">"type"<span leaf="">:<span leaf="">"error"<span leaf="">,<span leaf="">"error"<span leaf="">:{<span leaf="">"type"<span leaf="">:<span leaf="">"1308"<span leaf="">,<span leaf="">"message"<span leaf="">:<span leaf="">"Usage limit reached for 5 hour. Your limit will reset at 2025-09-20 16:00:47"<span leaf="">},<span leaf="">"request_id"<span leaf="">:<span leaf="">"202509201503064fe9b20624394280"<span leaf="">}) · Retrying <span leaf="">in<span leaf=""> 4 seconds… (attempt 4/10)<span leaf="">  
<span leaf="">  
<span leaf="">Total duration (API):  44m 34.0s<span leaf="">  
<span leaf="">Total duration (wall): 5h 12m 38.0s<span leaf="">  
<span leaf="">Total code changes:    4096 lines added, 2107 lines removed<span leaf="">  

而现在,GLM-4.6 在性能飙升的同时,变得更加高效。官方数据显示,其平均 token 消耗比上一代节省了 30% 以上。

图片

随着 GLM-4.6 的正式发布,智谱 Coding Plan 全面升级!此前订阅套餐的用户将自动升级至最新的 GLM-4.6,只需 1/7 的价格,即可享受到 Claude 9/10 的智商。

图片

四、从“平替”到“首选”,迁移成本为零

当初我选择智谱,一个核心原因就是它无缝支持 Claude Code,迁移成本几乎为零。

如果你是 Claude Code 的用户,切换到 GLM-4.6 就是几行命令的事:

<span data-cacheurl="" data-remoteid="" data-lazy-bgimg="https://mmbiz.qpic.cn/mmbiz_svg/jJSbu4Te5ibibksGFm2QbyZzLnAtuicwoCxuWTT1zicHg98A9iaviaicia1DeADkxdv6icbd0URLRox6ZoHTI0tYt3JrXGovZYKNvAgAZ/640?wx_fmt=svg&amp;from=appmsg" data-fail="0"><span leaf=""># 1. 安装原版 claude-code (如果没装过)<span leaf="">  
<span leaf="">npm install -g @anthropic-ai/claude-code<span leaf="">  
<span leaf="">  
<span leaf=""># 2. 配置智谱 API (需先开通套餐获取 Key)<span leaf="">  
<span leaf="">export<span leaf=""> ANTHROPIC_BASE_URL=<span leaf="">"https://open.bigmodel.cn/api/anthropic"<span leaf="">  
<span leaf="">export<span leaf=""> ANTHROPIC_AUTH_TOKEN=<span leaf="">"你的智谱 API Key"<span leaf="">  
<span leaf="">  
<span leaf=""># 3. 启动!<span leaf="">  
<span leaf="">claude<span leaf="">  

图片

就是这么简单,从此告别魔法和高价,享受国内网络丝滑、稳定且更强大的顶级编程体验

可能有人会问,你为啥专情于 Claude Code,为什么不用 AI IDE?

我以前也用过 Cursor,但体验过 Claude Code 后,我选择留下。原因很简单:平常开发时,我通常会在副屏打开一个命令行终端,用来重启服务、连远程、执行 git 命令等,主屏则是自己的 IDE。所以,命令行里的 AI 编码工具,其实就是分屏的一部分,完全不影响主屏的 IDE 使用。

相比于“局促紧凑”的 AI IDE,这样不仅 IDE 界面“面积”更大,还能继续用我最习惯的 PyCharm 或 VSCode。

图片

五、不止于编码,一次全面的进化

聊回 GLM-4.6,这次除了强大的编码能力和零迁移成本,还是一次全方位的升级:

  • 超长上下文:上下文窗口从 128K 提升至 200K,可处理大型代码库或复杂长文档。

  • 更强的推理能力:推理能力提升,并能在推理过程中调用工具。

  • 更强的搜索与写作:无论是信息检索还是文案写作,都更符合人类偏好、扮演角色也更自然。

  • 国产化生态:支持在寒武纪、摩尔线程等国产芯片上完成部署。

GLM-4.6 现已登陆智谱 MaaS 平台(bigmodel.cn),并即将在 Hugging Face、ModelScope 以 MIT 协议开源。

  • 在线体验地址:chat.z.ai

  • HuggingFace(敬请期待):huggingface.co/zai-org

  • 开发者套餐详情:bigmodel.cn/claude-code

六、写在最后

Claude 的那次封禁,对许多国内开发者来说,是一次“背刺”,但它也让我开始重新审视国内优秀的大模型。

从 GLM-4.5 的惊喜平替,到 GLM-4.6 的全面升级,智谱 AI 交出了一份令人满意的答卷。GLM-4.6 给你的,不再只是一个 Plan B,而是一个让你放心“开除”国外模型、依赖的 Plan A。

- END -

👆 关注「HelloGitHub」第一时间收到更新👆********

点击阅读原文体验「GLM-4.6」