51K星标开源神器CC Switch:一键无缝切换模型,告别手动配置烦恼
上周我连续发布了几篇模型评测的文章,尤其是周五直接三连发,引起了不少讨论。很多朋友在私信和评论区问我:“到底怎么才能在Claude Code里轻松切换不同的国产模型?”
其实周一的时候我已经写过一篇非常详细的Claude Code使用教程,其中就用了很大篇幅介绍如何接入国产模型。但我也清楚,那种长教程能真正从头看到尾的人并不多。所以这次我决定把这个自己高频使用、体验极佳的小工具单独拎出来,好好写一篇分享。
这个工具就是开源社区里大名鼎鼎的 cc-switch,目前在GitHub上已经收获了超过51K星标。

项目地址:https://github.com/farion1231/cc-switch
它的原理简单到不能再简单:直接替你修改模型配置文件。因为对绝大多数非程序员来说,给Claude Code、OpenClaw这类Agent工具更换背后的模型,其实是有门槛的——你得懂一点代码,知道配置文件在哪里,还得手动编辑JSON。在Claude Code里,这个文件就是settings.json。

只要你亲自改过一次,就明白这事有多折磨人。我还记得GLM-5刚发布时,想把它接到Claude Code里用,照着文档找到settings.json,然后手动填写base_url、auth_token、model name等一系列字段……
那一刻我真的快崩溃了,觉得这操作实在太原始。之前用其他Agent工具时也一样:每次出了新模型想尝尝鲜,让工具自己去改配置,结果切着切着就崩了,稳定性极差。

忍无可忍之下我去问了Claude,有没有可以便捷切换Agent模型的开源项目。结果还真让我挖到了宝。

从那以后,切换模型这件事就再也没困扰过我。
cc-switch是一个全平台桌面应用,Windows、macOS、Linux都能用。目前已经支持Claude Code、Codex、Gemini CLI、OpenCode、OpenClaw,最新的版本还加入了Hermes,基本上你在电脑上跑的各类Agent工具它都能覆盖。

作为纯开源产品,安全性也有保障:所有数据都存储在你本地的SQLite数据库里(路径是~/.cc-switch/cc-switch.db),包括供应商配置、全局设置、模型定价等。当你切换供应商时,它会从数据库读取对应配置,再写入各家Agent的配置文件,从而实现无痛切换。
进入项目的GitHub Releases页面,找到对应系统的安装包直接下载。
https://github.com/farion1231/cc-switch/releases

以macOS为例,下载红框标注的文件,双击运行即可。启动后你会看到一个Logo与Claude极为相似但颜色不同的应用图标。


接下来详细说明怎么在Claude Code里接入模型。
打开cc-switch,在Claude图标右侧点击加号。

工具内置了40多家供应商的预设,智谱、MiMo、DeepSeek、千问、Kimi、MiniMax、豆包、阶跃等国内主流厂商基本一网打尽。

以智谱GLM为例,选择Zhipu GLM,想用哪个模型就点对应的供应商。

没选供应商时配置为空,选定之后除了API Key需要你自己填,其余字段cc-switch都会帮你预先填好,省心省力。

填入API Key后,可以下拉查看自动配置的模型版本,不喜欢也可以自行修改。

如果不太清楚模型的具体名称,点右上角的“获取模型列表”就能看到厂商提供的所有可用模型。

注意,不是每家供应商都支持查询列表,不支持的就需要你自己手动输入模型名。

修改后右侧会同步显示对应的配置JSON,这个内容最终会写入Claude Code的settings.json,但你完全不用操心。

从头到尾你只需要做三件事:选供应商、填API Key、选模型。

点击右下角的保存。

回到首页模型列表就能看到刚添加的配置,直接点启用即可在Claude Code里调用。

其他厂商的模型也可以按同样流程加入。更妙的是,切换时根本不用打开主界面,直接点击桌面右上角的小图标,想换哪个点哪个,每个Agent工具下面挂着独立的一套供应商列表,互不影响。

装上cc-switch之后一个很大的爽点是:Claude Code里实现了热切换。热切换就是你不用重启终端、不用关掉当前会话。比如你正在跑任务,感觉当前模型不太聪明,只需等它回复完,在菜单栏点一下图标换个模型,下一轮对话立刻生效。不过千万记得,别在模型正在处理请求的时候切,否则会报错。

这个功能对成本管理来说简直天赐。很多日常小任务或大项目里的一些简单环节,其实根本没必要上最贵、最强的模型,挂个性价比高的模型又快又便宜。而有了cc-switch,这种成本优化的操作成本几乎为零。
除了切换模型这一核心功能,cc-switch还做了不少贴心设计。比如用量追踪,可以快速看到API Key的余额和coding plan的额度。
58个大厂设计系统 Markdown 化,AI 前端效率飙升90倍——全面解读 DESIGN.md
AI 前端领域迎来一场效率革命:58家知名大厂的设计系统被提炼为 Markdown 文件,只需一份 DESIGN.md,AI 就能在8分钟内生成像素级还原的 UI。设计师两周的工作量,AI 仅用8分钟完成。
一、认识 DESIGN.md:用纯文本定义设计系统
今年,Google 倡导了一种新思路:用纯文本描述设计系统。过去,构建 UI 需要 Figma 画稿、手动切图、编写 CSS 变量;而现在,一份简短的 .md 文件就能取代这一切。
## Colors
- Primary: #0066FF
- Background: #0A0A0A
## Typography
- Font: Inter
- Heading: 700 weight
AI 读取这样的描述后即可生成风格统一的界面。没有 Figma,没有 JSON,仅靠一个 Markdown 文件。

二、亲身实测:8分钟复刻大厂登录页
笔者以 Claude 的 DESIGN.md 做了一次快速实验。从 awesome-design-md 下载 Claude 的设计文件,放置到项目根目录,然后告诉 Cursor:“参照 DESIGN.md 构建一个登录页面。”8分钟后,一个精确复刻的登录页出现在眼前。

再对比此前的经历:制作一个 SaaS 着陆页,通常要经过 Figma 找参考(2小时)、手绘草图(1小时)、编写 CSS 变量(1小时)、调校颜色与间距(3小时)、反复修改(2小时),总计约9小时。而使用 DESIGN.md 后,流程变为:下载 Linear 的设计文件(30秒)、放入项目(10秒)、指示 AI“照着做”(20秒)、微调(5分钟),全程仅6分钟。从9小时到6分钟,效率提升90倍。

ChatGPT Images 2.0 vs Gemini 生图实测:UI 设计、人像摄影与海报排版,谁才是真正的生产力之王?
深夜,OpenAI 突然上线了 ChatGPT Images 2.0。我几乎在同一时刻打开了 ChatGPT,又点开了 Gemini,给它们输入完全相同的提示词进行比较。
结果让我对 AI 生图的认知彻底刷新。
这并不只是一次简单的版本升级,而是两种截然不同的生图哲学正面对决。
为什么非要做这次测试?市面上的 AI 生图文章已经多到泛滥,但绝大多数都犯了几种通病:随便生成几张图就大呼“太强了”,罗列一堆技术参数让人看得头昏脑胀,只测评艺术创作,从来不碰真实的工作场景。
作为一个实践派,我最关心的是:到底能不能真正拿去干活?
于是我围绕三个最常见的工作场景设计了评测任务:
- 设计一款 App 界面——看看产出能不能直接交给开发使用
- 拍一张专业人像——检验是否具备替代摄影师的可能
- 做一张活动海报——重点考察文字渲染是否真能过关
每一个场景,我都分别用中文和英文写了一遍提示词,让两个模型各生成三次,然后选取各自最好的结果来做对比。
整个过程没有调任何参数,全部保持默认设置。
因为普通用户不会专门去调参,我要测的,就是“开箱即用”的真实感受。
第一轮:设计一个任务管理界面
提示词:
设计一个现代化的任务管理应用界面,浅色主题。左侧是侧边栏导航,包含“今天”、“本周”、“项目”三个选项,使用图标 + 文字。主区域显示任务列表,每个任务卡片包含标题、优先级标签(红色/黄色/绿色)、截止日期和复选框。右上角有搜索框和用户头像。整体采用圆角卡片设计,使用渐变色强调重要元素。界面分辨率 1920x1080,UI 风格参考 Notion 和 Linear。
ChatGPT Images 2.0:

Gemini Nano Banana 2:

第二轮:拍一张专业人像
提示词:
一位 30 岁左右的亚洲女性专业摄影师肖像照。她戴着黑框眼镜,穿着深蓝色牛仔衬衫,脖子上挂着一台徕卡相机。背景是虚化的摄影工作室,可以看到柔光箱和三脚架的轮廓。采用自然光从左侧 45 度角照射,营造伦勃朗光效。表情专注而自信,眼神直视镜头。照片风格:专业人像摄影,浅景深,50mm f/1.4 镜头效果,色调温暖,高分辨率。
ChatGPT Images 2.0:

Gemini Nano Banana 2:

第三轮:做一张活动海报
提示词:
设计一张科技峰会海报,竖版 A3 尺寸(297x420mm)。顶部大标题“AI 未来峰会 2026”使用粗体无衬线字体,白色文字配深蓝到紫色渐变背景。中间区域列出三位演讲嘉宾信息:姓名、职位、公司,使用清晰易读的字体。底部包含日期“2026 年 5 月 15 日”、地点“上海国际会议中心”、二维码占位符和主办方 logo 区域。海报中还有很多详细的小字介绍峰会,使用几何图形装饰元素,确保所有文字清晰可读。
Claude Code 国内使用完全指南:无需魔法,从零安装到接入国产模型全流程
近期很多朋友都在询问能否推出一期 Claude Code 的小白教程,大家都渴望体验这个全球顶尖的 Agent 产品。

事实上,许多人并不了解 Agent 产品通常由 Agent 框架与模型两部分构成。Claude 的原生模型在国内确实容易受到限制,处理起来非常棘手,我目前也无法提供相关的指导。
不过,Claude Code 本身并不会被封禁或无法使用,因为它本质上是一个 Agent 框架,可以搭配任意模型工作。
尽管 Anthropic 的策略相当严格,频繁封号且推行实名认证,但不得不说,当今最优秀的 Agent 框架依旧是 Claude Code。
所以我一直主张,既然选择就一步到位。我知道像 OpenClaw、Hermers Agent 等工具最近很火爆,但我依然会建议你使用 Claude Code。即使无法调用 Claude 的原生模型,搭配国产模型,效果照样出色。
而且完全不必担忧封号,无需境外手机号或 Visa 信用卡,甚至不需要借助任何特殊的网络环境。
于是,今天我就来撰写一篇 Claude Code 从零入门的全面新手教程,力求让几乎所有朋友都能顺利上手。无论是 Windows 还是 Mac,有没有特殊网络条件,我都准备了相应方案,大家根据自己的情况按需查阅即可。
接下来的安装流程,是我和团队成员花了一个周末,在五六台电脑上反复安装、卸载验证出来的。对于没有特殊网络环境的情况,本来还有其他安装途径,例如 npm 或者直接 curl 国内镜像源,这些方法虽然理论可行,但我在不同设备上测试时稳定性并不理想。最终,我选择了在我看来最简单、并且在极度干净的电脑上也不易出错的方案。
只希望各位跟着文章操作,都能顺畅地用上全球最强大的 Agent 框架。我会尽可能把每一步都讲得细致清晰,可能略显啰嗦,还请见谅。
好了,我们直接开始。
第一步:安装 Claude Code
Mac 系统安装
先来看 Mac,Windows 用户可以跳过这部分直接去后面找 Windows 教程。
我们先在应用程序中找到“终端”并打开。

接下来安装今天的主角——Claude Code。为了演示,我特意在我的电脑上新建了一个全新的 macOS 账户,基本等同于一台空白电脑。
先说拥有特殊网络环境的情况。
安装命令只有一行:
Claude Desktop 第三方 API 无痛集成全攻略:零基础解锁桌面版 AI 生产力
看到别人在 Claude Desktop 里秀操作,你是不是也心痒难耐?
总有人晒出 Claude Desktop 的截图,Cowork 模式自动整理文件、Projects 功能管理项目、Artifacts 实时生成代码……这些场面谁看了不眼馋?
每次看到这类分享,你大概也冒出一个念头:“教练,我也想试试!”
好消息是,只要手里有一份第三方 API,你就能让 Claude Desktop 在自己机器上跑起来。不需要官方账号,也不用排队,配置完成立马就能用。

这篇教程就一步步带你完成第三方 API 的接入,让你的 Claude Desktop 真正为你所用。
01 开启那扇隐藏的开发者模式入口
先确认一下你安装的是不是最新版 Claude Desktop。老版本可能根本看不到我们需要的功能入口,所以最好先去官网下载最新版本,直接安装覆盖。
安装完成后,我们要做的第一步就是开启开发者模式。这个功能藏得很深,很多人都没注意到它。
操作步骤
启动 Claude Desktop,不用登录任何账号(也不需要科学上网)。
顶部菜单栏有时候不太容易用鼠标直接点到,一个小技巧是先按一下键盘上的 Tab 键,把焦点移到菜单区域,然后按回车就能打开对应菜单。
在菜单栏里找到 Help,点击后会出现一个 Troubleshooting 选项。
进入 Troubleshooting 的子菜单,就可以看到 Enable Developer Mode,点击它。

点击之后,你会看到菜单栏里多出了一个全新的 Developer 菜单。
到这里,第一步顺利通关!
接下来,点击这个新出现的 Developer 菜单,选择 Configure Third-Party Inference。
没错,这就是我们要找的那扇隐藏的配置之门。

02 写入你的第三方 API 密钥
此时你应该能看到一个配置窗口。不用紧张,要填的信息并不多,而且都是你的 API 服务商会提供的凭据。
通用配置方式
Gateway(网关类型)
这一项务必选择 Anthropic-compatible,注意不要选成 OpenAI-compatible,因为 Claude 使用的是自家的接口格式。
Claude Opus 4.7 全面评测:编程登顶、视觉飞跃,却染上「不说人话」的怪病
过去一周,Claude 频繁崩溃,果然是在为新品铺路。昨晚十点半,Claude Opus 4.7 如期登场。其热度之高,从我自建的全网 AI 情报监控来看,凡一条消息被三个精选信源同时报道,便算得上重要;五六个信源齐发已属爆款,而 Opus 4.7 竟引来 10 余家信源同步推送,震惊得我一时语塞。

目前该模型已全渠道上线。我于夜里十点半落地,打开手机即发现已可调用。

Claude Code 中也同步更新。

上下文依然保持 1M,不做减法,体验丝滑。最让人满意的是,凌晨三点,我的当周用量额度直接被重置,Anthropic 难得做了一件体贴的事。

用上 Claude 这么久,总算等来了一回人性化操作。

不少朋友或许会担心 KYC 或身份认证带来的风险。我眼下确实没有稳妥解法,只能视作一柄悬顶之剑。创作能力上实在找不到替代品,能跟 Claude 掰手腕的对手尚未出现,否则我早该换掉了。如今心态便是:用一天算一天,毕竟模型本身足够强大,配合 Claude Code 的 Agent 框架,实在难舍。
说回 Claude Opus 4.7。
定价与 4.6 持平,输入每百万 token 5 美元,输出 25 美元,纹丝未动。
跑分不必细说,行业风气便是「赢者通吃」,该拔高的基准都拔高了,若不全面取胜,厂商也没颜面公之于众。

最有趣的是,官方数据表明 Opus 4.6 在多数性能指标上不敌 GPT-5.4,这是 Anthropic 首次坦承其在编程方面略逊一筹。这一结论与我的实际感受吻合:许多反复出现、难以根除的 Bug,GPT-5.4 竟能一一解决;只可惜,它在创作与用户体验设计上堪称灾难,简直是一大坨难以名状的污糟。
Claude 仿佛天生懂我想要的交互,明白何为丝滑的用户体验;而 GPT-5.4 产出的界面,作为设计师的我实在用不明白,活脱脱像是给黑客准备的暗网后台。
创作能力几乎为零。在影视圈,大部分编剧都依赖 Claude 润色剧本,你很难见到哪位优秀编剧用 GPT-5.4 辅助创作。顶尖创作者们用脚投票,选择不言自明。
这便是显著的差距,Opus 4.5 与 4.6 胜在均衡全面。但此番实测 4.7,感受又添几分异样。
GPT-image-2引发信任海啸:互联网步入黑暗森林时代
昨日,GPT-image-2 横空出世。
顷刻间,各大社群与社交媒体陷入一片狂欢。其生成的梗图迅速爆红,一度登顶微博热搜榜第一。

这就是那一张图片。为避免大家误解,我特意打上了硕大的水印。

而除了这一张,我还看到了难以计数的、因内容过于离奇或我们太过熟悉而极易识破的 GPT-image-2 合成图片。


甚至还有这种逼真程度的照片。

更有甚者,朋友“鲜虾包”还炮制了可以乱真的微信对话截图。

大家虽然玩得酣畅淋漓,但这一日下来的感受,却让我猛然发觉:世界已经变成了一座幽暗的“黑暗森林”。
昨天清晨便发生了一个标志性事件。大约中午十二点,极有可能是 OpenAI 在部署 Codex 模型时出现了故障,致使 GPT-5.5 意外流出。

若搁在往常,凭我们群友的脾性,必然火速打开 Codex 尝鲜,再回到群里通报:“真上线了!”。但昨天中午,我目睹的反常景象令人错愕。

而由于确实是系统故障,这个泄露很快就被 OpenAI 回收。稍迟一步的群友再去看时,发现 GPT-5.5 已不见踪影,只剩 5.4。群里的气氛便成了这样。

最魔幻的是,我把这段截图转发到朋友圈,感慨了一句。结果评论区竟然是这样的——纷纷说那两张群聊截图本身就是 AI 编造的。

我把朋友圈截图发回群里,想展示这诡异的评论景象。不料他们说,我发到群里的这张朋友圈截图,同样出自 AI 之手。

猜疑链就此闭合。世界,终究蜕化成一座硕大的黑暗森林。还有这张图,猜疑链进一步延伸,昨日引发海量讨论,因为谁也分不清它究竟是真还是假。

纵使我至今把原图交给豆包实测,依然无法百分之百断定其真伪。
我知道大伙是在玩梗,图个乐,本意都是善意。但当你看到这些画面,会不会也和我一样,后背渗出冷汗?



还有一些更敏感的,比如转账凭证、银行流水、护照信息等,我就不放出来了。放了,恐怕连这篇文章都发不出去。
我隐约感到,随着这个模型的发布,有种我们赖以生存的东西悄然消亡——那就是信任。更准确地说,是“相信自己所见为真”这一预设本身。
在 GPT-image-2 出现之前,我们每天在互联网汲取信息时,都默认一个底层假设:截图是真的,照片是真的,聊天记录是真的。“有图有真相”这句话流传得太久太久。我们无需对它们的真实性耗费半点心神。
看见一张微博截图,我们讨论内容;瞧见一张聊天记录,我们关心事件;瞥见一张新闻图片,我们思考的是新闻。这种默认的信任,正是整个互联网信息生态运转的基石。
很多时候,我们根本意识不到它的存在,就像鱼大多时候也察觉不到水,我们也鲜少感知空气。唯有当它开始湮灭的瞬间,才觉得窒息。
我并非声称我们从此会立刻开始质疑每一张图,但怀疑的种子已然埋下。从今往后,每当你看到一张图,但凡与直觉稍稍相悖,或者触动了哪个心理伤口,脑海里便会冒出一个声音:这是不是AI生成的?这个声音或许很轻,或许一闪而过,但它会像种子般扎根,随着AI的发展愈长愈大,绝不会缩小。
这就是黑暗森林——刘慈欣在《三体》中描绘的黑暗森林法则:宇宙是一座黑暗森林,每个文明都是带枪的猎人。

黑暗森林的核心,正是猜疑链假设。你无法判断对方究竟怀有善意还是恶意,为了保护自己,只能先行预设对方是恶意的。今日的互联网亦如此,我无法辨别信息源背后的人是善是恶,能做的,唯有默认不信。因为造假变得太过容易。
当造假成本趋近于零,信任的成本便趋近于无穷——这是一道极简单的数学题。
2023年初,ChatGPT 爆火之时,我决定写下第一篇文字、开始打造个人IP,前后思忖了许多。那时我非常焦虑,因为在AI时代,我不知什么才是无法被替代的。思索良久,最终答案只有一个词:信任。
今年年初,我曾对外分享过当时的思考。

那时我归纳了三个自己视作公理的判断,虽然看着非常地摊、近似胡言,却实打实指引了我后来的所有动作:
- 在AI加持之下,信息生产效率呈指数级爆发,而人类消费的效率始终恒定或线性增长,两者之间形成永久性、持续扩大的结构性失衡。
- 无论信息总量如何爆炸,一个社会在某一时段的总注意力仍是恒定的稀缺资源,某个领域注意力的增加必然导致另一领域注意力的减少。
- 分辨内容究竟由AI还是人类创作的成本,将系统性地高于这段内容本身所带来的价值。因此,绝大多数人将理性地放弃辨别。
第三条,在2023年与许多朋友交流时,不少人很是不屑。“AI生成的东西那么假,我怎么可能看不出来?”
Harness Engineering全面解析:从Prompt到AI驾驭术的三次跃迁
近期,Harness Engineering这个术语在科技圈出现的频率极高。
无论你是在浏览社交媒体,还是在行业群组中潜水,都能看到关于它的讨论。相关的指数也常常呈现陡然的上升趋势。
许多人都在好奇,这个Harness究竟指的是什么。
因此,我花了几乎一整天的时间,梳理并写下我对Harness Engineering的理解。
大家不必认为AI行业热衷于创造概念或偏爱抽象表述,这主要是因为AI领域的演变速度极快,许多事物都随着时间的推进和行业的发展而不断演进。
某个术语在2024年可能还贴合当时的语境,但到了2025年,随着模型能力以惊人的速度提升,它便显得力不从心。于是,行业在2025年不得不采用一个新词来解释,然而到了2026年,这个新词可能又不够用了。
这正是我们如今所面临的现实。
长期关注AI领域的朋友,或许已经能猜到我指的是哪几个词了。
Prompt Engineering,Context Engineering。
以及如今的Harness Engineering。
这三个词,近乎完美地标注了我们与AI协作方式的三个进化阶段。
而我本人,恰好完整地经历了这三个阶段。
从2023年人们研究如何写出一个优秀的Prompt,到2025年探索如何更有效地为AI填充上下文,再到如今2026年,我们开始讨论如何为AI配置“马具”。
三年时间。
说短不短,说长也不算长。
但回望过去,这三次转变,其实都映射出我们人类对AI认知的深化。
打一个游戏玩家都能立刻理解的比方。
第一阶段,犹如你在玩《只狼》这类动作游戏。
每一次格挡、每一次弹反都需要你亲手操作,按一次键,它出一招。
一招失误,屏幕上便会出现巨大的“死”字。你就是AI唯一的操控者,它的每一个动作都必须由你亲自按键下令,动一下,回应一下。这便是我们传统的聊天机器人模式。
第二阶段,则如同你在玩《金铲铲之战》这类自走棋。
你其实不必再亲手操控每一个动作了,你的工作全部集中在前期配置上。
选择英雄、凑齐羁绊、搭配装备、排列站位。
配置完成,棋子便会自行上场战斗,你只能旁观。而决定胜负的,完全取决于你前期对信息和资源的配置是否正确。
这个阶段,对应的是模型能力尚不够强大时的前智能体时代。
第三阶段,就好比你在玩《全面战争》这类即时战略游戏。
战场上成千上万的单位在自主行动,你根本无法逐一操控每一个士兵,只能依靠编队、阵型、AI指令和战场规则来驾驭整个战局。
单位越聪明、自主性越高,你便越需要一整套系统来约束它们的行为。
从操控一个角色,到带领一支小队,再到指挥一整支军队。
玩家的控制粒度越来越粗放,AI的自主程度越来越高,你所需的约束方式也愈发系统化。
而这三个阶段,我认为恰好对应了Prompt Engineering、Context Engineering、Harness Engineering的三次跃迁。
因此,要理解Harness Engineering到底是什么,我认为最关键的就是要明晰这一路的跃迁究竟是如何发生的。
想理解当下,最好的方式,就是读懂历史。
所以,今天这篇文章,我希望能真正让你明白Harness Engineering到底是什么,它的来龙去脉,以及它能够解决什么问题。
如果你是技术领域的资深人士,希望能为你提供一些新的思考角度;如果你是非技术背景的普通用户,我也会尽力让你看得明白。
我们这就开始。
先从源头梳理。
让时间倒回到2023年。
2022年底至2023年,ChatGPT横空出世,整个世界为之轰动。
我还记得2023年的春节,假期归来,所有人都在谈论ChatGPT。在那之后,当时最火的一个词,就是Prompt Engineer,提示词工程师。
那时,硅谷可以为一位提示词工程师开出30万美元年薪的工作机会。
国内的情况也同样火热,2023年的那张流传甚广的图片,大家肯定都见过。

当时,有无数Prompt框架涌现。因为彼时模型的智能水平尚不足够,很多时候,模型的输出并不稳定。我那时还在从事AI产品工作,值得一提的是,国内金融领域的第一个算法备案是我拿下的。

我们每天做得最多的事,就是在Prompt上施加约束,思考如何设计出好的Prompt,能让模型输出更稳定的JSON格式,以便与我的数据库进行交互。
当然,另一方面,就是写出良好的Prompt约束,让模型生成更优质、更稳定的回答。
在那个年代,同一个问题,换一种问法,AI给你的答案质量可能会有天壤之别。
比如,你直接问ChatGPT“帮我写一篇关于AI的文章”,它产出的内容大概率是一堆正确的废话。
但你如果说:“假设你是一位科技领域的资深记者,风格偏口语化,擅长用类比来解释复杂概念。现在需要撰写一篇3000字的文章,主题是AI对普通人生活的影响,要有具体案例,语气不要太正式。”那么生成的效果就会完全不同。
所以你看,在Prompt Engineering那个年代,我们做得最多的事就是研究如何设计Prompt,才能让AI给出最好的回答。
这在2023年确实很有价值,因为那时大模型刚刚问世,输出确实不稳定,大家也都在摸索与它交流的方式。
谁能把问题问得更好,谁能把Prompt约束得更精妙,谁就能从AI那里挖掘出更多价值,这种技能上的差异是真实存在的。
但问题随之而来。
从2024年下半年开始,一个趋势变得愈发明显:模型变得越来越聪明了。
你不再需要像伺候大爷那样去精心构建Prompt了。当Claude 3.5 Sonnet发布时,你随便跟它说句话,它都能理解你的意图。我记得当时我还写了李继刚的“汉语新解”,也算是一时风潮。
MiMo V2.5 Pro深度评测:Claude Code最佳国产搭档,百万上下文极致性价比
昨天凌晨,小米悄无声息地上线了 MiMo-V2.5 和 MiMo-V2.5-Pro,API 接口也同步开放。

近期大模型的更新节奏密得惊人:上周 Claude Opus 4.7,这周 Kimi K2.6,昨天 MiMo-V2.5-Pro,还有姚顺雨带队的全新 HY3,今天又发了 GPT-5.5,估计 DeepSeek V4 也快亮相了……真是一个蓬勃的时代。
我一直对 MiMo 系列模型抱有好感,自从罗福莉加入小米后,小米大模型的实力提升肉眼可见。当然,最根本的原因是我做了十二年米粉,对小米的设计和硬件发自内心地喜欢,家里的电器几乎清一色是小米,这份感情自然也延续到了他们的模型上。
昨天下午完整试完 MiMo-V2.5-Pro 之后,不得不说,这个模型完全可以跟 GLM-5.1、Kimi K2.6 正面掰手腕,表现着实超出了我的预期。可以说它已经扎扎实实地挤进了第一梯队,开发者社群里也都在热议。

按老规矩,先看一眼跑分。虽然现在各家都在“赢学”里打转,但大致还是能看出一些端倪。
在 AA 榜单上,MiMo-V2.5-Pro 与 Kimi K2.6 并列开源第一。

成绩相当亮眼,相较于小米自家过往的模型,进步也很明显。

上下文窗口直冲 100 万 token,如今百万级上下文几乎成了头部模型的标配,今天发布的 GPT-5.5 也支持了 1M 上下文。
价格方面,我以前总是放在最后提,但这一次必须提前说,因为性价比实在太高,而且刚上线时用的人不多,接入 API 后速度飞快,体感完全不像某些国产模型那样动辄延迟好几秒。
API 调用的定价是:0 到 256k token 范围内,每百万 token 输入 ¥7 / 输出 ¥21;在 256k 到 1M token 区间,则是输入 ¥14 / 输出 ¥42。
TrendRadar:AI驱动的开源热点监控利器,53K Star,一站式信息筛选与推送方案
人人都能拥有专属信息秘书。TrendRadar 是一个让信息获取更高效、更智能的开源项目。
信息爆炸时代,资讯铺天盖地,如何从海量内容中精准抓取真正关心的话题,已成为一大痛点。
今天在 GitHub 上引起广泛关注的项目 TrendRadar,目前已经揽获 53K+ Star。它解决的核心问题非常简单且实用:怎样在信息洪流中,只花最少的时间,看到最相关的内容。
项目核心定位
TrendRadar 本质上是一套热点监控与智能推送工具。它会定时轮询多个主流平台的实时热点,再根据你预先设定的关键词库进行精筛,最后将加工后的信息推送到手机、电脑等终端。
覆盖的平台十分全面:
国内资讯:微博、知乎、B站、抖音、小红书、百度、今日头条、澎湃新闻
科技领域:36氪、虎嗅、少数派、IT之家、稀土掘金、V2EX
国际视野:GitHub Trending、Hacker News
除了热门榜单,它还支持 RSS 订阅源,可以将个人博客、技术周刊等散落的内容统一纳管,形成集中的信息流。

核心功能解析
智能关键词过滤
只需在配置文件中列出你关注的主题词,比如:
[技术]
AI
Python
Docker
[行业]
新能源
芯片
系统就会自动从所有抓取的热点中,筛选出包含这些关键词的条目。同时支持正则表达式,可以定义更复杂的匹配规则,确保不会漏掉重要信息,也不会被无关内容淹没。
AI 分析与深度洞察
这是 TrendRadar 最亮眼的能力。除了直接推送原始新闻,你还可以让 AI 模型对每条内容进行推理:提取当天核心热点、判断热度变化趋势、分析舆论倾向(正面/负面/争议)、发现跨平台的关联话题,甚至给出简短的趋势研判与建议。
支持的模型涵盖 DeepSeek、OpenAI、Gemini、Claude 等,你可以根据成本、效果和隐私偏好自由选择。
多平台即时推送
推送渠道几乎覆盖了所有日常工作场景:
团队协作:企业微信、飞书、钉钉
即时通讯:Telegram、Slack
传统触达:邮件
移动通知:Bark、ntfy(iOS/Android 推送)
高度自定义:通用 Webhook(可对接任意 HTTP 服务)
推送时间同样灵活,比如设置每个工作日的早 8 点和晚 8 点各发送一份报告,让你不用时刻盯着屏幕也能掌握动态。

快速部署指南
Docker 一键启动(最快30秒部署)
docker run -d \
--name trendradar \
-v $(pwd)/config:/app/config \
-v $(pwd)/output:/app/output \
wantcat/trendradar:latest
只需挂载配置与输出目录,系统就能立刻运行。