Tag: AI
All the articles with the tag "AI".
-
Context Hub 想解决的,不是搜索不到文档,而是 agent 老是忘
Published: at 10:59 PMAndrew Ng 这个 Context Hub 项目最有意思的地方,不是又做了一个 API 文档搜索 CLI,而是它把 agent 用文档时最烦的两个问题摆到了台面上:第一,模型会拿过期、零碎、噪声很大的资料瞎写;第二,它即使这次踩过坑,下次也很可能重新踩。Context Hub 的思路,是把文档做成可检查、可版本化、可按语言获取、还能附带本地注释与全局反馈的上下文层。
-
AI 没让编程消失,它先把程序员的工作方式改得很怪
Published: at 07:46 AMClive Thompson 这篇关于 AI 辅助编程的报道最值得看的,不是“程序员会不会消失”这种老问题,而是他抓到了一种已经在很多团队里发生的工作变化:开发者并没有离开软件生产,只是把大量时间从亲手敲代码,挪到了描述目标、审阅方案、放行执行和收拾失控结果上。编程没有结束,但它确实越来越像指挥、评审和判断工作。
-
这个 Claude Code 最佳实践仓库,适合拿来整理自己的工作流
Published: at 04:49 AMshanraisshan 做的 claude-code-best-practice 仓库,最有用的地方不是又总结了几十条零散技巧,而是把 Claude Code 里最容易混在一起的几层东西——commands、subagents、skills、MCP、memory、settings、workflows——放进同一张地图里。对刚开始搭自己的 agent 工作流的人来说,它更像一份可直接照着抄的目录,而不是一篇看完就忘的经验帖。
-
Claude 的 Sub-Agents 和 Agent Teams 到底有什么区别
Published: at 04:22 AMAkshay Pachaar 这篇长帖最有价值的,不是又发明了一套多 agent 名词,而是把一个很多人一上来就会搞混的问题讲清楚了:Claude 里的 sub-agents 和 agent teams 表面都像“多个 agent 一起干活”,但它们解决的其实是两类完全不同的问题。前者靠隔离上下文做并行和压缩,后者靠持续通信和共享任务状态做协作。真正该先想的不是“要不要上多 agent”,而是“这个任务到底需要什么样的协调方式”。
-
为什么大厂工程师往往需要一点大 ego
Published: at 02:51 AMSean Goedecke 这篇文章有意思的地方,不是替自负辩护,而是把一个很多大公司工程师都隐约知道、但不太愿意直说的事实讲明白了:在大型组织里做工程,不只是拼技术判断,也在拼你有没有足够的自我确信去承担模糊、冲突和不确定性。但这又不是越强势越好,因为真正能活下来的工程师,往往得在不同场景里切换 ego 的大小。
-
AI 用来排版乐谱,现在哪一步最靠谱
Published: at 01:56 AMJohn D. Cook 这篇小实验最有意思的,不是证明 AI 已经能把乐谱图片准确转成 LilyPond 代码,恰恰相反,它展示了一个更值得记住的现实:模型在“看懂这是什么曲子、这是什么风格”上已经有点本事,但在需要逐音符、逐小节忠实还原结构时,还是很容易一本正经地乱编。真正该关注的不是 AI 会不会生成乐谱代码,而是它在哪些层面已经能帮忙,哪些层面还远没到可依赖的时候。
-
AI 之后,程序员还剩下什么
Published: at 01:42 AMAnil Dash 这篇文章真正值得读的,不是又一次讨论“AI 会不会替代程序员”,而是把一个更难受、也更诚实的问题掰开了:对把编程当饭碗的人,AI 可能带来的是岗位被快速压缩;对把编程当手艺、当身份认同的人,AI 带来的则可能是一种更慢、更深的失落——代码还会被继续生产,但亲手写代码这件事本身,正在从工作中心移走。
-
Qwen 3.5 做文档 OCR 为什么值得试
Published: at 01:36 AM这篇文章最有价值的,不是又多学会一个把 PDF 转图片再喂模型的套路,而是把一个很现实的判断说清楚了:当你需要处理大量扫描糟糕、又不想把敏感文档全送进大厂云 API 时,Qwen 3.5 这类开源多模态模型已经开始提供一个够便宜、够快、效果也够能打的 OCR 路线。真正值得关注的不是“模型会不会认字”,而是本地部署、批量吞吐、成本和输出稳定性这几件事终于开始同时成立。
-
为什么 1M context 对 agent 工作流是件大事
Published: at 01:33 AM这篇文章最值得看的,不是“100 万 token 很大”这种数字震撼,而是它把一个更实际的问题说清楚了:长上下文真正改变的,不是聊天时能一次塞更多材料,而是 coding agent 在长任务里更不容易失忆,不必频繁压缩上下文,也更有机会把复杂项目、长链路推理和多文档交叉理解一路做到底。真正重要的不是窗口标称值,而是窗口拉长以后模型会不会开始 context rot,以及价格有没有贵到只剩 demo 能用。