Tag: LLM
All the articles with the tag "LLM".
-
把 LLM 当知识库编辑:Karpathy 的个人研究工作流
Published: at 03:40 AMAndrej Karpathy 分享了一套用 LLM 构建和维护个人研究知识库的完整方法:把原始文献编进 .md wiki,用 Obsidian 做前端,让 LLM 自主管理、查询和增强知识,而不依赖 RAG 或复杂向量数据库。
-
RAG 入门指南:在正确的时机用正确的方式构建检索增强生成系统
Published: at 12:27 AM本文基于 Daniil Shykhov 的 RAG 实战经验,聚焦三个问题:RAG 究竟是什么、你真的需要它吗、以及在哪些环节最容易出错。如果你曾被向量数据库和 embedding 模型的教程绕晕,从这里开始。
-
GitHub Copilot SDK 与 Semantic Kernel:C# 中如何选择
Published: at 02:20 AMGitHub Copilot SDK 和 Semantic Kernel 都能帮你在 C# 里构建 AI 功能,但它们解决的是完全不同的问题。本文对比两者的架构差异,给出实际代码示例和清晰的选择决策框架。
-
在编码 Agent 中使用 Git:从基础操作到历史重写
Published: at 02:00 AMSimon Willison 总结了如何配合 AI 编码 Agent 发挥 Git 的全部潜力——从常用提示词到撤销提交、bisect 调试、从旧仓库提取模块,让 Git 的高级功能对每个人都变得触手可及。
-
Agentic engineering 为什么离不开代码执行回路
Published: at 12:48 AMSimon Willison 这篇文章最值得记住的,不是又给 AI 起了一个新名字,而是把一个经常被说虚的概念说实了:所谓 agentic engineering,说到底就是让会写代码的模型还能自己跑代码、调工具、看结果,然后继续迭代。真正的分水岭不在提示词更花,而在软件开发终于接上了可执行、可验证的反馈回路。
-
为什么和 LLM 干活会让人这么累
Published: at 12:17 AM这篇文章最有价值的地方,不是单纯吐槽 LLM 难用,而是把那种真实的疲惫感拆开了:人累了以后,提示质量会下降;反馈回路一慢,实验就像十几分钟才转一次的老虎机;上下文又越滚越大,模型越来越像在硬撑。问题很多时候不只是模型本身,而是人类认知状态、上下文压力和实验节奏一起把工作流拖进了低质量循环。
-
AI 辅助编程的 8 个层级
Published: at 12:00 AM从 Tab 补全到自主 Agent 团队,作者梳理了 AI 工程实践的 8 个进阶层级,每一层都是一次生产力的跃升。模型能力在快速增长,但能不能用好它,取决于你所在的层级。
-
LLM 写形式化规约,看着像回事,其实什么都没验证
Published: at 12:00 AMHillel Wayne 分析了 AI 生成的 TLA+ 和 Alloy 规约:代码不能编译、属性只是同义反复、真正有价值的并发和活性属性 LLM 写不出来。形式化方法要普及,光能生成规约远远不够。