
用 AI 写代码快一年了,从最初的新鲜感,到现在越来越觉得:工具本身差不多,关键在于你怎么用它。
prompt 写得好不好,决定了 AI 给你的答案质量。我见过很多人抱怨 AI 不听话,给了上下文还是答非所问——问题往往不在 AI,而在自己没把"我想要什么"说清楚。
最近我把本地编程助手的配置重新整理了一遍,有几点感受想分享。不讲概念,只聊实操。
上下文比模型更重要
很多人用 AI 写代码,上来就是"帮我写个排序算法"。AI 确实能写,但写的往往是教科书式的标准答案——你知道这在实际项目里根本不是那个味道。
真正有用的做法是先把背景交代清楚:这是什么语言的存量项目?有没有现成的类似实现?性能瓶颈在哪里?这样做,AI 给的东西才会贴合你的实际需求,而不是泛泛而谈。
举个例子,我要在一个三千行的 Python 脚本里加一个缓存逻辑,直接问 AI"Python 怎么写缓存",给的是通用方案。但如果说"这个脚本每次请求外部 API,我加个 5 分钟内存缓存,不要引入新依赖,用 functools.lru_cache",AI 立刻就能给出精确可用的代码。这就是上下文的价值。
让 AI 学会你的代码风格
每个人的代码风格不一样。有人喜欢一行搞定,有人喜欢拆得细。有人用英文写注释,有人用中文。这些看起来是小事,但在 AI 批量生成代码的时候,如果风格不统一,事后读代码会很痛苦。
我的做法是把几个典型文件作为上下文喂给 AI,让它"学习"。不是真的 fine-tune,而是每次对话开头加一句:"参考 /src/utils.py 的风格,用相同的命名和注释习惯。"这样生成出来的代码融入感强很多,后续改动也少。
不要小看这个细节。一个风格统一的项目,AI 每次生成的代码拿来就能用,不需要大量人工调整。这才是效率提升的真正来源。
把重复的事交给 AI,自己专注创造性工作
日常开发里有大量重复性任务:写单元测试、生成 mock 数据、写 API 文档、翻译注释。这些事技术含量不高,但特别耗时间。
我给这些场景分别搭了 prompt 模板,放在笔记软件里,需要的时候直接复制改参数。比如写测试,只要把函数签名和边界条件告诉 AI,出来的测试用例覆盖率基本能达到 80% 以上,剩下的边界情况自己补。
关键是不要让 AI 替你做所有决定。AI 擅长执行和生成,但判断和决策还是人来做。把时间花在真正需要思考的地方,重复劳动交给 AI 处理,这才是合理的分工。
本地跑模型的体验变化
上半年本地跑模型还很折腾,配置麻烦,速度也一般。现在不一样了,llama.cpp、Mistral.rs 这些工具把体验做得足够顺滑,Mac M 系列芯片的机器跑 7B 模型完全够用。
本地跑的好处有两个:一是数据不出本机,隐私安心;二是成本可控,不按 token 计费。对程序员来说,这个优势很明显——你的代码、你的项目结构,不用担心被拿去训练或者泄露。
如果你还没试过本地 AI 编程助手,建议从一个小项目开始试试水。投入不大,但收获会超过预期。
工具在进化,使用方式也在进化。AI 编程助手不是替代你,而是放大你的能力。学会用它,用好它,是这两年最值得投入的技能之一。
更多交流点击入群






