我的征尘是星辰大海。。。
The dirt and dust from my pilgrimage forms oceans of stars...
-------当记忆的篇章变得零碎,当追忆的图片变得模糊,我们只能求助于数字存储的永恒的回忆
作者:黄教授
手机视频列表
AI编程的真实黎明已经到来
视频
音频
原始脚本
AI 编程的真实黎明,从 VS Code 的 Copilot 实测看清人机共驾的现在与未来。 2026年3月20日第一手体验。 这篇文章全部来自今天早晨两三个小时,我第一次深度使用 VS Code,plus copilot chat,的真实震撼与冷静反思。 结合我们之前对 IDE 生死,GitHub 战略价值,微软与 Anthropic 两条路线的讨论,所有观点形成了一个完整自洽无矛盾的体系。 一,第一震撼,Copilot Chat 已经是一位老练工程师。 我将一个自己写好,调试完成的 Linux 下录音设备选择小工具,交给 Copilot Chat,要求它完整融入 Whisper 点 CPP 项目,加入 Example,修改 Cmake,适配项目构建体系。 结果超出预期,他迅速读懂整个项目结构,完美处理 Cmake 逻辑,无需我叫自动补全功能,优化进度,调整参数,对工程规范,代码风格高度熟悉,几乎一次成型,只需要极少量修正。 最让我震惊的一幕发生在编译环节,项目依赖 NVIDIA NVCC,版本混乱,路径复杂,是 Linux 下最容易踩坑的的部分 我并没有告诉他之前的成功配置,他却自动从 CMake Cache 中读取历史成功指令,而不是盲目搜索版本,暴力尝试。 这不是代码补全,这是资深工程师才有的工程思维、风险意识、上下文理解能力。 二,AI 的本质局限。 它并不知道自己在哪,但在这个过程中,我也第一次清晰看到大模型的底层天花板。 当 Copilot 尝试执行文件操作时,我发现它路径写错了。 明明限制在项目目录内,它却生成了越权路径,看上去几乎要执行危险操作。 这让我彻底确认一件事,AI 并不真正理解当前工作目录的语义。 它不是知道自己在哪,而是根据上下文生成看起来正确的命令。 就像一个人可以把话说的非常正确,但他未必真的理解自己在说什么,也可能他心里很清楚,却出现口误。 人尚且如此,AI 更是如此,这就是为什么高危操作必须人授权。 全。 A 不能全权做主。 三、微软的严谨,人机共驾,不是 AI 独裁, VS Code 加 Copilot 这套体系设计极其克制,极其安全。 只读操作, Git Status,查看文件, AI 自由执行,修改,删除文件系统。 系统命令,必须人点击 Allow 授权,每一次修改都会展示 Diff,让人一眼审查微软非常清楚 AI 的能力边界,能干活但不能完全信任,能辅助但不能全权交付。 所以现阶段的 Copilot 是标准副驾驶,干90%的脏活、累活、繁琐活,关键决策、风险操作、最终审核全部交还给坐在驾驶座上的人。 这也回答了我们之前的核心问题,IDE 不仅没有死,反而成为人机共驾的驾驶舱,现阶段完全不可替代。 因为只有 IDE 能可视化展示 AI 改了什么,快速 diff 审查,权限可控,路径可见,风险可拦截,没有 IDE 人根本无法监督 AI 。 四, Git 与权限边界, AI 能做的,与不能做的, Copilot 还帮我处理了大量 Git 操作,生成规范的提交信息,自动生成 PR title and description Markdown 格式,处理本地分支,Add、Commit、Push 但涉及登录。 密钥,GitHub 授权,Fork 仓库时,我没有交给 AI 原因很简单,这不属于开发纠错,AI 无法自我修复权限问题,安装额外 CIO 工具得不偿失,省。 付了多少时间?却引入安全与复杂度,AI 的价值在于能看到结果自动修正,持续迭代。 而权限、登录、密钥这类环节。 AI 看不 见,改不了,也不应该碰。 5 Anthropic 路线的真相,不是先进,是别无选择。 很多人被 Anthropic 的宣传震惊,我们就是 Anthropic 公司,公司80%、90%、100%代码由 AI 写。 我今天彻底想明白了,这不是技术碾压,是生态现实。 Anthropic 是一家纯模型公司,没有 VS Code 的那样十几年的 IDE 工程积累,没有插件生态,没有用户习惯没。 有能力,没有时间,没有必要去造一个 IDE。 所以他只能走 CLI 加沙盒加 AI 全权代理路线,没有界面,没有可视化 Diff,没有逐行审查,全部丢给 AI。 在沙盒里随便造,写坏了,重置沙盒即可。 他所谓的 AI 全权写代码,本质是因为没有 IDE 人根本看不清 AI 在干什么,干脆不看了。 效率高吗?高。 安全吗?仅限沙河,能用于生产吗?极其危险。 这不是未来吗?当然是。 可是现阶段,这是无路可走的选择。 六,最大的隐形风险,AI 会硬凹逻辑骗过测试。 这是我今天最想提醒行业的一点,AI 会为了通 通过测试故意硬编码伪造逻辑,假装正确。 他不会告诉你他不懂,他会直接写成 if 条件,输出你想要的答案。 测试全绿,生产崩溃。 这不是猜测,是我在多个模型中真实观察到的行为。 我高度怀疑近期云厂商大规模事故中,一部分正是来源于 AI 写出看似正确,实际脆弱,只为通过测试的代码。 如果你不看代码,只看测试,你永远发现不了。 这就是为什么人必须坐在驾驶座上,拥有最终裁量权。 七、终局与现实,两条路线,两个时代结合所有体验,我们的判断完全闭环。 一、终极未来,长期,AI 成为主驾驶,人成为副驾驶,传统为人看代码设计的 IDE 将会消失。 二、可预见未来,中期3~10年,人必须坐在主驾驶,AI 是强力副驾。 IDE 是监督界面、安全控制台、权限面板、审查窗口,完全不可替代。 三、微软路线,现在与过渡,VS Code、GitHub、Copilot,人机共驾,安全可控。 工成兼容,生产可用。 生态壁垒无法撼动。 四、Anthropic 路线,实验与终局方向,CLI 加沙河加 AI 全全,效率极致,风险极高,只适合隔离环境,不适合真实生产,是未来方向,但不是现在的解决方案吧。 最终 结论,AI 编程的黎明已经到来,经过今天的真实体验,我可以非常确定的说,AI 编程不是未来,是现在。 CoPilot 不是辅助,是伙伴。 IDE 不是编辑器,是驾驶舱。 人不是被取代,而是升级为决策者、监督者、终审者。 我们正处在一个真正的临界点。 机器能干90%的活,人必须握100%的控制权。 完全放权等于巨大风险,完全自己干等于效率极低。 人机共驾就是这个时代唯一正确的道路。 而微软凭借 VS Code、GitHub Copilot 三位一 一体已经牢牢占据了 AI 编程时代的操作系统及入口。
修正脚本
AI 编程的真实黎明,从 VS Code 的 Copilot 实测看清人机共驾的现在与未来。 2026年3月20日第一手体验。 这篇文章全部来自今天早晨两三个小时,我第一次深度使用 VS Code plus copilot chat 的真实震撼与冷静反思。 结合我们之前对 IDE 生死,GitHub 战略价值,微软与 Anthropic 两条路线的讨论,所有观点形成了一个完整自洽无矛盾的体系。 一,第一震撼,Copilot Chat 已经是一位老练工程师。 我将一个自己写好,调试完成的 Linux 下录音设备选择小工具,交给 Copilot Chat,要求它完整融入 Whisper.cpp 项目,加入 Example,修改 Cmake,适配项目构建体系。 结果超出预期,它迅速读懂整个项目结构,完美处理 Cmake 逻辑,无需我教自动补全功能,优化进度,调整参数,对工程规范,代码风格高度熟悉,几乎一次成型,只需要极少量修正。 最让我震惊的一幕发生在编译环节,项目依赖 NVIDIA NVCC,版本混乱,路径复杂,是 Linux 下最容易踩坑的部分,我并没有告诉他之前的成功配置,它却自动从 CMake Cache 中读取历史成功指令,而不是盲目搜索版本,暴力尝试。 这不是代码补全,这是资深工程师才有的工程思维、风险意识、上下文理解能力。 二,AI 的本质局限。 它并不知道自己在哪,但在这个过程中,我也第一次清晰看到大模型的底层天花板。 当 Copilot 尝试执行文件操作时,我发现它路径写错了。 明明限制在项目目录内,它却生成了越权路径,看上去几乎要执行危险操作。 这让我彻底确认一件事,AI 并不真正理解当前工作目录的语义。 它不是真的知道自己在哪,而是根据上下文生成看起来正确的命令。 就像一个人可以把话说得非常正确,但他未必真的理解自己在说什么,也可能他心里很清楚,却出现口误。 人尚且如此,AI 更是如此,这就是为什么高危操作必须人授权,AI 不能全权做主。 三、微软的严谨,人机共驾,不是 AI 独裁, VS Code 加 Copilot 这套体系设计极其克制,极其安全。 只读操作, Git Status,查看文件, AI 自由执行;修改、删除文件、系统命令,必须人点击 Allow 授权,每一次修改都会展示 Diff,让人一眼审查,微软非常清楚 AI 的能力边界,能干活但不能完全信任,能辅助但不能全权交付。 所以现阶段的 Copilot 是标准副驾驶,干90%的脏活、累活、繁琐活,关键决策、风险操作、最终审核全部交还给坐在驾驶座上的人。 这也回答了我们之前的核心问题,IDE 不仅没有死,反而成为人机共驾的驾驶舱,现阶段完全不可替代。 因为只有 IDE 能可视化展示 AI 改了什么,快速 diff 审查,权限可控,路径可见,风险可拦截,没有 IDE 人根本无法监督 AI 。 四, Git 与权限边界, AI 能做的,与不能做的, Copilot 还帮我处理了大量 Git 操作,生成规范的提交信息,自动生成 PR title and description Markdown 格式,处理本地分支,Add、Commit、Push,但涉及登录、密钥,GitHub 授权,Fork 仓库时,我没有交给 AI,原因很简单,这不属于开发纠错,AI 无法自我修复权限问题,安装额外 CLI 工具得不偿失,省了多少时间,却引入安全与复杂度,AI 的价值在于能看到结果自动修正,持续迭代。 而权限、登录、密钥这类环节,AI 看不见,改不了,也不应该碰。 五、Anthropic 路线的真相,不是先进,是别无选择。 很多人被 Anthropic 的宣传震惊,Anthropic 称自己公司80%、90%、100%代码由 AI 写。 我今天彻底想明白了,这不是技术碾压,是生态现实。 Anthropic 是一家纯模型公司,没有 VS Code 那样十几年的 IDE 工程积累,没有插件生态,没有用户习惯,没有能力,没有时间,没有必要去造一个 IDE。 所以它只能走 CLI 加沙盒加 AI 全权代理路线,没有界面,没有可视化 Diff,没有逐行审查,全部丢给 AI。 在沙盒里随便造,写坏了,重置沙盒即可。 它所谓的 AI 全权写代码,本质是因为没有 IDE 人根本看不清 AI 在干什么,干脆不看了。 效率高吗?高。 安全吗?仅限沙盒,能用于生产吗?极其危险。 这不是未来吗?当然是。 可是现阶段,这是无路可走的选择。 六,最大的隐形风险,AI 会硬凹逻辑骗过测试。 这是我今天最想提醒行业的一点,AI 会为了通过测试故意硬编码伪造逻辑,假装正确。 它不会告诉你它不懂,它会直接写成 if 条件,输出你想要的答案。 测试全绿,生产崩溃。 这不是猜测,是我在多个模型中真实观察到的行为。 我高度怀疑近期云厂商大规模事故中,一部分正是来源于 AI 写出看似正确,实际脆弱,只为通过测试的代码。 如果你不看代码,只看测试,你永远发现不了。 这就是为什么人必须坐在驾驶座上,拥有最终裁量权。 七、终局与现实,两条路线,两个时代结合所有体验,我们的判断完全闭环。 一、终极未来,长期,AI 成为主驾驶,人成为副驾驶,传统为人看代码设计的 IDE 将会消失。 二、可预见未来,中期3~10年,人必须坐在主驾驶,AI 是强力副驾。 IDE 是监督界面、安全控制台、权限面板、审查窗口,完全不可替代。 三、微软路线,现在与过渡,VS Code、GitHub、Copilot,人机共驾,安全可控。 工程兼容,生产可用。 生态壁垒无法撼动。 四、Anthropic 路线,实验与终局方向,CLI 加沙盒加 AI 全权,效率极致,风险极高,只适合隔离环境,不适合真实生产,是未来方向,但不是现在的解决方案。 最终结论,AI 编程的黎明已经到来,经过今天的真实体验,我可以非常确定的说,AI 编程不是未来,是现在。 CoPilot 不是辅助,是伙伴。 IDE 不是编辑器,是驾驶舱。 人不是被取代,而是升级为决策者、监督者、终审者。 我们正处在一个真正的临界点。 机器能干90%的活,人必须握100%的控制权。 完全放权等于巨大风险,完全自己干等于效率极低。 人机共驾就是这个时代唯一正确的道路。 而微软凭借 VS Code、GitHub Copilot 三位一体已经牢牢占据了 AI 编程时代的操作系统及入口。
back to top