导读:根据人工智能公司 Qodo 的一项调查发现,人工智能编码的生产力增长并不均衡。
根据人工智能编码公司 Qodo 进行的一项调查表明,独立软件开发人员非常欣赏人工智能编码工具为他们带来的生产力提升,但人们并不完全信任其输出。
结果,一些潜在的生产力收益因检查人工智能工作所必需的人工审查而丧失。
Qodo 提供“用于审查、测试和编写代码的代理代码质量平台”,因此它对此类问题有着自己的看法。
Qodo 在今年早些时候发布的题为《2025 年 AI 代码质量状况》的报告中,对 609 名使用未指定 AI 编码工具的开发人员进行了调查,这些开发人员是来自不同行业的各种组织,从初创公司到大型企业。高达 82% 的受访者表示他们每周至少使用这些工具,78% 的受访者表示这些工具提高了他们的工作效率。
但人们缺乏信心正在削弱部分成果。
Qodo 首席执行官兼联合创始人 Itamar Friedman 表示说:“总体而言,我们看到人工智能编码带来了巨大的净收益,但收益分配不太均匀。”
一小部分高级用户,通常是经验丰富的开发人员,正在获得巨大的收益——这些人就是“10倍速编程达人”。大多数开发人员只获得了中等程度的收益,而还有一部分人未能有效利用现有的 AI 工具,面临着被甩在后面的风险。
调查显示,约 60% 的开发人员表示 AI 提高或有所提高整体代码质量,而约 20% 的开发人员表示 AI 降低或有所降低他们的代码质量。
他解释说:“个人贡献者可能会感觉好上三倍,因为他们交付了更多代码,但技术主管、代码审阅人员以及负责整体代码质量的人员往往会面临更大的压力。对他们来说,代码量的增加意味着更多的审阅工作、更多的监督,有时还会带来更大的压力。”
这种担忧非常普遍,76% 的受访者表示,他们不会在未经人工审核的情况下发布 AI建议的代码。他们更倾向于手动重写或审查 AI 的建议,即使 AI 生成的代码看起来正确,他们也会推迟合并。人们也避免将 AI 更深入地集成到他们的工作流程中。
调查显示,这种行为是有代价的,因为代码审查实际上是人工智能擅长的事情之一。在那些表示人工智能提高了生产力的开发者中,81% 使用人工智能进行代码审查的开发者表示质量有所提高,而手动进行代码审查的开发者中只有 55% 表示质量有所提高。
弗里德曼补充说:“Gemini 2.5 Pro 等模型可以很好地判断代码质量,并且可以提供比传统软件工程指标更准确的衡量标准。”
随着最新模型的发布,它们已经达到了超越人类所能完成的任何大规模审查的程度。为了量化这一点,我们建立了一个公共基准,以根据质量和完整性标准评估模型生成的拉取请求和代码更改。
开发人员的不信任AI是有充分理由的:大约四分之三的受访者经常遇到幻觉——即人工智能出现语法错误或调用不存在包的情况。
弗里德曼这样说:“在我们的调查中,只有大约四分之一的开发人员表示出现幻觉的情况很少见。”
但有办法控制这些幻觉。“处理固有缺陷的一个好方法是通过提示代理检查代码库结构、文档和关键文件来启动会话,然后再给它实际的开发任务,”他补充说。
弗里德曼表示,另一种技术是为AI代理提供清晰的规范,并让其生成符合规范的测试。“只有在验证测试符合你的意图后,才能让代理执行它,”他解释道。他还补充道,当代码建议出错时,有时最好是重新开始,而不是让AI代理反复修改。
人们对人工智能幻觉的担忧并非是最大。开发者最希望改进的地方是“提高上下文理解能力”(26%),其次才是“减少幻觉/事实错误”(24%),然后是“提高代码质量”(15%)。
“上下文是有效使用人工智能工具的关键,”弗里德曼说。“这有点老生常谈了,但它的含义其实很简单:输入模型的信息,也就是模型‘上下文窗口’里的内容,对生成的代码质量有着直接而显著的影响。”
弗里德曼解释道,人工智能编码工具的高级用户确保向人工智能模型提供详细信息,包括产品要求和规格等补充数据、类似任务的示例和编码风格。
换句话说,为了避免“垃圾进,垃圾出”,所以要更加谨慎地考虑你的人工智能助手的饮食。
弗里德曼认为,通过自动化模型上下文增强可以降低处理人工智能模型的学习曲线,这一尝试让人想起谷歌如何通过结合上下文信号和个人信息来提高搜索相关性。
需要说明的是,向开发人员提供这些工具的组织需确保吸入 AI 上下文窗口的任何内容符合公司政策。
作者:托马斯·克拉伯恩
编译:场长
参考:
https://www.theregister.com/2025/06/12/devs_mostly_welcome_ai_coding/
本文为 @ 万能的大雄 创作并授权 21CTO 发布,未经许可,请勿转载。
内容授权事宜请您联系 webmaster@21cto.com或关注 21CTO 公众号。
该文观点仅代表作者本人,21CTO 平台仅提供信息存储空间服务。