slot deposit pulsa slot mahjong slot gacor slot gacor slot gacor resmi slot gacor 2025 slot gacor terpercaya slot gacor 2025 slot gacor hari ini slot gacor hari ini slot gacor hari ini
为什么软件开发领域的大模型可能是一条死胡同
17611538698
webmaster@21cto.com

为什么软件开发领域的大模型可能是一条死胡同

人工智能 0 5675 2024-11-18 10:24:37

图片

导读:软件开发应如何响应大模型的运作方式?我们需要具有可测试组件的真正可解释的人工智能。

虽然《当前针对软件开发的人工智能是否代表着死胡同?》的标题显然是为了鼓励各位的辩论,但这篇文章中有一个案例与软件开发人员特别相关:

“当前的人工智能系统没有与其功能有意义关联的内部结构。它们无法作为组件进行开发或重复使用。无法分离关注点或分段开发。”

我今天的帖子只是关于使用大型语言模型(LLM) 作为产品解决方案的一部分,而不是在开发过程中使用 AI 作为工具(例如,Cursor和Zed AI等 AI 编码工具)。

使用 LLM 执行特定的软件开发生命周期活动 (SDLA) 存在问题,但我们制造产品的方式通常与我们向客户销售产品的方式不太一样。

因此,在下图中可以查看前两个部分:

图片

图片来自卡内基梅隆大学软件工程研究所

目前 LLM 的问题是,它们的提供方式与汽车非常相似。

你为整个项目付费,并且不期望看到它是一组可组合的零件。而汽车缺乏可分解性并不是问题,因为驾驶是一项受到严格控制的活动。即使你可以用像乐高这样的零件组装一辆汽车,它也不会被允许在公共道路上行驶。

这或许正是大型科技公司想要的——他们想向你出售大型产品或服务,而不是一组其他人更容易创建的可组合部件。这样,只有一小部分大型制造商才能留在游戏中。保持LLM的神秘性可以保持其高价值。

但是,LLM 违背了计算的通用概念,因为计算的任务是可以分解的。

但这违背了计算的一般概念,即任务是可以分解的。一个可工作的软件组件,无论是否内部构建,本身都是由可进行单元测试的代码组成的。它们必须以可靠的方式与其他组件协同工作。

即使产品使用 Oracle 数据库,我们都能明白持久性存在于概念设计层面。在某个时候,技术决策是决定使用哪种类型的存储。到那时,测试制度可能已经到位。与此同时,数据库的创新仍在继续,但客户永远不会想到存储提供商正以某种方式控制着软件。

在学术界,缺乏可分解性的问题通常与缺乏可解释性相伴而生。我们可以总结出困扰 LLM交付软件的其他相关业务原因。

我们无法将 LLM 的运行与其训练数据分开。

目前,我们无法将 LLM 的运行与其训练数据分开。我们知道 LLM 是经过训练的,但这个过程通常不公开,结果仍然被期望按原样呈现。这种期望组件被“腌制”的方式对于炖菜来说很好,但对于组件开发来说并不适用。

安全和隐私最终成为问题,因为没有铁丝网或可证明的方法来阻止 LLM 区分哪些信息应该隐藏。我们无法以任何有意义的方式从外部拦截神经网络并解释某些信息是私密的,不应该泄露。

法律所有权仍然存在着问题。我们可以证明,冷计算执行的运算结果是可重复的,并且在任何时候输入相同的输入都会得出相同的答案。由于大语言模型背负着他们永远无法放弃的训练包袱,我们根本无法证明他们没有窃取现有技术,而且它们可能确实窃取了。

那些努力控制碳足迹的公司正朝着与 LLM 创造者相反的方向前进,后者需要令人难以置信的计算能力来实现不断减少的改进。

现在,正如本文不是关于使用 LLM 来帮助开发一样,它也不是让最终用户直接访问 LLM 实用程序,然后愤世嫉俗地耸耸肩说“就是这样”。我正在使用的文本编辑器添加了某种形式的人工智能,但无法保证它能做些什么。我们都知道,这些通常是勾选框练习——这些功能必须以某种方式出现,但不是产品所固有的。

我认为,将大语言模型作为产品内的服务引入,除了作为产品本身之外,没有太大的未来。

但即便如此,这对任何企业来说都是一个严重的陷阱。当 Zoom 创始人 Eric Yuan 提出让AI 克隆人参加 Zoom 会议的想法时,他被很多人嘲笑了,因为他期待这种能力会以某种方式“从底层”出现。通过将重大创新外包给 LLM 供应商,他只是将路线图的控制权交给了另一家公司。

软件开发人员该如何应对?

这一切都很好,但今天的软件开发应该如何应对这一问题?

我们都明白,组件应该有约定的工作或角色,它可以被替换,并且应该可以与其他同类组件一起测试。我们还明白,如果它是外部的,它应该用相同的计算标准构建——我们可以使用这些标准重建它。

我们也不应该为了短期利益而试图改变游戏规则。

关键是要设计一个流程,为我们的企业提供所需的功能,然后开发一个平台,让开发人员能够可持续地构建它。

作为开发人员,我们应该希望通过可测试的组件为真正可解释的人工智能敞开大门,使其具有可测试的组件。

在需要训练的地方,必须是可监控、可报告、可重复、可解释和可逆的。如果我们发现大语言模型认为某事是正确的,但事实并非如此,那么必须能够立即通过一组定义的步骤来解决这个问题。如果这种描述没有意义,那么目前用大语言模型进行计算也没有意义。

但从理论上讲,我们认为没有理由认为这种情况在未来不会改变。

我们所担心的是,这种差异就像比较科学方法和对圣物的信仰。

我们知道可以进行一整套不可行的实验。就比如把一个圣物切开,所有的碎片都同样神圣吗?这是一样的事情,但我们也知道,我们永远不应该指望这两个领域会和解。

作者:场长

评论