slot deposit pulsa slot mahjong slot gacor slot gacor slot gacor resmi slot gacor 2025 slot gacor terpercaya slot gacor 2025 slot gacor hari ini slot gacor hari ini slot gacor hari ini
ChatGPT 和 GPT-4 带给世界的改变
17611538698
webmaster@21cto.com

ChatGPT 和 GPT-4 带给世界的改变

人工智能 0 1301 2023-02-26 12:29:51

图片

导读:关于chatgpt正在改变的行业。

微软与人工智能聊天工具ChatGPT的开发商OpenAI的合作,已经在科技界掀起了一股追逐人工智能的热潮。

向通用场景进军

目前微软的一个研究团队正在进一步推进人工智能技术,试图让ChatGPT突破计算机限制来控制机器人,让它们在现实世界中自由发挥。

“我们研究的目的是看看 ChatGPT 是否可以超越生成文本来推理现实世界的条件,以帮助机器人完成任务,”微软研发员工如此说。

微软研究人员设想了这样一个未来:普通人可以向内置于家庭机器人中的数字家庭助理发出诸如“请给我做一顿热午餐”之类的命令,然后就可以看着机器人从头到尾完成任务。

微软研发人员详细介绍了如何使用某些线索让 ChatGPT 控制小型无人机。通过将命令写入 ChatGPT 聊天对话框,研究人员能够训练无人机找到“健康型饮料”、“带糖和红色标志的东西”(在本例中为一罐可乐)和房间的一侧,无人机自拍等。

ChatGPT 非常适合执行这些命令,原因与 OpenAI 技术让一些软件工程师对未来感到紧张的原因相同:可以将自然语言快速翻译成代码的 AI 聊天机器人。


虽然微软研究人员承认他们的工作“只代表了一小部分可能性”,但他们警告说,在没有“仔细分析”的情况下,不应部署这样的 ChatGPT 应用程序。

OpenAI 在去年 11 月底向公众发布 ChatGPT,结果火爆全网,也引起了业界的强烈关注。专家预计许多行业,包括写作、教育和软件工程,都会被这项技术颠覆。

ChatGPT,“假冒”的科学家

ChatGPT 已经进入科学领域。 


周四, Kareem Carr 发布了一篇论文的截图,ChatGPT 是该论文的合著者。


为什么不把ChatGPT 是一种工具呢?人们已经开始将 ChatGPT 视为真正的、有良好资质的科学合作者。


Gary Marcus 在 Substack 的帖子中强烈呼吁人们:“科学家们,请不要让你们的聊天机器人成长为合著者”。


更令人担忧的是那些没有披露人工智能使用情况的案例。科学家们发现他们无法可靠地识别其论文摘要是不是 ChatGPT 编写——它写的有用的废话甚至愚弄了领域里的专家。


牛津大学“研究技术和监管”的桑德拉·瓦赫特 (Sandra Wachter) 在一篇关于自然的文章中与霍莉·埃尔斯 (Holly Else) 交流时说道 :

“我们现在处于专家无法确定什么是真的或什么是假的情况,我们迫切需要的中间人来指导解决复杂的话题。”


ChatGPT 对教育的挑战


ChatGPT 已在全球各地的一部分教育机构被禁止(知名如纽约公立学校、 澳大利亚大学和香港中文大学等)。


NYT 的 Kevin Roose 却认为 ,“ChatGPT作为教育工具的潜力大于其风险。” 数学家陶哲轩也同意此说法:“从长远来看,与之抗争似乎是徒劳的;也许我们作为讲师需要做的是转向“开放书籍,开放人工智能”的考试模式。”


Hugging Face 的首席伦理学家Giada Pistilli解释了学校在 ChatGPT 方面面临的挑战:

“不幸的是,教育系统似乎是被迫适应这些新技术。


作为一种反应,我认为这是可以理解的,因为在预测、减轻或制定替代解决方案以及可能产生的问题等并没有做太多工作。颠覆性技术需要教育好用户,它们不能不受控制就简单地扔给人们。”

最后一句话完美地抓住了问题出现的地方,还有潜在的解决方案。

我们必须付出额外的努力来教育用户这项技术是如何工作的,还有什么是可能的,而不是他们做的。

以下是加泰罗尼亚采取的方法:

“教育部门不可能‘在整个系统和所有人’中禁用ChatGPT,因为这将是一种无效的措施。” 根据该部的消息,最好让这些中心进行人工智能使用方面的教育,“这可以提供很多知识和优势。”


学生的好朋友:错误数据库


Gary Marcus 和 Ernest Davis 建立了一个“错误跟踪器”来捕获和分类像 ChatGPT 这样的语言模型所造成的错误库。


该数据库是公开的,任何人都可以参与。这是一个很好的资源,可以用来严格研究这些模型如何行为不端以及人们如何避免误用。


OpenAI 意识到了这一点,并希望与错误和虚假信息作斗争:“为虚假信息活动预测语言模型的潜在滥用以及如何降低风险。”


GPT-4 信息和错误信息


Sam Altman在与 TechCrunch 编辑Connie Loizos 的谈话中暗示 GPT-4 的发布会延迟 。Altman 说:“总的来说,我们发布技术的速度比人们希望的要慢得多。我们将在上面坐更长的时间……”:

图片

(奥特曼还说有一个视频模型正在制作中)

关于 GPT-4 的错误信息


社交媒体上到处都有“GPT-4 = 100T”的说法。如果你还没有看到它,它看起来像这样:

图片

或者像这个:

图片

所有这些都是同一事情的略微不同版本:吸引注意力的吸引人的可视化图表,以及与 GPT-4/GPT-3 比较的强大关联(使用 GPT-3 作为 ChatGPT 的代理)。

机器人律师与首先


DoNotPay 的首席执行官 Joshua Browder 在 1 月 9 日发布了以下文章:

图片

原译是:DoNotPay 将向美国最高法院即将审理的案件支付 100 万美元,让其佩戴 AirPods 并让我们的机器人律师通过准确重复其陈述的内容来为案件辩护。

这一大胆的声明引起了 很多争论 ,Twitter 现在用指向最高法院违禁物品页面的链接来标记这条推文。

即使他们最终由于法律原因不能这样做,也值得从道德和社会的角度考虑这个问题。如果人工智能系统犯了严重的错误会怎样?无法找到律师的人能否真正从这项技术的成熟版本中受益?

然而,针对稳定扩散的诉讼已经开始。Matthew Butterick 于 1 月 13 日发表了这篇文章:

“我们代表三位优秀的艺术家原告——Sarah Andersen  Kelly 、  McKernan 和Karla Ortiz——对 Stability AI、 DeviantArt 和Midjourney 提起集体诉讼, 指控它们使用 Stable Diffusion ,这是一种 21 世纪的拼贴工具,重新混合了数百万艺术家的受版权保护的作品,这些艺术家的作品被用作训练数据。”

一部分艺术家已经开始了向人工智能 “斗争”的第一步,以缓解生成式人工智能的训练和使用:“AI 需要对每个人都要公平和合乎道德。”

但是,它深入研究了稳定扩散的技术细节,但未能正确解释某些部分。这是否是有意为那些不知道——也没有时间学习——这项技术如何工作的人弥合技术差距的一种手段。

CNET 发布 AI 生成的文章

几周前,CNET未来主义报道了这一点:

“ CNET是一家广受欢迎的科技新闻媒体,它一直在悄悄地利用“自动化技术”——人工智能的一种委婉说法——来推出新一波的金融类文章。”

最早发现这一点的盖尔·布雷顿 (Gael Breton) 在周五撰写了一篇更深入的分析文章。他解释说,谷歌似乎并没有阻碍这些帖子的流量。“AI内容现在可以过审了吗?” 他问。

CNET 决定在文章中应用 AI 是一个很好的先例。而现在有多少人在不公开的情况下使用 AI 来发布内容?如果这种做法奏效,人们可能会失业。 它可能已经发生了:

图片

我完全同意圣地亚哥的这条推文:

图片

用于图像生成的 RLHF


如果通过人类反馈的强化学习适用于语言模型,为什么不适用于文本到图像?这就是 PickaPic 正在努力实现的目标。


以下是使用pickapic 生成的艺术图像。

图片

该演示目前用于研究目的,是对 Stable Diffusion 或 DALL-E 的有益补充。

“让 Siri/Alexa 性能提升 10 倍”的秘诀


以下是有人发出,混合不同的生成 AI 模型以创建更好的方法:

图片

ChatGPT还在影响着与颠覆着各个领域,绝对不只这些。限于篇幅,今天就先介绍这里,欢迎您补充留言。


作者:场长

参考:

https://albertoromgar.medium.com/chatgpt-gpt-4-and-more-generative-ai-news-17e0b114a96c

评论