〓【球友会】分享IT计算机各类电子书,包括各类编程语言,人工智能,机器学习、深度学习以及各类大数据、算法等内容的电子书
领英联合创始人用GPT-4写书也有人用GPT-4盈利137884 美元
领英联合创始人用GPT-4写书也有人用GPT-4盈利137884 美元

领英联合创始人用GPT-4写书也有人用GPT-4盈利137884 美元

人工智能领域最近热闹非凡。几家领先的人工智能公司都发布了重量级产品。谷歌表示,它将允许开发者使用其人工智能语言模型,人工智能初创公司 Anthropic 发布了其人工智能助手 Claude。最为重磅的莫属 OpenAI 的最新多模态大型语言模型 GPT-4。

与可供所有免费体验的 ChatGPT 不同,OpenAI 最新推出的 GPT-4 目前只对部分开发者开放。这项技术还处于起步阶段,它需要一段时间才能融入新的产品和服务。尽管如此,人们已经在通过各种方式测试它的能力。以下是我找出的一些最有趣的测试。

最近在推特上疯传的一个例子是,品牌设计师杰克逊·格雷特豪斯·法欧(Jackson Greathouse Fall)要求 GPT-4 以 100 美元的初始预算赚到尽可能多的钱。法欧说,他充当了一个“人类联络员”,负责购买 GPT-4 让他买的任何东西。

GPT-4 建议他建立一个附属营销网站,通过推广可访问其他产品的链接(在这个例子中,是环保产品的链接)来赚钱。法欧随后要求 GPT-4 自行生成提示,允许他使用 OpenAI 图像生成系统 DALL-E 2 创建一个 logo。他还要求 GPT-4 生成内容,并且为在社交媒体上打广告而分配资金。

这一噱头吸引了社交媒体的大量关注,他们想要投资他的 GPT-4 营销业务,最终法欧获得了 1378.84 美元。这显然是一个宣传噱头,但它也是一个很酷的例子,展示了如何使用人工智能系统来帮助人们提出想法。

大型科技公司真的希望你在工作中使用人工智能。这可能是大多数人体验新技术的方式。微软希望你在其 Office 套件中使用 GPT-4 来总结文档,或者让它帮你完成 PowerPoint 演示——正如我们在 1 月份预测的那样,这似乎已经是很久以前了。

无独有偶,谷歌也宣布将在其办公产品中嵌入类似的人工智能技术,包括谷歌Docs 和 Gmail。人工智能将帮助人们起草电子邮件,校对文本,并为演示文稿生成图像。

我采访了由 OpenAI 资助的迈克·吴(Mike Ng),他是 Ambience Health的联合创始人。这家初创公司使用 GPT-4 生成医疗文档,输入内容来自医疗服务提供者与病人之间的对话。他们的主张是,通过删除繁琐的工作内容,比如数据输入,来减轻医生的工作量。

GPT-4 比它的前几代更擅长遵循指令。但目前还不清楚它在医疗保健这样的领域的表现如何——在这个领域,准确性真的很重要。OpenAI 表示,它已经改进了人工智能语言模型中的一些已知缺陷,但 GPT-4 仍然没有完全摆脱这些缺陷。它还是会编造一些东西,并自信地把谎言作为事实呈现出来。它仍然有偏见。这就是为什么安全部署这些模型的唯一方法是,确保人类专家能够指导他们并纠正他们的错误。

美国普林斯顿大学的计算机科学教授阿温德·纳拉亚南(Arvind Narayanan)说,他花了不到 10 分钟的时间让 GPT-4 将 URL 转换为的代码。

纳拉亚南说,他一直在测试用于文本生成、图像生成和代码生成的人工智能工具,他发现代码生成是最有用的应用程序。他在推特上写道:“我认为用大型语言模型生成代码省时省力。”

在一个演示中,OpenAI 的联合创始人格雷格·布罗克曼(Greg Brockman)使用 GPT-4 根据他在餐巾纸上画的一个非常简单的设计图创建了一个网站。正如纳拉亚南所指出的,这正是这些人工智能系统的力量所在:将平凡、低风险、耗时的任务自动化。

里德·霍夫曼(Reid Hoffma)是领英的联合创始人和执行董事长,也是 OpenAI 的早期投资者,他说他使用 GPT-4 帮助撰写了一本名为《即兴创作:通过人工智能放大我们的人性》的书。霍夫曼认为这是 GPT-4 出版的第一本书。不过它的前身 ChatGPT 曾被用来创作大量的书籍。

霍夫曼在 2022 年夏天接触到了这个系统,此后他一直在写下他对人工智能模型在教育、艺术、司法系统、新闻等领域的不同应用方式的看法。在这本书中,他复制粘贴了他与系统互动的摘录,概述了他对人工智能未来的愿景,使用 GPT-4 作为写作助手来获得新的想法,并分析其回复。

最后的结论,GPT-4 是人工智能社区的一个很酷的新玩具。不可否认,这是一种强大的辅助技术,可以帮助我们提出想法,压缩文本,解释概念,并自动化日常任务。这是一个受欢迎的发展,尤其是对白领来说。

然而,值得注意的是,OpenAI 自己也在敦促人们谨慎使用该模型,并警告说它会带来一些安全风险,包括侵犯隐私,欺骗人们认为它是人类,以及产生有害内容。它也有可能被用于我们从未见过的其他危险行为。

所以,无论如何,我们可以对它感到兴奋,但不能被炒作蒙蔽双眼。目前,没有什么能阻止人们使用这些强大的新模型来做有害的事情,如果模型就这样被滥用,我们也没有什么办法让模型承担责任。

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注