wshuyi的个人博客分享 http://blog.sciencenet.cn/u/wshuyi

博文

如何高效使用 ChatGPT? 精选

已有 12815 次阅读 2023-2-14 15:25 |系统分类:科普集锦

流量

最近,ChatGPT 非常火。如果你刷社交媒体,大概已经被各种消息搞得头晕脑胀。从大佬到普通人,都对这个话题表现出浓厚的兴趣。就连 ChatGPT 为主题的学术研讨会通知,我都已经收到 3 份了。

参与到这个话题里,自然是有好处的。例如可以更容易获取流量。直言不讳地说,我也是这次 ChatGPT 热潮的受益者之一。在之前,我从来没有在一篇文章或者回答下面,收获如此多的阅读量。

但如果你一直在听别人谈论 ChatGPT,那你恐怕不是流量的获取方。说得直白一些 ------ 你就是流量。

我给你提个建议,就是尽早从猎奇甚至「站队」中走出来。更为高效地利用起 ChatGPT ,为自己获取竞争优势。

要达到这个目标,我觉得你需要做两件事情:

第一,摆正认识;

第二,上手操作。

下面咱们分别谈谈。

摆正认识

前两天,有一位科幻作家关于 ChatGPT 的文章很火。文中他打了个比方,说 ChatGPT 是互联网信息全集的有损压缩文件。一开始,我也觉得这个观点很新颖,至少观察和对比角度非常独特。但越往下阅读,感觉就越别扭。

别忘了,ChatGPT 的基础是 GPT-3 这样一个大语言模型,它刻画的是语言的规律,而不是去记录语言内容本身。如果咱们追逐的是对丰富数据的记忆力,世界上最强的先进科技的诞生机构应该是维基百科或者大型的图书馆与档案馆。ChatGPT 让人惊艳,并非是能把世界上已经产生的内容原原本本回忆出来,而是根据用户的具体需求创造新内容。

Chat GPT 不是搜索引擎。它可以根据你的特定要求输出一些代码。如果你运气足够好,这些新生成的代码甚至不需要人工调整即可正常运行。虽然现存的很多代码与之非常相似,都遵循相同的语法规则,但是新代码就是新代码,这些代码在网络上从未存在过。这种创造,是搜索引擎无法达成的。

ChatGPT 的惊人进步,并非来自于更高比率的「有损压缩」技术。它能寻找规律 ------ 寻找解决问题的规律,描述内容的规律...... 甚至还可能蕴含一些其他规律,只是我们目前还没有意识到,或者尚未尝试而已。

寻找规律,而不是记忆内容,真的很重要吗?

当然。

有的人记笔记喜欢高亮或摘抄书里的段落。但是已经有许多研究证明,这些做法其实没有显著意义。相反在记笔记的时候,根据新的上下文(context)做出转述(elaboration)反而更加重要,因为那是你自己的话,也包含了创造性。

我们原以为,只有人类才能进行有价值的创造活动,机器只是按照规程从事机械重复劳动,或者亦步亦趋地模仿。ChatGPT 似乎跨越了这一限制。至少在编程上,它可以直接给用户提供新的解决方案了。

所谓新的代码,和世上已存在的代码,差别兴许都不到5%. 但别忘了古人的名言「太阳下面无新事」。乔布斯甚至把「创造力」的概念说得更加直白:「创造力只是连接事物。当你问有创造力的人如何做某事时,他们会感到有点内疚,因为他们并没有真正去做,他们只是看到了一些东西。过了一段时间后,这些东西对他们来说似乎是显而易见的。」("Creativity is just connecting things. When you ask creative people how they did something, they feel a little guilty because they didn\'t really do it, they just saw something. It seemed obvious to them after a while.")

无视 ChatGPT 拥有的动态创造能力,只是将其当成有损压缩文件,是否合适呢?

让我们进一步想想,这位做出高妙比喻的作家,是否真正理解大型语言模型的本质?他是否知道语言模型的演进过程都发生过什么?模型是如何处理输入和输出的?

如果他对于上述问题都很清楚,就绝对不会把模型看作一个巨大的 Jpeg 文件,只负责简单的压缩和解压缩。

反之,如果他对于技术层面毫不了解,只去观察了一定数量的 ChatGPT 输出结果就匆忙做出判断,会怎么样呢?

作家就可能让你对新事物产生误判。例如说,你会因为这位作家不恰当的类比,觉得 ChatGPT 只是记忆力拔群,因此会觉得它和你的工作没有关系。你很可能因此错失机遇。

我们刚才说的,不过是读者可能被误导的方向之一。其实你觉得「ChatGPT 跟我无关」,损失不一定太大。更多的作者激情四射,可能把你引到另一个极端 ------ 觉得 ChatGPT 是强人工智能的降临标志,甚至把它当成一个神话顶礼膜拜。

ChatGPT 不仅「出圈儿」,而且出得太快。曾经有炒股高手说过,如果你见到菜场大妈向你推荐股票的时候,该知道牛市到顶了。有位朋友发了个苦笑不得的表情,动态里写着他「从来对高科技无感的厨师老爹也给他转发 ChatGPT 的资料」。我看到后心里咯噔一下 ------ChatGPT 才出来两个月,莫非这波就已经到顶了?

或许吧,但这真不能算是 ChatGPT 的错。OpenAI 官方至今并没有做出任何显著夸大其词的虚假宣传,但是普通人的预期着实「虚火太旺」了。

许多人尝试之后,发现能够从 ChatGPT 中受益,于是为它免费宣传。宣传触达了更大群体后,大众对 ChatGPT 功能认知就逐渐走了样。这就如同有针对性的特效药被传的神乎其神后,就被成了万灵药甚至「大力丸」。

这些日子,不少人在讲如何利用 ChatGPT 赚钱。例如有人用它建立网站,帮助别人做简历。这样的应用,至少还算作有价值。但是他们赚到的那点钱简直是小巫见大巫。有些人直接利用信息不对称,才真是大赚特赚。我在朋友圈里面看见一个截图。虽然我并不完全相信里面的数字,觉得有吹嘘成分,但至少这种现象应该是真实存在的。

(转载自朋友圈)

有人会脱离目前 ChatGPT 的能力实际,去做各种各样不负责任的尝试。之后这种挫折传播开,就会给大众带来深深的失望。例如下面这个对话截图,没有来源信息,你当成段子看好了。

(转载自朋友圈)

对于一个爆火的科技产品来说,这些遭遇可能难以避免。只不过我们应该警醒,避免兴奋过头儿,跟着部分人一起癫狂。

这也不是,那也不是,究竟该如何摆正对 ChatGPT 的认识呢?

其实,ChatGPT 一点儿也不神秘。你不必了解大语言模型的架构,甚至连神经网络的基础单元如何联接也不必了解。这又不是考试。

你只需知道,它是一次成功的人工智能工程化尝试。

人们的激动与兴奋,来自于一个新 AI 产品真的可用,并且能给自己提供帮助。2022 年 AI 领域发生了许多事情,可能在技术编年史上留下一笔。但真正激动人心的不是人工智能理论乃至研究范式方面突破,而恰恰是「人工智能工程化」的成功。

「工程化」是什么?是科技进步带来的产品让普通人看得见、摸得着、用得上。1970 年代的个人电脑是工程化,1990 年代的互联网是工程化,2007 的 iPhone 为代表的智能手机是工程化,如今你刷脸进楼门也是工程化。

2022 我们见识到的,是 DALLE2, 是 Midjourney ,是 Stable Diffusion,也是 ChatGPT。

(本文的题图即用 Midjourney 绘制)

Yann Lecun 说 ChatGPT 不是什么新技术,OpenAI 的技术实力不如 Google 。从单纯的学术角度来讲,他说的没什么不妥。但是历史会记住,是 OpenAI 而不是 Google 先做出来了 ChatGPT ,从而引领了此次 AI 破圈的风潮。

我们经常会对一些火爆事物的发明者产生特别的崇拜,认为他们每一步都踏在了正确的道路上,战略规划清晰异常。但如果你了解幕后的故事,就会发现许多成功根本就不是精密设计运筹帷幄的结果。

拿 ChatGPT 来说,OpenAI 最初想的想法是内部测试成熟之后,再发布这个聊天机器人。但是在模型训练过程中, OpenAI 遇到了巨大的困难,甚至想过要放弃或至少把目标做出大幅调整。为什么呢?

因为 ChatGPT 内部测试过程很不顺利。OpenAI 采用了一种被称作 RLHF (Reinforcement Learning from Human Feedback) 的技术,就是依赖真人的反馈来训练和校准模型。

(图片来源:Huggingface 网站

可是 OpenAI 找来的内测人员,坐在 ChatGPT 前面不知道该说啥。尬聊的结果,是项目进展很不理想。OpenAI 干脆决定不等了,直接用一种半成品的形式开放招募测试。没错,每一个「研究预览版」的 ChatGPT 用户,其实都是 OpenAI 的免费测试员。这两个多月里,全球的「测试员」们夜以继日为模型的完善不断做出了贡献。测试员规模快速增长,直到 OpenAI 不得不收费,才能避免服务器被挤爆。

ChatGPT 的发布其实是个风险很大的决定。种子用户的选择一般会避免如此草率。一来模型在最初的热心用户群体里如果出现口碑翻车,后面挽回很困难;二来是用户输入和反馈数据很有可能会对模型造成污染。当年某个大厂的对话机器人没几天学了一通「脏口儿」便是前车之鉴。

不过很显然,这个决定的后果是有惊无险 ------ChatGPT 不仅没有口碑翻车,而且搞得别的大厂发布红色警报,甚至股票价格都发生大幅波动。

(2023.2.11. 《经济学人》)

你看,ChatGPT 只是一个依靠许许多多用户的帮助,快速进步的大语言模型。我们不需要过于吹捧它,也不必跟着别人一起把它认定为一个噱头。摆正了认知之后,我们才好开始下一步 ------ 上手操作。

上手操作

我的第二个建议,就是不要人云亦云。相信自己的眼睛,相信自己的双手。去试试 ChatGPT,然后多根据实践结果总结和迭代,真正用它为你服务。

我目前使用它,主要包括两块。一是写作,二是编程。

先说写作。

写久了,你很容易会遇到 "writer\'s block" 这样的创作者瓶颈。我在尝试用 ChatGPT 来突破它。例如,让它帮你思考一些例子,来支撑自己的论断。例如说我写着写着突然想起来,自己举的这个例子不大充分,有没有更好的例子?倘若以前,这就意味着你需要进入搜索引擎,输入关键词,然后对着浩如烟海的结果慢慢筛选。但是现在,你可以这样告诉 ChatGPT「补充例子,论证上面的论断」。

我觉得这里的例子虽然不能直接使用,但对作者有启发。例如说人脸识别这个事儿,已经成了「日用而不知」。我几乎每天都要用这种方式验证付款,但是写作时我确实没有第一时间想到用它作为 AI 工程化的例子。

如果你觉得例子不够好,也没关系。让它接着举其他的呗。

除了实际的示例,ChatGPT 也善于去查找名人名言。例如说我本文的时候,想到了乔布斯的一段话,和创新有关。但是一时有些发蒙,想不起来里面的关键词,于是干脆让 ChatGPT 帮我去回忆。

看了一下,觉得都不是。没关系,让 ChatGPT 继续说不就得了?

一下子,我就发现第 6 条是自己想要的。好玩儿的 ChatGPT 给出的名人名言里中英文都齐备,我连翻译的工作都省了,直接贴进来就好。

有的时候,我甚至发现 ChatGPT 有「通感」能力。例如说你提到某种现象,可以让它去找到类似的情况。例如下面这个例子里,我分析了 ChatGPT 这个例子,但是就在琢磨押着相似韵脚的历史事件还有啥呢?直接问 ChatGPT 好了。

我觉得答案里面用互联网泡沫用来形容大众的期待过高,还是比较贴切的。

只不过你需要注意的是,不能够对于 ChatGPT 给出的结果不加甄别就去利用。好比说,下面这个答案,你一眼看上去,能否发现问题?

问题其实还是非常明显的。而且这两条之间已经自相矛盾了。DALLE 究竟是谁推出的?Facebook 还是 OpenAI ?我把 ChatGPT 这种错误回答情况,称作「一本正经胡说八道」。你会发现,他其实对答案并没有把握,但是回答起来的口气简直就是「斩钉截铁」。如果你在选用的时候不加取舍,将来文章发布或者书籍出版之时,就很尴尬了。所以选用 ChatGPT 答案的时候,应当足够审慎。

另一个应用,是编程。

一步步提要求,不断改进的例子,你可以参考我的这段 「如何用 ChatGPT 编写爬虫」视频,此处不再赘述。

不过我最近发现了一个更有意思的事儿,想跟你分享一下。上面写爬虫的例子里,还需要我显式说明 ChatGPT 需要「怎么做」,也就是描述流程步骤。其实你还可以用另一种方式跟它沟通,就是直接告诉它「干什么」。也就是给它看一个例子,然后让它按照例子来编写程序。这其实就是让 ChatGPT 去「主动学习」了。

例如下面例子里,我请 ChatGPT 把一段文本里面出现的特定内容进行替换。有趣的是,这次我没有告诉它具体的执行步骤,而是给它个相对模糊的例子。例子里面出现的 ... 并非真正的文本,而是代表了一种任意性。

尝试后,我发现代码运行很顺利,文本替换成功。我非常兴奋,并不只是因为 ChatGPT 帮我解决了眼前这一个具体的问题。而是因为有了这个发现,以后让 ChatGPT 帮我处理一些机械重复的文本处理工作,就更加得心应手了,因为给例子就成啊。

甚至,我还把这个发现应用在了其他方向。如果你感兴趣的话,欢迎阅读 我的小报童专栏里这篇文章

小结

ChatGPT 讨论热浪中,有许多种不同的声音。千万不要陷入其中被误导。你觉得 ChatGPT 毫无新意难堪大用,可能会错失竞争优势;你觉得 ChatGPT 无所不能,也会癫狂而后深深失望。摆正认识,把它当成一个有趣的大语言模型,一次 AI 工程化的成功开端,专注于尝试如何利用它改进自己的工作流程,才能真正获得益处。

加油,祝人工智能使用愉快!

如果你觉得本文有用,请帮我推荐到首页

如果本文可能对你的朋友有帮助,请转发给他们。

欢迎关注我的专栏,以便及时收到后续的更新内容。

延伸阅读




https://blog.sciencenet.cn/blog-377709-1376224.html

上一篇:ChatGPT 来了,你准备好了吗?
下一篇:如何用 GPT-4 帮你写游戏?
收藏 IP: 221.197.56.*| 热度|

10 李毅伟 许培扬 崔锦华 汪育才 高峡 李升伟 柏舟 guest56055618 guest13100281 xiaohanghang013

该博文允许注册用户评论 请点击登录 评论 (3 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-11-23 15:40

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部