ChatGPT 和其它 AI 使用后的感想
经过实际使用 ChatGPT 和其它的 AI 一段时间后,我现在可以评论了。我先说优点,它的优点真的是让人叹为观止。
-
应用在 debug 上,它能解释哪里有问题,怎么 fix
-
应用在编写程序上,它会建议怎么写。如果问 SQL,它会帮你写。甚至你还可以叫他解释为何这样那样,它会解释。
-
学历史,如马来西亚历史等,它可以讲解。有什么疑问,都可以问。如果我以前上历史课能够这样学习,绝对可以拿高分。
-
问科学问题,如物理化学,它能够讲解。
-
探讨养生、健身、运动、疾病等问题,它会提出各种建议。超级方便。尤其是“寡人有疾”,有些难言之隐可以问。当然,AI 不是权威。但我说,你遇到烂医生,打一针病不好,手还黑青。
-
一般简单疑问,都可以问。如我问为何 USB charger 会写上多个 voltage,它可以解释。
以上是优点。那缺点呢?当然有。因为它不是万能的。
-
你叫它用 Lilypond format 写首歌,如 Scarborough Fair,那是不能的。不堪入耳。就算我用另一个AI, Claude,它也不能。
-
我跟它下中国象棋,用棋谱记法如“炮2平5”,它会跟我下。但它没有下棋的逻辑。大概乱下的。它会突然来个“炮5进1”,而前方还有兵的。
-
叫它讲不是很有名的小說,如《蜀山剑侠传》,如果没有开 search 功能,它会乱讲,什么李逍遥、林月如的名字都会出现。而讲《三国演义》它就能够讲得比较正确。
-
它不会做选择。但这其实是好事。因为如果它会做选择,就有点可怕了。比如我跟它玩文字游戏,因为它会一直问我想走怎样的路线。我就尝试了问回它,如“如果角色 A 做这样的行动,故事应该会这样这样发展。你想要A做怎样的行动?”结果它继续接着讲故事,就好像不明白我的用意。但如果我把问题改一下,“如果角色 A 做这样的行动,故事应该会这样这样发展。帮我做选择”,那它就会分析然后提议。
-
如果我的问题开头是“なに?”,它会以为我说日文,就以日文回答我。并不理解我的幽默。
《金瓶梅》
有个非常有趣的。叫它讲解小说时,我让它讲述《金瓶梅》。但故事中它没有提到“梅”。我就问,《金瓶梅》应该还有一个人物是“梅”,而它告诉我并没有。然后我就去考察,应该有一个叫“龐春梅”的。然后我继续问,它还是跟我说没有。我就觉得奇怪。印象中《金瓶梅》是3个人。然后我用 Gemini 和 Microsoft Copilot 问,《金瓶梅》有没有“龐春梅”,而这两个比较不出名的 AI 竟然说“有”。我就很好奇,难道 ChatGPT 在这么简单的事会弄错?我就尝试了用 Claude。Claude 也是说没有,但Claude说,有“春梅”,但没有“龐春梅”,之后又说有“庞春梅”,而没有“龐春梅”。
之后我去找在线小说,确实没有“庞春梅”,而有“春梅”。我就再问 ChatGPT 有没有“春梅”, ChatGPT 说有。
其实,ChatGPT 和 Claude 都没有弄错。《金瓶梅》原著的确没有“庞春梅”。因此我得出的结论:(一)Claude 不会分辨繁体简体。(二)ChatGPT 的训练(model training)中,并没有关联到人物名字与故事名字,甚至是“庞春梅”与“春梅”都无法关联。
文字游戏
另一个有趣的是,我在其它文章看到有人说与 AI 玩文字游戏。我也尝试了一下。体验其实还不错。但功能很有限。因为我发现,不管我的选项如何,故事都会以“正向”发展。如我选择开宝箱,基本上游戏不会让我 game over 的。因此,我就要 ChatGPT 加上惩罚机制。虽然它好像“明白”,但实际体验还是没有惩罚机制。我甚至还要求加上 HP,可以查看角色的能力。它会提供这些功能,但没有逻辑或规则可言。它实际上不会让你体验到真正的游戏机制。
切记一点,这个是已知的 limitation,就是 ChatGPT 无法记得所有的上下文(context),所以讲故事讲得越长,就会离题了。它不会记得之前出现过的角色。
总结
ChatGPT 在文字方面知识,是顶尖的。程序编写、科学、历史、医学都能够解释分析。而在艺术方面,如音乐、棋类,这些纵然有规律和逻辑,因为没有大数据(big data)以文字的方式来训练,所以 ChatGPT 无法在这样的领域中表现得优异。
而文学类,纵然 ChatGPT 好像很有创意,但毕竟这些创意也只是个缝合怪,无法更深入地表达情感。所以,如果你要拿 ChatGPT 来写有深度的剧本,你最后只能得到名叫“深度”的四不像,完全没有深度。这是我在和 ChatGPT 玩“故事接龙”得出的结论。它知道我所讲的故事,但它的故事不外乎就是各种奇幻的剧情,如突然出现一个黑衣人什么的。并不会有那种遇到一个可爱的女主角之类的。名字很特别,招式名称也很特别,但就是没有那个味。所以,玩游戏接龙,就会觉得 ChatGPT 其实很肤浅。文学方面真的不行。
最后的最后,我的结论是 ChatGPT 所优异的地方,正是人类有非常规律的地方。简单的例子,就是为何 Wikipedia 这种任何人都可以更改的百科全书,却能够维持的那么好?当然你可以说有人管理。但为何有人管理还能够发展得这么好?你的国家也有人管理,你觉得好吗?原因就是,这些知识是有秩序的(ordered),不是混沌的。因此 ChatGPT 在训练后,能够分析其中。如 SQL,为何 ChatGPT 能够分析某个 query,因为那是可分析的。而文学小说之类的,是不容易分析的,未必有一定的规律,因此 ChatGPT 就不能理解其中含义。而人类今天有这样的 AI,人类的秩序正是其中的因素。如可这世上天天发生战争, 没有和平,就没有人把秩序的资料整合成大数据,然后 AI 没有在训练的东西,只能以混沌(chaotic)的东西来训练。基本上也就无法完成了。