不可不谈的AI
最近由于工作,接触到了 AI, 就是所谓的 LLM (large language model )。而确实使用后,觉得还不错。有太多的要谈。但我先谈最重要的。
人类科技发展,我个人认为最大的两个,就是搜索引擎和现在的 AI 聊天。这两个就是完全改变我们人类生活的科技。除了搜索引擎,其实还有电子邮件、社交媒体、通讯软件、视频的盛行,但这些社交媒体类的,基本上只是代替过去的科技,如邮件、社交生活、电话短信、电视等。
而搜索引擎则改变了我们的生活方式。如讲师讲课,就对学生说“google it”。我们要知道什么就搜索;要买东西,搜索;要知道某简酒店好不好,搜索;要知道怎么解决问题,搜索。反正什么都是搜索。因为搜索引擎透过互联网的连接,让我们可以搜索到各种各样的东西,好的坏的都有。
而现在的 AI 聊天,这是人类革命性的展开。最让人费解的是 LLM 就是个黑匣子(black box)。科学家目前也无法理解 LLM 的内在究竟是如何运作。AI 聊天神奇的地方就是它可以解释给你听你所提出的问题。举个例子,我可以给它我的 project 基本介绍,然后给它一小段我的 code,要它帮忙解决其中的 bug,并问究竟那个 bug 是什么原因造成的。它能够“理解”状态并给我提议,而且是很 specific 的解决方案,并不是笼统的答案。因此我说,第一个革命性的科技就是“找”;而第二个革命性的科技就是“问”。
因此,什么时候我们需要用 AI 聊天?什么时候用搜索引擎?AI 聊天能够取代搜索引擎吗?我说,AI 聊天不能也不应该取代搜索引擎。因为两种科技的性质不一样。我要“找”东西的时候,我就应当用搜索引擎;我要“答案”的时候就直接“问”。搜索引擎就像去图书馆找书,但不知道是哪一本。AI 聊天就像在图书馆问图书管理员,介绍哪些书,有什么内容等,根据图书馆管理员的资历不同,他们会给不同的答案,但资料都来自图书馆。
天主教有发表一篇关于 AI 的文章。我觉得每个人都应当看,尤其是父母,因为你们的孩子将会面对一些你闻所未闻的科技,近乎 Terminator 或 Matrix 那样的科技。
59. […] Yet, it must be understood for what it is: a tool, not a person. This distinction is often obscured by the language used by practitioners, which tends to anthropomorphize AI and thus blurs the line between human and machine.
ANTIQUA ET NOVA. Note on the Relationship Between Artificial Intelligence and Human Intelligence (2025)
因此,用AI就必须了解自己在使用AI。AI 不是人,有些词汇不需要应用来 AI。正如 command line 或command prompt,我们输入指令,然后得到结果。而AI就是能够用 natural language 来互动的工具。什么词汇不应当用于 AI ?“请”、“谢谢”、“对不起”、“不用客气”。“谢谢”,“对不起”,“不用客气”是根本不需要的,因为这是对人说的,因为你尊重他人。让他人知道你的感激之情,所以你说“谢谢”。让他人知道你后悔伤害了对方,所以你说“对不起”。至于去“请”,因为你要求对方做某件事,并需要对方的同意。“请”再加上问句,如“请你帮我造句,好吗?”又或是“可以帮我造句吗”,这是对人说的,因为征求对方的意愿,这是礼貌的。如果你认为应当尊重 AI 因为这会让机器学习更多正面的东西,但我觉得这是不必要的。因为这最终会导致两种结果,“人性没有尊严,因为可以被 AI 取代”或是 “AI 需要得到尊重,每个 AI都是独特的,不可取代”。
但像我习惯用“请”,如 Please help me on this function。那要怎么修改?就把它写成 Now help me on this function。中文可以写成 “帮我解决这个函数”之类的,去掉“请”字。在生活中,你不会这样对人说话,因为那时超没礼貌的,不尊重人。像那些有钱人就是这种语气,我有钱,我是大老板,我要你做什么就做什么,你这个废物我随时可以找人代替你。但也不是叫你就要用那种语气跟 AI 互动,因为这是没有修养的。人是不可取代的,就算你是老人或小孩。若人把你当成 dispensable, replaceable, repeatable, 你就只是个东西,没有人性的尊严,那是让人生气,心痛的(引用自 Dr Christopher West)。就像当年我辞职的时候,我的上司对我说,“哦,你辞职啊?不要紧反正有新人来了。”
个人认为 AI 有两个风险。第一就是之前所说的。人性的尊严和 AI 所扮演的角色逐渐模糊。就如去年马来西亚的艺人骤然去世,然后制作公司就以 AI 来重现那位艺人的歌唱方式。这跟观赏已故之人的作品是不一样的,因为 AI 的目的是为了重现或是代替逝者。而不是以逝者本身的作品为重点。就像有一天,你的亲人突然离开了。你伤心难过,就将他的一切资料,包括他的生活习惯,起居饮食,个性等,数据化然后让 AI 学习,然后复制得就和他一样。哪你就会认为,你的亲人还在你身边,而那 AI 就是你的亲人。这甚至还可以更广泛地应用。老婆跟人家走了,就制作一个跟老婆一样,但却打不还手,骂不还口的性格的AI。
第二个风险是 divination。AI 通过大数据学习,可以上知天文,下知地理。以史为鉴,可以知兴替。Deus ex machina,人造机神。如果 AI 可以预测未来,并有 99% 的准确率,那你就可以做各种各样的事了。人不再用通灵板(Ouija board)、钱仙、碟仙、占卜、问米、找灵媒。你甚至可以问你的未来,前世今生,爱情事业学业,甚至与死者对话。简直就是不敬天主的至高点。
正如互联网和搜索引擎如何改变人的生活方式,逐渐地,AI 也将会成为我们生活的一部分。学生写作业的方式也将会有所改变。可以是 AI 帮忙写的论文,又或是混合了自己和 AI 所写的论文。接下来就会有更多前所未有的科技接踵而来。
P/S:另外一点, AI 就是透过大数据进行机器学习。机器学习就是 generalization。因此使用 AI 的时候纵然你会要求 specific,但它也只是在那个 specific 的领域中用它所 generalized 数据来解决问题。因为它只能由真实的数据中学习。 AI 无法自行学习,这会导致 model collapse。