AI 的启示(唯物篇)
因缘
ChatGPT上线🌐的第一天,我下班到家立即打开电脑开始体验,一口气竟然聊到后半夜,虽然最初的版本“智商”还有点不在线,但已经可以初探 LLM 的未来了,那晚的感受可以用“惊喜万分”🤩来形容,以至于整晚我几乎没能睡着💤。
在接下来的一段时间里,我一直在研究相关的问题,一个问题始终困扰着我,那就是“🤔为什么?”,为什么 transformer 这个如此简洁的架构,竟可以展现出”智能“。
我尝试整理出一套理解AI的思路,希望能解释一些疑惑。
以下是我的观点(仅限于唯物主义角度):
- 🧠 人脑其实也很简单
- 💡 人类所理解的智能,其实一直处在很低的水平
- 🤖 可以用AI的训练原理来理解人脑的学习过程
- 🔧 可以用AI的训练原理来提升人的综合能力
🧠 简单的人脑
如果你相信人类是自然选择进化而来的,应该会理解生物的各种器官只是”好运“的幸存者,大脑🧠相对于其它器官是否是个”异类“?其它器官的结构和功能如此简洁明了,大脑为什么会被认为是异常”复杂“的呢?
大脑被认为复杂的部分是意识,如果你是一个唯物主义者,意识只是大脑活动的结果,并不是真实存在的实体,那只要关注物质的部分就可以了,大脑的物理结构和其它器官一样,也很简单
💡 人类真的那么聪明吗?
我们经常自视为地球上最聪明的生物,但实际上,我们在解决问题时往往只限于已知的方法,忽略新的可能性。我们追求短期利益,忽视长期影响,并常常高估自己的智力,误将理解当作掌握。尽管人类取得了显著成就,我们仍需谦虚地看待自己的智力,并以此为基础去学习和提高。
这让我想起了小时候对蚂蚁🐜的观察:
小时候,我一直对工地上成群结队的蚂蚁感到好奇。对于蚂蚁来说,这个地方变化太快,它们的“家”屡遭破坏,但它们仍然坚持在原地修复,而不是寻找更适宜的居住地
长大后,我意识到我们人类在许多方面并不比蚂蚁更聪明。面对不断发生的自然灾害🌋,我们仍然固守在地震带、洪水区🌊、沙漠等地方,重复着破坏与重建的循环。
自然界中会盖窝、会迁徙的动物数不胜数,人类发明出来的千奇百怪的东西真的比鸟儿盖窝、蜜蜂筑巢更高级吗?当外星智慧生命来到地球时,他们可能只会说:”哦,这里有各种各样的虫子,有的会飞,有的不会飞还要造些东西硬飞,飞的还不太好“
从 AI🤖 的原理,来理解”人脑“🧠
目前让机器拥有”智能“的核心是神经网络,我们抛开一些细节不谈,尝试用简单的方法理解一下什么是神经网络。
🧑🍳 它是爱听意见的厨子
我们可以将神经网络比作一个厨子🧑🍳:
- 你提供了西红柿和鸡蛋,让他做一道西红柿炒鸡蛋
- 品尝后发现味道不合口味,你再告诉他你期望的口味如何
- 然后,他就会调整自己的烹饪方法(例如少加油、少加盐)
- 你让他做十万道菜,通过不断重复这个过程,就能训练出一个烹饪技艺高超的厨子
📚 它是我们熟悉的方程式
记得初中的方程式 $z = ax + by$ 吗?
- $xy$是输入,$z$是输出,$ab$是参数
- 设定$a=1, b=2$,给出一组$xy$值,就能得到一个$z$值
- 如果z值偏离预期,就调节ab值使z更接近正确答案
- 通过大量的xy输入和z值纠正,最终ab稳定,得到解题公式
🤖=🧑🍳 ChatGPT也是个厨子
在前两个例子中,最终训练出来的厨子和解题公式在 AI 领域被称为“模型”。我们可以训练出各种模型来解决各种问题,例如:识别照片中的物体、对图像进行分类、预测一段文字的接下来的内容。
让我们再来说说 ChatGPT,简单点说它仅仅是一个推测下一个字的猜字公式,多说一点:
- 它拥有数千亿个参数
- 使用了非常有创意的注意力机制
- 把完整文章的一部分遮住让它猜测遮住的部分并用正确答案纠正
类似这些很有意思的小创意组合起来,竟然可以训练出一个像“人”一样会聊天的模型
🚀 如何应用在生活中,从中受益
自从 ChatGPT 3.5发布以来,LLM 迎来了井喷式爆发,各种公司甚至小团队都训练出了自己的模型,效果越来越好
总结一下大家提升大模型能力的经验,主要方法有:
- 📈 增加模型参数
- 🌟 提高训练数据的质量、多样性
- 🎨 多模态训练(更多种类的数据结合,比如图像、视频、音频、文字等)
我们把这几个点对应在训练自己或培养孩子的场景里看:
📈 增加模型参数
为了让大模型能运行在不同的设备上,一般开源项目都会提供多个版本的模型,区别只是参数个数,对比看 70B 的 llama3 就是会远远好于8B 的
模型参数量可以类比为人脑神经元连接数量,先天因素非常重要,后天也有提升的方法,包括:
- 🎓 学习新技能
- 🏋️ 进行身体和智力锻炼
- 👥 保持社交互动
- 🍎 摄取营养丰富的饮食
- 💤 充足睡眠
- 🧘 有效管理压力
🌟 提高训练数据的质量、多样性
对于人类来说,我们每天看到、听到、感受到的所有东西都是训练数据。如果我们的目标是提升大脑的综合能力,我们可以关注以下几点:
-
质量:
- 🏛️ 阅读历史上经过验证的名著,而非轻浮的小说
- 📚 系统地学习专业教材或论文,而非接收七大姑八大姨转发的各种知识点
- 🎥 观看高评分的纪录片,而非只提供短暂情绪价值的短视频
-
多样性:
- 从 LLM 提升的情况来看,增加知识面可以提高模型的泛化能力,从而有效提升综合解决问题的能力
- 了解各种不同学科、不同类别的知识
- 尝试做自己之前从来没做过的事
🎨 多模态训练
对于人类而言,多模态包括视觉、听觉、触觉、味觉和嗅觉,同时使用多种感知能力就是多模态训练。
在幼儿园入学家长讲座上,教育专家出了一道选择题。题目问的是哪个活动最能帮助开发孩子的大脑:看电视、看书、听音乐,还是自己吃饭。专家的答案是自己吃饭。这是因为在吃饭的过程中,孩子的眼睛在看,手在动,鼻子在闻,舌头在尝,耳朵在听。所有的感官器官都被调动起来了。
所以,更好的做法是:
- 🎣 亲自去钓鱼,而非玩钓鱼的电子游戏
- 🥾 亲自去爬山,而非隔着屏幕看风景
- 🏰 亲自去走走古人走过的路,而非纯靠文字想象
📚 补充:阅读依然是效率最高的方法
虽然现代科技提供了更多种媒介,但我认为人类对于文字的阅读依然是效率最高的方法,试想一下你读一部小说需要花多长时间,如果把这部小说的所有内容拍成电视,要多少集才能播完
❓ 误区:记不住是不是白学了?
我曾经误以为读了那么多书、背了那么多诗词歌赋,如果记不住就等于白学了。但在和ChatGPT的交谈中,我发现它能解决各种问题,却连一首《木兰辞》都背不对。这让我多年的疑惑仿佛突然解开,原来在学习过程中,我的大脑结构已经发生了改变。即使我无法记住原文,甚至说不出书中的大概道理,但这些大脑的改变仍然可以影响我的行为,给我提供帮助。
🎯 结语
在这个发展快速的时代,我们可以从AI中学到很多。了解AI不只是为了跟上技术的步伐,更是为了更好地理解我们自己,发掘我们的潜力,提升我们的生活。
刻在德尔菲神庙的箴言“Know thyself“(认识自己),指引着一代又一代的人,而今天,我对于自己的认识又多了一点点
💡 随着AI技术的不断发展和渗透,人们会开始思考更加深远的问题,比如:
- AGI 会像人一样有意识吗?
- AGI 如果表现的和人完全一样,他是真的人吗?
- AGI 要拥有人权吗?
- 人类如此渺小,我们要如何保持乐观?
💡 本文仅从唯物主义角度进行思考,后续再尝试补充其它角度的思考,从本文中你可能也发现了一些很值得讨论的问题,比如:
- 意识是什么?
- 意识和物质是什么关系?
我会在另外的文章中尝试探讨