这 是一个3
一个字迹歪斜 28x28像素 超低分辨率的3
但你的大脑把它辨认成3 一点问题也没有
我希望大家能稍微感叹一下 人脑"竟然"能如此轻而易举地完成这项工作
你看这个 这个 和这个图 我们都认作3
但他们每个图中各个像素的值是大相径庭的
你眼睛中 看到这张3时激发的光感细胞
和看到这张3时激发的细胞有着千差万别
但你大脑皮层中小小的一块处理视觉的智能区域
却居然能够把这些图像处理成相同信息
同时还能把其他的图像解释成各自不同的信息
不过 要是我现在叫你 嘿 你滴 给我写个程序
输入一个28x28像素的表格 输出一个0到9之间的个位数
来判断一个图片里到底写着哪个数字呢
好吧 这个原本轻松的工作一下就变得如登天一般难了
大家又不是山顶洞人
想必我没有必要再给大家展望一遍
机器学习和神经网络对当下和未来有多么息息相关
但假设大家对神经网络没有任何背景知识
我想来给大家介绍下神经网络究竟是什么
用视觉化的方式展示它的工作机制
把它作为一门数学 而不是单纯的网红热词来对待
这系列讲完 我希望大家能够理解神经网络为什么会是这样的结构
让大家再度听说神经网络"学习"之时 能够明白这究竟代表了什么
本期视频仅仅会介绍神经网络的结构
下一期将会讨论它的学习原理
接下来我们将会手把手搭建一个
能够识别手写数字的神经网络
这是一个用于入门的经典范例
而这里我并不会标新立异的原因
是因为这两期结束的时候
我会附上一些不错的补充学习资料
你能下载它们的代码 在自己的电脑上捣鼓
神经网络的变种非常非常之多
近些年来对于这些变种的研究更呈爆发的态势
不过在这几期入门介绍的视频中
咱们只会讨论最简单 不加料的原味版(多层感知器MLP)
我们得先理解经典的原版 才好理解功能更强大的现代变种
而且相信我 光理解原版就够咱们吃一壶的了
不过即便这最简单的版本
就已经能来识别手写数字
对于电脑而言已经很棒了
与此同时
你们也会看到神经网络有时也会有不尽如人意的地方
顾名思义 神经网络之名来源自人的大脑结构
我们来一层层剖析一下
它的神经元是什么 神经元又是如何连接起来的
目前说到神经元
我想要大家把它暂时理解成一个用来装数字的容器
装着一个0到1之间的数字
仅此而已
看例子 这个网络一开始的地方有很多神经元
分别对应了28x28的输入图像里的每一个像素
总计784个神经元
神经元中装着的数字代表对应像素的灰度值
0表示纯黑像素
1表示纯白像素
我们把神经元里装着的数 叫做"激活值"
大家可以想象这么一个画面
激活值越大 那么那个神经元就点着越亮
这么些784个神经元就组成了网络的第一层
现在我们跳到网络的最后一层
这一层的十个神经元分别代表0到9这十个数字
它们的激活值 同理都处在0到1之间
这些值表示系统认为输入的图像对应着哪个数字的可能性
网络中间还有几层"隐含层"
暂时我们就把它看做一个大黑箱
里面就进行着处理识别数字的具体工作
这个网络中 我选择加两层隐含层 每层有16个神经元
我得承认 这些设置都是随便选的
结构选择两层隐含层的理由过一会我自会来解释
而选择16个神经元无非是显得好看罢了
实际应用中 在网络的结构上 我们有很大的调整实验的余地
神经网络运作的时候
上一层的激活值将决定下一层的激活值
所以说 神经网络处理信息的核心机制正是
一层的激活值是通过怎样的运算 算出下一层的激活值的
某种程度上讲 它想模仿的是生物中神经元组成的网络
某些神经元的激发 就会促使另一些神经元激发
当前我给你展示的神经网络已经被训练好 可以识别数字了
我来解释下这是什么意思
这表示 如果你在网络输入层的784个神经元处
输入了784个代表输入图像各像素的灰度值
那么 这层激活值的图案会让下层的激活值产生某些特殊的图案
再让再下层的产生特殊的图案
最终在输出层得到某种结果
而输出层最亮的那个神经元就表示神经网络的"选择"
它认为输入图像里写着这个数字
在我介绍网络每层间如何影响 训练过程的数学原理之前
我们先讨论下 凭什么我们就觉得这种层状结构可以做到智能判断
我们在期待什么呢
我们到底期望这些中间层最好能做些什么呢
当我们人类在识别数字的时候
我们是在组合数字的各个部件
9 就是上边一个圈 右边再一竖
8 就是上边一个圈 搭着下边一个圈
4 就当能拆分成3条直线 诸如此类
在理想的情况下 我们希望倒数第二层中的各个神经元
能分别对应上一个笔画部件
这样一来 当我们输入一个9或者8这种带圈的数字时
某一个神经元中的激活值就会接近1
而且我并不特指某种样子的圈
我是希望 所有这种位于图像顶部的圆圈图案都能点亮这个神经元
这样一来 从第三层到最后一层
我们只需要学习哪些部件能组合出哪个数字即可
当然 这样一来我们就引来了更多的问题
例如 要如何识别这些部件呢
甚至哪些部件才算正确的呢
而且我还没提到上一层网络是如何影响下一层的
不过暂时请先陪我把话题讨论完
识别圆圈的任务同理可以拆分成更细微的问题
一种合理的方法便是首先识别出数字图形中更小的边
比如像1 4 7中的这种长条
就是一条长边嘛
或者把它当做几条短边组合起来的图案也可以
于是我们希望 也许网络第二层的各个神经元
就能对应上这些各种各样的短边
没准当这样子的图像输入进来的时候
它就能把所有关联短边的八到十个神经元都给点亮
接着就能点亮对应顶部圆圈和长竖条的神经元
最后就能点亮对应9字的神经元
至于咱们的网络是否真的能做到这一步
等我解释完网络如何训练 再来回头讨论吧
但这就是我们的希望
希望这种层状结构能完成的目标
更进一步讲 假如神经网络真能识别出这类边缘和图案
它就能很好地运用到其他图像的识别任务上来
甚至不光是图像识别
世界上各种人工智能的任务
都可以转化为抽象元素 一层层的抽丝剥茧
就比如说语音识别
就是要从原音频中识别出特殊的声音
组合成特定的音节
组合成单词
再组合成短语 以及更加抽象的概念
回到神经网络工作原理的话题上来
试想一下 你要设计上一层中的激活值
到底会如何决定下一层中的激活值
我们需要设计一个机制 可以把像素拼成短边
把短边拼成图案
或者把图案拼成数字 等等
这个例子里 我们来放大关注其中一个
我们来设计 让第二层中的这一个神经元
能够正确识别出图像中的这块区域里 是否存在一条边
现在我们就需要知道这个网络的参数
你应该如何调整网络上的旋钮开关
才能让它足以表示出 要么这种图案
要么别的像素图案
要么是几条边组合成圆圈的图案之类
我们需要给这个神经元和第一层所有神经元间的每一条接线
都赋上一个权重值
这些权重都不过是数字而已
然后 我们拿起第一层所有的激活值
和它们对应权重值一起 算出它们的加权和
我觉得把这些权重值看做一个表格更好理解
我会把正的权重值标记成绿色
负的标记成红色
颜色越暗 就大致表示它的权重越接近于0
现在我们如果把关注区域的权重赋为正值
而其他所有的权重值一律赋为0
这样一来 对所有的像素值取加权和
就只会累加我们关注区域的像素值了
此时如果你真的想识别出这里是否存在一条边
你只需要给周围一圈的像素赋予负的权重
这样当中间的像素亮 周围的像素暗时 加权和就能达到最大
这样计算出来的加权和可以是任意大小
但这个网络中 我们需要激活值都处在0与1之间
那么 我们就可以顺其自然把这个加权和输进某个函数
把这条实数轴挤压进0到1的区间内
其中一个叫sigmoid的函数非常常用
它又叫logistic/逻辑斯蒂曲线
简而言之 它能把非常大的负值变成接近0
非常大的正值变成接近1
而在取值0附近则是平稳增长的
所以这个神经元中的激活值
实际上就是一个对加权和到底有多正的打分
但有时 即使加权和大于0时 你也不想把神经元点亮
可能只有当和大于例如10的时候才让它激发
此时你就需要加上一个偏置值 保证不能随便激发
而我们只需要在加权和之后加上一个负10之类的数
再把它送进sigmoid压缩/映射函数即可
这个附加的数就叫做偏置
总而言之 权重告诉你这个第二层的神经元关注什么样的像素图案
偏置则告诉你加权和得有多大
才能让神经元的激发变得有意义
我们这就解说完了其中一个神经元
但这一层的每一个神经元 都会和第一层全部的784个神经元相连接
每一个的784个接线上都带着一个权重
而且每一个神经元都会在计算自己的加权和后加上自己的偏置
再通过sigmoid压缩输出自己的结果
一下子要考虑的就多起来了
这层隐含层的16个神经元
就需要总计784 x 16个权重值和16个偏置值
而且这还是单单第一层和第二层之间的连接
别的层之间的连接还有它们分别自带的权重和偏置
一套下来整个网络一共会用上将近13000个权重加偏置
相当于这个网络上有13000多个旋钮开关让你调整
从而带来不一样的结果
所以 当我们讨论机器如何学习的时候
我们其实在讲 电脑应该如何设置这一大坨的数字参数
才能让它正确地解决问题
这里有个细思极恐的思想实验
想象一下你自己手动调整这些权重还有偏置参数
让第二层识别短边 第三层识别图案
比起把网络完全当做一个黑箱 我个人觉得这么考虑更加令人满足
毕竟当网络的输出和期望出了偏差的时候
如果你一定程度上了解了这些权重和偏置的意义
那么你再尝试对结构进行修正就有出发点了
或许你的神经网络能输出正确的结果 但过程和你想象的不一样
那么 深挖权重和偏置的实际意义 就可以有效挑战你的假设
进而探索出所有可能的解决方案
顺便一提 整个函数这么写下来是不是很难懂
我这里就给大家展示个既能表示所有的连线 看着又清爽的符号表达好了
你之后学习神经网络你就会一直见到这种符号
我们把某一层中所有的激活值统一成一列向量
再把它和下一层间所有的权重放到一个矩阵中
矩阵第n行就是这一层的所有神经元
和下一层第n个神经元间所有连线的权重
这样权重矩阵和向量乘积的第n项
就是这一层所有的激活值 和下一层第n个神经元间连线权重的加权和
顺带一句 机器学习到头来和线性代数是不分家的
如果大家想更形象地理解矩阵和矩阵乘法的意义的话
不妨去看下我之前做的线代本质系列吧
特别是第三章
回到符号表达的话题
表达偏置值的时候 我们并不会把一个个值都拎出来单独讨论
相反 我们会把它们都放到一个向量里
然后把它和之前的矩阵乘法的结果相加
最后一步 我们把整个表达式用一个sigmoid包起来
所谓包起来就是指
对表达式结果向量中的每一项都取一次sigmoid
现在只要我们一写下权重矩阵和相应向量的符号
神经网络各层之间激活值的转化
就可以表达得清晰简洁明了了
这种表达也让我们写程序变得简便了许多
因为很多库在矩阵乘法方面做了十足的优化(比如屏幕里用的numpy)
还记得之前 我要叫大家把神经元看作数字的容器吗
实际上 神经元中装着的值是取决于你的输入图像的
所以我们把神经元看作一个函数才更加准确
它输入的是上一层所有的神经元的输出
而它的输出是一个0到1之间的值
其实整个神经网络就是一个函数
一个输入784个值 输出10个值的函数
不过这个函数极其的复杂
它用了13000个权重参数偏置参数
来识别特殊图案
又要循环不停地用到矩阵乘法和sigmoid映射运算
但它终究只是个函数而已
而它的复杂程度可以稍微让人安点心
如果它没这么复杂的话
我们恐怕就不大能指望它数字识别能多准了
那么 它是如何处理这项艰巨任务的
神经网络是如何通过数据来获得合适的权重和偏置的
这就是下一集的内容了
我们会继续探究这一种特殊的神经网络的运作方式
虽说又到了提醒大家赶紧订阅来获得下一期新视频推送的时间
但大家伙基本上都没获得过YouTube的推送消息吧
也许我更该说 大家赶紧订阅我的频道
这样YouTube后端推荐算法用的神经网络
才会相信大家想看到这个频道的内容出现在推荐栏
总之 我们不见不散
非常感谢所有在Patreon上资助我的人
这个夏天我稍微有点偏离了概率论系列的计划
但做完这个系列我会回到计划上来
所以资助的大家可以随时在那获取更新
节目的结尾 我请到了Lisha Li
她在博士期间做了深度学习理论方面的研究
而她现在在一家叫Amplify Partners的风投公司工作
他们慷慨地为本期视频提供了一部分资金资助
那么Lisha 有个事情我想稍微提到一下 就是这个sigmoid函数
以我的理解 早期的网络都是用这个
把加权和映射到0至1的区间内的
当年正是这么来模仿生物学上的神经元是否激发的来着
没错
但现在的神经网络基本上都不用sigmoid了
就很过时
没错没错 ReLU应该更好训练
ReLU全称叫"线性整流函数"吧
是的 这种函数就是返回
0和a的最大值 其中a就是函数的输入
你在视频中解释 神经元之所以会采用这种函数
我认为一部分是为了模仿生物学上的神经元什么时候会激发
所以 当超过一个阈值的时候 ReLU就和恒定函数一样
而没过这个阈值 那么就不激发 输出0
可以当作是一种简化版
Sigmoid并没有让训练结果变得更好
或者某种程度上讲它很难训练
后来有人就拿ReLU试了试
结果发现在特别深的神经网络上效果特别的好
非常感谢Lisha

测试

English 七月 08, 2025
Video Language:
蔡钰商业参考

蔡钰·商业参考4(年度日更)

文章标题: 051|LABUBU,当代人的精神替身

作者: 蔡钰

时间: 2025-06-11 18:26:04

内容

音频: LABUBU,当代人的精神替身

蔡钰AI 转述

欢迎打开《蔡钰·商业参考4》,我是蔡钰。

泡泡玛特的潮玩公仔LABUBU,在2025年火爆程度一路走高。到了6月份,它在永乐拍卖行里拍出108万元的天价,还成了平安银行揽储的赠品。

赶在这个当口,LABUBU背后的香港设计师龙家升最近也露面接受了一个采访,用“LABUBU之父”这个身份,讲了自己创造LABUBU的历程,并且提醒市场说,2025年是LABUBU诞生十周年,请大家为他的LABUBU故事集和其他作品捧场。这个专访在B站有视频,我把链接给你放在文末。

借着这个专访,我们也来简单了解一下LABUBU的诞生故事。

龙家升1972年出生在香港,6岁跟随家人移民荷兰。他刚到荷兰的时候,语言不通,无法融入当地的孩子社群,于是陷入了孤独。这时候,他在老师的指引下,走进了卡通绘本的世界,开始在家、在学校大量阅读荷兰的绘本故事。

这个过程让他慢慢掌握了荷兰语,也让他爱上了卡通创作。北欧神话里有大量的精灵鬼怪和民间传说故事,芬兰创作者们又热衷于以二战为蓝本、在故事中同时投射残酷现实与温暖,这也深深影响了龙家升。他在学生生涯里选择了艺术设计专业。

等大学毕业后,他在香港和欧洲之间往返,在两边探索过事业发展,广告行业、科技行业都尝试过,同时也在持续独立地创作绘本,攒下了一个原创的精灵鬼怪系列形象,起名叫Monsters家族,怪兽。

到了2015年,他依托香港的玩具品牌“HOW2WORK”,第一次让LABUBU这个森林精灵,出现在了他的绘本故事《神秘的木屋》里。不过,LABUBU在龙家升的故事里只是一个配角,没有鲜明的故事线。

随后,HOW2WORK也开始把龙家升设计的Monsters家族,制造成潮玩推上市场,其中也包括LABUBU。

但这之后,市场对LABUBU的反应比较平淡。直到2019年,泡泡玛特跟龙家升签约,LABUBU的命运齿轮才开始扭转。

LABUBU最早在香港就是一个潮玩摆件,而泡泡玛特接手后,一方面把LABUBU的形象做了调整、装进了盲盒,还把材质从单色注塑升级成了磁吸配件、夜光材质,还推出了毛绒挂件系列,鼓励年轻人,尤其是年轻女性把它挂在背包上。更重要的是,泡泡玛特还把LABUBU推到了内地年轻人密度最高的B站,让它去参加“表情包大赛”。

这些动作,逐渐把LABUBU从宅男藏家的玩具柜里拉出来,拓宽到了更广阔的“营业”场景中。

不过你肯定记得,在当时,盲盒刚刚兴起,泡泡玛特的一姐还是Molly。LABUBU即便开始走红,在接下来的好几年里,也仍然在给Molly陪跑。

直到2023年之后,全球市场都在百年变局中发生情绪转折,泡泡玛特发力出海,中国也可以支持文化产业,LABUBU才迎来了它自己的时代,站到了世界潮玩的顶流位置上。这些故事,你在专栏前面都已经知悉了。

龙家升这次出来露面,也坦言自己从未预料到过这股LABUBU热潮。甚至,他最喜欢的一只LABUBU公仔也不是当前市场接受度最高的LABUBU形象,而是早年脸更长、色调更灰暗的一个版本。

龙家升的这次露面,意图很好理解:借LABUBU的火热势头,为自己的整体艺术创作和事业版图造势。

但我看完专访之后的个人看法是,LABUBU,可能没法像成就泡泡玛特那样,成就它的创造者龙家升。

为什么这么说?《商业参考》第四季在第2讲(《超级信号:不安全感如何转化成消费需求》)和第11讲(《什么是超级信号》),已经跟你讨论过LABUBU走红的时代情绪因素和国家战略因素,在第三季的251讲也已经跟你聊过泡泡玛特赢在东南亚的缘由(《泡泡玛特为何赢在东南亚》)。但这些因素背后都有时代意志,不是其他玩家,甚至泡泡玛特自己能够简单复制的。

同样的逻辑,LABUBU的走红,也不在龙家升的能力和预期之内。这一点从LABUBU诞生之初只是配角、诞生前4年在香港并没有太大动静就可以证明。

在2025这个LABUBU全球破圈的节点上,龙家升想要出版关于LABUBU的新故事。但是市场真的在意吗?在中国、东南亚、欧美争相抢购LABUBU的粉丝们,有多少人可以说清楚LABUBU不同名字的区别、身世和家族关系?它为什么是9颗牙?你可以在身边做一圈调查,我相信能准确回答的人数很少。但不了解LABUBU,丝毫不影响人们对它的疯狂。

这是一个非常值得琢磨的冲突:为之疯狂的同时不求甚解,人们真正在意的是什么?

两件事。

第一个当然是LABUBU的金融属性,能保值增值。399元的版本去年买,今年就涨到了1599元,妥妥的“潮玩茅台”和“塑料黄金”。它能拥有稳定的炒家、稳定的二级市场,甚至进入拍卖行,靠的是金融属性。

第二个点更有趣,我认为,LABUBU在今天这个时代,已经成为了实体化的微信头像和表情包。人们在它身上投射的是小小的、理想化的精神自我:獠牙代表有防御和攻击能力,坏笑代表能自得其乐。这一点,我们在第二讲也展开解释过了。

这句话很重要啊,我再重复一遍:在今天这个时代,LABUBU是人们实体化的微信头像和表情包,承载了那个有防御能力、能自得其乐的理想自我。

从这个角度,我们同样可以理解《黑神话:悟空》《哪吒2》,甚至珠海航展的走红。黑眼圈的小混混有什么可爱的?替巴基斯坦出征的J-10C有什么可爱的?你是军迷吗就爱战斗机?

它们的可爱之处在于,它的内核是“武德充沛的自己人”,黑悟空也是一样。这样的角色如果还能带点儿常见的人性瑕疵和生活松弛感,那就更能让年轻人觉得,“你在演我心目中的自己,是我想要的精神状态”。

你回头想想,LABUBU、哪吒和孙悟空们,是不是也切中了中国民众的这个精神原点。

武德充沛的自己人。这个人设,也对应了专栏前面提过的消费情绪:卸防+赢。武德充沛对应着赢,自己人对应着卸防。J-10C战斗机在巴基斯坦立功之后,中文互联网出现了一堆二创漫画,把它画成一个下雨天只能披着破塑料布停在室外的小孩,意思是“在外面这么厉害的孩子,在我们家里只是个弟弟”,背后那种骄矜的心态一览无余。

回到泡泡玛特。

基于前面的讨论,我们再来问一次:今天的泡泡玛特到底是一家什么公司?

我的理解,它是盲盒公司,也是潮玩公司,更是一家"精神替身"运营公司,它的商业模式内核,是替消费者们创造和运营卡通版的精神替身。Molly是天下大同、消费升级时代的民众替身,LABUBU是价值分歧、单打独斗时代的民众替身。

这是为什么我们前面说,LABUBU是实体化的微信头像和表情包。我喜欢你,是用你来代表我,所以你的故事对我不重要,我的故事和心情才重要。

从这个角度我们也能理解,粉丝们对LABUBU为什么有那么大的改造热情。人们花大几百买LABUBU公仔还不够,还要再花大几百给它买潮服、换穿搭,像打扮自己一样打扮它。

LABUBU服饰

淘宝上在售的LABUBU服帽鞋袜,一整套价格在50块钱上下,亚马逊上更贵,一套就能卖18美元,还是折扣价。此外,给LABUBU的专用安全座椅、墨镜和水壶也在大量被买卖。义乌的工厂现在每天给LABUBU生产的娃娃衣数量在2-3万套,有的爆款月销售额就能接近千万元。

欧美粉丝们玩得更激进,在TikTok上,LABUBU的粉丝们不光给LABUBU换穿搭,还流行给各自的LABUBU贴睫毛、镶牙钻、做美黑。最近Instagram和TikTok上流行一套给LABUBU做翘臀手术的攻略,一堆博主都在学着用针线在LABUBU毛茸茸的屁股上缝几针,制造出翘臀的弧度来。

玩家们对LABUBU的开发,领先了虚拟数字人行业一个时代,但我也不知道泡泡玛特能不能接住这一波情绪需求。

翘臀攻略

好,如果你认同我们的这个分析,LABUBU是当代人的精神替身,泡泡玛特被当作了一家精神替身运营公司,那么下一个问题来了:如果LABUBU这个IP想要长红,你认为有哪些运营策略是值得尝试、哪些是千万不能碰的?

期待在留言区看到你的头脑风暴。

我个人的思路,不是去替LABUBU建构全新的童话世界、打造独立的乐园,而是让它像真人那样,去挑选高质量剧本、去参演能映射人类普遍情感的影视剧。一部有LABUBU参演的《唐人街探案》和《盗墓笔记》,或者一部由各种潮玩IP合作演出的动画版《甄嬛传》,在今天,借助AI已经有机会实现了。当它们摆在你面前,你肯定很难拒绝。

为什么是这个思路呢?在下一讲中,我会间接跟你解释。再见。

「LUBUBU之父」龍家昇解構創作故事 也可以复制链接到浏览器打开: https://www.bilibili.com/video/BV11Mj3zeEkv/?share_source=copy_web&vd_source=865208650ab70c3ca4bb2780fbf63675

No annotation for current subtitle

Play the video to see annotations