当好产品与AI 走到十字路口|2025明日产品年度圆桌实录
日期:2025-12-16 21:03:32 / 人气:1

Sora 2和Nano Banana Pro。
AI制造视觉物料——图片和视频——的能力,主要是真实度,在2025年突破了拐点。在过去,我们在网上看到令人「大为震撼」的视频的时候,留下的是震撼;现在呢,留下的更多是「这玩意儿是AI做的吧」的怀疑。
「太阳底下无新事」,可能在2025年有了新解。
2025年对我而言,是AI从「神坛」走向「手边」的一年,从探索测试全面转向高频日常应用的一年。
如果说前两年我们对AI的追逐类似奥林匹克竞赛,总是渴望「更快、更高、更强」,不断追逐Claude 3.7 Sonnet、GPT-4或是Kimi Deep Research这样更前沿的模型能力——那么到了今年,一个显著的转变是:我从追求最新的Beta能力,回归到「够用就好」的实用主义。这就像写作工具演化的终局,往往是从花哨的排版回归到Markdown的纯粹,专注于内容本身。
这种「理所当然」感,源于我发现自己不再关心模型版本。最近用Qoder快速搭建了教材网站和折扣计算器,过程中我甚至不知道它背后调用了什么模型(确实看不到模型的名字)。对我而言,只要能稳定达成目标就够了。
从我完全无法从「手」的细节去判断一个视频是否AI的时候,这个功能正式颠覆了我的认知。
作为一个视频创作博主,我一直有关注AI在影视制作上的发展,从初始我就知道AI有很大潜力,但我并没有意识到发展速度那么快。
原以为中国电车的超越速度已经足够惊人,我以为我还有时间,但AI创作出来的视频内容,在短短的一两年内,从「诡异」到彻底无法分辨是否真实。
在AI出现后,很多需要认真去执行分镜,拍摄,剪辑的工作,都可以被AI取代,按照AI发展速度,再过一年,视频内容只会更加精细完整,这些镜头将不再需要大阵仗地去拍,不需要冒风险,顶着日晒雨淋拍摄,熬着夜制作。在视频制作中运用AI,成为了「理所当然」。
短时间内自媒体行业还没有受到太大的影响,但我想,冲击只是有滞后性。
感觉可能就是去问ChatGPT成为一种习惯的时候。学习任何新知识变得特别方便,从到情感提问,日常生病,回答采访查错别字等等,我觉得大家的学习能力变得非常高效。以及把自己个人喜好的东西告诉AI,请他帮我推荐书、电影、学习软件等等。可能从去年开始就已经发现问AI软件是最高效、超级wow的,周围人的也陆续都这样开始,后面就变成了习惯性的提问搜索工具。
庄浩明
《屠龙之术》主播
在我看来最大的共识,是OpenAI所定义的L1-L5的技术发展范式。但是,这个L1、L2、L3之间不是线性取代的递进关系,而可能是并行发生的。甚至,哪怕真的到了L4、L5,可能也还是并行的。
而不确定性,或者说非共识,在于基础模型的极限到底在哪里?是否当前的transformer架构也有局限性?以及当前最大的不确定性其实是L3的预期。年底很多行业从业者都表达了类似的观点:我们可能会像自动驾驶一样,在L3这个阶段待很久,长达5-10年。
(注:L1:对话AI/聊天机器人;L2:推理者;L3:Agent/代理;L4:创新者/人类知识扩展者;L5:组织者)
玉伯
YouMind创始人&CEO
AI行业最大的共识是AI创业有机会。AI是一种新的生产力,这种生产力,可以应用到非常多的领域,每一个领域,都有机会通过AI,发生巨大变化。
最大的不确定性是,AGI依旧很遥远,以及高昂的成本让很多创业公司的商业模式大概率跑不通。大量创业者,会始于AI带来的兴奋,然后终于不断上涨的巨额账单。
OpenAI已经在颠覆Google了,而且不只是搜索本身,还有整套商业模式都被撼动。既然搜索能被颠覆,其他应用自然也可以。我觉得OpenAI颠覆的核心是两点:
第一,交互方式变了。以前你要去特定网站/App,执行操作,返回结果,再继续;现在变成了对话框——由ChatGPT这类工具定义的新交互方式;未来可能连对话框都不需要,直接语音输入就行。
第二,反馈方式变了。有了AI,返回给你的答案更直接、更精准,不再是一堆链接让你自己筛选。
交互和反馈都变了,产品形态就彻底变了,商业模式自然也会跟着变。
庄浩明
App inside在做的,其实是美国互联网巨头没有做到,而微信差不多做到的事情——All in one。
这件事情的演进在中国其实走的更远了,小程序生态的繁荣当然对于已有相关业务的头部厂商而言是补充,但同时也催生出了更多「另类」的厂商/行业的出现,小程序游戏,甚至是短剧……
开发者还是回到那些传统的,甚至有些「正确的废话」的角度去考量自己的应用发展,需求、实现方式、运营、商业化,似乎没有绝对的对错,只有是否适合和想做多大。
汽车行业可能比消费电子行业更适合聊这个「对话即应用」,毕竟开车的时候手和眼睛空不出来,语言算是车内最安全的交互方式。
所以衡量座舱够不够智能,语音交互的识别率和准确率,响应速度,是很重要的衡量标准,从汽车座舱的角度讲,应用天然就应该是随时调用的、无状态的「功能组件」,甚至不光座舱,VLA技术路线也说明,对话也可以用在驾驶行为里,所以这里对话不仅是应用,对话也可以是驾驶。
当然,汽车另一个趋势就是屏幕越来越多,有屏幕那还是需要完整的UI,汽车的复杂性也在这里,不仅有司机,还有乘客,有一家老小,用户需求和状态的复杂性,决定了汽车产品向前发展和向后兼容是要并举的,所以「对话即应用」和完整UI是可以长期共存的。
对话式交互是符合人类的行为基因的,我们自古以来就使用对话的方式来互动。但在创造领域,对话只是一种模式,而且是一种非精确的模式,因为对于普通人本身能把观点表达清晰就是很困难的,同时还需要精确地接收信息,这更是不可能的。
因此,对话交互是创造性工作的一种模式,真正精细化意图呈现和目标实现,还需要多种模态的结合,图形界面的操纵,多模态的输入输出工具在未来一定还会继续蓬勃发展。
现在你让ChatGPT/Gemini/豆包给你生成一个图片的时候,是让它调起Photoshop或者Illutrator吗?不是的。一个曾经被称为「LLM」的服务,现在自己就可以做这些事情。我在8月10日发了一条微博:
一些AI是产品;
一些AI属于产品功能;
充其量不过是营销噱头而已。
而ChatGPT 5系列
已经隐约呈现出一个操作系统的样貌。
补充一点:这个操作系统,自带了很多应用。这些应用可以是命令行的UI,也可以是GUI或者VUI(语音界面,ChatGPT的语音模式),可以是任何我们目前没想到的UI。但UI显然还是必须的,但是不是GUI,不一定。
对开发者是威胁还是机会?都是,也都不是。取决于你看到了什么方面。
第一个是Manus。某种程度上定义了Agent产品的交互范式,之后的绝大部分通用/垂直类Agent或多或少都参考了Manus所定义的——需要让用户「看见」AI是如何做规划/todo、如何调用工具、如何不断调整结果、如何做出各种样式的交付的全过程。「看见」这件事情其实在L1-L2成为用户所能感知的技术进度角度上,就已经是最大的标志。
第二个是Tolan。AI社交板块在25年发展并不如预期,为数不多的亮点是Tolan带来的,当然国内的一些AI社交产品其实也在更多的尝试交互层面上能否带来变化的可能性。
我觉得是今年初Apple发布的那篇论文《ELEGNT》里面的那个带有情感的类似于皮克斯电影开场的那个台灯。作为一个「非人形机器人」,我倒是很欢迎它出现在我的家里。
「交互方式」,作为一种范式,很难说会成为「护城河」,但强大的交互能力当然会成为护城河——辅助驾驶就是车辆(一种四个轮子的机器人)在和物理世界交互,相信这个例子已经说明白了。
我个人感觉对于苹果而言,「液态玻璃」不仅是审美上的选择,更是战略上的必然。过去数十年,苹果在设计层面一真引领着行业,但随着追随者在产品技术、风格以及心智层面的无限逼近,苹果必须重新开创一套全新的语言,重新拉开领跑者的身位。有趣的是,这种风格像极了早期的Windows Vista时代毛玻璃——时尚是个轮回,设计也是。
虽然为了追求这种极致的差异化,苹果牺牲了部分初期的可读性,但我猜也有体验护城河的算盘——「液态玻璃」对实时渲染性能要求比较高,这让安卓阵营这种「适配型」系统很难在短时间内完美复刻同样的流畅度。苹果利用软硬一体的优势,为自己赢得了一段「独占的领先期」。
但坦率地说,从长远来看,这只是一场阶段性的「炫技」。毕竟天天吃大鱼大肉肠胃会受不了,用户对特效的新鲜感终将褪去,那时,用户大概率会会将强烈的液态玻璃风格回调到更微弱、更实用的状态,毕竟——平平淡淡才是真。
2025年8月29日我发了一条微博:
多数用户会在看到新东西的时候,会表现出一种突发的不适应情绪,并简单地归结为「丑」。
这事儿在iOS 7转扁平化设计的时候出现过一次。但最终时间证明了这个变化的合理性,Jony Ive后来也对第一版设计中过于激进的元素作出了修正。
灵动岛也是同样的道理。
在iOS 26上也出现了类似的情况,但时间还未证明「液态玻璃」的正确。我至今未能适应这个设计,但我觉得应该过段时间再作评价。
当设计师面对数以千万计、审美品位千差万别的用户群体时,需要有能力在应激反应之外,看到真实的问题和并不是问题的短期噪声,并进行自我思辨。
年底再看,我觉得液态玻璃挺好的。没啥问题。
我认为从0到1的产品,都是由天才定义的。马车时代的大部分人,是想象不出汽车的。我觉得这很像物种进化:新物种的出现和存活,不取决于「大众意见」。
诺贝尔奖得主丹尼尔·卡尼曼曾说,人有两套思维系统,我们做选择,或者撒谎,很多时候连自己都说不出原因。你问一个人的需求,得到的答案未必是真实的。而真正有洞察力的人——比如乔布斯——提出的往往才是一针见血的答案。
我认为那些产品是天才们洞察平民需求后产生的。其实这很难,要同时具备天才的睿智、聪明、创造力,还要兼备能够把自己瞬间切换回「白痴模式」的平民视角,感同身受地去解码需求,这是「知识的诅咒」,这一直都很难,所以我们会做出很多很可笑的产品。
在汽车的领域,我认为还是从平民的需求中发生出来的。汽车行业一直以来是工程师思维比较厚重的领域,很长时间里,工程能力等同于产品能力,外界的评判标准也多是汽车工程能力怎么怎么样。但是,现在看,把销量榜拉出来看一下,就知道谁尊重了消费者的需求,谁就能卖好。比方说,增程技术,在工程上并不优雅和先进,但是大家的需求就是安心,那增程解决的就是能油能电,绝对安心的需求。
「未来」产品和真实需求的矛盾,在汽车行业其实就是PMF(Product-Market Fit)的问题。汽车行业有特殊性,这里的「未来」产品试错空间小,犯错的成本也巨大,智驾也好,纯电也好,撞了烧了都是大问题,所以在讨论「未来」产品与真实需求的距离之间,其实产品首先需要是「可靠」产品。
2025年初Humane AI Pin的死亡,给行业上了一堂可以称为「敬畏」的课。
创业者动不动就谈「颠覆」,试图强行扭转用户经年累月的习惯,你可以说他是一种勇敢,但也可能是一种愚蠢。事实证明,AI硬件很难直接取代手机,但完全可以成为手机的最佳「搭子」。我今年买了AI录音卡,它没有试图取代手机,而是完美弥补了手机在通话录音和续航上的短板,解决了我在讲课和组会时的记录和输出的需求。
手机这类产品或许不完美,但用户已经离不开它。针对这些「不可剥离」的产品进行改良,在缝隙中创造增量价值,也是机会。创业者不必非要把行业当假想敌去做激进的「革命者」,做一个温和的「改良者」也许更可行。
记忆和第二大脑。活在当下,才是重要的。面向未来,则更重要。最不重要的,就是记忆。人类发展万年,进化出来的遗忘能力,是为了人类能持续进步。
我反而希望市场上能出现更多「失败的产品」。
因为这几年整个行业有一种明显的「追风」心态:哪里爆红、哪里有流量,大家就一股脑跟上去。但当某个赛道已经火起来时,本质上已经进入了饱和竞争,大多数人都只能成为追随者,做的是跟风优化,而不是原点创新。
真正推动行业前进的,往往不是那些完美落地、被大众接受的产品,而是那些提前一步踏错、但看得更远的探索者。
它们可能商业上失败,但提供了技术验证、用户反馈和未来方向感,为后来者铺了一条更长的跑道。
所以,与其说我记得哪款「先于时代的失败产品」,不如说:我希望行业能允许更多试错,因为正是那些看似失败的尝试,拉动了科技的边界。
如果我们能接受更长线的耐心、允许产品在远端未来先做一次冒险,整个科技生态反而会走得更快、更远。
AI-native的标准,是Human-native,有多少人味。
我个人是不太喜欢各种「AI XX」的名称,想想假如特斯拉叫自己AI汽车的话,是不是还挺好笑的?当你真具有非常差异化的Ai功能时,也不会特别在意自己是不是叫AI XX。
用户不是傻子,他们知道自己为什么在买单。
我不认为这是一个非常重要的问题。即便是以「为了AI而AI」作为起点,可以做出来改变世界的产品,也可以批量制造垃圾。动机是不重要的,产品有没有用是关键。
我想马斯克5年之后也许不需要手机和App了,但是普通人还是需要的。想想Windows XP多少年才会退出市场?想想燃油汽车目前有没有被新能源替代?我没有这么乐观。
如果非要给AI终端定一个理想状态的话,我个人仍然觉得眼镜是个合适的载体,因为他足够自然。
更加轻薄的iPhone Air。有触摸屏幕,更精简的硬件配置,更轻薄,更易于携带——最重要的,更强的续航能力,强到可以always-on。
其实我认为可能是一个bundle,类似于:智能眼镜+手表/手环+手机。我觉得AI设备的一个重要的能力是Always-On和实时反馈。
对我来说,现在市面上看到的大部分AI硬件,都更像是「过渡形态的中间派」。它们并不是终局,也不是未来真正的终端形态——只是让大众逐步过渡到下一个时代的桥梁。
我期待的长期形态,其实是非侵入式的脑机接口。
全球已经有团队在研发不需要植入式手术的脑仪设备,让人类可以用「意识」直接驱动AI。当我们不再依赖屏幕、按钮、语音,而是以意念进行操作时,AI才真正成为我们的“认知延伸”。
但我同样认为,脑机接口并不是一个单纯的技术愿景,它一定会带来巨大的伦理挑战。
今天我们在与手机和算法交互时,就已经在不知不觉中被引导、被推荐、被塑形——自主意识正在以一种温柔但隐秘的方式被削弱。
那么当未来我们与脑机接口建立更深层、更直接的访问关系时,一个关键问题会变得前所未有地尖锐:
当AI能够直接访问思想、意图、偏好时——我的自主意识还存在吗?
我期待脑机接口,但我也希望我们能够在追求技术极限的同时,建立更成熟的伦理框架,真正确保自由意志Free Will和人类主体性不被吞没。
我期待的理想AI终端,设备本身是「消失」的,智能的服务是无感的、无处不在的,类似于一个隐形的智能伴侣,它可能不是一个「终端」,而是一整套具备实时「感知、技术、服务」的主动式服务系统。
当下的AI硬件之所以被诟病,是硬件算力、模型能力欠缺等因素共同导致的。但同时,我们也欣喜的看到,端侧大模型的智能水平以及终端设备的算力都在持续提升。根据密度法则Densing Law,大模型的性能大约每100天翻一倍。而且终端算力稳步提升,越来越多的终端设备将可以本地运行能力更强的端侧大模型。相信不久的将来,搭载端侧模型的AI终端的产品会越来越丰富,智力水平、用户体验都将迎来「智」变。
我觉得两个原因:
1) 人会倾向于认为自己是万千动物里最厉害的,所以类人的东西也自然是「这类东西」里最厉害、能解决最多问题——最泛用——的顶级生物形态;
2) 人形机器人在万千科幻作品里被无数次地描摹过了,对于公众而言,这是很容易产生具象关联的一种「终极形态」。
但我始终认为,早已进入千家万户的「扫地机器人」(现在可能都叫「扫地机」了),仍然是一种稳定、可靠、高效率的「机器人」。
普通消费者真的如此需要「和你生活在同一个屋檐下的人形机器人」吗?我还没有一个明确的答案。
我们的物理世界——楼梯、门把手、厨房——是按人的尺寸设计的,AI驱动的人形就是对接这个世界的最佳「通用接口」。
高效只发生在单场景,人形机器人也许不是最高效的,但也许是最适配全场景的——人类总是相信,类似人的机器能做所有人可以做的任务。而且,我不必买一个机械臂式的炒菜机器人,然后再买一个圆盘形的扫地机器人,然后还要买一个长着人脸但不能移动的语音音箱……而是all in one,或许大家以为这样比较省钱吧。
首先,人对人形机器人有天然的关注,这是生物本能和文化熏陶促成的。工厂流水线上的机械臂当然也算广义上的机器人,但因为不是人形,那就只能算机器。实际上,非人形的机器人无论是数量,还是成熟度,还是应用范围,都比人形机器人高几个维度。
当然,我们可以找出很多理由来证明人形机器人的合理性,比如现在很多设施都是基于人因研究,为人类服务的——人形机器人能比较好的适应这些设施;但反例同样有很多。我的理解是,技术在收敛之前,一般都是相当发散的,人形机器人是最能吸引目光的分支。
回到汽车的角度,世界模型也好,VLA大模型也好,这些技术的发展,当然会让机器人的智能化和自由度上好几个台阶,现在的问题是,VLA用在车上行得通,毕竟汽车基本上只有左右两个空间维度,在机器人上还应付不了太多的空间维度,世界模型在机器人上的应用,目前更多还是愿景和demo阶段,只能说,方向肯定是这个方向,但路还很远。
如果全世界都在追求效率,那么产品的世界多没意思?杨振宁教授说过(大意如此):这个世界是存在造物主的,但可能并不是我们想象中人的形态。
那机器人可以是任何形态的话,为什么又不能是人形呢?在这个事上,我是比较赞同马斯克的一些观点的,现在最重要的解决「脑」和「手」的问题,我觉得不用太纠结于外在形态,这不是最重要的问题。
作为一个播客创作者,在我的工作中,AI还远远做不到让我「躺平」。我需要制定议题,策划节目,寻找真正优秀的嘉宾——估计有八九成的工作AI都替代不了,这里涉及太多人际关系和决策判断。对我来说,AI更像是一个工具、一个伙伴,或者说是个entry level的实习生。在特定任务上它能帮我提效,比如协助脑暴,但核心的创作还得我自己来,而我的节目成效往往更取决于这些创作。
我认为应该以「让我工作得更好」为目标。我们可以将固化但又不得不做的SOP类型的工作,交给Agent。人从其中解放出来,可以向上思考更抽象一层的重要问题:到底选择哪个方向,什么是「好」,等等;或者向下思考SOP流程优化的改进工作。我们不再生产产品,生产的是「生产产品的流水线」。这两者,都在发挥人的创造力和能动性。
AI给了我们不被琐事淹没的选择权,让我们能自由地把生命能量投射到那些真正需要个性「灵魂」参与的问题上。
我觉得都不是。工业革命让人类的物理能力得到了极大提升。智能革命,会极大扩充人类的智力边界。但AI依旧是飞机或火箭,人会更忙,因为可做的事,更快也更多了。
AI的终极目标不应止步于「让人工作更快」,但也绝不是简单的「让人不工作」,我认为更准确的表述应该是:让人可以不沉溺于「低价值的重复劳动」,而是只干「只有人能干」的活。
这也对Agent提出了更高的能力要求,也就是具备在人类指定的工作岗位上自主学习的成长能力。当前的大模型乃至Agent相当于是利用全互联网的数据,完成了大学生水平通识能力和使用工具的能力,但是还没接触过具体工作岗位上的专业知识、复杂任务,需要到各个工作岗位上去学习实践。在具备了这样的能力以后,Agent才真正完成了从「大学生」到「领域专家」的质变,才能为我们的工作、学习、生活提供更加智能的服务。
AI和增强现实技术的核心优势,在于能补齐和强化人类的生理功能。虽然很多健全人会吐槽「AI智障」,觉得它达不到人类水平,但这是个相对概念——当健全人处于100%状态时,70%的AI确实不够用;可对于某项生理功能为接近于零的残障人士来说,这70%已经是巨大的帮助了。
我用我戴的触觉手表举例:两个磁力小球分别代表时针和分针,通过触摸就能感知时间,摇晃还能复位。这种物理方式能让视障者随时知道现在几点。过去我们用这类物理设备补齐生理缺失,现在AI提供了更便捷、更平价的替代方案。我们必须承认,现有技术还不够完美,但潜力已经显现——用相对容易和实惠的方式,帮助那些最需要的人群补足生理短板,这才是技术最有温度的应用场景。
公益行业其实是劳动密集型产业——捐助者和受助者都极度分散,且多为小额交易,这意味着海量的琐碎工作。
举个真实案例:我通过公众号帮困境人士订外卖,三天管饭,一年多已帮助300多人。听起来简单?最大难点恰恰是工作量惊人。每个申请都要核实真实性,询问忌口,还得摸清用餐时间,等等。项目的直接买饭支出不到4万,但如果请专人负责,一年的人力成本远超这个数,我是靠自己和员工兼职才撑住,否则作为正规机构根本不划算——公益行业的大量时间,都耗在这类零散沟通上。
捐助者都希望善款用在实事而非管理费上,但现实是这些人力开销避无可避。如果AI能解决哪怕一部分重复性沟通,对公益行业的效率提升将是革命性的——这才是技术最该发力的地方。
爱范儿:技术的普惠让人欣慰,但教育的焦虑随之而来。叶老师,作为教育者
我用业余时间给600多个孩子开AIGC公益课。AI在其中既是教学工具,也成为观察孩子成长的一面镜子。最让我震惊和担忧的是:有的孩子在幼儿园大班到一年级的阶段就能很好地通过语言控制AI,而有些孩子有的四五年级了却还不具备这种能力,可能会在AIGC的时代失去先机和话语权——AI时代的来临,让孩子的语言基础发育变得比以往更重要。
有家长问我:「我儿子画画很差,能上AIGC艺术课吗?」这是个让我觉得担忧的问题:太多孩子因「画得不像」被认为没有艺术天赋——但是艺术的思维创造力本不该被手绘能力捆绑,在AI时代更是如此。AI自己就是个不知疲倦的随机黑箱和放大器,打破壁垒的创造力和足够宽泛的决策思辨力才更加重要。试想一个从没尝试过天马行空的孩子,将来如何能有足够的好奇心和想象力,去抵御他们未来要面对的算法裹挟和认知壁垒呢?
关于知识和创作的价值,培根曾说「知识就是力量」,但AI现在弹指间就能调用整个人类知识库,「知识的力量」需要重新诠释:知识不再是记忆容量的比拼,而是创意的密度、批判的锐度、跨界整合的维度。真正的力量来自于你如何「问问题」,如何在海量可能性中,做出有价值的判断选择。
艺术家的核心价值在哪?我的答案是「思想的导演和践行者」。AI带来的既是新美学语言,更是生产方式的革新,但最终考验的还是人的思想深度。
我最不希望看到的,是那些「以算计人性为生」的信息流产品成为明日的主宰。在AI全面介入之前,这类基于「上瘾模型」的产品就能通过算法收割了人类的注意力。而AI技术的加持恐怕会将这种「信息围猎」推向极致——算法将比你自己更懂人的软肋,让人在在虚无中彻底沉溺,无法自拔。
这不仅仅是时间管理的问题,这关乎人类的意义感,关乎人类在物理世界和数字世界之间的平衡。虽然从商业惯性来看,这种担忧或许很难阻止它的发生,但我们必须自省,保持警惕。
我的判断是,很多国家机构会想让AI按照自己倡导的价值观来塑造,但这事儿其实完全不可行。
关键问题在于——根本不存在一个「标准人」。当我们想按照标准模型去塑造AI,让它有「好」的道德观和社会倡导的价值观时,首先得找到这个标准模型:它认为什么更重要,什么是善与恶——但这样的模型压根不存在,因为人类社会对很多道德观念都还没达成一致。
举个实际例子:小区里投喂流浪猫,这事儿到底道德还是不道德?人类社会就有很多争议,从这个角度看有道德的一面,从那个角度看又有破坏环境的一面。所以让AI怎么判断?
最好的办法就是让AI不要做道德判断。它可以告诉你投喂流浪猫会对环境有什么潜在影响,但善和恶不要交给AI去判断——这个价值尺度应该保留给我们人类自己。AI提供信息和可能性,人来做最终的价值选择,这才是合理的边界。
我不希望看到会对社会或者个人产生伤害的霸凌工具,还是希望AI能协助我们可以发现更多美、发明更多对生活有帮助的工具。希望AI工具可以做到提醒用户其中的风险,特别是对于小朋友青少年来说,在成长阶段需要受到足够的保护。
在原创性上,天才相比于AI是有优势的。但现在连天才们也承认AI很厉害,能替代很多东西。比如,最近AI在数学竞赛上已经超越人类了;再比如语言创作,我们写东西不也是学习前人的「语料」吗?当时学习写稿子时,都是先看别人怎么写,本质上和AI训练没什么区别。
人类和AI有差别的地方,在于我们有鲜活的生命体验:痛苦、死亡……那些无法量化的感受。
但话说回来,就算没有AI,人类存在的意义又在哪?更何况,本来大多数意义都是人类自己赋予自己的。从宇宙尺度看,人类太渺小了,本就没什么特殊。所以不需要AI来验证我们「无意义」——我们本来就无意义,只是在自我赋义罢了。
人类的核心优势不是「聪明」,而是「在意」。AI可以生成内容,但它不知道什么对人类有意义,什么让人感动。这种「在意」来自生存经验、情感记忆、社会关系,是创造力的源泉。
这个优势会很长,甚至可能永远存在。但如果人类放弃思考,只让AI代劳,优势就会消失。所以AI时代最重要的能力,是保持独立思考和判断。教育需要改革——不教背诵知识,而教如何提问、批判性思考、表达独特观点。
我认为我们的优势是可以感受,可以体验。
曾经我对AI的发展速度之快感到恐慌,恐慌它会替代我的工作,最终替代我生活。
但后来我意识到,无论是音乐,文字还是视频,AI「创作」的,目前来看依然是基于人类经验的总结。它无法创新一些它没有见过听过的东西,至少目前不行。
而我觉得它无法真正地进行「创作」,是因为它无法真正地进行体验。
人类在智力增长速度这件事上确实无法与AI匹敌,因为我们的进化是要靠世世代代更新换代,速度有些慢,但正是因为人类的经验来得如此不容易,我们要犯错,要摔跤,要受伤,才能真正获得体验,才能真正感受世界,记录下来谱写成歌曲,染满画布,写成痛彻心扉的文字,剪成视频,感动隔着屏幕的对方。
我们得去生活,才会有需求,有问题要解决,才会产生了创新的渴望,人类创新,是因为我们能体验,能感受。
AI确实很聪明,所以它可能有一天真的会包办所有聪明的工作,但目前看来,它依然无法替代人类的创造力。
当然,我并不认为人类就应该理所应当地成为宇宙的主人,这也太自大了,只是我认为AI作为一个工具存在,它要有存在的意义,就得有「使用工具的人」,我并不太赞同目前部分渲染「人类终将被AI代替」,制造焦虑的风向,没有了执刃之人,刃再锋利也只是躺在那,伤到一些不看路的人罢了。
技术发展肯定会造成冲击,但我更愿意相信它是动态调整,积极适应,掌握工具,让AI发展可以优化我们的生活,而不是优化我们。
退一万步说,AI现在那么聪明,假设人工智能真的觉醒了自我意识,成为了世界的新主人,那我们人类也无法抵挡了,担心一些自己无法抵挡的事情实在无意义,不如过好今天。
至少我有一点是AI学不会的,那就是摆烂。
我其实对这个问题是这么理解的,如果AI能包办所有「聪明」的工作,我们不该担心自己的价值,那我们有更多时间去好好生活,这是好事啊。
AI最大的优势应该是效率,可以快速收集广泛的知识压缩输出,或者检查文字内容可以在同样的时间里面让我们做和学习到更多的东西。
我也考虑过这个问题,但其实感觉人类的个人审美喜好还会是最终优势,AI更多是协助我们提升效率——可能一个人就可以实现三四个人的效率。原来需要多年学习的新功能,有了AI也可以好几倍地缩短学习时间,给予大家更多丰富的创作能力。
但人类的个人经历、文化趋势,会造就我们的品味,去引导我们的创作。AI更多还是作为我们的超级高效助手存在。
同时,我感受到在AI快速成长的同时,有更多的人会选择去灵修、冥想、恢复书本阅读,感觉科技无论多快速发展,人类自己总会想寻找一种和大自然对等、平衡的相处方式。
不可能的。遗忘是非常重要的人类功能。不会遗忘的分身,就不是你了。AI如果不会遗忘,那就依旧还是硬盘。
当大模型智能超越某一个临界线之后,各家模型的智能差异和风格差异,对大多数用户而言,足够满足日常工作生活所需。
未来人与模型的「绑定」式的忠诚度,我认为核心要素就是「记忆」。
人追求的就是「被看见」「被理解」。当足够聪明的大模型加持上用户的个体「记忆」,每个人都感到对话框后面的那个「存在」是那么的「懂我」,这种强烈的连接感,会形成一种「我们」的关系。
我们=我+(懂我的那个)模型。这种关系随着用户的使用频次提升,只会愈加紧密,切换到其它模型的新账号,可能会出现强烈的不适感、陌生感,甚至会有种「叛逃感」。当你要换一个模型时,你失去的不是一个工具,你失去的是一段共同经历的历史。你需要向新模型重新解释一遍「我是谁」、「我在乎什么」、「我讨厌什么话术」。这种解释成本高到让人望而却步,甚至会产生一种类似失恋或失忆的痛苦。
形成「我们」关系的「记忆」,不一定是「分身」,而是通过对话内容,深刻「看见」和「理解」之后的「刻画」。与互联网时代的「用户画像」不同,暂且称之为「灵魂速写」。
这种关系不是放弃方向盘,这是你多了一个配合默契的领航员。「我们」比「单独的我」更强大。
到目前为止,ChatGPT忽然冒出来的对我个人如数家珍的只言片语,还是令我觉得毛骨悚然。我对这件事情不是非常享受,我认为OpenAI这个主体已经知道了太多关于我的事情,在它推出可以绑定我的Gmail的功能的时候,我觉得「你Sam Altman想太多了吧」。
我倒没有觉得对「主体性」有什么放弃与否的问题。AI始终是个非常有用的工作伙伴和生活咨询入口,人在做最终的决定——起码我还在做这些对我自己而言非常重要的决定。
我觉得主体性的重点在于选择权在谁手上。我相信使用AI进行记录和学习,是为了更全面更理性的给出建议,方便我们自己做出「更好的选择」。
人类是有惰性,容易被情绪控制,甚至是健忘的,我们总会忘记了当初为什么要分开,只沉沦在「曾经的美好」中;总是在需要控制体重的时候意志力低下,告诉自己「多吃一口应该没事」;
人的精力和知识储备是有限的,我们无法记得所有的饮食忌讳,了解所有的投资知识,我们选择使用AI工具是为了让自己生活过得更好,是为了尽可能让有限的生命创造出无限的可能。
当然,偶尔几次我也会想不听AI的建议,虽然会发胖我也还是想吃那块蛋糕,虽然明知是犯错我也依然想为爱沉沦,人生并没有那么多的对错,有的只是体验而已。
只要选择权在我,那生活的主人依然是我。
人和AI应该是互相增益的关系,不必将这种「赛博分身」的出现视为对主体性的「放弃」,而应视为对主体性的一次「重构」和「升维」。
我们传统上认为的「主体性」,往往指一个独立的、自省的、基于有限信息和内在价值观进行决策的自我。未来的AI理论上会拥有我们完整的、跨生命周期的数据,它弥补了人类记忆的偏差和信息的碎片化。在这种情况下,基于更完整信息做出的决策,可能比基于片面信息和情绪冲动做出的决策,更接近我们「真实的」意愿和长期利益。"
作者:天富娱乐
新闻资讯 News
- 高段位社会化忠告:警惕身边"人缘...12-16
- 峰瑞资本李丰:技术投资的三个周...12-16
- 智利右转:全球锂业的权力重构与...12-16
- SpaceX 千亿融资阳谋:马斯克的...12-16

