10 个适合初学者的 Claude Code 构建创意(附完整提示词)

本文翻译自 X 博主 Zara Zhang 发布的文章:10 beginner-friendly ideas to build with Claude Code (Prompts included)。 只要你会打字,就能用 Claude Code 进行构建。 1. 将你的简历变成个人网站 这里有 10 个让你入门的想法。无需任何技术背景。我已附上了你可以直接使用的具体提示词。 把你的简历投喂给 Claude Code,让它为你构建一个精美的作品集网站。想要特定的外观?先在网上找一些视觉参考,然后让它匹配那种风格。 “这是我的简历 [附上文件]。请为我构建一个干净、现代的个人网站,展示我的经验和项目。我喜欢这个 [参考链接] 的视觉风格。试着匹配这种美学。我完全没有编程经验,所以请一步步指导我。” (要附加文件,只需将其拖入与 Claude Code 的聊天窗口即可。) 2. 构建一个用于语言学习的浏览器扩展程序 创建一个扩展程序,让你可以在外语网站上高亮文本,根据上下文获取 AI 驱动的释义,并将单词保存到你自己的词汇表中。 “为我构建一个语言学习用的浏览器扩展。当我在任何网页上高亮文本时,它应该根据周围的上下文显示 AI 生成的解释,并让我把单词保存到个人词汇表中。我不懂代码。请给我简单、按部就班的说明,告诉我所有需要做的事情。” 3. 基于你的健康数据创建一个习惯追踪器 上传你的体检报告,让 Claude Code 根据结果为你构建一个个性化的习惯追踪和打卡应用。 “这是我最近的体检报告 [附上文件]。根据结果,为我构建一个简单的日常习惯追踪应用,帮助我改善需要关注的领域。包含一个连胜(streak)功能来帮我坚持下去。用大白话解释所有内容。我不是开发人员。” 4. 整理你杂乱的文件夹 桌面或下载文件夹乱糟糟的?直接让 Claude Code 来整理。真的,只要告诉它你想要什么,然后让它去干活。 “我的下载文件夹一团糟。检查一遍,根据文件类型和内容将文件整理到合理的子文件夹中。在移动任何东西之前,先把你的计划展示给我看并征求我的同意。我不懂技术,所以解释要简单点。” 5. 转录您的会议录音 把你的会议音频或视频文件丢进一个文件夹。Claude Code 可以使用 OpenAI Whisper(本地运行且免费!)转录它们,清理错误,并标记发言人。 “我在 [文件夹路径] 有一个会议录音文件夹。使用 OpenAI Whisper 将每个文件转录为文本。清理明显的错误,并在能区分不同人的地方加上发言人标签。将每个转录保存为单独的文档。一步步指导我完成所有需要的设置。我是个纯新手。”...

January 26, 2026 · 1 min · fisherdaddy

2026 AGI-Next 前沿峰会:中国大模型“四巨头”的真实对话

本文整理自 2026 年 1 月 10 日,在由清华大学基础模型北京市重点实验室、智谱 AI 发起的 AGI-Next 前沿峰会上的一场含金量极高的闭门会:唐杰/杨植麟/林俊旸/姚顺雨罕见同台,“基模四杰”开聊中国AGI。以下内容由我和 Gemini 3 Pro 共同整理完成。 由清华大学和智谱AI发起的AGI-Next前沿峰会上,当下中国大模型最核心的四股力量罕见地凑齐了:刚刚敲钟港股的智谱AI创始人唐杰、腾讯CEO办公室新任首席科学家姚顺雨(前OpenAI研究员)、拥有全球最强开源生态的阿里通义负责人林俊旸,以及刚拿了5亿美元融资的月之暗面CEO杨植麟。 如果说2025年是中国大模型靠“快节奏迭代”和“疯狂开源”在国际上博得声量的一年,那么站在2026的开端,这四位掌舵人却显得格外冷静,甚至有些“悲观”。 唐杰一上来就给全场泼了盆冷水:“别觉得差距缩小了。美国还有大量闭源模型没放出来,中美大模型的差距,说不定并没有缩小。” 在这个定调下,这场对话没有客套的商业互吹,只有关于技术路线的真实分歧和对未来的硬核预判。 一、 Chat时代结束了,下一注押在哪? 对于过去的2025年,唐杰有一个断言:DeepSeek出来之后,关于“Chat(对话)”这一范式的探索已经结束了。 智谱的一年前的预判是Chat会替代搜索,但结果是谷歌自己革了自己的命。对于大模型公司而言,继续卷对话已经没有意义。智谱把新的筹码(Bet)全部押在Coding(代码)和Reasoning(推理)上。集推理、Agentic能力于一体的GLM-4.5,就是这一策略的产物。 而作为“Scaling Law(缩放定律)”的忠实信徒,杨植麟依然坚持Scaling是重点。但他眼中的Scaling不再是单纯的一力降十会,而是要讲究**“Taste(品味)”**。 “通过架构和数据层面的改进,我们要让模型拥有不同的Taste,这样才不会千篇一律。”杨植麟认为,未来的竞争不看谁的参数更大,而看**Token Efficiency(Token效率)和Long Context(长文本)**的结合——即在长语境下,你的模型到底比别人强多少。 唐杰对此表示赞同。那种疯狂堆算力、堆RL(强化学习)就能获得巨大收益的日子已经过去了。他提出了一个新的衡量标准:Intelligence Efficiency(智能效率)。在这个新阶段,算这笔账很重要:投入多少算力,甚至能不能用更少的Scaling,换来同等的智力提升? 二、 To B 还是 To C?分化已经开始 前OpenAI研究员、现任腾讯核心科学家的姚顺雨,带来了极其敏锐的硅谷视角。他发现,大模型领域正在经历一场剧烈的分化。 “Chat”在To C端已经到了瓶颈。 姚顺雨举了个生动的例子:你今天问ChatGPT“我该吃什么”,和去年问它,体验差别并不大。因为对普通用户来说,模型的抽象代数能力变强了,你根本感知不到。C端用户需要的不是更强的模型,而是更丰富的Context(上下文)和Environment(环境)——比如模型知道今天很冷,知道你老婆想吃辣,这才能给出好建议。 但在To B端,逻辑完全相反。“智能越高,生产力越高,赚的钱越多。” 姚顺雨观察到,美国企业愿意为最强的模型付溢价。一个月200美金的最强模型,和50美金的次强模型,企业会毫不犹豫选前者。因为OpenAI 4.5可能做对9个任务,差一点的模型只能做对6个,为了这3个的差距,企业还得雇人去监控,得不偿失。 阿里通义的林俊旸则认为,这种分化是自然发生的。他提到了Anthropic(Claude的开发商),这家公司之所以成功,不是因为为了做Coding而做Coding,而是因为他们频繁和企业客户交流,发现企业的真实需求就是Coding。 “现在美国API消耗量里,Coding占了绝对主导。但在中国,Coding的Token消耗量还没那么大。”林俊旸一针见血地指出。 三、 下一个圣杯:自主学习与“主动”AI 硅谷现在最火的词是什么?姚顺雨透露,大街小巷的咖啡馆都在聊**“自主学习”**。 这并不是什么科幻概念,而是正在发生的事实。Cursor每几个小时就用最新的用户数据训练;Claude 95%的代码已经是Claude自己写的了。 “这更像是一种渐变,而不是突变。”姚顺雨认为,2026年我们最大的挑战是想象力:如果AI真的实现了自主学习,它应该长什么样?是一个自动赚钱的交易系统,还是解决了一个人类未解的科学难题? 林俊旸则更关注AI的**“主动性”**。 现在的AI无论是ChatGPT还是各种Agent,都需要人类去Prompt(提示)才能启动。未来的AI,能不能环境就是Prompt?它看到环境变化,就自己决定去做事? “但我最担心的不是AI说错话,而是它做错事。”林俊旸坦言,如果AI突然产生一个想法,觉得应该往会场扔个炸弹,这就是灾难。如何让AI既有主动性又安全,是比提升智力更难的课题。 四、 20%的胜率,与“穷人的创新” 在对话的最后,主持人李广密抛出了一个尖锐的问题:三五年后,全球最领先的AI公司是中国团队的概率有多大? 向来敢说的林俊旸给出了一个数字:20%。 “这已经非常乐观了。”他解释道,中美在算力上的差距是客观存在的,甚至可能有1-2个数量级的差异。美国的巨头可以用大量的算力去探索下一代Research,而中国的团队光是做交付,可能就占用了绝大部分算力。 但他同时也提到了一个有趣的观点:“穷则思变”。 正因为算力吃紧,中国团队必须要在算法和Infra(基础设施)的联合优化上下苦功夫。这种**“穷人的创新”**,反而可能在特定路径上跑出来。他回忆起2021年和做芯片的同事“鸡同鸭讲”的经历,大家都因为认知错位错失了机会,但现在,软硬结合的创新或许是打破僵局的关键。 姚顺雨则对中国的人才充满信心。他认为,只要一个技术路径被证明是可行的(比如预训练),中国团队能以极高的效率复现并局部优化。真正的挑战在于:我们是否有勇气去探索那些不确定性极高、没人做过的新范式? “中国对于刷榜或者数字看得太重了。”姚顺雨提到DeepSeek的一个优点,就是他们不太关注榜单,只关注什么是正确的事。 结语 这场闭门会没有给出“中国AI必胜”的廉价鸡血,却展现了一种理性的韧性。 正如学术界代表杨强教授所言,AI的发展就像人类睡觉,需要清理噪音才能第二天学得更好。而唐杰的总结则更为从容: “永远不要想着环境是最好的。我们恰恰是幸运的,经历了环境从没那么好到变好的过程。如果我们笨笨地坚持,也许走到最后的就是我们。” 2026,中国大模型正在告别盲目的“卷”,走向更务实的“深”。

January 12, 2026 · 1 min · fisherdaddy

2025 AI 圈大事件复盘:推理模型、Agent、视频生成与开源生态演进

2022年 11 月 30 日 ChatGPT 横空出世已经过去 3 年了,2023 年 OpenAI 再次给世界一震撼,重磅发布了 GPT-4,而2024 年 OpenAI 仍然一枝独秀,给 AI 的发展带来了两个新的方向,一个是视频生成,一个是推理范式,前者的代表是 Sora,后者的代表是 o1。时间来到 2025 年,OpenAI 终于不再一枝独秀,迎来众多挑战者,全球 AI 可以说是呈现百花齐放的状态,有 Google 和 Anthropic 等闭源模型的兴起,有 DeepSeek、Qwen、Kimi、GLM、Minimax、Mistral 等开源模型的觉醒,当然也有 Llama 4 开源模型的落寞。 本文将按照时间顺序带你一起回顾一下 2025 年 AI 圈每一个核心大事件、技术突破及社会影响。 DeepSeek R1 火爆全球 2024 年 12 月 6日,OpenAI 重磅发布 o1 系列推理模型,把大模型的发展从仅使用系统 1 思维(快速、自动、直观、容易出错)发展到系统 2 思维(缓慢、深思熟虑、有意识、可靠)。而就在 2025 年 1 月 20 日,中国 AI 创业公司 DeepSeek(深度求索)发布了其最新一代开源模型 DeepSeek R1,该模型也是一个推理模型,在基准测试中其表现与 OpenAI 的 o1 模型相当,但价格却显著低于 o1(大概是其 1/30)。这一事件迅速在全球科技界引发了海啸般的反应,被西方媒体和战略分析师称为 AI 领域的“斯普特尼克时刻”(Sputnik Moment)。R1 不仅在性能上紧追 OpenAI 的顶尖闭源模型,更重要的是,它打破了关于大模型训练成本的固有认知。...

December 30, 2025 · 4 min · fisherdaddy

Andrej Karpathy:2025 LLM 年度回顾 - 5大关键范式转变与 Vibe Coding

本文翻译自 Andrej Karpathy 发布在 X 上的对于 2025 年 LLM 的年度回顾:2025 LLM Year in Review. 2025 年是 LLM(大型语言模型)取得长足进步且充满大事的一年。以下是一份我个人认为值得注意且略显意外的“范式转变”清单——这些事物改变了格局,并在概念上令我印象深刻。 1. 基于可验证奖励的强化学习 (RLVR) 在 2025 年初,各大实验室的 LLM 生产技术栈看起来大概是这样的: 预训练 (Pretraining, 约 2020 年的 GPT-2/3) 监督微调 (Supervised Finetuning, 约 2022 年的 InstructGPT) 基于人类反馈的强化学习 (RLHF, 约 2022 年) 在很长一段时间里,这是训练生产级 LLM 的稳定且行之有效的配方。在 2025 年,基于可验证奖励的强化学习 (RLVR) 崛起,成为了这一组合中事实上的新增主要阶段。通过在多个环境(例如数学/代码谜题)中针对可自动验证的奖励来训练 LLM,LLM 自发地发展出了在人类看来像是“推理”的策略——它们学会了将解决问题的过程分解为中间计算步骤,并学会了多种反复推敲以弄清问题的解题策略(参见 DeepSeek R1 论文中的例子)。这些策略在以前的范式中很难实现,因为对于 LLM 来说,最佳的推理轨迹和纠错方式是什么并不明确——它必须通过针对奖励的优化,自己找到行之有效的方法。 与 SFT 和 RLHF 阶段(这两个阶段相对较薄/较短,计算上只是微小的微调)不同,RLVR 涉及针对客观(不可被操纵)奖励函数的训练,这允许进行更长时间的优化。事实证明,运行 RLVR 提供了极高的能力/成本比,它吞噬了原本用于预训练的计算资源。因此,2025 年的大部分能力进步都是由 LLM 实验室消化这一新阶段的“剩余红利”所定义的,总体而言,我们看到了体量相似的 LLM,但 RL 运行时间要长得多。此外,这一新阶段独有的是,我们获得了一个全新的旋钮(以及相关的缩放定律),可以通过生成更长的推理轨迹和增加“思考时间”来控制作为测试时计算量函数的能力。OpenAI o1(2024 年末)是 RLVR 模型的首次演示,但 o3 的发布(2025 年初)是一个明显的拐点,你能直观地感受到这种差异。...

December 25, 2025 · 2 min · fisherdaddy

Notion 创始人 Ivan Zhao:蒸汽、钢铁与无限思维 —— AI Agents 重塑未来组织

本文翻译自 Notion 创始人 Ivan Zhao 在 X 上发表的文章:Steam, Steel, and Infinite Minds。 每个时代都由其奇迹材料所塑造。钢铁锻造了镀金时代。半导体开启了数字时代。如今,AI 作为无限思维已经到来。如果历史教会了我们什么,那就是掌握这种材料的人将定义这个时代。 [左图:少年时期的安德鲁·卡内基和他的弟弟。右图:镀金时代的匹兹堡钢铁厂。] 19 世纪 50 年代,安德鲁·卡内基作为一名电报员,奔跑在匹兹堡泥泞的街道上。当时十分之六的美国人是农民。在两代人的时间里,卡内基和他的同辈们锻造了现代世界。马匹被铁路取代,烛光被电力取代,铁被钢取代。 从那以后,工作从工厂转移到了办公室。如今,我在旧金山经营一家软件公司,为数百万知识工作者打造工具。在这个行业重镇,每个人都在谈论通用人工智能(AGI),但二十亿案头工作者中的大多数尚未感受到它的存在。知识工作很快会变成什么样子?当组织架构吸收了永不休眠的思维时,会发生什么? [早期的电影看起来通常像舞台剧,只有一台摄像机对着舞台拍摄。] 这种未来往往难以预测,因为它总是伪装成过去的样子。早期的电话像电报一样简练。早期的电影看起来像是被拍摄下来的戏剧。(这就是马歇尔·麦克卢汉所说的“通过后视镜驶向未来”。) [今天最流行的 AI 形式看起来就像过去的谷歌搜索。引用马歇尔·麦克卢汉的话:“我们总是通过后视镜驶向未来。”] 今天,我们看到的是模仿谷歌搜索框的 AI 聊天机器人。我们正深陷于每一次新技术变革都会出现的那个令人不安的过渡阶段。 我没有关于接下来会发生什么的全部答案。但我喜欢用几个历史隐喻来思考 AI 如何在不同层面上发挥作用,从个人到组织,再到整个经济体。 最初的端倪可以在知识工作的高级祭司——程序员身上找到。 我的联合创始人 Simon 就是我们所说的“10 倍程序员”,但他现在很少写代码了。走过他的办公桌,你会看到他同时指挥着三四个 AI 编程智能体(Agent),它们不仅打字更快,而且会思考,这让他变成了“30-40 倍工程师”。他在午餐或睡前排好任务,让它们在他离开时工作。他已经成为无限思维的管理者。 [20 世纪 70 年代《科学美国人》的一项关于移动效率的研究激发了史蒂夫·乔布斯著名的“大脑的自行车”隐喻。只不过从那以后,我们一直在信息高速公路上费力地踩着踏板。] 20 世纪 80 年代,史蒂夫·乔布斯称个人电脑为“大脑的自行车”。十年后,我们铺设了互联网这条“信息高速公路”。但今天,大多数知识工作仍然是人力驱动的。这就像我们在高速公路上骑自行车一样。 有了 AI 智能体,像 Simon 这样的人已经从骑自行车毕业,转而驾驶汽车了。 其他类型的知识工作者什么时候才能开上车?必须解决两个问题。 [与编程智能体相比,为什么 AI 更难帮助知识工作?因为知识工作更加碎片化,且更难以验证。] 首先是上下文碎片化。对于编程,工具和上下文往往存在于一个地方:IDE、代码库、终端。但一般的知识工作分散在数十个工具中。想象一个 AI 智能体试图起草一份产品简介:它需要从 Slack 讨论串、战略文档、仪表盘中的上季度指标以及仅存在于某人脑海中的组织记忆中提取信息。今天,人类是胶水,通过复制粘贴和在浏览器标签页之间切换将所有这些缝合在一起。在上下文整合之前,智能体将仍然受困于狭窄的用例中。 第二个缺失的要素是可验证性。代码具有一种神奇的属性:你可以通过测试和报错来验证它。模型制造者利用这一点来训练 AI 更好地编程(例如强化学习)。但是,你如何验证一个项目是否管理得当,或者一份战略备忘录是否优秀?我们尚未找到改进一般知识工作模型的方法。因此,人类仍然需要在回路中进行监督、指导,并展示什么是好的结果。 [1865 年的《红旗法案》要求车辆在街道上行驶时,必须有一名旗手在车前行走(该法案于 1896 年废除)。这是一个不受欢迎的“人在回路中”的例子。] 今年的编程智能体教会了我们,“人在回路中(human-in-the-loop)”并不总是可取的。这就像让专人检查工厂流水线上的每一颗螺栓,或者走在汽车前面开路(参见:1865 年的《红旗法案》)。我们希望人类站在杠杆点上监督回路,而不是身处其中。一旦上下文得到整合且工作可验证,数十亿工人将从骑自行车转变为开车,进而从开车转变为自动驾驶。...

December 25, 2025 · 1 min · fisherdaddy

2026年十大惊人预测:从月球基地、AI接管工作到逆转衰老

本文整理自 Moonshots 播客特别节目: 2026 Predictions on AI, the State of the Economy, Humanoid Robots, and Space Exploration | EP #217。这次的讨论非常硬核,Peter Diamandis 和他的“Moonshot Mates”(包括 Emad, Salim, Alex 和 Dave)对 2026年 做出了 10 个极其大胆的预测。 这不是那种模糊的“未来会更好”的空话,而是关于技术奇点、商业模式重构和甚至人类寿命突破的具体推演。 系好安全带,我们要起飞了。 2026年十大预测:奇点临近,未来已来 如果说 2025 年让你觉得世界变化很快,那只是热身。根据 Moonshots 团队的最新推演,2026 年将是“感觉像未来”的一年。无论是在太空竞赛、AI 算力爆发,还是人类寿命的延长上,这一年都将成为历史的转折点。 以下是五位顶尖科技思想家对 2026 年的 10 个核心预测: 1. 太空竞赛易主:贝佐斯将在月球上击败马斯克 (预测者: Peter Diamandis) 这听起来可能有点反直觉,毕竟 SpaceX 现在的发射频率高得吓人。但 Peter 预测,在 2026 年,杰夫·贝佐斯(Jeff Bezos)的 Blue Origin 将率先在月球南极的 Shackleton 陨石坑着陆。 与此同时,埃隆·马斯克(Elon Musk)在忙什么?他会在这一年全力完善 Starship 的在轨加油技术,为 2027 年的火星发射窗口做准备。但这不仅是两个亿万富翁的游戏,中国也在这一赛道上紧追不舍。2026 年,以前那种科幻剧集里的“太空争霸”将真实上演。...

December 22, 2025 · 2 min · fisherdaddy

Sam Altman 访谈实录:OpenAI 的“红色代码”、万亿豪赌与被低估的 AI 潜能

本文整理自 Youtube 知名博主 Alex Kantrowitz 对 Sam Altman 的最新访谈。访谈中 Sam Altman 深度解析了 ChatGPT 的下一步:从应对 DeepSeek 和 Gemini 的“红色代码”时刻,到 1.4 万亿美元的基础设施算账逻辑。为何他认为目前的模型能力被严重低估?未来的 AI 硬件为何可能没有屏幕?本文为你详细解读 OpenAI 赢得这场 AI 军备竞赛的底层逻辑。以下内容由我和 Gemini 3 Pro 共同整理完成。 OpenAI 已经十岁了,而 ChatGPT 也走过了三个年头。在这个不仅被谷歌 Gemini 紧追不舍,还被 DeepSeek 点击软肋的时刻,外界都在问:OpenAI 还能保持领先吗? 最近,OpenAI CEO Sam Altman 在一档深度访谈中,非常坦诚地聊了聊现在的局势、那个让人咋舌的 1.4 万亿美元基建计划,以及他对未来 AI 形态的真实想法。 与其说这是一次商业访谈,不如说是一次对未来几年的预演。如果你关心 AI 的走向,这篇深度解读不容错过。 不要浪费一次好的“危机” 还记得前段时间 DeepSeek 带来的冲击吗?或者谷歌发布的 Gemini 3?Altman 并不避讳这些竞争对手的存在。 实际上,OpenAI 内部有过所谓的“红色代码(Code Red)”时刻。但这并不是外界想象中的那种恐慌性崩溃。对 Altman 来说,这种状态通常只会持续 6 到 8 周。这是一种健康的“偏执”——当 DeepSeek 展现出某种优势,或者竞争对手不仅在模仿还在超越时,这对 OpenAI 来说反而是好事。它暴露了产品策略中的弱点,迫使团队快速修补。...

December 19, 2025 · 1 min · fisherdaddy

诺贝尔奖得主 Geoffrey Hinton 与 Google 首席科学家 Jeff Dean 深度对谈:从赌场里的百万竞拍,到 AI 改变人类命运的赌注

本文整理自诺贝尔奖得主 Geoffrey Hinton 与 Google 首席科学家 Jeff Dean 进行的深度对谈。对谈中他们回顾了 AI 的历史,从 AlexNet 的卧室显卡训练,到赌场竞拍出售公司,再到 ChatGPT 引爆的 AI 时代。他们还畅谈了算力觉醒、TPU 往事及 AI 对人类未来的终极预测。以下内容由我和 Gemini 3 Pro 共同整理完成。 想象一下这个场景:加州圣地亚哥的NeurIPS大会,聚光灯下坐着两个人。一位是刚刚获得诺贝尔奖、被尊称为“AI教父”的Jeffrey Hinton(杰弗里·辛顿),另一位是Google的首席科学家、Gemini项目的联合负责人Jeff Dean(杰夫·迪恩)。 这是一场“双Jeff”的对话。他们不仅仅是在聊技术,更是在复盘过去几十年里,现代AI是如何从在一个留学生的卧室里跑数据,一路狂奔到如今足以改变人类文明进程的庞然大物。 即便你是AI圈的老炮,这场对话里也藏着不少你没听过的内幕——比如当年那场在赌场里进行的疯狂竞拍,或者早在ChatGPT数年前,Google内部其实已经有8万员工在用聊天机器人了。 算力觉醒:一个迟到了几十年的领悟 故事得从很久以前说起。Geoffrey Hinton早在80年代中期就搞出了反向传播算法(Backprop),而Jeff Dean在1990年写本科论文时,就已经在尝试并行训练神经网络了。 只要稍微懂点行的人都会问:既然算法有了,并行计算的想法也有了,为什么AI爆发得这么晚? Jeff Dean回忆起他的本科论文,当时他在32个处理器的机器上跑神经网络,结果发现效果并不好。但他犯了一个现在看来很“可爱”的错误:在增加处理器的时候,他没有增加模型的大小。 Hinton也坦承,自己在很长一段时间里都忽视了“算力”的重要性。早在80年代末,其实就已经有人证明了用并行计算跑语音模型比传统方法强,但大家(包括Hinton)都觉得那是大力出奇迹的笨办法,不如搞更精妙的算法。 直到2014年左右,Hinton才真正彻底“悟”了。AI的秘密其实简单得令人发指:模型更大、数据更多、算力更强,效果就会更好。 这是一个看似笨拙却无比有效的“缩放定律”(Scaling Law)。 传奇的开端:显卡、卧室和赌场 AI历史的转折点发生在2012年的AlexNet。这背后的故事比电影还精彩。 当时,Hinton的学生Alex因为不想写博士资格考试的文献综述,被Hinton逼着做ImageNet竞赛:每提高1%的准确率,就可以晚一点处理那个枯燥的考试。 于是,Alex买了两块GPU显卡,插在他父母家卧室的电脑上日夜训练。Hinton开玩笑说:“显卡钱是我们出的,但电费是他爸妈出的,我这是在帮学校省钱。”就这样,在卧室里诞生的AlexNet横扫了ImageNet,震惊了世界。 紧接着,高潮来了。那年冬天,为了收购Hinton和他的两个学生(Alex和Ilya)刚成立的空壳公司,几大科技巨头在NeurIPS大会期间的一个赌场酒店里展开了竞拍。 楼下是老虎机和赌桌,每当有人赢钱,铃声就大作;楼上,科技巨头们正以一百万美元为单位不断加价。虽然当时百度等公司也在竞价,但Hinton和学生们其实心里早有定数——他们想去Google,因为那是Jeff Dean在的地方,那是做研究最开心的地方。 最后,当价格高到一个疯狂的数字时,他们叫停了拍卖,选择了Google。 那个被黑莓错过的时代 在加入Google之前,其实还有一个让人唏嘘的插曲。Hinton的学生曾经把最新的语音识别技术推荐给了加拿大的国民企业——Research In Motion(黑莓手机的制造商)。 Hinton对他们说:“我们有比现在好得多的语音识别方案,免费教你们怎么做。” 结果黑莓傲慢地回复:“我们不需要语音识别,我们有全键盘。” 这个故事大概是那个时代最讽刺的注脚。后来,这项技术在Google落地,彻底改变了语音搜索的体验。 Google的秘密武器:TPU与被雪藏的聊天机器人 Jeff Dean在2013年做过一个简单的算术题:如果Google一定要把语音识别推给所有安卓用户,假设每人每天只用3分钟,Google当时的CPU算力得翻倍才撑得住。这意味着要买现在的两倍数量的服务器,这在财务上是不可接受的。 这个危机感直接催生了TPU(张量处理单元)的诞生。Jeff Dean在走廊里拦住CFO,硬是要了5000万美元预算,在连具体怎么用都还没完全想好的情况下,就把硬件搞出来了。现在回看,如果Google没有自研TPU,根本无法支撑如今庞大的AI训练需求。 至于大家最关心的——为什么Google起了大早却赶了晚集,让ChatGPT抢了先? 其实,早在ChatGPT发布之前,Google内部就已经有一个拥有8万日活用户的聊天机器人了(基于Meena/LaMDA技术)。员工们用它写代码、写信、甚至写论文摘要。但是,因为偶尔出现的“幻觉”问题(胡说八道),Google觉得这不符合“搜索公司”对准确性的严苛要求,所以迟迟不敢对公众发布。 直到OpenAI发布ChatGPT,引发了著名的“红色预警(Code Red)”,Google才意识到:哪怕有瑕疵,用户也疯狂需要这样的工具。随后,分散在DeepMind和Brain的团队迅速合并,全力打造现在的Gemini。 “从此幸福生活,或者我们全部完蛋” 对于未来20年,这两位顶级大脑怎么看? Geoffrey Hinton依然保持着他那种极度锋利且略带悲观的坦诚。当被问及AI将如何重塑世界时,他说了一句足以做书名的话: “如果有人真的把超级AI造出来了,结局只有两个:要么我们从此过上幸福快乐的生活,要么我们全部完蛋。” 但他随后补充了更具体的影响:...

December 19, 2025 · 1 min · fisherdaddy

告别演讲:亚马逊 CTO Werner Vogels 谈 AI 时代的“文艺复兴式开发者”

本文整理自Werner Vogels 在 AWS re:Invent 的最后一次主题演讲。在 Gemini 3 Pro 的帮助下,我把本次演讲中最核心的内容转成了一篇精彩的文章,以下为文章内容。 如果要用一个词来形容今年的 AWS re:Invent,那一定是“转折”。 这不仅仅是因为 AI 正在重塑我们的行业,更因为那个穿了 12 年 T 恤、在台上跑来跑去的亚马逊 CTO —— Werner Vogels 宣布,这是他最后一次在 re:Invent 发表主题演讲了。 别慌,他不是要离开亚马逊。他只是觉得,在这个风起云涌的时代,该把舞台留给更多年轻、鲜活的声音了。 但在这最后的谢幕演讲中,Werner 没有煽情,而是非常硬核地回答了那个悬在所有程序员头顶的达摩克利斯之剑:“AI 会抢走我的饭碗吗?” 答案是:绝不。前提是,你得进化。 我们正在步入一个新的“文艺复兴”时期,作为开发者,我们需要一套全新的生存哲学。 房间里的大象:AI 与我们的未来 我们先来聊聊那个“房间里的大象”。无论是在非洲、拉美还是亚洲,Werner 到访每一个城市时,大家都在问同一个问题:AI 会让我失业吗? 让我们换个角度问:AI 会让我变得过时(Obsolete)吗? 回想一下历史。当你还在学校里学 Pascal 和 COBOL 的时候,编译器出现了,汇编语言似乎不再那么重要了;后来有了结构化编程,有了面向对象,有了 Cloud……每一次工具的进化,都伴随着开发者角色的转变。 现在,即使有了像 Cursor 或 AWS 自家的 Q 这样的 AI 编程助手,它们依然无法拿走只有你才能做的事情。 这是你的工作,不是工具的工作。 我们正处于一个像历史上“文艺复兴”一样的时刻——艺术、科学、工程正在以前所未有的速度融合。为了在这个新时代生存并从一个单纯的“码农”进化为不可替代的构建者,Werner 提出了一个全新的框架:“文艺复兴式开发者”(The Renaissance Developer)。 这个框架包含五个核心特质。 1. 永不满足的好奇心 (Be Curious) 你是怎么学会编程的?是不是通过写出满是 Bug 的代码,然后盯着报错信息抓耳挠腮学会的? 学习新东西最快的方法,就是失败。 就像 Da Vinci 设计过永远飞不起来的飞机模型一样,只有愿意失败,才能真正学习。Werner 提到他在学外语时的体会:你背再多语法书也没用,真正的学习发生在当你跌跌撞撞地开口说话,然后被别人温和地纠正时。...

December 12, 2025 · 2 min · fisherdaddy

蔡崇信港大演讲实录 2025:中国AI并没有输,底牌是电力与开源

本文整理自蔡崇信在香港大学的演讲。在 Gemini 3 Pro 的帮助下,我把本次演讲中最核心的内容转成了一篇精彩的文章,以下为文章内容。 这几天香港大学最热闹的地方非陆佑堂莫属。不是因为有什么明星演唱会,而是阿里巴巴现任主席、也是曾经的“幕后英雄”蔡崇信(Joe Tsai)来了。 这是港大“陈坤耀杰出学人讲座”的现场,在这个有着历史沉淀的礼堂里,Joe 并没有照本宣科地念稿子,而是和港大经管学院副院长邓希炜教授来了一场非常实诚的“炉边谈话”。从NBA聊到阿里发家史,再到那个甚至有点敏感的话题——中美AI竞赛,中国到底能不能赢? 整场对话干货很多,逻辑很硬。我把其中最核心的观点嚼碎了整理出来,咱们聊聊这位顶级商界大脑是怎么看未来的。 一、 篮球:不只是生意,是最好的外交 咱们先不说冷冰冰的商业。大家都知道 Joe 是布鲁克林篮网队的老板,前阵子他还把球队带到了澳门打比赛。 对此 Joe 的态度特别坦诚:NBA 想回中国,中国也需要 NBA。这确实是一门好生意,毕竟中国有全球最大的篮球迷群体。但更重要的是,体育是一种不需要翻译的语言。 他特别提到了自己正在做的一个公益项目:每年挑选几位中国初二的学生,全额资助他们去美国读高中、打篮球。这不仅是为了培养下一个姚明,更是为了让美国的孩子看到真实的中国同龄人,也让中国孩子去体验外面的世界。这种“人与人”的连接,在这个地缘政治紧张的时代,比什么公关都管用。 二、 阿里“变形记”:活下来的秘密只有一条 回想 1999 年,中国的人均 GDP 只有 800 美元,现在是 13,000 美元。蔡崇信说他很幸运,刚好站在了中国制造业崛起和互联网爆发的交汇点上。 有人问阿里的“秘方”是什么?怎么能从一个简单的 B2B 网站,变出淘宝、支付宝,再变成现在的阿里云和 AI 巨头? Joe 的回答简单得让人意外:不要为了收购而收购,要为了解决客户痛点去就要自己造。 淘宝是为了解决什么? 是为了帮那些刚加入 WTO 的中国工厂和商家把货卖出去。 支付宝是怎么来的? 买家怕付了钱不发货,卖家怕发了货不给钱。为了解决“信任”危机,阿里才搞了个担保交易,这就是支付宝的前身。 为什么要搞云计算? 这是一个“逼上梁山”的故事。16 年前没人在乎云,但阿里数据量太大了。当时的 CTO 算了一笔账:如果不自己搞技术,继续买 Oracle、IBM 的设备,以后阿里赚的钱全得进这些美国公司的口袋。所以,阿里云最初是为了“自救”,是为了技术自主。 他说了一个给创业者的建议:凡是核心能力,尽量自己从内部长出来(Organic Growth),别总想着靠买别人的公司来拼凑。 自己的团队,才有那个 DNA。 三、 别被“产能过剩”忽悠了,这是中国的王牌 聊到宏观经济,Joe 的观点非常犀利。 现在外面有很多声音批评中国“产能过剩”(Overcapacity),试图向全球倾销。Joe 觉得这说法挺双标的。德国汽车出口全世界的时候,有人说德国产能过剩吗?没有。 所谓的“过剩”,本质上就是国内吃不下,通过出口换取外汇,再反哺国内经济。这不但不是坏事,反而是国家变富的必经之路。中国在新五年的规划里明确了要继续做强制造业,只不过这次不是做衬衫鞋子,而是电动车、电池、太阳能板。通过高端制造积累财富,老百姓腰包鼓了,消费自然就上来了。 他甚至给了一个惊人的数据:在淘宝上,年消费超过 6000 美元(约 4 万多人民币)的用户已经有 5600 万人。这个基数已经很大了,消费潜力就在那里。...

December 11, 2025 · 1 min · fisherdaddy