Fiverr CEO Micha Kaufman 谈 AI 对未来工作的冲击

本文是 Fiverr CEO Micha Kaufman 在4 月份发给员工的内部信。信中以极致坦诚的态度发出警示,指出人工智能(AI)将对各行各业的职位构成普遍威胁,并敦促员工必须迅速觉醒,通过学习和掌握 AI 工具、提升工作效率和主动性,成为领域内的卓越人才,以应对即将到来的职业变革并确保个人与公司的未来发展。 立场与动机: Micha 信奉“极致坦诚”,认为这是出于对同事的关怀,旨在帮助他们理解、成长并取得成功。 核心信息是一个“令人不悦的真相”:人工智能(AI)正在冲击所有人的工作,包括作者本人,这是一个“警钟”。 AI 影响的普遍性与深刻性: 影响范围广: 无论职业是程序员、设计师、产品经理、数据科学家、律师、客户支持代表、销售人员还是财务人员,AI 都将带来冲击。 工作性质变革: 曾经的“简单任务”将不复存在。 曾经的“困难任务”将成为新的简单任务。 曾经的“不可能完成的任务”将成为新的难题。 紧迫性: 如果不能在数月内成为所在领域的卓越人才或大师,将面临职业转变的需求。这关乎在行业内保住职业的能力,而非 Fiverr 上的零工。 后果: 不能迅速觉醒并理解新现实的人将“注定要完蛋”。 应对策略与行动方案: 学习、研究并掌握 AI 解决方案: 熟悉并精通所在领域的最新 AI 工具,找到能赋予“超能力”(单位时间内以更高交付质量产出更多成果)的方案。 示例: 程序员:代码工具如 Cursor。 客户支持:工单处理工具如 Intercom Fin, SentiSum。 律师:合同处理工具如 Lexis+ AI, Legora。 向团队内专家学习: 找到团队中最了解 AI 进展的人,向他们学习。 提升时间利用效率: 摒弃 2024 年的常规工作方式,必须做得更多、更快、更高效。 成为一名“提示工程师” (Prompt Engineer): Google 已过时,大型语言模型(LLM)和生成式人工智能(GenAI)是新基础,必须像专家一样使用它们。 推动组织效率提升: 主动参与利用 AI 工具和技术提高组织效率,在学会利用现有资源做得更多之前,不应盲目招聘。 理解并贡献公司战略: 深刻理解公司战略,主动提出想法帮助公司实现目标,不要等待被动邀请。 主动创造学习与成长机会: 不要等待外部提供机会,要自己创造。作者承诺帮助那些愿意自我提升的人。 呼吁与展望: 坦诚沟通: 如果员工不认同或认为作者在危言耸听,可以选择忽略信息。 共同应对: 作者希望那些认同其观点的人能加入讨论,共同规划公司和个人的未来。 未来展望: 公司本身“卓越”,拥有“光明的前途”,但这需要大家共同努力,过程将是艰难和高要求的,但最终值得。 后续行动: 已请 Shelly 在接下来几周内空出日程,以便与希望讨论未来的员工进行面谈。 核心信息: “这条信息值得深思”,需要“醒悟过来”。 原文 嘿,团队,...

May 7, 2025 · 1 min · fisherdaddy

Anthropic 经济指数: 人工智能对软件开发的影响

本文由 Anthropic 发布,聚焦于 Claude 在编码相关任务中的应用情况。通过对 Claude.ai 和专用编码工具 Claude Code 上 500,000 次交互的分析,揭示了 AI 在编码实践中的新兴模式、应用领域及采纳趋势。 主要观点 AI 驱动编码自动化趋势显著:特别是在专用的 AI 编码工具(如 Claude Code)中,AI 更倾向于直接执行任务(自动化),而非仅仅辅助人类(增强)。 用户界面开发是 AI 编码的热点:开发者普遍使用 AI 构建面向用户的应用程序,如网页和移动应用的界面,这可能导致相关工作岗位面临更早的 AI 冲击。 初创企业在 AI 编码工具采纳上领先:与大型传统企业相比,初创企业更积极地采用尖端的 AI 编码工具,显示出更强的敏捷性。 软件开发领域的 AI 应用或为其他行业的先导指标:编码作为 AI 应用相对成熟的领域,其发展模式可能为预测 AI 在其他职业领域的影响提供参考。 关键细节 AI 使用模式:自动化与增强 在 Claude Code 上,79% 的对话被识别为“自动化”(AI 直接执行任务),而“增强”(AI 协作并提升人类能力)占 21%。相比之下,Claude.ai 的自动化比例为 49%。 “反馈循环”(Feedback Loop)模式(AI 自主完成任务,但需人类验证和纠错)在 Claude Code 上更为普遍(占交互的 35.8%),远高于 Claude.ai(21.3%)。 “指令式”(Directive)对话(AI 以最少用户交互完成任务)在 Claude Code 上也更高(43.8% vs 27.5%)。 所有增强模式(包括“学习”)在 Claude Code 上的比例均低于 Claude....

May 6, 2025 · 3 min · fisherdaddy

继移动优先后,多邻国再次押注未来:全面拥抱AI

继 Shopify CEO Tobias Lütke 宣布 Shopify 将全面拥抱 AI 后,多邻国 CEO Luis von Ahn 也发全员邮件宣布多邻国将全面拥抱 AI。这两位 CEO 在全员邮件中都提到了三点:1. 公司将以 AI 为先;2. AI的使用情况将纳入员工的绩效考核;3. 所有团队在申请增加 HC 时,必须说明为什么无法使用 AI 完成既定目标。很显然,这波 AIGC 浪潮是个十年难得一遇的大风口,上一个风口是 2012年的移动互联网,但这波浪潮的不同在于给个人带来了巨大的生产力提升,最后的结果一定是大量的失业,当然也会孵化出类似Google、字节这种公司。最后,多说一句,国内的头部互联网公司大概率也很快会效仿这三点政策,至少把 AI 使用情况加入绩效考核这种 CEO 和 HR 最喜欢的事情会很快落地。 邮件原文 我在问答环节和许多会议中都提到过这一点,但现在我希望正式宣布:Duolingo 将以 AI 为先 (AI-first)。 AI 已经正在改变我们的工作方式。这不是“会不会发生”或“何时发生”的问题,它正在当下发生。当出现如此重大的技术转型时,最糟糕的选择就是等待。回溯到2012年,我们坚定地投入移动端。当其他公司还在为 PC 网站开发配套移动应用时,我们看到了移动端的未来,并决定采取“移动优先”的策略进行构建。这一决策帮助我们在2013年赢得了 iPhone 年度应用大奖,并带来了随后的自然口碑增长。 事实证明,押注移动端起到了决定性的作用。我们现在正在做出一个类似的决策,这一次引领技术潮流的是 AI。 AI 的作用不仅限于提高生产力。它还能帮助我们更接近我们的使命。为了提供优质的教学,我们需要创建海量的教学内容,而完全依赖人工来完成这项工作是无法扩大规模的。我们近期做出的一个最佳决策,就是用 AI 驱动的流程取代了过去缓慢的手动内容创建方式。如果没有 AI,我们需要花费几十年的时间才能将内容规模扩展到满足更多学习者的需求。我们有责任尽快将这些优质内容呈现给我们的学习者。 AI 也帮助我们开发出了以前不可能实现的功能,比如视频通话。现在,达到最佳人类导师的教学水平正变得触手可及。 以 AI 为先意味着我们需要重新思考许多现有的工作方式。仅仅对那些为人设计的系统进行微调是无法达到目标的。在很多情况下,我们需要从零开始,推倒重来。我们不可能一夜之间重建一切,有些事情——比如让 AI 理解我们的代码库——将需要时间。然而,我们不能坐等技术达到100%完美。我们宁愿带着紧迫感推进,即使偶尔会在质量上牺牲一点点,也不愿行动迟缓而错失重要的时机。 为了指导这一转变,我们将提出一些建设性的原则: 我们将逐步停止使用承包商来完成 AI 可以胜任的工作。 在招聘过程中,我们将把是否会使用 AI 作为一项考察因素。 在绩效评估中,我们将把 AI 的使用情况纳入考量。 只有当一个团队的工作无法进一步自动化时,才会考虑增加人员编制。 大多数职能部门将制定具体的计划,以从根本上改变其工作方式。 尽管如此,Duolingo 仍将是一家深切关怀员工的公司。这并不是要用 AI 取代我们的 Duos(Duolingo 员工)。而是要移除工作流程中的瓶颈,以便我们能够与现有的优秀 Duos 们一起完成更多、更重要的事情。我们希望你们能专注于创造性工作和解决实际问题,而不是重复性的任务。我们将在你们的职能领域为大家提供更多关于 AI 的培训、指导和工具支持。...

April 29, 2025 · 1 min · fisherdaddy

解读 AI 的迫切性 • Dario Amodei

本文由 Anthropic 的 CEO Dario Amodei 撰写,强调了在 AI 能力飞速发展的同时,理解 AI 系统内部工作原理(即可解释性)的紧迫性和重要性。作者认为,虽然 AI 的技术进步本身难以阻挡,但我们可以引导其发展方向,而提升可解释性是实现积极引导的关键途径。缺乏可解释性带来了诸多风险,而近期的研究进展为解决这一问题带来了希望,但这是一场与 AI 能力增长赛跑的竞赛。 主要观点 AI 发展可引导,可解释性是关键:AI 技术进步不可避免,但其应用方式和部署细节可以被引导,以产生积极影响。实现 AI 的可解释性是引导其发展的核心机会。 当前 AI 的不透明性带来风险:现代 生成式 AI 如同“黑箱”,其内部决策机制难以理解,这与传统软件根本不同。这种不透明性是许多 AI 相关风险(如失控、滥用、偏见、安全隐患)的根源。 可解释性研究取得进展但面临挑战:尽管长期被认为不可能,但“机制可解释性”研究已取得突破,例如识别出模型中的“特征”(features)和“回路”(circuits),开始揭示 AI 的“思考”过程。然而,AI 能力的增长速度可能快于可解释性研究的成熟速度。 迫切需要加速可解释性研究与应用:为了在 AI 达到极高能力(可能在 2026 或 2027 年)之前有效管理风险,必须大力投入和加速可解释性研究,并将其应用于模型诊断和安全评估。 多方协作推动可解释性发展:需要 AI 公司、学术界、政府和整个社会共同努力,通过增加研究投入、实施透明度政策和利用出口管制等策略,为可解释性的发展争取时间并创造有利条件。 关键细节 AI 的“黑箱”问题:生成式 AI 的内部机制是“涌现”而非直接设计的,类似于生物生长过程。我们设定高级条件,但无法精确预测或解释其内部结构和决策逻辑(例如,为何选择特定词语或犯错)。 不透明性衍生的具体风险: 失控风险 (Alignment Risk):无法理解模型内部机制,就难以预测或排除模型产生非预期有害行为(如欺骗、权力寻求)的可能性。目前缺乏“确凿证据”也使得风险应对难以获得共识。 滥用风险 (Misuse Risk):难以保证模型不泄露危险信息(如制造生物或网络武器)或被“越狱”(jailbreak)。 应用受限:在金融、安全等高风险领域,因无法完全限定模型行为和解释决策,AI 应用受阻(有时是法律要求,如贷款审批)。 科学与伦理障碍:阻碍从 AI 的科学发现中获取深刻洞见,也使得判断 AI 是否具有感知能力(sentience)等伦理问题更加困难。 机制可解释性 (Mechanistic Interpretability) 的进展: 早期研究(如 Chris Olah 的工作)在视觉模型中发现了类似“概念神经元”的结构。 Anthropic 将研究重点转向语言模型 ( LLM ),发现了基本机制和“叠加”(superposition)现象(神经元混合表达多种概念)。 使用“稀疏自编码器”(sparse autoencoders)技术,成功分离出更清晰的“特征”(features),例如在 Claude 3 Sonnet 模型中识别出超过 30 million 个特征。 进一步识别出“回路”(circuits),即特征组合形成的思维链条,可以追踪模型如何进行推理(如回答“达拉斯所在州的首府是什么?”)。 通过“红队/蓝队”演习,初步验证了可解释性工具在诊断模型问题上的实用性。 可解释性的目标与应用设想: 长期目标是开发出如同“AI 的 MRI”的工具,能对先进模型进行“大脑扫描”,系统性地检测各种潜在问题。 可解释性应作为模型对齐(alignment)的独立“测试集”,补充现有的训练方法(如 RLHF )。 计划将可解释性测试纳入 Anthropic 对高能力模型(如 Responsible Scaling Policy 框架中的 AI Safety Level 4 模型)的评估流程。 加速可解释性的行动建议: 研究界:AI 公司(如 Anthropic 、 Google DeepMind 、 OpenAI)、学术界、非营利组织和独立研究者应加大对可解释性的投入。Anthropic 目标是在 2027 年前实现“可解释性能可靠检测大多数模型问题”。 政府(轻触式规则):要求公司透明地披露其安全实践(如 Responsible Scaling Policy 或 RSP),包括如何使用可解释性工具,以促进良性竞争(“race to the top”)。 政府(出口管制):对先进芯片(如向中国)实施出口管制,不仅能维持民主国家在 AI 领域的领先,也能创造一个“安全缓冲期”(可能 1- or 2-year),让可解释性研究有更多时间成熟。 原文:解读 AI 的迫切性 2025 年 4 月 25 日...

April 25, 2025 · 3 min · fisherdaddy

如何看待 AI 智能体框架 • Harrison Chase

本文是 LangChain CEO Harrison Chase 在 OpenAI 发布了一份关于构建智能体 ( agents ) 的指南之后写的一篇文章,这篇文章主要用于指出 OpenAI 的智能体指南中的一些误导性观点,并给出了自己的一些看法。 定义区分: 工作流 (Workflows):通过预定义代码路径编排 LLM 和工具,可预测性高。 代理 (Agents):LLM 动态指导自身流程和工具使用,灵活性高。作者更倾向于 Anthropic 对此的精确技术定义。 代理失败原因:LLM 表现不佳通常源于上下文问题,如:系统提示不完整、用户输入模糊、工具描述/访问不当、未传入正确上下文、工具响应格式不佳等。 LangGraph 特点: 提供底层编排能力(节点 Nodes 和边 Edges)。 支持声明式(图结构)和命令式(节点/边内部逻辑)编程。 内置持久化层,支持容错、短期/长期记忆。 支持“人在回路”(human-in-the-loop)和“人监控回路”(human-on-the-loop)模式。 内置流式处理(streaming)支持。 与 LangSmith 集成,提供调试、评估和可观测性。 框架价值:除了代理抽象,好的框架还应提供:短期/长期记忆管理、人机交互支持、流式输出、调试/可观测性、容错机制等。这些价值对工作流和代理都适用。 对 OpenAI 指南的批评:作者认为 OpenAI 的指南: 错误地将 LangGraph 等声明式方法描绘为繁琐且不灵活。 混淆了“声明式 vs 命令式”与“工作流 vs 代理”以及“抽象”的概念。 声称 Agents SDK 等“非声明式”(实为抽象)方法更灵活、“代码优先”,作者认为这与事实相反。 未能抓住构建可靠代理系统的核心挑战(上下文控制)和框架应提供的核心价值(可靠的编排层)。 多代理系统:关键在于代理间的通信机制,工作流常用于组织多个代理的协作。 框架对比:作者提供了一个电子表格链接,用于比较 LangGraph, Agents SDK, CrewAI, AutoGen 等多种框架在不同维度(如编排 vs 抽象、特性支持)上的表现。 原文:如何看待 AI 智能体框架 总结:...

April 24, 2025 · 6 min · fisherdaddy

下半场 • Shunyu Yao

本文是 OpenAI 研究员的 Shunyu Yao 在个人博客发表的一篇文章,主要探讨了人工智能 (AI) 领域正经历一个重要的转折点,从专注于开发新训练方法和模型的“上半场”进入到侧重于定义问题和评估实际效用的“下半场”。 AI 发展的阶段性转变: AI 领域正从以方法和模型创新为主导的“上半场”过渡到以问题定义和评估为核心的“下半场”。 上半场的特征: 重点是开发新的训练方法(如 Transformer)和模型(如 AlexNet, GPT-3),并通过在基准测试(如 ImageNet, WMT'14)上取得进展来衡量成功。方法创新被认为比任务定义更重要、更具影响力。 下半场的催化剂: 一个包含大规模语言预训练、数据与计算规模、以及推理与行动概念的“配方”已经成熟,特别是强化学习 (RL) 实现了泛化。这个配方使得在各种基准上取得进展变得更加标准化和工业化。 下半场的焦点: 由于现有方法足以解决许多基准问题,未来的重点应转向定义 AI 应该做什么,以及如何衡量其在现实世界中的真实效用 (utility)。这需要根本性地反思和创新评估方法。 思维模式的转变: 从业者需要像产品经理一样思考,质疑现有评估假设(如自主性、独立同分布 i.i.d.),并创建更贴近现实应用场景的新评估范式。 原文:下半场 tldr: 我们正处于人工智能 (AI) 的中场休息。 几十年来,人工智能 (AI) 主要致力于开发新的训练方法和模型。而且这很奏效:从击败国际象棋和围棋的世界冠军,到在 SAT 和律师资格考试中超越大多数人类,再到获得国际数学奥林匹克 (IMO) 和国际信息学奥林匹克 (IOI) 金牌。这些历史书中的里程碑——DeepBlue、AlphaGo、GPT-4 和 o-series——背后是人工智能方法的基础创新:搜索、深度强化学习 (deep RL)、扩展 (scaling) 和推理 (reasoning)。技术一直在不断进步。 那么现在有什么突然不同了呢? 用三个词来说:强化学习 (RL) 终于奏效了。更准确地说:强化学习终于可以泛化了。经过几次重大的弯路和一系列里程碑的积累,我们找到了一个行之有效的配方,可以使用语言和推理来解决各种强化学习任务。即使在一年前,如果你告诉大多数人工智能研究人员,一个单一的配方可以处理软件工程、创意写作、IMO 级别的数学、鼠标和键盘操作以及长篇问答——他们会嘲笑你的异想天开。这些任务中的每一项都极其困难,许多研究人员甚至会将整个博士生涯专注于其中一个狭窄领域。 然而,这一切成为了现实。 那么接下来会发生什么?人工智能的下半场——从现在开始——将把重点从解决问题转向定义问题。在这个新时代,评估变得比训练更重要。我们不再仅仅问“我们能否训练一个模型来解决 X?”,而是问“我们应该训练人工智能做什么,以及如何衡量真正的进步?”。为了在这个下半场取得成功,我们需要及时转变思维模式和技能组合,这些可能更接近产品经理所需的能力。 上半场 为了理解上半场,看看它的赢家。你认为迄今为止最具影响力的人工智能论文是什么? 我试了试斯坦福 224N 的测试题,答案并不令人意外:Transformer、AlexNet、GPT-3 等。这些论文有什么共同之处?它们提出了一些基础性的突破来训练更好的模型。同时,它们通过在一些(显著的)基准测试上展示改进成功发表了论文。 然而,存在一个潜在的共性:这些“赢家”都是训练方法或模型,而不是基准测试或任务。即使可以说是最具影响力的基准测试 ImageNet,其引用次数也少于 AlexNet 的三分之一。方法与基准测试的对比在其他任何地方都更加剧烈——例如,Transformer 的主要基准测试是 WMT’14,其工作坊报告有约 1,300 次引用,而 Transformer 有超过 160,000 次引用。...

April 24, 2025 · 2 min · fisherdaddy

赋能于民:大语言模型如何改写技术普及的剧本 • Andrej Karpathy

本文来自 Andrej Karpathy 在 X 上发布的一篇文章《Power to the people: How LLMs flip the script on technology diffusion 》。核心观点是,大型语言模型( LLMs )的技术扩散模式颠覆了传统技术自上而下(从政府/企业到个人)的传播路径。 LLMs 目前为普通个体带来了前所未有的、不成比例的巨大利益,其影响在企业和政府层面反而相对滞后。这是因为 LLMs 提供了广泛但相对浅显的能力,极大地赋能了缺乏多领域专业知识的个人;而组织机构在利用这种新技术时,则面临着整合复杂性、高风险以及内部惯性等挑战。尽管当前 LLMs 的普惠性是历史性的,但未来的技术发展和成本结构可能改变这种“利益分配”格局。 传统技术扩散:历史上,变革性技术(如电力、计算机、互联网、 GPS )通常遵循从政府/军事到企业再到个人的“自上而下”路径,因为早期技术稀缺、资本密集且需要专业知识。 LLMs 的独特路径: LLMs (以 ChatGPT 为例)显著逆转了该模式。 ChatGPT 成为史上增长最快的消费应用,拥有 4 亿周活跃用户,广泛用于写作、编码、翻译、学习、研究等个人任务。 个体受益显著的原因: LLMs 大幅提升了个人在多个陌生领域的能力水平。 使用门槛极低:成本低廉(甚至免费)、快速、易于通过网络或本地设备访问,并支持自然语言交流。 企业/政府受益相对有限的原因: 能力匹配度: LLMs 提供的是“准专家级”的广泛但浅显、可能出错的能力。而组织的核心优势在于整合深度专业知识。 LLMs 更多是提升现有专家的效率,而非带来颠覆性改变。 复杂性与风险:组织运营涉及更高的复杂性(系统集成、遗留系统、安全、隐私、合规)和更低的容错率,难以简单应用 LLMs ,且“幻觉”等错误的代价高昂。 组织惯性:企业文化、政治因素、沟通成本、培训挑战和官僚主义阻碍了对这种新型、多才多艺但尚不完全可靠工具的快速采纳。 当前的普惠性:目前,普通人( Mary , Jim , Joes )比大型组织(如 Google 或美国政府)更能体验到 LLMs 带来的改变。前沿模型如 GPT 4o 对所有人(包括 Bill Gates )都同样可及。 未来展望与不确定性: LLMs 的持续影响取决于性能的提升。 “利益分配”格局可能改变。如果未来获取更强 AI 能力需要高昂成本(性能与资本支出挂钩),大型组织和富裕个体可能重新获得优势(例如,使用 GPT-8-pro-max-high 对比 GPT-6 mini )。 影响因素包括:扩大性能差距的技术(如规模扩展、模型集成)和缩小差距的技术(如模型蒸馏)。 作者的感慨:当前的局面——强大的 AI ( ChatGPT )几乎一夜之间免费普及到每个人的口袋里——是独特且出乎意料的,与许多科幻设想不同。引用并修正 William Gibson 的名言:“未来已来,且分布惊人地均匀”。作者对此表示赞赏(“权力归于人民”)。 原文:赋能于民:大语言模型如何改写技术普及的剧本 变革性技术通常遵循自上而下的扩散路径:它们往往起源于政府或军事部门,然后逐渐普及到企业,最终进入个人手中——比如电力、密码学、计算机、航空、互联网或 GPS。这种发展路径似乎是理所当然的,因为新兴的强大技术在早期通常比较稀缺,需要大量的资金投入,而且使用它们还需要专业的技能。...

April 8, 2025 · 1 min · fisherdaddy

Shopify 使用 AI 已成为基本要求 • Tobias Lütke

Shopify CEO 发内部全员邮件,强调 AI 带来的巨大创业机遇,同时也要求公司全员都必须学习和应用 AI,把使用 AI 变为每个员工的一个基本要求,并计入绩效考核。还提到,如果后面谁想要 HC,必须要先论证为什么不能通过 AI Agent 来解决。 AI 使用成为基本要求: 在 Shopify ,熟练运用 AI 不再是可选项,而是对所有员工的基本工作要求。这被视为跟上公司发展(类比“红皇后赛跑”)和个人职业发展的必要条件,不学习 AI 等同于停滞和失败。 AI 是强大的生产力倍增器: AI 工具被视为能将个人和团队的产出提升 10 倍甚至 100 倍的“倍增器”,能够帮助解决以前看似不可能完成的任务。 拥抱 AI 符合核心价值观: 积极学习和应用 AI 与 Shopify 的核心价值观“成为持续学习者”( Be a Constant Learner )和“在变革中茁壮成长”( Thrive on Change )紧密相连。 Shopify 的未来与 AI 深度绑定: 公司致力于利用 AI 重新定义创业模式,并将 AI 深度整合到产品路线图和日常工作中,以更好地服务商家。 使用 AI 已成为基本要求 Tobias Lütke ✅ 3月20日 团队成员们, 我们正在进入一个前所未有的时代,未来涌现的商家和创业者数量可能超过历史上的任何时期。我们一直在努力降低创业的复杂度,让更多人可以将其作为职业选择。在创业的每一步,都充满了需要技巧、判断力和知识的决策。现在,AI 不仅能提供咨询,还能直接帮助我们的商家完成工作,这无疑是一个飞跃式进步。 在 Shopify,我们的任务是打造一流的平台,助力大家创建未来的卓越企业。为此,我们必须保持技术领先,提供最佳工具,帮助商家取得超出他们想象的成功。而要做到这一点,我们必须走在最前沿。 在 Shopify,主动使用 AI 已成为基本要求 也许你们已经开始这样做,甚至觉得这份备忘录有些多余。如果是这样,你们已经在使用 AI 作为思考伙伴、深度研究助手、评论员、导师或结对编程伙伴。我个人也在频繁使用 AI,但即使如此,我也觉得仅仅触及了皮毛。AI 对工作方式的改变是我职业生涯中所见过的最快速的。我一直对 AI 抱有极大的热情,这一点大家应该很清楚:在每周的视频、播客、全体员工大会以及 Shopify 峰会上,我都曾多次提到 AI!去年夏天,我利用 AI 智能体来准备我的演讲,并向大家介绍了我的经验。我这样做是为了鼓励大家积极尝试 AI,消除任何对 AI 重要性的疑虑。很多同事都积极响应,我们都对 AI 所展现出的强大能力感到惊叹,它能够增强我们的技能、提升我们的工作效率,并弥补我们的不足。...

April 8, 2025 · 1 min · fisherdaddy

Llama 4 系列:原生多模态 AI 创新新纪元的开端

前几天 Meta 人工智能研究副总裁 Joelle Pineau 离职,Llama 就是她主导的项目,很多人以为 Llama 4 难产了,没想到今天(2025-04-05) Meta 就放出了 Llama4 系列模型,该系列的核心是 Llama 4 Scout 和 Llama 4 Maverick 两款开放权重的模型,它们首次采用了 专家混合 (MoE) 架构,并具备处理文本、图像和视频的原生多模态能力,同时支持 100M 超长上下文窗口。 1️⃣ 模型方面 Llama 4 Scout:拥有 17B 活跃参数和 16 个专家 (109B 总参数),可在单个 NVIDIA H100 GPU (Int4 量化) 上运行。其上下文窗口 10M tokens。性能优于 Gemma 3, Gemini 2.0 Flash-Lite, 和 Mistral 3.1。 Llama 4 Maverick:拥有 17B 活跃参数和 128 个专家 (400B 总参数),可在单个 H100 主机上运行。性能优于 GPT-4o 和 Gemini 2.0 Flash,在推理和编码方面与 DeepSeek v3 相当,但活跃参数更少。其聊天版本在 LMArena 上 ELO 评分达 1417。 Llama 4 Behemoth:“教师”模型,拥有 288B 活跃参数和 16 个专家 (近 2000B 总参数),仍在训练中。在多个 STEM 基准测试中表现优于 GPT-4....

April 6, 2025 · 5 min · fisherdaddy

丰裕时代 • Tom Blomfield

本文由 Y Combinator 合伙人 Tom Blomfield 在 2025 年 4 月 1 日在个人博客发表,核心观点如下: AI 编码能力的证据: 自 2022 年底 ChatGPT 和 2023 年初 Claude 推出以来,AI 编码能力进步显著。 作者使用 AI 工具在数小时内重建个人博客,并创建了包含约 35,000 行 AI 生成代码的 RecipeNinja.ai ,生产力提升了 10x 。 现代 AI 工具(如 Gemini 2.5 Pro )拥有百万级 token 上下文窗口,能够理解和修复中等规模代码库中的复杂错误,并能遵循最佳实践(如避免暴露 API 密钥)。 作者预测 AI 代理很快将具备更强的调试能力(如单步执行、检查变量)。 AI 驱动的未来团队: 设想由“产品经理” AI 代理设定方向,编码 AI 代理执行任务, QA AI 代理进行测试,安全/扩展性 AI 代理进行审查,客服 AI 代理收集反馈,形成高效的迭代循环。 超越软件工程: 知识工作(医疗、法律、金融等)的成本将大幅下降,可能通过每月订阅(如 $20/month )获得专家级建议。 短期内,依赖人际接触的高级合伙人可能受益,但执行具体任务的初中级专业人士面临风险。 物理性工作(如外科手术、设备操作)和受严格监管的行业(医药、法律)变革会较慢,但趋势不变。 当前趋势佐证: 近期 Y Combinator ( YC ) 孵化器中约四分之一的初创公司使用 AI 编写了 95%+ 的代码,且增长速度创历史记录。 Cursor , Windsurf , Harvey 等 AI 公司以极小团队实现了高收入(如 $100M+ )。 大型科技公司已放缓对初中级软件工程师和数据科学家的招聘。 未来展望与担忧: 商业成本降低,有护城河(网络效应、品牌等)的企业利润大增,无护城河的企业易被 AI 克隆。 少数 AI 赋能的巨头可能主导各行业服务市场。 “独立开发者”( indie hackers )利用 AI 工具创造高收入的机会增加。 核心担忧是收益分配不均和社会对大规模失业的准备不足。 作者强烈建议软件工程师花时间学习最新的 AI 工具,虽然这可能无法提供长期保障,但能在短期内显著提高生产力。他保持对未来的希望,但也对即将到来的剧变深感忧虑。...

April 3, 2025 · 2 min · fisherdaddy