生成式 AI 的 Act o1

本文讨论了生成式 AI 领域的最新进展,特别是从快速响应(“System 1”)向推理能力(“System 2”)的转变。这一转变标志着 AI 系统在推理和认知操作方面的能力显著提升,开启了一个新的“代理性应用”时代。文章还探讨了生成式 AI 市场的现状及未来趋势,特别是 OpenAI 推出的 o1 模型如何通过推理时间计算实现更强的推理能力。此外,作者分析了 AI 市场的各个层次(基础设施、模型、开发工具和应用层)的竞争格局,指出应用层的机会最大,特别是在构建定制的认知架构以应对现实世界中的复杂任务。 市场结构的稳定:生成式 AI 市场的基础层已经趋于稳定,主要由几大巨头主导,如 Microsoft/OpenAI、AWS/Anthropic、Meta 和 Google/DeepMind。尽管竞争激烈,但市场结构逐渐固化,预示着更便宜且更强大的预测能力即将到来。 推理层的崛起:随着基础层的稳定,AI 研究的重点转向推理层,即“System 2”思维。这种思维模式类似于 AlphaGo 的运作方式,即通过推理和模拟多个未来场景来做出更有深度的决策。 OpenAI 的 o1 模型:2024 年最重要的模型更新是 OpenAI 的 o1 模型(代号 Strawberry),这是第一个具有真正推理能力的模型。它通过推理时间计算实现了更复杂的推理能力,特别是在逻辑和数学等领域表现突出。 推理的挑战:与 AlphaGo 不同,语言模型在推理时难以构建明确的价值函数,因为许多任务(如写作或制定旅行计划)没有明确的评分标准。这使得推理在开放性任务中更加困难。 系统 1 与系统 2 思维:系统 1 思维是基于模式匹配的快速响应,而系统 2 思维则需要模型在推理时停下来思考,生成多种可能性并评估其结果。这种深度推理对于复杂任务(如数学或生物学突破)至关重要。 推理时间计算的扩展:o1 模型揭示了推理时间计算的新扩展规律,即给模型更多的推理时间,它的表现会显著提升。这一发现将推动从大规模预训练集群向动态推理云的转变。 应用层的机会:尽管基础层和模型层由巨头主导,但应用层仍有巨大的机会,特别是在构建能够应对现实世界复杂任务的定制认知架构方面。许多 AI 公司已经开始在各个行业中开发代理性应用,如 Harvey(AI 律师)、Factory(AI 软件工程师)和 Sierra(AI 客户支持)。 服务即软件的转变:生成式 AI 正在推动从软件即服务(SaaS)向服务即软件的转变。AI 公司通过代理性应用提供具体的工作成果,而不是简单的软件工具,从而瞄准了数万亿美元的服务市场。 未来展望:未来的 AI 发展将继续围绕推理和推理时间计算展开,特别是在复杂的现实世界任务中。多代理系统可能会成为一种新趋势,帮助 AI 实现更复杂的任务协作。最终,AI 可能会达到类似 AlphaGo 的“Move 37”时刻,即展示出超越人类的创新能力。...

November 6, 2024 · 2 min · fisherdaddy

AI 规模扩展能否持续到 2030 年?

本文探讨了人工智能(AI)训练规模的快速扩展是否能够持续到2030年。研究表明,AI模型的性能提升与计算资源的增加密切相关,当前AI训练的计算量每年增长约4倍。文章分析了四个关键限制因素:电力供应、芯片制造能力、数据稀缺性和“延迟壁垒”,并预测到2030年可能实现2e29 FLOP的训练规模,远超当前的GPT-4水平。尽管技术上可行,但实现这一规模的关键在于AI开发者是否愿意投入数千亿美元的资金。 电力限制 预计到2030年,美国数据中心的电力需求将显著增加,可能需要多达2至45 GW的电力供应,支持2e28到2e30 FLOP的训练运行。 单一数据中心的电力供应可能达到1至5 GW,地理分布的训练网络则能利用多个地区的电力资源。 扩展电力基础设施,如建设新的发电厂,可能需要3至5年的提前规划。 芯片制造能力 AI芯片(如Nvidia H100)的生产能力是AI扩展的另一个关键因素。尽管芯片制造商计划扩展生产能力,但受限于先进封装和高带宽内存(HBM)的生产能力。 预计到2030年,全球将有足够的产能生产1亿个H100等效GPU,支持9e29 FLOP的训练运行。 数据稀缺性 训练大型AI模型需要大量数据。当前网络上可索引的文本数据约为500万亿词,预计到2030年增加50%。 多模态数据(图像、视频、音频)将有助于缓解数据稀缺问题,可能使训练数据增加至6e28至2e32 FLOP的规模。 生成合成数据可能进一步扩展数据供应,但需要额外的计算资源。 延迟壁垒 延迟壁垒是AI训练的“速度限制”,随着模型规模的增加,训练时间也会增加。通过并行处理更多数据可以部分缓解这一问题,但批量大小的增加有一定限制。 预计到2030年,延迟壁垒可能限制训练运行在3e30到1e32 FLOP之间。 经济与投资考量 实现大规模AI训练的关键在于AI开发者是否愿意投入数千亿美元。微软和OpenAI的“Stargate”项目表明,业界可能正在为实现这一目标做准备。 经济回报可能驱动巨额投资,特别是如果AI能够实现大规模的经济自动化。 尽管存在电力、芯片制造、数据和延迟等限制因素,但AI训练的扩展在技术上是可行的。到2030年,AI训练规模可能达到2e29 FLOP,这将带来与当前GPT-4相比显著的性能提升。然而,能否实现这一目标取决于资金投入和基础设施扩展的速度。 引言 近年来,AI 模型 (AI models) 的能力显著提升。我们的研究表明,计算资源的增长是 AI 性能提升的重要原因之一。[1] 持续且可预测的规模效益使得 AI 实验室积极扩大训练规模,训练计算量以每年约 4 倍的速度增长。 AI 训练计算量每年 4 倍的增长速度,甚至超过了近代史上一些技术发展最快的时期。它超过了移动电话普及速度最快时 (2 倍/年,1980-1987 年),太阳能装机容量 (1.5 倍/年,2001-2010 年) 和人类基因组测序 (3.3 倍/年,2008-2015 年) 的增长速度。 本文探讨当前 AI 训练规模快速扩张的步伐(约每年 4 倍)能否持续到 2030 年。我们调查了可能限制规模扩展的四个关键因素:电力供应、芯片制造能力、数据稀缺性和“延迟墙 (latency wall)”。延迟墙是由 AI 训练计算中不可避免的延迟造成的根本速度限制。 我们的分析涵盖了生产能力的扩张、投资和技术进步等因素。这包括分析先进芯片封装设施的扩建计划、新增发电厂的建设以及数据中心的地域分布(以便利用多个电网)。为了考虑这些变化,我们纳入了来自各公共渠道的预测数据,包括半导体代工厂的扩张计划、电力供应商的容量增长预测、其他相关行业数据以及我们自己的研究。 我们发现,到 2030 年,进行 2e29 FLOP 的训练很可能在技术上可行。换句话说,到 2030 年,训练出比 GPT-4 更强大的模型,就像 GPT-4 比 GPT-2 更强大一样,将很有可能。[2] 如果继续发展下去,我们可能会在 2030 年前后看到 AI 出现巨大的进步,就像 2019 年 GPT-2 只能生成简单的文本,而 2023 年 GPT-4 却具备了复杂的问题解决能力一样。...

November 6, 2024 · 11 min · fisherdaddy

导引 - 形势感知 (Situational Awareness):未来十年 • Leopold Aschenbrenner

本文讨论了未来十年内人工智能(AI)领域的重大变革,尤其是通用人工智能(AGI)和超级智能的快速发展。作者认为,随着计算能力和算法效率的提升,AGI 可能在 2027 年前实现,并在此后迅速进化为超级智能。这场技术竞赛将引发全球范围的工业动员,特别是在美国,涉及数万亿美元的投资和国家安全力量的介入。本文还探讨了超级智能带来的挑战,包括安全问题、对抗中国的竞争,以及如何确保“自由世界”在这场竞赛中胜出。 AGI 竞赛的启动:目前,全球尤其是美国,正加速推进 AGI 的研发。预计到 2025/26 年,AI 的能力将超过许多大学毕业生,并在 2027 年前实现真正的 AGI。随着技术的快速发展,超级智能的出现也变得不可避免。 工业动员与电力扩张:为了支持 AGI 和超级智能的发展,美国将大规模扩展电力生产,预计未来十年内电力产量将增长数十个百分点。成百上千万的 GPU 将投入使用,推动工业的全面动员。 超级智能的潜力与风险:超级智能不仅将推动 AI 研究的自动化,还可能在极短时间内实现巨大的算法进步。然而,控制远超人类智能的系统仍是一个未解决的技术难题,处理不当可能导致灾难性后果。 国家安全的介入:随着 AGI 竞赛的加剧,美国政府将逐渐介入,预计到 2027/28 年会有一个正式的国家 AGI 项目启动。此时,国家安全力量将全面投入,确保 AGI 技术不落入敌对国家手中。 中美竞争与自由世界的存亡:超级智能将赋予拥有它的国家巨大的经济和军事优势。美国及其盟友必须在这场竞赛中保持领先地位,否则“自由世界”的生存将面临威胁。 安全与对抗中国:目前,许多 AI 实验室对安全问题重视不足,关键技术可能落入中国等国家之手。确保 AGI 的安全和防止技术外泄将是未来的关键任务。 导引 - 形势感知 (Situational Awareness):未来十年 Leopold Aschenbrenner,2024 年 6 月 想窥见未来?那就来旧金山 (San Francisco) 吧。 在过去一年里,城中热议的话题已经从百亿美元级的算力集群一路飙升到千亿美元级,再到万亿美元级。每六个月,企业规划的金额就翻十倍。在你看不到的地方,一场争夺战正激烈上演,目标是未来十年所有可用的电力合同和所有能采购到的电压变压器。美国各大企业正准备投入数万亿美元,开启一场久违的工业动员。到这个十年结束时,美国的电力产量将增长数十个百分点;从宾夕法尼亚州 (Pennsylvania) 的页岩气田到内华达州 (Nevada) 的太阳能农场,数亿个 GPU 将日夜轰鸣。 通用人工智能 (AGI) 的竞赛已经打响。我们正在建造能够思考和推理的机器。到 2025/26 年,这些机器的能力将超过许多大学毕业生。到这个十年结束时,它们将比你我都聪明;我们将迎来真正的超级智能 (Superintelligence) 时代。与此同时,沉寂了半个世纪的国家安全力量将被释放,不久之后,“The Project” (一个意义重大的项目)也将启动。如果我们幸运,我们将与中国 (CCP) 展开全面的竞争;如果我们不走运,那将是一场全面的战争。 现在人人都在谈论人工智能 (AI),但很少有人真正理解即将到来的变革。英伟达 (Nvidia) 的分析师仍然认为 2024 年可能接近峰值。主流评论员仍抱着“人工智能只是在预测下一个词”的观点,对即将到来的巨变视而不见。他们看到的只是炒作和商业活动,最多认为这只是又一次互联网规模的技术变革。...

November 6, 2024 · 1 min · fisherdaddy

李开复对 AGI 的核心认知以及关于 OpenAI 的一些信息

本文来自腾讯科技对李开复的访谈。李开复在对话中探讨了美国主导的 AGI(通用人工智能)可能带来的霸权问题,特别是 OpenAI 及其 CEO Sam Altman 的垄断野心。他认为,中国应通过建立一个良性生态系统来抵抗 AGI 垄断。核心策略是降低推理成本(推理成本每年将下降 10 到 50 倍,从而推动应用的普及),使得更多应用能够快速落地,形成广泛的应用生态。虽然中国在 AGI 研发上可能落后,但在应用落地和成本控制方面具有优势,中国可以通过快速发展应用来抵抗 AGI 垄断。 良性的生态 一个良性生态,应该是芯片赚最少的钱,平台赚蛮多的钱,应用赚最多的钱;平台本身比任何一个应用都赚钱;但所有应用加起来比平台赚更多的钱。PC、互联网、移动互联网是这样,云也是这样。AI是不是?绝对不是。 今天 AI 生态是芯片 GPU 占 750 亿美金>云厂商 100 亿>应用商 ChatGPT 这类只有 50 亿——是一个倒三角。如果持续是倒三角,AI-first 的应用不会雨后春笋冒出来。用户不会得到福利,大家做应用不会那么快 PMF(Product Market Fit,产品市场契合度)、赚到钱、融到资,不能达到良性生态系统的正向循环。 AI 应用为什么没爆发 AI 应用为什么不爆发?是因为推理成本太贵了。 前一阵有一篇文章《Situational Awareness: the Decade Ahead》(《态势感知:未来十年》,OpenAI 前员工撰写),大胆说 AGI 三年会发生,有些假设值得商榷。我觉得 Epoch AI(一家非营利研究组织)说得更靠谱,他们在今年 8 月一篇文章《Can AI Scaling Continue Through 2030?》(《人工智能的规模定律能否持续到 2030 年?》)中,分析了四件事: 数据还能多快增加? 世界生产 GPU 的能力,还有 HBM(高带宽存储器),就是内存的能力,能多快增加? 计算的耗损能多快增加?你作为一个神经网络,它的 forward backward 训练(前向传播和反向传播训练),使它不是 GPU 问题,而是传输问题。如果是一张变成两张传输还好,如果是 100 万张变成 200 万张,传输就会成为瓶颈。 还有一个,世界上有多少电? ——最后它计算的结果大概是 2030 年。...

November 6, 2024 · 2 min · fisherdaddy

推动音频生成的前沿 • DeepMind

本文介绍了最新的语音生成技术的进展,重点展示了如何通过先进的模型和算法推动更自然、更直观的数字助理和 AI 工具的语音交互。这些技术不仅能够生成高质量的单人语音,还能创建复杂的多角色对话,从而提升用户体验,促进知识获取。 语音生成技术的应用:这些技术已被应用于多个 Google 产品和实验项目中,如 Gemini Live、Project Astra、Journey Voices 和 YouTube 的自动配音,帮助全球用户与 AI 工具进行自然的互动。 最新功能开发: NotebookLM Audio Overviews:将上传的文档转化为生动的多角色对话,两个 AI 主持人总结用户材料并探讨相关主题。 Illuminate:生成关于研究论文的正式 AI 讨论,帮助知识更易于理解。 研究基础: 先前的研究(如 SoundStream 和 AudioLM)为音频生成奠定了基础,SoundStream 是一种神经音频编解码器,能够高效压缩和解压音频,而 AudioLM 则将音频生成视为语言建模任务。 这些技术可以灵活处理不同类型的声音,并且在生成多角色对话时表现出色。 最新模型的性能: 最新的语音生成模型能够在不到 3 秒的时间内生成 2 分钟的多角色对话,且语音自然度、角色一致性和音质都有显著提升。 模型通过专门的 Transformer 架构处理超过 5000 个音频标记,并使用新的语音编解码器将音频压缩至 600 bps 的低比特率。 训练和优化: 模型通过数十万小时的语音数据预训练,并通过小规模的高质量对话数据进行微调,确保生成的对话具有真实感,包括自然的停顿和语气变化。 通过使用 SynthID 技术,对生成的音频进行水印标记,以防止滥用。 未来发展: 未来的改进方向包括提升模型的流畅度、音质,并增加对语音特征(如语调)的细粒度控制,同时探索与视频等其他模态的结合。 这些技术将被应用于更广泛的场景,如教育和内容的普及化。 推动音频生成的前沿 发布时间:2024年10月30日 我们的开创性语音生成技术正帮助全球用户与更自然、对话性更强、更直观的数字助手和AI工具互动。 语音是人类交流的核心工具。它帮助人们在全球范围内分享信息、表达情感并建立相互理解。随着我们生成自然语音技术的不断进步,数字体验正变得更具吸引力、更加生动。 近年来,我们一直在推动音频生成的前沿,开发出能够从文本、节奏控制和特定声音等多种输入生成高质量自然语音的模型。这项技术已应用于Google的多个产品和实验中,包括 Gemini Live、Project Astra、Journey Voices 和 YouTube的自动配音,帮助全球用户与更加自然的数字助手互动。 我们与Google的合作伙伴一起,开发了两项新功能,用于生成多人的长篇对话,使复杂内容更易于理解: NotebookLM Audio Overviews:将上传的文档转换为生动的对话形式,两个AI主持人总结用户的内容并相互调侃。 Illuminate:生成关于研究论文的AI讨论,以帮助知识更易于消化。 音频生成的开创性技术 多年来,我们一直在进行音频生成研究,并探索如何将生成自然对话的技术应用到我们的产品和实验工具中。在先前的 SoundStorm 研究中,我们首次展示了生成多位说话者之间自然对话片段(长达 30 秒)的能力。...

October 31, 2024 · 1 min · fisherdaddy

介绍一下 OpenAI 推出的 SimpleQA

SimpleQA 是一个新的基准测试,旨在评估语言模型在回答简短、事实性问题时的准确性。该基准测试的核心目标是减少模型产生“幻觉”(即无根据的错误答案)的现象,并提升模型的可信度。SimpleQA 专注于简短的事实查询,确保问题有单一、不可争议的答案,从而使得评估模型的事实性表现更加可行。通过该基准,研究人员可以更好地衡量语言模型的准确性、校准性及其在不同问题类别中的表现。 SimpleQA 的特点: 高正确性:所有问题的参考答案由两名独立的 AI 训练师提供,并且这些问题经过严格筛选,以确保答案易于评分。 多样性:涵盖广泛主题,包括科学、技术、历史、音乐、视频游戏等多个领域。 挑战性:相比于老旧的基准(如 TriviaQA 和 NQ),SimpleQA 对前沿模型(如 GPT-4o)更具挑战性。 研究友好:由于问题简洁,SimpleQA 的运行速度快,评分效率高。 数据集构建: 问题由 AI 训练师从网上搜集,确保每个问题有单一、不可争议的答案。 为确保质量,问题经过三轮验证,最终的错误率约为 3%。 模型评估方法: 使用 ChatGPT 分类器对模型的答案进行评分,分为“正确”、“错误”和“未尝试”三类。 测试表明,较大的模型(如 GPT-4o 和 o1-preview)比较小的模型(如 GPT-4o-mini 和 o1-mini)表现更好,且后者更倾向于“未尝试”问题,表明它们可能更擅长判断何时不确定答案。 模型校准性: 校准性指模型对其回答的自信程度是否与实际准确性一致。SimpleQA 提供了两种方法来测量模型的校准性:一是通过模型自述的信心百分比,二是通过模型多次回答同一问题的频率。 结果显示,较大的模型(如 o1-preview 和 GPT-4o)在校准性上表现更好,但模型普遍倾向于过高估计其自信度。 结论与局限性: SimpleQA 是一个简洁但具有挑战性的基准,专注于短、事实性问题。然而,它的局限性在于仅测量简短回答的事实性,尚不清楚这是否与模型生成长篇、多事实回答的能力相关。 介绍一下 SimpleQA 2024 年 10 月 30 日 SimpleQA 是一个衡量语言模型回答简短、寻求事实的问题的能力的基准工具。 在人工智能领域中,一个未解决的问题是如何训练模型,使其生成的回答更加符合事实。当前的语言模型有时会产生错误的输出,或提供没有证据支撑的回答,这种现象被称为“幻觉”。生成更为准确、幻觉更少的语言模型可以增加可信度,并能够应用于更广泛的领域。为此,我们 开源了⁠(新窗口打开)一个名为 SimpleQA 的新基准工具,以衡量语言模型的事实性。 关于 SimpleQA 基准 事实性是一个复杂的话题,因为其评估难度很大——评价任意声明的真实度颇具挑战性,而语言模型可能会生成包含大量事实性信息的长篇回答。在 SimpleQA 中,我们专注于简短的、寻求事实的查询,尽管这缩小了评估范围,但使得衡量事实性变得更为可行。 我们创建 SimpleQA 数据集的目标是实现以下特性: 高准确性。 所有问题的参考答案均有两位独立 AI 训练师提供支持,问题设计也便于答案的评分。...

October 31, 2024 · 1 min · fisherdaddy

一个全新的媒体格局 • Cristóbal Valenzuela

Runway CEO Cristóbal Valenzuela 在这篇文章中阐述了他对 AI 和媒体未来的看法。他认为,AI 已经成为像电力或互联网一样的基础设施,因此称自己为“AI 公司”已经不再有意义。相反,未来的关键在于如何利用 AI 作为工具来创造全新的媒体形式和叙事方式。Runway 的目标是通过 AI 重新定义媒体和娱乐行业,创造互动、生成式和个性化的内容。AI 不再是终点,而是推动新媒体革命的手段。 AI 的基础设施角色:Valenzuela 认为 AI 已经像互联网一样普遍,成为所有公司都依赖的基础设施。称自己为“AI 公司”已经不再能准确描述企业的核心使命。 Runway 的愿景:Runway 专注于艺术、媒体和娱乐,认为 AI 是讲故事的必要工具。公司从建立最好的研究团队和模型开始,以实现这一愿景。 AI 类似于相机的历史作用:Valenzuela 将 AI 比作相机,认为它不仅是一个技术工具,更是改变整个行业、经济和艺术形式的催化剂。相机改变了人们捕捉现实的方式,而 AI 则改变了人们创造现实的方式。 新媒体的未来:他设想了一个全新的媒体景观,其中内容可以实时生成和响应观众的需求。AI 将打破传统的内容创作与分发的界限,创造互动性、生成式和个性化的媒体体验。 AI 公司逐渐过时:Valenzuela 认为,未来的创新不再来自于专注于开发更好 AI 模型的公司,因为这些技术已经成为商品化。真正的突破将来自那些能够利用这些工具创造新形式媒体和叙事的人。 Runway 的新使命:Runway 不再定位为 AI 公司,而是致力于利用 AI 工具创造新的媒体体验,回归公司最初的使命,即通过技术推动艺术和媒体的创新。 一个全新的媒体格局 2024年10月 Runway 并非一家 AI 公司。Runway 是一家媒体和娱乐公司。我认为,AI 公司的时代已经结束了。 这并不是因为 AI 失败了,恰恰相反,正是因为 AI 已经成为一种基础设施,和电力或互联网一样重要。如今称自己为 AI 公司,就像在 2024 年称自己为互联网公司一样没有意义。因为 AI 已经普及了。每家公司都在使用互联网;未来每家公司也都会使用 AI。 对 Runway 来说,我们的关注点是艺术、媒体和广泛的娱乐领域。我们在将近七年前创立 Runway 时,就提出了一个至今依然坚定的愿景:AI 是讲故事必不可少的工具。为了实现这个愿景,我们倒推构建了一个最优秀的研究团队,开发出最佳模型,从而打造出最好的产品。...

October 31, 2024 · 1 min · fisherdaddy

写作者与非写者 • Paul Graham

保罗格雷厄姆的这篇文章预测,未来几十年内,会有越来越少的人具备写作能力。这是因为写作本质上是一项艰难的技能,尽管它在许多职业中仍然是必需的。然而,随着 AI 技术的进步,越来越多的人将依赖 AI 进行写作,从而导致社会逐渐分化为两类人:会写作的人和不会写作的人。作者认为,这种变化不仅仅影响写作技能的消失,更重要的是,它会削弱人们的思考能力,因为写作与清晰思考密不可分。 写作的困难性:写作的难点在于它要求清晰的思考,而清晰思考本身就是一项复杂的任务。许多高职位的工作要求写作,但因为写作的难度,甚至一些著名的学者也会选择抄袭。 AI 的影响:AI 技术的进步让人们不再需要自己写作,尤其是在学校和工作场合,AI 可以代替人类完成写作任务。这使得写作的压力大大减轻,导致越来越少的人愿意学习写作。 社会分化:未来社会将分为两类人:“会写作的人”和“不会写作的人”。中间地带(即写作能力一般的人)将消失,只剩下那些擅长写作的人和完全依赖 AI 的人。 写作与思考的关系:作者强调,写作不仅仅是表达的工具,它本身也是思考的过程。引用 Leslie Lamport 的观点:“如果你不通过写作思考,你只是在自以为在思考。” 因此,写作能力的消失会导致思考能力的退化,社会将进一步分化为“会思考的人”和“不会思考的人”。 历史类比:作者将这种变化与体力劳动的消失类比。在工业化之前,许多人的工作让他们变得强壮;如今,只有那些主动选择锻炼的人才会变得强壮。同样,未来只有那些主动选择写作的人才能保持聪明。 写作者与非写者 2024年10月 我一向不太愿意对科技发展做预测,但这次我有相当的把握:再过几十年,可能没多少人会写作了。 如果你是一名作家,你会发现一个很奇怪的现象:很多人有写作困难。医生知道有多少人担心自己身上的痣;电脑高手知道有多少人不会设置电脑;而作家知道有多少人需要写作帮助。 人们写作困难的原因在于,写作本质上很难。要写得好,就需要清晰的思维,而清晰思考是件难事。 尽管如此,写作贯穿于许多职业,且职位越高,通常需要的写作量越大。 这种对写作的广泛需求和写作本身的难度之间的矛盾带来了巨大的压力。这也就是为什么一些知名学者会选择抄袭。让我感到意外的是,他们抄袭的内容通常非常平凡——都是些任何写作水平过得去的人都能轻松写出的内容。这说明他们的写作水平甚至连“过得去”都达不到。 在不久前,这种压力没有合适的释放方式。你可以像美国前总统肯尼迪 (JFK) 那样雇人代写,或者像民权领袖马丁·路德·金 (MLK) 那样抄袭,但如果无法买或偷别人的文字,你就只能自己动笔。因此,几乎所有被要求写作的人都得学会写作。 但现在情况不同了。AI 打破了这一格局。几乎所有对写作的压力都消失了。无论在学校还是职场,你都可以让 AI 替你写作。 结果就是,未来的世界将被分为“会写作的人”和“不会写作的人”。依然会有人会写作,因为有些人是真心喜欢写作。但原本那些写作能力参差不齐的人——从擅长写作的,到勉强能写的,再到完全不会写的——将不复存在。未来将只剩下“擅长写作的人”和“不会写作的人”。 这是件坏事吗?当科技让某些技能变得多余时,这些技能消失不是很正常吗?比如,现在很少有铁匠了,但这似乎没造成什么问题。 不,这的确是个问题。原因就在于我前面提到的:写作就是思考。事实上,有些思考只有通过写作才能完成。Leslie Lamport 曾说得非常到位: 如果你在不写作的情况下思考,那你只是以为自己在思考。 因此,一个分为“会写作的人”和“不会写作的人”的世界,听起来比表面上更危险。这会是一个“会思考的人”和“不会思考的人”的世界。我知道自己想待在哪一边,我猜你也一样。 其实,这种情况并非新鲜事。在工业化之前,大多数人的工作让他们身体强壮。如今,如果你想强壮,就得去健身房。因此,依然有强壮的人,但只限于那些选择锻炼的人。 写作也会如此。依然会有聪明的人,但只限于那些选择去写作的人。 感谢 Jessica Livingston、Ben Miller 和 Robert Morris 预览本文草稿。

October 30, 2024 · 1 min · fisherdaddy

何时去做你热爱的事情 • Paul Graham

保罗格雷厄姆的这篇文章讨论了“是否应该追随自己的激情”的复杂性,认为答案不能简单地归结为“是”或“否”。作者指出,是否应该追随兴趣取决于个人目标和情境。如果主要目标是赚钱,通常无法仅凭兴趣工作,但在某些情况下,兴趣与财富可以一致。对于那些想要取得卓越成就的人,追随兴趣则是必要的。文章还强调了在不确定情况下,通过尝试和探索来获得更多确定性的重要性。 追随兴趣与赚钱的权衡 如果主要目标是赚钱,通常无法完全按照兴趣行事,因为人们付钱让你做他们想要的事情,而不是你想做的事情。 例外情况是,当你的兴趣和市场需求一致时,比如在足球或软件开发领域,兴趣和收入可以重合。 兴趣与成功的关系 对于那些有“奇怪”兴趣的人,成功的几率更大,例如 Bill Gates 对软件公司运营的热爱。 有些人对“赚钱”本身有知识性兴趣,把发现市场错误定价当作一种智力挑战。 创业与兴趣的联系 想要赚取巨额财富的人,通常通过创业实现,而创业的好点子往往源于个人兴趣。许多大型公司(如 Apple、Google 和 Facebook)最初都是创始人出于兴趣的项目。 不确定时的行动策略 当不确定该追随兴趣还是追求财富时,通常是因为缺乏对自我、工作性质和能力的充分了解。 最好的方法是通过实际行动获取更多信息,尽早开始尝试不同的工作或项目,而不是等待毕业或实习机会。 “上风”策略 在不确定的情况下,选择能为未来提供更多选择的路径,例如在选择专业时,数学比经济学更具灵活性,因为数学为转向经济学提供了更多可能性。 伟大工作与兴趣的关系 如果想要做出伟大成就,追随兴趣是必要条件。虽然并非每个人都能做出伟大成就,但对于那些有志于此的人,兴趣是不可或缺的动力源泉。 经济不平等的自然性 文章提到,经济不平等并不一定是社会不公的表现,因为不同人有不同的兴趣,而某些兴趣能带来更多财富。 判断他人动机的思考实验 作者建议通过思考实验来判断一个人是否真正对工作感兴趣:如果不支付高薪,他们是否仍愿意在业余时间从事这项工作?例如,许多数学家和科学家会这么做,但投资银行家可能不会。 何时去做你热爱的事情 2024年9月 在“是否应该追随自己的热爱”这个问题上,存在不少争论。事实上,这个问题很难用简单的“是”或“否”来回答。有时候你应该追随自己的热爱,有时候却不该,但“应该”与“不该”之间的界限非常复杂。要回答这个问题的唯一方式是仔细分析其中的逻辑。 人们讨论这个问题时,往往带有“代替”的意味。在其他条件都相同的情况下,为什么不选择自己最感兴趣的事情呢?所以,提出这个问题本身意味着你需要在“做自己喜欢的事”和其他选择(比如高薪工作)之间做出权衡。 如果你的首要目标是赚钱,那么你通常无法随心所欲地从事自己喜欢的工作。人们付钱是让你做他们想要的事情,而非你自己想做的。但也有明显的例外:当你的兴趣和他们的需求一致时。例如,如果你热爱足球,并且足够优秀,那么踢足球也能带来丰厚收入。 当然,像足球这种职业的成功几率并不高,因为有太多人也喜欢踢足球。这并不是说你不该去尝试,关键是看你的天赋和努力程度。 当你有一些“冷门”的兴趣时,成功的机会更大:即喜欢一些既有高收入、又少有人感兴趣的领域。例如,显然 Bill Gates 真正热爱经营一家软件公司。他不仅喜欢编程(这是很多人喜欢的),还喜欢为客户开发软件。这种兴趣非常特别,但如果你也有这种兴趣,追随它可能带来丰厚的回报。 有些人对赚钱本身也有一种智力上的兴趣。这与单纯的贪婪不同,他们会敏锐地注意到某些事物的价值偏低,并忍不住去纠正,对他们来说,这就像解谜一样。 实际上,这里有一个例外,甚至可以颠覆上述所有建议。如果你想赚取巨额财富——几亿甚至几十亿美元——那么从事自己最感兴趣的事情会很有帮助。这并不是因为兴趣带来更多动力,而是因为赚大钱的方式往往是创业,而你对某件事的热爱常常会引发独特的创业灵感。 许多知名的创业公司,比如 Apple、Google 和 Facebook,都是因为创始人兴趣驱动而起步的。为什么这种模式如此常见?因为最佳的创业点子通常是那种刻意寻找时反而会忽略的。而当你年轻且技术能力强时,你对哪些事情有兴趣的直觉往往与市场需求不谋而合。 在财富积累上,可以说存在一种“中等智商峰值”。如果你不需要赚太多钱,你可以随心所欲地做喜欢的事;如果你想实现中等富裕,通常需要做一些妥协;但如果你追求极致的富裕,并且你年轻且擅长技术,那么选择从事自己最感兴趣的事情又变得可行。 那么,如果你对自己真正的兴趣并不确定呢?如果你既渴望赚钱,又对某些工作更有兴趣,但没有一种吸引力占上风,又该如何选择? 这里的关键在于,这种纠结通常是表象。当你在兴趣与收入之间难以抉择时,往往并不是因为你对自己和工作完全了解、且这些选项恰好平衡。大多数情况下,这是因为你对自身和工作理解不够全面。具体来说,你可能对以下三方面都不了解:什么能让你真正快乐、各类工作的实际内容、以及自己在这些工作中的潜力。 这种不确定在某种程度上是可以理解的。很难预测什么工作会让你开心,而没有人会告诉你需要去思考这些问题。如果你有抱负,人们会建议你上大学,而这确实是不错的建议,但通常到此为止。没有人会告诉你如何选择适合自己的工作,也很少人告诉你这有多难。 面对不确定性时,你该做的就是去获得更多的确定性。而获得确定性的最佳方式之一,就是去尝试做你感兴趣的事。这样你能了解自己对它的热情、自己的能力以及这个领域的发展空间。 不要等,不要等到大学毕业才思考要做什么,也不要等到实习。你不一定需要正式的工作来做一件事,许多事情你可以自己尝试去做。因为探索适合的职业可能需要数年,所以越早开始越好。 判断不同工作的一个有效方法是观察你的同事。你会越来越像与你共事的人。你愿意成为这样的人吗? 实际上,不同工作的性格特征被同事放大了。如果你因为高薪而选择一份工作,你会被同样因为高薪而来的同事包围,这会让工作比外界看起来更加令人疲惫不堪。而如果你选择了自己真正感兴趣的工作,你周围会有同样热爱这份工作的人,这将使工作更加激励人心。 应对不确定性时的另一个策略是选择那些“未来留有更多选择”的选项。我称之为“保持前沿”。例如,如果你不确定是否主修数学或经济学,可以选择数学,因为数学是经济学的前沿,未来你更容易从数学转向经济学。 但有一种情况下,你是否应做自己最喜欢的事情的答案很明确:如果你想做出杰出成就。虽然这不是做出杰出成就的充分条件,但却是必要条件。 关于“是否追随热爱”的建议往往具有选择偏差。大部分这样的建议来自那些成功人士,如果你问他们如何达成成就,他们多数会告诉你,要做自己最感兴趣的事情。这确实是事实。 这并不代表适合每个人。并非每个人都能或愿意做出杰出成就。但如果你确实想要,那么是否去做自己最感兴趣的事情这个复杂问题就变得简单了。答案是肯定的。伟大成就的根源在于一种雄心勃勃的好奇心,而这种好奇心无法制造。 注释 这些例子说明,假设经济不平等就是某种缺陷或不公平是错误的。显而易见的是,不同的人有不同的兴趣,而有些兴趣能带来更多财富,因此在有人喜欢写企业软件而另一些人喜欢做陶艺的世界中,经济不平等是一种自然结果。 在兴趣之间做选择的困难是另一回事。这并不总是因为无知。往往是内在的困难。我自己也常常感到难以抉择。 不要总是相信人们在这方面的言辞。由于追求兴趣比单纯追求金钱更具声望,那些主要因金钱驱动的人往往会声称对工作更有兴趣。测试这种说法的一种方法是设想:如果他们的工作不再高薪,他们是否会为了继续做这件事而选择一份养活自己的日常工作?很多数学家、科学家和工程师会这么做。在历史上,确实很多人是这样做的。但我不认为有多少投资银行家会这样。

October 30, 2024 · 1 min · fisherdaddy

我通过内容赚了 50 万美元,但我认为内容行业并不是一个好选择 • Swizec Teller

Swizec Teller 在这篇文章中反思了自己通过内容创作赚取 $500k 的经历,认为内容创作虽然有潜力带来可观的收入,但本质上是一个不稳定且难以持续的商业模式。他指出,内容创作更像是“拥有一份工作”而不是“经营一门生意”,并且这个行业充满了竞争和消耗,尤其是对于独立创作者而言。Teller 强调了内容创作的两种类型——娱乐性和洞察性,并提出了他对行业现状的批评,尤其是与广告驱动和开发者关系(DevRel)内容的竞争。 关键细节 内容创作的商业模式: 内容创作的核心是通过建立受众,然后周期性地推出产品。每次产品发布通常伴随强烈的市场营销推动,使用人工稀缺性策略(如限时优惠、新产品等)来促成销售。 内容创作的收益不稳定,且需要持续不断地推出新内容才能维持收入。 内容的两种类型: 娱乐性内容:此类内容通常通过广告或商品销售获利,旨在吸引广泛受众,用户无需解决具体问题。 洞察性内容:此类内容专注于解决特定问题,通常通过销售产品(如书籍、课程)获利。免费内容则用于建立受众。 创作者的困境: 内容创作者在行业中处于不利地位,往往像“消耗品”一样被快速替换。平台、出版商和背后的机构才是主要的获利者。 创作者必须不断推出新的“热门”内容,无法停下来,否则业务就会迅速失去盈利能力。 与开发者关系(DevRel)的竞争: DevRel 团队拥有大量资源,内容创作只是他们推动 SaaS 订阅和企业合同的手段。独立创作者难以与之竞争,因为 DevRel 可以投入更多的资金和人力。 DevRel 内容往往通过付费影响者进行推广,缺乏深度洞察,而独立创作者则更注重分享真实的经验和见解。 未来的方向: Teller 认为编程教程类内容的 SEO 市场已经饱和,尤其是在 ChatGPT 等 AI 工具的帮助下,新手问题可以轻松得到定制化解答。未来的机会在于那些难以复制的深度洞察内容。 Teller 最后建议,尽管内容创作有其挑战,分享深度见解仍然是有价值的,但不应将其作为全职事业。 我通过内容赚了 50 万美元,但我认为内容行业并不是一个好选择 朋友问我 “Swiz,你为什么还要打工?”,他指的是我围绕软件工程师书籍和课程的副业还算成功。我忍不住一直在琢磨这个问题,所以今天跟大家聊聊。 这项业务 自从我在 2015 年推出第一本 React+D3 电子书后,经历了几次迭代。从那时起,它已经创造了近 50 万美元的收入(没有广告收入),逐渐发展为一个小团队,推出了多个产品,多年来基本上都很赚钱。 到了 2023 年左右,我开始慢慢退出。过去八年里,我几乎天天都在思考 “下一个要写的是什么?”,但我感到疲惫,这份业务也不再带给我快乐。说到底,倦怠是一种 徒劳无功的磨砺。 业务几乎立即就不再盈利了。这是我认为这不是一个“好生意”的最有力证据。说是生意,不如说是给自己打工。 内容行业的运作方式 每个内容行业都有一套公式。有人偶然碰上了这套公式,有人则是潜移默化学到的。如果你知道该去哪里找资料,相关的内容早已成体系。 我花了 2000 多美元买课程来优化这套公式,结果回本了 50 倍。这比自己摸索要快得多 :) 具体操作方式如下: 大部分时间都在“建立受众群体” 这是你的分发渠道 接着你创建产品 定期“推出”产品 发布是一场强力的市场推广,带有一些人为制造的稀缺感。目的是让人们有足够动力去购买,比如限时优惠、特别赠品、真正的新品发布等等。 你会卖出一大批产品,但 80% 的买家从未真正使用。几个月后你再一次推出。虽然看似重复,但并不无聊。随着受众的增长,很多人第一次看到你的产品,觉得是新鲜的。...

October 30, 2024 · 1 min · fisherdaddy