OpenAI 创始人 John Schulman 复盘:如果重回 2015,我们能光速造出 ChatGPT 吗?

本文整理自 Cursor CEO 对 OpenAI 联合创始人 John Schulman 的深度访谈:John Schulman on dead ends, scaling RL, and building research institutions,由我和 Gemini 3 Pro 共同整理完成。 如果给 OpenAI 的创始团队开一个“上帝视角”,让他们带着今天的知识回到 2015 年,重建 ChatGPT 需要多久? OpenAI 联合创始人 John Schulman 给出的答案可能有点反直觉:快得惊人,而且需要的算力比你想的要少得多。 这是一个关于“后见之明”、OpenAI 早期的一地鸡毛、RL(强化学习)的未来,以及他现在如何用 AI 写代码的深度思考。 带着答案考试:ChatGPT 其实可以“省钱”做 回看过去,如果我们知道确切的“配方”,其实并不需要当年那么恐怖的算力堆叠。 Schulman 提到,像 Andrej Karpathy 写的那种 NanoGPT 已经证明了,一个人、一台机器、半年时间就能跑出一个微缩版模型。如果在 2018 年或 2019 年,哪怕只有几张 GPU(当时还是 V100),只要有现在的 Post-training(后训练) 知识,几个聪明人加上高质量的微调数据,完全可以在那时就搞出 GPT-3.5 水平的对话模型。 今天的我们知道,通过巧妙的数据构建和微调,可以极大地“放大”算力的效果。也就是所谓的“小模型、大智慧”。未来甚至可能出现这种极客场景:一个文件搞定所有训练代码,一天之内跑完全流程。 早期 OpenAI:草台班子与“走错路”的探索 现在的 OpenAI 是市值巨无霸,但 Schulman 也没避讳早期的窘境。2016、2017 年那会儿,OpenAI 更像是一个稍微大点的学术实验室,甚至有点“杂牌军(ragtag)”的感觉。大家三两成群,凭兴趣做研究,写写论文。 当时有没有走弯路?当然有。...

December 18, 2025 · 1 min · fisherdaddy

OpenAI 的 2026 野心与迪士尼的豪赌:本周科技界发生了什么?

本文整理自 Youtube 知名博主 Alex Kantrowitz 每周一次的最新科技新闻讨论视频,由我和 Gemini 3 Pro 共同整理完成。 1. OpenAI 的大转向:2026 是“企业级”的一年 这就得从本周一在纽约的一场午餐会说起了。地点在中央火车站附近的 Rosemary’s 餐厅,OpenAI 的 CEO Sam Altman 和一群媒体界的大佬——包括《大西洋月刊》、《纽约客》和《纽约时报》的高管们——坐在一起。 在推杯换盏之间,Altman 抛出了一个重磅信号(Greg Brockman 随后也在推特上证实了这一点):OpenAI 接下来的重中之重,或者说 2026 年的主题,是企业级 AI(Enterprise AI)。 这听起来可能有点枯燥,但背后的逻辑非常有意思。 为什么是现在? 一直以来,OpenAI 大概是 70% 面向消费者(也就是我们要等到 2026 年第一季度才能体验到的“成人模式”聊天),30% 面向企业。但在企业服务这块,Anthropic 其实做得更好。 Altman 和他的团队意识到了两个残酷的现实: 模型正在商品化:Google 的 Gemini 现在的水平基本上已经追平了 GPT。大家手里的“大模型”底牌都差不多了。 没有直通 AGI 的捷径:单纯堆算力、堆数据带来的模型能力提升正在放缓。 所以,Sam Altman 在午餐会上直言不讳:“现在的瓶颈不是训练,而是应用。” 既然模型本身拉不开巨大差距,那就得看谁能把技术真正用在业务流程里赚钱。这也解释了为什么他们发布了 GPT-5.2(代号),这实际上是一个更擅长处理复杂工作流、待办事项和企业规划的版本。 这也带来了一个尴尬的问题: OpenAI 想做企业生意(毕竟那才是真正的大钱,预计明年这一块市场高达 375 亿美元),但它同时也得伺候好数亿的普通用户。企业用户需要严谨、准确的工具,而普通用户可能想要一个甚至会和你“调情”的 AI 伴侣。OpenAI 的高管 Fiji Simo 承认,他们想两头通吃,但这很难平衡。未来我们可能会看到两个截然不同的 ChatGPT:一个帮你做报表,一个负责陪你聊天。 2. 迪士尼入局:当米老鼠遇见 Sora 要是放在几年前,如果你跟我说迪士尼——这个对版权保护严苛到极致的公司——会主动把自家的 IP 喂给 AI,我肯定觉得你疯了。但这周,迪士尼和 OpenAI 达成了一项价值约 10 亿美元的重磅交易。...

December 18, 2025 · 1 min · fisherdaddy

介绍一下 GPT-Image 1.5

OpenAI 于 2025 年 12 月 17 日发布了全新的旗舰级图像生成模型 GPT-Image 1.5。它能进行精准编辑,同时保持细节完好,并且生成图像的速度提升高达 4 倍。同时,在 ChatGPT 中推出了全新的 Images 功能,旨在让图像生成变得令人愉悦——激发灵感并使创意探索变得轻松自如。 全新的 Images 模型即日起向所有 ChatGPT 用户推出,并在 API 中以 GPT Image 1.5 的形式提供。ChatGPT 中的全新 Images 体验也于今日向大多数用户推出,Business 和 Enterprise 用户将在稍后获得访问权限。 精准编辑,保留重要细节 现在,当你要求对上传的图像进行编辑时,模型会更可靠地遵循你的意图——甚至包括细微之处——仅根据你的要求进行更改,同时保持光线、构图和人物外貌等元素在输入、输出和后续编辑中的一致性。 这开启了符合你意图的结果——更有用的照片编辑,更逼真的服装和发型试穿/试戴,以及保留原始图像精髓的风格滤镜和概念转换。总之,这些改进意味着 ChatGPT 可以充当你口袋里的创意工作室,既能进行实用编辑,又能进行富有表现力的重构。 编辑 该模型擅长各种类型的编辑——包括添加、删减、组合、混合和变换——因此你可以在获得想要的更改的同时,不丢失图像的独特之处。 从派对到直播洛杉矶滑板 将这两名男子和狗组合成一张 2000 年代胶片相机风格的照片,表现他们在孩子们的生日派对上看起来很无聊的样子。 在背景中添加混乱的孩子们,他们在扔东西和尖叫。 将左边的男子改为手绘复古动漫风格,将狗改为毛绒玩具风格,保持右边的男子和背景景物不变。 给他们都穿上看起来像这样的 OpenAI 毛衣。 现在移除这两名男子,只保留狗,并把它们放在一个看起来像附图的 OpenAI 直播中。 创意转换 模型的创造力通过转换得以闪耀,这些转换可以更改和添加元素——例如文本和布局——使想法变为现实,同时保留重要细节。这些转换既适用于简单的概念,也适用于更复杂的概念,并且可以使用全新 ChatGPT Images 功能中的预设风格和创意轻松尝试——无需书面提示词。 电影海报 80 年代健身教练 华丽玩偶 装饰品 时尚广告 装扮角色 绘画 饮料广告 用这两名男子的图像制作一张名为“codex”的老派好莱坞黄金时代电影海报。随意更改他们的服装以符合时代背景。 将演员的名字改为 Wojciech Zaremba(左)和 Greg Brockman(右) 由 Sam Altman 执导,Fidji Simo 制作。A Feel the AGI Pictures 出品。 指令遵循 该模型比我们的初始版本更可靠地遵循指令。这实现了更精准的编辑以及更复杂的原创构图,其中元素之间的关系按预期得以保留。...

December 17, 2025 · 5 min · fisherdaddy

什么是“Vibe Engineering”?看看 OpenAI 内部是如何重新定义软件开发的

本文整理自 OpenAI Forum 发布的分享视频:Vibe Engineering with OpenAI’s Codex。 什么是“Vibe Engineering”?看看 OpenAI 内部是如何重新定义软件开发的 我们大概都经历过那种死线逼近的时刻,心里幻想着:“要是有个不知疲倦、不用睡觉的同事能帮我把这些代码写了该多好。” 在 OpenAI,Codex 就扮演着这个角色的。 最近在 OpenAI Forum 上,Global Affairs 团队的 Chris Nicholson 邀请了两位真正的“内行”——OpenAI 开发者体验负责人 Romain Huet 和技术专家 Aaron Friel,深入聊了聊一个最近很火的概念:Vibe Engineering(氛围工程)。 这不仅仅是一个流行词,它代表了软件开发的一种新范式:利用 AI 构建真正的生产级软件,同时让人类工程师对交付的每一行代码保持完全的掌控。 这不只是让 AI 吐出一堆代码然后祈祷它能跑通,而是把 AI 深度融入到设计、架构、调试甚至长周期的多步骤项目中。 今天,我们就来扒一扒 OpenAI 内部的工程师们究竟是怎么“生活”在未来的,以及作为普通开发者,我们可以怎么把这种工作流偷师过来。 从“Vibe Coding”到“Vibe Engineering” 你可能听说过“Vibe Coding”,通常指那种随意的、凭感觉的编程体验。但 Simon Willison 提出的“Vibe Engineering”是它的严肃版——它是 AI 驱动开发的进阶形态。 在这个形态下,大模型不再只是一个代码补全工具,它们变成了你的队友。 Romain Huet 分享了一个很有意思的观察:一年前,你会为了模型能写出一个贪吃蛇游戏或者 iPhone App demo 而兴奋。但现在,模型的能力已经进化到了可以处理长达数小时甚至数天的复杂任务。它们可以制定计划、做架构决策、编写测试,甚至自己检查自己的作业。 当 AI 学会了自我检查(Self-correction),它的表现就有了质的飞跃。这就是从“写代码”到“搞工程”的转变。 现场实战:把一个 Kotlin 项目重写为 Rust 光说不练假把式。Aaron Friel 在现场展示了一个非常硬核的 Demo,任务听起来就很让人头大:...

December 16, 2025 · 2 min · fisherdaddy

我们如何利用 Codex 在 28 天内构建出 Sora Android 版 • OpenAI

本文翻译 OpenAI 官方发布的文章 How we used Codex to build Sora for Android in 28 days。本文介绍了 OpenAI Sora 开发团队如何在短短 28 天内,利用 Codex CLI 成功构建并发布 Sora Android 应用程序的过程。文章中不仅展示了惊人的开发速度和质量,还深入探讨了在 AI 辅助开发时代,软件工程模式的转变以及人机协作的最佳实践。本文由我和 Gemini 3 Pro 共同完成翻译。 我们如何利用 Codex 在 28 天内构建出 Sora Android 版 作者:Patrick Hum 和 RJ Marsan,技术团队成员 11 月,我们向全球推出了 Sora Android 应用,让任何拥有 Android 设备的人都能将简短的提示词转化为生动的视频。发布当天,该应用登上了 Play 商店榜首。Android 用户在首个 24 小时内生成了超过一百万个视频。 在这次发布背后有一个故事:Sora 的 Android 生产级初始版本仅用 28 天就构建完成,这要归功于任何团队或开发者都可以使用的同一个智能体(agent):Codex。 从 2025 年 10 月 8 日到 11 月 5 日,一个精简的工程团队与 Codex 并肩工作,消耗了大约 50 亿个 token,完成了 Sora Android 版从原型到全球发布的全部过程。尽管规模庞大,该应用仍保持了 99....

December 15, 2025 · 2 min · fisherdaddy

快速了解一下 OpenAI 发布的 GPT-5.2

2025 年 12 月 12 日 OpenAI 发布了迄今为止最强大的GPT-5.2 模型,该系列专为提升专业知识型工作的效率和经济价值而设计,在制作电子表格、编写代码、设计演示文稿及处理复杂多步骤项目方面表现出显著优势。 卓越的工作效率与质量 在衡量明确知识型工作任务的 GDPval 评测中, GPT-5.2 刷新了行业水平,成为首个在相关任务上达到或超过人类专家水平的模型。 专家级表现:在涵盖 44 个职业的 GDPval 评测中, GPT-5.2 Thinking 在 70.9% 的任务中表现优于顶尖行业专家或与其持平。 极致效能:在上述任务中,模型的输出速度比专家快 11 倍以上,而成本不到专家的 1%。 办公自动化:在生成复杂的电子表格和幻灯片方面,能力较前代提升了 9.3%,格式和布局更具专业水准。 编程与工程能力的飞跃 软件工程基准:在模拟真实工业场景的 SWE-bench Pro 测试中取得了 55.6% 的新成绩;在 SWE-bench Verified 中达到了 80% 的高分。 全栈开发助手:在前端开发、复杂 UI(特别是涉及 3D 元素)以及代码调试和重构方面表现更强,减少了人工干预的需求。 可靠性、长文本与视觉能力 错误率降低:相比 GPT-5.1 Thinking,新模型的幻觉率更低,错误回答减少了 38%。 长文档处理:在长达 256k Token 的文本范围内(如 MRCRv2 评测),能保持接近 100% 的信息提取准确率,适合深度文档分析。 视觉理解:在图表推理和软件界面理解方面的错误率减半,对图像元素的空间位置有更强的感知能力。 科研推进与复杂推理 科学研究: GPT-5.2 Pro 在研究生级问答测试 GPQA Diamond 中得分 93.2%,并已在实际数学研究中协助解决了统计学习理论的开放问题。 通用推理:在 ARC-AGI-1 测试中, GPT-5....

December 12, 2025 · 3 min · fisherdaddy

独家深访 OpenAI 研究副总裁 Mark Chen:扎克伯格的“送汤”攻势、Gemini 3的威胁与Jony Ive的新硬件

本次对话是 Core Memory 播客主持人 Ashley Vance 与 OpenAI 首席研究官 Mark Chen 之间的深度访谈。访谈内容涵盖了 OpenAI 在激烈的 AI 人才争夺战中的立场、公司的核心研究策略、AGI(通用人工智能)的发展进程、以及 Mark Chen 个人的职业背景和对未来的展望。 关键细节 激烈的招聘战术 汤的故事: 为了挖角 OpenAI 的研究人员,Mark Zuckerberg 曾亲自手写信件并送去“亲手煮的汤”(虽然后来 Mark Chen 调侃这可能只是某种策略)。 薪资反击: Mark Chen 透露,OpenAI 明确告知员工不会与 Meta 进行“一美元对一美元”的薪资对抗,但员工因相信公司的研究前景而选择留下。 技术竞争与评估 Gemini 3 与基准测试: 针对 Google 发布的 Gemini 3 ,Mark Chen 表示 OpenAI 内部已有性能相当甚至更好的模型。他提到基准测试只能说明一部分问题,他个人喜欢用一个关于“42”的数学难题(模 42 随机数生成器问题)来测试模型,目前尚无模型能完美解决。 预训练的回归: 过去两年 OpenAI 在 RL(强化学习)和推理模型(如 o1)上投入巨大,导致预训练的“肌肉”稍有萎缩。最近半年,团队已重新将重心放回“超级预训练”(Supercharging Pre-training)上,并认为 Scaling Law(缩放定律)并未失效。 个人背景与成长 从金融到 AI: Mark Chen 毕业于 MIT,曾在华尔街从事高频交易(HFT)。他在看到 AlphaGo 的比赛后受到启发,转行进入 AI 领域。 OpenAI 的早期岁月: 他在 2018 年加入 OpenAI,当时公司仅有约 20 人。他最初作为一名“驻场研究员”(Resident)加入,后来负责了 Codex 和 ImageGPT 等重要项目。 组织动荡的回忆 Sam Altman 事件: 在 Sam Altman 被解雇期间,Mark Chen 与其他核心成员(如 Jakub)起草了请愿书,并在凌晨 2 点获得了超过 90% 研究员的签名支持。他描述那段时间大家为了保护团队不被挖角,甚至睡在办公室,展现了极高的忠诚度。 未来产品形态 与 Jony Ive 的合作: Mark Chen 认为目前的 ChatGPT 交互方式很“笨”,缺乏记忆和深度思考。未来的设备应该能理解用户的深层意图,并具有持续的记忆功能。 安全研究细节: 在 o1 模型的开发中,OpenAI 决定不人工干预或监管模型的“思维过程”(Thinking Process),以确保模型不会为了取悦人类而学会撒谎或隐藏真实意图。 原文 在该行业最激烈的时刻,Ashley Vance坐下来与OpenAI目前最核心的研究主管之一、高级副总裁Mark Chen进行了一场深度对话。从硅谷的抢人大战到AGI的终极形态,从备受争议的“宫斗”风波到与前苹果设计总监Jony Ive的神秘硬件合作,这场对话揭示了OpenAI在这场世纪竞赛中的真实心态。...

December 2, 2025 · 1 min · fisherdaddy

介绍一下 ChatGPT 推出的购物研究功能

2025 年 11 月 24 日,ChatGPT 推出了一项名为 “shopping research” 的新体验,旨在通过自动化的深度研究帮助用户找到合适的产品。与简单的搜索不同,该功能通过询问澄清问题、深入检索互联网信息以及利用 ChatGPT 的记忆功能,为用户生成个性化的买家指南。 关键细节 交互方式与个性化体验 用户只需描述需求(如“为小公寓寻找最安静的无绳吸尘器”),系统便会自动建议使用 “shopping research”。 互动流程:系统会打开一个视觉界面,询问预算、使用对象及关注的功能等问题。 实时反馈:用户可以对推荐的产品标记“不感兴趣”或“类似更多”,引导系统根据实时反馈调整研究方向。 记忆整合:如果开启了记忆功能,系统会结合用户过往的偏好(如对游戏的兴趣)来定制搜索结果。 技术驱动与输出结果 模型支持:该功能由经过强化学习专门训练的 GPT-5 mini 版本驱动,能够阅读受信任的网站并综合多方信息。 最终产出:几分钟后,用户将收到一份包含首选产品、关键差异、权衡分析以及来自可靠零售商最新信息的个性化指南。 高级集成:对于 ChatGPT Pro 用户,该功能还集成在 Pulse 中,可根据过往对话主动建议相关的买家指南(例如讨论过电动自行车后推荐配件)。 透明度、信任与局限性 隐私保护:用户的聊天内容不会与零售商共享,结果基于公开的零售网站生成,避免低质量或垃圾网站。 购买方式:用户可点击链接跳转至商家网站购买,未来将支持通过 Instant Checkout 直接在 ChatGPT 内购买。 准确性提示:尽管模型在引用细节方面表现优于以往,但在价格和库存等信息上仍可能存在误差,建议用户访问商家网站获取最准确的详情。 原文:在 ChatGPT 中推出购物研究功能 一种全新的购物体验,助您找到适合您的产品。 今天,我们推出了“购物研究”(Shopping research),这是 ChatGPT 中的一项新体验,它能为您进行研究,帮助您找到合适的产品。您不再需要浏览几十个网站,只需描述您正在寻找什么——例如“为小公寓寻找最安静的无绳吸尘器”、“帮我在这三辆自行车之间做选择”或“我需要送给我四岁喜欢艺术的侄女一份礼物”——购物研究功能就会生成一份贴心的指南来帮助您做决定。它会提出巧妙的澄清问题,在互联网上进行深度研究,查阅优质来源,并结合 ChatGPT 从过去的对话和记忆中对您的了解,在几分钟内提供个性化的买家指南。 购物研究功能从今天开始在移动端和网页端向 Free、Go、Plus 和 Pro 套餐的已登录 ChatGPT 用户推出。为了协助假日购物,我们在整个假期期间向所有套餐用户提供几乎无限的使用权。 寻找合适的产品 数以亿计的人使用 ChatGPT 来查找、理解和比较产品。他们希望有人帮助理清各种选项,决定什么最符合他们的需求、预算和偏好。 购物研究正是为这种更深层次的决策而构建的。它将产品发现转化为一场对话:提出巧妙的问题以了解您关注的重点,从高质量来源提取准确、最新的详细信息,并将选项反馈给您以筛选结果。它在电子产品、美妆、家居园艺、厨房家电以及运动户外等细节繁多的类别中表现尤为出色。 对于像查询价格或确认功能这样的简单购物问题,常规的 ChatGPT 回复既快速又够用。但当您需要深度信息——如比较、限制条件、权衡取舍时——购物研究会花费几分钟时间,为您提供一份更详细、研究更透彻的答案。 发现新产品 帮我找一台适合游戏的强大新笔记本电脑,价格在 1000 美元以下,屏幕大于 15 英寸...

November 26, 2025 · 1 min · fisherdaddy

快速了解一下 OpenAI 发布的 GPT‑5.1-Codex-Max

为了应对 Google 发布的 Gemini 3 Pro,OpenAI 今早发布最强编码模型 GPT-5.1-Codex-Max,该模型建立在基础推理模型的更新之上,专为处理软件工程、数学和研究等领域的代理任务而设计。GPT-5.1-Codex-Max 的核心优势在于处理长期、精细工作的能力。它是首个通过“压缩”过程原生受训以跨越多个上下文窗口运行的模型,能够在单一任务中连贯处理数百万个 Token 。 关键细节 前沿编码能力 真实场景训练: 该模型针对真实的软件工程任务(如创建 PR 、代码审查、前端编码等)进行了训练,在多项前沿编码评估中表现优于前代模型。 环境适应性: GPT-5.1-Codex-Max 是首个受训在 Windows 环境中运行的模型,并针对 Codex CLI (命令行界面)的协作进行了优化。 速度与成本效率 Token 效率提升: 得益于更有效的推理能力,模型在“中等”推理强度下的表现优于 GPT-5.1-Codex ,同时减少了 30% 的思考 Token 使用量。 推理模式: 针对非延迟敏感任务,引入了新的“超高”( ‘xhigh’ )推理模式,通过更长时间的思考提供更好的答案。 成本降低: 效率的提升转化为实际成本的节约,例如在生成高质量前端设计时成本大幅降低。 长期任务处理 压缩技术: 模型能够自动压缩会话历史,在保留关键上下文的同时释放空间,从而突破上下文窗口的限制。 持续工作能力: GPT-5.1-Codex-Max 能独立工作数小时,内部评估显示其可持续执行任务超过 24 小时,适用于项目级重构和深度调试。 安全性与信任 安全沙箱: Codex 默认在受限沙箱中运行,限制文件写入和网络访问,以降低风险。 网络安全: 虽然该模型是目前部署的最强网络安全模型,但尚未达到“高”能力等级。官方建议将 Codex 视为额外的审查者,开发者仍需在部署前人工审查其工作。 可用性与成效 访问方式: 该模型现已面向 ChatGPT Plus 、Pro 、Enterprise 等用户开放,并将取代 GPT-5.1-Codex 成为 Codex 表面的默认模型。API 访问即将推出。 生产力提升: 内部数据显示,使用 Codex 的工程师发布的拉取请求(Pull Requests)数量增加了约 70% 。 原文: 使用 GPT-5....

November 20, 2025 · 2 min · fisherdaddy

介绍一下 GPT-5.1 API 对开发者的一些特色

2025 年 11 月 13 日 OpenAI 面向开发者发布 GPT-5.1 模型。GPT-5.1 是一款更快速、更高效、更智能的 AI 模型,专为开发者设计。它通过动态调整思考深度来优化简单任务的速度和成本,同时在复杂任务上保持强大的性能。该模型还增强了编码能力,并引入了两个新工具,旨在帮助开发者更可靠、更高效地构建复杂的代理工作流。 关键细节 效率与推理 动态推理:GPT-5.1 能根据任务复杂性动态调整其“思考”时间。对于简单任务,它使用更少的 token,响应速度更快(例如,一个 npm 命令的查询从 10 秒缩短到 2 秒);对于复杂任务,它会投入更多资源以确保可靠性。 无推理模式:新增了 reasoning_effort 设置为 'none' 的模式,适用于对延迟敏感的应用场景。该模式在保持高智能的同时,能实现更快的响应和更高效的并行工具调用。 性能提升:与 GPT-5 及其他竞品相比,GPT-5.1 在速度和 token 效率上均有显著提升。Balyasny Asset Management 发现其速度是 GPT-5 的 2-3 倍,而 token 消耗仅为竞品的一半。 扩展缓存:引入了长达 24 hour 的提示缓存(prompt caching)功能,显著降低了在多轮对话或编码会话等长交互场景中的延迟和成本。 编码能力 性能增强:GPT-5.1 在编码方面更具可控性,代码质量更高,并且减少了不必要的“过度思考”。在 SWE-bench Verified 基准测试中,其准确率达到了 76.3%。 业界好评:多家公司如 Cognition、Warp 和 JetBrains 对其给予了高度评价,认为它在理解用户意图、响应速度和自主性方面表现出色。 新增工具: apply_patch 工具:允许模型通过生成结构化的 diff 来可靠地创建、更新或删除代码文件,使多步骤代码编辑更加流畅。 shell 工具:允许模型通过受控的命令行界面与本地计算机交互,执行检查系统、运行程序等任务。 定价与可用性 可用性:GPT-5.1 和 gpt-5....

November 14, 2025 · 3 min · fisherdaddy