Powered by RND
PodcastsTechnology张小珺Jùn|商业访谈录
Listen to 张小珺Jùn|商业访谈录 in the App
Listen to 张小珺Jùn|商业访谈录 in the App
(524)(250,057)
Save favourites
Alarm
Sleep timer

张小珺Jùn|商业访谈录

Podcast 张小珺Jùn|商业访谈录
张小珺
努力做中国最优质的科技、商业访谈。 张小珺:财经作者,曾供职《财经》,现在是腾讯新闻科技主笔 ,写作中国商业深度报道,范围包括AI、科技巨头、风险投资和知名人物,也是播客《张小珺Jùn | 商业访谈录》制作人。 也许你看过我的作品: 2024年中国AGI三部曲 《杨植麟复盘大模型创业这一年:向延绵而未知的雪山前进...

Available Episodes

5 of 94
  • 91. 逐篇讲解DeepSeek关键9篇论文及创新点——“勇敢者的游戏”
    2025年这个春节,DeepSeek一举改写了全球AGI大叙事。在万般热闹之际,我们特别想沉下来做一些基础科普工作。在《商业访谈录》89集节目中,我邀请了加州大学伯克利分校人工智能实验室在读博士生潘家怡,为大家对照解读了春节前的DeepSeek-R1-Zero、R1、Kimi发布的K1.5,以及OpenAI更早发布的o1技术报告。这些模型聚焦的都是大模型最新技术范式,RL强化学习,简单来说就是o1路线。今天这集,我邀请的是香港科技大学计算机系助理教授何俊贤。他的研究方向是大模型推理,从很早就开始关注DeepSeek的系列研究。我们会focus在最近引发全球AI届关注的DeepSeek上。何老师将带领大家从DeepSeek的第1篇论文开始,阅读经过挑选的这家公司历史上发布的9篇论文。我们希望帮助大家从一个更延续、更长期、也更技术底层的视角来理解DeepSeek,以及它所做的复现与创新工作;与此同时也希望能让更多人感受到技术之美。我们的播客节目在腾讯新闻首发,大家可以前往关注哦,这样可以第一时间获取节目信息和更多新闻资讯:)03:01 讲解开始前,先提问几个小问题整体风格:Open、Honest、低调、严谨的科学态度DeepSeek基座模型21:00 《DeepSeek LLMScaling Open-Source Language Models with Longtermism》技术讲解45:48 《DeepSeekMoE: Towards Ultimate Expert Specialization in Mixture-of-Experts Language Models》技术讲解01:06:40 《DeepSeek-V2: A Strong, Economical, and Efficient Mixture-of-Experts Language Model》技术讲解01:40:17 《DeepSeek-V3 Technical Report》技术讲解DeepSeek推理模型02:05:03 《DeepSeek-Coder: When the Large Language Model Meets Programming - The Rise of Code Intelligence》技术讲解02:12:16 《DeepSeek-Coder-V2: Breaking the Barrier of Closed-Source Models in Code Intelligence》技术讲解02:47:18 《DeepSeek-Prover: Advancing Theorem Proving in LLMs through Large-Scale Synthetic Data》和《DeepSeek-Prover-V1.5: Harnessing Proof Assistant Feedback for Reinforcement Learning and Monte-Carlo Tree Search》技术讲解02:52:40 《DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning》技术讲解03:01:41 9篇论文到这里都讲完啦!最后我们一起强化学习一下!关于强化学习往期节目:AGI范式大转移:和广密预言草莓、OpenAI o1和self-play RL|全球大模型季报4和OpenAI前研究员吴翼解读o1:吹响了开挖第二座金矿的号角王小川返场谈o1与强化学习:摸到了一条从快思考走向慢思考的路逐句讲解DeepSeek-R1、Kimi K1.5、OpenAI o1技术报告——“最优美的算法最干净”开源一场关于DeepSeek的高质量闭门会:一场关于DeepSeek的高质量闭门会:“比技术更重要的是愿景”【更多信息】联络我们:微博@张小珺-Benita,小红书@张小珺更多信息欢迎关注公众号:张小珺
    --------  
    3:20:52
  • 90. 朱啸虎又来了:中国现实主义AIGC故事的1周年连载
    1年前,在我的报道《朱啸虎讲了一个中国现实主义AIGC故事》中,他的观点淋漓尽致地展现了一个现实版中国AI故事。他用“我们一看就知道,这个肯定没戏”,“我们一开始就说了,我就不看好大模型”,“ 我都不愿意去聊,你知道吗?这没有意义”,表态绝不会投资6家中国大模型创业公司中的任何一家。然而,时隔1年,Allen Zhu对待通用人工智能的态度出现了惊奇的逆转。这是朱啸虎现实主义故事的1周年连载。希望《商业访谈录》能持续为大家呈现中国AI市场的风云变幻与市场中人的心态起伏。2025,期待我们和AI共同进步!我们的播客节目在腾讯新闻首发,大家可以前往关注哦,这样可以第一时间获取节目信息和更多新闻资讯:) 01:30 DeepSeek快让我相信AGI了 03:08 这是对领先者的curse、诅咒 05:21 闭源模型还有没有价值?是很严峻的灵魂拷问 06:00 20天做到2000万DAU:DeepSeek是全球App增速历史第一,不需要任何限定语 07:00 梁文锋觉得,意识不一定是一个非常高技能、高门槛的事情 11:19 不用担心在别人的地基上盖房子,对AI应用公司是极大的解放 14:40 初始语料需要博士级别、各个领域专家级别的人来打标签 15:53 DeepSeek这次唯一没有公开的可能就是预训练语料 17:40 OpenAI成本很高,如果不能持续保持领先,挑战会挺大 18:09 中国大模型公司都需要重新思考 20:05 今天的DeepSeek是追赶者还是创新者角色? 21:02 怎么看梁文锋?梁文锋是你的反面吗? 21:40 我肯定会投啊!我肯定会投!——这个价格已经不太重要了,关键是参与在这里面 22:59 我今天上午和梁文锋说,R1可能会被认为是机器AI意识的元年 24:00 至少搜索肯定是被彻底取代了——这是毫无疑问的! 26:14 AI产品的数据飞轮价值不大,这是我这两年最大一个教训 27:51 如果你是DeepSeek CEO,你当下最关切、最紧要需要解决的问题是什么? 31:32 怎么看特朗普上任第二天宣布的Stargate(星际之门)项目?怎么看英伟达? 33:29 “朱啸虎们”怎么看待“梁文锋们”? 34:07 复盘1年前《朱啸虎讲了一个中国现实主义AIGC故事》里的观点,哪些被打脸?哪些更坚定? 36:16 尤其在中国,你可以假设底层模型是免费的! 37:07 回顾2024年的大模型行业,你会把哪些时刻当作关键节点? 40:45 字节今天如果马上改开源追赶,那也不太容易 41:30 今年会不会看到通义千问把自己的生态向DeepSeek兼容,这样一个标志性事件? 42:08 点评新出现的AI产品(包括但不限于Perplexity、Cursor、Devin) 47:39 聊小红书、具身智能、杭州和理想汽车 52:26 现在全世界就只有中美有AI能力,出海都是Low-Hanging Fruits(低垂的果实) 52:57 我今天看到在新加坡的泡泡玛特,买盲盒还要配货,你想到吗?!买盲盒都要配货!! 55:30 答DeepSeek问 59:50 最后的快问快答朱啸虎往期节目:你们要的朱啸虎,来了1年前的报道:《朱啸虎讲了一个中国现实主义AIGC故事》【更多信息】联络我们:微博@张小珺-Benita,小红书@张小珺更多信息欢迎关注公众号:张小珺
    --------  
    1:03:08
  • 89. 逐句讲解DeepSeek-R1、Kimi K1.5、OpenAI o1技术报告——“最优美的算法最干净”
    2025年这个春节,DeepSeek一举改写了全球AGI大叙事。在万般热闹之际,我们特别想沉下来做一些基础科普工作,一起来研读这几篇关键的技术报道。今天这集节目,我邀请加州大学伯克利分校人工智能实验室在读博士生潘家怡,来做技术解读。他的研究方向是语言模型的后训练。这期播客中,家怡将带着大家一起来读,春节前DeepSeek发布的关键技术报告,他在报告中发布了两个模型DeepSeek-R1-Zero和DeepSeek-R1;并对照讲解Kimi发布的K1.5技术报告,以及OpenAI更早之前发布的o1的技术博客,当然也会聊到它春节紧急发布的o3-mini。这几个模型聚焦的都是大模型最新技术范式,RL强化学习。希望我们的节目能帮更多人一起读懂这几篇论文,感受算法之美,并且准确理解目前的技术拐点。(以下每篇技术报告都附了链接,欢迎大家打开paper收听✌️)期待2025,我们和AI共同进步!【嘉宾小记】加州大学伯克利分校人工智能实验室在读博士生,上海交通大学本科毕业。他的研究方向主要集中在语言模型的后训练领域,通过强化学习等方法提升AI在智能体行为决策与推理方面的能力。这是他做的有关R1-Zero小规模复现工作:github.com我们的播客节目在腾讯新闻首发,大家可以前往关注哦,这样可以第一时间获取节目信息和更多新闻资讯:)03:46 讲解开始前,先提问几个小问题16:06 OpenAI o1技术报告《Learning to reason with LLMs》讲解报告链接:openai.com中文标题翻译:《让大语言模型学会推理》OpenAI在报告中有几个重点: Reinforcement Learning — 强化学习 It learns to recognize and correct its mistakes. It learns to break down tricky steps into simpler ones. It learns to try a different approach when the current one isn’t working. (它学会识别并纠正自己的错误,学会将复杂的步骤分解为更简单的步骤,学会在当前方法行不通时尝试不同的解决途径。)这些是模型自己学的,不是人教的。 我们还在技术早期,他们认为这个技术可拓展,后续性能会很快攀升。33:03 DeepSeek-R1-Zero and DeepSeek-R1技术报告《DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning》讲解报告链接:github.com中文标题翻译:《DeepSeek-R1:通过强化学习激励大语言模型的推理能力》35:24 摘要(Abstract)37:39 导论(Introduction)44:35 发布的两个模型中,R1-Zero更重要还是R1更重要?47:14 研究方法(Approach)48:13 GRPO(Group Relative Policy Optimization,一种与强化学习相关的优化算法)57:22 奖励建模(Reward Modeling)01:05:01 训练模版(Training Template)01:06:43 R1-Zero的性能、自我进化过程和顿悟时刻(Performance, Self-evolution Process and Aha Moment)值得注意的是,“Aha Moment”(顿悟时刻)是本篇论文的高潮:报告称,在训练DeepSeek-R1-Zero的过程中,观察到一个特别引人入胜的现象,即“顿悟时刻”。这一时刻出现在模型的中间版本中。在这个阶段,DeepSeek-R1-Zero通过重新评估其最初的方法,学会了为一个问题分配更多的思考时间。这种行为不仅是模型推理能力不断增长的有力证明,也是强化学习可能带来意想不到且复杂结果的一个迷人例证。这一时刻不仅是模型的“顿悟时刻”,也是观察其行为的研究人员的“顿悟时刻”。它凸显了强化学习的力量与美感:我们并没有明确地教导模型如何解决问题,而是仅仅为其提供了正确的激励,它便自主地发展出高级的问题解决策略。这种“顿悟时刻”有力地提醒我们,强化学习有潜力在人工智能系统中解锁新的智能水平,为未来更具自主性和适应性的模型铺平了道路。01:14:52 模型能涌现意识吗?01:16:18 DeepSeek-R1:冷启动强化学习( Reinforcement Learning with Cold Start)01:24:48 为什么同时发布两个模型?取名“Zero”的渊源故事?01:28:51 蒸馏:赋予小模型推理能力(Distillation: Empower Small Models with Reasoning Capability)01:35:27 失败的尝试:过程奖励模型(PRM)与蒙特卡罗树搜索(MCTS)01:42:33 DeepSeek-R1技术报告是一片优美精妙的算法论文,有很多“发现”,这是它成为爆款报告的原因01:43:50 对DeepSeek-R1训练成本的估算:往高里估,一万步GRPO更新, 每步就算1000的batch size(试一千次),一次算一万个token;模型更新用的 $2.2 / 1M tokens, 总共是100B tokens — 0.22M 算上效率损失,模型训练也有一定开销,说破天也就1M;如果优化的话很有可能只有10万美金左右的成本 相比之下,预训练用了600万美金,相当便宜01:49:05 KIMI K1.5技术报告《KIMI K1.5:SCALING REINFORCEMENT LEARNING WITH LLMS》讲解中文标题翻译:《KIMI K1.5:利用大语言模型扩展强化学习》报告链接:arxiv.org该报告公开了许多技术技巧细节,对于想要复现的人,两篇paper一起使用更佳。如,数据构造、长度惩罚、数学奖励建模、思维链奖励模型、异步测试、Long2short、消融实验等。02:20:07 DeepSeek论文的结尾谈未来往哪里发展?02:24:35 以上是三篇报告所有内容,接下来是提问时间,我们继续强化学习一下!“数据标注”在几篇论文中藏得都比较深,小道消息OpenAI一直以100-200美元/小时找博士生标数据“DeepSeek的论文隐藏了技术细节,但把算法的精妙之处和美展现给你,让你感受技术之美,给你震撼。”它解密了后训练范式革命可以何处去,让你发现原来算法这么简单!再一次验证——“最优美的算法永远是最干净的。”关于强化学习往期节目:AGI范式大转移:和广密预言草莓、OpenAI o1和self-play RL|全球大模型季报4和OpenAI前研究员吴翼解读o1:吹响了开挖第二座金矿的号角王小川返场谈o1与强化学习:摸到了一条从快思考走向慢思考的路开源一场关于DeepSeek的高质量闭门会:一场关于DeepSeek的高质量闭门会:“比技术更重要的是愿景”【更多信息】联络我们:微博@张小珺-Benita,小红书@张小珺更多信息欢迎关注公众号:张小珺
    --------  
    2:49:35
  • 88. 和吴翼技术解读OpenAI Operator:推理从抽象世界走向物理世界的开端
    2025刚开年,全球AI届就已高度共识,将2025年定义为“智能体元年”。北京时间1月24日凌晨,OpenAI率先抢跑,发布智能体产品Operator(操作员),打响了全球智能体竞赛的第一枪。在Operator发布前,广密在我们的节目中预言,25年核心关键词是Agent、Agent、Agent,这些AI产品最终会演变成一个任务容器,朝着“下一个Google”方向进发。本集节目,在Operator发布后,我邀请前OpenAI研究员、清华叉院信息研究院助理教授吴翼,从技术视角解读Operator和Agent之年。我们的播客节目在腾讯新闻首发,大家可以前往关注哦,这样可以第一时间获取节目信息和更多新闻资讯:) 02:55 对Operator的感官感受 04:19 Operator在AGI路线图上的地标:多模态、连续交互、闭环控制系统 06:34 OpenAI内部还有更好的模型,智力会刷得很高,Operator带有泛化性 08:17 Operator是多模态、闭环的o1,一个Agent o1的版本 08:57 为什么Operator是单独入口? 11:13 Operator包含的技术要点:基座模型、高质量数据集、高效大规模支持Agent的强化学习系统 14:10 有关Operator底层用的新模型:Computer-Using-Agent(CUA) 19:02 2025是Agent之年:多模态模型+强化学习 20:49 回溯到2016年,OpenAI成立后第一个大项目就是Web Agent,但失败了 22:40 OpenAI的5级分类:聊天机器人Chatbots〉推理者Reasoners〉智能主体Agents〉创新者Innovators〉组织Organizations,技术演进轨迹,人类参与越来越少 31:26 Operator在与人类协作时,如何平衡自主决策和人类指令的优先级? 32:30 Operator怎么整合语言、视觉和动作等不同模态的信息? 34:11 Operator能否支持与其他Agent的协作?这种协作的机制是什么? 38:45 广密说Chatbot不是提取智能最有效的交互方式,Operator能有效提取智能吗? 42:14 OpenAI智能提升与更多产品的关系 49:48 Agent这个词从博弈论进入人工智能,现在指大语言模型调用外部世界 54:29 Agent中有创业公司的机会吗? 58:57 Operator释放了信号:逻辑推理从抽象世界走向视觉物理世界的开端 01:02:27 如果Agent在未来成为主流,人类与AI的协作方式会发生哪些变化? 01:06:46 大公司全部开着重装坦克往前走,其他人怎么办?预言单集:大模型季报年终特辑:和广密预言LLM产品超越Google之路吴翼往期:和OpenAI前研究员吴翼解读o1:吹响了开挖第二座金矿的号角【更多信息】联络我们:微博@张小珺-Benita,小红书@张小珺更多信息欢迎关注公众号:张小珺
    --------  
    1:12:02
  • 87. 对李想的3小时访谈(播客版):宅男、AI、家庭、游戏和天梯
    这里是《张小珺商业访谈录》2025年与大家见面的第1集节目,我邀请的嘉宾是理想汽车创始人兼CEO李想。2024年12月,理想将车机助手理想同学作为手机版App推出,并于此前做了基座大模型。这相当于,这家人们认知中的新能源车企,要跨界参与到与字节豆包、Kimi等个人助手的红海之战。这场对话涵盖了这名非技术背景、被认为在产品上有天赋的创始人,过去两年对人工智能完整的技术与产品观的思考。他也首度谈了谈,MEGA失利、苹果放弃造车、雷军造车成功、如果他当了OpenAI CEO、理想会做机器人吗、怎么管理00后等各种话题。此外,播客还放出了一部分加长版聊天。这部分和此前两小时会稍微有一些重复,保留的都是一些觉得李想有增量表达,也许能给大家一些启发的地方(如果不想听,可以直接跳过)。同时,这部分偏后的篇幅会更加个人,聊了聊一名宅男的日常生活,他长达几十年的玩游戏史,改变过他的游戏,以及从游戏中获得的世界观。祝大家2025年,正直勇敢有阅读量:)我们的播客节目在腾讯新闻首发,大家可以前往关注哦,这样可以第一时间获取节目信息和更多新闻资讯:)02:55 第一节:谈人工智能 1. 我绝对不止做一棵树了 2. 你都不能让你雇的人相信,你怎么让大众相信? 3. 我做OpenAI CEO会比Sam Altman更好吗? 4. 理想同学+Mind GPT要去和豆包、Kimi竞争了? 5. 基座模型是操作系统+编程语言 6. L4就是智能体 7. 终极产品想象是硅基家人 8. 人工智能表达的是能力,不是功能 9. 李想有理想吗?56:12 第二节:谈智能驾驶 1. 三年我们能推出把方向盘摘掉的产品 2. 我们相比特斯拉又不缺胳膊少腿 3. L4实现,买车的人会更多 4. 我们100%会做机器人,但不是现在01:17:50 第三节:谈汽车之战 1. 买法拉利 2. 复盘MEGA失利 3. 今天做的所有事是为了拿L4门票 4. 对雷军说,小米车要想成功,你必须all in 5. 2030年,我们有概率做一辆超级跑车 6. 我从来没有司机01:42:47 第四节:消失的李想 1. 典型的李想的一天 2. AI是知识、认知和能力平权 3. 我人生最大改变是,对自己好 4. 从对事不对人,到先对人再做事 5. 只要所有的中国企业不放弃02:08:42 以上是对李想的正式访谈内容,以下是播客的加长内容。 02:08:42 补充内容(可跳过) 02:31:49 宅男、家庭、孩子、《再见爱人》、游戏和天梯 02:49:24 最后的快问快答嘉宾推荐的书:《高效能人士的七个习惯》苹果三部曲:《史蒂夫·乔布斯传》《蒂姆·库克传》《乔纳森传》【更多信息】本集文字版本:腾讯新闻原文 & 作者的收藏夹联络我们:微博@张小珺-Benita,小红书@张小珺jùn更多信息欢迎关注公众号:张小珺
    --------  
    2:53:37

More Technology podcasts

About 张小珺Jùn|商业访谈录

努力做中国最优质的科技、商业访谈。 张小珺:财经作者,曾供职《财经》,现在是腾讯新闻科技主笔 ,写作中国商业深度报道,范围包括AI、科技巨头、风险投资和知名人物,也是播客《张小珺Jùn | 商业访谈录》制作人。 也许你看过我的作品: 2024年中国AGI三部曲 《杨植麟复盘大模型创业这一年:向延绵而未知的雪山前进》 《朱啸虎讲了一个中国现实主义AIGC故事》 《王小川想提出中国AGI第三种可能性》 抖音上下篇 《抖音内幕:时间熔炉的诞生》 《TikTok内幕:张一鸣的巨浪征途》 共享单车上下篇 《ofo剧中人:我不愿谢幕》 《穿越废墟:共享单车剧未终》 企业调查 《百度最难捱的一夜:五名高管闪电辞职内幕》 VC与时代 《风投,大转弯》 《仅仅是昨天:我们亲历的萧条、繁荣和时代》 《徐小平退后一步,方爱之向前一步:中国风投第一起交接故事》 人物报道 《王石:老人与海》 《陆奇的大模型世界观》 如果我的访谈能陪你走一段孤独的未知的路,也许有一天可以离目的地更近一点,我就很温暖:)
Podcast website

Listen to 张小珺Jùn|商业访谈录, The Big Tech Show and many other podcasts from around the world with the radio.net app

Get the free radio.net app

  • Stations and podcasts to bookmark
  • Stream via Wi-Fi or Bluetooth
  • Supports Carplay & Android Auto
  • Many other app features
Social
v7.7.0 | © 2007-2025 radio.de GmbH
Generated: 2/12/2025 - 9:41:01 AM