nano banana pro,是2025最让人惊喜的“内容生产引擎”! --知识铺
nano banana pro 背后的巨大价值,包括经济价值和实用价值,大多数人还没真正意识到。
这不是一个简单的 “ai 作图工具”,
而是一个强大的视觉内容生产引擎,
其创造价值的能力不亚于一个美术团队。
人脑是多模态学习的,而视觉画面这个模态的信息是占据大量份额的。毕竟,人脑阅读文字不但数量少,而且费劲,所以视觉信息的消费量巨大。
而 nano banana pro 作为“原生多模态模型”,能简单粗暴直接(one-shot) “画”出人类画不出的知识漫画、信息图、PPT……人类需要好好消化这条信息。
上周五ai讲座就是 nano banano pro专题。现在,大纲笔记来啦。还没上课的可以大概了解讲了什么,上过课的可以温故知新。
2025 ai 感悟
ai 主题直播的目标
-
三年里,大家被动输入了海量 ai 信息,但绝大部分人还没把 ai 用到 Pro 级别,没有用“专业人士”的方式把 ai 真正变成创造价值的工具。
-
ai 主题直播要做的事:带大家一起“Pro 起来”,把 ai 当成严肃的生产力工具,而不是玩具。
-
“愿意为 ai 付多个 20 美金”是一个 Pro 的标志 如果你愿意:同时给好几个 ai 每月各付 20 美金,那几乎可以确定:它们已经在稳稳地给你创造价值。“花钱买 ai”这件事,是价值创造的结果,而不是起点。
2025 年的个人收获:ai 真正落地的一年
-
公众号“小破号”注册了 10 年只有 2 万关注。2025 年,在 ai 的帮助下:从 2 万涨到 5 万,10 个月涨了 150%。
-
体会:用一年时间做到过去 10 年没做到的事,ai 真正在写作、内容生产、工作流层面带来明显增益。
-
直播定位:每周稳定两小时,观众一边休息放松休息、一边学硬核知识,再通过 ai 社群把经验固化为可复用的工作流。
ai 工具观
核心观点:ai 就是那个终极的软件
-
市面上很多“打折 ai 工具”的本质:传统工作流 + 拼一点 ai 功能,让你每年付一两百美金订阅。
-
但如果你:直接用顶级模型 + 自己的 Workflow,反而能获得 更高质量 的结果。
对“xx ai工具”的基本态度
-
不主动用各种专门的“ai 看视频工具”“ai 播客工具”。
-
原因:顶级基座模型 + 好的 Prompt + 自己的 Workflow 已经足够。不需要为每一个子场景再买一个 SaaS。
-
真正关键的是:把“三大顶级 ai 会员”(ChatGPT、Gemini、Claude)用起来,不要被一堆 Wrapper 工具分散精力和预算。
Nano Banana Pro 案例
本场的核心:
-
重点讲 Nano Banana Pro,以及它和 NotebookLM、Gemini 3.0 等工具如何组成Workflow。
-
框架仍然是“道、法、术、器”:不只看工具表面效果,更要理解背后的原理。
核心问题:
- 为什么 Nano Banana Pro(背后是 Gemini 3.0 Pro Image):在文字渲染、内容理解、逻辑一致性上,相比 DALL-E、Google 旧版 Image、以及早期百度文生图,有这么大的跃迁?本质差异在哪里?
案例1 ai PPT
’ fill=’%23FFFFFF’%3E%3Crect x=‘249’ y=‘126’ width=‘1’ height=‘1’%3E%3C/rect%3E%3C/g%3E%3C/g%3E%3C/svg%3E)
-
场景:savage 做客刘润直播,因为时间紧;原始 PPT 内容堆上去了,但形式不 Pro。
-
操作:用 Nano Banana Pro 处理;左边是原始 PPT,右边是 Nano Banana Pro 一次性生成的版本。Prompt 只是大白话:“谁谁谁做了一个 PPT,内容还可以,但形式不咋样,希望你做得更吸引人、更专业一点。”
-
观察:文字量巨大(一个 PPT 里几百个字):Nano Banana Pro 的汉字渲染、版式、美学,整体都很稳。
-
对比:以前用大模型做 PPT,其实是生成 HTML/CSS/JS,再渲染成画面。
-
启示:现在模型本身就能 One-shot 生成高质量视觉结果,“雕花式”前端实现已经没有意义。
-
原因:Nano Banana Pro 的底层是 Gemini 3.0 Pro Image:一个原生多模态模型,而不是“文字模型 + 图像模块”的拼接。同时具备:世界知识、语言理解、指令跟随、推理能力。处理 PPT 时不是“美术生画图”,而是一个懂内容的模型在做视觉表达。
案例2 “知识漫画”:哆啦A梦讲解Transformer
’ fill=’%23FFFFFF’%3E%3Crect x=‘249’ y=‘126’ width=‘1’ height=‘1’%3E%3C/rect%3E%3C/g%3E%3C/g%3E%3C/svg%3E)
’ fill=’%23FFFFFF’%3E%3Crect x=‘249’ y=‘126’ width=‘1’ height=‘1’%3E%3C/rect%3E%3C/g%3E%3C/g%3E%3C/svg%3E)
-
项目简介:用 12 页哆啦 A 梦漫画,讲解 Transformer 架构与原理。发布在公众号上,反响一般(大部分人不关心 Transformer),但对真正想懂的人,这套漫画极其兴奋、含金量极高。
-
漫画内容涵盖:Transformer vs RNN 的区别、并行处理的优势、Embedding(把词变成向量)、位置编码、Self-Attention、自注意力机制、Query / Key / Value、Softmax 等。全程用故事和视觉呈现,几乎找不到明显错误。
-
意义:这类“知识漫画”的水平,一看就是:当下最顶级大模型才能完成的作品。把极其抽象的技术,通过故事和视觉变成“可玩”的知识。
案例3 手账风格幻灯片:DeepMind 纪录片
’ fill=’%23FFFFFF’%3E%3Crect x=‘249’ y=‘126’ width=‘1’ height=‘1’%3E%3C/rect%3E%3C/g%3E%3C/g%3E%3C/svg%3E)
-
材料:DeepMind 纪录片的内容(长、复杂、信息密度高)。
-
产出:手账风格的幻灯片:文字提炼精准,图画生动,版面美学和结构都达到“人类很难快速做到”的水平。
-
说明:展现出模型可以在极短时间内消化繁杂内容,把知识和审美合在一起输出。
案例4 信息图:中华历史年表 + 朝代歌的信息图’ fill=’%23FFFFFF’%3E%3Crect x=‘249’ y=‘126’ width=‘1’ height=‘1’%3E%3C/rect%3E%3C/g%3E%3C/g%3E%3C/svg%3E)
-
任务:用一个 Prompt 生成“中华五千年历史年表 + 朝代歌”的视觉化呈现。
-
效果:朝代顺序、内容表述、文字渲染都精准。几乎找不到文字错误和知识错误。
-
意义:证明这种工具在生活、教育、工作中,都可以做出非常“惊艳且实用”的内容。
从“炫技”到原则:Idea 与 Taste 是真正的差异
-
两个关键变量:idea 和 taste;
-
Idea(想法):你关注什么问题?你的注意力长期投入在哪些领域?例:跟娃熟读《丁丁历险记》,就会想到用丁丁的历险故事来讲 ai 通识。
-
Taste(品味):市面上大量 ai 内容“品味很低,很假,没有灵魂”。如果没吃过“细糠”,很容易觉得这些内容已经很好。但真正的差距在于:你能不能分辨好坏、有无灵魂。
-
结论:在今天这种模型上限极高的世界里:工具差异正在缩小,真正拉开差距的是:Idea + Taste + Workflow。
本质:“原生多模态时代”
“文生图”的概念与命名:中文圈常说“文生图”(Text-to-Image),本人更喜欢说“ai 作图”或 “Image Generation”。
一切皆 Token
-
GPT-3.5 时代的 ChatGPT:本质是“预测下一个 Token”,Token 是文字单位。
-
现在:文字、音频、视频、画面都可以被 Token 化。既然能预测“下一个文字 Token”,那同样可以预测“下一个音频、视频、画面 Token”。
核心转变
-
在 Gemini 3.0 Pro 发布后:我们正式进入“原生多模态模型”的时代。
-
与 GPT-4o 的对比:GPT-4o 已经非常接近原生多模态,但缺少视频输入。Gemini 3.0 Pro 补上了这块,能直接接受视频。
为什么特别看重 Gemini 3.0 Pro
对 Google 的情感与历史贡献
-
个人感情:上大学第一次上网、第一次买电脑、第一批常用的网站都是 Google。
-
学术层面:从 2012 年深度学习革命开始,大部分关键论文都出自 Google(包括 Transformer)。Google 一直 All in ai,十几年如一日。
迟到的“翻身仗”
-
在 ChatGPT 发布之后:外界一直以为 Google 在“憋大招”。
-
现实:Gemini 1.0、1.5、2.0 表现都很烂,非常失败。
-
直到 Gemini 2.5、3.0 才真正赶上甚至部分超越:在 Reason(推理)方面尤其强。
-
观点:Google 这次在模型层面上终于翻身,“Google 在 ai 时代再次伟大”这件事,非常重要。
案例:文生图模型简史
’ fill=’%23FFFFFF’%3E%3Crect x=‘249’ y=‘126’ width=‘1’ height=‘1’%3E%3C/rect%3E%3C/g%3E%3C/g%3E%3C/svg%3E)
从 GAN 到 Diffusion,再到 DiT 与原生多模态
这一部分是通过:ChatGPT 对话 + Deep Research 报告 → 再用“三级笔记”处理后得到的知识框架。
’ fill=’%23FFFFFF’%3E%3Crect x=‘249’ y=‘126’ width=‘1’ height=‘1’%3E%3C/rect%3E%3C/g%3E%3C/g%3E%3C/svg%3E)
早期探索期:GAN 与 Attention’ fill=’%23FFFFFF’%3E%3Crect x=‘249’ y=‘126’ width=‘1’ height=‘1’%3E%3C/rect%3E%3C/g%3E%3C/g%3E%3C/svg%3E)
’ fill=’%23FFFFFF’%3E%3Crect x=‘249’ y=‘126’ width=‘1’ height=‘1’%3E%3C/rect%3E%3C/g%3E%3C/g%3E%3C/svg%3E)
-
GAN(生成对抗网络):最早的图片生成主力。通过生成器与判别器对抗,让图片越来越像。
-
Attention 机制的引入:能对 Prompt 中的特定特征给出更高权重,提升图片的“操控性”:更听得懂指令。
扩散模型(Diffusion Model)的革命阶段
’ fill=’%23FFFFFF’%3E%3Crect x=‘249’ y=‘126’ width=‘1’ height=‘1’%3E%3C/rect%3E%3C/g%3E%3C/g%3E%3C/svg%3E)’ fill=’%23FFFFFF’%3E%3Crect x=‘249’ y=‘126’ width=‘1’ height=‘1’%3E%3C/rect%3E%3C/g%3E%3C/g%3E%3C/svg%3E)
-
代表作品:2022 年 Openai 的 DALL-E 2、Google 的 Imagen、Stable Diffusion和Midjourney。
-
百度文生图模型“夫妻肺片 / 车水马龙”翻车案例的本质:基于英文的某个开源 Stable Diffusion 模型,中文 Prompt 被粗糙翻译为 Car / Water / Horse / Dragon,再丢给 Diffusion 模型画图,自然笑掉大牙。暴露出:文本理解差、翻译粗糙、模型质量一般。
向 DiT(Diffusion Transformer)与 Transformer 迁移’ fill=’%23FFFFFF’%3E%3Crect x=‘249’ y=‘126’ width=‘1’ height=‘1’%3E%3C/rect%3E%3C/g%3E%3C/g%3E%3C/svg%3E)
-
Sora 的出现:Sora 使用的是 DiT(Diffusion Transformer)。把 Transformer 引入扩散过程, 使视频生成能力上了一个维度。
-
范式变化的外在标志:命名。Openai:从 DALL-E 1/2/3 → GPT-4o Image(Ghibli)。不再把它当成一个“只会画图的窄 ai”,而是 GPT 模型的一种输出能力。Google:从 Imagen 1/2/3 → Nano Banana / Gemini 3 Pro Image。表明底层模型范式已变,不再是单一的“图像模型”。
最新一代:原生多模态 + 超强推理的“清华美院生”’ fill=’%23FFFFFF’%3E%3Crect x=‘249’ y=‘126’ width=‘1’ height=‘1’%3E%3C/rect%3E%3C/g%3E%3C/g%3E%3C/svg%3E)’ fill=’%23FFFFFF’%3E%3Crect x=‘249’ y=‘126’ width=‘1’ height=‘1’%3E%3C/rect%3E%3C/g%3E%3C/g%3E%3C/svg%3E)
-
GPT-4o / O3 画图:不再是“低智商美术生”。而是:拥有超人语言理解、世界知识、推理能力,同时具备专业美术能力的模型。
-
Nano Banana Pro 的定位:与之类似,既是画师,也是懂内容的“老师 + 设计师”。这就是为什么:处理文字密集的 PPT、复杂的漫画脚本、信息图时,它的表现是“降维打击”的。
’ fill=’%23FFFFFF’%3E%3Crect x=‘249’ y=‘126’ width=‘1’ height=‘1’%3E%3C/rect%3E%3C/g%3E%3C/g%3E%3C/svg%3E)
’ fill=’%23FFFFFF’%3E%3Crect x=‘249’ y=‘126’ width=‘1’ height=‘1’%3E%3C/rect%3E%3C/g%3E%3C/g%3E%3C/svg%3E)
Nano Banana Pro 工作流
从“文生图简史”到高质量 PPT:三级笔记 + Deep Research + NotebookLM + Nano Banana 的工作流
为何不能指望“一键生成神 PPT”
-
NotebookLM 直接生成 PPT 的问题:中文字体渲染问题;结构质量一般;深层内容质量不够好。
-
正确思路:拆分 Workflow
-
把“构思内容骨架”和“视觉呈现”分开处理。
-
让文生图模型只做“画图”这一件事。
-
用最强的语言模型负责:信息搜集、Deep Research、结构提炼、PPT 文本设计。
通用高质量内容工作流(以“文生图模型简史”为例)
-
第一步:信息获取 & Deep Research 在 ChatGPT / Gemini 里发一个 Deep Research Prompt:仅搜索英文资料,用中文写报告。生成几万字的“文生图模型简史”报告。
-
第二步:结构提炼——“三级笔记” 把 Deep Research 报告全文扔进“三级笔记” Prompt。用 GPT-5.1 Thinking 处理,得到一份结构极清晰、信息浓缩、关键词完整的“树状大纲”。这份大纲:本质上就是 PPT 的“终极文字版”。
-
第三步:知识管理与复用 把三级笔记复制粘贴到 Logseq,作为长期知识库的一部分。从此,任何相关主题,都可以从这棵“知识树”出发。
-
第四步:PPT 生成(NotebookLM) 在 NotebookLM 里新建一个 Notebook:只导入这份 Markdown 版的三级笔记。用 NotebookLM 生成 PPT(上限 15 页):内容结构清晰,是“人类 PPT 的文字版极致提炼”。
-
第五步:视觉强化(Nano Banana Pro) 针对 PPT 中关键页面,用 Nano Banana Pro 生成信息图 / 插画 / 漫画。最后组合成一套,同时具备深度知识与高质量审美的演示文稿。
-
结果:任意一个普通人,学会这套 Workflow,都可以在很短的时间内,做出过去要付成千上万块才能请人做出的 PPT。
“知识漫画”的专用工作流:哆啦 A 梦讲 Transformer
-
Step 1:确定模板 & Idea 一个通用的“漫画学习” Prompt 模板:主角是谁(哆啦 A 梦 / 炭治郎 / 海贼王人物 ……);要讲的知识是什么(Transformer, C++, 排列组合, 线性代数 ……)。
-
Step 2:用 Gemini 3.0 Pro 做分镜与脚本 Gemini 3.0 Pro 负责:全局结构设计(每一页讲什么)。每一页拆分为多个 Panel(画格)的详细脚本。难度:这是人类“极难自己完成”的脑力活,需要同时懂技术、懂故事、懂教学。
-
Step 3:用 Nano Banana Pro 作画 Prompt 非常朴素:“我要画一套漫画,竖排、彩色、有页码,用中文,下面是第 X 页的脚本,请画出来。” 每次粘贴一页脚本,生成一张图。模型会自动在内部进行 Reasoning,保证画面和脚本一致。
-
Step 4:导出与规格 下载 4K 原图:分辨率 1792 × 2400(3:4)。单张图约 6MB。直接达到“出版级别”质量。
-
思维方式 不追求“一口气生成 12 页漫画”。而是:把创作拆成多个环节,每个环节用当前最强的模型做到最好。
2年来首次推荐 NotebookLM
ai 时代的知识管理工具,但不能替代个人笔记系统
’ fill=’%23FFFFFF’%3E%3Crect x=‘249’ y=‘126’ width=‘1’ height=‘1’%3E%3C/rect%3E%3C/g%3E%3C/g%3E%3C/svg%3E)
为什么以前从不推荐 NotebookLM,而现在可以严肃对待?
-
早期的问题 底层模型是 Gemini 1.0 Pro 或 Flash(蒸馏模型);类比为,“让你跟学历不高、专业能力有限的人谈高深问题”。在 ai 使用上,我不会使用“劣质模型、劣质智能、蒸馏版模型”做严肃工作。因此过去一年多都不推荐 NotebookLM,认为它“挺浪费时间和注意力”。
-
关键变化 一周前,Nano Banana Pro 能力整合进来。意味着,NotebookLM 才刚刚达到“可以严肃讨论”的门槛。
-
未来展望:如果顶级模型升级到 Gemini 3.0 Pro、配合 1.5 Pro 多模态能力,单单 NotebookLM 一个产品,每月就值 20 美金。
NotebookLM 的核心功能与定位
- 作为“ai 时代的知识管理工具”,与 Google 的使命“组织全人类的信息”一致,也自然要帮助你组织“你自己的所有信息”。
功能概览
-
可导入多种格式:PDF、Markdown、TXT、MP3、网站链接、YouTube 视频等;把这些材料按主题组织成一个 Notebook;
-
基于这些材料,可以:Chat with 文档、生成 Podcast、生成视频讲解、生成思维导图、生成报告、生成 Flashcard、Quiz、信息图、生成 PPT(目前限制 15 页)。
-
使用场景 围绕一个主题(如“红楼梦”“某历史时期”),收集大量资料 → 用 NotebookLM 做深度研究与衍生内容。
为什么它不能替代 Logseq / Obsidian:个人笔记是前提
个人知识管理的底层逻辑
-
“知识管理”的本质:对学习过程和结果进行科学管理,让“凡努力必可积累,凡积累必可迭代”。
-
任何有意义的阅读、思考、划线与笔记:都应该进入你的个人知识库,再与 ai 模型打通。
Logseq/Obsidian 的角色
-
以“概念/知识组块”为基本单位。
-
本地 Markdown 文件管理上万个笔记。
-
用云盘(Google Drive 等)同步。
-
与 ChatGPT、Gemini 等顶级模型直接打通。
-
好处:实现 10 倍以上的指数级效果。
-
结论:个人笔记 → 个人知识管理 → ai 知识管理 → 私人 GPT。
-
NotebookLM 属于“ai 知识管理层”的工具,但前面两层(笔记 + 知识管理)必须自己打好地基。
Readwise Reader:互联网阅读的关键一环
-
功能:把 Twitter、YouTube、网页、微信文章等统一放进一个 Reader。在“阅读层”上高亮、做笔记。所有划线与笔记一秒后同步到 Google Drive、Notion,并和 ChatGPT、Gemini、Claude 打通。
-
立场:本人已使用两三年,多次推荐。对发展中国家用户:可以给官方发邮件申请优惠,大概 300 多一年。不收任何推广利益,自己付费。认为其价值“再怎么强调都不为过”。
案例:Ilya Sutskever 长播客
新阅读范式与“情绪经济”的思考
Ilya 播客内容概览(90 分钟)’ fill=’%23FFFFFF’%3E%3Crect x=‘249’ y=‘126’ width=‘1’ height=‘1’%3E%3C/rect%3E%3C/g%3E%3C/g%3E%3C/svg%3E)
-
核心观点:Ilya 认为,大语言模型已经从“Scaling Era(扩展时代)”回到“Research Era(研究时代)”。
-
涉及概念:Scaling Laws(扩展规律)、强化学习(Reinforcement Learning)、从预训练 Scaling → RL Scaling、Alignment(对齐)、“It factor”(人类学习的某种关键品质)、World Model(世界模型)。
如何用三级笔记 + ai 阅读工作流处理这类长内容
-
操作流程:
-
获取视频 transcript(逐字稿);
-
全文丢进“三级笔记” Prompt,生成树状大纲;
-
把大纲丢进 Logseq,成为“Reads 系列”中的一条记录。
-
体验差异:相比“线性逐字阅读”:先看到树状结构,再决定哪里值得深读。阅读体验完全不同。你可以:在树状结构上标记思考、扩展笔记,结合自己的问题和知识背景,进行深度联想。
从 World Model 到“情绪经济”的联想
-
泛化能力与人脑:人类大脑具有极强的泛化能力,与其背后的 World Model 有关。
-
Openai 在 GPT-5 上的问题:为了疯狂 Scale RL,可能导致模型出现某些能力上的简化或 Bug。
-
情绪与 RL 的类比:Ilya 把“情绪”类比为 RL 中的 Value(价值方向),情绪为人类行为提供“价值函数”,算法只要抓住这一点,就能对人类行为施加巨大影响。
-
“情绪经济”的判断:认为中国某些平台已经做到从算法层面理解并操纵情绪,让整个经济运行变成“情绪驱动”的机制。用户表面没付钱,实际上是把人生、情感、注意力、时间“卖给了平台”。
-
结论:如果不用 ai 阅读工作流,只是被动听 90 分钟播客,很难产生这些系统性思考。ai 并没有让思考变浅,而是让思考更聚焦、更高维。
信息消费范式的转变
一手信息、Agency-based Learning 与多模态“丰富模式”
不再是“为获取信息而阅读”
-
在 2025 年,如果你想了解任何主题,只需一个 Prompt:“联网搜索综述某主题”,几秒内就能获得高质量结构化信息。
-
因此:现在读书、读文章,不再是为了获取信息,真正的目标是为了思考、为了创造、为了解决问题。
一手信息与信息源选择
-
一手信息的两类来源:自己的第一手实践(如本场分享,就属于一手)。各领域专家与官方发布的原始材料。
-
英文世界的重要性:英文博客、网站、YouTube、Twitter,是获取一手信息的主战场。以前读英文累脑子,现在有 ai 阅读工作流:语言不再是障碍。
-
对“多手信息”的态度:各种二手、三手、自媒体“加工品”,很多是垃圾信息、碎片噪音;如果在 2025 年还沉迷这些,已经不能怪平台,是自己不愿改变。
“丰富模式”与多模态学习
-
来自《内驱式学习》的“丰富模式”启发:材料要丰富,质量要高。形式可以多样、生动、有趣。
-
多模态学习的例子:让哆啦 A 梦讲 Transformer、讲 C++、讲线性代数。只要质量够好,形式可爱一点完全没问题。
-
结论:在多模态时代,最重要的仍然是“质量”,形式可以尽情丰富。
社群与“第四层大脑”
ai 社群的定位
-
主要提供:所有 ai 相关直播的文字稿 ai 知识库、各种核心 Prompt(三级笔记、500 字费曼、Leibniz 等)、WeChat 社群交流。
-
与 ai 自媒体的区别:不拿厂商的钱,不卖用户注意力;不“隔三差五震惊”,只分享自己真正在用的工作流;用户不是“流量池”,而是真正的学习者。
“第四层大脑”:ai 赋能的学习观’ fill=’%23FFFFFF’%3E%3Crect x=‘249’ y=‘126’ width=‘1’ height=‘1’%3E%3C/rect%3E%3C/g%3E%3C/g%3E%3C/svg%3E)
-
人类三层大脑的老说法:爬行脑(本能)、动物脑(情绪、边缘系统)、新皮质(理性思考、逻辑推理)。
-
过去的限制:个人的认知上限受限于第三层大脑的处理能力。很多费曼式学习、深度阅读方法,对大多数人来说“心有余而力不足”。
-
现在的变化:有了 ChatGPT-5(预期)、Gemini 3.0、Claude 3.5 等顶级模型:你相当于在新皮质外面多了一层“外脑皮层”。你的大脑:正在进入一种 Super Mode(超级模式)。
-
意义:无论过去认知短板有多大,只要掌握正确使用 ai 的方法,都有机会补上。对我的个人使命(“让任何人都能学会如何学习”)而言:ai 是真正让方法落地的“元工具”与“终极工具”。
结语:一个清澈透明的世界
通过 Deep Research、三级笔记、Logseq、NotebookLM、Nano Banana Pro 等工具串起来的 Workflow:可以让任何长内容从“难以下口的硬骨头”,变成结构清晰、图文并茂、可反复复用的知识资产。
’ fill=’%23FFFFFF’%3E%3Crect x=‘249’ y=‘126’ width=‘1’ height=‘1’%3E%3C/rect%3E%3C/g%3E%3C/g%3E%3C/svg%3E)
当你进入这种“清澈透明的世界”:任何复杂主题,都能看到它的框架、血肉与运行方式;真正限制你的,不再是信息、不再是工具,而是 Idea、Taste 和你愿不愿意动脑,搭建自己的 Workflow。
讲座回看&下期预告
加入”做中学·ai社群“,即可获得以下全部权益:
’ fill=’%23FFFFFF’%3E%3Crect x=‘249’ y=‘126’ width=‘1’ height=‘1’%3E%3C/rect%3E%3C/g%3E%3C/g%3E%3C/svg%3E)
chatgpt发布三年来,我首次招募ai社群,就是因为现在是 ai 最可以也最应该落地的时刻。
首次招募,拼团只需365 元,还赠送 129 元《内驱式学习》签名书。数量有限,先到先得。
’ fill=’%23FFFFFF’%3E%3Crect x=‘249’ y=‘126’ width=‘1’ height=‘1’%3E%3C/rect%3E%3C/g%3E%3C/g%3E%3C/svg%3E)
点击链接🔗,或者”阅读原文“,现在加入社群。
此外,本周五晚8点,借着 chatgpt 三周年的机会,我们复盘一下这天翻地覆的三年。识别二维码,预约直播。
’ fill=’%23FFFFFF’%3E%3Crect x=‘249’ y=‘126’ width=‘1’ height=‘1’%3E%3C/rect%3E%3C/g%3E%3C/g%3E%3C/svg%3E)
- 原文作者:知识铺
- 原文链接:https://index.zshipu.com/ai002/post/20251125/nano-banana-pro%E6%98%AF2025%E6%9C%80%E8%AE%A9%E4%BA%BA%E6%83%8A%E5%96%9C%E7%9A%84%E5%86%85%E5%AE%B9%E7%94%9F%E4%BA%A7%E5%BC%95%E6%93%8E/
- 版权声明:本作品采用知识共享署名-非商业性使用-禁止演绎 4.0 国际许可协议进行许可,非商业转载请注明出处(作者,原文链接),商业转载请联系作者获得授权。
- 免责声明:本页面内容均来源于站内编辑发布,部分信息来源互联网,并不意味着本站赞同其观点或者证实其内容的真实性,如涉及版权等问题,请立即联系客服进行更改或删除,保证您的合法权益。转载请注明来源,欢迎对文章中的引用来源进行考证,欢迎指出任何有错误或不够清晰的表达。也可以邮件至 sblig@126.com