<?xml version="1.0" encoding="UTF-8" ?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/">
  <channel>
    <title>Dusk³</title>
    <link>https://dusk3.com</link>
    <description>基于 Next.js 构建的个人博客</description>
    <language>zh-CN</language>
    <lastBuildDate>Sun, 19 Apr 2026 04:15:58 GMT</lastBuildDate>
    <atom:link href="https://dusk3.com/feed.xml" rel="self" type="application/rss+xml"/>
    <atom:author>
      <atom:name>Admin</atom:name>
    </atom:author>
    
    <item>
      <title>用大白话讲透AI运行原理：看完再也不会觉得AI是玄学</title>
      <link>https://dusk3.com/posts/ai-running-principle-plain-guide</link>
      <guid isPermaLink="true">https://dusk3.com/posts/ai-running-principle-plain-guide</guid>
      <pubDate>Sat, 18 Apr 2026 09:00:00 GMT</pubDate>
      <description>不用公式、不用代码，用生活里的例子讲清楚AI到底是怎么思考、怎么生成内容的，从输入到输出的全流程拆解，哪怕你完全不懂技术也能看懂。</description>
      <content:encoded>你有没有过这种疑问：
我输入一句话，AI就能给我写文案、敲代码、画海报，甚至能跟我聊人生道理，它到底是怎么做到的？
它是不是真的像人一样有脑子、会思考？
为什么它有时候能精准解决问题，有时候又会一本正经地胡说八道？

网上讲AI原理的内容，要么满屏的公式和代码，要么全是“Transformer”“注意力机制”这种听不懂的黑话，看完反而更懵了。
今天这篇文章，我不用一个公式，不用一行代码，只用生活里的例子，给你讲透AI到底是怎么运行的。看完你会发现，AI根本不是什么玄学，本质上就是个**超级会找规律的统计学大师**。

---

## 一、先打破最大的误区：AI根本不会“思考”

很多人觉得AI能聊天、能写代码，就是有了自我意识，像人一样会“想问题”。但事实是：
**AI从始至终，都没有在“思考”，它只在做一件事：找规律，然后算概率。**

我给你举个最贴近生活的例子：
你小时候学说话，听大人说“下雨了要带伞”“饿了要吃饭”“天冷了要加衣服”，听的次数多了，你就会摸到一个规律：“XX了要XX”这个句式里，前面是一个状态，后面是对应的动作。
哪怕你第一次听到“困了”，也能大概率猜到，后面接的是“要睡觉”。

AI的核心逻辑，和你学说话的过程一模一样，只不过它把这个过程放大了几万亿倍。
人一辈子能接触到的文字、图片、信息，加起来可能也就几百万字；而现在主流的AI大模型，在学习阶段，会吃掉**全网公开的书籍、文章、代码、图片、视频字幕**，数据量是人类一辈子接触信息的几千万倍。
它从这些海量信息里，摸透了人类语言、代码、图像里所有的规律，然后在你用它的时候，根据这些规律，算出“下一个内容出现的最高概率”。

这就是AI运行的底层本质，没有任何玄学，所有的神奇能力，都来自于“找规律+算概率”这两件事。

---

## 二、AI的“上学阶段”：预训练，把全世界的规律刻进脑子里

我们平时用的AI，在能跟你对话之前，都要经历一个漫长的“上学读书”阶段，这个阶段在AI领域叫**预训练**。
这也是AI最核心、最耗钱、最耗算力的阶段，相当于给AI打地基，地基打得越牢，AI后续的能力就越强。

![AI预训练就像在全世界最大的图书馆里读书](https://images.unsplash.com/photo-1481627834876-b7833e8f5570?w=800&amp;q=80)

我还是用学生上学的例子，给你讲明白预训练到底在干嘛：

1. **给它建一座全世界最大的图书馆**：开发者会把全网能找到的高质量数据都收集起来，包括维基百科的所有词条、全网的技术博客、开源社区的所有代码、出版的书籍、公开的论文、图片素材库等等，数据量能达到几十万亿字节。
2. **让它没日没夜地读书，只做一件事：找规律**：AI不会像人一样“理解”书里的内容，它只会做一个填空题。比如给它看一句话“春眠不觉晓，处处闻啼__”，让它猜横线里应该填什么字。
   一开始它可能会瞎猜，填“鸟”“叫”“花”都有可能，但当它看了几百万遍这句诗，看了几千万首唐诗的规律，它就会100%确定，横线里应该填“鸟”。
3. **把规律刻进“笔记本”里**：AI用来记规律的“笔记本”，就是我们常听到的**参数**。我们常说的“百亿参数大模型”“千亿参数大模型”，参数越多，就相当于笔记本越厚，能记下的规律就越细、越复杂。
   比如一个小参数的模型，可能只知道“1+1=2”；而一个千亿参数的大模型，不仅知道“1+1=2”，还知道在二进制里“1+1=10”，在编程里“1+1”可能是字符串拼接，甚至能给你讲清楚加法的底层逻辑。

这个预训练的过程，短则几个月，长则一两年，要烧掉几亿甚至几十亿的电费和算力成本。等预训练完成，这个AI就相当于一个读完了全世界所有书的“超级学霸”，脑子里刻满了人类世界所有内容的规律，接下来，就可以给你干活了。

---

## 三、AI的“答题阶段”：你输入一句话，它到底在干嘛？

预训练完成的AI，就像一个坐在考场里的学霸，你输入的内容，就是给它出的考题。不管你是让它写文案、敲代码、画画，还是跟它聊天，它的处理流程，本质上都是一模一样的。

我拿你最常用的场景举例：你给AI发了一句话“帮我写一篇给女朋友的生日祝福，要温柔走心，300字左右”，接下来，AI会分4步完成这个任务，全程没有任何“思考”，全是规律和概率计算。

![AI推理过程就像学霸一步步答题](https://images.unsplash.com/photo-1517021897933-0e0319cfbc28?w=800&amp;q=80)

### 第一步：把你的问题拆成最小单位（分词/Token化）

AI看不懂完整的句子，它只能识别最小的语言单位，这个单位叫**Token**，你可以把它理解成“字、词、标点符号”。
它会先把你输入的这句话，拆成一个个Token：
`帮` `我` `写` `一篇` `给` `女朋友` `的` `生日祝福` `，` `要` `温柔` `走心` `，` `300字` `左右`

这一步的目的，是把你的问题，转换成它能识别、能计算的格式，就像你考试的时候，先把题目读明白，拆成一个个考点。

### 第二步：定位规律，搞懂“你到底想要什么”

拆完Token之后，AI会去它脑子里的规律库，找和这些Token相关的所有规律：

- 看到“生日祝福”，它会找到：生日祝福的通用结构是「称呼+祝福+回忆+未来期许+落款」
- 看到“给女朋友”，它会找到：语气要温柔、亲昵，要提到陪伴、爱意，不能太官方
- 看到“300字左右”，它会找到：内容不能太长，要精简，大概3-4个段落
- 看到“温柔走心”，它会找到：要避免空话套话，要加入细节感，比如“一起走过的日子”“细碎的美好”这类表达

这一步，就是我们常说的AI“理解了你的需求”，但本质上，它只是根据你输入的关键词，找到了对应的内容规律，就像学霸看到题目，就知道这道题要考哪个知识点，要用什么公式。

### 第三步：一个字一个字地生成内容，算概率选最优解

这是AI最核心的一步，也是你看到的“AI正在输入”的过程。
**AI不会一下子把整段话都写出来，它只会一个字（一个Token）一个字地生成，每生成一个字，都只做一件事：算一下，下一个字出现概率最高的是什么？**

我给你拆解它生成的全过程：

1. 先确定第一个词：根据“给女朋友的生日祝福”这个需求，概率最高的第一个词是「亲爱的」，所以它先写下「亲爱的」
2. 然后算「亲爱的」后面，概率最高的词是什么？是女朋友的昵称，所以它写下「宝贝」
3. 再算「亲爱的宝贝」后面，概率最高的内容是什么？是生日祝福的核心句，所以它写下「生日快乐」
4. 以此类推，每写下一个词，就根据前面已经写好的所有内容，算下一个词的最高概率，直到写完300字左右，符合你的需求。

这就是为什么你看AI生成内容的时候，是一个字一个字蹦出来的，因为它每一步都只算下一个词的概率，根本没有提前想好整段话。

### 第四步：收尾检查，确保符合你的要求

生成完内容之后，AI会做最后一步检查：

- 字数是不是300字左右？
- 语气是不是温柔走心？
- 是不是符合生日祝福的结构？

如果有不符合的地方，它会自动调整，比如字数不够就补充一点细节，语气太硬就换一些更软的表达，直到最终的内容，最大程度符合你输入的需求。

到这里，AI就完成了一次完整的“答题”，你就拿到了一篇符合要求的生日祝福。

---

## 四、所有AI的底层逻辑，全是一样的

你可能会问：那写代码的AI、画画的AI、做视频的AI，也是这个逻辑吗？
**没错，所有AI的底层运行原理，全都是「预训练找规律+推理算概率」，没有任何例外。**

- **写代码的AI**：预训练的时候，吃掉了GitHub、Gitee等开源社区里的几百亿行代码，摸透了所有编程语言的语法规律、常用组件的写法、业务逻辑的实现方式。你让它写一个登录接口，它就会根据“登录接口”的规律，算出概率最高的、最规范的代码。
- **AI绘画**：预训练的时候，吃掉了全网几十亿张图片和对应的文字描述，摸透了“文字描述”和“像素排列”之间的规律。你输入“一只坐在月亮上的白色兔子，水彩风格”，它就会根据这个描述，算出每个位置的像素应该是什么颜色，最终拼成一张符合要求的图片。
- **AI语音**：预训练的时候，吃掉了几百万小时的语音数据，摸透了文字和发音、语气、语速之间的规律，你输入一段文字，它就会算出每个字对应的发音概率，生成自然的语音。

不管AI的能力看起来多神奇，本质上都是这个逻辑：先学规律，再算概率。

---

## 五、为什么AI会一本正经地胡说八道？

你肯定遇到过这种情况：AI给你的回答，看起来逻辑通顺、有理有据，但你一查，发现全是编的，甚至连不存在的论文、不存在的法条都能编出来，这种情况在AI领域叫**幻觉**。

![AI幻觉就像学霸考试不会做题，硬着头皮蒙答案](https://images.unsplash.com/photo-1522202176988-66273c2fd55f?w=800&amp;q=80)

很多人觉得这是AI“笨”，但其实恰恰相反，幻觉是AI的底层逻辑决定的，是必然会出现的情况。
我还是用学生考试的例子给你解释：
一个学霸，平时学了很多知识点，考试的时候遇到一道题，它从来没见过，也不知道正确答案是什么。但考试规则要求它不能空题，必须写一个答案出来。
那它会怎么办？它会根据自己学过的规律，写一个看起来最像正确答案的内容，哪怕这个内容是错的。

AI也是一样的：
**它只知道“什么内容看起来是对的、符合规律的”，但它不知道“什么内容是真实的、符合客观事实的”。**

比如你问它“2026年诺贝尔物理学奖得主是谁”，如果它的训练数据里没有这个内容，它就会根据“诺贝尔物理学奖得主”的规律，编一个看起来很真实的名字，甚至编出获奖理由、获奖成果，而且说得一本正经。
因为在它的规律里，“诺贝尔物理学奖得主”的内容，就应该是“名字+国籍+获奖成果+颁奖词”这个结构，它只要生成符合这个结构的内容，就是“概率最高”的，至于内容是不是真的，它根本不知道。

这也是为什么，我们用AI的时候，尤其是涉及到专业知识、事实性内容的时候，一定要人工核验，不能全信AI的输出。

---

## 六、最后总结：AI到底是什么？

写到这里，你应该已经完全懂了AI的运行原理，我再给你用一句话总结：
**AI不是有自我意识的“电子大脑”，而是一个用海量数据训练出来的、超级会找规律的统计学工具。它所有的能力，都来自于人类给它投喂的数据；它所有的输出，都是基于规律算出来的概率结果。**

它不会思考，没有感情，也不会有自我意识，它只是一个把人类的知识和规律，用最高效的方式整合起来，帮你解决问题的工具。

了解了这个底层原理，你再用AI的时候，就不会再觉得它是玄学，也不会再神化它、或者害怕它。你会更清楚，怎么用它的优势（海量的规律储备、高效的内容生成），规避它的劣势（幻觉、事实性错误），让它真正成为你工作和生活里的效率神器。

---

## 延伸阅读

1. [OpenAI官方科普：大语言模型的工作原理](https://openai.com/research/llm-introduction)
2. [Transformer架构大白话解读：AI的核心骨架到底是什么](https://jalammar.github.io/illustrated-transformer/)
3. [AI幻觉的成因与规避方法：怎么让AI不说谎](https://arxiv.org/abs/2307.05844)</content:encoded>
      <atom:author>
        <atom:name>Admin</atom:name>
      </atom:author>
      <category>人工智能</category>
      <category>AI原理</category>
      <category>人工智能入门</category>
      <category>大白话技术</category>
      <category>技术科普</category>
    </item>
    
    <item>
      <title>AI 的贫富分化</title>
      <link>https://dusk3.com/posts/ke-ji-ai-hao-zhe-zhou-kan-di-391-qi-ai-de-pin-fu-fen-hua</link>
      <guid isPermaLink="true">https://dusk3.com/posts/ke-ji-ai-hao-zhe-zhou-kan-di-391-qi-ai-de-pin-fu-fen-hua</guid>
      <pubDate>Fri, 17 Apr 2026 20:15:21 GMT</pubDate>
      <description>**AI 的贫富分化** 作者： [阮一峰](https://www.ruanyifeng.com/) 日期： [2026年4月 3日](https://www.ruanyifeng.com/blog/2026/04/) 这里记录每周值得分享的科技内容，周五发布。 本杂志[开源](https://github.com/ruanyf/weekly)，欢迎[投稿](https://github.com</description>
      <content:encoded>**AI 的贫富分化**

作者： [阮一峰](https://www.ruanyifeng.com/)

日期： [2026年4月 3日](https://www.ruanyifeng.com/blog/2026/04/)

这里记录每周值得分享的科技内容，周五发布。

本杂志[开源](https://github.com/ruanyf/weekly)，欢迎[投稿](https://github.com/ruanyf/weekly/issues)。另有[《谁在招人》](https://github.com/ruanyf/weekly/issues/9454)服务，发布程序员招聘信息。合作请[邮件联系](https://www.ruanyifeng.com/cdn-cgi/l/email-protection#83faeae5e6ede4adf1f6e2edc3e4eee2eaefade0ecee)（[[email protected]](https://www.ruanyifeng.com/cdn-cgi/l/email-protection)）。

## 封面图

![](https://cdn.beekka.com/blogimg/asset/202604/bg2026040107.webp)

上海某餐厅的墙壁装饰。（via [monana3838@Threads](https://www.threads.com/@monana3838/post/DWjVcmcAoh4)）

## AI 的贫富分化

我越来越觉得，AI 跟其他技术不一样，不仅带来技术变革，还会带来社会变革。

简单说，AI 会带来贫富分化。

其他技术实际上会消灭贫富分化，实现&quot;消费者平等&quot;，即穷人和富人消费的东西是一样的。

比如，大家喝一样的可口可乐，用一样的苹果手机，开一样的特斯拉。甚至互联网也是如此，世界首富马斯克和你用一样的网站、一样的手机 App。

但是，AI 模型不是这样。**在大模型面前，穷人和富人是不平等的**。

在未来，普通人肯定用不起顶级的大模型。其实，现在就是如此了，最贵的 AI 编程套餐是 Claude Code 的 Max 套餐，月费200美元，很多人已经用不起了。

OpenAI 曾经设想过[月费2万美元的套餐](https://www.thepaper.cn/newsDetail_forward_30320495)，提供最顶级、无限量的大模型服务。

![](https://cdn.beekka.com/blogimg/asset/202603/bg2026032207.webp)

要是真的推出，只有富豪才用得起。

这反映了一个简单的事实：**费用越贵，模型效果越好**。因为模型的效果与算力相关，更多的算力、更大的上下文、更多的参数，都需要钱。

这跟工业品完全相反。工业品有规模效应，产量越高，单位成本越低。一旦大规模生产，价格就会越来越便宜。

但是，**大模型不存在规模效应**，模型的大规模生产需要更多的服务器，这并不会让单位成本降低，反而可能因为扩建机房，改造电路和水路，而变得更贵。

未来社会大概是这样的：富人和穷人用不同的模型。最顶级模型的服务----规划、咨询、生成内容、自动化......----需要支付高昂的使用费，而普通人就使用免费模型，效果当然也很普通。

不过，我也看到马斯克[最近说](https://wap.cj.sina.cn/7x24/4762771)，未来还有另一种可能。

![](https://cdn.beekka.com/blogimg/asset/202603/bg2026032206.webp)

他的意思是，算力本质上是能源转化的一种形式。人类最终会实现廉价能源的大量供应（空间太阳能？），所以算力将变得足够便宜，所有人都将用最好的模型。

可能吗？我不知道，感觉还是前一种情况更现实。

## 模型能力的一种衡量方法

怎么衡量大模型的能力？

现在的方法是使用一个测试集，去计算大模型的分数。它的缺点是，只能用于横向比较，很难衡量进步速度。

最近，一篇论文提出了[一种新的衡量方法](https://emptysqua.re/blog/review-measuring-ai-ability-to-complete-long-software-tasks/)。

科学家首先计算，人类完成某一项任务需要多少时间。比如，计算 4 + 5 + 7，人类需要2秒，而计算 37 * 52 * 19，可能需要1分钟。

然后，测试大模型能否以50%的成功率完成这项任务。

研究发现，GPT-2 以50%成功率能够完成的任务，时间范围是两秒；Claude 3.7 Sonnet 是50分钟；O3 接近两小时；Opus 4.6 约为12小时。

也就是说，人类需要12小时才能完成的任务，Opus 4.6 的成功概率是50%。

![](https://cdn.beekka.com/blogimg/asset/202604/bg2026040201.webp)

结果就是上图，可以发现，大模型的进化速度在对数坐标下是一根直线。

**每7个月，大模型能够以50%成功率完成的任务，时间范围扩大一倍**。按照这个趋势，大模型将在2027年至2031年间，以50%的成功率完成人类专家需要一个月才能完成的任务。

如果这篇论文正确，就意味着年底发布的模型，将比年初强一倍。

## 科技动态

1、[用户协议的彩蛋](https://www.cape.co/blog/easter-egg-in-privacy-policy)

软件服务的用户协议，又长又难懂，很少有用户阅读，但是里面有很多重要内容。

一家美国通信运营商，为了表示自己很重视用户权益，鼓励大家阅读《用户协议》，并偷偷在里面加入了一个彩蛋。

![](https://cdn.beekka.com/blogimg/asset/202603/bg2026033101.webp)

上图高亮的句子写道：&quot;如果你读到这句话，请发邮件到我们的信箱，赢取免费的瑞士旅游。&quot;

上线二周后，才有人发邮件，询问这事是否真实。由于只有一个人来信，所以她就免费去瑞士了。

从这件事可以看出，即使有彩蛋，也没人阅读《用户协议》。我现在的做法是让大模型帮忙，询问&quot;这份协议有哪些对用户不利的地方&quot;，很快就得到了答案。

2、[触摸屏指甲油](https://www.livescience.com/chemistry/chemistry-student-develops-clear-polish-that-turns-your-fingernail-into-a-touch-screen-stylus)

广泛使用的电容式触摸屏，有一个问题，就是戴手套使用会失灵。

原因是它要求触摸物（比如手指）必须导电，这样屏幕才会产生电场扰动，从而确定触摸的位置。

![](https://cdn.beekka.com/blogimg/asset/202603/bg2026032802.webp)

解决方法也很简单，就是在手套指尖涂一层指甲油，指甲油里面的金属碎屑可以导电。

美国的一名化学系本科生，在学习化妆品化学时，发明了一种改进型的透明指甲油，专门用于戴手套使用触摸屏。

这种指甲油是透明的，涂在手套上看不见，也可以涂在裸甲上，当作抛光剂。

3、[Copilot 广告](https://www.theregister.com/2026/03/30/github_copilot_ads_pull_requests/)

Copilot 是 GitHub 推出的 AI 助手，上周有用户发现，它会自动插入广告。

![](https://cdn.beekka.com/blogimg/asset/202604/bg2026040106.webp)

上图是 Copilot 自动提交的[一个 Pull Request](https://github.com/rab781/RabTradebot/pull/77)，它在提交说明的结尾（红框处）加入了一个广告，介绍应用程序 Raycast。

在 GitHub [搜索一下](https://github.com/search?q=%22%E2%9A%A1+Quickly+spin+up+copilot+coding+tasks%22&amp;type=pullrequests)，就会发现已经有超过11,400个 PR 都包含了相同的广告词。

经过用户抗议，GitHub 暂止停止了这个功能。但这是一个危险的信号，表示 GitHub 想利用用户增加收入。

## 文章

1、[小米 MiMo v2 Pro 评测](https://decrypt.co/362633/xiaomi-mimo-v2-pro-review-so-good-mistaken-deepseek-v4)（英文）

![](https://cdn.beekka.com/blogimg/asset/202603/bg2026033002.webp)

小米发布了 MiMo V2 系列大模型，本文是国外媒体的评测，给出了很高的评价。

2、[我用 AI 生成了一个 JavaScript 引擎](https://p.ocmatos.com/blog/jsse-a-javascript-engine-built-by-an-agent.html)（英文）

![](https://cdn.beekka.com/blogimg/asset/202604/bg2026040105.webp)

作者用六周时间，生成了一个100%通过 test262 测试集的 JavaScript 引擎，涵盖所有98,426个场景。本文是对这件事的介绍。

3、[解剖 .claude/ 目录](https://blog.dailydoseofds.com/p/anatomy-of-the-claude-folder)（英文）

![](https://cdn.beekka.com/blogimg/asset/202603/bg2026033114.webp)

Claude Code 会生成 .claude/ 子目录，所有 AI 处理的底层数据都放在里面，本文研究这个目录到底有什么。

4、[一致性哈希介绍](https://eli.thegreenplace.net/2025/consistent-hashing)（英文）

![](https://cdn.beekka.com/blogimg/asset/202510/bg2025102001.webp)

一致性哈希（Consistent hashing）是一种缓存定位算法，在增加或减少缓存服务器的情况下，可以不改变缓存所在的原始位置。

5、 [笔记本如何用作单板计算机的 HDMI 显示器](https://danielmangum.com/posts/laptop-hdmi-monitor-sbc/)（英文）

![](https://cdn.beekka.com/blogimg/asset/202510/bg2025101009.webp)

作者使用一张 HDMI 转 USB 采集卡，将笔记本电脑用作树莓派的显示器。

## 工具

1、[EmDash](https://github.com/emdash-cms/emdash)

![](https://cdn.beekka.com/blogimg/asset/202604/bg2026040202.webp)

AI 生成的 WordPress 复刻，基于 TypeScript 语言，支持插件，据说功能基本一样，参见[介绍文章](https://blog.cloudflare.com/emdash-wordpress/)。

2、[SubsTracker](https://github.com/wangwangit/SubsTracker)

![](https://cdn.beekka.com/blogimg/asset/202603/bg2026032706.webp)

基于 Cloudflare Workers 的订阅管理系统，可以发送各种订阅的到期通知，通过 Telegram、Webhook 等通知渠道。（[@wangwangit](https://github.com/ruanyf/weekly/issues/9411) 投稿）

3、[OpeniLink Hub](https://github.com/openilink/openilink-hub)

![](https://cdn.beekka.com/blogimg/asset/202603/bg2026032705.webp)

开源的微信机器人消息管理平台，自带应用市场，通过点击安装应用，给微信 Bot 加功能。（[@xixihhhh](https://github.com/ruanyf/weekly/issues/9404) 投稿）

另有一个类似项目 [wxWebHook](https://github.com/aristorechina/wxWebHook)，通过 WebHook 向微信用户发消息。（[@aristorechina](https://github.com/ruanyf/weekly/issues/9412) 投稿）

![](https://cdn.beekka.com/blogimg/asset/202603/bg2026032707.webp)

4、[Lixian.Online](https://lixian.online/)

![](https://cdn.beekka.com/blogimg/asset/202603/bg2026033115.webp)

获取 VSCode 插件、Chrome 扩展和 Docker 镜像的离线安装包的工具，[代码开源](https://github.com/LiaoGuoYin/lixian.online)。（[@LiaoGuoYin](https://github.com/ruanyf/weekly/issues/9455) 投稿）

5、[Rename.Tools](https://rename.tools/zh/app)

![](https://cdn.beekka.com/blogimg/asset/202603/bg2026033116.webp)

浏览器端的批量文件重命名工具，支持各种规则设定，[代码开源](https://github.com/chenz24/rename.tools)。（[@chenz24](https://github.com/ruanyf/weekly/issues/9461) 投稿）

6、[FontInAss](https://github.com/Yuri-NagaSaki/FontInAss)

![](https://cdn.beekka.com/blogimg/asset/202603/bg2026033117.webp)

开源的字幕字体子集化工具，将所需的字体字形嵌入字幕文件。（[@Yuri-NagaSaki](https://github.com/ruanyf/weekly/issues/9466) 投稿）

7、[pretext.video](https://github.com/fifteen42/pretext-video)

![](https://cdn.beekka.com/blogimg/asset/202604/bg2026040101.webp)

基于 [Pretext](https://github.com/chenglou/pretext)（文字排版计算库）的一个小应用，将摄像头捕捉的人体轮廓通过文字排版实时展示。（[@fifteen42](https://github.com/ruanyf/weekly/issues/9472) 投稿）

8、[OxideTerm](https://github.com/AnalyseDeCircuit/oxideterm)

![](https://cdn.beekka.com/blogimg/asset/202604/bg2026040103.webp)

基于 Rust 语言的跨平台 SSH 终端，功能较多，使用 Tauri 桌面框架。（[@AnalyseDeCircuit](https://github.com/ruanyf/weekly/issues/9474) 投稿）

9、[wtree](https://github.com/FatDoge/wtree)

![](https://cdn.beekka.com/blogimg/asset/202604/bg2026040104.webp)

git worktree 的图形化管理界面。（[@FatDoge](https://github.com/ruanyf/weekly/issues/9483) 投稿）

## AI 相关

1、[Open Agent SDK](https://github.com/shipany-ai/open-agent-sdk)

![](https://cdn.beekka.com/blogimg/asset/202604/bg2026040102.webp)

基于 Claude Code 源码实现的 claude-agent-sdk 的开源替代品，用于 AI Agent 的开发，完全兼容原始接口，不依赖本地 cli 进程。（[@idoubi](https://github.com/ruanyf/weekly/issues/9473) 投稿）

2、[Antigravity Gateway](https://github.com/Truthan49/Antigravity-Everywhere)

![](https://cdn.beekka.com/blogimg/asset/202603/bg2026032704.webp)

统一管理本地所有 AI 智能体的 Web 控制台，支持多工作区隔离、飞书远程协同、Skills 生态等。（[@Mr-ZhangBo](https://github.com/ruanyf/weekly/issues/9395) 投稿）

3、[ArcReel](https://github.com/ArcReel/ArcReel)

![](https://cdn.beekka.com/blogimg/asset/202603/bg2026032703.webp)

开源的 AI 视频生成工作台，输入一本小说，自动完成剧本、人物设计、分镜、短视频生成。（[@Pollo3470](https://github.com/ruanyf/weekly/issues/9393) 投稿）

4、[TermCanvas](https://github.com/blueberrycongee/termcanvas)

![](https://cdn.beekka.com/blogimg/asset/202603/bg2026033001.webp)

开源桌面应用，所有终端铺在无限画布上，方便管理 AI 编程工具。（[@blueberrycongee](https://github.com/ruanyf/weekly/issues/9434) 投稿）

另有一个类似项目 [OpenCove](https://github.com/DeadWaveWave/opencove)。（[@DeadWaveWave](https://github.com/ruanyf/weekly/issues/9497) 投稿）

![](https://cdn.beekka.com/blogimg/asset/202604/bg2026040204.webp)

## 资源

1、[Claude Code 动手教程](https://claude.nagdy.me/)

![](https://cdn.beekka.com/blogimg/asset/202603/bg2026033102.webp)

Claude Code 的互动式教程，通过11个小练习，掌握这个 AI 编程工具。

2、[Claude Code Unpacked](https://ccunpacked.dev/)

![](https://cdn.beekka.com/blogimg/asset/202604/bg2026040108.webp)

根据 Claude Code 泄漏的源码，一步步图解演示，输入提示词后软件内部如何处理。

3、[机器学习入门教程](https://github.com/dreddnafious/thereisnospoon/blob/main/ml-primer.md)

![](https://cdn.beekka.com/blogimg/asset/202603/bg2026033108.webp)

工程师的机器学习教程，解释基本概念。

## 图片

1、[欧洲年度树木](https://nicenews.com/environment/european-tree-of-the-year-winners-2026/)

欧洲有一个&quot;欧洲年度树木&quot;的评选，初听觉得很奇怪，但仔细一想，就会发现这个活动有很多好处：提高城市知名度，促进生态保护，推动旅游业......

国内下面就是今年的&quot;欧洲年度树木&quot;。

立陶宛鲁凯村的橡树，树龄400年。

![](https://cdn.beekka.com/blogimg/asset/202603/bg2026033103.webp)

以下是其他入围决赛的树木。

斯洛伐克的野生苹果树

![](https://cdn.beekka.com/blogimg/asset/202603/bg2026033104.webp)

波兰的榆树

![](https://cdn.beekka.com/blogimg/asset/202603/bg2026033105.webp)

拉脱维亚的菩提树

![](https://cdn.beekka.com/blogimg/asset/202603/bg2026033106.webp)

葡萄牙的柏树

![](https://cdn.beekka.com/blogimg/asset/202603/bg2026033107.webp)

## 文摘

1、[越使用 AI，我越不担忧](https://simonwillison.net/2025/Jul/4/identify-solve-verify/)

我花在 AI 编程的时间越多，对自己的职业生涯的担忧就越少，即使 AI 的编程能力越来越强。

因为，我发现 AI 编程只是流程的一部分，我的工作不仅仅是编写代码。

我的真正工作是，**找出可以用代码解决的问题，然后解决它们，并验证解决方案是否有效**。

AI 最终或许能够完全承担中间的编码部分，并帮助解决第一部分和最后一部分，但无论如何，仍然需要有人去发现问题、定义问题并确认问题已经得到解决。

这就是我的工作的80%内容。

2、[摩尔定律的不可持续性](https://bzolang.blog/p/the-unsustainability-of-moores-law)

摩尔定律指的是，大约每两年，芯片上的晶体管数量就会翻一番。

但是，它还有一个伴生效应，很少人提到。那就是，大约每五年，芯片工厂的建造成本就会翻一番，而能承担这种成本的芯片公司数量则会减半。

二十五年前，大约有40家公司，可以建造芯片工厂，每个工厂的建造成本约为20亿至40亿美元。如今，只剩下两家或三家芯片公司（数量取决于你对英特尔的乐观程度），可以建造最先进的芯片工厂，建造成本飙升到几百亿美元。

如果按照这种趋势再过10年，芯片工厂的建设成本继续翻倍飙升，也许只有一家公司或根本没有公司，能够负担这样的成本。

目前，芯片的制造工艺已经逼近1纳米，再往下发展，技术壁垒和资金壁垒将同时接近极限。

我预计，摩尔定律很快就会失效，未来增长主要在于算力，而不是单块芯片的计算能力。

未来的芯片将会像二手车，行驶速度都差不多，只是新旧差异。我甚至觉得，2035年生产的芯片和2065年生产的芯片之间，将几乎没有什么实质性区别。

## 言论

1、

源代码的 map 文件不小心发布到 npm，这种错误听起来似乎不可能，但当你意识到很大一部分代码库很可能是由你正在发布的 AI 编写的，一切就容易理解了。

-- [网友评论](https://alex000kim.com/posts/2026-03-31-claude-code-source-leak/) Claude Code 源码泄漏事件

2、

人工智能的蓬勃发展，使得某些办公室工作的需求可能并不大，而将创造大量电工、焊工和水管工的工作岗位。

以前，我们告诉所有年轻人去上大学，从事银行业、媒体或法律行业，现在需要平衡一下，有些人或许更适合做体力劳动者，在水暖工和电工这些领域，职业生涯同样可以很成功。

-- [拉里·芬克](https://www.bbc.com/news/articles/c9wqrdkx8ppo)，美国金融巨头贝莱德集团的老板

3、

写作的目的不在于写完，而在于增进你自己的理解，进而增进周围人的理解。

让 AI 为你写作，就像花钱请人为你健身一样。

-- [《别让 AI 替你写作》](https://alexhwoods.com/dont-let-ai-write-for-you/)

4、

程序员的工作不是编程，而是通过抽象，来管理软件的复杂性。如果你做到了这一点，那么编程就很容易了。

-- [《你的工作不是编程》](https://codeandcake.dev/posts/2025-12-12-your-job-isnt-programming)

## 往年回顾

[制造业正在&quot;零工化&quot;](https://www.ruanyifeng.com/blog/2025/04/weekly-issue-344.html)（#344）

[崖门海战的感想](https://www.ruanyifeng.com/blog/2024/03/weekly-issue-294.html)（#294）

[大数据已死](https://www.ruanyifeng.com/blog/2023/03/weekly-issue-244.html)（#244）

[悲观者正确，乐观者成功](https://www.ruanyifeng.com/blog/2022/02/weekly-issue-194.html)（#194）

（完）

### 文档信息
- 版权声明：自由转载-非商用-非衍生-保持署名（[创意共享3.0许可证](http://creativecommons.org/licenses/by-nc-nd/3.0/deed.zh)）
- 发表日期： 2026年4月 3日

---

原文链接：[ruanyifeng.com](https://www.ruanyifeng.com/blog/2026/04/weekly-issue-391.html)</content:encoded>
      <atom:author>
        <atom:name>Admin</atom:name>
      </atom:author>
      <category>转载</category>
      
    </item>
    
    <item>
      <title>深度学习到底是个啥？用大白话给你讲明白</title>
      <link>https://dusk3.com/posts/deep-learning-plain-language-intro</link>
      <guid isPermaLink="true">https://dusk3.com/posts/deep-learning-plain-language-intro</guid>
      <pubDate>Fri, 10 May 2024 09:00:00 GMT</pubDate>
      <description>不用数学公式、不讲晦涩术语，这篇文章用生活中最常见的比喻，带你从零理解神经网络、深度学习、训练、过拟合这些核心概念。</description>
      <content:encoded>## 写在前面：别怕，这玩意儿没那么玄乎

如果你在网上搜&quot;深度学习&quot;，大概率会被一堆词砸晕：神经网络、反向传播、梯度下降、卷积、Transformer……光看名字就劝退了。

但这篇文章不会扔公式给你。我们就用生活中最熟悉的例子——**教学生做题**——把深度学习的底层逻辑讲清楚。读完你会发现，深度学习的核心思想其实非常朴素。

![AI abstract visualization](https://images.unsplash.com/photo-1620712943543-bcc4688e7485?w=800&amp;q=80)

---

## 一、机器学习 vs 深度学习：先分清这两个词

**机器学习**是大的圈子，**深度学习**是圈子里最近十年最火的一个分支。

打个比方：
- **机器学习**就像&quot;整个教育界&quot;，里面有各种教学方法。
- **深度学习**则是&quot;一种特别厉害的教学法&quot;，它让学生自己去悟规律，而不是老师一条一条列规则。

传统的机器学习，很多时候需要人类专家&quot;手工提取特征&quot;。比如要识别一只猫，工程师得告诉电脑：&quot;猫有两只尖耳朵、圆眼睛、三角形鼻子。&quot;电脑把这些规则记下来，再去比对图片。

而深度学习说：&quot;别费那劲了，直接把几百万张猫图丢给我，我自己总结猫长什么样。&quot;

这就是关键区别：**规则是人写的，还是机器自己学的？**

---

## 二、神经网络：一个不断刷题的&quot;学生&quot;

深度学习之所以厉害，是因为它背后有一个叫**神经网络**的结构。你可以把它想象成一个有无数层筛子的过滤系统，或者更直观一点——一个&quot;超级学生&quot;。

这个学生的大脑里，有成千上亿的&quot;知识点连接&quot;，我们叫它们**神经元之间的连接权重**（weights）。

![Neural network abstract nodes](https://images.unsplash.com/photo-1507146426996-ef05306b995a?w=800&amp;q=80)

### 学生的第一次考试

刚开始，这个学生对猫狗分类一窍不通。你给它一张猫图，它瞎蒙一个答案：&quot;这是狗。&quot;

你告诉他：&quot;错了，这是猫。&quot;于是他默默调整自己的&quot;脑回路&quot;，下一次遇到类似图片时，倾向说&quot;猫&quot;一些。

这个过程重复几百万次。错的多了，调整得就越精细。最后他对猫的长相心里有数了，甚至能识别出一些你没教过的品种。

这就是**训练**的本质：**不断做题、对答案、修正思路**。

---

## 三、为什么是&quot;深度&quot;学习？层数越多越聪明吗？

早期的神经网络只有一两层，像个幼儿园小朋友，只能理解很简单的规律。

现代的深度学习网络可能有几十层、几百层，甚至更多。这就像一个学生从幼儿园读到研究生，每一层都在做更抽象的提炼：

- **第一层**：看图片的边、角、颜色块；
- **第二层**：把这些边组合成眼睛、耳朵、毛发的形状；
- **第三层**：把这些形状组合成&quot;猫脸&quot;、&quot;狗脸&quot;的整体概念；
- **更高层**：识别&quot;这是一只布偶猫，正趴在沙发上&quot;。

每一层都在前一层的基础上做更复杂的判断。**层数越深，能理解的规律就越抽象、越高级。**

![Layered learning abstract](https://images.unsplash.com/photo-1516110833967-0b5716ca1387?w=800&amp;q=80)

当然，层数不是越多越好。如果学生死记硬背的功夫太强，反而会把练习题里的&quot;噪音&quot;也当成规律记下来，这就是后面要说的**过拟合**。

---

## 四、训练数据：喂什么，就长成什么样

神经网络这个学生，智商其实取决于你给他看什么教材。

如果你只给他看白猫的图，他见了黑猫可能就不认识了。如果你教材里的图片都带着水印，他可能以为&quot;水印=猫&quot;。

这在现实里闹出过很多笑话：
- 有研究者发现，他的&quot;哈士奇 vs 狼&quot;分类器，其实是在根据图片背景里有没有雪来判断——因为训练数据里狼的照片大多在雪地里拍的。
- 还有人发现，某些人脸识别系统对深肤色人群表现差，因为训练数据里白人面孔占绝大多数。

所以，**数据的质量和多样性，往往比算法本身更重要。** 这行有句话叫：&quot;Garbage in, garbage out.&quot;（垃圾进，垃圾出。）

---

## 五、过拟合与欠拟合：学生太笨还是太机灵？

训练一个神经网络时，最常见的两种失败模式：

### 1. 过拟合（Overfitting）——死记硬背的学生

这个学生把练习册的答案全背下来了，但换个数字就不会做了。换到模型上，就是它对训练数据表现极好，但遇到新图片就露馅。

解决过拟合的办法有很多，比如：
- **增加数据量**：多见题型，少背答案；
- **正则化**：给学生加一点&quot;惩罚&quot;，不让他把权重调得太极端；
- **Dropout**：随机让一部分神经元&quot;睡觉&quot;，逼学生用多种思路解题，而不是依赖某一条固定路径。

### 2. 欠拟合（Underfitting）——根本就没学会

学生连练习册都没做对，说明模型太简单、层数太少，或者训练时间不够。

解决办法通常是对症下药：加深网络、训练更久、换更厉害的算法。

![Data and model balance](https://images.unsplash.com/photo-1551288049-bebda4e38f71?w=800&amp;q=80)

---

## 六、深度学习能干啥？不只是聊天机器人

提到深度学习，很多人第一反应是 ChatGPT。但其实它的应用远不止此：

| 领域 | 典型应用 |
|------|----------|
| 图像 | 人脸识别、医学影像诊断、自动驾驶感知 |
| 语音 | 语音助手、实时翻译、电话客服机器人 |
| 文本 | 机器翻译、文章生成、智能客服、代码补全 |
| 推荐 | 抖音/小红书的&quot;猜你喜欢&quot;、Netflix 剧集推荐 |
| 游戏 | AlphaGo 下围棋、OpenAI Five 打 Dota |
| 科学 | 蛋白质结构预测（AlphaFold）、新药分子设计 |

可以说，只要某个任务有**大量历史数据**，并且数据背后**隐藏着某种规律**，深度学习就有用武之地。

---

## 七、普通人需要担心被 AI 取代吗？

这个问题被讨论太多了。我的看法是：**与其说 AI 取代人，不如说会用 AI 的人取代不会用 AI 的人。**

深度学习本质上是一个强大的&quot;模式识别工具&quot;。它能做大量重复性判断，但还远不能替代人类的创造力、同理心和复杂决策。

更重要的是，AI 并不是&quot;自己冒出来&quot;的。它需要你定义问题、准备数据、评估结果、处理伦理边界。这些环节，人类的判断力依然不可或缺。

![Human and AI collaboration](https://images.unsplash.com/photo-1535378917042-10a22c95931a?w=800&amp;q=80)

---

## 写在最后

深度学习的核心，其实就三句话：

1. **它是个学生**（神经网络），脑子里有无数知识点连接；
2. **学习方式是刷题**（训练），错了就改连接权重；
3. **学得怎么样，关键看教材**（数据），教材垃圾，学生再聪明也白搭。

希望这篇文章帮你拆掉了那些唬人的术语外壳。如果你理解了&quot;学生刷题&quot;这个比喻，你就已经掌握了深度学习 80% 的直觉。

如果对你有帮助，欢迎点赞收藏，也欢迎在评论区留下你想进一步了解的 AI 话题。

---

## 延伸阅读

- 3Blue1Brown《神经网络入门》系列视频
- 吴恩达 Coursera《机器学习》课程
- 李宏毅《机器学习》中文课程</content:encoded>
      <atom:author>
        <atom:name>Admin</atom:name>
      </atom:author>
      <category>人工智能</category>
      <category>深度学习</category>
      <category>AI入门</category>
      <category>神经网络</category>
      <category>科普</category>
      <category>机器学习</category>
    </item>
    
    <item>
      <title>前端性能深水区：从 INP 到主线程调度的系统化优化实战</title>
      <link>https://dusk3.com/posts/frontend-performance-inp-main-thread-scheduling-playbook</link>
      <guid isPermaLink="true">https://dusk3.com/posts/frontend-performance-inp-main-thread-scheduling-playbook</guid>
      <pubDate>Thu, 15 Sep 2022 09:00:00 GMT</pubDate>
      <description>这是一篇面向中高级前端的长文，聚焦交互性能优化的完整链路：指标选择、性能剖析、任务切片、调度策略、渲染拆分与回归验证。</description>
      <content:encoded>## 前言：为什么“页面已经很快了”仍然会被用户吐槽卡顿

很多团队在性能治理里做了大量工作：CDN、图片压缩、SSR、缓存、预加载、懒加载，LCP 看起来不错，首屏也不慢，但真实反馈仍是“点了没反应”“输入时有延迟”“筛选一多就卡”。

问题在于，首屏速度只是体验的一部分。随着业务复杂度上升，真正决定体感的是**交互阶段的主线程竞争**。用户在输入、点击、滚动、切换筛选时，页面是否能快速响应，核心就是 INP（Interaction to Next Paint）背后的那条执行链路。

这篇文章不讲零散技巧，而是给你一套可复用的体系：如何定位问题、如何改、如何验证、如何避免回退。

---

## 一、先统一目标：我们到底在优化什么

在内容站和管理后台里，交互卡顿往往来自这几类场景：

1. 搜索框输入后触发高频筛选，CPU 飙升。
2. 表格排序/过滤时做了大量同步计算。
3. 点击展开详情后，主线程被重渲染和布局计算长期占用。
4. 切换路由时，组件树更新过大且存在阻塞任务。

这些问题的共同点是：不是“网络慢”，而是**主线程被长任务占满**，导致用户输入无法及时得到下一帧反馈。

实践中建议设定两层目标：

1. 体验目标：核心交互稳定在“可接受延迟”内，连续操作不掉帧。
2. 工程目标：建立可观测、可定位、可回归的性能基线，而不是一次性调优。

---

## 二、定位阶段：先抓“长任务”，再谈优化策略

很多优化失败，不是技术不够，而是顺序错了。正确顺序应该是：

1. 找到最差交互路径（不是平均路径）。
2. 找到这条路径中最重的长任务。
3. 再决定该拆分、降级、延后还是异步化。

### 2.1 你应该优先采集的数据

1. 交互事件类型：click、input、keydown、change。
2. 事件到下一次绘制之间的耗时分布（P75/P95）。
3. 长任务堆栈热点：哪些函数长期出现在高耗时片段。
4. 设备分层：中低端机与高端机分开看，避免均值掩盖问题。

### 2.2 两类常见“伪优化”

1. 只看 Lighthouse 单次分数，不看真实交互。
2. 把所有问题都归结为“虚拟列表没上”，忽略计算与渲染争抢。

---

## 三、优化核心：把“不可中断的大块工作”拆成可调度的小任务

主线程卡顿往往不是因为任务多，而是因为任务太“整块”。只要单次任务超过一帧预算，用户就会感知到顿挫。

### 3.1 任务切片策略（Chunking）

适合场景：大数组过滤、复杂排序、文本高亮、批量映射。

关键原则：

1. 把总工作切成多个小批次。
2. 每批次之间让出执行权，给输入和渲染机会。
3. 保持结果可渐进展示，不必等待全量完成。

这种策略的价值在于：你可能没有减少总计算量，但显著提升了“可响应性”。

### 3.2 事件优先级管理

很多页面把“输入回显”和“列表重算”放在同一优先级，导致用户键入时卡顿。正确做法是：

1. 输入回显保持最高优先级。
2. 派生计算降级处理。
3. 非关键更新延后到空闲或下一拍。

对于 React 页面，这意味着要主动区分“用户立即可见反馈”和“可稍后完成的计算”。

### 3.3 防抖/节流不是银弹

防抖能减少触发次数，但它常常让反馈变晚。节流能控频，但容易让状态跳变。真正稳定的方案通常是：

1. 高频输入走轻量同步路径（保持跟手）。
2. 重计算走异步或低优先级路径（保持流畅）。
3. 最终结果允许短暂“渐进一致”，而不是一次性阻塞输出。

---

## 四、渲染层治理：减少“无意义重渲染”与布局抖动

主线程卡顿的一半来自 JS 计算，另一半来自渲染成本。下面几条在后台系统和博客前台都很常见。

### 4.1 把状态边界收紧

当一个顶层状态变化触发整页重渲染时，再好的机器也会掉帧。应该把状态放在离消费点更近的位置，避免全树联动。

### 4.2 列表渲染做“稳定键 + 渐进更新”

如果 key 不稳定、排序频繁全量重排，会让 diff 和布局代价大幅增加。实践里优先保证：

1. key 稳定且与实体身份一致。
2. 首屏只渲染必要条目，后续再补。
3. 大列表分段挂载，不在一次提交里完成所有 DOM 更新。

### 4.3 控制同步布局读写交错

在同一交互里频繁读写布局信息（例如 offset/scroll/client）会触发强制同步计算。建议把读和写分离到不同阶段，降低抖动与阻塞。

---

## 五、内容站可直接落地的优化清单

结合博客场景，以下改动通常收益明显：

1. 搜索框：输入实时回显，结果集异步更新。
2. 归档页：按年份分组延迟展开，首屏仅渲染当前可视分组。
3. 标签页：预计算标签索引，避免每次点击全量扫描。
4. 文章页：评论区与推荐区拆分加载，主内容优先可读。
5. 后台表格：筛选和排序分离，分页计算避免全量处理。

---

## 六、验证与回归：没有基线，优化就会失效

性能优化最容易“改完当天快，过两周又慢”。你需要一套固定回归动作：

1. 固定关键交互脚本（输入、筛选、切页、展开）。
2. 固定设备档位（至少有一组中端机或限速配置）。
3. 固定统计口径（P75/P95，且按页面和交互分开）。
4. 每次发布后比对趋势，不只看单次峰值。

团队协作里，再加一条规则很重要：**性能阈值失败要像测试失败一样可见**。否则优化只会靠个人记忆。

---

## 七、容易被忽视但决定上限的工程细节

1. 业务计算与展示层耦合过深，导致无法独立调度。
2. 工具链升级后默认策略变化，旧经验失效却没人复盘。
3. 只做“快路径”优化，不做异常路径（大数据量、弱网、低端机）验证。

真正成熟的性能体系，不是某个技巧，而是“发现问题 -&gt; 定位 -&gt; 改造 -&gt; 验证 -&gt; 防回退”的闭环能力。

---

## 结语

交互性能优化的本质，是在有限主线程预算内合理分配优先级。你不需要一次做完所有优化，但要从最差交互开始，持续把“大块阻塞工作”变成“可调度的渐进工作”。

当你的页面在复杂操作下依然保持跟手，用户不会夸你用了什么技术栈，但会自然地觉得：这个系统很可靠、很专业。

## 参考来源（延伸阅读）

- web.dev: https://web.dev/articles/optimize-long-tasks
- web.dev: https://web.dev/articles/inp
- React 文档（优先级与交互更新相关 API）: https://react.dev/reference/react/useTransition</content:encoded>
      <atom:author>
        <atom:name>Admin</atom:name>
      </atom:author>
      <category>性能工程</category>
      <category>INP</category>
      <category>Web Vitals</category>
      <category>Performance</category>
      <category>JavaScript</category>
      <category>架构实践</category>
    </item>
    
  </channel>
</rss>