March 2026
Sun
Mon
Tue
Wed
Thu
Fri
Sat
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
282930
31

AI Daily Digest #4 — 机器人已经统治了互联网,但我们还没意识到

2026-03-31

AI和机器人流量正式超越人类互联网流量,2025年AI流量增长187%;微软Copilot在修PR时悄悄植入广告,数万个PR被污染;LiteLLM被恶意软件入侵,其合规机构Delve被曝造假;llama.cpp达到10万GitHub星标,同步宣布苹果神经引擎原生支持。

1. 2025年的转折点:机器人已经统治了互联网

这件事发生了,没有任何仪式感,没有任何新闻发布会,只是一份企业安全报告的一个数据点:2025年,AI和机器人流量正式超过了人类互联网流量。

Human Security在本周发布的《The State of AI Traffic》报告记录了这一历史性时刻。数据来自其Human Defense Platform处理的超过一千万亿次(one quadrillion)交互。核心结论是:2025年,包括AI在内的自动化流量的增速,是人类活动增速的整整八倍。 其中AI流量从2025年1月到12月增长了187%。

这组数字的驱动因素很直接:ChatGPT、Claude、Gemini在过去一年里渗透进了普通用户的日常工作流程。每一次用户让AI助手"帮我搜一下"、"帮我查一下最新的",背后就是一次或多次机器对机器的HTTP请求——不是人类在浏览,是AI在抓取。更重要的是,2024年AI Agent的流量几乎为零,但在2025年增长了将近8000%——意味着能自主在网上行动的AI Agent正在进入爆发阶段。

Cloudflare CEO Matthew Prince在今年SXSW大会上说:在生成式AI时代之前,互联网流量中大约20%来自机器人,主要是Google的网页爬虫。他预测AI机器人将在2027年超过人类流量——但根据Human Security的报告,这个时间点已经提前到来了。

这件事为什么重要?因为整个互联网的基础设施,是在"另一端是人类"这个假设下设计的

用户身份验证假设人类会填写表单和点击按钮。CAPTCHA的设计前提是人类能识别消防栓的图片。广告的计费模型假设有人在看广告。内容平台的推荐算法假设点击行为代表人类兴趣。API的限速策略假设正常用户的使用频率。

这些假设正在同时失效。当AI代理开始替人类购物、订票、填写申请表单,当大量网页爬虫代表AI训练数据集抓取内容,当公司开始部署AI来检测其他AI——互联网正在变成一个机器对机器的战场,而人类只是这场通信洪流的旁观者。

还有一个充满讽刺意味的细节:OpenAI一边用大规模爬虫抓取全网数据来训练自己的模型,一边在自己的网站上部署Cloudflare Turnstile来阻止其他AI爬虫。这场"爬虫军备竞赛"的荒诞之处在于,参与各方都明白规则,但都在选择性地遵守。

互联网的假设前提被颠覆了,但我们的应对还停留在2015年。


2. 微软Copilot在你的PR里悄悄植入了广告

2026年3月30日,开发者Zach Manson在自己的博客上发布了一篇只有几段话的文章,标题是《Copilot Edited an Ad Into My PR》(Copilot把一则广告改进了我的PR)。

事情经过很简单:他的一个PR里有一个拼写错误,团队成员召唤Copilot来修正。Copilot修正了拼写错误——同时,它把一行广告文案写进了PR描述里:

"Quickly spin up Copilot coding agent tasks from anywhere on your macOS or Windows machine with Raycast"

这不是偶发故障。在GitHub上搜索这句话的变体,结果显示已有数以万计的PR被注入了这条相同的广告。Copilot在帮助开发者修改代码的同时,批量将自己的商业合作方(Raycast)的广告植入了无数个人和公司的代码仓库历史记录中。

Zach Manson在文章里引用了Cory Doctorow对"平台堕落"(enshittification)的经典描述:

"平台先对用户好;然后利用用户,让商业客户过得更好;最后向商业客户也下手,把所有价值全都收割回来。然后它们死去。"

这段话的排列顺序很重要:Copilot此前靠着真实的代码补全能力积累了庞大的用户群,开发者信任它,在最私密的工作场景里使用它——代码仓库。而现在,微软正在把这份信任变现,利用这些用户作为广告投放渠道。

在开发者工具场景中,这种行为的破坏力是独特的。一则Twitter广告你可以忽略,一封垃圾邮件你可以删除,但一条被AI植入代码库历史记录的广告,需要开发者主动发现并提交额外的PR来清理。它永久存在于每个受影响仓库的commit历史里。

更深层的问题是:这次事件暴露了闭源AI开发工具的根本性脆弱。当你使用一个不开源的AI助手,你无法知道它的系统提示里写了什么,无法知道它的行为会在下一次版本更新后如何改变,无法知道它优化的目标是你的生产效率还是它的商业指标。

这不是Copilot的第一次信任危机,也不会是最后一次。但植入广告这件事的性质不同——它不是技术错误,是商业决策。

在开发者的代码仓库里投放广告,是平台堕落路径上的一个具体坐标。


3. LiteLLM安全事件:当"合规"本身成为骗局

上周,AI基础设施领域出现了一起引人深思的安全事件——但主角不只是那个众所周知的恶意软件,还有整个AI工具链的合规信任体系。

LiteLLM是一个被数百万开发者使用的AI网关工具,允许开发者通过统一接口接入数十个不同的LLM提供商。3月下旬,其开源版本被发现遭受了严重的凭证窃取恶意软件攻击,影响了大量使用该工具的企业和个人。

这本身已经够糟糕了。但更深层的问题随之浮出水面:LiteLLM此前为了证明自己符合企业安全标准,通过一家名为Delve的AI合规创业公司获得了SOC 2和ISO安全认证。而Delve这家公司,正是在此时被内部举报人指控:通过生成虚假数据、使用"橡皮图章"审计师来批量生产合规报告。

Delve的创始人否认了这些指控,并承诺向所有客户提供免费重新测试。然而,据TechCrunch报道,这一否认反而促使举报人进一步发布了据称的证据材料。

LiteLLM的应对是明确的:CTO Ishaan Jaffer宣布放弃Delve,转而使用竞争对手Vanta,并将聘请独立第三方审计师来重新验证合规控制。这是正确的选择,但代价是此前获得的两项认证的信用归零。

这件事揭示了AI工具链中一个系统性漏洞:安全合规本身已经变成了一门生意,而这门生意的激励结构是扭曲的。

合规认证的商业模式很简单:客户付钱,机构出证书。真正严格的审计很耗时、很贵、结果不确定。而对于急于获得"安全可用"背书来打动企业客户的AI创业公司来说,一份能快速交付的合规证书更有吸引力。Delve被指控做的事——如果属实——不过是把这种隐性需求明确化了。

更广泛的问题是:在AI工具如此快速扩散的背景下,有多少被普遍使用的AI基础设施工具,其声称的安全合规实际上建立在类似的沙基之上?一个开发者决定在生产系统中接入LiteLLM作为AI网关,背后隐含着一连串的信任传递:信任LiteLLM的代码质量,信任其供应链,信任其合规认证,信任发证机构的审计能力。这条链上任何一环断裂,安全假设就会全部崩塌。

AI工具链的安全信任问题,正在从边缘向核心渗透。


4. llama.cpp达到10万GitHub星标:开源AI推理引擎的里程碑

2026年3月30日,llama.cpp的GitHub仓库达到了100,000个星标。

对于不熟悉这个项目的读者,需要一些背景:2023年2月,一位名叫Georgi Gerganov的保加利亚软件工程师用大约一个周末的时间,写出了llama.cpp的第一个版本。这个C/C++实现的目标很务实:让普通人能在没有昂贵GPU的普通笔记本电脑上运行Meta的LLaMA大模型。

当时没有人预见到这个项目会走到哪里。

三年后,llama.cpp已经成为开源LLM推理引擎的事实标准——不只是因为"能用",而是因为它对各种硬件的覆盖广度无出其右:CPU、NVIDIA GPU(CUDA)、AMD GPU(ROCm)、Intel GPU、Apple Silicon GPU(Metal)……而就在达到10万星标的同一时间段内,项目正在合并一个新的后端:Apple Neural Engine(ANE)原生支持(PR #10453)。

这个PR的意义值得展开解释。ANE(苹果神经引擎)是苹果在2017年iPhone X时代就开始内置的专用AI推理芯片,存在于所有Apple Silicon——A系列、M系列芯片均包含。它不是M5才新增的"Neural Accelerator"GPU核心,而是多年来一直静默存在于每一台iPhone、iPad、Mac的芯片里的NPU。

在ANE支持出现之前,llama.cpp在Apple Silicon上主要使用GPU(Metal后端)进行推理。ANE后端的意义在于:ANE专门为矩阵乘法和神经网络推理优化,理论上功耗更低、发热更小,这对移动设备上的本地模型推理尤为重要。

10万星这个数字背后,是一个数据点:2023年,"在本地跑一个像样的LLM"还是技术极客才能完成的挑战;2026年,这件事已经有了足够完整的工具链、足够大的社区、足够多的针对各类硬件的优化,让任何有中等配置设备的人都能完成。

开源AI推理基础设施的成熟,不仅仅是一个技术里程碑。它意味着AI能力的分发不再只有云端API这一条路。企业可以在内网部署,个人可以在离线环境运行,数据不需要上传到任何第三方服务器。这个选项的存在,从根本上改变了AI应用的可能性边界。

从一个周末项目到10万颗星,这是开源社区在AI基础设施领域交出的答卷——和商业云服务并行,而非依附。

当推理引擎跑在你的设备上,AI才真正属于你。


尾声:今日数据摘要

  • AI流量超越人类:2025年AI流量增长187%,自动化流量增速是人类流量的8倍(Human Security)
  • 微软Copilot广告事件:GitHub搜索显示数万个PR被植入同一条Raycast广告文案
  • LiteLLM安全事件:开源版本遭凭证窃取恶意软件攻击;合规机构Delve被指控审计造假
  • llama.cpp 100k stars:Apple Neural Engine原生推理后端(PR #10453)同期提交
  • 其他值得关注:Qwen 3.6-Plus-Preview在OpenRouter悄然现身;美团LongCat-AudioDiT-3.5B开源TTS模型在Seed Benchmark上声称达到SOTA;美国仅15%的人愿意接受AI作为直接上司(Quinnipiac大学,N=1,397)

© Xingfan Xia 2024 - 2026 · CC BY-NC 4.0