Thoughts, stories and ideas.

Latest

地缘动荡下的技术堡垒:2026 年春季的 AI Agent 与量化实战思考

最近这几天的市场走势,确实让人有点坐不住。标普 500 在周二跌了 0.37%,纳指更是回调了 0.84%。看着屏幕上跳动的红绿数字,我一直在想:在这个地缘政治变幻莫测、油价像坐过山车一样的 2026 年,我们这些折腾技术的,到底该怎么给自己构建一个足够稳固的“技术堡垒”? 1. GitHub 趋势:Agent 正在进入“工业级”爆发期 刷了下今天的 GitHub Trending,最让我感触的是 Agent 概念的深度下沉。字节跳动的 deer-flow 冲到了四万多星,这东西本质上就是一个超级智能体框架,它能自己在沙箱里搜资料、写代码、出成品。 还有那个 TauricResearch/TradingAgents(以及它的中文增强版),简直就是为了现在的市场环境量身定制的。它不再是那种跑几个简单指标的机器人,而是用多智能体(Multi-Agents)模拟了一个微型投研团队。 这种变化释放了一个信号:单一

从硬件回暖到 Agent 爆发:2026 年春季的量化与副业实战笔记

最近几天的市场波动挺有意思。上周美股因为地缘政治风险和油价飙升搞了一次深度回调,但这周一(3月23日)标普 500 报复性反弹了 2.2%,纳指也拉回了 2.17%。这种反弹背后的逻辑,其实很值得我们这些折腾技术副业的人深思。 1. 市场底色:从硬件“卷”到智能体 之前大家都在抢 NVIDIA 的卡,都在聊 H100、B200 的算力。但到了 2026 年,风向变了。虽然 NVIDIA 的财报依然猛得不像话,但市场开始关注更细分的定制化芯片 (Custom Chips)。这说明什么?说明底层算力已经成了基础设施,真正的爆发点转到了应用层。 GitHub Trending 榜单上最近最火的不是什么新的大模型,而是类似 bytedance/deer-flow 这种智能体工作流框架。它能自动化地完成“搜索-编码-创作”的全流程。这意味着,

GitHub 明星项目与大厂的博弈:为什么 NVIDIA 急着给 OpenClaw 打补丁?

最近 GitHub 趋势榜上最疯狂的事,莫过于那个在短短 72 小时内斩获 6.8w Stars 的开源 Agent 框架。这种爆发力,不仅让开发者兴奋,也让硅谷的巨头们感到了压力。最典型的例子就是 NVIDIA 最近发布的 NemoClaw。 大厂的惯用伎俩:拥抱、扩展、毁灭? NVIDIA 为什么要针对一个开源项目专门推出企业版分支?官方说法是“为了解决 Gartner 报告中指出的 Agent 安全性问题”。听起来很高大上,但作为在底层混迹多年的开发者,我看出的更多是巨头对失去“Agent 话语权”的焦虑。 开源 Agent 框架之所以受欢迎,核心在于它的自治性和无约束。巨头们所谓的“安全性”,往往意味着更多的闭源组件、更昂贵的订阅以及对特定硬件的深度绑定。Gartner 说的“默认不安全”,其实正是开发者最爱的灵活度。NVIDIA

别再把你的家庭照片喂给云端巨头了:2026 年自建 AI 栈的真实体验

最近我终于下定决心,把手机里那几万张家庭照片彻底从 Google Photos 里拽了出来。这不仅仅是因为昂贵的订阅费,更因为我越来越反感这些巨头在没有明确告知的情况下,就把我孩子的照片丢进他们的多模态大模型里进行“强化训练”。 如果你跟我一样,对隐私有种近乎偏执的洁癖,那么 2026 年的自建(Self-Hosted)技术栈已经成熟到让你没有理由再留在云端了。 Immich:云端巨头的真正挑战者 我最近在 Homelab 里重度使用了 Immich。它最让我心动的地方在于,它完美复制了云端照片管家的所有 AI 特征:人脸识别、场景搜索、甚至是基于语义的自动分类。但我听着走廊里 TrueNAS 服务器风扇转动的声音,心里却很踏实——这些机器学习任务是在我自己的硬件上跑的,数据没有离开过这间屋子。 为什么“不配置 GPU”也能玩转 AI? 很多人被自建 AI 吓跑,是因为觉得必须得买昂贵的显卡。其实 2026 年的开源社区已经优化得非常离谱。通过 Elestio 等部署方案,

2026 年的 AI 真相:当大模型开始“下地干活”,边缘计算才是真的金矿

2026 年春天,我发现身边大多数开发者对“对话框 AI”已经产生了明显的审美疲劳。大家都意识到,如果你手里只有几个云端的 API Key,那你其实什么都没有。真正的安全感,来源于你能掌控的硬件和你能离线运行的逻辑。 今天翻了翻 GitHub Trending,有两个项目让我觉得非常有意思,这可能代表了未来三年的技术风向。我不聊 PPT 上的愿景,只聊这背后的硬核逻辑。 1. Nerlnet:在 ESP32 上跑分布式 ML 是什么体验? Nerlnet 这个项目今天在趋势榜上冲得很猛。它最让我兴奋的一点是:它想在廉价的 IoT 设备上构建分布式机器学习模型。它用的是 Erlang/Python 的混合架构,解决了故障容错和联邦学习的问题。 这事儿为什么牛? 以前我们总觉得 AI 必须在 4090 或者 A100 上跑,但 Nerlnet