site logo

Marico's space

最近在折腾数据管道的自动化,Airflow 这个名字出现频率极高,干脆上手试试。这篇文章算是学习笔记,原文是篇很标准的入门教程,结合实操体验重新整理了一遍,加了点踩坑心得。 如果你也写了 ETL 脚本但还在手动跑,或者想了解怎么把这套东西整到生产级别,这篇应该有用。 ----------------------------------------------------------------
前几天看到一张账单,一周下来 LLM 调用费用近 1.5 万美元——一个客服 Copilot,把同一套 FAQ 上下文反复塞进 prompt,一周之内同一段输入 token 被重复付费了约 41000 次。🤯 第一反应当然是去找 GPTCache 之类的中间件。但看了一眼它的依赖图,陷入了沉思……真的需要那么多轮子吗? 于是我认真想了想:100 行 Python 能搞定吗? 答案是:能。而
2025年9月25日,PostgreSQL 18 正式发布。如果你是在冲刺计划中间隙扫了一眼发布说明,然后把它归档为"小版本升级",建议回头再看看。这版本里落地的五件事,恰好就是你们团队 2023 年在 Confluence 上建的那个"可能需要把部分业务迁移到 Mongo / Dynamo / Cassandra"文档的五个理由。 现在你可以停更那个文档了。你当初标记的那些场景,大部分现在在
这篇文章不是软文——SerpApi 本身也不是什么新鲜玩意儿了。写的是实打实的工程经验:认证怎么过、返回的 JSON 结构到底长啥样、额度怎么省、LangChain 里怎么接,以及那些文档里不会写但人人都踩的坑。 如果你正在做 AI Agent、SEO 工具、比价爬虫,或者任何需要搜索数据的产品,这篇值得花 5 分钟看完。 认证:别把 KEY 写进代码 SerpApi 的认证是整个流程里最
这篇文章不是软文——SerpApi 本身也不是什么新鲜玩意儿了。写的是实打实的工程经验:认证怎么过、返回的 JSON 结构到底长啥样、额度怎么省、LangChain 里怎么接,以及那些文档里不会写但人人都踩的坑。 如果你正在做 AI Agent、SEO 工具、比价爬虫,或者任何需要搜索数据的产品,这篇值得花 5 分钟看完。 认证:别把 KEY 写进代码 SerpApi 的认证是整个流程里最
别再把 Agent 记忆系统搭在向量数据库上了。这是在给团队挖坑。 Vector RAG 在演示里看起来很优雅。传个查询,返回相似片段,塞进 context,搞定。但扩到多个 Agent 长期协作的时候?崩了。彻底崩了。 原因就一个:RAG 把检索和协调混为一谈了。它假设所有知识都是可叠加的,冲突不存在,Agent 不会互相覆盖。实际上?冲突存在,Agent 互相覆盖。 你真正需要的不是检索
如果你直接用过 Azure Cosmos DB,就会知道那种痛苦:手写原始 SQL 查询,管理参数化输入,数据入库前没有任何验证。 对比一下查询 100 美元以下电子产品的两种方式: 原始 @azure/cosmos SDK,要写一个 query 对象,parameters 数组手动拼参,一不小心就 SQL 注入。而用 Cosmoose,直接 Product.find({ category:
你身边有没有这种人:同一个 Claude Code,他用得风生水起,你用两周就被限流五天? 说实话,这事挺让人挠头的。同样的工具,体验能差出十万八千里。不是天赋问题,是方法问题。那些二十分钟烧光 token 的人,往往连问题出在哪都不知道——没人教这些。 所以今天聊点干的:怎么正确使用 AI 编程工具,省 token 的同时还能拿到更好的结果。是的,你没看错,方向一致,不是 trade-off
你还在用「会不会用 AI」的维度衡量程序员?过时了。 2026 年的今天,真正拉开差距的是——你会不会用 AI 浏览器工具。不是那种 ChatGPT 聊天,而是让 AI 真正接管浏览器,替你干活。 这篇是浏览器工具系列的第二篇,讲框架。第一篇讲了底层基础设施(远程浏览器、CDP、无头 Chromium),没看的先去补。今天要聊的是:browser-use、Stagehand、Skyvern这几
按语:说实话,这篇文章读到一半我就感觉被暴击了——做技术博客这么久,SEO 检查从来没进过 CI/CD(持续集成/持续部署)流水线,全凭感觉和玄学。直到被产品经理指着流量报表质问,才意识到我们连最基本的关键词分布都没做验证。作者用两周时间同时跑两个工具跑出了一个 200 页的内容站,这种实操经验比任何官方文档都有说服力。翻译过程中我结合自己踩过的坑做了不少本地化调整,特别是把 Gatsby 换成了
共 115 条, 共 12 页