我用 AI 监控政府招标网,1个月薅到3个百万级项目
先说结果
上个月,我用一个"AI助手"监控北京市公共资源交易平台的房屋建筑招标信息。,结果:第12天:捡漏一个265万的老旧小区管道工程,竞争对手少同事以为我开了外挂,其实我只是让 AI 每天替我"盯盘"。为什么你需要这个?
"上周五我加班到凌晨2点做标书,结果发现项目已经截止了——原来是发公告那天我看漏了。""我们公司3个销售,每人负责不同网站,信息重复还总漏单。""我想用爬虫,但找程序员要花钱,自己学又怕麻烦。"真实情况是:这根本不需要程序员,我用的是 OpenClaw(免费的AI自动化工具),零代码搭建。 我的真实搭建过程(共5步)
第1步:给 AI "上岗培训"(3分钟)
"每天早上10点,去这个网站:https://ggzyfw.beijing.gov.cn/没有写代码,就是像聊天一样说话。OpenClaw 记住了,第二天就开始干活。第2步:让 AI "会看网页"(2分钟)
┌─────────────────────────────────────┐│ ┌─────────────────────────────┐ ││ │ 2026-03-16 海淀区... │ ││ │ 2026-03-15 朝阳区... │ ││ │ 2026-03-15 丰台区... │ ││ └─────────────────────────────┘ │教完以后,网站就算改版,我也只需要改这几行配置,不用重写整个程序。第3步:设定"通报规则"(1分钟)
第4步:绑定"通知渠道"(2分钟)
我在飞书群里加了个机器人,把 Webhook 地址填进去。今日招标监控报告
领导问我:"你请的助理在群里?" 我说:"是AI。"第5步:设置"自动运行"(1分钟)
在 OpenClaw 里设了个定时任务:1每天早上10点推送招标信息。? 这1个月的数据
指标 | 数值 |
|---|
总抓取天数 | 30天 |
抓取成功率 | 100%(30/30) |
发现项目总数 | 347条 |
房屋建筑类 | 127条 |
投资额>1000万 | 24条 |
最爽的一次:3月5号早上,群里通报了一个265万的项目,我看完觉得靠谱,3天后交标书。我们的方案被选中,现在已经开始施工了。为什么我说"零成本"?
机会成本:如果那天我漏看了那个265万的项目,损失就是100%(机会成本) 哪些情况不适合用?
场景 | 原因 |
|---|
需要登录才能看 | OpenClaw 暂不支持复杂登录 |
网站有强验证码 | 需要人工干预 |
数据全是图片 | OCR 识别率低 |
JS 动态渲染太复杂 | 加载时间太长 |
如果你的项目符合:网站公开、有规律可循、信息在HTML里,就一定能用。除了招投标,还能监控什么?
? 电商价格监控:某东/某宝价格波动,降了10%就通知核心思路:任何"信息差就是钱"的场景,都值得自动化。