open source

看到好内容,先收了再说

收藏夹里 200 条链接,半年后一条都找不到?
我帮你把网页内容真正用起来,不再只是存个链接。

macOS 13.0+ · Apple Silicon · Python 3.9+

Twitter / X 小红书 抖音 微信公众号 YouTube Bilibili 知乎 GitHub Medium Substack Any Website

一行命令,跑起来

自动安装所有依赖,什么都不用提前准备。

curl -O https://raw.githubusercontent.com/agentenatalie/everything-capture/main/setup.sh && bash setup.sh
自动安装 Python 3、ffmpeg、代码下载、依赖安装全自动完成
AI 功能 在设置里填入你自己的 API key(DeepSeek、OpenAI 等都行)
数据存储 所有数据在本地 everything-capture-data/ 目录

不只是「收藏」,是真的「用起来」

看到就收

浏览器扩展、手机快捷指令
⌘K 粘个链接就行

自动提取

正文、图片、视频全部存到本地
OCR 识字,Whisper 转录语音

搜就能找到

全文 + 语义搜索所有内容
图片里的字、视频里的话都能搜

问 AI

「给我洛克王国的全攻略」
AI 从收藏库里找到、摘要、总结

收藏夹只存链接,我们存内容

收藏夹
  • 300 条链接,记不清哪条是哪条
  • 半年后链接 404,内容消失了
  • 想找那篇文章?只能一条条翻
  • 图片里的文字、视频里的话?搜不到
Everything Capture
  • 正文、图片、视频全部保存到本地
  • 原网页挂了也没关系,内容都在
  • 全文搜索 + AI 问答,想找什么直接问
  • OCR 识别图片文字,Whisper 转录视频语音

你可能想知道的

我的数据会不会被上传到你们的服务器?
不会。所有内容存在你 Mac 本地的 SQLite 数据库里,媒体文件也在本地。AI 功能用的是你自己的 API key,我们没有服务器。
要花钱吗?
免费开源。AI 功能需要你自备 API key(DeepSeek、OpenAI 等都行,几块钱能用很久)。不用 AI 也完全能用。
小红书/抖音这种平台的内容也能存?
能。小红书图文、抖音视频、Twitter、公众号文章都有专门的解析器,图片和视频都会下载到本地。其他网页走通用提取。
已经在用 Notion / Obsidian 了,还需要这个吗?
正好。不是替代它们,而是给它们多一个自动化的内容入口。采集的内容可以一键同步过去,省去手动复制粘贴。
断网了还能用吗?
采集新内容和 AI 需要联网,但已经存下来的内容 — 浏览、搜索、管理 — 完全离线可用