screenpipe
SKILL.md
Screenpipe — AI 屏幕记忆
24/7 记录屏幕内容和音频,让 AI 拥有「记忆」。用户可以回溯任何看过的内容、说过的话、用过的应用。所有数据本地存储,隐私优先。
使用场景
- 用户说「我昨天在哪个网页上看到那篇关于…的文章?」
- 用户说「上周开会时谁说了什么?」
- 用户说「今天我在电脑上花了多少时间在哪些应用上?」
- 用户说「帮我找一下之前看到的那个代码片段」
- 用户说「我这周总共写了多少代码?看了多少邮件?」
- 结合每日简报类 Skill(如已启用)自动生成基于真实屏幕活动的每日回顾
前置条件
- 安装 Screenpipe:https://screenpi.pe/ (macOS / Windows / Linux)
- 启动 Screenpipe 后,本地 API 运行在
http://localhost:3030 - Screenpipe 内置 MCP Server,通过 MCP 协议自动连接
执行方式
通过 MCP 工具调用
Screenpipe MCP 提供以下核心能力:
搜索屏幕内容(OCR 文字)
工具: search_screen_content
参数:
query: "搜索关键词"
start_time: "2026-02-25T00:00:00Z" # 可选,时间范围
end_time: "2026-02-26T00:00:00Z"
app_name: "Chrome" # 可选,限定应用
limit: 10
搜索音频转录
工具: search_audio_transcripts
参数:
query: "会议讨论内容"
start_time: "2026-02-25T09:00:00Z"
limit: 5
获取应用使用统计
工具: get_app_usage
参数:
start_time: "2026-02-25T00:00:00Z"
end_time: "2026-02-26T00:00:00Z"
直接 API 调用(备选)
如果 MCP 不可用,可通过 HTTP API 访问:
# 搜索屏幕 OCR 内容
curl "http://localhost:3030/search?q=关键词&content_type=ocr&limit=10"
# 搜索音频转录
curl "http://localhost:3030/search?q=关键词&content_type=audio&limit=5"
# 获取最近活动
curl "http://localhost:3030/search?limit=20&start_time=2026-02-25T00:00:00Z"
典型工作流
回溯查找:
用户:我昨天下午看到一个很好的 Python 库,名字里有 pipe
→ 搜索 OCR 内容,时间限定为昨天下午
→ 返回匹配的屏幕截图和上下文
→ 告诉用户:你在 Chrome 中浏览了 GitHub 上的 xxx 项目(14:32)
会议回顾:
用户:今天上午的会议讨论了什么?
→ 搜索音频转录,时间限定为今天上午
→ 提取关键讨论点和行动项
→ 结构化输出会议摘要
时间追踪:
用户:我今天在各个应用上花了多少时间?
→ 获取应用使用统计
→ 生成时间分布报告(可结合图表生成类 Skill 生成图表)
与其他 Skills 的协作
| 组合 | 效果 |
|---|---|
| screenpipe + 每日简报类 Skill(如已启用) | 基于真实屏幕活动生成每日回顾 |
| screenpipe + meeting-insights-analyzer | 自动回顾会议录音和屏幕共享内容 |
| screenpipe + habit-tracker | 基于真实应用使用数据追踪习惯 |
| screenpipe + pomodoro | 回顾专注时段内的实际工作内容 |
输出规范
- 搜索结果附上时间戳和来源应用
- 涉及屏幕内容时描述上下文(哪个应用、哪个页面)
- 音频转录标注说话人(如果 Screenpipe 提供了说话人标签)
- 时间统计使用表格/图表呈现
- 尊重隐私:不主动提及用户未询问的敏感内容
Weekly Installs
1
Repository
malue-ai/dazee-smallGitHub Stars
31
First Seen
11 days ago
Security Audits
Installed on
amp1
cline1
openclaw1
opencode1
cursor1
kimi-cli1