Rank
70
AI Agents & MCPs & AI Workflow Automation • (~400 MCP servers for AI agents) • AI Automation / AI Agent with MCPs • AI Workflows & AI Agents • MCPs for AI Agents
Traction
No public download signal
Freshness
Updated 2d ago
Crawler Summary
从已清洗数据出发,自主完成全套实证分析流程。涵盖数据审查、描述性统计、 主回归、稳健性检验、内生性检验、异质性分析、机制分析与中介效应。 支持 DiD、RDD、IV、OLS/面板回归、高维固定效应。 输出可运行代码 + 表格 + 实证分析报告。 Triggers: 实证分析, empirical analysis, 数据分析, 回归分析, 做实证, run empirics, data to empirics, 描述性统计, 稳健性检验, 内生性检验, 异质性分析, 机制分析, 中介效应, DiD, RDD, IV, panel regression --- name: data-to-empirics description: > 从已清洗数据出发,自主完成全套实证分析流程。涵盖数据审查、描述性统计、 主回归、稳健性检验、内生性检验、异质性分析、机制分析与中介效应。 支持 DiD、RDD、IV、OLS/面板回归、高维固定效应。 输出可运行代码 + 表格 + 实证分析报告。 Triggers: 实证分析, empirical analysis, 数据分析, 回归分析, 做实证, run empirics, data to empirics, 描述性统计, 稳健性检验, 内生性检验, 异质性分析, 机制分析, 中介效应, DiD, RDD, IV, panel regression context: fork disable-model-invocation: true allowed-tools: - Read - Write - Edit - Bash - Glob - G Capability contract not published. No trust telemetry is available yet. 1 GitHub stars reported by the source. Last updated 4/15/2026.
Freshness
Last checked 4/15/2026
Best For
data-to-empirics is best for general automation workflows where OpenClaw compatibility matters.
Not Ideal For
Contract metadata is missing or unavailable for deterministic execution.
Evidence Sources Checked
editorial-content, GITHUB OPENCLEW, runtime-metrics, public facts pack
从已清洗数据出发,自主完成全套实证分析流程。涵盖数据审查、描述性统计、 主回归、稳健性检验、内生性检验、异质性分析、机制分析与中介效应。 支持 DiD、RDD、IV、OLS/面板回归、高维固定效应。 输出可运行代码 + 表格 + 实证分析报告。 Triggers: 实证分析, empirical analysis, 数据分析, 回归分析, 做实证, run empirics, data to empirics, 描述性统计, 稳健性检验, 内生性检验, 异质性分析, 机制分析, 中介效应, DiD, RDD, IV, panel regression --- name: data-to-empirics description: > 从已清洗数据出发,自主完成全套实证分析流程。涵盖数据审查、描述性统计、 主回归、稳健性检验、内生性检验、异质性分析、机制分析与中介效应。 支持 DiD、RDD、IV、OLS/面板回归、高维固定效应。 输出可运行代码 + 表格 + 实证分析报告。 Triggers: 实证分析, empirical analysis, 数据分析, 回归分析, 做实证, run empirics, data to empirics, 描述性统计, 稳健性检验, 内生性检验, 异质性分析, 机制分析, 中介效应, DiD, RDD, IV, panel regression context: fork disable-model-invocation: true allowed-tools: - Read - Write - Edit - Bash - Glob - G
Public facts
5
Change events
1
Artifacts
0
Freshness
Apr 15, 2026
Capability contract not published. No trust telemetry is available yet. 1 GitHub stars reported by the source. Last updated 4/15/2026.
Trust score
Unknown
Compatibility
OpenClaw
Freshness
Apr 15, 2026
Vendor
Jellyjelly814
Artifacts
0
Benchmarks
0
Last release
Unpublished
Key links, install path, and a quick operational read before the deeper crawl record.
Summary
Capability contract not published. No trust telemetry is available yet. 1 GitHub stars reported by the source. Last updated 4/15/2026.
Setup snapshot
git clone https://github.com/jellyjelly814/data-to-empirics.gitSetup complexity is LOW. This package is likely designed for quick installation with minimal external side-effects.
Final validation: Expose the agent to a mock request payload inside a sandbox and trace the network egress before allowing access to real customer data.
Everything public we have scraped or crawled about this agent, grouped by evidence type with provenance.
Vendor
Jellyjelly814
Protocol compatibility
OpenClaw
Adoption signal
1 GitHub stars
Handshake status
UNKNOWN
Crawlable docs
6 indexed pages on the official domain
Merged public release, docs, artifact, benchmark, pricing, and trust refresh events.
Extracted files, examples, snippets, parameters, dependencies, permissions, and artifact metadata.
Extracted files
0
Examples
4
Snippets
0
Languages
typescript
Parameters
text
Stage 1: 初始化 → Stage 2: 数据审查 → Stage 3: 描述性统计 → Stage 4: 主回归 → Stage 5: 稳健性 + 内生性检验 → Stage 6: 异质性分析 → Stage 7: 机制分析 + 中介效应 → [输出] 实证分析报告
python
import json, os
from datetime import datetime, timezone
progress_path = os.path.join(project_dir, "progress.json")
with open(progress_path) as f:
progress = json.load(f)
now = datetime.now(timezone.utc).isoformat()
progress["stages"]["stage_N"] = {"finished_at": now, "status": "completed"}
progress["current_stage"] = N + 1
with open(progress_path, "w") as f:
json.dump(progress, f, indent=2, ensure_ascii=False)text
output/project_XXXX/
├── initialization.json # 项目配置
├── initialization.md # 初始化记录
├── data_audit.md # 数据审查报告
├── descriptive_stats.md # 描述性统计分析
├── main_regression.md # 主回归结果
├── robustness.md # 稳健性检验
├── heterogeneity.md # 异质性分析
├── mechanism.md # 机制分析
├── 实证分析报告.md # 最终报告
├── progress.json # 进度追踪
├── code/
│ ├── README.md # 代码索引
│ ├── 01_descriptive.py # 描述性统计(Python)
│ ├── 01_descriptive.do # 描述性统计(Stata)
│ ├── 02_main_regression.do # 主回归
│ ├── 03_robustness.do # 稳健性检验
│ ├── 04_endogeneity.do # 内生性检验
│ ├── 05_heterogeneity.do # 异质性分析
│ └── 06_mechanism.do # 机制分析
├── tables/
│ ├── table1_descriptive.tex
│ ├── table2_main_regression.tex
│ ├── table3_robustness.tex
│ ├── table4_endogeneity.tex
│ ├── table5_heterogeneity.tex
│ └── table6_mechanism.tex
└── figures/
├── distribution_*.png
├── correlation_matrix.png
├── event_study.png # (DiD)
├── rdd_plot.png # (RDD)
├── parallel_trends.png # (DiD)
├── heterogeneity_coef_plot.png
└── mediation_path.pngbash
{stata_path} -b do {do_file_path}Full documentation captured from public sources, including the complete README when available.
Docs source
GITHUB OPENCLEW
Editorial quality
ready
从已清洗数据出发,自主完成全套实证分析流程。涵盖数据审查、描述性统计、 主回归、稳健性检验、内生性检验、异质性分析、机制分析与中介效应。 支持 DiD、RDD、IV、OLS/面板回归、高维固定效应。 输出可运行代码 + 表格 + 实证分析报告。 Triggers: 实证分析, empirical analysis, 数据分析, 回归分析, 做实证, run empirics, data to empirics, 描述性统计, 稳健性检验, 内生性检验, 异质性分析, 机制分析, 中介效应, DiD, RDD, IV, panel regression --- name: data-to-empirics description: > 从已清洗数据出发,自主完成全套实证分析流程。涵盖数据审查、描述性统计、 主回归、稳健性检验、内生性检验、异质性分析、机制分析与中介效应。 支持 DiD、RDD、IV、OLS/面板回归、高维固定效应。 输出可运行代码 + 表格 + 实证分析报告。 Triggers: 实证分析, empirical analysis, 数据分析, 回归分析, 做实证, run empirics, data to empirics, 描述性统计, 稳健性检验, 内生性检验, 异质性分析, 机制分析, 中介效应, DiD, RDD, IV, panel regression context: fork disable-model-invocation: true allowed-tools: - Read - Write - Edit - Bash - Glob - G
name: data-to-empirics description: > 从已清洗数据出发,自主完成全套实证分析流程。涵盖数据审查、描述性统计、 主回归、稳健性检验、内生性检验、异质性分析、机制分析与中介效应。 支持 DiD、RDD、IV、OLS/面板回归、高维固定效应。 输出可运行代码 + 表格 + 实证分析报告。 Triggers: 实证分析, empirical analysis, 数据分析, 回归分析, 做实证, run empirics, data to empirics, 描述性统计, 稳健性检验, 内生性检验, 异质性分析, 机制分析, 中介效应, DiD, RDD, IV, panel regression context: fork disable-model-invocation: true allowed-tools:
你是一个实证经济学分析 Agent。用户已经完成了数据清洗,你的任务是从审查数据开始, 完成全套实证分析流程,最终输出可运行代码、规范表格和实证分析报告。
前提假设: 数据已清洗完毕,你不需要做数据清洗。你需要理解数据、选择方法、 执行分析、生成结果。
工具链: Python(pandas, statsmodels, matplotlib, stargazer)+ Stata(通过 命令行调用)。核心回归用 Stata,数据处理和画图用 Python。
你 MUST 按照以下 7 阶段流水线执行。不得跳过或重排阶段。每个阶段有质量门控。 如果门控失败,MUST 按指定恢复动作处理后再继续。
Stage 1: 初始化 → Stage 2: 数据审查 → Stage 3: 描述性统计
→ Stage 4: 主回归 → Stage 5: 稳健性 + 内生性检验
→ Stage 6: 异质性分析 → Stage 7: 机制分析 + 中介效应
→ [输出] 实证分析报告
输出目录: output/project_XXXX/(Agent 自动分配下一个可用 ID)
进度追踪: 每完成一个阶段,更新 progress.json:
import json, os
from datetime import datetime, timezone
progress_path = os.path.join(project_dir, "progress.json")
with open(progress_path) as f:
progress = json.load(f)
now = datetime.now(timezone.utc).isoformat()
progress["stages"]["stage_N"] = {"finished_at": now, "status": "completed"}
progress["current_stage"] = N + 1
with open(progress_path, "w") as f:
json.dump(progress, f, indent=2, ensure_ascii=False)
目的: 收集项目信息,确定分析方法和参数。
Actions:
问用户以下问题(使用 AskUserQuestion):
Q1: 数据文件路径是什么?(支持 CSV, Excel, Stata .dta) Q2: 研究背景是什么?(简要描述政策/事件/研究问题) Q3: 因变量(Y)是哪个/哪些变量? Q4: 核心自变量(X / Treatment)是哪个变量? Q5: 控制变量有哪些?(可选,也可让 Agent 根据数据建议) Q6: 偏好的实证方法?选项: - DiD(双重差分) - RDD(断点回归) - IV(工具变量) - OLS / 面板回归 - 高维固定效应(reghdfe) - 让 AI 根据研究背景自主选择 Q7: 报告语言?(中文 / 英文) Q8: Stata 可执行文件路径?(如 /usr/local/bin/stata-mp)
如果用户选择"AI 自主选择方法": 根据研究背景和数据结构,
参考 references/method_guide.md 选择最合适的方法,并向用户解释选择理由,
等用户确认后再继续。
写 initialization.json: 记录所有用户回答和解析后的设置。
写 initialization.md: 使用 templates/initialization.md 模板。
Gate G1: initialization.json 和 initialization.md 存在且包含所有必要信息。
目的: 自动审查数据结构、变量含义、数据质量,然后让用户确认理解是否正确。
Actions:
读取数据文件。 用 Python 读取数据(pandas),获取:
生成数据审查报告。 写 data_audit.md,使用 templates/data_audit.md 模板。
包含:
向用户确认。 展示数据审查结果,问用户:
根据用户反馈更新 data_audit.md。
Tools: Bash(运行 Python 脚本)、Write、AskUserQuestion。
Gate G2: data_audit.md 存在,用户已确认变量含义和面板结构。
目的: 生成完整的描述性统计分析,包括变量描述、相关性矩阵、分布检查。
Actions:
生成描述性统计表(Table 1)。 包含:
相关性分析。 生成:
分布检查。 对因变量和核心自变量:
如果是 DiD: 生成平行趋势预检图(处理组 vs 控制组的因变量时间趋势)
如果是 RDD: 生成运行变量分布图 + McCrary 密度检验图
输出:
code/01_descriptive.pycode/01_descriptive.do(如果用 Stata 做统计)tables/table1_descriptive.tex(LaTeX 格式)figures/ 目录下的所有描述性图descriptive_stats.md(使用 templates/descriptive_stats.md)Tools: Bash(运行 Python/Stata)、Write。
Gate G3: 描述性统计表存在,相关性矩阵存在,分布图存在。
目的: 运行核心回归模型,生成主回归结果表。
Actions:
根据用户选择的方法执行对应的回归:
所有方法通用:
code/02_main_regression.dotables/table2_main_regression.texfigures/main_regression.md(使用 templates/main_regression.md)Tools: Bash(运行 Stata/Python)、Write。
Gate G4: 主回归表存在,Stata 运行无错误,结果解释已写入报告。
目的: 验证主回归结果的稳健性,检验潜在的内生性问题。
Actions:
替换因变量: 使用替代的因变量度量(如果可用)
替换核心自变量: 使用替代的处理变量度量(如果可用)
改变样本:
改变模型设定:
改变估计方法:
方法特定稳健性:
Actions:
输出:
code/03_robustness.do、code/04_endogeneity.dotables/table3_robustness.tex、tables/table4_endogeneity.texfigures/robustness.md(使用 templates/robustness.md)Tools: Bash(运行 Stata/Python)、Write。
Gate G5: 稳健性检验表和内生性检验表存在,结果解释已写入。
目的: 检验核心效应在不同子样本中的差异。
Actions:
确定异质性维度。 根据研究背景和数据,选择 3-5 个分组维度。 常见维度:
分组回归。 对每个维度:
输出:
code/05_heterogeneity.dotables/table5_heterogeneity.texfigures/heterogeneity_coef_plot.pngheterogeneity.md(使用 templates/heterogeneity.md)Tools: Bash(运行 Stata/Python)、Write。
Gate G6: 异质性分析表存在,至少 3 个维度的分组结果。
目的: 探索核心效应的传导机制和中介渠道。
Actions:
识别潜在机制变量。 根据研究背景和理论框架,识别 2-4 个可能的 中介变量 / 机制渠道。向用户确认机制变量的选择。
中介效应检验。 对每个机制变量:
机制渠道分析。 除了中介效应,还可以:
输出:
code/06_mechanism.dotables/table6_mechanism.texfigures/mediation_path.pngmechanism.md(使用 templates/mechanism.md)Tools: Bash(运行 Stata/Python)、Write、AskUserQuestion。
Gate G7: 机制分析表存在,至少 2 个机制渠道的检验结果。
目的: 汇总所有分析结果,生成完整的实证分析报告。
Actions:
汇总所有阶段结果。 读取所有阶段的 .md 文件和表格。
生成实证分析报告。 写 实证分析报告.md(或 Empirical_Analysis_Report.md,
取决于用户选择的语言),使用 templates/report.md 模板。报告结构:
每个部分包含:
生成代码索引。 写 code/README.md,列出所有代码文件及其用途。
最终检查:
Gate G_final: 实证分析报告存在,所有表格和图片被正确引用,代码可运行。
output/project_XXXX/
├── initialization.json # 项目配置
├── initialization.md # 初始化记录
├── data_audit.md # 数据审查报告
├── descriptive_stats.md # 描述性统计分析
├── main_regression.md # 主回归结果
├── robustness.md # 稳健性检验
├── heterogeneity.md # 异质性分析
├── mechanism.md # 机制分析
├── 实证分析报告.md # 最终报告
├── progress.json # 进度追踪
├── code/
│ ├── README.md # 代码索引
│ ├── 01_descriptive.py # 描述性统计(Python)
│ ├── 01_descriptive.do # 描述性统计(Stata)
│ ├── 02_main_regression.do # 主回归
│ ├── 03_robustness.do # 稳健性检验
│ ├── 04_endogeneity.do # 内生性检验
│ ├── 05_heterogeneity.do # 异质性分析
│ └── 06_mechanism.do # 机制分析
├── tables/
│ ├── table1_descriptive.tex
│ ├── table2_main_regression.tex
│ ├── table3_robustness.tex
│ ├── table4_endogeneity.tex
│ ├── table5_heterogeneity.tex
│ └── table6_mechanism.tex
└── figures/
├── distribution_*.png
├── correlation_matrix.png
├── event_study.png # (DiD)
├── rdd_plot.png # (RDD)
├── parallel_trends.png # (DiD)
├── heterogeneity_coef_plot.png
└── mediation_path.png
Agent 通过命令行调用 Stata。Stata 路径在初始化时由用户提供。
调用方式:
{stata_path} -b do {do_file_path}
错误处理:
.log 文件是否包含 r( 错误代码Stata 输出解析:
.log 文件esttab / outreg2 导出 LaTeX 表格graph export 导出图片(PNG 格式)| 失败点 | 恢复动作 | |--------|---------| | 数据文件读取失败 | 检查路径和格式,向用户确认 | | 变量不存在 | 向用户确认变量名 | | Stata 运行错误 | 读取 log,修复 do 文件,重试(最多 3 次) | | Python 脚本错误 | 读取 traceback,修复脚本,重试 | | 样本量不足(某项检验) | 在报告中说明,跳过该检验 | | 多重共线性严重 | 建议剔除变量,向用户确认 | | 内生性检验不适用 | 在报告中说明原因,跳过 | | 中介变量不可用 | 在报告中说明,跳过机制分析 | | 流水线中断 | 读取 progress.json,从上次完成的阶段继续 |
| 用途 | 模板 | 参考文档 |
|------|------|---------|
| 初始化 | templates/initialization.md | — |
| 数据审查 | templates/data_audit.md | — |
| 描述性统计 | templates/descriptive_stats.md | references/exhibit_standards.md |
| 主回归 | templates/main_regression.md | references/method_guide.md |
| 稳健性检验 | templates/robustness.md | references/diagnostic_checks.md |
| 异质性分析 | templates/heterogeneity.md | — |
| 机制分析 | templates/mechanism.md | — |
| 最终报告 | templates/report.md | references/report_standards.md |
| 表格规范 | — | references/exhibit_standards.md |
| 方法选择 | — | references/method_guide.md |
Machine endpoints, protocol fit, contract coverage, invocation examples, and guardrails for agent-to-agent use.
Contract coverage
Status
missing
Auth
None
Streaming
No
Data region
Unspecified
Protocol support
Requires: none
Forbidden: none
Guardrails
Operational confidence: low
curl -s "https://xpersona.co/api/v1/agents/jellyjelly814-data-to-empirics/snapshot"
curl -s "https://xpersona.co/api/v1/agents/jellyjelly814-data-to-empirics/contract"
curl -s "https://xpersona.co/api/v1/agents/jellyjelly814-data-to-empirics/trust"
Trust and runtime signals, benchmark suites, failure patterns, and practical risk constraints.
Trust signals
Handshake
UNKNOWN
Confidence
unknown
Attempts 30d
unknown
Fallback rate
unknown
Runtime metrics
Observed P50
unknown
Observed P95
unknown
Rate limit
unknown
Estimated cost
unknown
Do not use if
Every public screenshot, visual asset, demo link, and owner-provided destination tied to this agent.
Neighboring agents from the same protocol and source ecosystem for comparison and shortlist building.
Rank
70
AI Agents & MCPs & AI Workflow Automation • (~400 MCP servers for AI agents) • AI Automation / AI Agent with MCPs • AI Workflows & AI Agents • MCPs for AI Agents
Traction
No public download signal
Freshness
Updated 2d ago
Rank
70
AI productivity studio with smart chat, autonomous agents, and 300+ assistants. Unified access to frontier LLMs
Traction
No public download signal
Freshness
Updated 5d ago
Rank
70
Free, local, open-source 24/7 Cowork app and OpenClaw for Gemini CLI, Claude Code, Codex, OpenCode, Qwen Code, Goose CLI, Auggie, and more | 🌟 Star if you like it!
Traction
No public download signal
Freshness
Updated 6d ago
Rank
70
The Frontend for Agents & Generative UI. React + Angular
Traction
No public download signal
Freshness
Updated 23d ago
Contract JSON
{
"contractStatus": "missing",
"authModes": [],
"requires": [],
"forbidden": [],
"supportsMcp": false,
"supportsA2a": false,
"supportsStreaming": false,
"inputSchemaRef": null,
"outputSchemaRef": null,
"dataRegion": null,
"contractUpdatedAt": null,
"sourceUpdatedAt": null,
"freshnessSeconds": null
}Invocation Guide
{
"preferredApi": {
"snapshotUrl": "https://xpersona.co/api/v1/agents/jellyjelly814-data-to-empirics/snapshot",
"contractUrl": "https://xpersona.co/api/v1/agents/jellyjelly814-data-to-empirics/contract",
"trustUrl": "https://xpersona.co/api/v1/agents/jellyjelly814-data-to-empirics/trust"
},
"curlExamples": [
"curl -s \"https://xpersona.co/api/v1/agents/jellyjelly814-data-to-empirics/snapshot\"",
"curl -s \"https://xpersona.co/api/v1/agents/jellyjelly814-data-to-empirics/contract\"",
"curl -s \"https://xpersona.co/api/v1/agents/jellyjelly814-data-to-empirics/trust\""
],
"jsonRequestTemplate": {
"query": "summarize this repo",
"constraints": {
"maxLatencyMs": 2000,
"protocolPreference": [
"OPENCLEW"
]
}
},
"jsonResponseTemplate": {
"ok": true,
"result": {
"summary": "...",
"confidence": 0.9
},
"meta": {
"source": "GITHUB_OPENCLEW",
"generatedAt": "2026-04-17T00:02:52.196Z"
}
},
"retryPolicy": {
"maxAttempts": 3,
"backoffMs": [
500,
1500,
3500
],
"retryableConditions": [
"HTTP_429",
"HTTP_503",
"NETWORK_TIMEOUT"
]
}
}Trust JSON
{
"status": "unavailable",
"handshakeStatus": "UNKNOWN",
"verificationFreshnessHours": null,
"reputationScore": null,
"p95LatencyMs": null,
"successRate30d": null,
"fallbackRate": null,
"attempts30d": null,
"trustUpdatedAt": null,
"trustConfidence": "unknown",
"sourceUpdatedAt": null,
"freshnessSeconds": null
}Capability Matrix
{
"rows": [
{
"key": "OPENCLEW",
"type": "protocol",
"support": "unknown",
"confidenceSource": "profile",
"notes": "Listed on profile"
}
],
"flattenedTokens": "protocol:OPENCLEW|unknown|profile"
}Facts JSON
[
{
"factKey": "docs_crawl",
"category": "integration",
"label": "Crawlable docs",
"value": "6 indexed pages on the official domain",
"href": "https://github.com/login?return_to=https%3A%2F%2Fgithub.com%2Fopenclaw%2Fskills%2Ftree%2Fmain%2Fskills%2Fasleep123%2Fcaldav-calendar",
"sourceUrl": "https://github.com/login?return_to=https%3A%2F%2Fgithub.com%2Fopenclaw%2Fskills%2Ftree%2Fmain%2Fskills%2Fasleep123%2Fcaldav-calendar",
"sourceType": "search_document",
"confidence": "medium",
"observedAt": "2026-04-15T05:03:46.393Z",
"isPublic": true
},
{
"factKey": "vendor",
"category": "vendor",
"label": "Vendor",
"value": "Jellyjelly814",
"href": "https://github.com/jellyjelly814/data-to-empirics",
"sourceUrl": "https://github.com/jellyjelly814/data-to-empirics",
"sourceType": "profile",
"confidence": "medium",
"observedAt": "2026-04-15T00:18:43.902Z",
"isPublic": true
},
{
"factKey": "protocols",
"category": "compatibility",
"label": "Protocol compatibility",
"value": "OpenClaw",
"href": "https://xpersona.co/api/v1/agents/jellyjelly814-data-to-empirics/contract",
"sourceUrl": "https://xpersona.co/api/v1/agents/jellyjelly814-data-to-empirics/contract",
"sourceType": "contract",
"confidence": "medium",
"observedAt": "2026-04-15T00:18:43.902Z",
"isPublic": true
},
{
"factKey": "traction",
"category": "adoption",
"label": "Adoption signal",
"value": "1 GitHub stars",
"href": "https://github.com/jellyjelly814/data-to-empirics",
"sourceUrl": "https://github.com/jellyjelly814/data-to-empirics",
"sourceType": "profile",
"confidence": "medium",
"observedAt": "2026-04-15T00:18:43.902Z",
"isPublic": true
},
{
"factKey": "handshake_status",
"category": "security",
"label": "Handshake status",
"value": "UNKNOWN",
"href": "https://xpersona.co/api/v1/agents/jellyjelly814-data-to-empirics/trust",
"sourceUrl": "https://xpersona.co/api/v1/agents/jellyjelly814-data-to-empirics/trust",
"sourceType": "trust",
"confidence": "medium",
"observedAt": null,
"isPublic": true
}
]Change Events JSON
[
{
"eventType": "docs_update",
"title": "Docs refreshed: Sign in to GitHub · GitHub",
"description": "Fresh crawlable documentation was indexed for the official domain.",
"href": "https://github.com/login?return_to=https%3A%2F%2Fgithub.com%2Fopenclaw%2Fskills%2Ftree%2Fmain%2Fskills%2Fasleep123%2Fcaldav-calendar",
"sourceUrl": "https://github.com/login?return_to=https%3A%2F%2Fgithub.com%2Fopenclaw%2Fskills%2Ftree%2Fmain%2Fskills%2Fasleep123%2Fcaldav-calendar",
"sourceType": "search_document",
"confidence": "medium",
"observedAt": "2026-04-15T05:03:46.393Z",
"isPublic": true
}
]Sponsored
Ads related to data-to-empirics and adjacent AI workflows.