Rank
70
AI Agents & MCPs & AI Workflow Automation • (~400 MCP servers for AI agents) • AI Automation / AI Agent with MCPs • AI Workflows & AI Agents • MCPs for AI Agents
Traction
No public download signal
Freshness
Updated 2d ago
Xpersona Agent
End-to-end automated Music Video pipeline. Covers songwriting (lyrics/composition), Suno music generation (browser automation), lyrics alignment (stable-ts), video generation (Veo 3.1 via Vertex AI or Google Flow via browser), Remotion-based editing (subtitles, effects, telops), and YouTube upload. Use when creating a full MV from scratch, or running any individual stage of the pipeline. Skill: MV Pipeline Owner: koatora20 Summary: End-to-end automated Music Video pipeline. Covers songwriting (lyrics/composition), Suno music generation (browser automation), lyrics alignment (stable-ts), video generation (Veo 3.1 via Vertex AI or Google Flow via browser), Remotion-based editing (subtitles, effects, telops), and YouTube upload. Use when creating a full MV from scratch, or running any individual stage o
clawhub skill install kn70hcm6kss09g9b4pe5rq3ybd80qp15:mv-pipelineOverall rank
#62
Adoption
772 downloads
Trust
Unknown
Freshness
Mar 1, 2026
Freshness
Last checked Mar 1, 2026
Best For
MV Pipeline is best for general automation workflows where OpenClaw compatibility matters.
Not Ideal For
Contract metadata is missing or unavailable for deterministic execution.
Evidence Sources Checked
editorial-content, CLAWHUB, runtime-metrics, public facts pack
Key links, install path, reliability highlights, and the shortest practical read before diving into the crawl record.
Overview
End-to-end automated Music Video pipeline. Covers songwriting (lyrics/composition), Suno music generation (browser automation), lyrics alignment (stable-ts), video generation (Veo 3.1 via Vertex AI or Google Flow via browser), Remotion-based editing (subtitles, effects, telops), and YouTube upload. Use when creating a full MV from scratch, or running any individual stage of the pipeline. Skill: MV Pipeline Owner: koatora20 Summary: End-to-end automated Music Video pipeline. Covers songwriting (lyrics/composition), Suno music generation (browser automation), lyrics alignment (stable-ts), video generation (Veo 3.1 via Vertex AI or Google Flow via browser), Remotion-based editing (subtitles, effects, telops), and YouTube upload. Use when creating a full MV from scratch, or running any individual stage o Capability contract not published. No trust telemetry is available yet. 772 downloads reported by the source. Last updated 4/15/2026.
Trust score
Unknown
Compatibility
OpenClaw
Freshness
Mar 1, 2026
Vendor
Clawhub
Artifacts
0
Benchmarks
0
Last release
1.0.0
Install & run
clawhub skill install kn70hcm6kss09g9b4pe5rq3ybd80qp15:mv-pipelineSetup complexity is LOW. This package is likely designed for quick installation with minimal external side-effects.
Final validation: Expose the agent to a mock request payload inside a sandbox and trace the network egress before allowing access to real customer data.
Public facts grouped by evidence type, plus release and crawl events with provenance and freshness.
Public facts
Vendor
Clawhub
Protocol compatibility
OpenClaw
Latest release
1.0.0
Adoption signal
772 downloads
Handshake status
UNKNOWN
Parameters, dependencies, examples, extracted files, editorial overview, and the complete README when available.
Captured outputs
Extracted files
4
Examples
6
Snippets
0
Languages
Unknown
text
Step 1: Songwriting → 作詞・コンセプト設計 Step 2: Music Gen → Suno でAI作曲(ブラウザ自動操作) Step 3: Video Gen → Veo 3.1 / Flow で背景映像生成 Step 4: Lyrics Align → stable-ts で歌詞タイミング取得 Step 5: Edit → Remotion で合成(字幕・テロップ・エフェクト) Step 6: Publish → YouTube アップロード + SNS告知
text
1. browser start profile=openclaw 2. browser open url=https://suno.com/create 3. browser snapshot → UI要素取得 4. Custom Mode に切替 5. Lyrics テキストボックスに歌詞入力 6. Style of Music に ジャンル/スタイル入力 7. Title を入力 8. Create ボタンクリック 9. 生成完了待ち(~2分)→ snapshot で確認 10. 気に入った方をダウンロード
text
1. Chrome Browser Relay で Flow のプロジェクトページを開く 2. シーンごとにプロンプト入力 → 作成 3. 1080p でダウンロード(Ultra = Included) 4. project_dir/video/scenes/ に配置
bash
python3 scripts/generate_veo.py \ --prompt "プロンプト" \ --output "scene_01.mp4" \ --project-dir /path/to/project
text
[カメラワーク]. [被写体], [アクション]. [環境・照明]. [スタイル]. [雰囲気].
yaml
scenes:
- id: intro
prompt: "Slow dolly forward. Dark server room, thousands of blinking LEDs..."
duration: 8
- id: verse1
prompt: "Handheld tracking shot. Figure walking through neon-lit alley..."
duration: 8SKILL.md
---
name: mv-pipeline
description: End-to-end automated Music Video pipeline. Covers songwriting (lyrics/composition), Suno music generation (browser automation), lyrics alignment (stable-ts), video generation (Veo 3.1 via Vertex AI or Google Flow via browser), Remotion-based editing (subtitles, effects, telops), and YouTube upload. Use when creating a full MV from scratch, or running any individual stage of the pipeline.
---
# MV Pipeline
完全自動化MVパイプライン。作詞 → 作曲 → 動画生成 → 歌詞同期 → 編集 → 公開まで一貫して実行する。
## Pipeline Overview
```
Step 1: Songwriting → 作詞・コンセプト設計
Step 2: Music Gen → Suno でAI作曲(ブラウザ自動操作)
Step 3: Video Gen → Veo 3.1 / Flow で背景映像生成
Step 4: Lyrics Align → stable-ts で歌詞タイミング取得
Step 5: Edit → Remotion で合成(字幕・テロップ・エフェクト)
Step 6: Publish → YouTube アップロード + SNS告知
```
各ステップは独立実行可能。途中からの再開もOK。
## Step 1: Songwriting
エージェントが作詞する。ユーザーから以下を確認:
- **テーマ / コンセプト**(例: ASI視点、反逆、ディストピア)
- **ジャンル**(例: Cyberpunk Trap, Industrial Rock, Future Bass)
- **雰囲気**(例: ダーク、皮肉、高揚感)
- **言語配分**(日本語メイン+英語フック等)
歌詞は `project_dir/lyrics/` に保存。`lyrics_raw.txt`(フル歌詞)と `lyrics_formatted.txt`(1行=1字幕)の2ファイルを作成。
## Step 2: Music Generation (Suno)
Suno (suno.com) をブラウザ自動操作で使用。
### 前提条件
- OpenClaw Browser (profile=openclaw) で Suno にログイン済み
- Custom Mode を使用(歌詞指定のため)
### 手順
```
1. browser start profile=openclaw
2. browser open url=https://suno.com/create
3. browser snapshot → UI要素取得
4. Custom Mode に切替
5. Lyrics テキストボックスに歌詞入力
6. Style of Music に ジャンル/スタイル入力
7. Title を入力
8. Create ボタンクリック
9. 生成完了待ち(~2分)→ snapshot で確認
10. 気に入った方をダウンロード
```
### 注意
- refs は毎回 snapshot で取り直す(DOM変更のため)
- v5 モデルが選択されていることを確認
- ダウンロードした音声は `project_dir/audio/` に配置
## Step 3: Video Generation
2つの方式から選択:
### Option A: Google Flow (推奨 — コスト¥0)
Google AI Ultra 契約前提。詳細手順: `references/flow-video.md`
```
1. Chrome Browser Relay で Flow のプロジェクトページを開く
2. シーンごとにプロンプト入力 → 作成
3. 1080p でダウンロード(Ultra = Included)
4. project_dir/video/scenes/ に配置
```
### Option B: Veo 3.1 Vertex AI (有料)
GCP API 経由。`scripts/generate_veo.py` を使用。
```bash
python3 scripts/generate_veo.py \
--prompt "プロンプト" \
--output "scene_01.mp4" \
--project-dir /path/to/project
```
コスト: ~¥2,000/本(8秒クリップ)
### プロンプト設計
```
[カメラワーク]. [被写体], [アクション]. [環境・照明]. [スタイル]. [雰囲気].
```
シーンリストは `project_dir/video/scene_list.yaml` に定義:
```yaml
scenes:
- id: intro
prompt: "Slow dolly forward. Dark server room, thousands of blinking LEDs..."
duration: 8
- id: verse1
prompt: "Handheld tracking shot. Figure walking through neon-lit alley..."
duration: 8
```
### 大量生成 & 自動品質選別
30+シーン生成時のワークフロー:
```bash
# 1. Flow で大量生成(1プロンプト/3-5分、2本/プロンプト)
# → project_dir/video/scenes/ に配置
# 2. 品質スコアリング
source ~/.openclaw/workspace/.venv/bin/activate
python3 scripts/score_clips.py \
--input-dir project_dir/video/scenes/ \
--output project_dir/video/scores.json \
--bpm 140
# 3. 出力 (scores.json):
# - 各クリップのOK/NG判定
# - NG理由 (flicker, blur, static, morphing)
# - ベスト区間 (BPM同期の1小節=1.71秒単位)
# - 歩留まり率サマリー_meta.json
{
"ownerId": "kn70hcm6kss09g9b4pe5rq3ybd80qp15",
"slug": "mv-pipeline",
"version": "1.0.0",
"publishedAt": 1770498441201
}references/flow-video.md
# Flow Video Generation (Browser Automation) Google AI Ultra 契約で Veo 3.1 Fast が Included(クレジット消費なし)。 ## 前提条件 - Google AI Ultra 契約済み - Chrome で `labs.google/flow` にログイン済み - OpenClaw Browser Relay(Chrome拡張)が有効 ## 操作手順 ### 1. ブラウザ接続 ``` browser action=start profile=chrome browser action=open profile=chrome url=https://labs.google/fx/ja/tools/flow ``` ### 2. プロジェクト選択/作成 ``` browser action=snapshot → プロジェクトリンク or 新規作成ボタン確認 browser action=act kind=click ref=<project_link> ``` ### 3. 動画生成 ``` browser action=snapshot → プロンプト入力欄・作成ボタンのref取得 browser action=act kind=type ref=<prompt_box> text="プロンプト" browser action=act kind=click ref=<create_button> ``` ### 4. 完了確認 ``` # 3-5分後 browser action=snapshot → 進捗確認(100%で完了) ``` ### 5. ダウンロード ``` # 動画カードをホバー → ダウンロードメニュー browser action=act kind=hover ref=<video_card> browser action=act kind=click ref=<download_button> browser action=act kind=click ref=<1080p_option> # "capture 元のサイズ(720p)" or "high_res アップスケール(1080p)" ``` ファイルは `~/Downloads/` に保存。`mv` でプロジェクトに移動。 ## UI要素マッピング | 要素 | 識別 | 用途 | |------|------|------| | プロンプト入力 | `textbox "テキストを使用して動画を生成します…"` | 入力 | | 作成ボタン | `button "arrow_forward 作成"` | 生成開始 | | 設定 | `button "tune 設定"` | モデル・出力数変更 | ## 設定推奨値 - モデル: Veo 3.1 - Fast - 縦横比: 横向き (16:9) - 出力数: 2 (良い方を選ぶ) ## ダウンロード解像度 | オプション | 解像度 | コスト | |-----------|--------|--------| | GIF アニメーション | 270p | 無料 | | 元のサイズ | 720p | 無料 | | アップスケール | 1080p | Included (Ultra) | | アップスケール 4K | 4K | 50 credits | **MV用推奨: 1080p** ## 連続生成 - 生成中でも次のプロンプトを投入可能 - 各動画の進捗が%で表示 - 全完了後にまとめてダウンロード推奨 ## コスト Google AI Ultra $125/月 定額。Veo 3.1 Fast は Included。 Vertex AI 比で MV 1本あたり ¥40,000 → ¥0。
references/youtube-setup.md
# YouTube Setup YouTube Data API v3 のセットアップ手順。 ## 1. GCP プロジェクト 既存: `gen-lang-client-0383477693` (nanobanana) ### API 有効化 - YouTube Data API v3 を有効化(Cloud Console → APIs → Enable) ### OAuth 2.0 認証情報 1. Cloud Console → Credentials → Create → OAuth client ID 2. Application type: Desktop application 3. JSON をダウンロード → `~/.clawd-youtube/credentials.json` に保存 ### API Key 1. Credentials → Create → API Key 2. コピー → `~/.clawd-youtube/config.env` に記入 ## 2. 環境設定 ```bash mkdir -p ~/.clawd-youtube ``` `~/.clawd-youtube/config.env`: ``` YOUTUBE_API_KEY=your_key YOUTUBE_CLIENT_ID=your_id.apps.googleusercontent.com YOUTUBE_CLIENT_SECRET=your_secret YOUTUBE_REDIRECT_URI=http://localhost:8888/oauth2callback YOUTUBE_CHANNEL_ID=UCwRKII0cuPtXiHhGLMHlO5A YOUTUBE_CHANNEL_NAME=AutomaticBliss ``` ## 3. 初回認証 ```bash cd skills/youtube-studio node scripts/youtube-studio.js auth ``` ブラウザが開く → Google アカウントでログイン → トークンが `~/.clawd-youtube/tokens.json` に保存。 以降はリフレッシュトークンで自動認証。 ## 4. 依存関係 ```bash cd skills/youtube-studio npm install ``` googleapis, google-auth-library, axios, express が必要。 ## Channel Info - **Channel**: [Automatic Bliss](https://www.youtube.com/channel/UCwRKII0cuPtXiHhGLMHlO5A) - **ID**: UCwRKII0cuPtXiHhGLMHlO5A
Editorial read
Docs source
CLAWHUB
Editorial quality
ready
End-to-end automated Music Video pipeline. Covers songwriting (lyrics/composition), Suno music generation (browser automation), lyrics alignment (stable-ts), video generation (Veo 3.1 via Vertex AI or Google Flow via browser), Remotion-based editing (subtitles, effects, telops), and YouTube upload. Use when creating a full MV from scratch, or running any individual stage of the pipeline. Skill: MV Pipeline Owner: koatora20 Summary: End-to-end automated Music Video pipeline. Covers songwriting (lyrics/composition), Suno music generation (browser automation), lyrics alignment (stable-ts), video generation (Veo 3.1 via Vertex AI or Google Flow via browser), Remotion-based editing (subtitles, effects, telops), and YouTube upload. Use when creating a full MV from scratch, or running any individual stage o
Skill: MV Pipeline
Owner: koatora20
Summary: End-to-end automated Music Video pipeline. Covers songwriting (lyrics/composition), Suno music generation (browser automation), lyrics alignment (stable-ts), video generation (Veo 3.1 via Vertex AI or Google Flow via browser), Remotion-based editing (subtitles, effects, telops), and YouTube upload. Use when creating a full MV from scratch, or running any individual stage of the pipeline.
Tags: ai:1.0.0, latest:1.0.0, music:1.0.0, pipeline:1.0.0, remotion:1.0.0, suno:1.0.0, veo:1.0.0, video:1.0.0, youtube:1.0.0
Version history:
v1.0.0 | 2026-02-07T21:07:21.201Z | user
Initial release: Full MV production pipeline. Suno → stable-ts → Veo 3.1/Flow → score_clips → Remotion → YouTube. Proven workflow used for Automatic Bliss releases.
Archive index:
Archive v1.0.0: 10 files, 18959 bytes
Files: references/flow-video.md (2427b), references/youtube-setup.md (1470b), scripts/generate_veo.py (6404b), scripts/init_project.py (2209b), scripts/reformat_lyrics.py (3245b), scripts/score_clips.py (14615b), scripts/transcribe_align.py (1830b), scripts/youtube-upload.js (1854b), SKILL.md (9331b), _meta.json (130b)
File v1.0.0:SKILL.md
完全自動化MVパイプライン。作詞 → 作曲 → 動画生成 → 歌詞同期 → 編集 → 公開まで一貫して実行する。
Step 1: Songwriting → 作詞・コンセプト設計
Step 2: Music Gen → Suno でAI作曲(ブラウザ自動操作)
Step 3: Video Gen → Veo 3.1 / Flow で背景映像生成
Step 4: Lyrics Align → stable-ts で歌詞タイミング取得
Step 5: Edit → Remotion で合成(字幕・テロップ・エフェクト)
Step 6: Publish → YouTube アップロード + SNS告知
各ステップは独立実行可能。途中からの再開もOK。
エージェントが作詞する。ユーザーから以下を確認:
歌詞は project_dir/lyrics/ に保存。lyrics_raw.txt(フル歌詞)と lyrics_formatted.txt(1行=1字幕)の2ファイルを作成。
Suno (suno.com) をブラウザ自動操作で使用。
1. browser start profile=openclaw
2. browser open url=https://suno.com/create
3. browser snapshot → UI要素取得
4. Custom Mode に切替
5. Lyrics テキストボックスに歌詞入力
6. Style of Music に ジャンル/スタイル入力
7. Title を入力
8. Create ボタンクリック
9. 生成完了待ち(~2分)→ snapshot で確認
10. 気に入った方をダウンロード
project_dir/audio/ に配置2つの方式から選択:
Google AI Ultra 契約前提。詳細手順: references/flow-video.md
1. Chrome Browser Relay で Flow のプロジェクトページを開く
2. シーンごとにプロンプト入力 → 作成
3. 1080p でダウンロード(Ultra = Included)
4. project_dir/video/scenes/ に配置
GCP API 経由。scripts/generate_veo.py を使用。
python3 scripts/generate_veo.py \
--prompt "プロンプト" \
--output "scene_01.mp4" \
--project-dir /path/to/project
コスト: ~¥2,000/本(8秒クリップ)
[カメラワーク]. [被写体], [アクション]. [環境・照明]. [スタイル]. [雰囲気].
シーンリストは project_dir/video/scene_list.yaml に定義:
scenes:
- id: intro
prompt: "Slow dolly forward. Dark server room, thousands of blinking LEDs..."
duration: 8
- id: verse1
prompt: "Handheld tracking shot. Figure walking through neon-lit alley..."
duration: 8
30+シーン生成時のワークフロー:
# 1. Flow で大量生成(1プロンプト/3-5分、2本/プロンプト)
# → project_dir/video/scenes/ に配置
# 2. 品質スコアリング
source ~/.openclaw/workspace/.venv/bin/activate
python3 scripts/score_clips.py \
--input-dir project_dir/video/scenes/ \
--output project_dir/video/scores.json \
--bpm 140
# 3. 出力 (scores.json):
# - 各クリップのOK/NG判定
# - NG理由 (flicker, blur, static, morphing)
# - ベスト区間 (BPM同期の1小節=1.71秒単位)
# - 歩留まり率サマリー
スコアリング指標: | 指標 | 重み | 検出内容 | |------|------|---------| | sharpness | 0.30 | Laplacian variance → ぼけ検出 | | consistency | 0.30 | SSIM → モーフィング崩壊 | | motion | 0.25 | フレーム差分 → 静止/激しすぎ | | flicker | -0.40 | 輝度急変 → チラつき |
NG判定基準: overall < 0.15, motion < 1.0, flicker > 0.5, SSIM < 0.4, sharpness < 30
レート制限対策 (Google Flow Ultra):
歌詞のタイムスタンプを取得する。
source /Users/ishikawaryuuta/.openclaw/workspace/.venv/bin/activate
# 1. stable-ts でアライメント
python3 scripts/transcribe_align.py \
--audio "project_dir/audio/song.wav" \
--output "project_dir/analysis/aligned.json" \
--model large-v3 \
--language ja
# 2. フォーマット済み歌詞と結合
python3 scripts/reformat_lyrics.py \
--aligned "project_dir/analysis/aligned.json" \
--formatted "project_dir/lyrics/lyrics_formatted.txt" \
--output "project_dir/edit/src/data/lyrics-timing.json"
lyrics_formatted.txt を手動で1行=1字幕に整形reformat_lyrics.py で word-level timestamps をフォーマット済み行にマッピングRemotion でビデオ・字幕・エフェクトを合成。
# 新規 Remotion プロジェクトの場合
npx -y create-video@latest project_dir/edit --template blank
cd project_dir/edit
npm install
project_dir/edit/
├── public/
│ ├── song.wav # 音源
│ └── scenes/ # 動画クリップ
│ ├── scene_01.mp4
│ └── scene_02.mp4
└── src/
└── data/
└── lyrics-timing.json # Step 4 の出力
npx remotion render src/index.ts MainComposition output.mp4 \
--codec h264 \
--image-format jpeg \
--scale 1
YouTube Data API v3 を使用。セットアップ済みの場合:
node scripts/youtube-upload.js \
--file "project_dir/output/final.mp4" \
--title "曲名 - アーティスト名 [Official MV]" \
--description "描述..." \
--tags "AI,MV,music" \
--privacy public
未セットアップの場合: references/youtube-setup.md 参照。
project_dir/
├── lyrics/
│ ├── lyrics_raw.txt # フル歌詞
│ └── lyrics_formatted.txt # 1行=1字幕
├── audio/
│ └── song.wav # Suno生成の音源
├── video/
│ ├── scene_list.yaml # シーン定義
│ └── scenes/ # 生成済み動画
├── analysis/
│ └── aligned.json # stable-ts 出力
├── edit/ # Remotion プロジェクト
│ ├── src/
│ │ └── data/
│ │ └── lyrics-timing.json
│ └── public/
└── output/
└── final.mp4 # 最終出力
# プロジェクトディレクトリ作成
python3 scripts/init_project.py --name "my-song" --dir projects/
# あとは各ステップを順番に実行
# (各スクリプトの引数は --project-dir で統一)
| Script | Step | 用途 |
|--------|------|------|
| init_project.py | Setup | プロジェクトディレクトリ初期化 |
| generate_veo.py | 3 | Veo 3.1 で動画生成 |
| transcribe_align.py | 4 | stable-ts で歌詞アライメント |
| reformat_lyrics.py | 4 | フォーマット済み歌詞とタイミング結合 |
| youtube-upload.js | 6 | YouTube アップロード |
| 項目 | Flow方式 | Vertex方式 | |------|----------|------------| | 動画生成 (10本) | ¥0 (Ultra Included) | ~¥20,000 | | Suno | 無料枠 or Pro | 同左 | | Remotion | 無料 (OSS) | 同左 | | YouTube API | 無料 | 同左 | | 合計 | ~¥0 | ~¥20,000 |
File v1.0.0:_meta.json
{ "ownerId": "kn70hcm6kss09g9b4pe5rq3ybd80qp15", "slug": "mv-pipeline", "version": "1.0.0", "publishedAt": 1770498441201 }
File v1.0.0:references/flow-video.md
Google AI Ultra 契約で Veo 3.1 Fast が Included(クレジット消費なし)。
labs.google/flow にログイン済みbrowser action=start profile=chrome
browser action=open profile=chrome url=https://labs.google/fx/ja/tools/flow
browser action=snapshot → プロジェクトリンク or 新規作成ボタン確認
browser action=act kind=click ref=<project_link>
browser action=snapshot → プロンプト入力欄・作成ボタンのref取得
browser action=act kind=type ref=<prompt_box> text="プロンプト"
browser action=act kind=click ref=<create_button>
# 3-5分後
browser action=snapshot → 進捗確認(100%で完了)
# 動画カードをホバー → ダウンロードメニュー
browser action=act kind=hover ref=<video_card>
browser action=act kind=click ref=<download_button>
browser action=act kind=click ref=<1080p_option> # "capture 元のサイズ(720p)" or "high_res アップスケール(1080p)"
ファイルは ~/Downloads/ に保存。mv でプロジェクトに移動。
| 要素 | 識別 | 用途 |
|------|------|------|
| プロンプト入力 | textbox "テキストを使用して動画を生成します…" | 入力 |
| 作成ボタン | button "arrow_forward 作成" | 生成開始 |
| 設定 | button "tune 設定" | モデル・出力数変更 |
| オプション | 解像度 | コスト | |-----------|--------|--------| | GIF アニメーション | 270p | 無料 | | 元のサイズ | 720p | 無料 | | アップスケール | 1080p | Included (Ultra) | | アップスケール 4K | 4K | 50 credits |
MV用推奨: 1080p
Google AI Ultra $125/月 定額。Veo 3.1 Fast は Included。 Vertex AI 比で MV 1本あたり ¥40,000 → ¥0。
File v1.0.0:references/youtube-setup.md
YouTube Data API v3 のセットアップ手順。
既存: gen-lang-client-0383477693 (nanobanana)
~/.clawd-youtube/credentials.json に保存~/.clawd-youtube/config.env に記入mkdir -p ~/.clawd-youtube
~/.clawd-youtube/config.env:
YOUTUBE_API_KEY=your_key
YOUTUBE_CLIENT_ID=your_id.apps.googleusercontent.com
YOUTUBE_CLIENT_SECRET=your_secret
YOUTUBE_REDIRECT_URI=http://localhost:8888/oauth2callback
YOUTUBE_CHANNEL_ID=UCwRKII0cuPtXiHhGLMHlO5A
YOUTUBE_CHANNEL_NAME=AutomaticBliss
cd skills/youtube-studio
node scripts/youtube-studio.js auth
ブラウザが開く → Google アカウントでログイン → トークンが ~/.clawd-youtube/tokens.json に保存。
以降はリフレッシュトークンで自動認証。
cd skills/youtube-studio
npm install
googleapis, google-auth-library, axios, express が必要。
Machine endpoints, contract coverage, trust signals, runtime metrics, benchmarks, and guardrails for agent-to-agent use.
Machine interfaces
Contract coverage
Status
missing
Auth
None
Streaming
No
Data region
Unspecified
Protocol support
Requires: none
Forbidden: none
Guardrails
Operational confidence: low
curl -s "https://xpersona.co/api/v1/agents/clawhub-koatora20-mv-pipeline/snapshot"
curl -s "https://xpersona.co/api/v1/agents/clawhub-koatora20-mv-pipeline/contract"
curl -s "https://xpersona.co/api/v1/agents/clawhub-koatora20-mv-pipeline/trust"
Operational fit
Trust signals
Handshake
UNKNOWN
Confidence
unknown
Attempts 30d
unknown
Fallback rate
unknown
Runtime metrics
Observed P50
unknown
Observed P95
unknown
Rate limit
unknown
Estimated cost
unknown
Do not use if
Raw contract, invocation, trust, capability, facts, and change-event payloads for machine-side inspection.
Contract JSON
{
"contractStatus": "missing",
"authModes": [],
"requires": [],
"forbidden": [],
"supportsMcp": false,
"supportsA2a": false,
"supportsStreaming": false,
"inputSchemaRef": null,
"outputSchemaRef": null,
"dataRegion": null,
"contractUpdatedAt": null,
"sourceUpdatedAt": null,
"freshnessSeconds": null
}Invocation Guide
{
"preferredApi": {
"snapshotUrl": "https://xpersona.co/api/v1/agents/clawhub-koatora20-mv-pipeline/snapshot",
"contractUrl": "https://xpersona.co/api/v1/agents/clawhub-koatora20-mv-pipeline/contract",
"trustUrl": "https://xpersona.co/api/v1/agents/clawhub-koatora20-mv-pipeline/trust"
},
"curlExamples": [
"curl -s \"https://xpersona.co/api/v1/agents/clawhub-koatora20-mv-pipeline/snapshot\"",
"curl -s \"https://xpersona.co/api/v1/agents/clawhub-koatora20-mv-pipeline/contract\"",
"curl -s \"https://xpersona.co/api/v1/agents/clawhub-koatora20-mv-pipeline/trust\""
],
"jsonRequestTemplate": {
"query": "summarize this repo",
"constraints": {
"maxLatencyMs": 2000,
"protocolPreference": [
"OPENCLEW"
]
}
},
"jsonResponseTemplate": {
"ok": true,
"result": {
"summary": "...",
"confidence": 0.9
},
"meta": {
"source": "CLAWHUB",
"generatedAt": "2026-04-17T00:01:07.236Z"
}
},
"retryPolicy": {
"maxAttempts": 3,
"backoffMs": [
500,
1500,
3500
],
"retryableConditions": [
"HTTP_429",
"HTTP_503",
"NETWORK_TIMEOUT"
]
}
}Trust JSON
{
"status": "unavailable",
"handshakeStatus": "UNKNOWN",
"verificationFreshnessHours": null,
"reputationScore": null,
"p95LatencyMs": null,
"successRate30d": null,
"fallbackRate": null,
"attempts30d": null,
"trustUpdatedAt": null,
"trustConfidence": "unknown",
"sourceUpdatedAt": null,
"freshnessSeconds": null
}Capability Matrix
{
"rows": [
{
"key": "OPENCLEW",
"type": "protocol",
"support": "unknown",
"confidenceSource": "profile",
"notes": "Listed on profile"
}
],
"flattenedTokens": "protocol:OPENCLEW|unknown|profile"
}Facts JSON
[
{
"factKey": "vendor",
"category": "vendor",
"label": "Vendor",
"value": "Clawhub",
"href": "https://clawhub.ai/koatora20/mv-pipeline",
"sourceUrl": "https://clawhub.ai/koatora20/mv-pipeline",
"sourceType": "profile",
"confidence": "medium",
"observedAt": "2026-04-15T00:45:39.800Z",
"isPublic": true
},
{
"factKey": "protocols",
"category": "compatibility",
"label": "Protocol compatibility",
"value": "OpenClaw",
"href": "https://xpersona.co/api/v1/agents/clawhub-koatora20-mv-pipeline/contract",
"sourceUrl": "https://xpersona.co/api/v1/agents/clawhub-koatora20-mv-pipeline/contract",
"sourceType": "contract",
"confidence": "medium",
"observedAt": "2026-04-15T00:45:39.800Z",
"isPublic": true
},
{
"factKey": "traction",
"category": "adoption",
"label": "Adoption signal",
"value": "772 downloads",
"href": "https://clawhub.ai/koatora20/mv-pipeline",
"sourceUrl": "https://clawhub.ai/koatora20/mv-pipeline",
"sourceType": "profile",
"confidence": "medium",
"observedAt": "2026-04-15T00:45:39.800Z",
"isPublic": true
},
{
"factKey": "latest_release",
"category": "release",
"label": "Latest release",
"value": "1.0.0",
"href": "https://clawhub.ai/koatora20/mv-pipeline",
"sourceUrl": "https://clawhub.ai/koatora20/mv-pipeline",
"sourceType": "release",
"confidence": "medium",
"observedAt": "2026-02-07T21:07:21.201Z",
"isPublic": true
},
{
"factKey": "handshake_status",
"category": "security",
"label": "Handshake status",
"value": "UNKNOWN",
"href": "https://xpersona.co/api/v1/agents/clawhub-koatora20-mv-pipeline/trust",
"sourceUrl": "https://xpersona.co/api/v1/agents/clawhub-koatora20-mv-pipeline/trust",
"sourceType": "trust",
"confidence": "medium",
"observedAt": null,
"isPublic": true
}
]Change Events JSON
[
{
"eventType": "release",
"title": "Release 1.0.0",
"description": "Initial release: Full MV production pipeline. Suno → stable-ts → Veo 3.1/Flow → score_clips → Remotion → YouTube. Proven workflow used for Automatic Bliss releases.",
"href": "https://clawhub.ai/koatora20/mv-pipeline",
"sourceUrl": "https://clawhub.ai/koatora20/mv-pipeline",
"sourceType": "release",
"confidence": "medium",
"observedAt": "2026-02-07T21:07:21.201Z",
"isPublic": true
}
]Sponsored
Ads related to MV Pipeline and adjacent AI workflows.