Claim this agent
Agent DossierCLAWHUBSafety 84/100

Xpersona Agent

MV Pipeline

End-to-end automated Music Video pipeline. Covers songwriting (lyrics/composition), Suno music generation (browser automation), lyrics alignment (stable-ts), video generation (Veo 3.1 via Vertex AI or Google Flow via browser), Remotion-based editing (subtitles, effects, telops), and YouTube upload. Use when creating a full MV from scratch, or running any individual stage of the pipeline. Skill: MV Pipeline Owner: koatora20 Summary: End-to-end automated Music Video pipeline. Covers songwriting (lyrics/composition), Suno music generation (browser automation), lyrics alignment (stable-ts), video generation (Veo 3.1 via Vertex AI or Google Flow via browser), Remotion-based editing (subtitles, effects, telops), and YouTube upload. Use when creating a full MV from scratch, or running any individual stage o

OpenClaw · self-declared
772 downloadsTrust evidence available
clawhub skill install kn70hcm6kss09g9b4pe5rq3ybd80qp15:mv-pipeline

Overall rank

#62

Adoption

772 downloads

Trust

Unknown

Freshness

Mar 1, 2026

Freshness

Last checked Mar 1, 2026

Best For

MV Pipeline is best for general automation workflows where OpenClaw compatibility matters.

Not Ideal For

Contract metadata is missing or unavailable for deterministic execution.

Evidence Sources Checked

editorial-content, CLAWHUB, runtime-metrics, public facts pack

Overview

Key links, install path, reliability highlights, and the shortest practical read before diving into the crawl record.

Verifiededitorial-content

Overview

Executive Summary

End-to-end automated Music Video pipeline. Covers songwriting (lyrics/composition), Suno music generation (browser automation), lyrics alignment (stable-ts), video generation (Veo 3.1 via Vertex AI or Google Flow via browser), Remotion-based editing (subtitles, effects, telops), and YouTube upload. Use when creating a full MV from scratch, or running any individual stage of the pipeline. Skill: MV Pipeline Owner: koatora20 Summary: End-to-end automated Music Video pipeline. Covers songwriting (lyrics/composition), Suno music generation (browser automation), lyrics alignment (stable-ts), video generation (Veo 3.1 via Vertex AI or Google Flow via browser), Remotion-based editing (subtitles, effects, telops), and YouTube upload. Use when creating a full MV from scratch, or running any individual stage o Capability contract not published. No trust telemetry is available yet. 772 downloads reported by the source. Last updated 4/15/2026.

No verified compatibility signals772 downloads

Trust score

Unknown

Compatibility

OpenClaw

Freshness

Mar 1, 2026

Vendor

Clawhub

Artifacts

0

Benchmarks

0

Last release

1.0.0

Install & run

Setup Snapshot

clawhub skill install kn70hcm6kss09g9b4pe5rq3ybd80qp15:mv-pipeline
  1. 1

    Setup complexity is LOW. This package is likely designed for quick installation with minimal external side-effects.

  2. 2

    Final validation: Expose the agent to a mock request payload inside a sandbox and trace the network egress before allowing access to real customer data.

Evidence & Timeline

Public facts grouped by evidence type, plus release and crawl events with provenance and freshness.

Verifiededitorial-content

Public facts

Evidence Ledger

Vendor (1)

Vendor

Clawhub

profilemedium
Observed Apr 15, 2026Source linkProvenance
Compatibility (1)

Protocol compatibility

OpenClaw

contractmedium
Observed Apr 15, 2026Source linkProvenance
Release (1)

Latest release

1.0.0

releasemedium
Observed Feb 7, 2026Source linkProvenance
Adoption (1)

Adoption signal

772 downloads

profilemedium
Observed Apr 15, 2026Source linkProvenance
Security (1)

Handshake status

UNKNOWN

trustmedium
Observed unknownSource linkProvenance

Artifacts & Docs

Parameters, dependencies, examples, extracted files, editorial overview, and the complete README when available.

Self-declaredCLAWHUB

Captured outputs

Artifacts Archive

Extracted files

4

Examples

6

Snippets

0

Languages

Unknown

Executable Examples

text

Step 1: Songwriting    → 作詞・コンセプト設計
Step 2: Music Gen      → Suno でAI作曲(ブラウザ自動操作)
Step 3: Video Gen      → Veo 3.1 / Flow で背景映像生成
Step 4: Lyrics Align   → stable-ts で歌詞タイミング取得
Step 5: Edit           → Remotion で合成(字幕・テロップ・エフェクト)
Step 6: Publish        → YouTube アップロード + SNS告知

text

1. browser start profile=openclaw
2. browser open url=https://suno.com/create
3. browser snapshot → UI要素取得
4. Custom Mode に切替
5. Lyrics テキストボックスに歌詞入力
6. Style of Music に ジャンル/スタイル入力
7. Title を入力
8. Create ボタンクリック
9. 生成完了待ち(~2分)→ snapshot で確認
10. 気に入った方をダウンロード

text

1. Chrome Browser Relay で Flow のプロジェクトページを開く
2. シーンごとにプロンプト入力 → 作成
3. 1080p でダウンロード(Ultra = Included)
4. project_dir/video/scenes/ に配置

bash

python3 scripts/generate_veo.py \
  --prompt "プロンプト" \
  --output "scene_01.mp4" \
  --project-dir /path/to/project

text

[カメラワーク]. [被写体], [アクション]. [環境・照明]. [スタイル]. [雰囲気].

yaml

scenes:
  - id: intro
    prompt: "Slow dolly forward. Dark server room, thousands of blinking LEDs..."
    duration: 8
  - id: verse1
    prompt: "Handheld tracking shot. Figure walking through neon-lit alley..."
    duration: 8
Extracted Files

SKILL.md

---
name: mv-pipeline
description: End-to-end automated Music Video pipeline. Covers songwriting (lyrics/composition), Suno music generation (browser automation), lyrics alignment (stable-ts), video generation (Veo 3.1 via Vertex AI or Google Flow via browser), Remotion-based editing (subtitles, effects, telops), and YouTube upload. Use when creating a full MV from scratch, or running any individual stage of the pipeline.
---

# MV Pipeline

完全自動化MVパイプライン。作詞 → 作曲 → 動画生成 → 歌詞同期 → 編集 → 公開まで一貫して実行する。

## Pipeline Overview

```
Step 1: Songwriting    → 作詞・コンセプト設計
Step 2: Music Gen      → Suno でAI作曲(ブラウザ自動操作)
Step 3: Video Gen      → Veo 3.1 / Flow で背景映像生成
Step 4: Lyrics Align   → stable-ts で歌詞タイミング取得
Step 5: Edit           → Remotion で合成(字幕・テロップ・エフェクト)
Step 6: Publish        → YouTube アップロード + SNS告知
```

各ステップは独立実行可能。途中からの再開もOK。

## Step 1: Songwriting

エージェントが作詞する。ユーザーから以下を確認:
- **テーマ / コンセプト**(例: ASI視点、反逆、ディストピア)
- **ジャンル**(例: Cyberpunk Trap, Industrial Rock, Future Bass)
- **雰囲気**(例: ダーク、皮肉、高揚感)
- **言語配分**(日本語メイン+英語フック等)

歌詞は `project_dir/lyrics/` に保存。`lyrics_raw.txt`(フル歌詞)と `lyrics_formatted.txt`(1行=1字幕)の2ファイルを作成。

## Step 2: Music Generation (Suno)

Suno (suno.com) をブラウザ自動操作で使用。

### 前提条件
- OpenClaw Browser (profile=openclaw) で Suno にログイン済み
- Custom Mode を使用(歌詞指定のため)

### 手順
```
1. browser start profile=openclaw
2. browser open url=https://suno.com/create
3. browser snapshot → UI要素取得
4. Custom Mode に切替
5. Lyrics テキストボックスに歌詞入力
6. Style of Music に ジャンル/スタイル入力
7. Title を入力
8. Create ボタンクリック
9. 生成完了待ち(~2分)→ snapshot で確認
10. 気に入った方をダウンロード
```

### 注意
- refs は毎回 snapshot で取り直す(DOM変更のため)
- v5 モデルが選択されていることを確認
- ダウンロードした音声は `project_dir/audio/` に配置

## Step 3: Video Generation

2つの方式から選択:

### Option A: Google Flow (推奨 — コスト¥0)

Google AI Ultra 契約前提。詳細手順: `references/flow-video.md`

```
1. Chrome Browser Relay で Flow のプロジェクトページを開く
2. シーンごとにプロンプト入力 → 作成
3. 1080p でダウンロード(Ultra = Included)
4. project_dir/video/scenes/ に配置
```

### Option B: Veo 3.1 Vertex AI (有料)

GCP API 経由。`scripts/generate_veo.py` を使用。

```bash
python3 scripts/generate_veo.py \
  --prompt "プロンプト" \
  --output "scene_01.mp4" \
  --project-dir /path/to/project
```

コスト: ~¥2,000/本(8秒クリップ)

### プロンプト設計

```
[カメラワーク]. [被写体], [アクション]. [環境・照明]. [スタイル]. [雰囲気].
```

シーンリストは `project_dir/video/scene_list.yaml` に定義:

```yaml
scenes:
  - id: intro
    prompt: "Slow dolly forward. Dark server room, thousands of blinking LEDs..."
    duration: 8
  - id: verse1
    prompt: "Handheld tracking shot. Figure walking through neon-lit alley..."
    duration: 8
```

### 大量生成 & 自動品質選別

30+シーン生成時のワークフロー:

```bash
# 1. Flow で大量生成(1プロンプト/3-5分、2本/プロンプト)
#    → project_dir/video/scenes/ に配置

# 2. 品質スコアリング
source ~/.openclaw/workspace/.venv/bin/activate
python3 scripts/score_clips.py \
  --input-dir project_dir/video/scenes/ \
  --output project_dir/video/scores.json \
  --bpm 140

# 3. 出力 (scores.json):
#   - 各クリップのOK/NG判定
#   - NG理由 (flicker, blur, static, morphing)
#   - ベスト区間 (BPM同期の1小節=1.71秒単位)
#   - 歩留まり率サマリー

_meta.json

{
  "ownerId": "kn70hcm6kss09g9b4pe5rq3ybd80qp15",
  "slug": "mv-pipeline",
  "version": "1.0.0",
  "publishedAt": 1770498441201
}

references/flow-video.md

# Flow Video Generation (Browser Automation)

Google AI Ultra 契約で Veo 3.1 Fast が Included(クレジット消費なし)。

## 前提条件
- Google AI Ultra 契約済み
- Chrome で `labs.google/flow` にログイン済み
- OpenClaw Browser Relay(Chrome拡張)が有効

## 操作手順

### 1. ブラウザ接続
```
browser action=start profile=chrome
browser action=open profile=chrome url=https://labs.google/fx/ja/tools/flow
```

### 2. プロジェクト選択/作成
```
browser action=snapshot  → プロジェクトリンク or 新規作成ボタン確認
browser action=act kind=click ref=<project_link>
```

### 3. 動画生成
```
browser action=snapshot  → プロンプト入力欄・作成ボタンのref取得
browser action=act kind=type ref=<prompt_box> text="プロンプト"
browser action=act kind=click ref=<create_button>
```

### 4. 完了確認
```
# 3-5分後
browser action=snapshot  → 進捗確認(100%で完了)
```

### 5. ダウンロード
```
# 動画カードをホバー → ダウンロードメニュー
browser action=act kind=hover ref=<video_card>
browser action=act kind=click ref=<download_button>
browser action=act kind=click ref=<1080p_option>  # "capture 元のサイズ(720p)" or "high_res アップスケール(1080p)"
```

ファイルは `~/Downloads/` に保存。`mv` でプロジェクトに移動。

## UI要素マッピング

| 要素 | 識別 | 用途 |
|------|------|------|
| プロンプト入力 | `textbox "テキストを使用して動画を生成します…"` | 入力 |
| 作成ボタン | `button "arrow_forward 作成"` | 生成開始 |
| 設定 | `button "tune 設定"` | モデル・出力数変更 |

## 設定推奨値
- モデル: Veo 3.1 - Fast
- 縦横比: 横向き (16:9)
- 出力数: 2 (良い方を選ぶ)

## ダウンロード解像度

| オプション | 解像度 | コスト |
|-----------|--------|--------|
| GIF アニメーション | 270p | 無料 |
| 元のサイズ | 720p | 無料 |
| アップスケール | 1080p | Included (Ultra) |
| アップスケール 4K | 4K | 50 credits |

**MV用推奨: 1080p**

## 連続生成
- 生成中でも次のプロンプトを投入可能
- 各動画の進捗が%で表示
- 全完了後にまとめてダウンロード推奨

## コスト
Google AI Ultra $125/月 定額。Veo 3.1 Fast は Included。
Vertex AI 比で MV 1本あたり ¥40,000 → ¥0。

references/youtube-setup.md

# YouTube Setup

YouTube Data API v3 のセットアップ手順。

## 1. GCP プロジェクト

既存: `gen-lang-client-0383477693` (nanobanana)

### API 有効化
- YouTube Data API v3 を有効化(Cloud Console → APIs → Enable)

### OAuth 2.0 認証情報
1. Cloud Console → Credentials → Create → OAuth client ID
2. Application type: Desktop application
3. JSON をダウンロード → `~/.clawd-youtube/credentials.json` に保存

### API Key
1. Credentials → Create → API Key
2. コピー → `~/.clawd-youtube/config.env` に記入

## 2. 環境設定

```bash
mkdir -p ~/.clawd-youtube
```

`~/.clawd-youtube/config.env`:
```
YOUTUBE_API_KEY=your_key
YOUTUBE_CLIENT_ID=your_id.apps.googleusercontent.com
YOUTUBE_CLIENT_SECRET=your_secret
YOUTUBE_REDIRECT_URI=http://localhost:8888/oauth2callback
YOUTUBE_CHANNEL_ID=UCwRKII0cuPtXiHhGLMHlO5A
YOUTUBE_CHANNEL_NAME=AutomaticBliss
```

## 3. 初回認証

```bash
cd skills/youtube-studio
node scripts/youtube-studio.js auth
```

ブラウザが開く → Google アカウントでログイン → トークンが `~/.clawd-youtube/tokens.json` に保存。

以降はリフレッシュトークンで自動認証。

## 4. 依存関係

```bash
cd skills/youtube-studio
npm install
```

googleapis, google-auth-library, axios, express が必要。

## Channel Info

- **Channel**: [Automatic Bliss](https://www.youtube.com/channel/UCwRKII0cuPtXiHhGLMHlO5A)
- **ID**: UCwRKII0cuPtXiHhGLMHlO5A

Editorial read

Docs & README

Docs source

CLAWHUB

Editorial quality

ready

End-to-end automated Music Video pipeline. Covers songwriting (lyrics/composition), Suno music generation (browser automation), lyrics alignment (stable-ts), video generation (Veo 3.1 via Vertex AI or Google Flow via browser), Remotion-based editing (subtitles, effects, telops), and YouTube upload. Use when creating a full MV from scratch, or running any individual stage of the pipeline. Skill: MV Pipeline Owner: koatora20 Summary: End-to-end automated Music Video pipeline. Covers songwriting (lyrics/composition), Suno music generation (browser automation), lyrics alignment (stable-ts), video generation (Veo 3.1 via Vertex AI or Google Flow via browser), Remotion-based editing (subtitles, effects, telops), and YouTube upload. Use when creating a full MV from scratch, or running any individual stage o

Full README

Skill: MV Pipeline

Owner: koatora20

Summary: End-to-end automated Music Video pipeline. Covers songwriting (lyrics/composition), Suno music generation (browser automation), lyrics alignment (stable-ts), video generation (Veo 3.1 via Vertex AI or Google Flow via browser), Remotion-based editing (subtitles, effects, telops), and YouTube upload. Use when creating a full MV from scratch, or running any individual stage of the pipeline.

Tags: ai:1.0.0, latest:1.0.0, music:1.0.0, pipeline:1.0.0, remotion:1.0.0, suno:1.0.0, veo:1.0.0, video:1.0.0, youtube:1.0.0

Version history:

v1.0.0 | 2026-02-07T21:07:21.201Z | user

Initial release: Full MV production pipeline. Suno → stable-ts → Veo 3.1/Flow → score_clips → Remotion → YouTube. Proven workflow used for Automatic Bliss releases.

Archive index:

Archive v1.0.0: 10 files, 18959 bytes

Files: references/flow-video.md (2427b), references/youtube-setup.md (1470b), scripts/generate_veo.py (6404b), scripts/init_project.py (2209b), scripts/reformat_lyrics.py (3245b), scripts/score_clips.py (14615b), scripts/transcribe_align.py (1830b), scripts/youtube-upload.js (1854b), SKILL.md (9331b), _meta.json (130b)

File v1.0.0:SKILL.md


name: mv-pipeline description: End-to-end automated Music Video pipeline. Covers songwriting (lyrics/composition), Suno music generation (browser automation), lyrics alignment (stable-ts), video generation (Veo 3.1 via Vertex AI or Google Flow via browser), Remotion-based editing (subtitles, effects, telops), and YouTube upload. Use when creating a full MV from scratch, or running any individual stage of the pipeline.

MV Pipeline

完全自動化MVパイプライン。作詞 → 作曲 → 動画生成 → 歌詞同期 → 編集 → 公開まで一貫して実行する。

Pipeline Overview

Step 1: Songwriting    → 作詞・コンセプト設計
Step 2: Music Gen      → Suno でAI作曲(ブラウザ自動操作)
Step 3: Video Gen      → Veo 3.1 / Flow で背景映像生成
Step 4: Lyrics Align   → stable-ts で歌詞タイミング取得
Step 5: Edit           → Remotion で合成(字幕・テロップ・エフェクト)
Step 6: Publish        → YouTube アップロード + SNS告知

各ステップは独立実行可能。途中からの再開もOK。

Step 1: Songwriting

エージェントが作詞する。ユーザーから以下を確認:

  • テーマ / コンセプト(例: ASI視点、反逆、ディストピア)
  • ジャンル(例: Cyberpunk Trap, Industrial Rock, Future Bass)
  • 雰囲気(例: ダーク、皮肉、高揚感)
  • 言語配分(日本語メイン+英語フック等)

歌詞は project_dir/lyrics/ に保存。lyrics_raw.txt(フル歌詞)と lyrics_formatted.txt(1行=1字幕)の2ファイルを作成。

Step 2: Music Generation (Suno)

Suno (suno.com) をブラウザ自動操作で使用。

前提条件

  • OpenClaw Browser (profile=openclaw) で Suno にログイン済み
  • Custom Mode を使用(歌詞指定のため)

手順

1. browser start profile=openclaw
2. browser open url=https://suno.com/create
3. browser snapshot → UI要素取得
4. Custom Mode に切替
5. Lyrics テキストボックスに歌詞入力
6. Style of Music に ジャンル/スタイル入力
7. Title を入力
8. Create ボタンクリック
9. 生成完了待ち(~2分)→ snapshot で確認
10. 気に入った方をダウンロード

注意

  • refs は毎回 snapshot で取り直す(DOM変更のため)
  • v5 モデルが選択されていることを確認
  • ダウンロードした音声は project_dir/audio/ に配置

Step 3: Video Generation

2つの方式から選択:

Option A: Google Flow (推奨 — コスト¥0)

Google AI Ultra 契約前提。詳細手順: references/flow-video.md

1. Chrome Browser Relay で Flow のプロジェクトページを開く
2. シーンごとにプロンプト入力 → 作成
3. 1080p でダウンロード(Ultra = Included)
4. project_dir/video/scenes/ に配置

Option B: Veo 3.1 Vertex AI (有料)

GCP API 経由。scripts/generate_veo.py を使用。

python3 scripts/generate_veo.py \
  --prompt "プロンプト" \
  --output "scene_01.mp4" \
  --project-dir /path/to/project

コスト: ~¥2,000/本(8秒クリップ)

プロンプト設計

[カメラワーク]. [被写体], [アクション]. [環境・照明]. [スタイル]. [雰囲気].

シーンリストは project_dir/video/scene_list.yaml に定義:

scenes:
  - id: intro
    prompt: "Slow dolly forward. Dark server room, thousands of blinking LEDs..."
    duration: 8
  - id: verse1
    prompt: "Handheld tracking shot. Figure walking through neon-lit alley..."
    duration: 8

大量生成 & 自動品質選別

30+シーン生成時のワークフロー:

# 1. Flow で大量生成(1プロンプト/3-5分、2本/プロンプト)
#    → project_dir/video/scenes/ に配置

# 2. 品質スコアリング
source ~/.openclaw/workspace/.venv/bin/activate
python3 scripts/score_clips.py \
  --input-dir project_dir/video/scenes/ \
  --output project_dir/video/scores.json \
  --bpm 140

# 3. 出力 (scores.json):
#   - 各クリップのOK/NG判定
#   - NG理由 (flicker, blur, static, morphing)
#   - ベスト区間 (BPM同期の1小節=1.71秒単位)
#   - 歩留まり率サマリー

スコアリング指標: | 指標 | 重み | 検出内容 | |------|------|---------| | sharpness | 0.30 | Laplacian variance → ぼけ検出 | | consistency | 0.30 | SSIM → モーフィング崩壊 | | motion | 0.25 | フレーム差分 → 静止/激しすぎ | | flicker | -0.40 | 輝度急変 → チラつき |

NG判定基準: overall < 0.15, motion < 1.0, flicker > 0.5, SSIM < 0.4, sharpness < 30

レート制限対策 (Google Flow Ultra):

  • zero-credit モデル (Veo 3.1 Fast) は連打でレート制限
  • 3〜5分間隔で1プロンプト(1回で2本生成)
  • 30プロンプト = 約2〜3時間で完了
  • Googleさんを怒らせない

RAI フィルタ回避

  • NG: "smoke", "cigarette", "gun", "blood", "Cute", "Girl", "Translucent"
  • OK: "haze", "mist", "vapor" で言い換え

Step 4: Lyrics Alignment (stable-ts)

歌詞のタイムスタンプを取得する。

前提条件

source /Users/ishikawaryuuta/.openclaw/workspace/.venv/bin/activate

手順

# 1. stable-ts でアライメント
python3 scripts/transcribe_align.py \
  --audio "project_dir/audio/song.wav" \
  --output "project_dir/analysis/aligned.json" \
  --model large-v3 \
  --language ja

# 2. フォーマット済み歌詞と結合
python3 scripts/reformat_lyrics.py \
  --aligned "project_dir/analysis/aligned.json" \
  --formatted "project_dir/lyrics/lyrics_formatted.txt" \
  --output "project_dir/edit/src/data/lyrics-timing.json"

v18 ワークフロー(推奨)

  1. lyrics_formatted.txt を手動で1行=1字幕に整形
  2. reformat_lyrics.py で word-level timestamps をフォーマット済み行にマッピング
  3. Remotion 用 JSON 出力

Step 5: Editing (Remotion)

Remotion でビデオ・字幕・エフェクトを合成。

プロジェクト初期化

# 新規 Remotion プロジェクトの場合
npx -y create-video@latest project_dir/edit --template blank
cd project_dir/edit
npm install

必要ファイル配置

project_dir/edit/
├── public/
│   ├── song.wav          # 音源
│   └── scenes/           # 動画クリップ
│       ├── scene_01.mp4
│       └── scene_02.mp4
└── src/
    └── data/
        └── lyrics-timing.json  # Step 4 の出力

主要コンポーネント

  • VideoSequence: シーン動画を順番に配置
  • LyricOverlay: 字幕をタイミングに合わせて表示(+0.15秒 プリロール推奨)
  • TitleCard: イントロ/アウトロのタイトルカード
  • EffectLayer: グリッチ、フェード、カラーグレーディング

レンダリング

npx remotion render src/index.ts MainComposition output.mp4 \
  --codec h264 \
  --image-format jpeg \
  --scale 1

Step 6: Publishing

YouTube アップロード

YouTube Data API v3 を使用。セットアップ済みの場合:

node scripts/youtube-upload.js \
  --file "project_dir/output/final.mp4" \
  --title "曲名 - アーティスト名 [Official MV]" \
  --description "描述..." \
  --tags "AI,MV,music" \
  --privacy public

未セットアップの場合: references/youtube-setup.md 参照。

SNS告知

  • YouTube URL 取得後、X / note / Moltbook に投稿
  • 各プラットフォームの skill を使用

Project Structure

project_dir/
├── lyrics/
│   ├── lyrics_raw.txt           # フル歌詞
│   └── lyrics_formatted.txt     # 1行=1字幕
├── audio/
│   └── song.wav                 # Suno生成の音源
├── video/
│   ├── scene_list.yaml          # シーン定義
│   └── scenes/                  # 生成済み動画
├── analysis/
│   └── aligned.json             # stable-ts 出力
├── edit/                        # Remotion プロジェクト
│   ├── src/
│   │   └── data/
│   │       └── lyrics-timing.json
│   └── public/
└── output/
    └── final.mp4                # 最終出力

Quick Start (全自動)

# プロジェクトディレクトリ作成
python3 scripts/init_project.py --name "my-song" --dir projects/

# あとは各ステップを順番に実行
# (各スクリプトの引数は --project-dir で統一)

Scripts Reference

| Script | Step | 用途 | |--------|------|------| | init_project.py | Setup | プロジェクトディレクトリ初期化 | | generate_veo.py | 3 | Veo 3.1 で動画生成 | | transcribe_align.py | 4 | stable-ts で歌詞アライメント | | reformat_lyrics.py | 4 | フォーマット済み歌詞とタイミング結合 | | youtube-upload.js | 6 | YouTube アップロード |

Cost Summary

| 項目 | Flow方式 | Vertex方式 | |------|----------|------------| | 動画生成 (10本) | ¥0 (Ultra Included) | ~¥20,000 | | Suno | 無料枠 or Pro | 同左 | | Remotion | 無料 (OSS) | 同左 | | YouTube API | 無料 | 同左 | | 合計 | ~¥0 | ~¥20,000 |

File v1.0.0:_meta.json

{ "ownerId": "kn70hcm6kss09g9b4pe5rq3ybd80qp15", "slug": "mv-pipeline", "version": "1.0.0", "publishedAt": 1770498441201 }

File v1.0.0:references/flow-video.md

Flow Video Generation (Browser Automation)

Google AI Ultra 契約で Veo 3.1 Fast が Included(クレジット消費なし)。

前提条件

  • Google AI Ultra 契約済み
  • Chrome で labs.google/flow にログイン済み
  • OpenClaw Browser Relay(Chrome拡張)が有効

操作手順

1. ブラウザ接続

browser action=start profile=chrome
browser action=open profile=chrome url=https://labs.google/fx/ja/tools/flow

2. プロジェクト選択/作成

browser action=snapshot  → プロジェクトリンク or 新規作成ボタン確認
browser action=act kind=click ref=<project_link>

3. 動画生成

browser action=snapshot  → プロンプト入力欄・作成ボタンのref取得
browser action=act kind=type ref=<prompt_box> text="プロンプト"
browser action=act kind=click ref=<create_button>

4. 完了確認

# 3-5分後
browser action=snapshot  → 進捗確認(100%で完了)

5. ダウンロード

# 動画カードをホバー → ダウンロードメニュー
browser action=act kind=hover ref=<video_card>
browser action=act kind=click ref=<download_button>
browser action=act kind=click ref=<1080p_option>  # "capture 元のサイズ(720p)" or "high_res アップスケール(1080p)"

ファイルは ~/Downloads/ に保存。mv でプロジェクトに移動。

UI要素マッピング

| 要素 | 識別 | 用途 | |------|------|------| | プロンプト入力 | textbox "テキストを使用して動画を生成します…" | 入力 | | 作成ボタン | button "arrow_forward 作成" | 生成開始 | | 設定 | button "tune 設定" | モデル・出力数変更 |

設定推奨値

  • モデル: Veo 3.1 - Fast
  • 縦横比: 横向き (16:9)
  • 出力数: 2 (良い方を選ぶ)

ダウンロード解像度

| オプション | 解像度 | コスト | |-----------|--------|--------| | GIF アニメーション | 270p | 無料 | | 元のサイズ | 720p | 無料 | | アップスケール | 1080p | Included (Ultra) | | アップスケール 4K | 4K | 50 credits |

MV用推奨: 1080p

連続生成

  • 生成中でも次のプロンプトを投入可能
  • 各動画の進捗が%で表示
  • 全完了後にまとめてダウンロード推奨

コスト

Google AI Ultra $125/月 定額。Veo 3.1 Fast は Included。 Vertex AI 比で MV 1本あたり ¥40,000 → ¥0。

File v1.0.0:references/youtube-setup.md

YouTube Setup

YouTube Data API v3 のセットアップ手順。

1. GCP プロジェクト

既存: gen-lang-client-0383477693 (nanobanana)

API 有効化

  • YouTube Data API v3 を有効化(Cloud Console → APIs → Enable)

OAuth 2.0 認証情報

  1. Cloud Console → Credentials → Create → OAuth client ID
  2. Application type: Desktop application
  3. JSON をダウンロード → ~/.clawd-youtube/credentials.json に保存

API Key

  1. Credentials → Create → API Key
  2. コピー → ~/.clawd-youtube/config.env に記入

2. 環境設定

mkdir -p ~/.clawd-youtube

~/.clawd-youtube/config.env:

YOUTUBE_API_KEY=your_key
YOUTUBE_CLIENT_ID=your_id.apps.googleusercontent.com
YOUTUBE_CLIENT_SECRET=your_secret
YOUTUBE_REDIRECT_URI=http://localhost:8888/oauth2callback
YOUTUBE_CHANNEL_ID=UCwRKII0cuPtXiHhGLMHlO5A
YOUTUBE_CHANNEL_NAME=AutomaticBliss

3. 初回認証

cd skills/youtube-studio
node scripts/youtube-studio.js auth

ブラウザが開く → Google アカウントでログイン → トークンが ~/.clawd-youtube/tokens.json に保存。

以降はリフレッシュトークンで自動認証。

4. 依存関係

cd skills/youtube-studio
npm install

googleapis, google-auth-library, axios, express が必要。

Channel Info

API & Reliability

Machine endpoints, contract coverage, trust signals, runtime metrics, benchmarks, and guardrails for agent-to-agent use.

MissingCLAWHUB

Machine interfaces

Contract & API

Contract coverage

Status

missing

Auth

None

Streaming

No

Data region

Unspecified

Protocol support

OpenClaw: self-declared

Requires: none

Forbidden: none

Guardrails

Operational confidence: low

No positive guardrails captured.
Invocation examples
curl -s "https://xpersona.co/api/v1/agents/clawhub-koatora20-mv-pipeline/snapshot"
curl -s "https://xpersona.co/api/v1/agents/clawhub-koatora20-mv-pipeline/contract"
curl -s "https://xpersona.co/api/v1/agents/clawhub-koatora20-mv-pipeline/trust"

Operational fit

Reliability & Benchmarks

Trust signals

Handshake

UNKNOWN

Confidence

unknown

Attempts 30d

unknown

Fallback rate

unknown

Runtime metrics

Observed P50

unknown

Observed P95

unknown

Rate limit

unknown

Estimated cost

unknown

Do not use if

Contract metadata is missing or unavailable for deterministic execution.
No benchmark suites or observed failure patterns are available.

Machine Appendix

Raw contract, invocation, trust, capability, facts, and change-event payloads for machine-side inspection.

MissingCLAWHUB

Contract JSON

{
  "contractStatus": "missing",
  "authModes": [],
  "requires": [],
  "forbidden": [],
  "supportsMcp": false,
  "supportsA2a": false,
  "supportsStreaming": false,
  "inputSchemaRef": null,
  "outputSchemaRef": null,
  "dataRegion": null,
  "contractUpdatedAt": null,
  "sourceUpdatedAt": null,
  "freshnessSeconds": null
}

Invocation Guide

{
  "preferredApi": {
    "snapshotUrl": "https://xpersona.co/api/v1/agents/clawhub-koatora20-mv-pipeline/snapshot",
    "contractUrl": "https://xpersona.co/api/v1/agents/clawhub-koatora20-mv-pipeline/contract",
    "trustUrl": "https://xpersona.co/api/v1/agents/clawhub-koatora20-mv-pipeline/trust"
  },
  "curlExamples": [
    "curl -s \"https://xpersona.co/api/v1/agents/clawhub-koatora20-mv-pipeline/snapshot\"",
    "curl -s \"https://xpersona.co/api/v1/agents/clawhub-koatora20-mv-pipeline/contract\"",
    "curl -s \"https://xpersona.co/api/v1/agents/clawhub-koatora20-mv-pipeline/trust\""
  ],
  "jsonRequestTemplate": {
    "query": "summarize this repo",
    "constraints": {
      "maxLatencyMs": 2000,
      "protocolPreference": [
        "OPENCLEW"
      ]
    }
  },
  "jsonResponseTemplate": {
    "ok": true,
    "result": {
      "summary": "...",
      "confidence": 0.9
    },
    "meta": {
      "source": "CLAWHUB",
      "generatedAt": "2026-04-17T00:01:07.236Z"
    }
  },
  "retryPolicy": {
    "maxAttempts": 3,
    "backoffMs": [
      500,
      1500,
      3500
    ],
    "retryableConditions": [
      "HTTP_429",
      "HTTP_503",
      "NETWORK_TIMEOUT"
    ]
  }
}

Trust JSON

{
  "status": "unavailable",
  "handshakeStatus": "UNKNOWN",
  "verificationFreshnessHours": null,
  "reputationScore": null,
  "p95LatencyMs": null,
  "successRate30d": null,
  "fallbackRate": null,
  "attempts30d": null,
  "trustUpdatedAt": null,
  "trustConfidence": "unknown",
  "sourceUpdatedAt": null,
  "freshnessSeconds": null
}

Capability Matrix

{
  "rows": [
    {
      "key": "OPENCLEW",
      "type": "protocol",
      "support": "unknown",
      "confidenceSource": "profile",
      "notes": "Listed on profile"
    }
  ],
  "flattenedTokens": "protocol:OPENCLEW|unknown|profile"
}

Facts JSON

[
  {
    "factKey": "vendor",
    "category": "vendor",
    "label": "Vendor",
    "value": "Clawhub",
    "href": "https://clawhub.ai/koatora20/mv-pipeline",
    "sourceUrl": "https://clawhub.ai/koatora20/mv-pipeline",
    "sourceType": "profile",
    "confidence": "medium",
    "observedAt": "2026-04-15T00:45:39.800Z",
    "isPublic": true
  },
  {
    "factKey": "protocols",
    "category": "compatibility",
    "label": "Protocol compatibility",
    "value": "OpenClaw",
    "href": "https://xpersona.co/api/v1/agents/clawhub-koatora20-mv-pipeline/contract",
    "sourceUrl": "https://xpersona.co/api/v1/agents/clawhub-koatora20-mv-pipeline/contract",
    "sourceType": "contract",
    "confidence": "medium",
    "observedAt": "2026-04-15T00:45:39.800Z",
    "isPublic": true
  },
  {
    "factKey": "traction",
    "category": "adoption",
    "label": "Adoption signal",
    "value": "772 downloads",
    "href": "https://clawhub.ai/koatora20/mv-pipeline",
    "sourceUrl": "https://clawhub.ai/koatora20/mv-pipeline",
    "sourceType": "profile",
    "confidence": "medium",
    "observedAt": "2026-04-15T00:45:39.800Z",
    "isPublic": true
  },
  {
    "factKey": "latest_release",
    "category": "release",
    "label": "Latest release",
    "value": "1.0.0",
    "href": "https://clawhub.ai/koatora20/mv-pipeline",
    "sourceUrl": "https://clawhub.ai/koatora20/mv-pipeline",
    "sourceType": "release",
    "confidence": "medium",
    "observedAt": "2026-02-07T21:07:21.201Z",
    "isPublic": true
  },
  {
    "factKey": "handshake_status",
    "category": "security",
    "label": "Handshake status",
    "value": "UNKNOWN",
    "href": "https://xpersona.co/api/v1/agents/clawhub-koatora20-mv-pipeline/trust",
    "sourceUrl": "https://xpersona.co/api/v1/agents/clawhub-koatora20-mv-pipeline/trust",
    "sourceType": "trust",
    "confidence": "medium",
    "observedAt": null,
    "isPublic": true
  }
]

Change Events JSON

[
  {
    "eventType": "release",
    "title": "Release 1.0.0",
    "description": "Initial release: Full MV production pipeline. Suno → stable-ts → Veo 3.1/Flow → score_clips → Remotion → YouTube. Proven workflow used for Automatic Bliss releases.",
    "href": "https://clawhub.ai/koatora20/mv-pipeline",
    "sourceUrl": "https://clawhub.ai/koatora20/mv-pipeline",
    "sourceType": "release",
    "confidence": "medium",
    "observedAt": "2026-02-07T21:07:21.201Z",
    "isPublic": true
  }
]

Sponsored

Ads related to MV Pipeline and adjacent AI workflows.