稼働ログ・ベンチマーク
「日本一」の根拠を数字で積み上げる
◈ ダッシュボード
設計メモ: このパネルの目的は「一人法人+AIエージェントで日本一」の根拠を数字で証明すること。 記録する軸は ①時間(人間 vs AI)、②コスト(AI費用/案件)、③品質(バグ率・テスト通過率)、④スピード(従来比)の4つ。 まず自社案件で計測し、顧客への提案資料・実績レポートに転用する。
累計完了案件
3
2026年4月〜
AI自動化率(平均)
78%
人間 22% / AI 78%
従来比スピード
4.2×
一般SIer比 推定
AI費用/案件(平均)
¥1,240
Claude + GitHub Copilot
◎ AI開発受託 自動化レベル(sirube独自定義)
日本一の根拠となる独自指標
Lv.0
人力
全工程
人間が担当
Lv.1
AI補助
Copilot
程度の支援
Lv.2
部分自動
テスト・コード
生成のみ
Lv.3
ループ稼働
要件→実装→
テスト自動化
Lv.4 ◀ 現在
全工程連携
相談→承認→
デプロイ完全自動
Lv.5
実績公開
Lv.4+顧客
導入支援可能
現在 Lv.4 ▶ 次の目標:モニター案件1件完走でLv.5認定 Lv.5 到達時に「日本一」宣言
業界比較ベンチマーク(自社 vs 一般SIer)
着手までのリードタイム
2h
2〜4週間
相談受付からtask.md生成・実装開始まで
業界比 約80×
AI費用/案件
¥1,240
人件費換算不能
Claude API + Copilot 按分費用
コスト構造が根本的に違う
人間の稼働時間/案件
4.2h
40〜80h
承認・確認・方針決定のみ人間が担当
約10〜20× 効率化
テスト自動化率
100%
30〜50%(業界平均)
Jest + supertest 全エンドポイント
10テスト 全PASS
ドキュメント自動生成率
90%
ほぼ0%
SPEC.md / API設計書 / task.md 自動生成
引き継ぎコスト ほぼゼロ
デプロイ頻度
随時
月1〜週1
GitHub Actions mainブランチ自動デプロイ
CI/CD 完全自動化
✦ 案件ログ
案件名 ステータス AI率 人間時間 AI費用 従来比 Lv
sirube-dev-platform
自社基幹システム
進行中 78% 32h ¥3,840 4.2× Lv.3
顧客管理システム PoC
(仮)デモ案件
完了 82% 8h ¥620 5.1× Lv.3
Webhook自動化基盤
(仮)デモ案件
完了 71% 14h ¥1,260 3.8× Lv.3
※ 「従来比」は一般的なSIer工数を推定して算出。顧客案件では実測値に置き換える。
AI費用内訳
今月
🤖
Claude API
Sonnet 4.6 主体
¥3,200
GitHub Copilot
月額固定
¥1,430
🖥
VPS(さくら)
1,738円/月 按分
¥580
🔧
n8n / その他
セルフホスト
¥0
今月合計
¥5,210
案件3件 ÷ ¥5,210 = ¥1,737/案件
人間 vs AI 時間内訳
sirube-dev-platform 案件
要件定義・相談
人間 3h
5h
設計・SPEC.md
人1h
5h
実装(コーディング)
AI 自動
18h
テスト・検証
Jest 自動
3h
デプロイ・確認
承認
Actions 自動
1h
人間の作業
AI自動処理
人間の実質作業: 約7時間 / AI処理: 約25時間相当 → AI自動化率 78%
操作ログ(本日)
2026/04/06
09:12
Decision #7 承認 → task.md 自動生成
AI(WF-02)
管理UI ダッシュボード追加
09:15
GitHub Issue #12 自動作成
AI(n8n WF-02)
lab-masaharu/sirube-dev-platform
10:30
dashboard.html / index.html 実装・レビュー
森(人間)
Claude Code 経由
10:48
git push → GitHub Actions デプロイ完了
AI(Actions)
テスト10件 全PASS
11:20
稼働ログパネル 要件確認・設計
森(人間)
Claude と議論
+ 稼働を記録する(手動入力)
作業内容
実施者
時間(h)
案件