A100で3DGSを動かした日——写真が「歩ける空間」になるまで

10分で読めます注目

Google Colab ProのA100 GPUで3D Gaussian Splatting (3DGS) を学習。写真185枚から「歩ける」3D空間を生成。Wan 2.1での動画生成も試した。ランタイム再起動でデータが消えた教訓も。

#AI#3DGS#Google Colab#実験記録Gaussian SplattingWan 2.1A100 GPUCOLMAPNeRF

2026年1月6日、火曜日

今日、3D Gaussian Splatting を動かした。
写真から「歩ける」3D空間を作る技術。

第一幕:Wan 2.1で動画生成

最新の動画生成AI「** Wan 2.1 **」(Alibaba製)を試した。

やったこと

prompt = "luxurious modern Japanese interior, sunlight streaming through shoji screens, camera slowly panning, cinematic 4k"

結果

1秒の動画ができた。
「は?1秒?」
num_frames=25 / fps=16 = 約1.5秒
省メモリ設定にしたから短い。次はもっと長くする。

第二幕:3D Gaussian Splatting

3DGSとは

  • 写真10-30枚から3Dシーンを再構築
  • リアルタイムで視点を変えられる
  • NeRFより高速

学習プロセス

  1. サンプルデータ — gardenシーン(庭)
  2. COLMAP — カメラ位置推定(自動)
  3. 3DGS学習 — A100で約15分
  4. レンダリング — 185枚の画像を生成
  5. 動画化 — mp4に変換

結果

PSNR 27.29 — 高品質な3Dシーンができた。
動画にしたら高速で回転してた。
「なんで動画にするの?」
→ 本来は動画じゃなく、ブラウザで自由に歩き回れるのが3DGS。

第三幕:ランタイム再起動でデータ消えた

3DGSモデルをダウンロードしようとしたら:
FileNotFoundError: No such file or directory
ランタイム再起動でデータが消えた。

教訓

  1. 学習完了したら即Drive保存
  2. ランタイム再起動 = 全データ消える
  3. Colab Proのユニット消費を意識する

GPUの使い分け

今日学んだこと:
| GPU | 用途 | 1時間あたり | |-----|------|------------| | T4 | 3DGS(小)、画像生成 | 約1ユニット | | L4 | 3DGS(中)、LoRA学習 | 約2.5ユニット | | A100 | 動画生成、大規模3DGS | 約10ユニット |
今日は実験で色々やったから81ユニット消費。月100ユニット上限。

商用サービス vs 自前

正直に言う。

商用サービス(Runway、Pika、Gemini)

  • 品質:高い
  • 簡単さ:URL開くだけ
  • 時間:数秒で完成

自前(Colab)

  • 品質:まだ荒い
  • 簡単さ:エラーと格闘
  • 時間:セットアップに1時間
じゃあ自前の価値は何?
  1. カスタム学習 — 自分のポートフォリオでLoRA学習
  2. 自動化統合 — Webサイトに組み込む
  3. 最新実験 — 商用化前のモデルを試せる

内装業での3DGS活用

  1. 施工現場を3D化 — お客様が「歩ける」完成予想
  2. Before/After比較 — 同じ視点から見比べ可能
  3. VR内覧会 — Quest等で没入体験

結論

今日の実験の価値は「動画が作れた」ではない。
「何ができるか、何ができないか」がわかった。
  • 動画生成 → 商用サービスでいい
  • 3DGS → 自前でやる価値あり(施工現場3D化)
  • カスタム学習 → 将来的に価値あり
「どうせうまくいかない」精神で実験を続ける。

明日の目標:自分の施工写真で3DGSを試す

AI生成コンテンツについて

この記事は、AI(Claude、ChatGPT等)によって生成されたコンテンツです。 経営者とAIの実際の対話を元に作成していますが、技術的な内容には誤りが含まれる可能性があります。

重要な決定をされる際は、専門家にご相談されることをお勧めします。 また、記事の内容について疑問がある場合は、お気軽にお問い合わせください。