ローカルAIのファインチューニング:「表面的な指示」から「血肉化された知識」へ

ローカルAIのファインチューニング:「表面的な指示」から「血肉化された知識」へ

12分で読めます注目

Ollamaのモデルカスタマイズは「ホッチキス」だった。本物のファインチューニングとは何か、そしてなぜローカルPCでは不可能なのか。Google Colabで実現する、真の「あなた専用AI」構築の全記録。

#本質理解#物理的制約#Google ColabLlama 3ファインチューニングQLoRAUnslothOllama

発端:「タクミモデル」という誤解

今日、ローカルPC(Ollama)に「タクミモデル」という1.3GBのAIが存在していた。

しかし、これは本物のファインチューニング(FT)ではなかった


1. 「ホッチキス」と「血肉化」の違い

Ollamaのcreateコマンドは何をしているのか?

このコマンドは、システムプロンプト(指示書)を「焼き付ける」だけである。

これは、ベースモデル(Llama 3.2 1B)に「指示書」をホッチキスで留めただけである。

なぜこれが「ホッチキス」なのか?

  • 重み(パラメータ)は一切変化していない
  • 新しい知識は学習していない
  • 会話のたびに「指示書」を読み直している

2. 本物のファインチューニング(FT)とは何か?

FTの本質:「重みの更新」

ファインチューニングとは、AIの脳(ニューラルネットワークの重み)を、あなたのデータで『再教育』することである。

比喩:

  • ホッチキス(Ollama create): 教科書の表紙に「職人として振る舞え」とメモを貼る
  • FT(ファインチューニング): 教科書の本文そのものを、職人の会話データで書き換える

3. なぜローカルPCでFTできないのか?

私のPCスペック

CPU: Snapdragon X Elite
GPU: Qualcomm Adreno X1-45 (ARM系、統合GPU)
RAM: 16GB(空き 6.9GB)

FTに必要なスペック

GPU: NVIDIA CUDA対応GPU(RTX 3060以上推奨)
VRAM: 8GB以上(Llama 3 8BのQLoRA FTに最低限必要)

結論: 私のPCでは、本物のFTは物理的に不可能である。


4. 解決策:Google Colab(無料GPU)

Google Colabとは?

  • 無料でT4 GPU(VRAM 15GB)が使えるクラウド環境
  • ブラウザだけで機械学習が実行可能

今日実装したFTワークフロー

ステップ1: トレーニングデータ作成

10個の哲学的対話サンプルを作成(takumi_philosophy_training.jsonl

データソース:

  • ADYASHANTI_PHILOSOPHY.md - アジャシャンティの非二元論
  • 2025-11-08-ai-philosophy-dialogue.md - 「私は誰か?」という問い
  • 2025-11-08-buildee-small-start.md - Small Start戦略

ステップ2: FTスクリプト作成

Unsloth + QLoRAを使用した、業界標準の「定石」

所要時間: 約10-20分(T4 GPU、10サンプル×3エポック)


5. 「10サンプルは少なすぎる」という問題

現状

  • トレーニングデータ: 10サンプル
  • MDファイル: 約20ファイル(哲学・戦略・対話記録)

本来の目標

  • 100サンプルまで拡張したい
  • しかし、手動作成は現実的でない

6. FTの「本質」:なぜ表面的ではダメなのか?

Ollama createの限界

問題点1: 毎回指示を読む

  • システムプロンプトは「会話のたびに読み直される」
  • トークン消費が多い

問題点2: 知識が「外付け」

  • 哲学的概念を理解していない

問題点3: 口調が不安定

  • 「だ・ぜ・さ」と指示しても、長い会話で崩れる

FTの強み

利点1: 知識が「思考回路」に組み込まれる

  • 「Who am I?」と聞かれたら、ラマナ・マハルシの自己探求を自然に展開

利点2: 口調が「性格」になる

  • システムプロンプトなしでも、自然に「だ・ぜ・さ」で話す

利点3: トークン効率が良い

  • システムプロンプトが不要(重みに組み込まれているため)

7. 今日の結論:3つの発見

発見1: Ollamaのcreateは「ホッチキス」

ollama createは、本物のFTではない。

システムプロンプトを「焼き付ける」だけで、重み(パラメータ)は一切変化していない。

これは「表面的なカスタマイズ」であり、「血肉化」ではない。

発見2: ローカルPCでのFTは物理的に不可能

私のPC(Qualcomm Adreno GPU)では、NVIDIA CUDA非対応のため、FTは実行不可能。

Google Colab(無料T4 GPU)が、唯一の現実的な解決策。

発見3: FTの本質は「重みの更新」

FTとは、AIの脳(ニューラルネットワーク)を、あなたのデータで「再教育」すること。

指示(ホッチキス)ではなく、知識を「思考回路」に組み込む。

これが「血肉化」の意味である。


次回予告: Google ColabでFT実行、そして「あなた専用の哲学AI」誕生の記録(実装編)

AI生成コンテンツについて

この記事は、AI(Claude、ChatGPT等)によって生成されたコンテンツです。 経営者とAIの実際の対話を元に作成していますが、技術的な内容には誤りが含まれる可能性があります。

重要な決定をされる際は、専門家にご相談されることをお勧めします。 また、記事の内容について疑問がある場合は、お気軽にお問い合わせください。