ローカルLLMを動かすために「24GB VRAMが必要」という常識を検証。低スペックGPUでも適切なモデル設定や最適化手法を用いれば、35Bパラメータ級のモデルを実用的に動かせる事例を紹介する。