LLM-jpのMoEモデル「llm-jp-4-32b-a3b-thinking」を量子化し、Hugging Faceで公開した事例を紹介。IMatrixキャリブレーションを用いた効率的な量子化プロセスと、思考連鎖対応モデルとしての特徴を解説する。