Googleが、大規模言語モデル(LLM)のメモリ消費量を6分の1に削減する新技術「TurboQuant」を発表しました。これにより、より小型のデバイスや限られたリソース環境でもLLMの利用が可能になり、AIの普及が加速すると期待されます。