ローカルLLMの実力は、搭載メモリ量に直結する。大規模言語モデルは、モデル全体がメモリに収まることが高速動作の条件となる。一般的なWindows PCのGPUメモリが8~24GB程度であることを考えると、MacBook Proの128GBという統合メモリは別次元の環境だ。