論考

AIに言語化を託すな

言語化をAIに任せると、理解は表面的になり、思想は均質化し、言語化する人との差は開く一方です。LLMは自分の言語化の一歩先を見せてくれるツール。だからこそ、言語化を手放してはいけません。
ローカルLLM

TurboQuant: KVキャッシュ圧縮の理論的限界に迫るGoogleの新手法

Google Research発のKVキャッシュ圧縮技術「TurboQuant」を解説。3ビットでほぼ無劣化の圧縮を実現する仕組み、論文では触れられていないQJLの実用上の問題点、llama.cppやvLLMへの統合状況まで、ローカルLLMユーザー視点でまとめています。
ローカルLLM

Qwen3.5-27Bがえぐすぎる(当然弱みもある)

Qwen3.5-27Bの強みと弱みを説明しています。
ローカルLLM

Qwen3.5-27b 久々のまともなLLM

Qwen3.5-27bをLM Studioで動かしてみた手触りを報告しています。正しい日本語を扱い、正しいReasoningをし、バイブコーディングもできます。
ローカルLLM

Small Language Modelの限界

大規模言語モデルと小規模言語モデルの間に存在する決定的な能力差は、知識の量ではなく、複雑な情報を処理するための物理的な構造の違いに起因します。小規模なモデルでは内部空間の制約により概念同士が干渉しやすく、論理的な推論や複数の指示を同時に守るタスクにおいて構造的な限界を迎えてしまいます。本記事では、学習データの量では解決できないモデルの容量不足がもたらす思考力や自己監視能力への影響について解説し、なぜ特定の高度なタスクが大規模モデルにしか実行できないのかを明らかにします。
ローカルLLM

Nemotron-v2 transformerとmamba2のハイブリッドモデル

なぜ革新的なLLM技術は実装されないのか?その定説を覆す、NVIDIAのTransformer×Mamba-2ハイブリッドモデル「Nemotron v2」が登場。計算量とメモリの壁を突破し、ローカルAIを加速させる次世代アーキテクチャを解説します。
ハウツー

AI(LLM)を使う前にこれだけは知っておこう

AIが思い通りに動かない原因は「前提知識の不足」と「モデル選び」にあり!的確な指示の出し方から、ChatGPT・Claude・Gemini等の得意分野の比較、おすすめの課金先まで解説。学生必見の「AI生成文章が一瞬でバレる理由」と正しい活用法も紹介します。
論考

目と耳を持ったAIは、ビジネスをどう変えるか

2025 年から 2026 年にかけて AI は LLM から LMM へ進化しビジネス構造を再定義します。目と耳を持つ AI が製造業や小売業でどのように ROI を実現するか。成果報酬型プライシングやエッジ AI 戦略、日本企業の勝ち筋を徹底解説。デジタルから物理空間へ活動領域を拡張する AI の最新動向と導入事例をまとめました。
ローカルLLM

Qwen: Qwen3.5 397B A17Bが登場

いやでっか…… 誰がこんなのPCに載せられんねん……Qwen3.5はマルチモーダルReasoningモデルです。公式ページではThinkingと非Thinking両方の性能がグラフに載っているようですが、現在モデルはひとつしか公開されていま...
ローカルLLM

ローカルLLMに備えろ

プロプライエタリモデルとローカルモデルのメリットとデメリットを比較し、ローカルLLMの性能が今後向上していくことを見込んで、ローカルLLMを推しています。