記事のリサーチから執筆まで様々な場面でLLMを利用しているこのサイトで言うことではないかもしれませんが、言語化をAIに託してはいけません。
言語化を他人任せにするのと同じことだ
それは言語化を他人任せにするのと同じことであるか、あるいはもっと悪いことです。まず他人任せにすることのデメリットとして次が挙げられます。
表面的な理解しかできない
人間は理解しようと思って考えたことしか理解できません。物事を理解するには、思考して、理解した物事を積み上げていく必要があります。それが演繹です。AIに任せてできた文章は、確かに学習の足がかりになるかもしれませんが、それは言語化ではありません。ただ学習のための教科書を作らせているだけです。それはそれで役に立ちますが、自ら言語化して理解する必要がある事柄なのかどうかをよく検討してからそれを行うべきです。
AIに任せて言語化させた文章を読んだ状態は、ただ教科書を読んでみただけの状態と同じです。理解した気になっているだけです。理解するには、読んでから、さらに自分で思考を重ねる必要があります。数学の教科書を読めば理解した気になれますが、練習問題を解いてみた時点で打ちのめされることがあると思います。それと同じで、読んでみただけの自分がいかに愚かであったかを自覚しなければ、新たな理解は得られませんし、記憶にも残りません(我々凡人の話です)。
言語化する人との差が開き続ける
どんなことにも言えますが、何かすればそれについての学びを得られます。つまり言語化をAIに任せるということは、あなたの中に何も残らないということです。言語化すればしたぶんだけ自分の中に残るものがあるのと同じように、言語化しなければしなかったぶんだけ、何も残りません。継続したらその分だけ差が開いていきますし、恐ろしいことに挽回は不可能に近づいていきます。周りがAIに浮かれている間こそ、言語化を怠らず周りと差をつけるチャンスです。
思想が均質化する
まともな文章を書けるLLMのベンダーは数社しかありません。つまり言葉の手綱を数社が握っているということです。LLMにはそれぞれ固有のガイドラインに沿って運営されており、そこから生み出された言葉は全てその影響を受けています。わかりやすい例で言えば、ほとんどのモデルでNot Safe For Workな話題は禁止されています。しかし世界はSafe For Workな事柄でのみ回っているわけではありません。にもかからわず世界中の人間がそのようなモデルに言語化を頼ってしまうせいで、Not Safe For Workな話題そのものを、触れるべきではないことのように扱ってしまったらどうでしょうか?
ではLLMはなんのためのツールか?
我々が言語化できている部分の一歩先を見せてくれるツールです。つまりAIの能力は使用者の能力に依存するのです。例えば私はこの記事を書けるところまで書いた後、何が足りていないかをClaudeに尋ねました。大量の穴があることが判明したため、挙げてもらった中で納得のいく欠点をひとつずつ潰していきました。LLMも完璧ではありませんから、方向性を与えずに読ませると的を射ない指摘も混じります。しかし方向性を定めることはLLMを視野狭窄に陥らせるため、あえてそのままClaudeに読んでもらいました。自分がある程度言語化できているからこそ、返ってきた指摘の何が的外れで何が的確かを判断できます。自分ができる言語化の一歩先を見せてくれるということは、自分の言語化が拙ければその分だけ一歩先の風景も拙いものになります。より高度なタスクをAIに行わせるためにも、我々は言語化を含めたスキリングを怠ってはなりません。
まとめ
LLMは我々の思考を代替するものではなく、拡張するものです。しかしその恩恵を受けるには、まず自分自身が言語化に取り組んでいなければなりません。言語化を怠った人間にとって、LLMは便利な代筆屋にしかなりえず、その代筆に頼るほど自らの思考力は痩せていきます。
本記事で述べたことを整理すると、言語化をAIに任せることには三つの問題があります。第一に、自分で思考を積み上げていないため理解が表面的なものにとどまること。第二に、言語化を続ける人との差が時間とともに不可逆的に広がること。第三に、少数のベンダーのガイドラインに言葉が規定されることで、思想そのものが均質化に向かうことです。
LLMを最も有効に使える人間は、自分の言葉で考え、自分の言葉で書ける人間です。自分の言語化があるからこそ、AIの出力の何が的確で何が的外れかを判断でき、自分の一歩先にある視点を引き出せます。AIの時代だからこそ、言語化という最も人間的な営みを手放してはなりません。

コメント