十分な「真実」 - 嘘、まやかしの嘘、そしてLLM
2025-05-16
The Epistemic Crisis in the AI Era
「誰が知っているのか? ああ、誰も、誰も何も知らない。知識はとても脆い!」
Shopifyが新しい人材を雇用する前に、なぜAIがその仕事をできないかを証明するよう各チームに要求することは正しいのでしょうか?AIソリューションを優先する企業は、最終的に人間従業員が大幅に少ないAIエンティティへと進化するのでしょうか?
このような未解決の問題に、私は知識と「真実」そのものの追求において、私たちがどこに行き着くのか考え込んでしまいます。
「知識はとても脆い!」
今でも鮮明に覚えています: 暑い夏の日、南向きの教室の大きな窓は暗赤色の枠に囲まれ、火曜日のラテン語の授業マラソンで、私たちの教授が振り返り、「帰還」という詩を書いたクロアチアの有名な詩人を引用しました。
誰が知っているのか(ああ、誰も、誰も何も知らない。 知識はとても脆い!) おそらく真実の光が私に降り注いだのか、 あるいは私は夢を見ていたのかもしれない。
彼は明らかに私たちのクラスに対して不満を持っていました。なぜなら私たちは彼が大好きなことわざを忘れ、第2変化を適切に学んでいなかったからです。そのため、眠くて無関心な生徒でいっぱいのクラスの前で、「自分は何も知らないことを知っている」というメッセージと死後の生活についての思考に満ちた恋愛詩を引用する好機を見つけたのです。
ああ、そうですね。当時の10代の反抗心から、私たちは「死語」を適切に学びたくないと決めました。美しさがないと思ったからです(なんと大きな間違いだったことか!)
しかし、この小さな一節には多くの真実があります —「知識はとても脆い」— これは私の教授のお気に入りの引用でした。
誰もこれから逃れることはできません。科学自体も特に、知識がいかに脆いかを理解しています。矛盾し、混沌とし、欠陥があります。ある論文や発見は別のものと争い、実験は再現できず、「政治」や「地位」で満ちており、発見から威信へと焦点が移ってしまいます。
それでも、この本質的な混乱の中で、私たちは「真実」として受け入れるものを継続的に洗練する反復プロセスを見ています。科学的知識は常に修正の余地があることを認識しています。
このため、科学は間違いなく美しく、一度に一つの葬儀を経て進歩するにつれ、その信念はより強固になります。ここで理論に深く入り込み、なぜこれが起こっているのかを議論することもできますが、そうすると科学が今までに行ったこととその方法についてすべてを疑問視することになるでしょう。
それとは対照的に、「知らないこと」とより良い関係を築き、基礎まで遡る知識の穴を修復する方が効果的でしょう(ラテン語から数学まで)。
なぜなら、どの分野でも非常に優れた人々と最高の人々との違いは:
「どの分野でも最高の人々は、派手な高度なことができるから最高なのではなく、基礎を極めているから最高なのです。」
見よ、脆い知識、LLMの時代が到来した
LinkedInにおいて「創業者」ラベルよりも「AI [テキスト挿入]」を含む職務が多くなり、「今月の従業員」がAIエージェントになる時代へようこそ。
無限の知識と同じく脆い知識の手がかりに満ちた、素晴らしいLLMの時代:
そして単純に:
さらに:これを理解し、結果をテストするか、テストしないことによる結果を負うのはあなた次第です。
「テスト」と信者は宣言しました、「それはプロセスの一部だ。」
私たちはどうしてプロセスを忘れることができるでしょうか?真実を隠すために必要なときはいつでも呼び出される「概念」:私たちは一種の労働を別の種類の労働と交換しているのです。多くの場合、その交換率を理解せずに。
皮肉は絶妙です。
私たちは「重要なこと」に集中できるように、より多くのことを知るか行うのを手伝うためにLLMを構築しました。しかし今、私たちは彼らが私たちに語ることが真実かどうかを常に識別するという課題に直面しており、これが私たちが行うべきことに集中するのを妨げています(知識を得ること!)
条件なし。月平均20ドルで、いつでもキャンセル可能で、あなたの最も秘密の質問が名誉教授の自信を持って一つの固い文で答えられます:「もちろん、それができます。」
もちろん、それはできる...そして数秒以内に完全な幻覚を届けます。
あなたは今、価格は価値があると主張することができます。そして、誰かの給料にこの100~200倍を費やしても、同じ出力を得られます。これはコストとして許容できません。
以前はオンプレミスとクラウドのコストで熱心に戦っていた技術とコストのトレードオフに栄光あれ。そして今では追加的に人間対AIの労働コストと戦っています。すべて「ビジネス価値」を生み出す名目で。
「チームはAIを使って達成できないことを証明する必要がある」、おそらく抽象化レベルで同様の作業を行っていた人々に(しかし、これを証明するためのプロセスがあります!)。
もちろん、これはあなたが技術の最先端がその背後にいる人々なしでビジネス価値を純粋に生み出すことができると考える場合です。
よく考えてください。この最先端の技術は単なるツールに過ぎません。理解できないツール。維持され、保護される必要があるツール。
すでに何をしているのか知っていて、これに非常に熟練していた人々が、特定のタスクをより負担の少ないものにするために、ある程度利用しているツールです。
彼らが重要なこと—完全な開発ロジックと意思決定—の所有権を持ちながら、より効率的な方法でポイントAからポイントBに移動するのを助けるツールです。
なぜなら彼らは物事の進め方と目標(焦点を固定すべきもの)を理解しているからです。
そして知ることと理解することは同じではなく、同じ結果をもたらしません。
「しかし、私たちが[テキスト挿入]をどれだけ生産しているか見てください」と信者は再び宣言し、量を価値と、出力を成果と、嘘を真実と取り違えています。
すべて脆い知識のせいです。
「十分な」真実
私のお気に入りのビッグバン・セオリーのエピソードの一つからシェルドン・クーパーを言い換えると:
「知ることと知らないことは、量子重ね合わせのマクロスコピックな例を作成することで達成できると私は気づきました。 ... 複数のストーリーが提示され、そのうちの一つだけが真実で、それがどれなのかわからない場合、あなたは永遠に認識論的両義性の状態にあることになります。」
「真実」には今や複数のバージョンがありますが、私たちは常に(またはストレートに)どれが正しいのか(もしあれば)を、最初から避けようとしていた精神的な努力をまさに投入せずに判断することができません。
人類のデジタル出力のほぼ集合的なものに訓練されたこれらの大規模なモデルは、同時にすべてを知り、何も知りません。それらは確率機械であり、私たちがそれらと対話するとき、私たちは「真実」にアクセスしているのではなく、人間の知識の洗練された統計的近似と関わっているのです(知識のギャップに注意してください。閉じることはできません!)。
人間の知識自体が脆いです。私たち全員の集合的な不確実性、仮定、偏見、およびギャップを伴います。
私たちは自分たちが知らないことを知っているので、「知っている方法を知っている」と「私たちを保証する」ツールに頼り、彼らが知らないという明らかな免責事項を付けます。
これが私たちの興味深い新しい世界です:規模の大きな自信のある不正確さ、民主化された幻覚、そして「十分な」真実の産業化。
「十分だ」と私たちは言いながら、AIが生成したレポートの参照をチェックせずにざっと読みます。 「十分だ」と私たちはそのロジックを完全に理解せずにコードスニペットを実装しながらつぶやきます。 「十分だ」と私たちは統計的幻覚の基盤の上にビジネスを構築しながら自分自身を安心させます。 (少なくともAIができることを実証しました!)
「十分な」真実は、プロセスと月額20ドルからの価格タグに裏打ちされた嘘とまやかしの嘘に続く標準になることを大胆に目指しています — 知識のギャップは決して埋められることはなく、私のラテン語教授のお気に入りの詩の一節をこだましています:
「ああ、誰も、誰も何も知らない。知識はとても脆い!」