LLMに“全部任せない”という知恵 ─ 標準化と創造性のあわいで
LLM(大規模言語モデル)は、目の前の問いに対し、ときに人間以上に洗練された答えを即座に返す、“思考の外部化装置”のような存在です。その優秀さに驚き、「もう人間はいらないのでは?」とさえ思う瞬間もあるでしょう。
ChatGPT-5のリリース前、7月のインタビューでサム・アルトマン氏はこんなエピソードを語っています。
「新モデルをテスト中、どうにも理解しづらいメールがあった。GPT-5に読ませて解釈と返信文を作らせたら、自分よりずっと的確だった。できるはずのことをAIに任せたことで、自分が役立たずになったように感じた」
(参考: https://japan.cnet.com/article/35236399/)
トップの口から出るには意外な言葉ですが、それだけテクノロジーが“ここまで”来ている証拠でもあります。そして同時に浮かぶのが、「優秀なものにどこまで依存するか」という問いです。
スーパーマン依存の危うさ
LLMは、どんな問題にも即応する万能のスーパーマンのように見えます。しかしその力は意外にも繊細で、
- 回答の一貫性に欠けることがある
- 判断のプロセスがブラックボックス化している
これは人間社会でもおなじみの構図です。特定の優秀な人に依存した組織は、一見スムーズに回りますが、その人が抜けた途端にガタつく。だからこそ私たちは歴史的に「仕組み化」や「標準化」によって、再現性を高めてきました。
Tomasz Tunguz氏が提唱する「Local Instructions」も、同じ発想に基づきます。万能なLLMに丸投げせず、ツールごとの実行手順を決め、小さなアクション単位で制御することで、安定性と速度を両立させるという考え方です
(参考:tomtunguz.com/local-instructions)。
要するに、人間の思考から「定型化できる部分」を切り出し、道具に組み込むこと。それは古くからある組織の知恵と同じです。
しかし、時代の潮流は逆へ
興味深いのは、この「依存しすぎない」という発想とは逆方向に、ChatGPT-5が進んでいることです。
OpenAIは今回のリリースで、旧モデルへのアクセスを順次廃止し、ユーザーが用途やコストに応じてモデルを選ぶ自由を取り払いました。代わりに、GPT-5自身が「どれだけ考えるか」(=どれだけ計算資源を使うか)を判断し、最適な処理を行う仕組みに移行しています。
これはつまり、ユーザーの“選択”をAI側に委ねる設計です。私たちが「何をどこまでAIに任せるか」を考える前に、AIが「どこまで引き受けるか」を決めるようになる──そんな時代が到来しつつあります。
仕組み化は創造性の敵か?
とはいえ、「標準化こそ正義」という結論に飛びつくのは早計です。仕組み化は再現性を高めますが、没個性や創造性の硬直化を招くこともあります。誰がやっても同じ──それは組織を強くする一方で、人間から「考える力」や「工夫する喜び」を奪いかねません。
だからこそ、バランスが重要です。
- 判断の余白がある領域はLLMを活かす
- 機械的にこなす部分は仕組みに任せる
- すべてをAIに委ねず、人間の関与余地を意図的に残す
この設計思想は、単なる効率化ではなく、人間中心のシステム作りへとつながります。
おわりに ─ 問いを外に投げすぎない
AIや仕組みに判断を任せるのは便利ですが、それを繰り返すうちに「自分で考える」という筋力は知らぬ間に衰えていきます。
今回のGPT-5は、私たちが「依存を減らす」方向に意識を向ける間もなく、選択権をAIに吸収していくような進化を示しました。便利さは増す一方で、「考える責任」の重心が静かに外へ移っていく──その変化を見過ごすのは危ういことです。
お盆でふと時間の余白ができたなら、あえて思考を自分の中で熟成させてみる。LLMやツールに頼れる時代にあって、自分の頭で問いを温め続けること──それは静かだけれど、確かなレジスタンスになるはずです。
AIにスーパープレイヤー性があることから、システムと組織のアーキテクチャが似通ってきた
最後に、Local Instructionsのようなシステムアーキテクチャの話が、システムの重要構成要素としてLLMを位置付けられるようになったことで、組織づくりのアーキテクチャと驚くほど似通ってきていることが自分の中では大きい発見でした。