AIについて「よくわからないけど、すごいらしい」という段階から一歩先に進むには、どうすればいいか。自分がおすすめするのは、研究者たちがどんな議論をしてきたかを知ることです。
AIをめぐる学術的な議論には、技術の表面だけでは見えない本質的な問いが詰まっています。AIは本当に「理解」しているのか。誰の価値観で設計されているのか。教育にどう取り入れるべきか。これらの問いに対して、研究者たちは正反対の立場から論じてきました。
この記事では、AIをめぐる5つの重要な議論を紹介します。専門用語はできるだけ避け、それぞれの議論が「なぜ重要なのか」に焦点を当てました。AIについて自分の頭で考えるための材料として、読んでもらえればうれしいです。
5つの議論——AIの本質を問う研究者たち
議論 1
大規模言語モデルは「確率的オウム」か?
On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?
Emily Bender, Timnit Gebru, Angelina McMillan-Major, Shmargaret Shmitchell — FAccT 2021
2021年に発表されたこの論文は、大規模言語モデル(LLM)に対する根本的な問いを投げかけました。LLMは意味を理解しているのではなく、膨大なテキストデータから確率的にもっともらしい文を生成しているだけ——つまり「確率的オウム(Stochastic Parrots)」に過ぎない、と。
論文は3つの問題を提起しました。第一に、巨大モデルの訓練にかかる環境コスト。第二に、訓練データに含まれるバイアスの増幅。第三に、意味理解の不在。AIが流暢な文章を出力するからといって、そこに「理解」があるとは限りません。
この論文は、共著者のTimnit GebruがGoogle AIの倫理チームを解雇された騒動と重なり、学術的な議論を超えて大きな社会的反響を呼びました。
なぜ重要か:AIの出力を「知性」と呼んでいいのか。流暢さと理解は同じなのか。この問いは、AIを使うすべての人に関わる根本問題です。
議論 2
GPT-4に汎用知能の「火花」はあるか?
Sparks of Artificial General Intelligence: Early experiments with GPT-4
Sébastien Bubeck et al. (Microsoft Research) — arXiv preprint, 2023
議論1とは180度異なる立場をとったのが、Microsoft Researchの研究チームです。彼らはGPT-4を多角的にテストし、数学、プログラミング、医学、法律、心理学など幅広い分野で「驚くべき能力」を示したと報告しました。そしてその能力は、AGI(Artificial General Intelligence=汎用人工知能)の初期の「火花」と呼べるのではないか、と主張しました。
この論文には激しい批判も寄せられました。テストの選び方が恣意的ではないか。訓練データにテスト問題が含まれていた可能性(ベンチマーク汚染)はないか。そもそもAGIの定義が曖昧なまま議論していないか。
なぜ重要か:同じ技術に対して「ただのオウム」と「AGIの火花」という正反対の評価が成立します。これは、AIの能力評価がいかに立場や前提に依存しているかを示しています。何をもって「知能」とするかは、技術の問題ではなく、哲学の問題です。
議論 3
AIの価値観をどう設計するか
Constitutional AI: Harmlessness from AI Feedback
Yuntao Bai et al. (Anthropic) — arXiv preprint, 2022
AIが有害な出力をしないようにするにはどうすればいいか。従来のアプローチでは、人間がAIの出力を評価してフィードバックする(RLHF: Reinforcement Learning from Human Feedback)方法が主流でした。Anthropicが提案したConstitutional AIは、これに加えて、AIが「憲法(constitution)」——あらかじめ定められた原則のセット——に基づいて自分自身の出力を評価・修正する仕組みです。
技術的には興味深い提案ですが、本質的な問いはもっと深いところにあります。その「憲法」は誰が書くのか。どの文化の価値観を反映しているのか。なぜその原則が選ばれたのか。AIの回答が丁寧で安全に見えるとき、その裏には設計者の価値判断があります。
なぜ重要か:AIの出力は「中立」ではありません。すべてのAIには設計者の価値観が埋め込まれています。教育の場でAIを使う際にも、「このAIはなぜこう答えるのか」という視点を持つことが重要です。
議論 4
AIの「嘘」と哲学——ChatGPT is Bullshit
ChatGPT is Bullshit
Michael Townsen Hicks, James Humphries, Joe Slater — Ethics and Information Technology, 2024
刺激的なタイトルですが、中身は真剣な哲学的分析です。この論文は、哲学者Harry Frankfurtの古典的エッセイ On Bullshit(2005)の枠組みをAIに適用しました。Frankfurtによれば、「嘘(lie)」と「でたらめ(bullshit)」は違います。嘘つきは真実を知った上でそれを隠しますが、bullshitterは、そもそも真偽を気にしていません。
AIが事実と異なる出力をする現象は「ハルシネーション(幻覚)」と呼ばれますが、この論文はそれを「嘘」ではなく「bullshit」として捉えるべきだと論じています。AIには真実を伝えようという意図も、騙そうという意図もありません。真偽への関心そのものが存在しないのです。
なぜ重要か:この区別は、AIの出力への向き合い方を根本的に変えます。AIが「間違える」のはバグではなく、構造的な特性です。だからこそ、出力を鵜呑みにせず、常に検証する姿勢が求められます。ハルシネーションは「修正すべきエラー」ではなく「付き合い方を学ぶべき特性」なのだと思います。
議論 5
教育にAIをどう取り入れるか
Guidance for Generative AI in Education and Research
UNESCO — 2023
ChatGPTの登場後、世界中の教育機関がAIへの対応を迫られました。一部の大学はAIの使用を全面禁止しました。しかしUNESCOが2023年に公表したガイダンスは、異なるアプローチを示しました。禁止ではなく、適切な統合を推奨したのです。
UNESCOのガイダンスが強調するのは、学術的誠実性(Academic Integrity)とAIの共存です。AIを使うこと自体が問題なのではなく、使い方の透明性と、学習の本質を見失わないことが重要だとしています。教育の本質は「答えを得る」ことではなく「考えるプロセス」にあります。AIが答えを出せる時代に、教育者の役割は「コンテンツの提供者」から「思考の促進者」へと変わっていきます。
なぜ重要か:AI時代の教育は、AIを排除するか受け入れるかの二択ではありません。「何のために学ぶのか」を問い直す機会です。この議論は教育関係者だけでなく、学ぶすべての人に関わります。
これらの議論から見えること
5つの議論を並べてみると、はっきりすることがあります。AIの能力評価は、立場によって180度異なります。「確率的オウム」と「AGIの火花」は同じ技術を見ています。しかし評価は正反対です。
だからこそ、一つの見方だけに依拠するのは危ういと思います。複数の視点を知った上で、自分なりの判断を組み立てることが大事です。研究者の議論は「正解」を教えてくれるものではありません。「考えるための枠組み」を提供してくれるものです。
AIは道具であり、その評価は使う側の視点に依存します。技術の進歩が速いからこそ、立ち止まって考える時間が必要です。この記事で紹介した5つの議論が、その考える材料になればうれしいです。
AIについて「自分で考える」こと。それ自体が、AI時代を生きるための最も重要なスキルだと思います。