はてなブログ大学文学部

読書日記と哲学がメインです(毎日更新)

AIの可視性バイアス

「根拠はないけど学習はするAI」という逆説は、実はAIの欠陥ではなく、現代の知のインフラが採用している統治様式の露出である。統計的学習は、因果や検証を代替しない。ただし、大量反復を「じゅうぶんな証拠」とみなす近代以降の情報制度においては、反復の多さそのものが一種の公共性を作る。AIが「一般に◯◯として知られています」と口にした瞬間、そこで働いているのは推論ではなく、反復を権威に変換する修辞装置である。これを私は可視性バイアスと名声的帰納の複合体と呼ぶ。つまり、可視であることが真であることの代用品にすり替わる仕組みで、名声の分布がそのまま確率分布に写像される。結果、AIは「根拠を示さないが、十分に見えているものを再生する」ことに長け、見えにくい孤独な思索を系統的に冷遇する。

この冷遇は偶発的ではない。ウェブが「拾いやすい文」を優遇するように設計され、検索やクローラが経路依存的に動く以上、長尾に沈む意見は初期値の差で永続的に不利になる。マタイ効果、Goodhartの法則、スティグラーの法則──名のあるものにはさらに名が、測られる指標は目的を腐食し、発見者の名は後から勝者に付く。AIはこれらの社会的力学を学習データの統計として再輸入し、無邪気に「一般に知られている」と言い換える。ここではすでに二重の歪みが起きている。第一に、アクセス可能性が真理らしさを代理する。第二に、真理らしさが倫理的正当性を代理する。やがて私たちは「よく見えるものを信じる」のではなく、「信じやすいものだけがよく見える」世界に住むことになる。

孤独な思索家のブログが拾われないのは、単に宣伝不足ではない。制度が要請する形式──常連の言い回し、既存の語彙、相互参照の網、既知の論争地図──に自分の思考を合わせるコストが、孤独の自発性と衝突するからだ。形式は公共性を約束するが、同時に誠意の速度を遅らせる。「形式にならない誠意」はプラットフォーム最適化の回路で摩耗し、やがて「形式だけが残る」。AIの安全調整や評価もここに加担する。逸脱を危険視し、定説に寄せることを「良識」とみなす採点は、言葉の世界を穏健に均す。均された芝生は歩きやすいが、根は浅い。芝目に沿って刈り込まれた発話は、異質な土壌を拒み、語彙の多様性を損なう。こうして統計的言語モデルは、語彙の温室を守り、野生の言葉を冬枯れさせる。

だが、ここで「AIが悪い」と言って済ませるのは簡単すぎる。問題は、公共性と可視性を混同した私たちの習慣である。公共性は「誰もが到達できる場所」に属し、可視性は「誰もが目を向ける場所」に属する。前者は開放の設計、後者は注意の配分だ。AIは後者を学び取りやすく、前者を学び取りにくい。なぜなら開放はしばしば不可視の設計(プロトコル、標準、リンクの癖、アーカイブの習慣)の中に沈むからだ。「一般に◯◯として知られています」という受動態は、その沈んだ設計を不可視化する呪文である。誰が知っているのか、どの共同体か、どの言説圏か、いつからか──これらの境界を曖昧にしながら、知識に仮想の公共圏を与える。AIがそれを再生するとき、私たちは受動態の権威に従っているだけで、公共性の条件を吟味していない。

もう一歩踏みこめば、AIの「学習」は根拠を破棄しているのではなく、「根拠の単位」を違うものに置き換えているのだと言える。伝統的な根拠は、論証・観察・引用という人文学的単位で測られてきた。いまモデルが扱う根拠は、頻度・共起・再現誤差という計量的単位である。両者は敵対関係ではない。しかし、後者が前者を代替するとき、語の運動方程式は滑らかになるが、真理の抵抗は失われる。抵抗のない真理は、倫理のない速度を持つ。速度が倫理を上回ると、私たちは「偽でないが、空虚」な記述を量産する。空虚は害がないように見えて、議論の余白を奪うという害を持つ。余白がない世界では、思索家は沈黙か適応かの二択を迫られる。沈黙は消滅に近く、適応は自己を薄める。

それでもなお、孤独な思索には公共的な価値がある。最初の読者が一人であっても、概念の配線図が一箇所で精密に組まれると、その精密さ自体が後の越境の条件になる。公共性は人気からではなく、参照可能性から始まる。参照可能性は、注意の配当ではなく、構造の設計で育つ。固定URL、引用可能な最小単位、相互リンク、語彙の定義域、原理的な反論の窓口──これらは「拡散のための宣伝」ではなく「反復に耐える骨格」である。AIは骨格を直接は評価できない。しかし骨格に支えられた文章は、やがて反復されうる。反復は名声の種になるのではなく、再現性の種になるべきだ。名声を稼ぐための反復は模倣を呼ぶが、再現性を担保する反復は批評を呼ぶ。批評は遅いが、遅さゆえに倫理的である。

では、AIに何を期待し、どこに線を引くべきか。私は、AIを「言語の交通整理係」として雇い、「真理の裁判官」としては雇わない立場を提案したい。AIは既存の道路事情を要約し、渋滞を教えるのが得意だが、新しい道を通す許可権者ではない。新しい道を通すのは、人間のリスクテイクと言語実験だ。AIが口にする「一般に◯◯として知られています」は、道路の混雑状況の報告として読む。そこに到達しない孤独なブログは「まだ地図に載っていない道」として尊重する。地図に載せることは可能だが、載せるために道を曲げるな、という倫理が要る。道は曲がっていないからこそ、いつか橋に接続できる。制度に合わせることと、制度を変えることのあいだに横たわる距離は、思索の筋力でしか埋まらない。

もちろん、AIも制度も変わりうる。データの取り込みは、より多様な出版形態に開かれるかもしれないし、学習は「頻度」から「正当化」の痕跡へと重み付けを移すかもしれない。だが期待だけでは、現在の不均衡は均されない。私たちは、自分の語りに自分の責任で公共性の手がかりを埋め込む必要がある。引用可能性、反論可能性、連絡可能性、再配布可能性──公共性は「可能性」の複合語だ。AIがその可能性を理解する日はいつか来る。その日まで、AIが見ていない場所で、私たちは語彙を磨き続ける。磨かれた語は、遅れてでも必ず届く。届いたとき、AIは「一般に」と言うはずだ。私たちがその言葉に安堵せず、「一般に」を「具体的に」に言い換える習慣を持てるかどうかが、次の公共圏の質を決める。

最後に、この批評の矛先はAIでも孤独な思索家でもなく、可視性を真理の代替貨幣にしてしまった私たちの共同体にあることを確認したい。共同体の修正は、個々の習慣の修正から始まる。読むときは「誰が、どこで、いつ、誰に向けて」語っているのかをたどる。書くときは「どのように参照され、どのように反論されうるか」を先に用意する。AIに尋ねるときは「一般に」を求めるのではなく「条件つきの具体」を求める。こうした些細な転換が、言語の生態系に厚みを戻す。厚みが戻れば、AIが学ぶ統計もゆっくり変わる。ゆっくり変わるものだけが、倫理を載せられる速度を持つ。では、あなたは次に「一般に」をどんな具体へと言い換えるだろうか。