「AIは『その人』を見ているわけではない。実際には『セグメント』と呼ばれる、共通の属性をもつ集団を見ています」。インターネット技術の進展により、サービスはより個別化され、その人に合った情報やコンテンツが提供されるようになりました。しかし、そこにこそ落とし穴があると、憲法学者の山本龍彦さんは言います。日経プレミアシリーズ『 デジタル空間とどう向き合うか 情報的健康の実現をめざして 』から抜粋。

セグメント vs AI

 アテンション・エコノミー(関心を競う経済)の世界では、ユーザーのアテンションを得るためにそのユーザーの嗜好(しこう)や傾向に合った情報やコンテンツが選択的に送られます。

 その意味では、サービスが「個別化(personalized)」され、個人の尊重によりかなう世界が到来したと考えることもできそうです。「その人」が読まないであろう情報は事前にフィルタリング(濾過<ろか>)され、情報が「その人」に合わせて絞り込まれる。個人にしてみれば「これは便利だ」ということになります。

 しかし、ここで言う「個別化」の意味には細心の注意が必要です。AIは、「その人」を見ているわけではない。実際には、「セグメント」と呼ばれる、共通の属性をもつ集団を見ています。筆者について言えば、AIにとって、私が「40代×男性×大学勤務×○○在住×収入○○……」というセグメントαに分類できるかが重要で、私が「山本龍彦である」ということ――私の固有性――には関心がない。単純化して言えば、AIは、セグメントαに分類される者が、どのような行動をとりやすいかを見ているのです。

 もちろん、データの品質が良く、その量も豊富であれば、セグメントはどんどん細かくなっていき(より詳細な分類が可能となり)、予測精度も爆発的に上がります。けれども、いくら仕切りが細分化されようと、AIによる評価は「集団(セグメント)」ベースでなされているという事実を否定することはできません。集団は、集団なのです。

いくらセグメントの仕切りが細かくなっても、「集団」は「集団」に過ぎない(写真:shutterstock)
いくらセグメントの仕切りが細かくなっても、「集団」は「集団」に過ぎない(写真:shutterstock)
画像のクリックで拡大表示

 したがって、このセグメントに反映されないその個人の属性や能力、その個人を取り巻く具体的な事情や環境、人間関係は捨象される運命にあります。セグメントαに分類される者は確率的・統計的に読まないであろうコンテンツでも、実際の個人は読むかもしれない。さらに、その偶然的な出合い(セレンディピティ)によって、考え方が変わったり、人生が劇的に変わったりすることがあるかもしれません。しかし、AIはそんなことには興味がない。「So what?」です。

 私は、大学時代の卒業論文で、遺伝情報のプライバシーという、まだヒトゲノム計画も終了していない1990年代当時からすると、ぶっとんだテーマを選びました。そのことが、後の研究者人生にも大きく影響したのですが、それは、ある百貨店の書店でたまたま新書のコーナーに立ち寄り、そこでたまたま遺伝情報に関する本が目に入ってきたことがきっかけでした。

 おそらく、AIが当時の私をプロファイリングしても、遺伝情報に関する本をレコメンドしなかったと思います。憲法のゼミに所属するお堅い(?)法学部生で、ゲノム技術にほぼ関心のない人物が、genetic informationに関する書籍にアテンションを向け、それを購入する確率はとても低いからです(現在は遺伝情報保護に関する問題は法学の重要論点ですので、それがレコメンドされる可能性はあるでしょう)。

 もし、当時の私がアテンション・エコノミーの世界に生きていたならば、「憲法に興味のある男子法学部生」というセグメント(集団)に分類され、憲法9条に関する厳(いか)めしいコンテンツばかりがフィードされて、今とは全然違う大人になっていたかもしれません(鳥海さんとこのような本を書くこともなかった?)。

「個人の尊重」と矛盾

 要するに、機械学習をベースとした「個別化」は、個人の尊重とかえって矛盾することがあるということです。憲法13条は、“All of the peoples shall be respected as individuals”(すべて国民は、個人として尊重される)と規定していますが、現実には、“All of the peoples shall be respected as segments”(すべて国民は、セグメントとして尊重される)なのです。

 もともと個人尊重原理が十分に根づいていない日本では、このような主張――「セグメントじゃなくて、私を見て!」――はあまり強く聞かれません。アルゴリズムによる「最適化」こそ、個人の尊重に資するのだ、という議論すら見られます。しかし、そこでいう最適化が、あくまで確率的・統計的なもので、社会全体の効率性や「滑らかさ」を重視する功利主義的な思想に基づくものであることには注意が必要です。最適化は、時に個人を置き去りにします。次のような問いは重要です。

 過去の行動記録からつくられる「確率という名の牢獄」(ビクター・マイヤー=ショーンベルガー)に閉じ込められ、考え方をある特定の方向へと刺激・誘導・強化させられること、セレンディピティを縮減され、ありえた何かになることを否定されることは、本当に「個人として(as individuals)」尊重されていることになるのか。

(出所)『デジタル空間とどう向き合うか』115ページ
(出所)『デジタル空間とどう向き合うか』115ページ
画像のクリックで拡大表示

 AI技術と融合したアテンション・エコノミーを、このような視点、すなわち「集団への回帰」という視点から批判的に捉えることはとても重要です。ユーザーを「ハムスターの回し車」の中に押し込んで、そのセグメントが投影する世界の中を、ぐるぐると、ただひたすら走らせる。それが、時間とコストをかけて「かけがえのない個人」の発する声にちゃんと耳を傾けましょうね、という個人の尊重原理とどれほど親和的なのか。

 例えばEUでは、一般データ保護規則という立法で、AI等による完全自動決定に服しない権利が保障されています(22条1項)。これは、個人の尊重原理に基づき、個人の人生に重要な影響を与える事柄について、セグメントベースドの確率的判断をそのまま決定の根拠にしてはならない、という考え方を示したものと理解できます。

 また、EUのデジタルサービス法は、超大規模プラットフォームに対して、プロファイリングに基づかない 、少なくとも一つのレコメンダー・システムを提供することを義務づけているわけですが(29条)、これは、セグメントに基づきフィルタリングされた情報提供を拒否することを個人に認めることで、「セグメントからの自由」、「回し車からの自由」を保障するものと考えることができるでしょう。

炎上、分断、誘導、中毒――いまネット上で何が起きているのか?

アテンション・エコノミー(関心を競う経済)にさらされている私たちは、ネット世界とどう折り合いをつけるべきか? インターネットは利便性を高める一方で、知らず知らずのうちに私たちの「健康」を蝕(むしば)んでいます。気鋭の計算社会科学者と憲法学者が、デジタル空間に潜む様々な問題点を指摘、解決への糸口を探ります。

鳥海不二夫、山本龍彦著/日本経済新聞出版/990円(税込み)