6.IAの倫理性
IAC26では、IAを単なる情報整理の技法としてではなく、AIの安全性や倫理性を支える基盤として捉える議論も目立った。Christian Crumlishによる「Ethics as Information Architecture: Why AI Safety Requires IA Thinking(情報アーキテクチャとしての倫理――なぜAIの安全性にはIA的思考が必要なのか)」は、象徴的なセッションだった。
ここで示されていたのは、AIの倫理を抽象的な理念として語るだけでは不十分であり、実際には「構造の設計」の問題として捉える必要があるという視点である。
AIの危うさは、それがどれだけ賢いかだけで決まるのではない。どのような情報構造の上で動き、どのような境界や優先順位のもとで振る舞うかに大きく依存している。つまり、AIの安全性はモデル単体の性能だけではなく、その周囲にどのような情報の枠組みが与えられているかによって左右される。
そこで重要になるのが、「境界」と「階層」というIAの基本的な考え方である。境界とは、AIがどこまで判断してよいのか、何をしてはいけないのか、どこで人間に判断を返すのかを明確にすることである。階層とは、情報や行為に優先順位を与え、何を先に参照し、何をより重く扱うべきかを構造として組み込むことである。
AIはしばしば万能な存在のように語られる。しかし、こうした境界や階層が設計されていない環境ほど、誤作動や逸脱が起きやすい。行政や公共システムの文脈では、この点は特に重要である。制度案内、申請支援、相談対応、内部業務支援などにAIを用いる場合、その出力は市民の判断や職員の業務に直接影響しうる。このような場面では、AIが「もっともらしい答え」を返すだけでは足りない。その答えが何に基づいているのか、どこまで有効なのか、どこから先は人が確認すべきなのかが明確である必要がある。
つまり、倫理とは価値観を掲げることだけではない。判断できること、説明できること、責任の境界が分かることを、構造として組み込むことでもある。この点で、IAはAIの倫理に対して非常に実務的な貢献ができる。用語を統一すること、情報源の優先順位を決めること、例外を明示すること、根拠にたどれる経路を用意すること、そして最終判断を人間に戻すポイントを設計すること。どれも一見すると地味な作業だが、AIを安全で信頼できるものにする上で欠かせない。
倫理は、AIに「正しいことを教える」だけで実現するものではない。逸脱しにくい構造を与えることによって支えられるのである。
図4 Christian Crumlish氏の発表の様子
(出典)IAC26。撮影:筆者
7.おわりに
IAC26を通して見えてきたのは、AI時代においてIAが改めて中核的な意味を持ち始めているということである。かつてIAは、複雑なウェブサイトやサービスの中で、人が迷わず理解し、行動するための設計として発展してきた。だが今日、その役割はさらに広がり、人間だけでなくAIが参照し、判断し、応答するための知識の地図をつくるものになっている。
生成AIの導入は、単に新しいインターフェースを手に入れることではない。組織や制度が持つ情報を、どのような構造で持ち、どのような関係の中でつなぎ、どのような境界の中で運用するかを問い直すことでもある。その意味で、AI時代のIAは、単なる「分かりやすさ」の工夫ではない。信頼できる案内や、安全な判断支援を支える土台であり、ときには倫理の設計でもある。行政でAI活用が進む今、問われているのは、情報をどう並べるかだけではなく、その情報でどのような判断と行動を支えるのか、という視点ではないだろうか。

長谷川 敦士(はせがわ あつし)
2002年に株式会社コンセントを設立。企業ウェブサイトの設計やサービス開発などを通じ、デザインの社会活用や可能性の探索とともに、企業や行政でのデザイン教育の研究と実践を行う。2019年から武蔵野美術大学造形構想学部教授を兼任。経済産業省/IPA「DX推進スキル標準」策定検討ワーキンググループ(デザイナー)主査をはじめ各種委員等を務める。Service Design Network日本支部共同代表、NPO法人 人間中心設計推進機構副理事長。著書、監訳など多数。
