ジェンダーについて活発に議論されている昨今、私たちが多くの情報を得るメディアとそのデータを、ジェンダー的側面から評価することは重要だ。いま、人工知能(AI)の発達で、AIが不公正なデータを学習すると性差別が再生産されてしまうことが懸念されている。性差別だけでなくAIの活用法にも課題が山積している現状で、デジタル情報化社会におけるジェンダー平等を遂げるために求められることとは何か。今回は、AIという情報技術的な方面からジェンダー問題に取り組むB’AIグローバルフォーラムのディレクターを務める林香里教授(東大大学院情報学環・学際情報学府)に取材。メディア表現のジェンダー問題とAIの関係、及びB’AIグローバルフォーラムの活動について話を聞いた。
(取材・谷賢上)
メディア表現におけるジェンダー問題
メディア表現の世界では、女性をどう取り上げ、表象するか、それがどのように性差別とつながるかが問われてきた。林教授は、新聞報道で女性の取り上げ方に問題があると指摘。例えば、新型コロナウイルス関連の話題でインタビューを受ける専門家の大半は男性だ。「男性の研究者が多いからという言い訳で終わらせるのではなく、女性の研究者を積極的に開拓する努力もすべきです」
新聞報道のほか、テレビのバラエティー番組にも差別が存在する。例えば、本来はニュースを読むのが仕事の女性アナウンサーが、バラエティー番組でタレント扱いされる光景がよくある。男性の評価軸に則ってその容姿が消費の対象となり、「かわいい」女性アナウンサーの出演は番組の視聴率の上昇につながる。またその多くの場合「優しくうなずいてくれる」役割しか求められず、いわば「番組の花」として表面的な装飾のように扱われる傾向も依然としてある。男性アナウンサーの方もタレント扱いされるとはいえ、番組を円滑に進行する役割の方が重視され、性的なまなざしで評価されることは少ない。その他、LGBTQへの揶揄(やゆ)であったり、最近では、テレビ朝日の報道番組「報道ステーション」のWeb用CMで、若い女性に「ジェンダー平等は時代遅れ」と言わせたりと、メディア業界幹部のジェンダー意識の遅れが露呈する案件は後を絶たない。
このような性差別の背景の一つとして、ジャーナリズムが「男性の世界」から発達してきたことがある。例えば、近代の歴史で、日本の新聞社は戦場取材に基づく戦争報道によって成長を遂げた。さらに、いわゆる「夜討ち朝駆け」で有力な男性政治家に四六時中はり付いて取材をするような、女性にとっては必ずしも快適ではない慣行も残っている。このような職場文化を受け継ぐ中で、「良き報道」の定義にマスキュリニティー(編集部注)が無自覚のままに内在化されている。社会の事象は、男性的な視点やライフスタイルに基づくだけでは、十分に捉えることはできない。とりわけ、性別役割分業が既定値となっている社会では、育児や介護の問題、さらには家庭内暴力や性暴力などについては、男性的な視点・取材スタイルでは見逃される。また、こうしたトピックは、取り上げられても男性中心的な現在の評価軸が優先される職場では、評価されないという問題が残されている。
AIはメディア表現のジェンダー問題にどう影響する?
メディアでは依然さまざまな形の性差別がはびこっているが、近年情報通信分野で活用され注目を集めてているのがAI技術だ。AI技術とメディア表現の関係はどのように捉えることができるだろうか。林教授は以下の二つを重視する。「第一に、AIを駆使してメディアにおけるジェンダー表現の偏りを検知することができます」。例えば、テレビに映る人物の顔を読み取ったりその名前をテキストから検出したりする技術により、男性か女性かを分類し、女性の登場する頻度をキャッチすることが可能になった。しかしそのアルゴリズムはまだ未熟で、最終的に人間の確認が必要となる。
第二に、AIの機械学習の基となるデータの公正性が鍵となる。とりわけメディアが発信するデータは、量が膨大で、かつどのような話題を話すべきかといった私たちのコミュニケーションの在り方を規定し、影響力が大きい。例えば、ある女性の生活を描いたドラマに対して「感動したよね」と友人に話すと、そこで描かれる女性の生き方が私たちの「女性像」を形作り、会話という形で承認される。つまり、メディアの情報発信は、「何が良いことなのか」という私たちの認識や感情にまで影響を及ぼす。そのため、メディアがジェンダー平等的な姿勢にならない限り、そこから派生するあらゆるデータがバイアス帯びてしまい、偏ったAIのアルゴリズムを生成する手助けをしてしまう。「AIが差別を再生産し社会を支配するような事態にならないために、AIとジェンダー平等の研究を始めました」と林教授は研究目標を語る。
実際、AIのアルゴリズムは、シングルマザーや外国人女性など、労働市場における弱者をさらに経済的困窮に追い込むことが指摘されている。AIの不公正なアルゴリズムにより女性が採用候補から除外されるケースも報告されている。そのため、AIの倫理を考える時にはジェンダーやマイノリティに配慮した視点が求められる。しかし現在、日本におけるAIの倫理の議論は、自動運転やロボットなどの議論が主流となっており、ジェンダー的な議題が俎上(そじょう)に上がっていない。そのためには、政府審議会など、公的な機関がリードをとって、AI社会において、ジェンダー平等の観点が格別に重要性を増していることを周知しなければ、根本的な問題解決ができない。
B’AIグローバルフォーラムの活動とは
それでは、デジタル化、そしてAIの社会的応用の時代に、性差別とその再生産を防ぐにはどのような取り組みが必要か。その試みの一つとして、2020年7月に発足したB’AIグローバルフォーラム(以下、B’AI)がある。B’AIは、ソフトバンクと東京大学が提携している研究推進機構Beyond AIに、唯一AIをはじめとするデジタル情報技術を人文社会科学的な視点で研究するプロジェクトとして位置付けられている。そのゴールは、AIの登場以前(Before)の表現と言論空間の歴史「Before AI」、AIの発展の背後(Behind)にある利害衝突「Behind AI」、AIの下部(Beneath)構造「Beneath AI」にフォーカスし、AIが全面浸透していく社会の中に科学研究者・活動家・市民が一体となって人権を保障することにある。
B’AIの中にはさまざまな研究プロジェクトが存在するが、同じく林教授が主宰しているMeDiも昨年その中に組み込まれた。MeDiは「メディア表現とダイバーシティを抜本的に検討する会」としてメディア表現・産業のジェンダー平等などについて取り組む。一方B’AIはAIが研究対象であるため、その機械学習の基となる社会全体のデータの公正性について考える。そのデータの中にはメディアが発信する情報も含まれる。既述のように、メディアは私たちのコミュニケーションの内容を規定し、発信する情報データにも強い影響を及ぼす。そのため、メディア表現におけるジェンダー問題の実質的な解決法を考えるには、B’AIがMeDiと連携して問題に取り組む必要がある。その上、MeDiには研究者の他、ジャーナリストや実務家が含まれている。このような特徴を持つMeDiにより、B’AIの議論の場にも多様性がもたらされ、研究者以外の視点でメディアの問題を多角的に考察することが可能となった。
昨年末に開れた第1回MeDi-B’AIシンポジウムでは、SNSで女性に対するハラスメントが多発していることが議題となった。SNSが女性や性的マイノリティーにとって平等なオンラインメディアとなるためには、さまざまなことが求められる。まず私たち一般ユーザーは、それが公共空間だという認識や相手を尊重するシビリティー(礼儀正しさ)、メディアリテラシーを持つ必要がある。それに加え、企業・政府・研究者が話し合い、制度的対策を検討することも重要だ。「表現の自由に抵触する問題もあるが、だからといってこのままマイノリティーが抑圧されたり、ヘイトスピーチなど暴力的被害を受ける現状を放置してはいけません」。林教授はその他にも、学校教育の中にメディア空間における作法を教える努力も必要だと述べた。
B’AIは教育活動にも力を入れる。その一環として、今年3月に「デザイン思考で考えるAIとジェンダーオンラインワークショップ」という国際総合力認定制度のウィンタープログラムを開催。プログラムでは、AIのキャラクターデザインや技術産業での女性像を考え、ジェンダー平等的な未来を実現するための課題発見・解決策考案をするため、学生たちとディスカッションをした。さらに、4月からAIとジェンダーをめぐる全学自由ゼミナール、及び英語で行うサマープログラムの開講の準備をしている。「東京大学の学生さんに、多角的な視点からこの問題を考えてもらう機会を作ろうと思っています」と林教授。また、広く社会でこの問題に関心を持ってもらえるように、今後もシンポジウムなどを企画し、開催する予定だ。
発足してから間もないが、B’AIの今後の活動は、学生をはじめ多くの人々に、AIなどのデジタル情報技術産業やメディア空間のジェンダー的側面を再考するきっかけになるだろう。
注)マスキュリニティー:男性性、剛健な肉体や我慢強さ、リーダーシップがあることなど「男性はこうあるべきだ」とされる価値観の総称