* 自動翻訳した記事に、編集を加えています。
「あなたたちの手は血で染まっている」 −− 1月末、米上院司法委員会で開かれた公聴会で、ある共和党議員はマーク・ザッカーバーグ氏をはじめとする大手ソーシャルメディア5社の経営トップをこう糾弾した。
この委員会で取り上げられたテーマは、インターネット上で子どもたちが直面している危険性。性犯罪者や偏向した美を煽るコンテンツがあふれる中、経営トップは子どもたちの保護責任を厳しく追求された。
驚くべきことに、この告発は多くの証拠に裏付けられている。
公聴会の直前には、ディープフェイクで生成されたテイラー・スウィフトの性的な画像が拡散された。こうした事案が起き、拡散し、そしてフェイクと言われた後もさらに拡散を続けたことに、私は恐怖感すら覚えた。
米大統領選挙が行われる今年は、政治的議論や選挙結果をゆがめようとするディープフェイクが大量に拡散する恐れがある。有害で危険なこれら偽情報の一部は、広告という形で社会に危害を加える可能性があるのだ。
オープンプラットフォームに無料でアップロードできる膨大なユーザー生成コンテンツ(UGC)は、事前の審査が極めて難しい。だが、広告は媒体の質が異なる。すでに表示されているものの除去や修正は無理でも、オンライン広告の質を向上させるため、我々ができることはもっとあるはずだ。
それは他のメディア同様、全ての広告を表示前に専門家の手で審査すること。そうすれば、有害広告は確実に減らせる。
広告枠には企業や個人がお金を払う。それならばなぜ料金を上げたり、利益を減らしたり、あるいは新しいビジネスモデルをつくるなどして、より厳しい監視体制をつくり上げないのか。
大手テック企業が導入するAIや機械学習による自動の広告審査システムは、私の理解を超えるほどに賢く、驚異的ですらある。だがたくさんの悪質な広告を見分けても、その全てを捉えられるわけではなく(それはすでに証明されている)、今後もそうなるとは限らない。
それゆえ、今の我々にとっての選択肢は2つしかない。「クリアキャスト」(英国のほぼ全てのテレビ広告を事前承認している非政府組織)のような監視システムを構築するか。あるいは、違法かつ誤解を生む広告も表示してしまう、自動審査システムを利用するプラットフォームを受け入れるか。後者の場合は二次的被害も考慮しなければならない。
適切な監視システムを構築すれば、現在自動審査システムを導入している企業のビジネスモデルや収益には影響が出るだろう。
だが、莫大な利益を上げているテック大手がより責任ある行動を取ったからといって、破産に追い込まれることはないはずだ。彼らにとってそれはコストの範疇であり、社会に恩恵をもたらし、評価を高める機会にもなり得る(さらには広告そのものへの評価も高まるだろう。我々の業界には信用性が欠けているのだから)。
率直に言うなら、この場合コストを問題にすべきではない。道徳的規範にコストがかかるのは当然だ。もしもコストが問題なら、それはビジネスモデルに欠陥があることを示している。社会に繰り返し被害を与える(しかも意図的に)企業に、利潤を追及する権利など許されるはずもない。
テック大手はこう反論するだろう。広告の審査は怠っていない。審査プロセスを自動化するAIや機械学習といったテクノロジーには、大規模な投資をしている。人も雇用し、判別しにくい広告の処理に当たらせている。基準に満たないと判断した広告は削除している……等々。
さらに、手作業で処理するには広告の数が余りにも多過ぎる、とも言うだろう。全てがリアルタイムで行われるから、広告主はキャンペーンや制作物の微調整が可能なはずだ。あまりにも多くのことが凄まじい速さで起きているので、唯一の解決法は自動化以外にない……とも。
我々の業界が有害かつ違法な広告を撲滅したいのなら、広告が表示される以前の段階のシステムを変更しなければならない。削除は今のところ、何らかの損害が起きた後でしか実行されていない。
ビジネスモデルの枠で考えた場合、二次被害はどの程度許されるのだろうか。ビジネスモデルの是正が必要なら、どのタイミングでそれを認識するのか。ビジネスの責任の有無は、どこで線引きすればいいのか。
自動化は人の暮らしに多くの恩恵をもたらす。繊細な技術が必要な手術などにロボットを活用することは、その好例だ。しかし微妙な判断や解釈が必要な場合、犯罪や社会的被害が生じる可能性がある場合、そして多額の金銭が取引される場合などには、熟練した人間の知恵が欠かせない。
徹底した広告審査と、便利でも不備のある広告審査。その併用は、ありえないのだ。
リンジー・クレイ氏は英国のテレビ専門マーケティング会社「シンクボックス」の最高経営責任者を務める。