X(旧ツイッター)が、コンテンツモデレーションの実態と同社規定に反する有害コンテンツの比率を明らかにした。
同社が発表した2024年上半期の「グローバル・トランスペアレンシー(透明性)・レポート」によると、過去6か月間の不適切な投稿の割合は全体の0.0123%。これは1万本に1件の割合となる。
最も多かったのは憎悪や虐待・ハラスメント、暴力的なコンテンツ。憎悪に関する投稿率は0.0057%と、有害コンテンツのほぼ半数を占めた。
Xは「リーチの自由ではなく、言論の自由」を標榜する。コンテンツが規定に違反している場合、削除に代わる第一段階の措置としてリーチを制限し、コンテンツを見つけにくくする。
リーチが制限された投稿はインプレッションが82〜85.6%減少するという。
次の段階は投稿の削除またはアカウントの停止。今年1月から7月にかけて、1,070万件の投稿が削除、または不適切な投稿としてラベル付けされた。
TikTok(ティックトック)の場合、2024年第1四半期だけでコミュニティガイドラインに違反した動画コメントは9億8,000万件に上り、それらを削除。これはその間に公開された総動画コメント数の1.6%に相当する。
ティックトックのコンテンツは、動画かライブストリームかのいずれか。ガイドラインに違反したコンテンツの削除率はそれぞれ0.9%、1.7%だった。ティックトックはXと異なり、コンテンツが違反している場合は即座に削除される。
Xは報告書で次のように記す。「当社の実施指針は人権擁護が基盤。特に教育とリハビリテーション、抑止に重点を置き、幅広い是正措置に多額の支出を行っている。表現の自由を実現するため、広範かつ包括的なアプローチを取っています」
ユーザー報告は合計で2億2400万件以上。最も多かったのは虐待や嫌がらせに関するもの(36.5%)で、次いで憎悪(29.9%)。これらの数字にはプラットフォーム操作やスパムは含まれていない。
プラットフォーム操作とは、Xを利用して「他者を欺いたり、他者の体験を妨害するような大規模かつ攻撃的、または詐欺的行為」と定義される。
アカウント停止の最大要因はプラットフォーム操作とスパム(4億6400万件)で、次いで子どもの安全に対する脅威(280万件)だった。
Xを所有するイーロン・マスク氏は、スパムとボットアカウントを排除する責任を負ってきた。同氏は2022年にツイッターを買収する際、「ボットとスパムアカウントに関する必要な情報を提供しなかった」として、買収から手を引こうとした経緯がある。
Xのプラットフォーム操作とスパムに対する防御策は、「能動的、あるいは自動化」されている。コンテンツモデレーションは全てのカテゴリーで、マシンラーニング(機械学習)と人による監視を併用。自動的に処理されるか、あるいはユーザー報告や検知システムに基づいて人間のモデレーターがコンテンツ処理を行う。
フェイスブックとインスタグラムを所有するメタは、実施方針ごとに透明な数値を出し、違反行為の拡散を測定する。有害コンテンツが生み出す悪影響は、そのコンテンツの閲覧回数に比例するとみなす。
インスタグラムでは今年上半期のヘイトスピーチの比率は平均0.025%で、フェイスブックは0.02%だった。
他のプラットフォームよりも若年ユーザー層を多く抱えるスナップチャットでは、2023年下半期に570万件超のコンテンツに対する措置が取られた。これは同プラットフォーム上のコンテンツビューの0.01%を占める。
広告主のブランドセーフティに関し、Xのスポークスパーソンは以下のように述べる。「Xは、広告主が消費者に向けて安全なマーケティングが実行できるプラットフォーム。我々はそれを誇りとしています。ブランドセーフティは、第三者検証パートナーであるダブルベリファイとインテグラル·アド·サイエンス(IAS)によって99%保障されています」