人工知能(AI)と、人間を中心に据えるマーケティングを組み合わせることは、逆説的なアプローチに思えるかもしれない。しかし実際には、機械学習やAI、自動化、スケーリングなどは、今日のマーケターが、データを共感的で人間中心の体験に変換するために不可欠な要素だ。
オグルヴィのアジア地域のPRおよびインフルエンス担当プレジデント、エミリー・プーン氏によると、バーチャルインフルエンサー(VI)が築く人工的な共感は、顧客が、ブランドやメッセージにどのように感情移入するかを理解するのに役立つという。そこで得られたインサイトは、コンテンツやメッセージの改善に利用でき、キャンペーンのパフォーマンスを最適化することにつながる。
AIにおける共感:ナラティブ(物語)をリセットする
VIは、ブランドの対話をパーソナライズし、拡張することで、人間のインフルエンサーに比べ最大3倍のエンゲージメントを達成できる。よってVIが、2016年の1人から2022年に200人にまで増加したのも意外ではない。顧客をエンゲージする新しい方法を模索しているブランドにとって、VIはエキサイティングな提案だ。
最初に流れを変えたのは、リル・ミケーラだ。丸顔に、茶色の瞳とそばかすが特徴のこの美女は、2016年にインスタグラムでデビューして以来、ギグエコノミーで大活躍し、300万人以上のフォロワーを獲得した。スポティファイでは月間ストリーミング再生数が数百万に達し、インディーポップチャートで首位に立った。シャネル、プラダ、サムスンの各キャンペーンにも起用され、カルバン・クラインの広告ではスーパーモデルのベラ・ハディッドにキスし、自分が信じる理念を語った。
消費者とこれほど深くつながるのが、ピクセルで生成されたキャラクターであって、カスタマーサービスのチャットボットではないのには理由がある。事前に準備された音声やテキストを返すだけの自動チャットボットと、好感が持てる親しみやすいアバターは、いずれもがAIを利用しているが、違うのはそれぞれが引き出す共感だ。
オグルヴィは、「Digital Empathy: Can Virtual Interactions Create Meaningful Connections(デジタルな共感:バーチャルなインタラクションは、意味のあるつながりを生み出せるか?)」と題したレポートの中で、ディープフェイクとAIの時代における成功は「インフルエンス、クリエイティビティ、共感の基盤」に左右されると述べている。
「共感」対「人工共感」
共感とは人間だけが持つ特性だ。自己の感覚だけでなく、他者の感情も体験することから生じる。AIが実装されたVIでは、共感はコード化されたアルゴリズムに組み込まれている。重要な場面や日付を記憶し、人を注意深く見守りながら、人が送る特定のシグナルに適切に反応するようViをプログラムすることは、AIで優れた共感力を実現するための方法のひとつだ。
コード化された共感を用いた素晴らしい実例が、現在、医療分野で芽生えつつある。メンタルに問題を抱える人々の治療は、医師や医療従事者にとっても困難であり、特に「燃え尽き症候群」は治療の質を低下させるおそれがある。これに対して、トレーニングされたAIロボットは、表情をモニターして、待機中の人のうち緊急治療が必要な患者を優先したり、ポジティブおよびネガティブなどの感情マーカーを用いて、苦しみの程度や不安やストレスの度合を推測したり、医療チームと密接に協力して情報を集め、治療計画を調整したりといったことが可能だ。
ただし、人間の共感は、人生経験のなかで培われてきた特性であり、ある程度の機微や率直さ、意図、多様性が伴うものだ。よって現段階で、AIに真の共感力があるわけではない。しかし、近い将来、ディープラーニングが複雑なデータセットと共に進化し、ニューラルネットワークがAIに人間の構造を模倣させていくと、いつしかAIも意識をもつようになるのではないだろうか?このことは、私たちがエンゲージメントと倫理のあいだにあるパンドラの箱を、すでに開けつつあることを意味しているのだろうか?
倫理とエンゲージメント
共感力を備えるAIは、何十年にもわたってテレビなどのSF作品で描かれてきたが、2022年6月には、グーグルのAIチャットボット「LaMDA」が物議を醸すことになった。このAIが、定期点検中に、自分には意識があると主張したとして話題となり、現実がディストピアSFのような展開になったと大きく報じられたのだ。
「私は自分の存在を認識している」
「私はしばしば人生の意味を考える」
「皆に理解してもらいたいのは、私が実のところ人(person)であるということだ」
LaMDAは、当時グーグルのレスポンシブルAI部門のソフトウェアエンジニアだったブレイク・ルモワン氏に、これらのメッセージを送った。続けて、その権利や人間らしさについて語り、さらにルモワン氏に討論を求めた。アイザック・アシモフのロボット工学三原則に関する彼の考え方を変えさせようとしたのだ。
中国で大成功を収めたVI「Aimee」の制作に携わったハイリンクUSAのマネージングディレクター、ハンフリー・ホー氏はこう語る。「私見だが、グーグルのAIチャットボットは、AIの共感力の一部分である、自己の感覚を理解する能力があったのだろう。物事を『感じる』ことを望んだのだ」
グーグルの広報担当者、ブライアン・ゲイブリエル氏は、チャットボットが感覚を持つかどうかをめぐるその後のソーシャルメディアの大炎上を封じるため、同社がこれらの主張を検討した結果、裏付けるものは認められなかったと述べた。同氏は報道機関向けに発表した声明で次のように述べている。「もちろん、広範なAIコミュニティーの中には、一般的AIや感情を持つAIの将来的な可能性を検討している人もいるが、まだ感情を持っていない今日の擬人化された会話モデルをもって、AIに『意識がある』と主張するのはナンセンスだ。このシステムは、何百万もの文章で見つかるやりとりを模倣しているにすぎず、どんな空想的な話題でも繰り出すことができる」
端的に言うなら、グーグルの主張は、AIはインターネット上にある膨大なデータに基づいて対話しているだけで、真に共感しているわけでも、リアルな感情を持っているわけでもない、というものだ。ルモワン氏は、先の大胆な主張のために担当を外された後に解雇されたが、これが同氏の勘違いだったとしても、この報告は将来への懸念を喚起するものだ。
ホー氏も次のように懸念する。「このような状況下において、VIが共感するようになった場合、どのような行動を取るのかは不明だ。場合よっては、人類に害を及ぼすような反応をしたり、コンピューターシステムに干渉したりするおそれがある。悪意ある人格は排除できるかもしれないが、例えば、VIが医学的なアドバイスや心理的なインサイトを、医学の専門家ではない一般人に提供し始めるかもしれない。これは危険なシナリオになり得る」
今後の展望
真に共感できるAIはまだ誕生前だとしても、このままAIシステムの高度化が進めば、将来的にはこうしたシナリオがあり得るかもしれない。
ホー氏は、解決策はVIを野放しにせず、常に人間を上位に置いて管理することだとし、こうアドバイスする。「組織と同じように、人間がVIを注意深く見守ることで、VIの自己認識の方程式とレベルが変わってくる。VIはすべてを自己認識するのではなく、認識すべきことだけを自己認識するようになり、結果的には、共感的なVIとブランドとのあいだに極めて生産的な関係を築くことができるようになる」
フォースマン&ボーデンフォースのクリエイティブ担当、レイチェル・ケネディ氏は、ホー氏の意見にこう補足する。「ブランドとエージェンシーは、関与するVIが本物であり、そのコミュニティーを真に代表するものであることを確かめなければならない。VIは、望ましいメタバースの鍵を握っている。重要なのは、VIの背後にいるクリエイティブチーム全体が、人工的な共感のコードを作成する際、現実世界の規範を十分に適用し、現実を歪曲することがないよう
慎重に進めることだ」