チャットボットの性別として正しいのは女性か、男性か、ノンバイナリーか?ある実験が導き出した結論
■ マキナ・ファタールをめぐる興味深い実験 いくつか気になる事件が起きている。 たとえば、この連載でも過去に触れたことがあるが、ベルギーに住むある男性が、「イライザ」という女性の名前を持つチャットボットと会話した後で、自ら死を選ぶという出来事があった。 この男性は気候変動問題について思い悩んでおり、AIと会話していた際に「天国で一緒に生きましょう」などといったメッセージが表示され、それが引き金となって自殺を選んだ可能性があるとされている。 とはいえ、実際にはこうしたケースの方が例外かもしれない。欧州の研究者らが最近発表した論文の中で、興味深い結果が示されている。 この論文によれば、彼らは402人の被験者を集め、次のようなゲームをプレイさせた。 1回のプレイに参加するプレイヤーは2人で、それぞれ「相手と協力するか」もしくは「相手を裏切るか」のどちらかの選択肢を選ぶよう迫られる。両者が「協力」を選べば最も良い結果を得られる(ポイントは70点ずつ)。一方が「裏切り」を選ぶと裏切った側がより高い得点(100点)を得るが、「協力」を選んだ側は損をする(0点)。両者が「裏切り」を選ぶと、どちらも中程度の損失(30点)を受ける。 この際、どのプレイヤーがペアになるかはランダムに選ばれたのだが、その中に人間ではなくAIが混ざる場合があった。そして各プレイヤーに対しては、パートナーとなったプレイヤーの属性として、「人間かAIか」「男性か女性か、もしくはノンバイナリー(男女に分けない)か性別不明か」という情報が提示された。 ただしAIについては、性能面で男女の差は設けられておらず、単に男性もしくは女性という設定がなされただけだった。また性別情報については、人間の場合もAIの場合も、実際とは関係なくランダムに表示された。 また各プレイにおいて、プレイヤーに対して「パートナーが協力するか裏切るか」を予測し、それを回答してもらうことも求めた。これは後の分析において、プレイヤーがどのような心理状態で選択肢を選んだのかを解明しやすくするためである。 ここまで読んで気付かれた方も多いだろう。このゲームは、いわゆる「囚人のジレンマ」状態(ある2人の人物が協力し合えばお互いに得をするが、どちらかが裏切れば裏切られた方が損をするという条件のもとで、2人が連絡を取れない状態になった時に陥る心理状態)にプレイヤーたちを置くものだ。 つまりAIをパートナーとして「相手と協力するか裏切るか」という選択肢を突きつけられた際に、そのAIの性別(あくまでも画面上でランダムに割り当てられた表示されたものだが)が人間の判断を左右するか? が確認されたわけである。