TikTokが取り組む青少年保護の施策
ショート動画共有アプリ「TikTok」は、十代を中心に人気があります。定番アプリの一つになっているTikTokは、青少年保護をどのように考えているのでしょうか。 筆者は2024年8月1日、シンガポールで開催された「TikTok's APACSafety Event in Singapore」に招かれ、TikTok の安心安全に向けた取り組みを取材しました。TikTokのグローバル本社はロサンゼルスとシンガポールにあり、専門家との意見交換の場である「透明性・説明責任情報公開センター(Transparency andAccountability Center)」(以下、TAC)を米国、アイルランド、シンガポールに設置しています。本イベントは初の開催で、TACの公開も日本メディアには初めてです。 TikTokは、プラットフォーム上の安全性を保つために、コミュニティガイドラインやコンテンツモデレーションなどのポリシーを策定しています。ここでは、青少年保護を中心に紹介します。
使える機能を年齢で制限
TikTokの利用は、ほとんどのSNS同様、13歳以上と定められています。TikTokは青少年に適切な体験を提供するために、正確な誕生日を登録するよう呼び掛けています。利用年齢に達していない子どもは、訓練を受けたモデレーターが特定することもあるそうです。 さらに、年齢によって利用できる機能を制限しています。例えば、DM(ダイレクトメッセージ)は16歳未満だと利用できません。16歳から17歳の人に関しても、細かくプライバシー設定ができるようにしています。また、13歳から15歳の人は、自分の動画の公開範囲の初期設定が「友達のみ」に設定してあり、動画へのコメントも制限できます。 表示される動画にも配慮しています。TikTokはほとんどの人が「おすすめ」フィードという、プラットフォームが薦める動画を視聴しています。そのため、年齢にふさわしくない内容の動画が表示されてしまう懸念が残ります。そこでTikTokは、各動画に成熟度評価を割り当て、成人向けのテーマで作成されている動画は十代に表示しないようにしています。 TACでは、TikTokがAIと人的リソースにより、コンテンツのコミュニティガイドライン違反をチェックする仕組みが公開されました。AIは、動画上でナイフを振りかざしたり、アルコール飲料を飲んだりする様子を素早く検知し、危険なレベルを数値化して判断します。AIによる判断が難しい場合は、コミュニティガイドラインを熟知するオペレーターに引き渡されます。オペレーターは動画の内容を吟味し、ポリシー違反がどうかを判定します。不適切だと判断された動画は削除されます。オペレーターは各国に配置され、その国の文化と言語を熟知している人が担当しています。日本にもいるそうです。 また、生成AIについては、コンテンツの信頼性の標準化団体「C2PA」と提携し、自動的にラベルを付ける機能を実装しています。 ただ、プラットフォームがどれだけ真摯に取り組んだとしても、ダイエットや美容に関するグレーな内容など、あまり子どもに見てほしくはない動画が表示されることがあります。そんなときのために、学校や保護者の情報モラル教育が必要となります。SNSとの向き合い方を話し合いつつ、TikTokのペアレンタルコントロールをうまく活用した上で、楽しんでほしいと思います。 出典:日経パソコン、2024年9月23日号より 鈴木 朋子=ITジャーナリスト・スマホ安全アドバイザー 日立ソリューションズにてシステムエンジニア業務に従事、のちフリーライターに。SNS、スマホ、パソコン、Webサービスなど、入門書の著作は20冊を越える。ITの知見と2人の娘の子育て経験を生かして、子どもの安全なIT活用をサポートする「スマホ安全アドバイザー」として活動中。近著は「親が知らない子どものスマホ」(日経BP)、「親子で学ぶ スマホとネットを安心に使う本」(技術評論社)