有害コンテンツを摘発、その理由も説明する…韓国ネット大手の「巨大言語モデル」
【10月25日 KOREA WAVE】韓国ネット大手カカオが、巨大言語モデル(LLM)を活用して有害コンテンツをモニタリングし、人工知能(AI)生成による回答の倫理性を検討する。 カカオのチョ・ヘヨン研究員は22日、カカオAIキャンパスで開かれた「if(kakaoAI)2024」で「カカオは有害コンテンツモニタリングシステムとコンテンツ倫理性を判断するAIガードレールにLLMを適用しスパム情報を分類する」と説明した。 有害コンテンツ監視システムは▽分類結果▽要約▽疑わしいキーワード ▽推奨ポリシー――の4つの段階で構成されている まず、運営者は、通報または公開されたコンテンツがスパムかどうかを一次的に判断する。 その後、オリジナルコンテンツの内容を簡単に整理し、コンテンツ内の新語・隠語や文脈を解釈する必要がある「同形異義語」を識別する。最後に、上記の結果を総合して、とるべき措置を提案する。 また、LLMが、スパム分類結果とともに、どの部分が有害なのか、分類理由を説明する。これにより、運営者は効率的にスパムを監視することができる。 チョ研究員は「スパム分類能力と文章生成能力の両方が必要な作業なのでLLMを適用した。大規模データ学習を通じてスパムのパターンと文脈を理解することができる」と説明した。 (c)KOREA WAVE/AFPBB News
KOREA WAVE