進化するAI翻訳でも“誤訳”なぜ起こる?発展途上のAI×人間が出来ることは?専門家が解説
■生成AIの進化で「人間らしい」表現も翻訳が徐々に可能に
山田氏が生成AIの変遷を振り返る。「Googleなど今までの機械翻訳は、文字情報から確率論に基づいて、『おそらく世間で訳されている』であろう妥当な訳を出していた。ChatGPTも文脈を与えなければ機械翻訳と同様だが、周辺情報を加えると、ニュアンスをくんだ訳が出てくる。ユーザー側が文脈を絞り込むことで精度が上がる」。 そうした現状を踏まえつつ、「大規模言語モデルの可能性を、もっと探りたい」と考える。「言葉を数値化ではなく、ベクトル化する。“I love you.”を日本語で『月がきれいですね』と訳すのは湾曲表現だと言われてきたが、両者を大規模言語モデルでの“コサイン類似度”で示すと、真意はどちらも近いものになる」と説明した。 日常会話でも直訳では困るシチュエーションがある。例えば飛行機のドリンクサービスで、「私は紅茶で」とだけ言うような場面だ。「かつては“I am a tea.”と訳されることもあったが、最近の翻訳は『私は今、飛行機で注文したい』と伝えると、ちゃんと訳してくれる」という。
■AI翻訳に人間ができることは
ネット掲示板「2ちゃんねる」創設者のひろゆき氏は、「ネット上のデータを使った方が安上がりのため、SNS投稿を拾ってきてしまう」と推測する。処理水報道の翻訳についても、「英語圏の人が『“Fukushima water”で伝わる』と多用すれば、そのデータが蓄積される。一般ユーザーの言葉の使い方に左右される現状で、機械翻訳には限界があるのではないか」と考察する。 個々の誤訳に対して、NG表現をリスト化して、1対1で対応させることは可能だと、山田氏は説明する。「ある程度は統計的に処理しても、最後で個別に置き換えることができる。できない場合には、発信者が確認する責任を取るところに落ち着いてくるだろう」。 これにひろゆき氏は「ChatGPTなども差別表現などの禁止ワードを設定しているはずだが、“Fukushima”も“water”も、単語としては問題ない。組み合わせでアウトになる単語まで、人力で制限するのは難しい」と疑問を投げかけると、山田氏は「最終的には、信頼してチェックできる人が目を通す必要がある」と返していた。 (『ABEMA Prime』より)