誰もがデータサイエンティストに!? データ分析の道しるべ「スキルチェックリスト」の活用法
最新版の目玉はAI利活用に関するスキルの定義
――第5版で大きく変わったのはどこですか? 高橋: 「AI利活用スキル」を追加し、69項目を定義したというのが、一番大きな変化です。活用スキルと背景理解・対応スキルに大別し、計9つに分類し、ハルシネーション(事実に基づかない情報をAIが生成する現象)、ファインチューニング(AIの追加学習)、異なるデータ種類を統合処理するマルチモーダルAIなどの実践スキルをレベル分けしたうえで定義しました。 実務に即して説明します。たとえば、従来であれば、Webサイトにチャット機能を導入する場合、Web担当者(データの準備とメンテナンス)とシステム担当者が必要だったと思います。 生成AIを導入すると、FAQのデータをとりあえずサーバに置いておけば、勝手に引っ張ってきてチャットツールが作れる。その場合、生成AIを使ったチャットツールをWeb担の人たち自身が作り、データメンテナンスとツールの管理をするようになりますので、彼らにもAI利活用スキルが必要になるだろうということです。
ECサイトは、作り方が根本的に変わるでしょう。通常、ECサイトではユーザーが製品を検索します。それが、ゆるいニーズで検索したり、あるいは検索するまでもなく、行動履歴を参照して「これが必要ではないですか」とレコメンドされたりするようになる。A/Bテストはもっと頻繁に行われ、2種類ではなく、生成AIが作成したよりパーソナライズされた画像や広告を出し分けるようになるでしょう。
杉山: 弊社では、Greenという転職情報サイトを運営していますが、すでにかなり生成AIや関連技術を使っています。曖昧なニーズのキーワードで高い精度で検索できたり、ユーザーの行動を基にどのような求人に興味があるかを判断したりしています。 これまでも、「Aの募集記事を見た人はBも見ている。だからAを見た人にはBも出そう」というレコメンドはありました。そのサイトにおける多くのユーザーの行動履歴を蓄積して、傾向を見つけてレコメンドするというものです。この場合、比較するためのさまざまな技術をたくさん知っていて、該当タスクにはどれとどれを組み合わせればいいか理解して、いろいろ試してみるというデータ分析の専門スキルが必要でした。 しかし、LLM(大規模言語モデル)の登場で、機械が文章の意味を理解するようになりました。「この募集記事を読んだということは、この求人と似ているBとCにも興味ありますよね」という感じで、行動履歴の蓄積なしでレコメンドが出せるようになっています。 1回の閲覧で精度の高いレコメンドが出せるのであれば、もはや検索すら必要なくなります。そもそも、転職活動のはじめの段階では、自分が何を求めているのかよく分からないですよね。そういう言語化できないところをサポートしつつ、検索するというより、「あなたはこれを求めているのではないですか」と言ってくる。そういう方向に向かっていく予定です。