メリット山盛り! 導入進む“子ども用生成AI”の最前線 不正リスクにはどう対処?
こうした教育現場でのAI活用の事例について、AIエンジニア/SF作家の安野貴博氏は「非常にいい話だ」と評価。「社会全体で新しい技術が広まっているなかで、学校だけはそれが使えないとなると、(学校と社会の)乖離が広がってしまい、社会に出たときに突然生成AIがある状況になってしまう。Google検索を使わずに仕事をするのが難しいならば、学校でも『Google検索というものがある』と教えるべきで、それは生成AIも一緒だ」と語った。 また、急速に進化が進むテクノロジーについて「教育(業界)がいかに早くキャッチアップし、対応できるかが非常に大きな問題だ」と話し、「先生も大変だと思う。いきなりChatGPTなどの生成AIが出てきて、もちろん(先生はAIに対する)プロではない。そういう意味では、学校の先生だけに頼り切るのではなく、(AIなどの)産業界で活躍されている第一線の方が、もうちょっと教育現場との距離が近くなって、実際に授業してみるなど、そういったことができるようになるといいのでは」と持論を述べた。 一方で、懸念されるAIの勉強における不正利用について、安野氏は大学での事例を取り上げ、「この前聞いてすごくいいと思ったのが、大学の先生がレポートの課題を出す際に、あらかじめ『この課題についてChatGPTに聞いたらこう答えた』ということまで全部書いてあるんです。そうなると、学生はその答えを『もっと良くしよう』と考えなければいけない。事前のAIの回答にはハルシネーションと呼ばれる嘘も混じっているし、論理展開も完璧ではないので、そのあとは自分の頭で考えなければならず、こうすればChatGPTをただ使っただけのカンニングはできなくなる。課題の出し方をちょっと変えるだけで、ものすごく実践的な学びにつながるようになる」と語った。 では、家で親が子にChatGPTなどの生成AIを使わせる際の注意点はどこか。安野氏は「他のインターネットと比べると、実はChatGPT自体にはいろんな防御規制が入っているので、ChatGPTに聞いたらやばい情報がいきなり出てくるといったことはそこまで起きない」としつつ、「むしろSNSの向き合い方であるとか、インターネットの向き合い方のほうが難しい。SNSのほうが危険性は段違いであって、(生成AIに関しては)ガンガン触らせて、子ども達が自分で学べるようにしたほうがいい」と見解を述べた。 (『ABEMAヒルズ』より)