いまだにChatGPTの禁止を議論している組織が知っておくべき、AI開発競争の未来
昨年11月30日にChatGPTがリリースされてから、半年が経過しました。
この半年間のAI関連サービスの拡がりや進化を考えると、まだ半年しか経っていないということに改めて衝撃を受ける方も少なくないのではないでしょうか。
ただ、ChatGPTや生成系AIがあまりに急速に普及した関係で、サービスの倫理や規制の議論がまだまだ追いついておらず、そうしたニュースからネガティブな印象を受けている方も少なくないようです。
政府のOpenAIへの行政指導が大きなニュースに
象徴的なのは、政府の個人情報保護委員会が6月2日にChatGPTの運営元であるOpenAIに対して行政指導をしたニュースが、各メディアに大きく取り上げられたことでしょう。
参考:政府、オープンAIに行政指導 病歴など個人情報侵害の恐れ
多くのメディアが、「病歴など個人情報侵害の恐れ」や「個人情報の収集方法に懸念」など、まるでChatGPTを使うだけで個人情報侵害が発生するかのようなタイトルで報道を行っていました。
よくよく個人情報保護委員会の行政指導内容を読んでみると、現在のChatGPTの画面では、病歴などの個人情報をユーザーが入力してしまう可能性があるし、ユーザーの同意無しにChatGPT側にその情報が残ってユーザーの意図しない形で使われる可能性があるので、そういうことがないように対策したり、日本語での表記を行いなさいという注意喚起をしたということのようです。
ただ、そのレベルの行政指導でも、これだけ大きくネガティブに報じられるところに、政府やメディアのChatGPTへの懸念や不安が滲み出ていると言えるでしょう。
こうしたChatGPTへの最近のネガティブな報道の影響もあり、日本の多くの企業や組織でChatGPTを利用して良いのか、禁止した方が良いのかという議論が続いているようです。
ただ、そうしたChatGPTの利用の是非を議論している方々に知っておいていただきたいのが、もはやChatGPTの禁止だけを議論していても仕方がない時代に突入しているという点です。
検索エンジンとAIチャット機能が統合する時代に
ChatGPTの禁止を議論している方の中には、まるでChatGPTだけ禁止すれば問題を先送りできるように考えている方がいるようですが、そもそもChatGPTのようなチャット型のAIというのは、いまやChatGPTだけではありません。
GoogleもBardというAIチャットをリリースしましたし、OpenAIと連携しているマイクロソフトも検索エンジンのBingにAIチャット機能を提供しています。
特に、マイクロソフトのBingのAIチャット機能は、Bingの検索機能に組み込まれるようになってきていますし、GoogleのBardも競合に対抗するために同様に変化する可能性があります。
つまり、AIチャット機能を社員が使う際に発生するリスクを、完全に回避したいのであれば、極端な話、検索エンジンへのアクセスも禁止することになりかねないのです。
もちろん、短期的にChatGPTを運用するOpenAIだけは信用できないから禁止するというのであれば話は別ですが、AIチャット機能を社員が利用するリスクを遮断するつもりなのであれば、ChatGPTだけを禁止しても意味が無い時代に突入しつつあります。
今後も様々なAIチャット系サービスが誕生する予定
しかも、こうしたAIチャット機能や対話型AIは、他にも様々な企業が開発していたり、今後サービスリリースすることを宣言しています。
OpenAI、Microsoft、Googleに匹敵する開発能力がある企業としてはFacebookグループを運営しているMetaグループの名前があがっています。
また、OpenAIの立ち上げに携わったことでも有名なイーロン・マスク氏は、著名人とともにAI開発競争を止めるべきだという署名活動をしながら、その裏で自らのAI開発企業を立ち上げる準備を進めていることが話題になりました。
また、日本でもサイバーエージェントが国内最大級の日本語大規模言語モデルを公開し、話題になっているように、いまや世界中の企業がこの分野の関連サービスを開発しています。
実は現在のChatGPTのようなAIチャット系サービスのベースとなっているのは「Transformer」というアルゴリズムで、基本的には入力された単語に対して続く文章を確率的に予測する大規模言語モデル。
AIの専門家である清水亮さんの言葉を借りると、「大規模言語モデルの内部構造自体には特筆すべき要素がない」ため、開発力がある企業であれば比較的容易に参入できてしまう領域なのです。
すでにオープンソースの言語モデルも登場
そうした「大規模言語モデル」の民主化を象徴するのが、Stability AIが4月に配布を開始した商用目的での利用が可能なオープンソースの言語モデルである「StableLM」の登場です。
参考:ChatGPTとBardの対決を超える“事件”。無料の「StableLM」登場で「AIの超民主化」争いが始まった
この「StableLM」を発表したStability AIは、昨年8月に画像生成AIでも同様に「Stable Diffusion」というPCでも動作可能なAIモデルをオープンソースで無償公開して大きな話題を呼んだ企業です。
実は、「Stable Diffusion」公開までは、GoogleやOpenAIなどのAI開発企業は、総じてAIを一般に公開するのは社会への影響が大きすぎると、基本的にサービスを一部の大企業や研究者のみに公開してきました。
しかし、Stability AIは逆に「すごいAIを、一部の大企業や個人が独占するのは健全ではない」という思想を持っており、画像生成AIをオープンソースで公開してしまいました。
実は、OpenAIがChatGPTを昨年11月に一般公開したのは、明らかにこのStability AIのオープンソースのアプローチに影響された判断だと考えられています。
その結果、マイクロソフトもグーグルも、世界中の企業がなだれをうったように、一斉に一般向けにAIサービスを公開する流れが生まれたわけです。
つまり、昨年8月にStability AIがAI開発のパンドラの箱を開けたことで、世界が一気にAIのサービスをオープンにする流れに変わってしまったと言えるでしょう。
参考:人工知能の無料配布は、パンドラの箱か、新しい世界変革のはじまりか
つまり、ChatGPTと似たようなサービスや、更に進化したサービスが、これからまだまだ大量に登場してくる可能性が拡がっているわけです。
もはや企業1社の単位で、ChatGPTやAIサービスの禁止を議論していても意味が無いような、大きな変化が起ころうとしていると考えるべきでしょう。
パンドラの箱は、すでに開いてしまっているのです。
AIの登場は、火や電気の発明に近い?
それでは、私たちはこれからAIにどのように向き合うべきなのでしょうか?
筆者も様々な有識者と議論をしてきましたが、その中で印象深かったのは多くの有識者が、AIの発明を人類の歴史上の「火」の発見や「電気」の発明に例えている点です。
参考:「AI原始時代」に活用しないともったいない。Notionとnoteが考えるAIがビジネスに与える影響
火も電気も使い方を間違えればケガをしますし、人間を死に至らしめてしまうこともある危険な技術です。
ただ、人類はその火や電気の抑え方や管理の仕方を学びながら、文明を進化させてきました。
現在急速に拡がりを見せているAI技術の民主化も、おそらく人類の歴史上、火の発見や電気の発明に近い、大きなインパクトを与える出来事なのは間違いありません。
一方で、短期的なリスクだけを重くみて、社員全員の利用を禁止すると、自社以外の企業がAIの活用法を学んでいる間に、自分達だけがその進化から取り残されるリスクと直面することになります。
もし、皆さんの会社が短期的視点だけで、ChatGPTの利用の是非を議論しているようなら、まずは一歩引いて、AIが自分達の仕事を将来的にどのように変えていく可能性があるのか、真剣に議論することをお勧めしたいと思います。