AIが「新しいインチキ」にならないために。AI研究者が見た2024年の生成AIとOpenAI総括
OpenAIとGeminiはどちらが「役立つ」のか…AI研究者の視点
AI研究者からみて、OpenAIとグーグル(Gemini)のどちらが「役に立つ」のか? 実際問題、Geminiの方が役立つと実感している人が多いのではないか、と筆者は考えている。 Geminiの方が高速で性能も十分高く、しかもAPIも公開されているため、月額1000ドル(約15万7000円)以上使うTier5ユーザーでないと使わせてもらえない「o1」のAPIよりもずっと役に立つからだ。 正式リリースされたo1および月額200ドル(約3万1000円)払うと使うことができる「o1 pro mode」は、一般の人が触るには少々オーバースペックに思える。 例えば、o1 pro modeは、物理学や数学などの論文を読ませたり、要約させたり、その論文をもとにSF的なアイデアを考えさせたりするのには、非常に役立つ。日常的にそんな使い方をする人は特定の業種に限られる。 言い方を変えれば、理系大学生のインターンや助手を雇うような感覚なのだが、あなたは仕事でそんな助手を必要としているのか?と考えると分かりやすいかもしれない。 OpenAIの失敗に話を戻すと、彼らが抱える問題は、「o1 pro modeもSoraも、より安くて高性能な他社の選択肢がある」ということなのだ。 特に2024年はローカルLLM(インターネットの接続せずに使えるLLM)の発達が目覚ましかった。 「vllm」や「ollama」のような、高速化・軽量化の工夫をこらした「量子化モデル」を手軽に動かせる環境も充実してきたし、「MacBook Pro(M4)」のように大容量メモリーにLLMを入れてローカルで動かしても実用的な性能が出せるようになってきた。 また、「Qwen2.5-Coder」のような、ローカルで動作するLLM(LLMの「大きさ」では比較的小さい30Bクラス※ )でもプログラミングの支援としては申し分のない性能を発揮できるようになった。 ※編注 30Bとは:生成AIのパラメーター数のこと。モデル内部の複雑さ・規模を示している。BはBillionの略で、30Bは300億パラメーターの意味。 さらには、熱力学を応用して、LLMとしては非常に小さな「3B」程度の小規模なモデルでも飛躍的に性能を向上させることができる「entropix」や、(囲碁や将棋AIに使われる)モンテカルロ木探索とLLMを組み合わせたo1のような手法をオープンソースで実現する方法が模索されるなど、2024年にかけてローカルLLMでも十分な実用性が出せることが次第に証明されてきた。 2025年の今頃は、ローカルLLMが発達して誰もクラウドの向こう側にあるChatGPTのようなものは使わなくなっているかもしれない。