Operaで最新のAI機能を「ローカルLLM」として利用できる!セキュリティ面でも◎
膨大な量のテキストで学習した大規模言語モデル(LLM)とは、GoogleのChatGPTやGeminiのような生成AIチャットボットを動かす極めてスマートなエンジンのこと。 Operaで最新のAI機能を「ローカルLLM」として利用できる!セキュリティ面でも◎ そんなLLMのローカル統合を可能にする初のウェブブラウザとなったのが、「Opera」です。 LLMがローカルにインストール可能だということは、すでに読んだことがある人もいるでしょう。こうしたAIモデルは各自のコンピュータに保存されるため、クラウドには何も送信する必要がありません。 機能させるにはそれなりのハードウェアを組み合わせることが必要ですが、プライバシーの観点からはローカルにインストールするほうが優れています。入力したプロンプトを盗み見られたり、AIの学習のために会話を使われたりする心配がないからです。 そして、さまざまなAI機能を導入してきたOperaが、この度ローカルLLMにまで拡張され、150種類以上のモデルから選択ができるようになりました。
OperaのローカルLLMとは?
さっそくOperaのローカルLLMを使ってみる前に、留意するべき点がいくつかあります。 まず、まだ実験段階のため、バグに気づくこともあるかもしれません。次に、ストレージに多少の空き容量が必要です。2GB以下のLLMもありますが、中には40GBを超えるものもあります。 LLMが大きければ大きいほど優れた答えが得られますが、ダウンロードや実行にかかる時間も長くなります。 モデルの性能は、実行しているハードウェアのセットアップにある程度依存するため、古いマシンを使っている場合は、反応が返ってくるのに少々待たされることもあるかもしれません(繰り返しますが、これはまだベータテストです)。 こうしたローカルLLMには、大手企業(Google、Meta、Intel、Microsoft)がリリースしたモデルと、研究者や開発者が製作したモデルが混在しています。 そして、多くがインストールも使用も無料です。理由の1つは、ユーザーが各自のコンピュータを使ってLLMを動かすため、LLMの開発チームにはランニングコストがかからないため。 こうしたモデルの中には、コーディングなど特定のタスク向けのものもあり、ChatGPTやCopilot、Geminiに期待するような一般常識の問題に対する回答は得られないかもしれないことを留意しましょう。 それぞれのモデルに説明が付いていますので、インストールする前に一度目を通して概要を把握することをおすすめします。