Operaで最新のAI機能を「ローカルLLM」として利用できる!セキュリティ面でも◎
実際に使ってみた
執筆時点(2024年4月4日)では一般公開前の段階で、Operaの初期テスト版でのみ利用可能な機能です。試してみたい場合は、Opera Oneの開発者版をダウンロードして設定する必要があります。 それができたら、「Aria(小さなAのマーク)」のボタンをクリックして左側のサイドパネルを開き、指示にしたがって内蔵のAIボット「Aria」を設定します。なお、無料のOperaアカウントを作成するか、サインインが必要です。 「Aria」の準備ができたら、上部に「Choose local AI model」というボックスが表示されます。 これをクリックして「Go to settings」を選択すると、利用可能なLLMの一覧とそれぞれの関連情報が表示。LLMを選ぶと、バージョン一覧(ファイルサイズも併記)とローカルインストール用のダウンロードボタンが表示されます。 Operaでは複数のLLMを設定することもできます。「Aria」ウィンドウの上部にあるドロップダウンメニューから各チャットで使用したいものを選ぶだけ。 ローカルLLMを選択しない場合は、クラウドベースの「Aria」チャットボットを使用できます。チャットウィンドウの右上にある「+ボタン」をクリックすれば、いつでも新しいチャットを開始可能です。 こうしたローカルLLMの使い方は、クラウド上で動作するものとまったく同じ。文章を作成したり、人生から宇宙のことまで何でも質問したり、知りたいことについて何でもヒントを得ることができます。 なお、このようなモデルにはクラウドへのアクセスがないため、比較的新しい話題や時事的な話題をウェブで調べることはできません。 Source: Opera
白井樹(OCiETe)