Von Bedeutung
- Foundry Local はプレビューで利用できます。 パブリック プレビュー リリースでは、デプロイ中の機能に早期にアクセスできます。
- 一般提供 (GA) の前は、機能、アプローチ、プロセスが変更されたり、機能が制限されたりする場合があります。
このチュートリアルでは、Foundry Local と Open WebUI を使用してチャット アプリケーションを作成する方法について説明します。 完了すると、ローカル デバイス上で動作するチャット インターフェイスが完全に実行されます。
[前提条件]
このチュートリアルを開始する前に、次のものが必要です。
- Foundry Local がコンピューターにインストールされています。 インストール手順については、「 Foundry Local の概要 」ガイドを参照してください。
チャット用に Open WebUI を設定する
Open WebUI GitHub リポジトリの手順に従って 、Open WebUI をインストールします。
ターミナルで次のコマンドを使用して Open WebUI を起動します。
open-webui serveWeb ブラウザーを開き、http://localhost:8080 に移動します。
直接接続を有効にする:
- プロファイル メニューの [設定] と [管理者設定] を選択します。
- ナビゲーション メニューで [接続 ] を選択します。
- トグルをオンにして 直接接続 を有効にします。 これにより、ユーザーは独自の OpenAI 互換 API エンドポイントに接続できます。
Open WebUI を Foundry Local に接続する:
- プロファイル メニューの [設定] を選択します。
- ナビゲーション メニューで [接続 ] を選択します。
- [+] で [] を選択します。
-
URL には、「
http://localhost:PORT/v1が Foundry Local エンドポイント ポートであるPORT」と入力します (CLI コマンドfoundry service statusを使用して見つけます)。 Foundry Local ではポートが動的に割り当てられるため、常に同じとは限りません。 - 認証の場合は、[なし] を選択します。
- [保存] を選びます。
モデルとのチャットを開始します。
- 読み込まれたモデルが上部のドロップダウンに表示される
- 一覧から任意のモデルを選択する
- 下部の入力ボックスにメッセージを入力します
それです! これで、ローカル デバイス上で完全に実行されている AI モデルとチャットが行われます。