AI Toolkit よくある質問
モデル
リモートモデルのエンドポイントと認証ヘッダーを見つけるにはどうすればよいですか?
一般的な OpenAI サービスプロバイダーでエンドポイントと認証ヘッダーを見つける方法の例をいくつか示します。その他のプロバイダーについては、チャット補完エンドポイントと認証ヘッダーに関するドキュメントを確認してください。
例 1: Azure OpenAI
-
Azure OpenAI Studioのデプロイブレードに移動し、例えば
gpt-4o
などのデプロイを選択します。まだデプロイがない場合は、デプロイの作成方法についてAzure OpenAI のドキュメントを確認してください。 -
エンドポイントセクションのターゲット URIフィールドでチャット補完エンドポイントを取得します。
-
エンドポイントセクションのキープロパティから API キーを取得します。
API キーをコピーしたら、AI Toolkit の認証ヘッダーとして
api-key: <YOUR_API_KEY>
の形式で追加します。認証ヘッダーの詳細については、Azure OpenAI サービスのドキュメントを参照してください。
例 2: OpenAI
-
現時点では、チャット補完エンドポイントは
https://api.openai.com/v1/chat/completions
に固定されています。詳細については、OpenAI のドキュメントを参照してください。 -
OpenAI のドキュメントにアクセスし、
API Keys
またはProject API Keys
を選択して API キーを作成または取得します。API キーをコピーしたら、AI Toolkit の認証ヘッダーとして
Authorization: Bearer <YOUR_API_KEY>
の形式で入力します。詳細については、OpenAI のドキュメントを参照してください。
エンドポイント URL または認証ヘッダーを編集するには?
間違ったエンドポイントまたは認証ヘッダーを入力すると、推論でエラーが発生する可能性があります。
-
VS Code の
setting.json
ファイルを開く-
認証失敗通知で
Edit settings.json
を選択する -
または、コマンドパレット (⇧⌘P (Windows, Linux Ctrl+Shift+P)) に
Open User Settings (JSON)
と入力する
-
-
windowsaistudio.remoteInfereneEndpoints
設定を検索する -
既存のエンドポイント URL または認証ヘッダーを編集または削除します。
設定を保存すると、ツリービューまたはプレイグラウンドのモデルリストが自動的に更新されます。
OpenAI o1-mini または OpenAI o1-preview の順番待ちリストに参加するにはどうすればよいですか?
OpenAI o1 シリーズのモデルは、推論と問題解決のタスクに特化して設計されており、集中力と能力が向上しています。これらのモデルは、ユーザーのリクエストの処理と理解により多くの時間を費やすため、科学、コーディング、数学などの分野で非常に優れています。例えば、o1 は、医療研究者が細胞シーケンシングデータを注釈付けしたり、物理学者が量子光学に必要な複雑な数式を生成したり、あらゆる分野の開発者が多段階ワークフローを構築および実行したりするために使用できます。
o1-preview モデルは、限られたアクセスで利用可能です。プレイグラウンドでモデルを試すには、登録が必要であり、Microsoft の資格基準に基づいてアクセスが許可されます。
GitHub モデルマーケットにアクセスして OpenAI o1-mini または OpenAI o1-preview を見つけ、順番待ちリストに参加してください。
独自のモデルや Hugging Face の他のモデルを使用できますか?
独自のモデルが OpenAI API 契約をサポートしている場合、それをクラウドでホストし、カスタムモデルとしてAI Toolkit にモデルを追加できます。モデルのエンドポイント URL、アクセスキー、モデル名などの主要な情報を提供する必要があります。
ファインチューニング
多くのファインチューニング設定があります。それらすべてを気にする必要がありますか?
いいえ、テストのためにデフォルト設定とサンプルデータセットで実行するだけでかまいません。独自のデータセットを選択することもできますが、いくつかの設定を調整する必要があります。詳細については、ファインチューニングのチュートリアルを参照してください。
AI Toolkit はファインチューニングプロジェクトをスカフォールドしません
拡張機能をインストールする前に、拡張機能の前提条件を必ず確認してください。
NVIDIA GPU デバイスがあるのに、前提条件のチェックが失敗します
NVIDIA GPU デバイスがあるにもかかわらず、前提条件のチェックが「GPU が検出されません」というメッセージで失敗する場合は、最新のドライバーがインストールされていることを確認してください。ドライバーはNVIDIA サイトで確認およびダウンロードできます。
また、それがパスにインストールされていることを確認してください。確認するには、コマンドラインからnvidia-smi
を実行します。
プロジェクトを生成したのに、Conda activate が環境を見つけられません
環境の設定に問題があった可能性があります。ワークスペース内からbash /mnt/[PROJECT_PATH]/setup/first_time_setup.sh
を使用して、環境を手動で初期化できます。
Hugging Face データセットを使用する場合、どうすれば入手できますか?
python finetuning/invoke_olive.py
コマンドを開始する前に、必ずhuggingface-cli login
コマンドを実行してください。これにより、データセットがユーザーの代わりにダウンロードされることが保証されます。
環境
この拡張機能は Linux や他のシステムでも動作しますか?
はい、AI Toolkit は Windows、Mac、Linux で動作します。
WSL から Conda の自動アクティベーションを無効にするにはどうすればよいですか?
WSL で Conda のインストールを無効にするには、conda config --set auto_activate_base false
を実行します。これにより、ベース環境が無効になります。
現在、コンテナーをサポートしていますか?
現在、コンテナーのサポートに取り組んでおり、今後のリリースで有効になります。
GitHub と Hugging Face の資格情報が必要なのはなぜですか?
すべてのプロジェクトテンプレートは GitHub でホストされており、ベースモデルは Azure または Hugging Face でホストされています。これらの環境に API からアクセスするには、アカウントが必要です。
Llama2 のダウンロードでエラーが発生します
Llama 2 サインアップページから Llama へのアクセスを要求してください。これは Meta の貿易コンプライアンスに準拠するために必要です。
WSL インスタンス内にプロジェクトを保存できません
AI Toolkit のアクション実行中にリモートセッションが現在サポートされていないため、WSL に接続している間はプロジェクトを保存できません。リモート接続を閉じるには、画面左下にある「WSL」を選択し、「リモート接続を閉じる」を選択します。
エラー:GitHub API forbidden
プロジェクトテンプレートはmicrosoft/windows-ai-studio-templates
GitHub リポジトリでホストされており、拡張機能は GitHub API を使用してリポジトリの内容をロードします。Microsoft にいる場合、このような禁止問題を回避するために Microsoft 組織を承認する必要がある場合があります。
回避策については、この issueを参照してください。詳細な手順は次のとおりです。
-
VS Code から GitHub アカウントをサインアウトします。
-
VS Code と AI Toolkit を再ロードすると、再度 GitHub にサインインするように求められます。
-
重要: ブラウザの承認ページで、Microsoft 組織へのアクセスをアプリに承認していることを確認してください。
ONNX モデルをリスト、ロード、またはダウンロードできません
VS Code の出力パネルで AI Toolkit のログを確認してください。「Agent」エラーまたは「Failed to get downloaded models」と表示される場合は、すべての VS Code インスタンスを閉じてから VS Code を再度開いてください。
(この問題は、基盤となる ONNX エージェントが予期せず閉じられたために発生し、上記の手順はエージェントを再起動するためのものです。)