注: 以下の翻訳の正確性は検証されていません。AIPを利用して英語版の原文から機械的に翻訳されたものです。
以下は、ライブデプロイメントに関するよくある質問です。ライブデプロイメントの作成と設定方法については、対応するドキュメントを参照してください。
リリースされた Python モデルにはデフォルトでどのような Conda パッケージ/環境が含まれますか?
デフォルトでは、Python モデルには foundry_ml
がデフォルトのパッケージとして含まれます。追加のパッケージを含めるには、サブミッション環境の設定に記載の手順に従ってください。
ライブへのリクエストで送信できるデータの最大量はどれくらいですか?
デフォルトでは、ライブは一度に最大 50MB のデータを受け入れます。この上限は設定可能です。詳細については、Palantir の担当者にお問い合わせください。
ライブデプロイメント用のモニターを作成できますか?
はい。ライブデプロイメントのアップタイムは、Data Health アプリケーションの監視ビューを通じて監視できます。
環境のカスタマイズの一部として、プライベートライブラリに加えてパブリックライブラリを含めることはできますか?
サブミッション環境にプライベートおよびパブリックライブラリをインポートすることができます。
インスタンス上でライブデプロイメントを作成できるユーザーを制限できますか?
はい。ライブデプロイメントの作成機能は、バッチデプロイメントの作成機能とは別に許可設定ができます。Palantir の担当者に相談してください。
Python モデルをスケールアップできますか?
はい、Foundry は現在、Palantir のコンテナインフラストラクチャ内でデプロイされた際にトラフィックのスケーリングを提供しています。
デフォルトでは、各デプロイメントは 2 つのレプリカで構成されており、アップグレード中にダウンタイムが発生しないようになっています。デフォルトの CPU とメモリの使用量も低く、低いデフォルトのコストプロファイルが得られます。
これは、個別のデプロイメントに対して上書き設定が可能です。これにより、大規模なモデルや予想される負荷が高い場合に対応できます。また、デフォルトのプロファイルは、コントロールパネルを通じてすべてのライブデプロイメントに対して上書き設定することができます。
Python モデルを GPU で実行できますか?
はい。ただし、現在はベータ機能です。詳細については、Palantir の担当者にお問い合わせください。
デプロイメントをオフにしてコストの発生を停止できますか?
はい、ライブデプロイメントを無効にすることができます。これは、個別のデプロイメントページから行えます。
再び使用する準備ができたら、UI から再度有効化することもできます。ただし、再度有効化した後、デプロイメントは最新のリリースにアップグレードされます。
また、デプロイメントを削除することもできます。ただし、この操作は元に戻すことができず、同じ Target RID を維持することはできません。
Foundry ML Python モデルは外部 API にアクセスできますか?
はい。ただし、デフォルトでは有効になっていません。ネットワークイグレスを有効にし、ライブデプロイメントの設定を行うには、コントロールパネルで有効にし、設定する必要があります。
ライブデプロイメントリクエスト中にタイムアウトが発生しますか?
デフォルトのダイアログリードタイムアウトにより、5分間のタイムアウトが発生します。推論は同期処理であるため、この制限があります。