0 / 0
資料の 英語版 に戻る
初期の戦略的決定
最終更新: 2024年12月13日
初期の戦略的決定

ジェネレーティブAIソリューションの計画を始める前に、いくつかの重要な戦略的決定を下さなければならない。 戦略は、組織の要件と優先事項、開発チームのスキルと好み、データ要件、ソリューション要件を考慮しなければならない。

ジェネレーティブAIソリューションの導入戦略を立てるには、以下のことを決定する:

使用例

ソリューションの目標、その目標が実現可能かどうか、価値があるかどうか、そしてソリューションの準備ができたと判断する方法を理解する:

Gen AI タスク
モデルに何をさせるのか?
会話または個別の出力
ユーザーが以前のインタラクションのコンテキストを保持したままモデルとチャットする会話型エクスペリエンスが必要なのか、それともモデルとのインタラクションはそれぞれ別個のものなのかを理解する。 分類、要約、生成といったタスクの中には、会話から利益を得られないものもある。 会話には、すべての入力にチャットの履歴が含まれるため、個別の出力よりもコストがかかります。
実現可能性
基礎モデルの限界を理解し、あなたのユースケースが実現可能かどうかを評価できるようにする。 例えば、実装したいユースケースの種類に応じたモデルのベンチマークスコアをチェックすることができる。
ビジネス価値
そのソリューションのメリットが、そのソリューションの運用コストよりも大きいかどうかを検討する。
成功基準
ソリューションが成功したかどうかを測定する方法を決める。 例えば、評価指標やターゲットユーザーからのユーザーフィードバックに頼ることができる。

誰を巻き込むか

最初から適切な利害関係者を巻き込めば、方向転換が必要になったり、プロセスの一部を繰り返したりするリスクは少なくなる。 少なくとも、これらのチームの利害関係者を計画プロセスに参加させる:

組織の優先順位とプロセスを定義する人々
このような人たちは、あなたが守らなければならない要件や制限について教えてくれる必要がある。 ソリューションに関する特定の情報を文書化したり、規制に準拠するためのワークフローに従ったり、特定のタイプのソースを持つモデルを選択したりする必要があるかもしれません。 例えば、あなたの組織がオープンソースモデルを選択することを要求するかもしれない。
ソリューションを利用する人々
ソリューションの要件を定義し、そのソリューションが彼らのプロセスで機能するかどうかをテストし、検証するためには、このような人々が必要である。
解決策を生み出す人々
このような人々が設計や運営上の決定に関与する必要がある。 この協力者チームには、デザイナー、データエンジニア、AIエンジニア、データサイエンティスト、リスク・コンプライアンス・マネージャーなどが含まれる。 文書作成に検索機能付き生成ソリューションを導入する場合、コンテンツをAIに適合させることができるコンテンツ・ライターを含めることを検討する。

リスクとコンプライアンスの管理方法

ソリューションの開発を始める前にリスクとコンプライアンスの必要性を理解しておけば、後の監査に備えることができる。

AI関連リスク
風評リスク、規制リスク、オペレーショナルリスクなど、主要なリスクの側面を理解する。 ジェネレーティブAIを使用するリスクには、従来の機械学習モデルと同じリスク、ジェネレーティブAIによって増幅されるリスク、ジェネレーティブAI特有の新たなリスクなどがある。 例えば、幻覚と呼ばれる、事実と異なる内容や真実でない内容を含む出力を生成するリスクは、生成AIに特有のものだ。
法規制遵守
遵守しなければならない法令、遵守状況を把握する方法、遵守を確保する方法を決定する。 例えば、AIソリューションに対して正式なリスクアセスメントや承認ワークフローが必要になるかもしれない。
ユースケース・ドキュメント
AIユースケースを作成し、モデルやプロンプトテンプレートをリクエスト段階から開発、本番まで管理するためのすべての情報を収集する。 ユースケースを文書化することで、組織が規制上の目的で文書化を要求しているか否かにかかわらず、進捗状況を追跡する便利な方法が提供される。

リスクとコンプライアンスの詳細

ソリューションの開発方法

お客様と開発チームは、 watsonx.aiのユーザー・インターフェイスでさまざまなツールやメソッドを選択したり、完全にコードで作業したりすることができます:

コーディング言語
コードを書きたい場合は、REST API、 Python、 Node.jsのコードから選ぶことができる。 言語を選択する要因としては、開発者の好みやスキル、ソリューションのデプロイ方法、チームが対話型開発環境(IDE)と watsonx.ai ユーザーインターフェースでどの程度の作業を行いたいかなどがあります。
自動化のレベル
ソリューション・コードの生成量を選択することができます:
  • すべてのコード:IDEでREST APIを使ったコードを書くことができる。 ノートブックエディターで Python ライブラリを使ったコードを書いて実行することができます。
  • いくつかのコード:多くのツールで Python ノートブックを生成し、必要に応じてコードを適合させることができる。 たとえば、プロンプト・テンプレートに基づいてノートブックを生成したり、ドキュメントの埋め込みやベクトル化のために複数のノートブックを生成したりできます。
  • コードなし:プロンプトエンジニアリング、モデルチューニング、ドキュメントの埋め込みとベクトル化のすべてのタスクをツールで完了できます。
機能
watsonx.aiのユーザーインターフェースにある機能のほとんどは、API で利用可能です。 しかし、ツールによって能力は異なる。

作業方法の詳細

モデルの選び方

解決策を練る前にモデルを選ぶ必要はない。 しかし、どの基準があなたとあなたの組織にとって最も重要かを理解していれば、不適切なモデルを選択するリスクを減らすことができる。

タスク
モデルにやらせたい仕事は、モデルを選ぶ際の制限要因になり得る。 多くのモデルのタスクでは、多くのモデルの中から選ぶことができる。 しかし、翻訳や英語以外の言語での回答など、他のモデルタスクの場合は選択肢が少ない。
コスト
推論のコストはモデルによって異なる。 推論コストを低く抑えることを優先するのであれば、より安価なモデル、より小さなモデル、量子化されたモデル、あるいはチューニング可能なモデルを選択する。
環境への影響
一般的に、より大きなモデルは、学習時と推論時の両方で環境に大きな影響を与える。 小さなモデルや量子化されたモデルは、環境に与える影響が小さい。
精度とその他のスコア
モデルのベンチマークを比較し、あなたにとって最も重要な分野で高いスコアを獲得しているモデルを選ぶことができます。
免責とモデル原産地
あなたの組織には、トレーニングデータについて透明性のあるモデル、オープンソースのモデル、補償を提供するモデルを選択する方針があるかもしれない。
カスタマイズ
モデルをチューニングすることで、特定のドメイン用にカスタマイズすることができる。 Tuning Studioでは、 watsonx.aiに付属するいくつかのモデルをチューニングすることができます。 あるいは、外部ツールでモデルをチューニングし、カスタムモデルを watsonx.aiにインポートすることもできます。
InstructLab を使って、 IBM Granite モデルに知識やスキルを追加することができます。

foundation modelの選択に関する詳細

データの準備

財団のモデルは大量のデータで訓練されるが、社内のデータでは訓練されない。 foundation modelモデルに自社のデータを知ってもらう必要がある場合、データをどのようにモデルに提供するかを決めなければならない。

接地に関する文書
文書内の情報をモデルに根拠を与えて質問に答えるソリューションが必要な場合は、検索補強生成(RAG)パターンを設定することができる。 RAGパターンでは、ユーザーの質問に答える文章を効率的に検索するために、文書をベクトル化する。
チューニングとテストデータ
分類、要約、生成などの自然言語処理タスク用に出力を改善したり調整したりする必要がある場合は、モデルをチューニングすることができる。 あなたのプロンプトの品質をテストしたい場合は、生成AIメトリクスで評価することができます。 どちらのタスクでも、有効なプロンプトの入力と出力の例を提供しなければならない。 データに個人を特定できる情報(PII)などの機密情報が含まれている場合は、PIIに関する組織のポリシーを確認してください。 例えば、PIIをマスクしたり、モデルのチューニングやテストのために合成データを生成する必要があるかもしれない。
知識または技能
モデルに情報を与えるデータセットを提供する。 IntructLabを使用することで、ユースケースに必要な機能で既存のfoundation modelモデルを補強することができます。 あなたは、 foundation modelのチューニングを指示するための合成データを生成するための基礎となる、シード例または基礎データを提供します。

データ準備の詳細

品質評価とリスク軽減の方法

品質をどのように測定し、安全性を確保するかを決めなければならない。

評価
業界標準の指標に照らして、ソリューションのパフォーマンスとリスクを評価できます。 foundation model出力のテキスト精度、類似性、品質を測定できます。 また、モデル出力の公平性、パフォーマンス、ドリフトを評価することもできます。 これらの指標は、AIソリューションに偏りがなく、ビジネス・ユーザーが容易に説明・理解でき、ビジネス・トランザクションにおいて監査可能であることを保証するのに役立つ。
ガードレール
ガードレールを有効にすると、プロンプトの入力テキストと出力テキストの両方から有害な可能性のあるコンテンツまたはPIIコンテンツを削除できます。
テスト
敵対的な攻撃をエミュレートするレッドチームの設置を検討する。

品質を評価し、リスクを軽減するための詳細情報

基礎モデルの最適化と管理方法

精度、コスト、推論レイテンシ、モデルライフサイクルの制御のために、 foundation modelモデルを最適化することができます。

デフォルトの最適化
IBMは、マルチテナント・ハードウェア上に展開される一連の基盤モデルを提供している。 トークンごとに推論料を支払う。 IBMは、モデルを更新したり非推奨にしたりすることで、モデルのライフサイクルを管理しています。 モデルが非推奨になった場合、新しいバージョンのモデルか別のモデルを推論するようにソリューションを更新しなければなりません。
精度とコストの最適化
より小さなfoundation modelを推論することによって、プロンプトの精度を向上させ、コストを削減する必要がある場合は、提供されたfoundation modelモデルをプロンプトチューニングすることができます。 マルチテナントのハードウェアにプロンプト・チューニング・モデルを導入し、トークンごとに推論費用を支払う。
精度とコントロールの最適化
ユースケースに合わせて watsonx.ai の外部でモデルをトレーニングまたはチューニングした場合、カスタムモデルをインポートしてデプロイすることができます。 専用ハードウェアにモデルを配置する。 推論にかかる費用ではなく、モデルのホスティングにかかる費用を時間ごとに支払う。 モデルのライフサイクルをコントロールする。
レイテンシーとコントロールの最適化
お客様のソリューションが多数の同時ユーザーをサポートする必要がある場合、 IBM が専用ハードウェアで提供するデプロイ・オンデマンド・モデルを導入することができます。 専用のハードウェアは、マルチテナントのハードウェアよりもレイテンシーが低い。 推論にかかる費用ではなく、モデルのホスティングにかかる費用を時間ごとに支払う。 モデルのライフサイクルをコントロールする。

財団モデルの最適化と管理に関する詳細

ソリューションの提供方法とメンテナンス

AIソリューションをどのように提供し、その継続的な品質を確保するかを決定しなければならない。

ソリューションの展開
foundation modelを推論するために、アプリケーションで呼び出すエンドポイントを配置します。 あなたのAIソリューションのアーキテクチャによっては、エンドポイントはコードスニペット、 Python 関数、AIサービス、あるいはあなたのチームが開発したコードにあるかもしれない。
デプロイメント・スペースで ModelOpsを管理する
ソリューションのテスト版、ステージング版、製品版用に別々のデプロイメントスペースを作成することで、 ModelOps フローをサポートすることができます。 各スペースに適切なコラボレーターを追加することで、プロダクションソリューションへのアクセスを管理できます。
モニター
開発中のソリューションの評価と同様に、公平性、品質、説明可能性など、ソリューションのパフォーマンスやリスクを監視することができます。 経時的なトレンドを表示し、パフォーマンスが低下したときに警告を発するしきい値を設定することができます。
ユーザー・フィードバック (User Feedback)
ユーザーフィードバックの仕組みを導入し、そのフィードバックを集めてソリューションを改善するプロセスを作ることを検討しましょう。 例えば、RAGパターンを実装する場合、ユーザーが質問に対する答えを評価するフィードバックの仕組みを追加することができる。 不正解や不適切な解答を評価するプロセスを設定し、RAGパターンを適応させるか、より良い解答を提供するためにコンテンツを適応させることができます。

配送とメンテナンスに関する詳細

詳細情報

親トピック 生成的AIソリューションの計画