0 / 0
資料の 英語版 に戻る
クイック・スタート・チュートリアル

クイック・スタート・チュートリアル

クイック・スタート・チュートリアルを使用して、データの詳細化やモデルの作成などの特定のタスクを実行する方法を学習します。 これらのチュートリアルは、特定のタスクまたは一連の関連タスクを実行する方法を素早く学習するのに役立ちます。

注:

特定のユース・ケースを実装する方法を学習したい場合は、 ユース・ケース・チュートリアルを受講することを検討してください。 ユース・ケース・チュートリアルは、データ統合などのデータ・ファブリックのユース・ケースを試したり、データ・サイエンスや MLOps などの AI ユース・ケースを作成して管理したりするのに役立ちます。

クイック・スタート・チュートリアルは、タスク別に分類されています。

各チュートリアルには、1 つ以上のサービス・インスタンスが必要です。 一部のサービスは、複数のチュートリアルに含まれています。 チュートリアルは、タスクごとにグループ化されています。 どのタスクからでも開始できます。 これらの各チュートリアルでは、ツール、ビデオ、説明、および追加の学習リソースについて説明します。

各チュートリアルのタグは、専門知識のレベル (、または )、および必要なコーディングの量 (、または ) について説明します。

前提条件
すべてのチュートリアルの前提条件は、 Cloud Pak for Data as a Service アカウントに登録するか参加することです。

これらのチュートリアルを完了した後、 その他の学習リソース のセクションを参照して学習を続行してください。

データの準備

データの準備、変換、および統合を開始するには、ワークフロー全体を理解し、チュートリアルを選択し、プラットフォームで作業するための他の学習リソースを確認します。

データ準備ワークフローには、以下の基本ステップがあります:

  1. プロジェクトを作成する

  2. 必要に応じて、使用するツールを提供するサービス・インスタンスを作成し、それをプロジェクトに関連付けます。

  3. プロジェクトにデータを追加します。 ローカル・システムからのデータ・ファイル、接続先のリモート・データ・ソースからのデータ、カタログからのデータ、またはリソース・ハブからのサンプル・データを追加できます。

  4. データを分析するツールを選択してください。 各チュートリアルでは、ツールについて説明します。

  5. データを準備するためのジョブを実行またはスケジュールします。

データを準備するためのチュートリアル

これらの各チュートリアルでは、ツールの説明、ビデオ、説明、および追加の学習リソースを提供します。

チュートリアル 説明 チュートリアルの専門知識
Data Refinery を使用してデータを詳細化と視覚化にする グラフィカル・フロー・エディターを使用して表データを準備し、視覚化します。 データを操作する操作を選択します。
DataStage を使用したデータを変換する グラフィカル・フロー・エディターを使用して表をフィルタリングおよびソートするためのデータ統合フローを設計します。 キャンバス上にデータ・ノードと操作ノードをドロップして、プロパティーを選択します。
データの仮想化 2 つの表を結合して、仮想表を作成します。 表を選択し、主キー列を接続します。

データの分析と視覚化

データの分析と視覚化を開始するには、ワークフロー全体を理解し、チュートリアルを選択して、他のツールで作業するための他の学習リソースを確認します。

データ・ワークフローの分析と視覚化には、以下の基本ステップがあります:

  1. プロジェクトを作成する

  2. 必要に応じて、使用するツールを提供するサービス・インスタンスを作成し、それをプロジェクトに関連付けます。

  3. プロジェクトにデータを追加します。 ローカル・システムからのデータ・ファイル、接続先のリモート・データ・ソースからのデータ、カタログからのデータ、またはリソース・ハブからのサンプル・データを追加できます。

  4. データを分析するツールを選択してください。 各チュートリアルでは、ツールについて説明します。

データを分析および視覚化するためのチュートリアル

これらの各チュートリアルでは、ツールの説明、ビデオ、説明、および追加の学習リソースを提供します。

チュートリアル 説明 チュートリアルの専門知識
Jupyter ノートブックでデータを分析する データをロードし、ノートブックを実行して共有します。 生成された Python コードについて理解します。
Data Refinery を使用してデータを詳細化と視覚化にする グラフィカル・フロー・エディターを使用して表データを準備し、視覚化します。 データを操作する操作を選択します。

モデルのビルド、デプロイ、および信頼

モデルの作成、デプロイ、および信頼を開始するには、ワークフロー全体を理解し、チュートリアルを選択し、プラットフォームで作業するための他の学習リソースを確認します。

AI ライフサイクルには、以下のようなさまざまな段階があります。

  1. スコープの定義: まず、主要な目標と要件を特定することで、プロジェクトのスコープを定義します。
  2. データの準備: 機械学習アルゴリズムで使用するデータを収集して準備します。
  3. モデルの作成: 準備されたデータを使用してモデルをトレーニングすることにより、定義された問題を求解するために AI モデルを開発して洗練します。
  4. モデルのデプロイ: ビルド・プロセスの完了後に、モデルを実動にデプロイします。
  5. パイプラインの自動化: AI ライフサイクルの一部を自動化することで、実動へのパスを自動化します。
  6. パフォーマンスのモニター: 公平性、品質、ドリフト、説明性についてモデルのパフォーマンスを評価します。

以下の図は、AI ライフサイクルのステージを示しています。

AI ライフサイクルのステージ

モデルを構築、デプロイ、信頼するためのワークフローには、次の基本的な手順があります。

  1. プロジェクトを作成する

  2. 必要に応じて、使用するツールを提供するサービス・インスタンスを作成し、それをプロジェクトに関連付けます。

  3. モデルを構築、展開、信頼するためのツールを選択します。 各チュートリアルでは、ツールについて説明します。

モデルを作成、デプロイ、および信頼するためのチュートリアル

各チュートリアルでは、ツール、ビデオ、説明、および追加の学習リソースについて説明します。

チュートリアル 説明 チュートリアルの専門知識
AutoAI を使用した機械学習モデルを作成とデプロイする AutoAI ツールを使用してモデル候補を自動的に作成します。 コーディングなしでモデルをビルド、デプロイ、およびテストします。
ノートブックでの機械学習モデルの作成とデプロイする Python コードおよび Watson Machine Learning API を使用するノートブックを更新および実行して、モデルを作成します。 Python コードを使用する scikit-learn モデルをビルド、デプロイ、およびテストします。
SPSS Modeler を使用して機械学習モデルを作成とデプロイする SPSS Modeler ツールを使用する C5.0 モデルを作成します。 キャンバス上のデータ・ノードと操作ノードをドロップして、プロパティーを選択します。
Decision Optimization モデルをビルドとデプロイする Modeling Assistant を使用してシナリオを自動的に作成します。 シナリオを解決して検討し、コーディングせずにモデルをデプロイしてテストします。
機械学習モデルの評価 モデルをデプロイし、デプロイされたモデルのモニターを構成し、モデルを評価します。 ノートブックを実行してモデルを構成し、 Watson OpenScale を使用して評価します。

データのキュレートと管理

データのキュレートと管理を開始するには、ワークフロー全体を理解し、チュートリアルを選択して、 Cloud Pak for Data as a Service で作業するための他の学習リソースを確認します。

独自の IBM Knowledge Catalog ライト・プランで作業している場合は、50 の資産、5 つのビジネス用語、および 1 つのデータ保護ルールを持つ 2 つのカタログを作成できます。 また、データ・クラスやビジネス用語などのガバナンス成果物を編成するための唯一のカテゴリーの所有者でもあります。

IBM Knowledge Catalog Standardプラン、エンタープライズ・プラン、またはプロフェッショナル・プランを使用して組織のアカウントで作業する場合は、データをキュレートしたり、データ・クラスやビジネス用語などのガバナンス成果物を作成したりするための特定の役割と権限を持っている必要があります。

データ・キュレーション・ワークフローには、以下の基本ステップがあります:

  1. カタログへのデータ資産の追加:
    • プロジェクトに一度に 1 つずつデータ資産を追加し、それらをカタログに公開します。
    • メタデータをインポートしてプロジェクト内の接続からすべてのデータ資産を追加し、それらをカタログに公開します。
    • カタログ内からデータ資産を一度に 1 つずつ追加します。
  2. ビジネス用語などのガバナンス成果物を割り当てることにより、データ資産を強化します。

管理データ・ワークフローには、以下の基本ステップがあります:

  1. データ保護ルールの場合、マスクするデータのタイプとマスキング方式を識別する方法を指定します。 規則は即時に適用されます。
  2. その他のすべてのタイプのガバナンス成果物の場合:
    1. カテゴリー内にドラフト・ガバナンス成果物を作成します。
    2. ガバナンス成果物を公開します。

データをキュレートおよび管理するためのチュートリアル

データ・ガバナンスのユース・ケースで データ・ファブリックのチュートリアル を選択します。

他の学習リソース

ガイド付きチュートリアル

アクセスAIモデルのサンプルプロジェクトを構築するリソース ハブのガイド付きチュートリアルに従います。 サンプル・プロジェクトを作成した後、README に以下の手順が記載されています。

  • Data Refineryを使用してデータの異常を削除するには、 「データの探索と準備」 を選択します。
  • Python コードを使用してモデルを作成するには、 ノートブックでのモデルの作成 を選択してください。
  • モデルのビルドとデプロイ を選択すると、AutoAI ツールを使用したモデルの作成が自動化されます。

このビデオ・シリーズを視聴して、サンプル・プロジェクト内の資産を操作する方法を確認してください。

一般

データの準備

データの分析と視覚化

モデルのビルド、デプロイ、および信頼

データのキュレートと管理

動画

サンプル

  • リソース・ハブ には、インポート可能なサンプルのノートブック、データ・セット、およびプロジェクトが用意されています。

  • 業界アクセラレーター は、特定のビジネス問題を解決するエンドツーエンド・ソリューションを含むサンプル・プロジェクトを提供します。

  • Knowledge Accelerators は、すぐに使用できるガバナンス成果物の業界固有のセットを提供します。

トレーニング

親トピック: 入門

生成 AI の検索と回答
これらの回答は、製品資料の内容に基づいて、 watsonx.ai のラージ言語モデルによって生成されます。 詳細