Cookie の設定を選択する

当社は、当社のサイトおよびサービスを提供するために必要な必須 Cookie および類似のツールを使用しています。当社は、パフォーマンス Cookie を使用して匿名の統計情報を収集することで、お客様が当社のサイトをどのように利用しているかを把握し、改善に役立てています。必須 Cookie は無効化できませんが、[カスタマイズ] または [拒否] をクリックしてパフォーマンス Cookie を拒否することはできます。

お客様が同意した場合、AWS および承認された第三者は、Cookie を使用して便利なサイト機能を提供したり、お客様の選択を記憶したり、関連する広告を含む関連コンテンツを表示したりします。すべての必須ではない Cookie を受け入れるか拒否するには、[受け入れる] または [拒否] をクリックしてください。より詳細な選択を行うには、[カスタマイズ] をクリックしてください。

Amazon SageMaker Data Wrangler で ML データを準備する

フォーカスモード
Amazon SageMaker Data Wrangler で ML データを準備する - Amazon SageMaker AI

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

重要

Amazon SageMaker Data Wrangler は、Amazon SageMaker Canvas に統合されました。SageMaker Canvas の新しい Data Wrangler エクスペリエンスでは、ビジュアルインターフェイスに加え、自然言語インターフェイスを使用して、データを探索して変換できます。SageMaker Canvas 内の Data Wrangler の詳細については、「データ準備」を参照してください。

Amazon SageMaker Data Wrangler (Data Wrangler) は、データのインポート、準備、変換、特徴量化、分析のエンドツーエンドのソリューションを提供する Amazon SageMaker Studio Classic の機能です。Data Wrangler データ準備フローを機械学習 (ML) ワークフローに統合して、コーディングをほとんどまたはまったく使わずにデータの前処理と特徴量エンジニアリングを簡素化および合理化できます。独自の Python スクリプトと変換を追加してワークフローをカスタマイズすることもできます。

Data Wrangler は、機械学習アプリケーションのためのデータ分析および準備に役立つ以下のコア機能を提供します。

  • インポート – Amazon Simple Storage Service (Amazon S3)、 Amazon Athena (Athena)、Amazon Redshift、Snowflake、Databricks に接続してデータをインポートします。

  • データフロー - データフローを作成して一連の ML データ準備手順を定義します。フローを使用してさまざまなデータソースのデータセットの結合、データセットに適用する変換の数とタイプの特定、ML パイプラインに統合できるデータ準備ワークフローの定義が可能です。

  • 変換 - 文字列、ベクトル、数値データの書式設定ツールなど、標準の変換を使用してデータセットをクリーンアップおよび変換します。テキストや日付/時刻の埋め込み、カテゴリ別エンコーディングなどの変換を使用して、データを特徴化します。

  • データインサイトの生成 – Data Wrangler のデータインサイトと品質レポートにより、データ品質を自動的に検証し、データの異常を検出します。

  • 分析 - フローの任意の時点でデータセット内の特徴を分析します。Data Wrangler には、散布図やヒストグラムなどの組み込みのデータ視覚化ツールや、ターゲット漏洩解析やクイックモデリングなどのデータ分析ツールが含まれており、特徴の相関性を理解できます。

  • エクスポート – データ準備ワークフローを別の場所にエクスポートします。以下は場所の例です。

    • Amazon Simple Storage Service (Amazon S3) バケット

    • Amazon SageMaker Pipelines – Pipelines を使用して、モデルのデプロイを自動化します。変換したデータをパイプラインに直接エクスポートできます。

    • Amazon SageMaker Feature Store – 機能とそのデータを一元化されたストアに保存します。

    • Python スクリプト – データとその変換をカスタムワークフロー用の Python スクリプトに保存します。

Data Wrangler の使用を始める場合は、「Data Wrangler の開始方法」を参照してください。

重要

Data Wrangler は Jupyter Lab バージョン 1 (JL1) をサポートしなくなりました。最新の機能や更新を利用するには、Jupyter Lab バージョン 3 に更新します。アップグレードの詳細については、「コンソールからアプリケーションの JupyterLab のバージョンを表示および更新する」を参照してください。

重要

このガイドに記載されている情報と手順については、Amazon SageMaker Studio Classic の最新バージョンを使用しています。Studio Classic の最新バージョンへのアップデートの詳細については、「Amazon SageMaker Studio Classic の UI の概要」を参照してください。

Studio Classic バージョン 1.3.0 以降を使用する必要があります。以下の手順を使用して Amazon SageMaker Studio Classic を開くと、実行しているバージョンを確認できます。

Studio Classic を開いてバージョンを確認するには、以下の手順を参照してください。

  1. 前提条件」の手順に従って、Amazon SageMaker Studio Classic から Data Wrangler にアクセスします。

  2. Studio Classic の起動に使用するユーザーの横にある [Studio を開く] をクリックします。

  3. [Studio] を選択します。

  4. Studio Classic のロード後、[ファイル][新規][ターミナル] の順に選択します。

    ステップ 4 で説明されている Studio Classic のコンテキストメニューのオプション
  5. Studio Classic がロードしたら、[ファイル][新規][ターミナル] の順に選択します。

  6. cat /opt/conda/share/jupyter/lab/staging/yarn.lock | grep -A 1 "@amzn/sagemaker-ui-data-prep-plugin@" と入力して、Studio Classic インスタンスのバージョンを印刷します。Snowflake を使用するには、Studio Classic バージョン 1.3.0 以降を使用する必要があります。

    Studio Classic でターミナルウィンドウが開き、ステップ 6 の コマンドがコピーされて貼り付けられています。

Amazon SageMaker Studio Classic は AWS Management Console内でアップデートできます。Studio Classic のアップデートの詳細については、「Amazon SageMaker Studio Classic の UI の概要」を参照してください。

プライバシーサイト規約Cookie の設定
© 2025, Amazon Web Services, Inc. or its affiliates.All rights reserved.