翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
追加のカーネルとライブラリをインストールする
Amazon JupyterHub で を使用してクラスターを作成するとEMR、Jupyter 用のデフォルトの Python 3 カーネル PySpark と Sparkmagic 用の Spark カーネルが Docker コンテナにインストールされます。追加のカーネルをインストールできます。追加のライブラリやパッケージをインストールしてから、適切なシェルにインポートすることもできます。
カーネルをインストールする
カーネルは Docker コンテナ内にインストールされます。これを簡単に行うには、インストールコマンドを使用して bash スクリプトを作成し、マスターノードに保存してから sudo docker exec jupyterhub
コマンドで script_name
jupyterhub
コンテナ内にあるスクリプトを実行します。次の例のスクリプトはカーネルをインストールし、マスターノードでカーネルのライブラリをいくつかインストールすることで、後から Jupyter を使用してライブラリをインポートできるようにします。
#!/bin/bash # Install Python 2 kernel conda create -n py27 python=2.7 anaconda source /opt/conda/envs/py27/bin/activate apt-get update apt-get install -y gcc /opt/conda/envs/py27/bin/python -m pip install --upgrade ipykernel /opt/conda/envs/py27/bin/python -m ipykernel install # Install libraries for Python 2 /opt/conda/envs/py27/bin/pip install paramiko nltk scipy numpy scikit-learn pandas
コンテナ内でカーネルとライブラリをインストールするにはマスターノードへの接続を開き、スクリプトを /etc/jupyter/install_kernels.sh
に保存してマスターノードのコマンドラインで次のコマンドを実行します。
sudo docker exec jupyterhub bash /etc/jupyter/install_kernels.sh
ライブラリの使用と追加ライブラリのインストール
Python 3 の機械学習ライブラリとデータサイエンスライブラリのコアセットは、Amazon JupyterHub にプリインストールされていますEMR。sudo docker exec jupyterhub bash -c "conda list"
と sudo docker exec jupyterhub bash -c "pip freeze"
を使用できます。
Spark ジョブがワーカーノードでライブラリを必要とする場合は、ブートストラップアクションを使用してクラスターの作成時にライブラリをインストールし、スクリプトを実行することを推奨します。ブートストラップアクションは、クラスターの作成時にすべてのクラスターノードで実行され、インストールプロセスが簡素化されます。クラスターを実行してから、コアまたはワーカーノードにライブラリをインストールするとオペレーションが複雑になります。このセクションの Python プログラムの例では、こうしたライブラリのインストール方法を示しています。
このセクションの例のブートストラップアクションと Python プログラムは、Amazon S3 に保存している bash スクリプトを使用してすべてのノードにライブラリをインストールします。
次の例で参照されているスクリプトは、pip
を使用して paramiko、nltk、scipy、scikit-learn、pandas (Python 3 カーネル用) をインストールします。
#!/bin/bash sudo python3 -m pip install boto3 paramiko nltk scipy scikit-learn pandas
スクリプトを作成したら、Amazon S3 の場所にアップロードします (例: s3://amzn-s3-demo-bucket/install-my-jupyter-libraries.sh
)。ブートストラップアクションまたは Python プログラムで使用できるようにするには、Amazon Simple Storage Service User Guide のオブジェクトのUploadingで詳細を確認してください。
を使用してクラスターを作成するときにすべてのノードにライブラリをインストールするブートストラップアクションを指定するには AWS CLI
前の例のようなスクリプトを作成し、Amazon S3 の場所に保存します。
s3://amzn-s3-demo-bucket/install-my-jupyter-libraries.sh
の例を使用します。JupyterHub を使用してクラスターを作成し、
--bootstrap-actions
オプションのPath
引数を使用して、次の例に示すようにスクリプトの場所を指定します。注記
読みやすくするために、Linux 行連続文字 (\) が含まれています。Linux コマンドでは、これらは削除することも、使用することもできます。Windows の場合、削除するか、キャレット (^) に置き換えてください。
aws emr create-cluster --name="
MyJupyterHubCluster
" --release-label emr-5.36.2 \ --applications Name=JupyterHub --log-uris3://amzn-s3-demo-bucket/MyJupyterClusterLogs
\ --use-default-roles --instance-type m5.xlarge --instance-count2
--ec2-attributes KeyName=MyKeyPair
\ --bootstrap-actions Path=s3://amzn-s3-demo-bucket/install-my-jupyter-libraries.sh
,Name=InstallJupyterLibs
コンソールを使用してクラスターを作成する場合にすべてのノードでライブラリをインストールするためのブートストラップアクションを指定するには
新しい Amazon EMRコンソールに移動し、サイドナビゲーションから古いコンソールに切り替えるを選択します。古いコンソールに切り替えたときの動作の詳細については、「Using the old console」を参照してください。
-
[Create cluster (クラスターの作成)]、[Go to advanced options (詳細オプションに移動する)] の順に選択します。
アプリケーションの必要に応じて [Software and Steps (ソフトウェアとステップ)] および [Hardware (ハードウェア)] の設定を指定します。
[General Cluster Settings ( (クラスターの全般設定))] 画面で、[Bootstrap Actions (ブートストラップアクション)] を選択します。
[Add bootstrap action (ブートストラップアクションの追加)] で [Custom action (カスタムアクション)]、[Configure and add (設定と追加)] の順に選択します。
[Name] (名前) で、わかりやすい名前を入力します。スクリプトの場所 には、スクリプトの Amazon S3 に場所を入力します (使用する例は s3://amzn-s3-demo-bucket/install-my-jupyter-libraries.sh です)。[Optional arguments (オプションの引数)] は空白のままにして、[Add (追加)] を選択します。
クラスターのその他の設定を指定し、[Next (次へ)] を選択します。
セキュリティ設定を指定し、[Create cluster (クラスターの作成)] を選択します。
例 実行中のクラスターのコアノードにライブラリをインストールする
Jupyter 内からマスターノードでライブラリのインストールを完了すると、実行中のコアノードでライブラリをさまざまな方法でインストールできます。次の例は、ローカルマシンで実行するように書き込まれた Python プログラムを示しています。Python プログラムをローカルAWS-RunShellScript
AWS Systems Manager で実行すると、 を使用して、このセクションの前半で示したサンプルスクリプトを実行します。これにより、クラスターのコアノードにライブラリがインストールされます。
import argparse import time import boto3 def install_libraries_on_core_nodes(cluster_id, script_path, emr_client, ssm_client): """ Copies and runs a shell script on the core nodes in the cluster. :param cluster_id: The ID of the cluster. :param script_path: The path to the script, typically an Amazon S3 object URL. :param emr_client: The Boto3 Amazon EMR client. :param ssm_client: The Boto3 AWS Systems Manager client. """ core_nodes = emr_client.list_instances( ClusterId=cluster_id, InstanceGroupTypes=["CORE"] )["Instances"] core_instance_ids = [node["Ec2InstanceId"] for node in core_nodes] print(f"Found core instances: {core_instance_ids}.") commands = [ # Copy the shell script from Amazon S3 to each node instance. f"aws s3 cp {script_path} /home/hadoop", # Run the shell script to install libraries on each node instance. "bash /home/hadoop/install_libraries.sh", ] for command in commands: print(f"Sending '{command}' to core instances...") command_id = ssm_client.send_command( InstanceIds=core_instance_ids, DocumentName="AWS-RunShellScript", Parameters={"commands": [command]}, TimeoutSeconds=3600, )["Command"]["CommandId"] while True: # Verify the previous step succeeded before running the next step. cmd_result = ssm_client.list_commands(CommandId=command_id)["Commands"][0] if cmd_result["StatusDetails"] == "Success": print(f"Command succeeded.") break elif cmd_result["StatusDetails"] in ["Pending", "InProgress"]: print(f"Command status is {cmd_result['StatusDetails']}, waiting...") time.sleep(10) else: print(f"Command status is {cmd_result['StatusDetails']}, quitting.") raise RuntimeError( f"Command {command} failed to run. " f"Details: {cmd_result['StatusDetails']}" ) def main(): parser = argparse.ArgumentParser() parser.add_argument("cluster_id", help="The ID of the cluster.") parser.add_argument("script_path", help="The path to the script in Amazon S3.") args = parser.parse_args() emr_client = boto3.client("emr") ssm_client = boto3.client("ssm") install_libraries_on_core_nodes( args.cluster_id, args.script_path, emr_client, ssm_client ) if __name__ == "__main__": main()