Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
In AWS Glue, puoi creare un endpoint di sviluppo e quindi creare un notebook SageMaker AI per aiutarti a sviluppare i tuoi script ETL e quelli di machine learning. Un notebook SageMaker AI è un'istanza di calcolo di machine learning completamente gestita che esegue l'applicazione Jupyter Notebook.
-
Nel AWS Glue console, scegli Dev endpoints per accedere all'elenco degli endpoint di sviluppo.
-
Seleziona la casella di controllo accanto al nome di un endpoint di sviluppo che desideri utilizzare e, nel menu Azione, scegli Crea notebook. SageMaker
-
Compilare la pagina Create and configure a notebook (Crea e configura un notebook) come segue:
-
Immettere il nome di un notebook.
-
In Attach to development endpoint (Collega a endpoint di sviluppo), verificare l'endpoint di sviluppo.
-
Crea o scegli un ruolo AWS Identity and Access Management (IAM).
Si consiglia di creare un ruolo. Se si utilizza un ruolo esistente, assicurarsi di avere le autorizzazioni necessarie. Per ulteriori informazioni, consulta Fase 6: Creare una IAM policy per i notebook SageMaker AI.
-
(Facoltativo) Scegliete unaVPC, una sottorete e uno o più gruppi di sicurezza.
-
(Facoltativo) Scegliete una chiave di AWS Key Management Service crittografia.
-
(Facoltativo) Aggiungere i tag per l'istanza del notebook.
-
-
Seleziona Crea notebook. Sulla pagina Notebooks (Notebook), scegli l'icona di aggiornamento in alto a destra e continua fino a quando la finestra Status (Stato) non mostra
Ready
. -
Selezionare la casella di controllo accanto al nuovo nome del notebook, quindi scegliere Open notebook (Apri notebook).
-
Crea un nuovo taccuino: nella pagina di jupyter, scegli Nuovo, quindi scegli Sparkmagic (). PySpark
La schermata dovrebbe essere simile alla seguente:
-
(Facoltativo) Nella parte superiore della pagina, scegliere Untitled (Senza titolo) e assegnare un nome al notebook.
-
Per avviare un'applicazione Spark, immettere il seguente comando nel notebook e quindi nella barra degli strumenti scegliere Run (Esegui).
spark
Dopo una breve attesa, viene visualizzata la seguente risposta:
-
Creare un frame dinamico ed eseguirvi una query: copiare, incollare ed eseguire il codice seguente, che restituisce il conteggio e lo schema della tabella
persons_json
.import sys from pyspark.context import SparkContext from awsglue.context import GlueContext from awsglue.transforms import * glueContext = GlueContext(SparkContext.getOrCreate()) persons_DyF = glueContext.create_dynamic_frame.from_catalog(database="legislators", table_name="persons_json") print ("Count: ", persons_DyF.count()) persons_DyF.printSchema()