Seleziona le tue preferenze relative ai cookie

Utilizziamo cookie essenziali e strumenti simili necessari per fornire il nostro sito e i nostri servizi. Utilizziamo i cookie prestazionali per raccogliere statistiche anonime in modo da poter capire come i clienti utilizzano il nostro sito e apportare miglioramenti. I cookie essenziali non possono essere disattivati, ma puoi fare clic su \"Personalizza\" o \"Rifiuta\" per rifiutare i cookie prestazionali.

Se sei d'accordo, AWS e le terze parti approvate utilizzeranno i cookie anche per fornire utili funzionalità del sito, ricordare le tue preferenze e visualizzare contenuti pertinenti, inclusa la pubblicità pertinente. Per continuare senza accettare questi cookie, fai clic su \"Continua\" o \"Rifiuta\". Per effettuare scelte più dettagliate o saperne di più, fai clic su \"Personalizza\".

Tutorial: utilizza un notebook SageMaker AI con il tuo endpoint di sviluppo

Modalità Focus
Tutorial: utilizza un notebook SageMaker AI con il tuo endpoint di sviluppo - AWS Glue

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

In AWS Glue, puoi creare un endpoint di sviluppo e quindi creare un notebook SageMaker AI per aiutarti a sviluppare i tuoi script ETL e quelli di machine learning. Un notebook SageMaker AI è un'istanza di calcolo di machine learning completamente gestita che esegue l'applicazione Jupyter Notebook.

  1. Nel AWS Glue console, scegli Dev endpoints per accedere all'elenco degli endpoint di sviluppo.

  2. Seleziona la casella di controllo accanto al nome di un endpoint di sviluppo che desideri utilizzare e, nel menu Azione, scegli Crea notebook. SageMaker

  3. Compilare la pagina Create and configure a notebook (Crea e configura un notebook) come segue:

    1. Immettere il nome di un notebook.

    2. In Attach to development endpoint (Collega a endpoint di sviluppo), verificare l'endpoint di sviluppo.

    3. Crea o scegli un ruolo AWS Identity and Access Management (IAM).

      Si consiglia di creare un ruolo. Se si utilizza un ruolo esistente, assicurarsi di avere le autorizzazioni necessarie. Per ulteriori informazioni, consulta Fase 6: Creare una IAM policy per i notebook SageMaker AI.

    4. (Facoltativo) Scegliete unaVPC, una sottorete e uno o più gruppi di sicurezza.

    5. (Facoltativo) Scegliete una chiave di AWS Key Management Service crittografia.

    6. (Facoltativo) Aggiungere i tag per l'istanza del notebook.

  4. Seleziona Crea notebook. Sulla pagina Notebooks (Notebook), scegli l'icona di aggiornamento in alto a destra e continua fino a quando la finestra Status (Stato) non mostra Ready.

  5. Selezionare la casella di controllo accanto al nuovo nome del notebook, quindi scegliere Open notebook (Apri notebook).

  6. Crea un nuovo taccuino: nella pagina di jupyter, scegli Nuovo, quindi scegli Sparkmagic (). PySpark

    La schermata dovrebbe essere simile alla seguente:

    La pagina jupyter ha una barra dei menu, una barra degli strumenti e un ampio campo di testo in cui è possibile inserire le istruzioni.
  7. (Facoltativo) Nella parte superiore della pagina, scegliere Untitled (Senza titolo) e assegnare un nome al notebook.

  8. Per avviare un'applicazione Spark, immettere il seguente comando nel notebook e quindi nella barra degli strumenti scegliere Run (Esegui).

    spark

    Dopo una breve attesa, viene visualizzata la seguente risposta:

    La risposta del sistema mostra lo stato dell'applicazione Spark e restituisce il seguente messaggio: disponibile come 'spark'. SparkSession
  9. Creare un frame dinamico ed eseguirvi una query: copiare, incollare ed eseguire il codice seguente, che restituisce il conteggio e lo schema della tabella persons_json.

    import sys from pyspark.context import SparkContext from awsglue.context import GlueContext from awsglue.transforms import * glueContext = GlueContext(SparkContext.getOrCreate()) persons_DyF = glueContext.create_dynamic_frame.from_catalog(database="legislators", table_name="persons_json") print ("Count: ", persons_DyF.count()) persons_DyF.printSchema()
PrivacyCondizioni del sitoPreferenze cookie
© 2025, Amazon Web Services, Inc. o società affiliate. Tutti i diritti riservati.