Ambienti RL in Amazon SageMaker - Amazon SageMaker

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Ambienti RL in Amazon SageMaker

Amazon SageMaker RL utilizza ambienti per imitare gli scenari del mondo reale. Dato lo stato corrente dell'ambiente e un'azione eseguita dall'agente o dagli agenti, il simulatore elabora l'impatto dell'operazione e restituisce lo stato successivo e una ricompensa. I simulatori sono utili nei casi in cui non è sicuro eseguire l’addestramento di un agente in un contesto reale (ad esempio, far volare un drone) o se l'algoritmo RL richiede molto tempo per convergere (per esempio, quando si gioca a scacchi).

Il seguente diagramma mostra un esempio delle interazioni con un simulatore per un gioco di corse automobilistiche.

Un esempio di interazione con un simulatore per un gioco di corse automobilistiche.

L'ambiente di simulazione è costituito da un agente e da un simulatore. Qui, una rete neurale convoluzionale (CNN) consuma immagini dal simulatore e genera azioni per controllare il controller di gioco. Con più simulazioni, questo ambiente genera dati di addestramento nel formato state_t, action, state_t+1 e reward_t+1. La definizione della ricompensa non è banale e influenza la qualità del modello RL. Vogliamo fornire alcuni esempi di funzioni ricompensa, rendendole però configurabili dall'utente.

Usa l'interfaccia OpenAI Gym per ambienti in RL SageMaker

Per utilizzare gli ambienti OpenAI Gym in SageMaker RL, usa i seguenti elementiAPI. Per ulteriori informazioni su OpenAI Gym, consulta la documentazione di Gym.

  • env.action_space: definisce le azioni che l'agente può effettuare, specifica se ogni azione è continua o discreta e specifica il minimo e il massimo se l'azione è continua.

  • env.observation_space: definisce le osservazioni che l'agente riceve dall'ambiente, nonché il minimo e il massimo per le osservazioni continue.

  • env.reset(): inizializza un episodio di addestramento. La funzione reset() restituisce lo stato iniziale dell'ambiente e l'agente utilizza lo stato iniziale per effettuare la prima azione. L'azione viene quindi inviata a step() ripetutamente finché l'episodio non raggiunge uno stato terminale. Quando step() restituisce done = True, l'episodio termina. Il kit di strumenti RL re-inizializza l'ambiente chiamando reset().

  • step(): prende l'operazione dell'agente come input e restituisce lo stato successivo dell'ambiente, la ricompensa, se l'episodio è terminato e un dizionario info per comunicare le informazioni di debug. La convalida degli input è responsabilità dell'ambiente.

  • env.render(): utilizzato per ambienti che dispongono di visualizzazione. Il kit di strumenti RL chiama questa funzione per acquisire visualizzazioni dell'ambiente dopo ogni chiamata alla funzione step().

Utilizzo di ambienti open source

È possibile utilizzare ambienti open source, come EnergyPlus e RoboSchool, in SageMaker RL creando il proprio contenitore. Per ulteriori informazioni su EnergyPlus, consulta https://energyplus.net/. Per maggiori informazioni su RoboSchool, vedi https://github.com/openai/roboschool. RoboSchool Gli esempi HVAC e gli esempi nel repository SageMaker degli esempi mostrano come creare un contenitore personalizzato da utilizzare con RL: SageMaker

Utilizzo di ambienti commerciali

È possibile utilizzare ambienti commerciali, come Simulink MATLAB e Simulink, in SageMaker RL creando il proprio contenitore. Devi gestire le tue licenze.