Configuraciones avanzadas de compilación de modelos
Amazon SageMaker Canvas admite varios ajustes avanzados que puede configurar al compilar un modelo. En la siguiente página se enumeran todos los ajustes avanzados junto con información adicional sobre sus opciones y configuraciones.
nota
Actualmente, las siguientes configuraciones avanzadas solo se admiten para tipos de modelos de previsión numéricos, categóricos y de series temporales.
Configuración avanzada de modelos de predicción numéricos y categóricos
Canvas admite la siguiente configuración avanzada para tipos de modelos de predicción numéricos y categóricos.
Métrica objetiva
La métrica objetiva es la métrica que desea que Canvas optimice al compilar el modelo. Si no selecciona una métrica, Canvas elegirá una por defecto. Para ver descripciones de métricas disponibles, consulte Referencia de métricas.
Método de entrenamiento
Canvas puede seleccionar automáticamente el método de entrenamiento en función del tamaño del conjunto de datos, aunque también puede seleccionarlo usted manualmente. Puede elegir entre los siguientes métodos de entrenamiento:
-
Ensamblaje: SageMaker utiliza la biblioteca AutoGluon para entrenar varios modelos base. Para encontrar la mejor combinación para su conjunto de datos, el modo de ensamblaje ejecuta 5-10 pruebas con diferentes ajustes de modelo y metaparámetro. A continuación, estos modelos se combinan mediante un método de conjuntos apilados para crear un modelo predictivo óptimo. Para obtener una lista de los algoritmos que admite el modo de conjunto para datos tabulares, consulte la siguiente sección de Algoritmos.
-
Optimización de hiperparámetros (HPO): SageMaker busca la mejor versión de un modelo ajustando los hiperparámetros mediante la optimización bayesiana o la optimización de multifidelidad mientras ejecuta tareas de entrenamiento en el conjunto de datos. El modo HPO selecciona los algoritmos que son más relevantes para el conjunto de datos y selecciona el mejor rango de hiperparámetros para ajustar los modelos. Para ajustar sus modelos, el modo HPO ejecuta hasta 100 pruebas (predeterminado) para encontrar la configuración de hiperparámetros óptima dentro del rango seleccionado. Si el tamaño del conjunto de datos es inferior a 100 MB, SageMaker utiliza la optimización bayesiana. SageMaker elige la optimización multifidelidad si el conjunto de datos tiene más de 100 MB.
Para obtener una lista de los algoritmos que admite el modo HPO para datos tabulares, consulte la siguiente sección de Algoritmos.
-
Automático: SageMaker elige automáticamente el modo de ensamblaje o el modo HPO en función del tamaño del conjunto de datos. Si su conjunto de datos es superior a 100 MB, SageMaker elige el modo HPO. De lo contrario, elige el modo de ensamblaje.
Algoritmos
En el modo Ensamblaje, Canvas admite los siguientes algoritmos de machine learning:
-
LightGBM: un marco optimizado que utiliza algoritmos basados en árboles con potenciación por gradiente. Este algoritmo utiliza árboles que crecen en amplitud, en lugar de en profundidad, y está altamente optimizado para la velocidad.
-
CatBoost: un marco optimizado que utiliza algoritmos basados en árboles con potenciación por gradiente. Optimizado para la gestión de variables categóricas.
-
XGBoost: un marco que utiliza algoritmos basados en árboles con potenciación por gradiente que aumenta en profundidad, en lugar de amplitud.
-
Random Forest
: algoritmo basado en árboles que utiliza varios árboles de decisión en submuestras aleatorias de los datos y las reemplaza. Los árboles se dividen en nodos óptimos en cada nivel. Las decisiones de cada árbol se promedian para evitar el sobreajuste y mejorar las predicciones. -
Extra Trees
: un algoritmo basado en árboles que utiliza varios árboles de decisión en todo el conjunto de datos. Los árboles se dividen aleatoriamente en cada nivel. Las decisiones de cada árbol se promedian para evitar el sobreajuste y mejorar las predicciones. Extra Trees añade un grado de asignación al azar en comparación con el algoritmo Random Forest. -
Linear Models
: un marco que utiliza una ecuación lineal para modelar la relación entre dos variables en los datos observados. -
Neural network torch: un modelo de red neuronal que se implementa con Pytorch
. -
Neural network fast.ai: un modelo de red neuronal que se implementa con fast.ai
.
En Modo HPO, Canvas admite los siguientes algoritmos de machine learning:
-
XGBoost: un algoritmo de aprendizaje supervisado que intenta predecir de forma apropiada una variable objetivo mediante la combinación de un conjunto de estimaciones a partir de un conjunto de modelos más simples y más débiles.
-
Algoritmo de aprendizaje profundo: un perceptrón multicapa (MLP) y una red neuronal artificial de retroalimentación. Este algoritmo puede procesar datos que no se pueden separar linealmente.
División de datos
Tiene la opción de especificar cómo quiere dividir el conjunto de datos entre el conjunto de entrenamiento (la parte del conjunto de datos que se utiliza para compilar el modelo) y el conjunto de validación (la parte del conjunto de datos que se utiliza para verificar la exactitud del modelo). Por ejemplo, una proporción de división común es 80 % de entrenamiento y 20 % de validación, donde el 80 % de los datos se utilizan para compilar el modelo y el 20 % se reserva para medir el rendimiento del modelo. Si no especifica una proporción personalizada, Canvas divide el conjunto de datos automáticamente.
Candidatos máximos
nota
Esta característica solo está disponible en el modo de entrenamiento HPO.
Puede especificar el número máximo de candidatos del modelo que Canvas genera al compilar el modelo. Recomendamos que utilice el número predeterminado de candidatos, que es 100, para crear los modelos más precisos. El número máximo que puede especificar es 250. La reducción del número de candidatos del modelo puede afectar a la exactitud del modelo.
Tiempo de ejecución máximo de trabajos
Puede especificar el tiempo de ejecución máximo de los trabajos o la cantidad máxima de tiempo que Canvas dedica a compilar el modelo. Una vez transcurrido el límite de tiempo, Canvas deja de compilar y selecciona el mejor candidato del modelo.
El tiempo máximo que puede especificar es de 720 horas. Le recomendamos encarecidamente que mantenga el tiempo máximo de ejecución del trabajo en más de 30 minutos para garantizar que Canvas tenga tiempo suficiente para generar candidatos del modelo y terminar de compilar el modelo.
Configuración avanzada del modelo de previsión de series temporales
Para los modelos de previsión de series temporales, Canvas admite la métrica Objetivo, que se detalla en la sección anterior.
Los modelos de previsión de series temporales también admiten la siguiente configuración avanzada:
Selección de algoritmos
Cuando compila un modelo de previsión de series temporales, Canvas utiliza un ensamblaje (o una combinación) de algoritmos estadísticos y de machine learning para ofrecer previsiones de series temporales de gran precisión. De forma predeterminada, Canvas selecciona la combinación óptima de todos los algoritmos disponibles en función de la serie temporal del conjunto de datos. Sin embargo, tiene la opción de especificar uno o más algoritmos para usarlos en el modelo de previsión. En este caso, Canvas determina la mejor combinación utilizando solo los algoritmos seleccionados. Si no está seguro de qué algoritmo seleccionar para entrenar el modelo, le recomendamos que elija todos los algoritmos disponibles.
nota
La selección de algoritmos solo se admite en compilaciones estándar. Si no selecciona ningún algoritmo en la configuración avanzada, SageMaker ejecuta de forma predeterminada una compilación rápida y entrena los candidatos del modelo mediante un único algoritmo de aprendizaje basado en árboles. Para obtener más información acerca de la diferencia entre compilaciones rápidas y compilaciones estándar, consulte Cómo funcionan los modelos personalizados.
Canvas admite los siguientes algoritmos de previsión de series temporales:
Media móvil integrada autorregresiva (ARIMA)
: modelo estocástico simple de series temporales que utiliza el análisis estadístico para interpretar los datos y hacer predicciones futuras. Este algoritmo resulta útil para conjuntos de datos simples con menos de 100 series temporales. Red neuronal convolucional: regresión cuantil (CNN-QR): algoritmo de aprendizaje supervisado patentado que entrena un modelo global a partir de una gran colección de series temporales y utiliza un descodificador de cuantiles para realizar predicciones. CNN-QR funciona mejor con conjuntos de datos grandes que contienen cientos de series temporales.
DeepAR+: algoritmo de aprendizaje supervisado patentado que predice series temporales escalares mediante redes neuronales recurrentes (RNN) para entrenar un único modelo de forma conjunta en todas las series temporales. DeepAR+ funciona mejor con conjuntos de datos grandes que contienen cientos de series temporales de características.
Series temporales no paramétricas (NPTS): método de previsión escalable de línea base probabilística que predice la distribución futura de valores de una serie temporal determinada mediante el muestreo de observaciones anteriores. NPTS resulta útil cuando se trabaja con series temporales dispersas o intermitentes (por ejemplo, previsión de la demanda de elementos individuales en los que la serie temporal tiene muchos ceros o recuentos bajos).
Suavizado exponencial (ETS)
: método de previsión que produce previsiones que son medias ponderadas de observaciones anteriores, en las que disminuyen exponencialmente las ponderaciones de observaciones más antiguas. El algoritmo es útil para conjuntos de datos simples con menos de 100 series temporales y conjuntos de datos con patrones de estacionalidad. Prophet
: modelo de regresión aditiva que funciona mejor con series temporales que tienen fuertes efectos estacionales y varias temporadas de datos históricos. El algoritmo es útil para conjuntos de datos con tendencias de crecimiento no lineales que se acercan a un límite.
Cuantiles de previsión
Para la previsión de series temporales, SageMaker entrena a 6 candidatos del modelo con la serie temporal objetivo. A continuación, SageMaker combina estos modelos utilizando un modelo de ensamblaje de pilas para crear un modelo de previsión óptimo para una métrica objetivo determinada. Cada modelo de previsión genera una previsión probabilística con produciendo previsiones en cuantiles entre P1 y P99. Estos cuantiles se utilizan para contabilizar la incertidumbre de las previsiones. De forma predeterminada, se generarán previsiones para los valores 0,1 (p10
), 0,5 (p50
) y 0,9 (p90
). Puede elegir especificar hasta cinco cuantiles propios, desde 0,01 (p1
) hasta 0,99 (p99
), con incrementos de 0,01 o más.