本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。
训练模式和算法支持
Autopilot 支持不同的训练模式和算法来解决机器学习问题,报告质量和客观指标,并在需要时自动使用交叉验证。
模型训练
SageMaker Autopilot 可以根据数据集大小自动选择训练方法,也可以手动选择。选项如下所示:
-
E@@ nsembling — Autopilot 使用AutoGluon
库来训练多个基础模型。为了找到最适合您的数据集的组合,组合模式使用不同的模型和元参数设置运行 10 次试验。然后,Autopilot 使用堆叠组合方法,将这些模型组合在一起,以创建最优预测模型。有关 Autopilot 在组合模式下对表格数据支持的算法列表,请参阅下文的算法支持部分。 -
超参数优化 (HPO) — Autopilot 通过在数据集上运行训练作业时使用贝叶斯优化或多保真度优化来调整超参数,从而找到模型的最佳版本。HPO模式选择与您的数据集最相关的算法,并选择最佳的超参数范围来调整模型。要调整模型,HPO模式最多可运行 100 次试验(默认),以找到选定范围内的最佳超参数设置。如果您的数据集大小小于 100 MB,Autopilot 将使用贝叶斯优化。如果您的数据集大于 100 MB,Autopilot 会选择多保真优化。
在多保真优化中,训练容器会连续发出指标。在选定的目标指标上表现不佳的试验会提前停止。系统向表现良好的试验分配更多资源。
有关 Autopilot 在HPO模式下支持的算法列表,请参阅以下 “算法支持” 部分。
-
自@@ 动 — Autopilot 会根据您的数据集大小自动选择组合HPO模式或模式。如果您的数据集大于 100 MB,则自动驾驶仪会选择HPO。否则,它会选择组合模式。在以下情况下,Autopilot 可能无法读取数据集的大小。
如果 Autopilot 无法读取您的数据集大小,则默认为选择HPO模式。
注意
要获得最佳运行时间和性能,请对小于 100 MB 的数据集使用组合训练模式。
算法支持
在HPO模式下,Autopilot 支持以下类型的机器学习算法:
注意
您无需指定一个算法来解决机器学习问题。Autopilot 会自动选择合适的算法进行训练。
在组合模式下,Autopilot 支持以下类型的机器学习算法:
-
Ligh GBM t — 一种经过优化的框架,使用基于树的算法和梯度提升。此算法使用在广度而不是深度上增长的树,并且针对速度进行了高度优化。
-
CatBoost— 一种使用基于树的算法和梯度提升的框架。针对处理分类变量进行了优化。
-
XGBoost— 一种使用基于树的算法的框架,其梯度提升是深度而不是广度增加的。
-
随机森林
– 一种基于树的算法,在数据的随机子样本上使用多个决策树并进行替换。树在每个级别上拆分到最佳节点。对每个树的决策一起求平均值,以防止过度拟合并改善预测。 -
额外的树
– 基于树的算法,在整个数据集上使用多个决策树。树在每个级别上随机拆分。对每个树的决策进行求平均值,以防止过度拟合并改善预测。与随机森林算法相比,额外的树会增加一定程度的随机化。 -
线性模型
– 一种使用线性方程对所观测数据中两个变量之间的关系进行建模的框架。 -
神经网络 torch – 使用 Pytorch
实施的神经网络模型。 -
神经网络 fast.ai – 使用 fast.ai
实施的神经网络模型。