

本文属于机器翻译版本。若本译文内容与英语原文存在差异，则一律以英文原文为准。

# 训练
<a name="tutorial-gpu-opt-training"></a>

利用混合精度训练，您可以使用相同的内存量部署更大的网络，或者减少内存使用量（与您的单精度或双精度网络相比），并且您将看到计算性能增加。您还将受益于更小且更快的数据传输，这在多节点分布式训练中是一个重要因素。要利用混合精度训练，您需要调整数据转换和损失比例。以下是介绍如何针对支持混合精度的框架执行此操作的指南。
+ [NVIDIA 深度学习 SDK](https://docs.nvidia.com/deeplearning/sdk/mixed-precision-training/) ——NVIDIA 网站上描述了 MXNet PyTorch、和的混合精度实现的文档。 TensorFlow

**提示**  
请务必针对您选择的框架检查网站，并且搜索“混合精度”或“fp16”，了解最新的优化方法。下面是可能对您有帮助的一些混合精度指南：  
[混合精度训练 TensorFlow （视频）](https://devblogs.nvidia.com/mixed-precision-resnet-50-tensor-cores/)-在 NVIDIA 博客网站上。
[使用 float16 进行混合精度训练，其中包含网站 MXNet](https://mxnet.apache.org/api/faq/float16)上的常见问题解答文章。 MXNet 
[NVIDIA Apex：一款用于轻松进行混合精度训练的工具 PyTorch](https://devblogs.nvidia.com/apex-pytorch-easy-mixed-precision-training/) ——NVIDIA 网站上的一篇博客文章。

您可能对有关 GPU 监控和优化的以下其他主题感兴趣：
+ [监控](tutorial-gpu-monitoring.md)
  + [GPUs 使用监视器 CloudWatch](tutorial-gpu-monitoring-gpumon.md)
+ [优化](tutorial-gpu-opt.md)
  + [预处理](tutorial-gpu-opt-preprocessing.md)
  + [训练](#tutorial-gpu-opt-training)