

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Debugger-Tutorials
<a name="debugger-tutorial"></a>

Die folgenden Themen führen Sie durch Tutorials von den Grundlagen bis hin zu fortgeschrittenen Anwendungsfällen für die Überwachung, Profilerstellung und das Debuggen von SageMaker-Trainingsaufträgen mit Debugger. Lernen Sie die Debugger-Funktionen kennen und erfahren Sie, wie Sie mithilfe des Debuggers Ihre Machine-Learning-Modelle effizient debuggen und verbessern können.

**Topics**
+ [Debugger-Tutorial-Videos](debugger-videos.md)
+ [Debugger-Beispiel-Notebooks](debugger-notebooks.md)
+ [Debugger: erweiterte Demos und Visualisierung](debugger-visualization.md)

# Debugger-Tutorial-Videos
<a name="debugger-videos"></a>

Die folgenden Videos bieten einen Überblick über die Funktionen von Amazon SageMaker Debugger mithilfe von SageMaker Studio- und SageMaker AI-Notebook-Instances. 

**Topics**
+ [Debuggen von Modellen mit Amazon SageMaker Debugger in Studio Classic](#debugger-video-get-started)
+ [Tiefer Einblick in Amazon SageMaker Debugger und SageMaker AI-Modellmonitor](#debugger-video-dive-deep)

## Debuggen von Modellen mit Amazon SageMaker Debugger in Studio Classic
<a name="debugger-video-get-started"></a>

*Julien Simon, AWS Technischer Evangelist \$1 Dauer: 14 Minuten 17 Sekunden*

Dieses Tutorial-Video zeigt, wie Sie Amazon SageMaker Debugger verwenden, um Debugging-Informationen aus einem Trainingsmodell zu erfassen und zu überprüfen. Das in diesem Video verwendete Beispiel-Trainingsmodell ist ein einfaches neuronales Faltungsnetzwerk (CNN), das auf Keras mit Backend basiert. TensorFlow SageMaker KI in einem TensorFlow Framework und Debugger ermöglichen es Ihnen, mithilfe des Trainingsskripts direkt einen Schätzer zu erstellen und den Trainingsjob zu debuggen.

[![AWS Videos](http://img.youtube.com/vi/https://www.youtube.com/embed/MqPdTj0Znwg/0.jpg)](http://www.youtube.com/watch?v=https://www.youtube.com/embed/MqPdTj0Znwg)


Sie finden das Beispiel-Notebook im Video in diesem vom Autor bereitgestellten [Studio-Demo-Repository](https://gitlab.com/juliensimon/amazon-studio-demos/-/tree/master). Sie müssen die `debugger.ipynb` Notebook-Datei und das `mnist_keras_tf.py` Trainingsskript in Ihr SageMaker Studio oder eine SageMaker Notebook-Instance klonen. Nachdem Sie die beiden Dateien geklont haben, geben Sie den Pfad `keras_script_path` zur `mnist_keras_tf.py`-Datei im `debugger.ipynb`-Notebook an. Wenn Sie die beiden Dateien im selben Verzeichnis geklont haben, legen Sie sie als `keras_script_path = "mnist_keras_tf.py"` fest.

## Tiefer Einblick in Amazon SageMaker Debugger und SageMaker AI-Modellmonitor
<a name="debugger-video-dive-deep"></a>

*Julien Simon, AWS Technischer Evangelist \$1 Dauer: 44 Minuten 34 Sekunden*

In dieser Videositzung werden die erweiterten Funktionen von Debugger und SageMaker Model Monitor vorgestellt, mit denen Sie die Produktivität und Qualität Ihrer Modelle steigern können. Zunächst zeigt dieses Video, wie Sie Trainingsprobleme erkennen und beheben, Tensoren visualisieren und Modelle mit Debugger verbessern können. Als Nächstes, um 22:41 Uhr, zeigt das Video, wie Sie mithilfe von SageMaker AI Model Monitor Modelle in der Produktion überwachen und Vorhersageprobleme wie fehlende Funktionen oder Datenabweichungen identifizieren können. Schließlich bietet es Tipps zur Kostenoptimierung, sodass Sie Ihr Machine-Learning-Budget optimal nutzen können.

[![AWS Videos](http://img.youtube.com/vi/https://www.youtube.com/embed/0zqoeZxakOI/0.jpg)](http://www.youtube.com/watch?v=https://www.youtube.com/embed/0zqoeZxakOI)


Sie finden das Beispiel-Notebook im Video [ in diesem vom Autor bereitgestellten AWS Dev Days 2020 repository](https://gitlab.com/juliensimon/awsdevdays2020/-/tree/master/mls1).

# Debugger-Beispiel-Notebooks
<a name="debugger-notebooks"></a>

[SageMaker Beispiel-Notebooks für Debugger](https://github.com/aws/amazon-sagemaker-examples/tree/master/sagemaker-debugger/) finden Sie im [amazon-sagemaker-examplesaws/-Repository](https://github.com/aws/amazon-sagemaker-examples). Die Debugger-Beispiel-Notebooks führen Sie durch grundlegende bis fortgeschrittene Anwendungsfälle von Trainingsaufträge zum Debuggen und Profilieren. 

Wir empfehlen, dass Sie die Beispiel-Notebooks auf SageMaker Studio oder einer SageMaker Notebook-Instance ausführen, da die meisten Beispiele für Schulungsaufgaben im SageMaker KI-Ökosystem konzipiert sind, einschließlich Amazon EC2, Amazon S3 und Amazon SageMaker Python SDK. 

Um das Beispiel-Repository in SageMaker Studio zu klonen, folgen Sie den Anweisungen auf [Amazon SageMaker Studio Tour](https://docs.aws.amazon.com/sagemaker/latest/dg/gs-studio-end-to-end.html).

**Wichtig**  
Um die neuen Debugger-Funktionen verwenden zu können, müssen Sie das SageMaker Python-SDK und die `SMDebug` Client-Bibliothek aktualisieren. Führen Sie in Ihrem IPython-Kernel, Jupyter Notebook oder Ihrer JupyterLab Umgebung den folgenden Code aus, um die neuesten Versionen der Bibliotheken zu installieren und den Kernel neu zu starten.  

```
import sys
import IPython
!{sys.executable} -m pip install -U sagemaker smdebug
IPython.Application.instance().kernel.do_shutdown(True)
```

## Debugger-Beispiel-Notebooks für die Profilierung von Trainingsjobs
<a name="debugger-notebooks-profiling"></a>

Die folgende Liste enthält Beispiel-Notebooks für Debugger, in denen die Anpassungsfähigkeit von Debugger zur Überwachung und Profilierung von Trainingsaufträgen für verschiedene Modelle, Datensätze und Frameworks für Machine Learning vorgestellt wird.


| Notebook-Titel | Framework | Modell | Datensatz | Description | 
| --- | --- | --- | --- | --- | 
|  [Amazon SageMaker Debugger Profiling-Datenanalyse](https://sagemaker-examples.readthedocs.io/en/latest/sagemaker-debugger/debugger_interactive_analysis_profiling/interactive_analysis_profiling_data.html)  |  TensorFlow  |  Keras 50 ResNet  | Cifar-10 |  Dieses Notizbuch bietet eine Einführung in die interaktive Analyse von Profildaten, die vom Debugger erfasst SageMaker wurden. Erkunden Sie den vollen Funktionsumfang der `SMDebug` interaktiven Analysetools.  | 
|  [Profiltraining für maschinelles Lernen mit Amazon SageMaker Debugger](https://sagemaker-examples.readthedocs.io/en/latest/sagemaker-debugger/tensorflow_nlp_sentiment_analysis/sentiment-analysis-tf-distributed-training-bringyourownscript.html)  |  TensorFlow  |  Neuronales 1-D-Faltungsnetzwerk  |  IMDB-Datensatz  |  Profilieren Sie ein TensorFlow 1-D-CNN für die Stimmungsanalyse von IMDB-Daten, die aus Filmkritiken bestehen, die als positiv oder negativ eingestuft wurden. Sehen Sie sich den Studio Debugger Einsichten und den Bericht zur Debugger-Profilerstellung an.  | 
|  [Profilerstellung: TensorFlow ResNet Modelltraining mit verschiedenen verteilten Trainingseinstellungen](https://github.com/aws/amazon-sagemaker-examples/tree/master/sagemaker-debugger/tensorflow_profiling)  |  TensorFlow  | ResNet50 | Cifar-10 |  Führen Sie TensorFlow Trainingsjobs mit verschiedenen verteilten Trainingseinstellungen aus, überwachen Sie die Auslastung der Systemressourcen und erstellen Sie mithilfe des Debuggers ein Profil der Modellleistung.  | 
|  [ PyTorch ResNet Modelltraining mit verschiedenen verteilten Trainingseinstellungen zur Profilerstellung](https://github.com/aws/amazon-sagemaker-examples/tree/master/sagemaker-debugger/pytorch_profiling)   | PyTorch |  ResNet50  | Cifar-10 |  Führen Sie PyTorch Trainingsjobs mit verschiedenen verteilten Trainingseinstellungen aus, überwachen Sie die Auslastung der Systemressourcen und erstellen Sie mithilfe des Debuggers ein Profil der Modellleistung.  | 

## Debugger-Beispiel-Notebooks zur Analyse von Modellparametern
<a name="debugger-notebooks-debugging"></a>

Die folgende Liste enthält Beispiel-Notebooks für Debugger, in denen die Anpassungsfähigkeit von Debugger zum Debuggen von Trainingsaufträge für verschiedene Modelle, Datensätze und Frameworks für Machine Learning vorgestellt wird.


| Notebook-Titel | Framework | Modell | Datensatz | Description | 
| --- | --- | --- | --- | --- | 
|  [Amazon SageMaker Debugger — Integrierte Regel verwenden](https://github.com/aws/amazon-sagemaker-examples/tree/master/sagemaker-debugger/tensorflow_builtin_rule)  |  TensorFlow  |  Konvolutionelles neuronales Netzwerk  | MINST |  Verwenden Sie die integrierten Regeln von Amazon SageMaker Debugger zum Debuggen eines TensorFlow Modells.  | 
|  [Amazon SageMaker Debugger — Tensorflow 2.1](https://github.com/aws/amazon-sagemaker-examples/tree/master/sagemaker-debugger/tensorflow2)  |  TensorFlow  |  ResNet50  | Cifar-10 |  Verwenden Sie die Amazon SageMaker Debugger-Hook-Konfiguration und die integrierten Regeln zum Debuggen eines Modells mit dem Tensorflow 2.1-Framework.  | 
|  [Visualisieren von Debugging-Tensoren beim Training MXNet](https://github.com/aws/amazon-sagemaker-examples/tree/master/sagemaker-debugger/mnist_tensor_plot)  |  MXNet  |  Neuronales Faltungsnetzwerk von Gluon  | Mode MNIST |  Führen Sie einen Trainingsjob aus und konfigurieren Sie den SageMaker Debugger so, dass er alle Tensoren aus diesem Job speichert, und visualisieren Sie diese Tensoren dann in einem Notizbuch.  | 
|  [Spot-Training mit Amazon SageMaker Debugger aktivieren](https://github.com/aws/amazon-sagemaker-examples/tree/master/sagemaker-debugger/mxnet_spot_training)   | MXNet |  Neuronales Faltungsnetzwerk von Gluon  | Mode MNIST |  Erfahren Sie, wie der Debugger Tensordaten aus einem Trainingsauftrag auf einer Spot-Instance sammelt und wie Sie die integrierten Debuger-Regeln mit verwaltetem Spot-Training verwenden.  | 
| [Erläutern Sie mit Amazon SageMaker Debugger ein XGBoost Modell, das das Einkommen einer Person vorhersagt](https://sagemaker-examples.readthedocs.io/en/latest/sagemaker-debugger/xgboost_census_explanations/xgboost-census-debugger-rules.html) | XGBoost |  XGBoost Regression  |  [Erwachsenen-Volkszählung Datensatz](https://archive.ics.uci.edu/ml/datasets/adult)  | Erfahren Sie, wie Sie den Debugger-Hook und die integrierten Regeln zum Sammeln und Visualisieren von Tensordaten aus einem XGBoost Regressionsmodell verwenden, z. B. Verlustwerte, Merkmale und SHAP-Werte. | 

Erweiterte Visualisierungen von Modellparametern und Anwendungsfällen finden Sie im nächsten Thema unter [Debugger: erweiterte Demos und Visualisierung](debugger-visualization.md).

# Debugger: erweiterte Demos und Visualisierung
<a name="debugger-visualization"></a>

Die folgenden Demos führen Sie durch erweiterte Anwendungsfälle und Visualisierungsskripten mit Debugger.

**Topics**
+ [Modelle mit Amazon SageMaker Experiments und Debugger trainieren und beschneiden](#debugger-visualization-video-model-pruning)
+ [[Verwenden des SageMaker Debuggers zur Überwachung des Modelltrainings mit Convolutional Autoencoder](https://sagemaker-examples.readthedocs.io/en/latest/sagemaker-debugger/model_specific_realtime_analysis/autoencoder_mnist/autoencoder_mnist.html)](#debugger-visualization-autoencoder_mnist)
+ [[Verwendung des SageMaker Debuggers zur Überwachung der Aufmerksamkeit beim Training mit BERT-Modellen](https://sagemaker-examples.readthedocs.io/en/latest/sagemaker-debugger/model_specific_realtime_analysis/bert_attention_head_view/bert_attention_head_view.html)](#debugger-visualization-bert_attention_head_view)
+ [[Verwenden von SageMaker Debugger zur Visualisierung von Klassenaktivierungskarten in neuronalen Faltungsnetzen () CNNs](https://sagemaker-examples.readthedocs.io/en/latest/sagemaker-debugger/model_specific_realtime_analysis/cnn_class_activation_maps/cnn_class_activation_maps.html)](#debugger-visualization-cnn_class_activation_maps)

## Modelle mit Amazon SageMaker Experiments und Debugger trainieren und beschneiden
<a name="debugger-visualization-video-model-pruning"></a>

*Dr. Nathalie Rauschmayr, AWS angewandte Wissenschaftlerin \$1 Dauer: 49 Minuten 26 Sekunden*

[![AWS Videos](http://img.youtube.com/vi/https://www.youtube.com/embed/Tnv6HsT1r4I/0.jpg)](http://www.youtube.com/watch?v=https://www.youtube.com/embed/Tnv6HsT1r4I)


Finden Sie heraus, wie Amazon SageMaker Experiments und Debugger die Verwaltung Ihrer Schulungsjobs vereinfachen können. Amazon SageMaker Debugger bietet einen transparenten Einblick in Trainingsjobs und speichert Trainingsmetriken in Ihrem Amazon S3 S3-Bucket. SageMaker Experiments ermöglicht es Ihnen, die Trainingsinformationen über SageMaker Studio als *Tests* aufzurufen, und unterstützt die Visualisierung der Trainingsaufgabe. Dies hilft Ihnen, die Modellqualität zu erhalten und gleichzeitig weniger wichtige Parameter basierend auf dem Prioritätsrang zu reduzieren.

In diesem Video wird eine Technik zum *Beschneiden von Modellen* demonstriert, mit der ResNet bereits trainierte AlexNet Modelle leichter und erschwinglicher werden und gleichzeitig hohe Standards für die Modellgenauigkeit eingehalten werden.

SageMaker AI Estimator trainiert die vom PyTorch Modellzoo bereitgestellten Algorithmen in einem AWS Deep Learning Containers mit PyTorch Framework, und Debugger extrahiert Trainingsmetriken aus dem Trainingsprozess.

Das Video zeigt auch, wie Sie eine benutzerdefinierte Debugger-Regel einrichten, um die Genauigkeit eines bereinigten Modells zu überwachen, ein CloudWatch Amazon-Ereignis und eine AWS Lambda Funktion auszulösen, wenn die Genauigkeit einen Schwellenwert erreicht, und den Bereinigungsprozess automatisch zu stoppen, um redundante Iterationen zu vermeiden. 

Die Lernziele sind wie folgt: 
+  Erfahren Sie, wie Sie mithilfe von SageMaker KI das Training von ML-Modellen beschleunigen und die Modellqualität verbessern können. 
+  Erfahren Sie, wie Sie Trainingsiterationen mit SageMaker Experimenten verwalten können, indem Sie Eingabeparameter, Konfigurationen und Ergebnisse automatisch erfassen. 
+  Erfahren Sie, wie Debugger den Trainingsprozess transparent macht, indem automatisch Echtzeit-Tensordaten von Metriken wie Gewichten, Gradienten und Aktivierungsausgaben von Convolutional Neural Networks erfasst werden.
+ Wird verwendet CloudWatch , um Lambda auszulösen, wenn der Debugger Probleme erkennt.
+  Meistern Sie den SageMaker Trainingsprozess mithilfe von SageMaker Experimenten und Debugger.

Die in diesem Video verwendeten Notizbücher und Schulungsskripte finden Sie unter [SageMaker Debugger PyTorch Iterative](https://github.com/awslabs/amazon-sagemaker-examples/tree/master/sagemaker-debugger/pytorch_iterative_model_pruning) Model Pruning.

Die folgende Abbildung zeigt, wie der iterative Modellbereinigungsprozess die Größe von reduziert, AlexNet indem die 100 Filter mit der geringsten Signifikanz auf der Grundlage ihrer Rangfolge, bewertet anhand von Aktivierungsausgaben und Gradienten, herausgeschnitten werden.

Der Beschneidungsprozess reduzierte die anfänglichen 50 Millionen Parameter auf 18 Millionen. Außerdem wurde die geschätzte Modellgröße von 201 MB auf 73 MB reduziert. 

![\[Ein Bild, das Visualisierungen der Modellschnittausgabe enthält\]](http://docs.aws.amazon.com/de_de/sagemaker/latest/dg/images/debugger/debugger-model-pruning-results-alexnet.gif)


Sie müssen auch die Modellgenauigkeit verfolgen. Die folgende Abbildung zeigt, wie Sie den Modellbereinigungsprozess grafisch darstellen können, um Änderungen der Modellgenauigkeit auf der Grundlage der Anzahl der Parameter in SageMaker Studio zu visualisieren.

![\[Ein Bild der Tensorvisualisierung mithilfe des Debuggers in Studio SageMaker\]](http://docs.aws.amazon.com/de_de/sagemaker/latest/dg/images/debugger/debugger-model-pruning-studio.png)


Wählen Sie in SageMaker Studio die Registerkarte **Experimente**, wählen Sie eine Liste von Tensoren aus, die vom Debugger während des Bereinigungsvorgangs gespeichert wurden, und erstellen Sie dann einen Bereich mit der Liste der **Testkomponenten**. Wählen Sie alle zehn Iterationen aus, und wählen Sie **Diagramm hinzufügen**, um ein **Testkomponenten-Diagramm** zu erstellen. Nachdem Sie sich für ein Modell für die Bereitstellung entschieden haben, wählen Sie die Testkomponente aus und wählen Sie ein Menü, um eine Aktion auszuführen, oder wählen Sie **Modell bereitstellen**.

**Anmerkung**  
Um ein Modell mithilfe des folgenden Notebook-Beispiels über SageMaker Studio bereitzustellen, fügen Sie am Ende der `train` Funktion im `train.py` Skript eine Zeile hinzu.  

```
# In the train.py script, look for the train function in line 58.
def train(epochs, batch_size, learning_rate):
    ...
        print('acc:{:.4f}'.format(correct/total))
        hook.save_scalar("accuracy", correct/total, sm_metric=True)

    # Add the following code to line 128 of the train.py script to save the pruned models
    # under the current SageMaker Studio model directory
    torch.save(model.state_dict(), os.environ['SM_MODEL_DIR'] + '/model.pt')
```

## [Verwenden des SageMaker Debuggers zur Überwachung des Modelltrainings mit Convolutional Autoencoder](https://sagemaker-examples.readthedocs.io/en/latest/sagemaker-debugger/model_specific_realtime_analysis/autoencoder_mnist/autoencoder_mnist.html)
<a name="debugger-visualization-autoencoder_mnist"></a>

Dieses Notizbuch zeigt, wie SageMaker Debugger Tensoren aus einem unbeaufsichtigten (oder selbstüberwachten) Lernprozess anhand eines MNIST-Bilddatensatzes mit handgeschriebenen Zahlen visualisiert.

Das Trainingsmodell in diesem Notizbuch ist ein Convolutional-Autoencoder mit dem Framework. MXNet Der Convolutional Autoencoder verfügt über ein flaschenhalsförmiges Convolutional Neural Network, das aus einem Encoder-Teil und einem Decoder-Teil besteht. 

Der Encoder in diesem Beispiel verfügt über zwei Convolution-Ebenen, um eine komprimierte Darstellung (latente Variablen) der Eingabebilder zu erzeugen. In diesem Fall erzeugt der Encoder eine latente Variable der Größe (1, 20) aus einem Originaleingabebild der Größe (28, 28) und reduziert die Größe der Daten für das Training um das 40fache.

Der Decoder verfügt über zwei *Deconvolutional*-Schichten und stellt sicher, dass die latenten Variablen wichtige Informationen beibehalten, indem Ausgabebilder rekonstruiert werden.

Der Convolutional Encoder betreibt Clustering-Algorithmen mit kleinerer Eingabedatengröße und sowie die Leistung von Clustering-Algorithmen wie k-Means, k-NN und t-Distributed Stochastic Neighbor Embedding (t-SNE).

Dieses Notebook-Beispiel veranschaulicht, wie die latenten Variablen mithilfe von visualisiert werden, wie in der folgenden Animation gezeigt. Es zeigt auch, wie der t-SNE-Algorithmus die latenten Variablen in zehn Cluster klassifiziert und in einen zweidimensionalen Raum projiziert. Das Streudiagramm-Farbschema auf der rechten Seite des Bildes spiegelt die wahren Werte wider, um zu zeigen, wie gut das BERT-Modell und der T-SNE-Algorithmus die latenten Variablen in die Cluster organisieren.

![\[Ein konzeptionelles Bild des Convolutional Autoencoders\]](http://docs.aws.amazon.com/de_de/sagemaker/latest/dg/images/debugger/debugger-cnn-autoencoder-plot.gif)


## [Verwendung des SageMaker Debuggers zur Überwachung der Aufmerksamkeit beim Training mit BERT-Modellen](https://sagemaker-examples.readthedocs.io/en/latest/sagemaker-debugger/model_specific_realtime_analysis/bert_attention_head_view/bert_attention_head_view.html)
<a name="debugger-visualization-bert_attention_head_view"></a>

Bidirectional Encode Representations from Transformers (BERT) ist ein Sprachrepräsentationsmodell. Wie der Name des Modells widerspiegelt, baut das BERT-Modell auf *Transferlernen* und *dem Transformer-Modell* für die Verarbeitung natürlicher Sprache (NLP) auf.

Das BERT-Modell ist vortrainiert für unbeaufsichtigte Aufgaben wie die Vorhersage fehlender Wörter in einem Satz oder die Vorhersage des nächsten Satzes, der natürlich einem vorherigen Satz folgt. Die Trainingsdaten enthalten 3,3 Milliarden Wörter (Tokens) englischen Textes, wie Wikipedia und elektronische Bücher. Als einfaches Beispiel kann das BERT-Modell den entsprechenden Verb-Tokens oder Pronomen-Tokens eines Subjekt-Tokens große *Aufmerksamkeit* schenken.

Das vortrainierte BERT-Modell kann mit einer zusätzlichen Ausgabeschicht verfeinert werden, um ein state-of-the-art Modelltraining bei NLP-Aufgaben wie automatisierten Antworten auf Fragen, Textklassifizierung und vielen anderen zu ermöglichen. 

Der Debugger sammelt Tensoren aus dem Feinabstimmungsprozess. Im Kontext von NLP wird das Gewicht von Neuronen als *Aufmerksamkeit* bezeichnet. 

Dieses Notizbuch zeigt, wie das [vortrainierte BERT-Modell aus dem GluonNLP-Modellzoo für den](https://gluon-nlp.mxnet.io/model_zoo/bert/index.html) Stanford Question and Answering-Datensatz verwendet wird und wie der SageMaker Debugger zur Überwachung des Trainingsjobs eingerichtet wird.

Das Plotten von *Aufmerksamkeitswerten* und einzelnen Neuronen in der Abfrage und Schlüsselvektoren kann helfen, Ursachen für falsche Modellvorhersagen zu identifizieren. Mit dem SageMaker KI-Debugger können Sie die Tensoren abrufen und die *Aufmerksamkeitskopf-Ansicht* während des Trainingsfortschritts in Echtzeit grafisch darstellen. So können Sie nachvollziehen, was das Modell gerade lernt.

Die folgende Animation zeigt die Aufmerksamkeitswerte der ersten 20 Eingabetokens für zehn Iterationen im Trainingsauftrag, der im Notebook-Beispiel bereitgestellt wird.

![\[Eine Animation der Aufmerksamkeitsergebnisse\]](http://docs.aws.amazon.com/de_de/sagemaker/latest/dg/images/debugger/debugger-attention_scores.gif)


## [Verwenden von SageMaker Debugger zur Visualisierung von Klassenaktivierungskarten in neuronalen Faltungsnetzen () CNNs](https://sagemaker-examples.readthedocs.io/en/latest/sagemaker-debugger/model_specific_realtime_analysis/cnn_class_activation_maps/cnn_class_activation_maps.html)
<a name="debugger-visualization-cnn_class_activation_maps"></a>

Dieses Notizbuch zeigt, wie SageMaker Debugger verwendet wird, um Klassenaktivierungskarten für die Bilderkennung und -klassifizierung in neuronalen Faltungsnetzen zu zeichnen (). CNNs Beim Deep Learning ist ein *Convolutional Neural Network (CNN oder ConvNet) eine Klasse von tiefen neuronalen* Netzwerken, die am häufigsten zur Analyse visueller Bilder eingesetzt werden. Eine der Anwendungen, die die Klassenaktivierungskarten übernimmt, sind selbstfahrende Autos, die die sofortige Erkennung und Klassifizierung von Bildern wie Verkehrszeichen, Straßen und Hindernisse erfordern.

In diesem Notizbuch wird das PyTorch ResNet Modell anhand [des deutschen Verkehrszeichendatensatzes](http://benchmark.ini.rub.de/) trainiert, der mehr als 40 Klassen von verkehrsbezogenen Objekten und insgesamt mehr als 50.000 Bilder enthält.

![\[Eine Animation von CNN-Klassenaktivierungskarten\]](http://docs.aws.amazon.com/de_de/sagemaker/latest/dg/images/debugger/debugger-cnn-class-activation-maps.gif)


Während des Trainingsprozesses sammelt der SageMaker Debugger Tensoren, um die Klassenaktivierungskarten in Echtzeit darzustellen. Wie im animierten Bild gezeigt, hebt die Klassenaktivierungskarte (auch als *Saliency Map* bezeichnet) Regionen mit hoher Aktivierung in roter Farbe hervor. 

Mithilfe von Tensoren, die von Debugger erfasst werden, können Sie visualisieren, wie sich die Aktivierungskarte während der Modelltraining entwickelt. Das Modell beginnt mit der Erkennung der Kante in der linken unteren Ecke zu Beginn des Trainingsauftrags. Im Laufe des Trainings verschiebt sich der Fokus in die Mitte und erkennt das Geschwindigkeitsbegrenzungszeichen, und das Modell prognostiziert das Eingabebild mit einem Konfidenzniveau von 97 % erfolgreich als Klasse 3, eine Klasse von Geschwindigkeitsbegrenzungszeichen von 60 km/h.