

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Didacticiels Debugger
<a name="debugger-tutorial"></a>

Les rubriques suivantes vous présentent des didacticiels couvrant aussi bien des sujets basiques que des cas d'utilisation avancés sur la surveillance, le profilage et le débogage des tâches d'entraînement SageMaker à l'aide de Debugger. Explorez les fonctions de Debugger et découvrez comment déboguer et améliorer efficacement vos modèles de machine learning à l'aide de Debugger.

**Topics**
+ [Didacticiels vidéo Debugger](debugger-videos.md)
+ [Exemples de blocs-notes Debugger](debugger-notebooks.md)
+ [Démonstrations et visualisation avancées de Debugger](debugger-visualization.md)

# Didacticiels vidéo Debugger
<a name="debugger-videos"></a>

Les vidéos suivantes présentent les fonctionnalités d'Amazon SageMaker Debugger à l'aide de SageMaker Studio et d'instances de bloc-notes SageMaker AI. 

**Topics**
+ [Débogage de modèles avec Amazon SageMaker Debugger dans Studio Classic](#debugger-video-get-started)
+ [Présentation approfondie d'Amazon SageMaker Debugger et du moniteur de modèles SageMaker AI](#debugger-video-dive-deep)

## Débogage de modèles avec Amazon SageMaker Debugger dans Studio Classic
<a name="debugger-video-get-started"></a>

*Julien Simon, AWS Technical Evangelist \$1 Durée : 14 minutes 17 secondes*

Ce didacticiel vidéo explique comment utiliser Amazon SageMaker Debugger pour capturer et inspecter les informations de débogage à partir d'un modèle de formation. L'exemple de modèle d'entraînement utilisé dans cette vidéo est un réseau neuronal convolutionnel (CNN) simple basé sur Keras avec le backend. TensorFlow SageMaker AI in a TensorFlow framework et Debugger vous permettent de créer un estimateur directement à l'aide du script de formation et de déboguer la tâche de formation.

[![AWS Videos](http://img.youtube.com/vi/https://www.youtube.com/embed/MqPdTj0Znwg/0.jpg)](http://www.youtube.com/watch?v=https://www.youtube.com/embed/MqPdTj0Znwg)


Vous pouvez trouver l'exemple de bloc-notes dans la vidéo dans [ce référentiel Studio Demo](https://gitlab.com/juliensimon/amazon-studio-demos/-/tree/master) fourni par l'auteur. Vous devez cloner le fichier du `debugger.ipynb` bloc-notes et le script d'`mnist_keras_tf.py`entraînement dans votre SageMaker studio ou sur une instance de SageMaker bloc-notes. Après avoir cloné les deux fichiers, spécifiez le chemin d'accès `mnist_keras_tf.py` au fichier `keras_script_path` à l'intérieur du bloc-notes `debugger.ipynb`. Par exemple, si vous avez cloné les deux fichiers dans le même répertoire, définissez-le comme suit : `keras_script_path = "mnist_keras_tf.py"`.

## Présentation approfondie d'Amazon SageMaker Debugger et du moniteur de modèles SageMaker AI
<a name="debugger-video-dive-deep"></a>

*Julien Simon, AWS Technical Evangelist \$1 Durée : 44 minutes 34 secondes*

Cette session vidéo explore les fonctionnalités avancées du Debugger et du SageMaker Model Monitor qui contribuent à améliorer la productivité et la qualité de vos modèles. Tout d'abord, cette vidéo montre comment détecter et résoudre les problèmes d'entraînement, visualiser des tenseurs et améliorer les modèles avec Debugger. Ensuite, à 22h41, la vidéo montre comment surveiller les modèles en production et identifier les problèmes de prédiction tels que les fonctionnalités manquantes ou la dérive des données à l'aide d' SageMaker AI Model Monitor. Enfin, la vidéo vous offre des conseils d'optimisation des coûts pour vous aider à tirer le meilleur parti de votre budget de machine learning.

[![AWS Videos](http://img.youtube.com/vi/https://www.youtube.com/embed/0zqoeZxakOI/0.jpg)](http://www.youtube.com/watch?v=https://www.youtube.com/embed/0zqoeZxakOI)


Vous trouverez l'exemple de bloc-notes de la vidéo dans [ce référentiel AWS Dev Days 2020](https://gitlab.com/juliensimon/awsdevdays2020/-/tree/master/mls1) offert par l'auteur.

# Exemples de blocs-notes Debugger
<a name="debugger-notebooks"></a>

SageMaker [Des [exemples de blocs-notes de débogage](https://github.com/aws/amazon-sagemaker-examples/tree/master/sagemaker-debugger/) sont fournis dans le référentiel aws/. amazon-sagemaker-examples](https://github.com/aws/amazon-sagemaker-examples) Les exemples de blocs-notes Debugger vous présentent des cas d'utilisation de niveau basique à avancé de tâches d'entraînement de débogage et de profilage. 

Nous vous recommandons d'exécuter les exemples de blocs-notes sur SageMaker Studio ou sur une instance de SageMaker Notebook, car la plupart des exemples sont conçus pour les tâches de formation dans l'écosystème de l' SageMaker IA, notamment Amazon EC2, Amazon S3 et le SDK Amazon SageMaker Python. 

Pour cloner l'exemple de référentiel dans SageMaker Studio, suivez les instructions d'[Amazon SageMaker Studio Tour](https://docs.aws.amazon.com/sagemaker/latest/dg/gs-studio-end-to-end.html).

**Important**  
Pour utiliser les nouvelles fonctionnalités du Debugger, vous devez mettre à niveau le SDK SageMaker Python et la `SMDebug` bibliothèque cliente. Dans votre noyau IPython, Jupyter Notebook JupyterLab ou votre environnement, exécutez le code suivant pour installer les dernières versions des bibliothèques et redémarrer le noyau.  

```
import sys
import IPython
!{sys.executable} -m pip install -U sagemaker smdebug
IPython.Application.instance().kernel.do_shutdown(True)
```

## Exemple de blocs-notes Debugger pour le profilage des tâches d’entraînement
<a name="debugger-notebooks-profiling"></a>

La liste suivante contient des exemples de blocs-notes Debugger présentant l'adaptabilité de Debugger au contrôle et au profilage des tâches d'entraînement pour divers modèles de machine learning, jeux de données et cadres.


| Titre du bloc-notes | Cadre | Modèle | Jeu de données | Description | 
| --- | --- | --- | --- | --- | 
|  [Analyse des données de profilage Amazon SageMaker Debugger](https://sagemaker-examples.readthedocs.io/en/latest/sagemaker-debugger/debugger_interactive_analysis_profiling/interactive_analysis_profiling_data.html)  |  TensorFlow  |  Keras 50 ResNet  | Cifar-10 |  Ce carnet fournit une introduction à l'analyse interactive des données profilées capturées par SageMaker Debugger. Explorez toutes les fonctionnalités des outils d'analyse interactifs `SMDebug`.  | 
|  [Formation à l'apprentissage automatique des profils avec Amazon SageMaker Debugger](https://sagemaker-examples.readthedocs.io/en/latest/sagemaker-debugger/tensorflow_nlp_sentiment_analysis/sentiment-analysis-tf-distributed-training-bringyourownscript.html)  |  TensorFlow  |  Réseau neuronal convolutif 1-D  |  Jeu de données IMDB  |  Profilez un CNN en TensorFlow 1 D pour analyser les sentiments des données IMDB, qui consistent en des critiques de films étiquetées comme ayant un sentiment positif ou négatif. Explorez les informations de Studio Debugger et le rapport de profilage de Debugger.  | 
|  [Profilage TensorFlow ResNet du modèle d'entraînement avec différents paramètres d'entraînement distribués](https://github.com/aws/amazon-sagemaker-examples/tree/master/sagemaker-debugger/tensorflow_profiling)  |  TensorFlow  | ResNet50 | Cifar-10 |  Exécutez des tâches de TensorFlow formation avec différents paramètres d'entraînement distribués, surveillez l'utilisation des ressources du système et profilez les performances du modèle à l'aide de Debugger.  | 
|  [Profilage PyTorch ResNet du modèle d'entraînement avec différents paramètres d'entraînement distribués](https://github.com/aws/amazon-sagemaker-examples/tree/master/sagemaker-debugger/pytorch_profiling)   | PyTorch |  ResNet50  | Cifar-10 |  Exécutez des tâches de PyTorch formation avec différents paramètres d'entraînement distribués, surveillez l'utilisation des ressources du système et profilez les performances du modèle à l'aide de Debugger.  | 

## Exemple de blocs-notes Debugger pour l’analyse des paramètres de modèle
<a name="debugger-notebooks-debugging"></a>

La liste suivante contient des exemples de blocs-notes Debugger présentant l'adaptabilité de Debugger au débogage des tâches d'entraînement pour divers modèles de machine learning, jeux de données et cadres.


| Titre du bloc-notes | Cadre | Modèle | Jeu de données | Description | 
| --- | --- | --- | --- | --- | 
|  [Amazon SageMaker Debugger - Utiliser une règle intégrée](https://github.com/aws/amazon-sagemaker-examples/tree/master/sagemaker-debugger/tensorflow_builtin_rule)  |  TensorFlow  |  Réseau neuronal convolutif  | MNIST |  Utilisez les règles intégrées d'Amazon SageMaker Debugger pour déboguer un modèle. TensorFlow  | 
|  [ SageMaker Débogueur Amazon - Tensorflow 2.1](https://github.com/aws/amazon-sagemaker-examples/tree/master/sagemaker-debugger/tensorflow2)  |  TensorFlow  |  ResNet50  | Cifar-10 |  Utilisez la configuration du hook Amazon SageMaker Debugger et les règles intégrées pour déboguer un modèle avec le framework Tensorflow 2.1.  | 
|  [Visualisation des tenseurs de débogage de l'entraînement MXNet](https://github.com/aws/amazon-sagemaker-examples/tree/master/sagemaker-debugger/mnist_tensor_plot)  |  MXNet  |  Réseau neuronal convolutif Gluon  | Fashion MNIST |  Exécutez une tâche de formation et configurez SageMaker Debugger pour stocker tous les tenseurs de cette tâche, puis visualisez ces tenseurs dans un bloc-notes.  | 
|  [Activez la formation ponctuelle avec Amazon SageMaker Debugger](https://github.com/aws/amazon-sagemaker-examples/tree/master/sagemaker-debugger/mxnet_spot_training)   | MXNet |  Réseau neuronal convolutif Gluon  | Fashion MNIST |  Découvrez comment Debugger collecte des données de tenseurs à partir d'une tâche d'entraînement sur une instance Spot, et comment utiliser les règles intégrées de Debugger avec un entraînement Spot géré.  | 
| [Expliquer un XGBoost modèle qui prédit le revenu d'un individu avec Amazon SageMaker Debugger](https://sagemaker-examples.readthedocs.io/en/latest/sagemaker-debugger/xgboost_census_explanations/xgboost-census-debugger-rules.html) | XGBoost |  XGBoost Régression  |  [Jeu de données du recensement des adultes](https://archive.ics.uci.edu/ml/datasets/adult)  | Apprenez à utiliser le hook Debugger et les règles intégrées pour collecter et visualiser les données tensorielles d'un modèle de XGBoost régression, telles que les valeurs de perte, les fonctionnalités et les valeurs SHAP. | 

Pour trouver des visualisations avancées des paramètres de modèle et des cas d'utilisation, consultez la rubrique suivante : [Démonstrations et visualisation avancées de Debugger](debugger-visualization.md).

# Démonstrations et visualisation avancées de Debugger
<a name="debugger-visualization"></a>

Les démonstrations suivantes vous guident dans les cas d'utilisation et les scripts de visualisation avancés à l'aide de Debugger.

**Topics**
+ [Modèles d'entraînement et d'élagage avec Amazon SageMaker Experiments et Debugger](#debugger-visualization-video-model-pruning)
+ [[Utilisation du SageMaker Debugger pour surveiller l'entraînement d'un modèle d'autoencodeur convolutif](https://sagemaker-examples.readthedocs.io/en/latest/sagemaker-debugger/model_specific_realtime_analysis/autoencoder_mnist/autoencoder_mnist.html)](#debugger-visualization-autoencoder_mnist)
+ [[Utilisation du SageMaker Debugger pour surveiller les attentions lors de l'entraînement du modèle BERT](https://sagemaker-examples.readthedocs.io/en/latest/sagemaker-debugger/model_specific_realtime_analysis/bert_attention_head_view/bert_attention_head_view.html)](#debugger-visualization-bert_attention_head_view)
+ [[Utiliser SageMaker Debugger pour visualiser des cartes d'activation de classes dans des réseaux neuronaux convolutifs () CNNs](https://sagemaker-examples.readthedocs.io/en/latest/sagemaker-debugger/model_specific_realtime_analysis/cnn_class_activation_maps/cnn_class_activation_maps.html)](#debugger-visualization-cnn_class_activation_maps)

## Modèles d'entraînement et d'élagage avec Amazon SageMaker Experiments et Debugger
<a name="debugger-visualization-video-model-pruning"></a>

*Dr. Nathalie Rauschmayr, chercheuse AWS appliquée \$1 Durée : 49 minutes 26 secondes*

[![AWS Videos](http://img.youtube.com/vi/https://www.youtube.com/embed/Tnv6HsT1r4I/0.jpg)](http://www.youtube.com/watch?v=https://www.youtube.com/embed/Tnv6HsT1r4I)


Découvrez comment Amazon SageMaker Experiments et Debugger peuvent simplifier la gestion de vos tâches de formation. Amazon SageMaker Debugger fournit une visibilité transparente sur les tâches de formation et enregistre les indicateurs de formation dans votre compartiment Amazon S3. SageMaker Experiments vous permet d'appeler les informations de formation sous forme d'*essais* via SageMaker Studio et permet de visualiser le travail de formation. Cela contribue à préserver la qualité élevée du modèle tout en réduisant les paramètres moins importants en fonction du niveau d'importance.

Cette vidéo présente une technique d'*élagage de modèles* qui rend les modèles ResNet 50 et AlexNet modèles préentraînés plus légers et abordables tout en respectant des normes élevées en matière de précision des modèles.

SageMaker AI Estimator entraîne les algorithmes fournis par le zoo de PyTorch modèles dans un PyTorch framework AWS Deep Learning Containers, et Debugger extrait les métriques d'entraînement du processus d'entraînement.

La vidéo montre également comment configurer une règle personnalisée du Debugger pour vérifier la précision d'un modèle élagué, pour déclencher un CloudWatch événement Amazon et une AWS Lambda fonction lorsque la précision atteint un seuil, et pour arrêter automatiquement le processus d'élagage afin d'éviter les itérations redondantes. 

Les objectifs d'apprentissage sont les suivants : 
+  Découvrez comment utiliser l' SageMaker IA pour accélérer la formation des modèles de machine learning et améliorer la qualité des modèles. 
+  Découvrez comment gérer les itérations d'entraînement avec SageMaker Experiments en capturant automatiquement les paramètres d'entrée, les configurations et les résultats. 
+  Découvrir comment Debugger rend le processus d'entraînement transparent en capturant automatiquement les données des tenseurs en temps réel à partir de métriques telles que les pondérations, les gradients et les sorties d'activation des réseaux de neurones convolutifs.
+  CloudWatch À utiliser pour déclencher Lambda lorsque Debugger détecte des problèmes.
+  Maîtrisez le processus de SageMaker formation à l'aide d' SageMaker Experiments et de Debugger.

Vous trouverez les blocs-notes et les scripts de formation utilisés dans cette vidéo de [SageMaker Debugger PyTorch Iterative](https://github.com/awslabs/amazon-sagemaker-examples/tree/master/sagemaker-debugger/pytorch_iterative_model_pruning) Model Pruning.

L'image suivante montre comment le processus d'élagage itératif du modèle réduit la taille de AlexNet en supprimant les 100 filtres les moins significatifs en fonction du rang d'importance évalué par les résultats d'activation et les dégradés.

Le processus de réduction a réduit le nombre initial de 50 millions de paramètres à 18 millions. Il a également réduit la taille estimée du modèle de 201 Mo à 73 Mo. 

![\[Image contenant des visualisations du résultat de la réduction du modèle\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/debugger/debugger-model-pruning-results-alexnet.gif)


Vous devez également suivre la précision du modèle. L'image suivante montre comment tracer le processus d'élagage du modèle pour visualiser les modifications de la précision du modèle en fonction du nombre de paramètres dans SageMaker Studio.

![\[Une image de visualisation des tenseurs à l'aide du débogueur dans Studio SageMaker\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/debugger/debugger-model-pruning-studio.png)


Dans SageMaker Studio, choisissez l'onglet **Experiments**, sélectionnez une liste de tenseurs enregistrés par Debugger lors du processus d'élagage, puis composez un panneau de liste des composants d'**essai**. Sélectionnez les dix itérations et choisissez **Add chart (Ajouter un graphique)** pour créer un **Trial Component Chart** (Graphique de composants d'essai). Une fois que vous avez choisi le modèle à déployer, choisissez le composant d'essai et un menu permettant d'effectuer une action ou choisissez **Deploy model** (Déployer le modèle).

**Note**  
Pour déployer un modèle via SageMaker Studio à l'aide de l'exemple de bloc-notes suivant, ajoutez une ligne à la fin de la `train` fonction dans le `train.py` script.  

```
# In the train.py script, look for the train function in line 58.
def train(epochs, batch_size, learning_rate):
    ...
        print('acc:{:.4f}'.format(correct/total))
        hook.save_scalar("accuracy", correct/total, sm_metric=True)

    # Add the following code to line 128 of the train.py script to save the pruned models
    # under the current SageMaker Studio model directory
    torch.save(model.state_dict(), os.environ['SM_MODEL_DIR'] + '/model.pt')
```

## [Utilisation du SageMaker Debugger pour surveiller l'entraînement d'un modèle d'autoencodeur convolutif](https://sagemaker-examples.readthedocs.io/en/latest/sagemaker-debugger/model_specific_realtime_analysis/autoencoder_mnist/autoencoder_mnist.html)
<a name="debugger-visualization-autoencoder_mnist"></a>

Ce bloc-notes montre comment SageMaker Debugger visualise les tenseurs issus d'un processus d'apprentissage non supervisé (ou autosupervisé) sur un jeu de données d'images MNIST contenant des nombres écrits à la main.

Le modèle d'entraînement de ce bloc-notes est un autoencodeur convolutif avec le framework. MXNet L’auto-encodeur convolutif a un réseau neuronal convolutif en forme de goulet d’étranglement qui se compose d’une partie encodeur et d’une partie décodeur. 

L'encodeur de cet exemple comporte deux couches de convolution pour produire une représentation compressée (variables latentes) des images en entrée. Dans ce cas, l'encodeur produit une variable latente de taille (1, 20) à partir d'une image d'entrée d'origine de taille (28, 28) et réduit considérablement la taille des données pour l'entraînement, de l'ordre de 40 fois.

Le décodeur dispose de deux couches *déconvolutives* et garantit que les variables latentes conservent les informations clés en reconstruisant les images de sortie.

L'encodeur convolutif alimente les algorithmes de clustering avec une taille de données d'entrée plus petite, ainsi que les performances des algorithmes de clustering tels que k-moyennes (k-means), k-nn et T-SNE (Stochastic Neighbor Embedding) distribuée.

Cet exemple de bloc-notes montre comment visualiser les variables latentes à l'aide de Debugger, comme illustré dans l'animation suivante. Il montre également comment l'algorithme T-SNE classe les variables latentes en dix groupes et les projette dans un espace à deux dimensions. Le diagramme de points en couleur situé sur la droite de l'image reflète les vraies valeurs pour montrer l'efficacité de l'organisation des variables latentes dans les clusters par le modèle BERT et l'algorithme T-SNE.

![\[Image conceptuelle de l'auto-encodeur convolutif\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/debugger/debugger-cnn-autoencoder-plot.gif)


## [Utilisation du SageMaker Debugger pour surveiller les attentions lors de l'entraînement du modèle BERT](https://sagemaker-examples.readthedocs.io/en/latest/sagemaker-debugger/model_specific_realtime_analysis/bert_attention_head_view/bert_attention_head_view.html)
<a name="debugger-visualization-bert_attention_head_view"></a>

Le modèle BERT (Bidirectional Encode Representations from Transformers) est un modèle de représentation linguistique. Comme le reflète son nom, le modèle BERT s'appuie sur l'*apprentissage par transfert* et sur le *modèle de transformateur* pour le traitement du langage naturel.

Le modèle BERT est préentraîné pour des tâches non supervisées, comme la prédiction des mots manquants dans une phrase ou la prédiction de la phrase qui suit naturellement une phrase. Les données d'entraînement contiennent 3,3 milliards de mots (jetons) de texte anglais, provenant de sources telles que Wikipédia et des livres électroniques. Pour vous donner un exemple simple, le modèle BERT peut accorder une grande *attention* aux jetons de verbe appropriés ou aux jetons de pronom d'un jeton sujet.

Le modèle BERT préentraîné peut être affiné avec une couche de sortie supplémentaire pour permettre l'entraînement du state-of-the-art modèle dans les tâches NLP, telles que les réponses automatisées aux questions, la classification de texte, etc. 

Debugger collecte les tenseurs du processus de réglage précis. Dans le contexte du traitement du langage naturel, la pondération des neurones est appelée *attention*. 

Ce carnet explique comment utiliser le [modèle BERT préentraîné du zoo de modèles GluonNLP sur l'ensemble](https://gluon-nlp.mxnet.io/model_zoo/bert/index.html) de données de questions et réponses de Stanford et comment SageMaker configurer Debugger pour surveiller le travail de formation.

Le tracé des *scores d'attention* et des neurones individuels dans la requête et les vecteurs clés peut aider à identifier les causes de prédictions erronées du modèle. Avec SageMaker AI Debugger, vous pouvez récupérer les tenseurs et tracer la *vue attention-tête* en temps réel au fur et à mesure de la progression de l'entraînement et comprendre ce que le modèle apprend.

L'animation suivante montre les scores d'attention des 20 premiers jetons d'entrée pour dix itérations dans la tâche d'entraînement fournie dans l'exemple de bloc-notes.

![\[Animation des scores d'attention\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/debugger/debugger-attention_scores.gif)


## [Utiliser SageMaker Debugger pour visualiser des cartes d'activation de classes dans des réseaux neuronaux convolutifs () CNNs](https://sagemaker-examples.readthedocs.io/en/latest/sagemaker-debugger/model_specific_realtime_analysis/cnn_class_activation_maps/cnn_class_activation_maps.html)
<a name="debugger-visualization-cnn_class_activation_maps"></a>

Ce bloc-notes explique comment utiliser SageMaker Debugger pour tracer des cartes d'activation de classes pour la détection et la classification d'images dans des réseaux neuronaux convolutifs (). CNNs En apprentissage profond, un *réseau neuronal convolutif (CNN ou ConvNet)* est une classe de réseaux neuronaux profonds, le plus souvent utilisés pour analyser des images visuelles. Les voitures autonomes illustrent une application qui adopte les cartes d'activation de classes. En effet, elles nécessitent la détection instantanée et la classification des images telles que les panneaux de signalisation, les routes et les obstacles.

Dans ce bloc-notes, le PyTorch ResNet modèle est entraîné sur [le jeu de données allemand sur les panneaux de signalisation](http://benchmark.ini.rub.de/), qui contient plus de 40 catégories d'objets liés au trafic et plus de 50 000 images au total.

![\[Animation de carte d'activation des classes dans les réseaux de neurones convolutifs\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/debugger/debugger-cnn-class-activation-maps.gif)


Au cours du processus de formation, SageMaker Debugger collecte des tenseurs pour tracer les cartes d'activation des classes en temps réel. Comme illustré dans l'image animée, la carte d'activation des classes (également appelée *carte de saillance*) met en évidence les régions à forte activation en rouge. 

À l'aide des tenseurs capturés par Debugger, vous pouvez visualiser l'évolution de la carte d'activation au cours de l'entraînement du modèle. Le modèle commence par détecter le bord dans le coin inférieur gauche au début de la tâche d'entraînement. Au fur et à mesure de la progression de l'entraînement, l'attention se déplace vers le centre et détecte le panneau de limite de vitesse. Le modèle prédit à juste titre que la classe de l'image d'entrée est la classe 3, à savoir une classe pour les panneaux de limite de vitesse de 60 km/h, avec un niveau de confiance de 97 %.