Formats de données courants pour l'inférence - Amazon SageMaker

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Formats de données courants pour l'inférence

SageMaker Les algorithmes Amazon acceptent et produisent différents MIME types de HTTP charges utiles utilisées pour récupérer les prédictions en ligne et par mini-lots. Vous pouvez utiliser plusieurs AWS services pour transformer ou prétraiter des enregistrements avant d'exécuter l'inférence. Au minimum, vous devez convertir les données pour les éléments suivants :

  • Sérialisation de demande d'inférence (géré par vous)

  • Désérialisation de demande d'inférence (géré par l'algorithme)

  • Sérialisation de réponse d'inférence (géré par l'algorithme)

  • Désérialisation de réponse d'inférence (géré par vous)

Convertir les données pour la sérialisation des demandes d'inférence

Les options de type de contenu pour les demandes d'inférence d' SageMaker algorithmes Amazon incluent : text/csvapplication/json, etapplication/x-recordio-protobuf. Les algorithmes qui ne prennent pas en charge tous ces types peuvent prendre en charge d'autres types. XGBoost, par exemple, uniquement les supports text/csv de cette liste, mais également les supportstext/libsvm.

Pour text/csv, la valeur de l'argument Body envoyé à invoke_endpoint doit être une chaîne avec des virgules entre les valeurs pour chaque fonction. Par exemple, un enregistrement pour un modèle ayant quatre fonctions peut ressembler à 1.5,16.0,14,23.0. Les transformations effectuées sur les données d'entraînement doivent également être exécutées sur les données avant d'obtenir l'inférence. L'ordre des fonctions est pris en compte et doit rester inchangé.

application/jsonest plus flexible et propose plusieurs formats possibles que les développeurs peuvent utiliser dans leurs applications. À un niveau élevé, dans JavaScript, la charge utile peut ressembler à ce qui suit :

let request = { // Instances might contain multiple rows that predictions are sought for. "instances": [ { // Request and algorithm specific inference parameters. "configuration": {}, // Data in the specific format required by the algorithm. "data": { "<field name>": dataElement } } ] }

Vous avez les possibilités suivantes pour spécifier l'élément dataElement :

Équivalent des Protocol Buffers

// Has the same format as the protocol buffers implementation described for training. let dataElement = { "keys": [], "values": [], "shape": [] }

Vecteur numérique simple

// An array containing numeric values is treated as an instance containing a // single dense vector. let dataElement = [1.5, 16.0, 14.0, 23.0] // It will be converted to the following representation by the SDK. let converted = { "features": { "values": dataElement } }

Pour plusieurs enregistrements

let request = { "instances": [ // First instance. { "features": [ 1.5, 16.0, 14.0, 23.0 ] }, // Second instance. { "features": [ -2.0, 100.2, 15.2, 9.2 ] } ] }

Convertir les données pour la désérialisation des réponses d'inférence

SageMaker Les algorithmes Amazon sont renvoyés JSON dans plusieurs mises en page. À un haut niveau, la structure est la suivante :

let response = { "predictions": [{ // Fields in the response object are defined on a per algorithm-basis. }] }

Les champs inclus dans les prédictions diffèrent d'un algorithme à l'autre. Voici des exemples de sorties pour l'algorithme des k-moyennes (k-means).

Inférence à enregistrement unique

let response = { "predictions": [{ "closest_cluster": 5, "distance_to_cluster": 36.5 }] }

Inférence à enregistrements multiples

let response = { "predictions": [ // First instance prediction. { "closest_cluster": 5, "distance_to_cluster": 36.5 }, // Second instance prediction. { "closest_cluster": 2, "distance_to_cluster": 90.3 } ] }

Inférence à enregistrements multiples avec entrée protobuf

{ "features": [], "label": { "closest_cluster": { "values": [ 5.0 ] // e.g. the closest centroid/cluster was 1.0 }, "distance_to_cluster": { "values": [ 36.5 ] } }, "uid": "abc123", "metadata": "{ "created_at": '2017-06-03' }" }

SageMaker les algorithmes prennent également en charge le JSONLINES format, où le contenu de réponse par enregistrement est le même que celui du JSON format. La structure à enregistrements multiples est une collection d'objets de réponse par enregistrement séparés par des caractères de nouvelle ligne. Le contenu de réponse de l'KMeansalgorithme intégré pour 2 points de données d'entrée est le suivant :

{"distance_to_cluster": 23.40593910217285, "closest_cluster": 0.0} {"distance_to_cluster": 27.250282287597656, "closest_cluster": 0.0}

Pendant l'exécution de la transformation par lots, nous recommandons d'utiliser la réponse du type jsonlines en définissant le champ Accept dans CreateTransformJobRequest sur application/jsonlines.

Formats de requête communs pour tous les algorithmes

La plupart des algorithmes utilisent un grand nombre des formats de demande d'inférence suivants.

JSONformat de demande

Type de contenu : application/ JSON

Format dense

let request = { "instances": [ { "features": [1.5, 16.0, 14.0, 23.0] } ] } let request = { "instances": [ { "data": { "features": { "values": [ 1.5, 16.0, 14.0, 23.0] } } } ] }

Format clairsemé

{ "instances": [ {"data": {"features": { "keys": [26, 182, 232, 243, 431], "shape": [2000], "values": [1, 1, 1, 4, 1] } } }, {"data": {"features": { "keys": [0, 182, 232, 243, 431], "shape": [2000], "values": [13, 1, 1, 4, 1] } } }, ] }

JSONLINESformat de demande

Type de contenu : application/ JSONLINES

Format dense

Un seul enregistrement au format dense peut être représenté comme suit :

{ "features": [1.5, 16.0, 14.0, 23.0] }

ou :

{ "data": { "features": { "values": [ 1.5, 16.0, 14.0, 23.0] } }

Format clairsemé

Un seul enregistrement au format fragmenté est représenté comme suit :

{"data": {"features": { "keys": [26, 182, 232, 243, 431], "shape": [2000], "values": [1, 1, 1, 4, 1] } } }

Les enregistrements multiples sont représentés sous la forme d'un ensemble de représentations à enregistrement unique, séparées par des caractères de nouvelle ligne :

{"data": {"features": { "keys": [0, 1, 3], "shape": [4], "values": [1, 4, 1] } } } { "data": { "features": { "values": [ 1.5, 16.0, 14.0, 23.0] } } { "features": [1.5, 16.0, 14.0, 23.0] }

CSVformat de demande

Type de contenu : text/ CSV ; label_size=0

Note

CSVle support n'est pas disponible pour les machines de factorisation.

RECORDIOformat de demande

Type de contenu : application/ x-recordio-protobuf

Utilisez la transformation par lots avec des algorithmes intégrés

Lors de l'exécution de la transformation par lots, nous vous recommandons d'utiliser le type de JSONLINES réponse plutôt queJSON, s'il est pris en charge par l'algorithme. Pour ce faire, définissez le Accept champ dans la case CreateTransformJobRequest àapplication/jsonlines.

Lorsque vous créez une tâche de transformation, elle SplitType doit être définie en fonction ContentType des données d'entrée. De même, selon le champ Accept dans CreateTransformJobRequest, AssembleWith doit être défini en conséquence. Utilisez le tableau suivant pour définir ces champs :

ContentType Recommandé SplitType
application/x-recordio-protobuf RecordIO
text/csv Line
application/jsonlines Line
application/json None
application/x-image None
image/* None
Accept Recommandé AssembleWith
application/x-recordio-protobuf None
application/json None
application/jsonlines Line

Pour plus d'informations sur les formats de réponse pour les algorithmes spécifiques, consultez les éléments suivants :