Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Immagini Amazon Rekognition è in grado di analizzare le immagini archiviate in un bucket Amazon S3 o le immagini fornite come byte di immagine.
In questo argomento, utilizzi l'operazione DetectLabelsAPI per rilevare oggetti, concetti e scene in un'immagine (JPEG o PNG) archiviata in un bucket Amazon S3. È possibile trasmettere un'immagine a un'operazione API di Immagini Amazon Rekognition utilizzando il parametro di input Image. In Image
, è necessario specificare la proprietà dell'oggetto S3Object per fare riferimento a un'immagine archiviata in un bucket S3. I byte di immagine per le immagini archiviate in bucket Amazon S3 non devono essere codificati con Base64. Per ulteriori informazioni, consulta Specifiche dell'immagine.
Richiesta di esempio
In questa richiesta JSON di esempio per DetectLabels
, l'immagine di origine (input.jpg
) viene caricata da un bucket Amazon S3 denominato amzn-s3-demo-bucket
. Nota che la regione del bucket S3 contenente l'oggetto S3 deve corrispondere alla regione utilizzata per le operazioni Immagini Amazon Rekognition.
{ "Image": { "S3Object": { "Bucket": "
amzn-s3-demo-bucket
", "Name": "input.jpg" } }, "MaxLabels": 10, "MinConfidence": 75 }
Gli esempi seguenti utilizzano various AWS SDKs and the AWS CLI to call. DetectLabels
Per informazioni sulla risposta dell'operazione DetectLabels
, consulta DetectLabels - risposta.
Per rilevare le etichette in un'immagine
Se non lo hai già fatto:
Crea o aggiorna un utente con le autorizzazioni
AmazonRekognitionFullAccess
eAmazonS3ReadOnlyAccess
. Per ulteriori informazioni, consulta Fase 1: impostazione di un account AWS e creazione di un utente.Installa e configura il AWS CLI e il AWS SDKs. Per ulteriori informazioni, consulta Passaggio 2: configura AWS CLI e AWS SDKs. Assicurati di aver fornito all'utente che chiama le operazioni API le autorizzazioni appropriate per l'accesso programmatico, consulta Concessione dell'accesso programmatico per le istruzioni su come eseguire questa operazione.
-
Carica nel bucket S3 un'immagine contenente uno o più oggetti, ad esempio alberi, abitazioni e barche. L'immagine deve essere in formato .jpg o .png.
Per le istruzioni, consulta Caricamento di oggetti in Amazon S3 nella Guida per l'utente di Amazon Simple Storage Service.
-
Utilizzare i seguenti esempi per richiamare l'operazione
DetectLabels
.Questo esempio mostra un elenco di etichette rilevate nell'immagine di input. Sostituisci i valori
bucket
ephoto
con i nomi del bucket Amazon S3 e dell'immagine utilizzati nella fase 2.//Copyright 2018 Amazon.com, Inc. or its affiliates. All Rights Reserved. //PDX-License-Identifier: MIT-0 (For details, see https://github.com/awsdocs/amazon-rekognition-developer-guide/blob/master/LICENSE-SAMPLECODE.) package com.amazonaws.samples; import com.amazonaws.services.rekognition.AmazonRekognition; import com.amazonaws.services.rekognition.AmazonRekognitionClientBuilder; import com.amazonaws.services.rekognition.model.AmazonRekognitionException; import com.amazonaws.services.rekognition.model.DetectLabelsRequest; import com.amazonaws.services.rekognition.model.DetectLabelsResult; import com.amazonaws.services.rekognition.model.Image; import com.amazonaws.services.rekognition.model.Label; import com.amazonaws.services.rekognition.model.S3Object; import java.util.List; public class DetectLabels { public static void main(String[] args) throws Exception { String photo = "input.jpg"; String bucket = "bucket"; AmazonRekognition rekognitionClient = AmazonRekognitionClientBuilder.defaultClient(); DetectLabelsRequest request = new DetectLabelsRequest() .withImage(new Image() .withS3Object(new S3Object() .withName(photo).withBucket(bucket))) .withMaxLabels(10) .withMinConfidence(75F); try { DetectLabelsResult result = rekognitionClient.detectLabels(request); List <Label> labels = result.getLabels(); System.out.println("Detected labels for " + photo); for (Label label: labels) { System.out.println(label.getName() + ": " + label.getConfidence().toString()); } } catch(AmazonRekognitionException e) { e.printStackTrace(); } } }
Example response
La risposta di DetectLabels
è una matrice di etichette rilevate nell'immagine e il livello di affidabilità con cui sono state rilevate.
Quando esegui l'operazione DetectLabels
su un'immagine, Amazon Rekognition restituisce un output simile alla risposta di esempio seguente.
La risposta mostra che l'operazione ha rilevato più etichette, tra cui Persona, Veicolo e Auto. A ogni etichetta è associato un livello di affidabilità. Ad esempio, l'algoritmo di rilevamento è sicuro al 98,991432% che l'immagine contenga una persona.
La risposta include inoltre una serie Parents
con i predecessori dell'etichetta. Ad esempio, l'etichetta Automobile ha due etichette padre denominate Vehicle (Veicolo) e Transportation (Trasporti).
La risposta per le etichette relative a oggetti comuni include informazioni sul riquadro di delimitazione per la posizione dell'etichetta nell'immagine in input. Ad esempio, l'etichetta Persona dispone di una serie di istanze contenenti due riquadri di delimitazione che si riferiscono a due persone rilevate all'interno dell'immagine.
Il campo LabelModelVersion
contiene il numero di versione del modello di rilevamento utilizzato da DetectLabels
.
Per ulteriori informazioni sull'utilizzo di questa operazione DetectLabels
, consulta Rilevamento di oggetti e concetti.
{
{
"Labels": [
{
"Name": "Vehicle",
"Confidence": 99.15271759033203,
"Instances": [],
"Parents": [
{
"Name": "Transportation"
}
]
},
{
"Name": "Transportation",
"Confidence": 99.15271759033203,
"Instances": [],
"Parents": []
},
{
"Name": "Automobile",
"Confidence": 99.15271759033203,
"Instances": [],
"Parents": [
{
"Name": "Vehicle"
},
{
"Name": "Transportation"
}
]
},
{
"Name": "Car",
"Confidence": 99.15271759033203,
"Instances": [
{
"BoundingBox": {
"Width": 0.10616336017847061,
"Height": 0.18528179824352264,
"Left": 0.0037978808395564556,
"Top": 0.5039216876029968
},
"Confidence": 99.15271759033203
},
{
"BoundingBox": {
"Width": 0.2429988533258438,
"Height": 0.21577216684818268,
"Left": 0.7309805154800415,
"Top": 0.5251884460449219
},
"Confidence": 99.1286392211914
},
{
"BoundingBox": {
"Width": 0.14233611524105072,
"Height": 0.15528248250484467,
"Left": 0.6494812965393066,
"Top": 0.5333095788955688
},
"Confidence": 98.48368072509766
},
{
"BoundingBox": {
"Width": 0.11086395382881165,
"Height": 0.10271988064050674,
"Left": 0.10355594009160995,
"Top": 0.5354844927787781
},
"Confidence": 96.45606231689453
},
{
"BoundingBox": {
"Width": 0.06254628300666809,
"Height": 0.053911514580249786,
"Left": 0.46083059906959534,
"Top": 0.5573825240135193
},
"Confidence": 93.65448760986328
},
{
"BoundingBox": {
"Width": 0.10105438530445099,
"Height": 0.12226245552301407,
"Left": 0.5743985772132874,
"Top": 0.534368634223938
},
"Confidence": 93.06217193603516
},
{
"BoundingBox": {
"Width": 0.056389667093753815,
"Height": 0.17163699865341187,
"Left": 0.9427769780158997,
"Top": 0.5235804319381714
},
"Confidence": 92.6864013671875
},
{
"BoundingBox": {
"Width": 0.06003860384225845,
"Height": 0.06737709045410156,
"Left": 0.22409997880458832,
"Top": 0.5441341400146484
},
"Confidence": 90.4227066040039
},
{
"BoundingBox": {
"Width": 0.02848697081208229,
"Height": 0.19150497019290924,
"Left": 0.0,
"Top": 0.5107086896896362
},
"Confidence": 86.65286254882812
},
{
"BoundingBox": {
"Width": 0.04067881405353546,
"Height": 0.03428703173995018,
"Left": 0.316415935754776,
"Top": 0.5566273927688599
},
"Confidence": 85.36471557617188
},
{
"BoundingBox": {
"Width": 0.043411049991846085,
"Height": 0.0893595889210701,
"Left": 0.18293385207653046,
"Top": 0.5394920110702515
},
"Confidence": 82.21705627441406
},
{
"BoundingBox": {
"Width": 0.031183116137981415,
"Height": 0.03989990055561066,
"Left": 0.2853088080883026,
"Top": 0.5579366683959961
},
"Confidence": 81.0157470703125
},
{
"BoundingBox": {
"Width": 0.031113790348172188,
"Height": 0.056484755128622055,
"Left": 0.2580395042896271,
"Top": 0.5504819750785828
},
"Confidence": 56.13441467285156
},
{
"BoundingBox": {
"Width": 0.08586374670267105,
"Height": 0.08550430089235306,
"Left": 0.5128012895584106,
"Top": 0.5438792705535889
},
"Confidence": 52.37760925292969
}
],
"Parents": [
{
"Name": "Vehicle"
},
{
"Name": "Transportation"
}
]
},
{
"Name": "Human",
"Confidence": 98.9914321899414,
"Instances": [],
"Parents": []
},
{
"Name": "Person",
"Confidence": 98.9914321899414,
"Instances": [
{
"BoundingBox": {
"Width": 0.19360728561878204,
"Height": 0.2742200493812561,
"Left": 0.43734854459762573,
"Top": 0.35072067379951477
},
"Confidence": 98.9914321899414
},
{
"BoundingBox": {
"Width": 0.03801717236638069,
"Height": 0.06597328186035156,
"Left": 0.9155802130699158,
"Top": 0.5010883808135986
},
"Confidence": 85.02790832519531
}
],
"Parents": []
}
],
"LabelModelVersion": "2.0"
}
}