

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Utilizzo dell'API Amazon Rekognition Segment
<a name="segment-api"></a>

Il rilevamento dei segmenti di Video Amazon Rekognition nei video archiviati è un'operazione asincrona di Video Amazon Rekognition. Video Amazon Rekognition Segment API è un'API composita in cui è possibile scegliere il tipo di analisi (segnali d'azione tecnici o rilevamento delle riprese) da una singola chiamata API. Per informazioni sulla chiamata di operazioni asincrone, consulta [Chiamata delle operazioni Video Amazon Rekognition](api-video.md).

**Topics**
+ [Avvio dell'analisi dei segmenti](#segment-api-start)
+ [Recupero dei risultati dell'analisi dei segmenti](#segment-api-get)

## Avvio dell'analisi dei segmenti
<a name="segment-api-start"></a>

Per avviare il rilevamento di segmenti in una video chiamata archiviata [StartSegmentDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartSegmentDetection.html). I parametri di input sono gli stessi delle altre operazioni Video Amazon Rekognition con l'aggiunta della selezione del tipo di segmento e del filtraggio dei risultati. Per ulteriori informazioni, consulta [Avvio di analisi video](api-video.md#api-video-start).

Di seguito è riportato un esempio JSON passato da `StartSegmentDetection`. La richiesta specifica che vengono rilevati sia i segnali d'azione tecnici che i segmenti di rilevamento delle riprese. Per i segmenti dei segnali d'azione tecnici (90%) e per i segmenti di rilevamento delle riprese (80%) sono richiesti filtri diversi per la sicurezza minima di rilevamento.

```
{
  "Video": {
    "S3Object": {
      "Bucket": "test_files",
      "Name": "test_file.mp4"
    }
    "SegmentTypes":["TECHNICAL_CUES", "SHOT"]
    "Filters": {
      "TechnicalCueFilter": {
         "MinSegmentConfidence": 90,
         "BlackFrame" : {
            "MaxPixelThreshold": 0.1,
            "MinCoveragePercentage": 95     
         }
      },
      "ShotFilter" : {
          "MinSegmentConfidence": 60
      }
  }
}
```

### Scelta di un tipo di segmento
<a name="segment-feature-type"></a>

Utilizzate il parametro di input dell'`SegmentTypes`array per rilevare i segmenti di rilevamento dei cue and/or shot tecnici nel video di ingresso. 
+ TECHNICAL\$1CUE: identifica i timestamp accurati in base ai fotogrammi per l'inizio, la fine e la durata degli indizi tecnici (cornici nere, barre colorate, titoli di apertura, titoli di coda, loghi di studio e contenuto del programma principale) rilevati in un video. Ad esempio, è possibile utilizzare i segnali d'azione tecnici per trovare l'inizio dei titoli di coda. Per ulteriori informazioni, consulta [Segnali d'azione tecnici](segments.md#segment-technical-cue).
+ RIPRESA: identifica l'inizio, la fine e la durata di una ripresa. Ad esempio, è possibile utilizzare il rilevamento delle riprese per identificare quelle candidate per l'editing finale di un video. Per ulteriori informazioni, consulta [Rilevamento delle riprese](segments.md#segment-shot-detection).

### Filtraggio dei risultati dell'analisi
<a name="w2aac43c29b7c11"></a>

È possibile utilizzare il parametro di input `Filters` ([StartSegmentDetectionFilters](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartSegmentDetectionFilters.html)) per specificare la sicurezza minima di rilevamento restituita nella risposta. All'interno di `Filters`, utilizzare `ShotFilter` ([StartShotDetectionFilter](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartShotDetectionFilter.html)) per filtrare le riprese rilevate. Utilizzate `TechnicalCueFilter` ([StartTechnicalCueDetectionFilter](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartTechnicalCueDetectionFilter.html)) per filtrare i segnali tecnici. 

Per il codice di esempio, consulta [Esempio: rilevamento di segmenti in un video archiviato](segment-example.md).

## Recupero dei risultati dell'analisi dei segmenti
<a name="segment-api-get"></a>

Amazon Rekognition per video pubblica lo stato di completamento dell'analisi video in un argomento Amazon Simple Notification Service. Se l'analisi video ha esito positivo, chiama [GetSegmentDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetSegmentDetection.html)per ottenere i risultati dell'analisi video. 

Di seguito è riportata una richiesta `GetSegmentDetection` di esempio. `JobId` è l'identificatore del processo restituito dalla chiamata a `StartSegmentDetection`. Per informazioni sugli altri parametri di input, consulta [Ottenere i risultati dell'analisi di Video Amazon Rekognition](api-video.md#api-video-get). 

```
{
    "JobId": "270c1cc5e1d0ea2fbc59d97cb69a72a5495da75851976b14a1784ca90fc180e3",
    "MaxResults": 10,
    "NextToken": "XfXnZKiyMOGDhzBzYUhS5puM+g1IgezqFeYpv/H/+5noP/LmM57FitUAwSQ5D6G4AB/PNwolrw=="
}
```

`GetSegmentDetection` restituisce i risultati per l'analisi richiesta e le informazioni generali sul video archiviato. 

### Informazioni generali
<a name="segment-api-general"></a>

`GetSegmentDection` restituisce le seguenti informazioni generali.
+ **Informazioni audio**: la risposta include metadati audio in una matrice `AudioMetadata` di [AudioMetadata](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_AudioMetadata.html)oggetti. Possono essere presenti più flussi audio. Ogni oggetto `AudioMetadata` contiene metadati per un singolo flusso audio. Le informazioni audio contenute in un oggetto `AudioMetadata` includono il codec audio, il numero di canali audio, la durata del flusso audio e la frequenza di campionamento. I metadati audio vengono restituiti in ogni pagina di informazioni restituite da `GetSegmentDetection`.
+ **Informazioni video**: attualmente, Amazon Rekognition Video restituisce un [VideoMetadata](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_VideoMetadata.html)singolo oggetto nell'array. `VideoMetadata` L'oggetto contiene informazioni sul flusso video nel file di input che Video Amazon Rekognition ha scelto di analizzare. L'oggetto `VideoMetadata` include il codec video, il formato video e altre informazioni. I metadati video vengono restituiti in ogni pagina di informazioni restituite da `GetSegmentDetection`.
+ **Informazioni di paginazione** – L'esempio illustra una pagina di informazioni di segmento. Puoi specificare il numero di elementi da restituire nel parametro di input `MaxResults` per `GetSegmentDetection`. Se esiste un numero di risultati maggiore di `MaxResults`, `GetSegmentDetection` restituisce un token (`NextToken`) utilizzato per ottenere la pagina di risultati successiva. Per ulteriori informazioni, consulta [Ottenere i risultati dell'analisi di Video Amazon Rekognition](api-video.md#api-video-get).
+ **Richiedi informazioni**: il tipo di analisi richiesto nella chiamata a `StartSegmentDetection` viene riportato nel campo `SelectedSegmentTypes`.

### Segmenti
<a name="segment-api-technical-segments"></a>

I segnali d'azione tecnici e le informazioni relative alle riprese rilevati in un video vengono restituiti in un array `Segments`, di oggetti [SegmentDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_SegmentDetection.html). La matrice viene ordinata in base ai tipi di segmento (TECHNICAL\$1CUE o SHOT) specificati nel parametro di input `SegmentTypes` di `StartSegmentDetection`. All'interno di ogni tipo di segmento l'array viene ordinato in base ai valori del timestamp. Ogni oggetto `SegmentDetection` include informazioni sul tipo di segmento rilevato (segnale d'azione tecnico o rilevamento delle riprese) e informazioni generali, quali l'ora di inizio, l'ora di fine e la durata del segmento. 

Le informazioni sull'ora vengono restituite in tre formati.
+ 

**Millisecondi**  
Il numero di millisecondi dall'inizio del video. I campi `DurationMillis`, `StartTimestampMillis`, e `EndTimestampMillis` sono in formato millisecondi.
+ 

**Timecode**  
I timecode Video Amazon Rekognition sono in formato [SMPTE](https://en.wikipedia.org/wiki/SMPTE_timecode) in cui ogni fotogramma del video ha un valore di timecode univoco. Il formato è *hh:mm:ss:frame*. Ad esempio, un valore di timecode 01:05:40:07 verrà letto come un'ora, cinque minuti, quaranta secondi e sette fotogrammi. I casi d'uso del [drop frame](https://en.wikipedia.org/wiki/SMPTE_timecode#Drop-frame_timecode) rate sono supportati da Video Amazon Rekognition. Il timecode del formato drop rate *hh:mm:ss; frame*. I campi `DurationSMPTE`, `StartTimecodeSMPTE` e `EndTimecodeSMPTE` sono in formato timecode.
+ 

**Contatori per frame**  
La durata di ogni segmento video viene espressa anche con il numero di fotogrammi. Il campo `StartFrameNumber` fornisce il numero di fotogramma all'inizio di un segmento video e `EndFrameNumber` il numero di fotogramma alla fine di un segmento video. `DurationFrames`fornisce il numero totale di fotogrammi in un segmento video. Questi valori vengono calcolati utilizzando un indice di frame che inizia con 0.

È possibile utilizzare il campo `SegmentType` per determinare il tipo di segmento restituito da Video Amazon Rekognition.
+ **Indicazioni tecniche: il `TechnicalCueSegment` campo è un [TechnicalCueSegment](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_TechnicalCueSegment.html)oggetto che contiene la confidenza di rilevamento e il tipo di segnale tecnico**. I tipi di segnali tecnici sono `ColorBars`, `EndCredits`, `BlackFrames`, `OpeningCredits`, `StudioLogo`, `Slate` e `Content`.
+ **Ripresa**: il `ShotSegment` campo è un [ShotSegment](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_ShotSegment.html)oggetto che contiene la confidenza di rilevamento e un identificatore per il segmento di ripresa all'interno del video.

 Di seguito è riportato un esempio di risposta JSON dell'operazione `GetSegmentDetection`. 

```
{
    "SelectedSegmentTypes": [
        {
            "ModelVersion": "2.0",
            "Type": "SHOT"
        },
        {
            "ModelVersion": "2.0",
            "Type": "TECHNICAL_CUE"
        }
    ],
    "Segments": [
        {
            "DurationFrames": 299,
            "DurationSMPTE": "00:00:09;29",
            "StartFrameNumber": 0,
            "EndFrameNumber": 299,
            "EndTimecodeSMPTE": "00:00:09;29",
            "EndTimestampMillis": 9976,
            "StartTimestampMillis": 0,
            "DurationMillis": 9976,
            "StartTimecodeSMPTE": "00:00:00;00",
            "Type": "TECHNICAL_CUE",
            "TechnicalCueSegment": {
                "Confidence": 90.45006561279297,
                "Type": "BlackFrames"
            }
        },
        {
            "DurationFrames": 150,
            "DurationSMPTE": "00:00:05;00",
            "StartFrameNumber": 299,
            "EndFrameNumber": 449,
            "EndTimecodeSMPTE": "00:00:14;29",
            "EndTimestampMillis": 14981,
            "StartTimestampMillis": 9976,
            "DurationMillis": 5005,
            "StartTimecodeSMPTE": "00:00:09;29",
            "Type": "TECHNICAL_CUE",
            "TechnicalCueSegment": {
                "Confidence": 100.0,
                "Type": "Content"
            }
        },
        {
            "DurationFrames": 299,
            "ShotSegment": {
                "Index": 0,
                "Confidence": 99.9982681274414
            },
            "DurationSMPTE": "00:00:09;29",
            "StartFrameNumber": 0,
            "EndFrameNumber": 299,
            "EndTimecodeSMPTE": "00:00:09;29",
            "EndTimestampMillis": 9976,
            "StartTimestampMillis": 0,
            "DurationMillis": 9976,
            "StartTimecodeSMPTE": "00:00:00;00",
            "Type": "SHOT"
        },
        {
            "DurationFrames": 149,
            "ShotSegment": {
                "Index": 1,
                "Confidence": 99.9982681274414
            },
            "DurationSMPTE": "00:00:04;29",
            "StartFrameNumber": 300,
            "EndFrameNumber": 449,
            "EndTimecodeSMPTE": "00:00:14;29",
            "EndTimestampMillis": 14981,
            "StartTimestampMillis": 10010,
            "DurationMillis": 4971,
            "StartTimecodeSMPTE": "00:00:10;00",
            "Type": "SHOT"
        }
    ],
    "JobStatus": "SUCCEEDED",
    "VideoMetadata": [
        {
            "Format": "QuickTime / MOV",
            "FrameRate": 29.970029830932617,
            "Codec": "h264",
            "DurationMillis": 15015,
            "FrameHeight": 1080,
            "FrameWidth": 1920,
            "ColorRange": "LIMITED"

        }
    ],
    "AudioMetadata": [
        {
            "NumberOfChannels": 1,
            "SampleRate": 48000,
            "Codec": "aac",
            "DurationMillis": 15007
        }
    ]
}
```

Per il codice di esempio, consulta [Esempio: rilevamento di segmenti in un video archiviato](segment-example.md).