Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Utilizzo dell'API Amazon Rekognition Segment
Il rilevamento dei segmenti di Video Amazon Rekognition nei video archiviati è un'operazione asincrona di Video Amazon Rekognition. Video Amazon Rekognition Segment API è un'API composita in cui è possibile scegliere il tipo di analisi (segnali d'azione tecnici o rilevamento delle riprese) da una singola chiamata API. Per informazioni sulla chiamata di operazioni asincrone, consulta Chiamata delle operazioni Video Amazon Rekognition.
Avvio dell'analisi dei segmenti
Per avviare il rilevamento dei segmenti in una videochiamata memorizzata. StartSegmentDetection I parametri di input sono gli stessi delle altre operazioni Video Amazon Rekognition con l'aggiunta della selezione del tipo di segmento e del filtraggio dei risultati. Per ulteriori informazioni, consulta Avvio di analisi video.
Di seguito è riportato un esempio JSON passato da StartSegmentDetection
. La richiesta specifica che vengono rilevati sia i segnali d'azione tecnici che i segmenti di rilevamento delle riprese. Per i segmenti dei segnali d'azione tecnici (90%) e per i segmenti di rilevamento delle riprese (80%) sono richiesti filtri diversi per la sicurezza minima di rilevamento.
{ "Video": { "S3Object": { "Bucket": "test_files", "Name": "test_file.mp4" } "SegmentTypes":["TECHNICAL_CUES", "SHOT"] "Filters": { "TechnicalCueFilter": { "MinSegmentConfidence": 90, "BlackFrame" : { "MaxPixelThreshold": 0.1, "MinCoveragePercentage": 95 } }, "ShotFilter" : { "MinSegmentConfidence": 60 } } }
Scelta di un tipo di segmento
Utilizzare il parametro di input dell'array SegmentTypes
per rilevare segnali d'azione tecnici e/o segmenti di rilevamento delle riprese nel video di input.
-
TECHNICAL_CUE: identifica i timestamp accurati in base ai fotogrammi per l'inizio, la fine e la durata degli indizi tecnici (cornici nere, barre colorate, titoli di apertura, titoli di coda, loghi di studio e contenuto del programma principale) rilevati in un video. Ad esempio, è possibile utilizzare i segnali d'azione tecnici per trovare l'inizio dei titoli di coda. Per ulteriori informazioni, consulta Segnali d'azione tecnici.
-
RIPRESA: identifica l'inizio, la fine e la durata di una ripresa. Ad esempio, è possibile utilizzare il rilevamento delle riprese per identificare quelle candidate per l'editing finale di un video. Per ulteriori informazioni, consulta Rilevamento delle riprese.
Filtraggio dei risultati dell'analisi
È possibile utilizzare il parametro di input Filters
(StartSegmentDetectionFilters) per specificare l'affidabilità minima di rilevamento restituita nella risposta. All'internoFilters
, utilizzate ShotFilter
(StartShotDetectionFilter) per filtrare gli scatti rilevati. Usa TechnicalCueFilter
(StartTechnicalCueDetectionFilter) per filtrare i segnali tecnici.
Per il codice di esempio, consulta Esempio: rilevamento di segmenti in un video archiviato.
Recupero dei risultati dell'analisi dei segmenti
Amazon Rekognition per video pubblica lo stato di completamento dell'analisi video in un argomento Amazon Simple Notification Service. Se l'analisi video ha esito positivo, chiama GetSegmentDetectionper ottenere i risultati dell'analisi video.
Di seguito è riportata una richiesta GetSegmentDetection
di esempio. JobId
è l'identificatore del processo restituito dalla chiamata a StartSegmentDetection
. Per informazioni sugli altri parametri di input, consulta Ottenere i risultati dell'analisi di Video Amazon Rekognition.
{ "JobId": "270c1cc5e1d0ea2fbc59d97cb69a72a5495da75851976b14a1784ca90fc180e3", "MaxResults": 10, "NextToken": "XfXnZKiyMOGDhzBzYUhS5puM+g1IgezqFeYpv/H/+5noP/LmM57FitUAwSQ5D6G4AB/PNwolrw==" }
GetSegmentDetection
restituisce i risultati per l'analisi richiesta e le informazioni generali sul video archiviato.
Informazioni generali
GetSegmentDection
restituisce le seguenti informazioni generali.
-
Informazioni audio: la risposta include metadati audio in una matrice
AudioMetadata
di AudioMetadataoggetti. Possono essere presenti più flussi audio. Ogni oggettoAudioMetadata
contiene metadati per un singolo flusso audio. Le informazioni audio contenute in un oggettoAudioMetadata
includono il codec audio, il numero di canali audio, la durata del flusso audio e la frequenza di campionamento. I metadati audio vengono restituiti in ogni pagina di informazioni restituite daGetSegmentDetection
. -
Informazioni video: attualmente, Amazon Rekognition Video restituisce un VideoMetadatasingolo oggetto nell'array.
VideoMetadata
L'oggetto contiene informazioni sul flusso video nel file di input che Video Amazon Rekognition ha scelto di analizzare. L'oggettoVideoMetadata
include il codec video, il formato video e altre informazioni. I metadati video vengono restituiti in ogni pagina di informazioni restituite daGetSegmentDetection
. -
Informazioni di paginazione – L'esempio illustra una pagina di informazioni di segmento. Puoi specificare il numero di elementi da restituire nel parametro di input
MaxResults
perGetSegmentDetection
. Se esiste un numero di risultati maggiore diMaxResults
,GetSegmentDetection
restituisce un token (NextToken
) utilizzato per ottenere la pagina di risultati successiva. Per ulteriori informazioni, consulta Ottenere i risultati dell'analisi di Video Amazon Rekognition. -
Richiedi informazioni: il tipo di analisi richiesto nella chiamata a
StartSegmentDetection
viene riportato nel campoSelectedSegmentTypes
.
Segmenti
I segnali tecnici e le informazioni sulle riprese rilevati in un video vengono restituiti in una serie di oggetti. Segments
SegmentDetection La matrice viene ordinata in base ai tipi di segmento (TECHNICAL_CUE o SHOT) specificati nel parametro di input SegmentTypes
di StartSegmentDetection
. All'interno di ogni tipo di segmento l'array viene ordinato in base ai valori del timestamp. Ogni oggetto SegmentDetection
include informazioni sul tipo di segmento rilevato (segnale d'azione tecnico o rilevamento delle riprese) e informazioni generali, quali l'ora di inizio, l'ora di fine e la durata del segmento.
Le informazioni sull'ora vengono restituite in tre formati.
-
Millisecondi
Il numero di millisecondi dall'inizio del video. I campi
DurationMillis
,StartTimestampMillis
, eEndTimestampMillis
sono in formato millisecondi. -
Timecode
I timecode Video Amazon Rekognition sono in formato SMPTE
in cui ogni fotogramma del video ha un valore di timecode univoco. Il formato è hh:mm:ss:frame. Ad esempio, un valore di timecode 01:05:40:07 verrà letto come un'ora, cinque minuti, quaranta secondi e sette fotogrammi. I casi d'uso del drop frame rate sono supportati da Video Amazon Rekognition. Il timecode del formato drop rate hh:mm:ss; frame. I campi DurationSMPTE
,StartTimecodeSMPTE
eEndTimecodeSMPTE
sono in formato timecode. -
Contatori per frame
La durata di ogni segmento video viene espressa anche con il numero di fotogrammi. Il campo
StartFrameNumber
fornisce il numero di fotogramma all'inizio di un segmento video eEndFrameNumber
il numero di fotogramma alla fine di un segmento video.DurationFrames
fornisce il numero totale di fotogrammi in un segmento video. Questi valori vengono calcolati utilizzando un indice di frame che inizia con 0.
È possibile utilizzare il campo SegmentType
per determinare il tipo di segmento restituito da Video Amazon Rekognition.
-
Indicazioni tecniche: il
TechnicalCueSegment
campo è un TechnicalCueSegmentoggetto che contiene la confidenza di rilevamento e il tipo di segnale tecnico. I tipi di segnali tecnici sonoColorBars
,EndCredits
,BlackFrames
,OpeningCredits
,StudioLogo
,Slate
eContent
. -
Ripresa: il
ShotSegment
campo è un ShotSegmentoggetto che contiene la confidenza di rilevamento e un identificatore per il segmento di ripresa all'interno del video.
Di seguito è riportato un esempio di risposta JSON dell'operazione GetSegmentDetection
.
{ "SelectedSegmentTypes": [ { "ModelVersion": "2.0", "Type": "SHOT" }, { "ModelVersion": "2.0", "Type": "TECHNICAL_CUE" } ], "Segments": [ { "DurationFrames": 299, "DurationSMPTE": "00:00:09;29", "StartFrameNumber": 0, "EndFrameNumber": 299, "EndTimecodeSMPTE": "00:00:09;29", "EndTimestampMillis": 9976, "StartTimestampMillis": 0, "DurationMillis": 9976, "StartTimecodeSMPTE": "00:00:00;00", "Type": "TECHNICAL_CUE", "TechnicalCueSegment": { "Confidence": 90.45006561279297, "Type": "BlackFrames" } }, { "DurationFrames": 150, "DurationSMPTE": "00:00:05;00", "StartFrameNumber": 299, "EndFrameNumber": 449, "EndTimecodeSMPTE": "00:00:14;29", "EndTimestampMillis": 14981, "StartTimestampMillis": 9976, "DurationMillis": 5005, "StartTimecodeSMPTE": "00:00:09;29", "Type": "TECHNICAL_CUE", "TechnicalCueSegment": { "Confidence": 100.0, "Type": "Content" } }, { "DurationFrames": 299, "ShotSegment": { "Index": 0, "Confidence": 99.9982681274414 }, "DurationSMPTE": "00:00:09;29", "StartFrameNumber": 0, "EndFrameNumber": 299, "EndTimecodeSMPTE": "00:00:09;29", "EndTimestampMillis": 9976, "StartTimestampMillis": 0, "DurationMillis": 9976, "StartTimecodeSMPTE": "00:00:00;00", "Type": "SHOT" }, { "DurationFrames": 149, "ShotSegment": { "Index": 1, "Confidence": 99.9982681274414 }, "DurationSMPTE": "00:00:04;29", "StartFrameNumber": 300, "EndFrameNumber": 449, "EndTimecodeSMPTE": "00:00:14;29", "EndTimestampMillis": 14981, "StartTimestampMillis": 10010, "DurationMillis": 4971, "StartTimecodeSMPTE": "00:00:10;00", "Type": "SHOT" } ], "JobStatus": "SUCCEEDED", "VideoMetadata": [ { "Format": "QuickTime / MOV", "FrameRate": 29.970029830932617, "Codec": "h264", "DurationMillis": 15015, "FrameHeight": 1080, "FrameWidth": 1920, "ColorRange": "LIMITED" } ], "AudioMetadata": [ { "NumberOfChannels": 1, "SampleRate": 48000, "Codec": "aac", "DurationMillis": 15007 } ] }
Per il codice di esempio, consulta Esempio: rilevamento di segmenti in un video archiviato.