Uso de la moderación de imágenes y vídeos APIs - Amazon Rekognition

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Uso de la moderación de imágenes y vídeos APIs

En Amazon API Rekognition Image, puede detectar contenido inapropiado, no deseado u ofensivo mediante el uso y las operaciones de DetectModerationLabelsforma sincrónica y asíncrona. StartMediaAnalysisJobGetMediaAnalysisJob Puede utilizar Amazon Rekognition API Video para detectar dicho contenido de forma asíncrona mediante las operaciones y. StartContentModerationGetContentModeration

Categorías de etiquetas

Amazon Rekognition utiliza una taxonomía jerárquica de tres niveles para etiquetar las categorías de contenido inapropiado, no deseado u ofensivo. Cada etiqueta de nivel de taxonomía 1 (L1) tiene varias etiquetas de nivel de taxonomía 2 (L2), y algunas etiquetas de taxonomía de nivel 2 pueden tener etiquetas de nivel 3 (L3). Esto permite una clasificación jerárquica del contenido.

Para cada etiqueta de moderación detectada, API también devuelve laTaxonomyLevel, que contiene el nivel (1, 2 o 3) al que pertenece la etiqueta. Por ejemplo, una imagen puede etiquetarse de acuerdo con la siguiente clasificación:

L1: desnudez no explícita de partes íntimas y besos, L2: desnudez no explícita, L3: desnudez implícita.

nota

Recomendamos utilizar las categorías L1 o L2 para moderar el contenido y utilizar las categorías L3 solo para eliminar conceptos específicos que no desee moderar (es decir, para detectar contenido que quizás no desee clasificar como contenido inapropiado, no deseado u ofensivo según su política de moderación).

En la siguiente tabla se muestran las relaciones entre los niveles de las categorías y las posibles etiquetas de cada nivel. Para descargar una lista de las etiquetas de moderación, haz clic aquí.

Categoría de nivel superior (L1) Categoría de segundo nivel (L2) Categoría de tercer nivel (L3) Definiciones
Explícito Desnudo explícito Genitales masculinos expuestos Los genitales masculinos humanos, incluidos el pene (erecto o flácido), el escroto y cualquier vello púbico discernible. Este término se aplica en contextos que implican actividad sexual o cualquier contenido visual en el que los genitales masculinos se muestren total o parcialmente.
Genitales femeninos expuestos Partes externas del aparato reproductor femenino, que incluyen la vulva, la vagina y cualquier vello púbico observable. Este término es aplicable en escenarios que implican actividad sexual o cualquier contenido visual en el que estos aspectos de la anatomía femenina se muestran total o parcialmente.
Glúteos o ano expuestos Glúteos o anos humanos, incluidos los casos en los que los glúteos están desnudos o cuando se pueden discernir a través de ropa transparente. La definición se aplica específicamente a las situaciones en las que las nalgas o el ano son visibles de forma directa y completa, con exclusión de los casos en los que cualquier tipo de ropa interior o ropa proporciona una cobertura total o parcial.
Pezón femenino expuesto Pezones femeninos humanos, incluida la aerola (área que rodea los pezones) y los pezones totalmente visibles y parcialmente visibles.
Actividad sexual explícita N/A Representación de actos sexuales reales o simulados que abarcan las relaciones sexuales humanas, el sexo oral, así como la estimulación genital masculina y la estimulación genital femenina mediante otras partes y objetos del cuerpo. El término también incluye la eyaculación o los fluidos vaginales en partes del cuerpo y las prácticas eróticas o los juegos de rol relacionados con la esclavitud, la disciplina, el dominio y la sumisión, y el sadomasoquismo.
Juguetes sexuales N/A Objetos o dispositivos utilizados para la estimulación o el placer sexual, por ejemplo, un consolador, un vibrador, un tapón anal, ritmos, etc.
Desnudos no explícitos de partes íntimas y besos Desnudez no explícita Espalda desnuda Parte posterior humana donde se ve la mayor parte de la piel desde el cuello hasta el final de la columna vertebral. Este término no se aplica cuando la espalda de la persona está parcial o totalmente ocluida.
Pezón masculino expuesto Pezones masculinos humanos, incluidos los pezones parcialmente visibles.
Glúteos parcialmente expuestos Glúteos humanos parcialmente expuestos. Este término incluye una región parcialmente visible de las nalgas o las nalgas debido a la ropa corta, o una parte superior parcialmente visible de la hendidura anal. El término no se aplica a los casos en los que las nalgas están completamente desnudas.
Mama femenina parcialmente expuesta Seno femenino humano parcialmente expuesto, donde una parte del seno de la mujer está visible o descubierta sin dejar al descubierto todo el seno. Este término se aplica cuando se ve la región del pliegue interno de la mama o cuando se ve el pliegue inferior de la mama con el pezón completamente cubierto u ocluido.
Desnudez implícita Una persona que está desnuda, ya sea en topless o sin fondo, pero con partes íntimas como las nalgas, los pezones o los genitales cubiertas, ocluidas o no completamente visibles.
Partes íntimas obstruidas Pezón femenino obstruido Representación visual de una situación en la que los pezones de una mujer están cubiertos por ropa o coberturas opacas, pero sus formas son claramente visibles.
Genitales masculinos obstruidos Representación visual de una situación en la que los genitales o el pene de un hombre están cubiertos por ropa o coberturas opacas, pero su forma es claramente visible. Este término se aplica cuando los genitales obstruidos de la imagen aparecen en primer plano.
Besos en los labios N/A Representación de los labios de una persona haciendo contacto con los labios de otra persona.
Trajes de baño o ropa interior Trajes de baño o ropa interior femenina N/A Ropa humana para trajes de baño femeninos (por ejemplo, trajes de baño de una sola pieza, bikinis, tankinis, etc.) y ropa interior femenina (por ejemplo, sujetadores, bragas, calzoncillos, lencería, tangas, etc.)
Trajes de baño o ropa interior masculinos N/A Ropa humana para trajes de baño masculinos (por ejemplo, bañadores, bañadores, calzoncillos, etc.) y ropa interior masculina (por ejemplo, calzoncillos, bóxers, etc.)
Violencia Armas N/A Instrumentos o dispositivos utilizados para causar daños o lesiones a seres vivos, estructuras o sistemas. Esto incluye armas de fuego (por ejemplo, pistolas, fusiles, ametralladoras, etc.), armas afiladas (por ejemplo, espadas, cuchillos, etc.), explosivos y municiones (por ejemplo, misiles, bombas, balas, etc.).
Violencia gráfica Violencia con armas El uso de armas para causar daños, lesiones o la muerte a uno mismo, a otras personas o a propiedades.
Violencia física El acto de causar daño a otras personas o bienes (por ejemplo, golpear, pelear, arrancarles el pelo, etc.) u otro acto de violencia que involucre a una multitud o a varias personas.
Autolesión El acto de hacerse daño a uno mismo, a menudo cortándose partes del cuerpo, como brazos o piernas, donde los cortes suelen ser visibles.
Sangre y sangre Representación visual de la violencia ejercida sobre una persona, un grupo de personas o un animal, con heridas abiertas, derramamiento de sangre y partes del cuerpo mutiladas.
Explosiones y explosiones Representación de un violento y destructivo estallido de llamas intensas con humo espeso o polvo y humo que sale del suelo.
Visualmente perturbador Muerte y emaciación Cuerpos desnutridos Cuerpos humanos extremadamente delgados y desnutridos, con una grave atrofia física y agotamiento del tejido muscular y adiposo.
Cadáveres Cadáveres humanos en forma de cuerpos mutilados, cadáveres colgados o esqueletos.
Se estrella Accidentes aéreos Incidentes de vehículos aéreos, como aviones, helicópteros u otros vehículos voladores, que provoquen daños, lesiones o la muerte. Este término se aplica cuando se ven partes de los vehículos aéreos.
Drogas y tabaco Productos Pastillas Mesas o cápsulas pequeñas, sólidas, a menudo redondas u ovaladas. Este término se aplica a las píldoras que se presentan solas, en un frasco o en un paquete transparente y no se aplica a una representación visual de una persona que toma las píldoras.
Parafernalia y consumo de drogas y tabaco Fumar El acto de inhalar, exhalar y encender sustancias que se queman, como cigarrillos, puros, cigarrillos electrónicos, narguiles o porros.
Alcohol Consumo de alcohol Beber El acto de beber bebidas alcohólicas en botellas o vasos de alcohol o licor.
Bebidas alcohólicas N/A Primer plano de una o varias botellas de alcohol o licor, vasos o jarras con alcohol o licor y vasos o jarras con alcohol o licor en poder de una persona. Este término no se aplica a una persona que beba de botellas o vasos de alcohol o licor.
Gestos groseros Cortes de manga N/A Representación visual de un gesto con la mano con el dedo medio extendido hacia arriba mientras los otros dedos están doblados hacia abajo.
Apuestas N/A N/A El acto de participar en juegos de azar para tener la oportunidad de ganar un premio en los casinos, por ejemplo, jugar a las cartas, al blackjack, a la ruleta, a las máquinas tragaperras de los casinos, etc.
Símbolos de odio Partido Nazi N/A Representación visual de símbolos, banderas o gestos relacionados con el Partido Nazi.
Supremacía blanca N/A Representación visual de símbolos o prendas relacionados con el Ku Klux Klan (KKK) e imágenes con banderas de la Confederación.
Extremismo N/A Imágenes que contienen banderas de grupos extremistas y terroristas.

No todas las etiquetas de la categoría L2 tienen una etiqueta compatible en la categoría L3. Además, las etiquetas L3 incluidas en las etiquetas L2 «Productos» y «Parafernalia y consumo de drogas y tabaco» no son exhaustivas. Estas etiquetas L2 abarcan conceptos que van más allá de las etiquetas L3 mencionadas y, en esos casos, solo se devuelven las etiquetas L2 en la respuesta. API

Puede determinar la idoneidad para su aplicación. Por ejemplo, es posible que las imágenes de naturaleza insinuante sean aceptables, pero no lo sean las imágenes que contengan desnudos. Para filtrar imágenes, usa la matriz de ModerationLabeletiquetas que se devuelve por DetectModerationLabels (imágenes) y por GetContentModeration (vídeos).

Tipo de contenido

También API pueden identificar el tipo de contenido animado o ilustrado, y el tipo de contenido se devuelve como parte de la respuesta:

  • El contenido animado incluye videojuegos y animaciones (por ejemplo, dibujos animados, cómics, manga, anime).

  • El contenido ilustrado incluye dibujos, pinturas y bocetos.

Confianza

Puede configurar el umbral de confianza que Amazon Rekognition utiliza para detectar contenido inapropiado especificando el parámetro de entrada MinConfidence. No se devuelven etiquetas de contenido inapropiado que se detectan con una confianza menor al valor de MinConfidence.

Si se especifica un valor inferior al 50%, es probable MinConfidence que arroje un número elevado de resultados falsos positivos (es decir, mayor capacidad de recuperación, menor precisión). Por otro lado, si se especifica un valor MinConfidence superior al 50%, es probable que arroje un número menor de resultados falsos positivos (es decir, menor recuperación, mayor precisión). Si no especifica ningún valor para MinConfidence, Amazon Rekognition devuelve etiquetas para el contenido inapropiado detectado con una confianza de al menos el 50 %.

La matriz ModerationLabel contiene etiquetas de las categorías anteriores y la confianza estimada en la precisión del contenido reconocido. Se devuelve una etiqueta de nivel superior junto con todas las etiquetas de segundo nivel identificadas. Por ejemplo, Amazon Rekognition puede devolver «Desnudo explícito» con una puntuación de confianza alta como etiqueta de nivel superior. Esto podría ser suficiente para satisfacer sus necesidades de filtrado. Sin embargo, si es necesario, puede utilizar la puntuación de confianza de una etiqueta de segundo nivel (como "Desnudo masculino gráfico") para obtener un filtrado más detallado. Para ver un ejemplo, consulte Detección de imágenes inapropiadas.

Control de versiones

Tanto Amazon Rekognition Image como Amazon Rekognition Video devuelven la versión del modelo de detección de moderación que se utiliza para detectar contenido inapropiado (ModerationModelVersion).

Clasificación y agregación

Al recuperar los resultados con GetContentModeration, puede ordenarlos y agregarlos.

Orden de clasificación: la matriz de etiquetas devueltas está ordenada por tiempo. Para ordenar por etiqueta, especifique NAME en el parámetro de entrada SortBy para GetContentModeration. Si la etiqueta aparece varias veces en el vídeo, habrá varias instancias del elemento ModerationLabel.

Información de etiqueta: el elemento de ModerationLabels matriz contiene un ModerationLabel objeto que, a su vez, contiene el nombre de la etiqueta y la confianza que Amazon Rekognition tiene en la precisión de la etiqueta detectada. La marca de tiempo es la hora en que ModerationLabel se detectó, definida como el número de milisegundos transcurridos desde el inicio del vídeo. Para los resultados agregados por vídeo SEGMENTS, se devuelven las estructuras StartTimestampMillis, EndTimestampMillis y DurationMillis, que definen la hora de inicio, la hora de finalización y la duración de un segmento, respectivamente.

Agregación: especifica cómo se agregan los resultados cuando se devuelven. El valor predeterminado es agregar por TIMESTAMPS. También puede optar por agregar por SEGMENTS, lo que agrega los resultados en un intervalo de tiempo. Solo se devuelven las etiquetas detectadas durante los segmentos.

Estados del adaptador de moderación personalizados

Los adaptadores de moderación personalizados pueden tener uno de los siguientes estados: TRAINING _IN_PROGRESS, _, TRAINING TRAINING _ COMPLETEDFAILED,, o. DELETING DEPRECATED EXPIRED Para obtener una explicación completa de estos estados de los adaptadores, consulte Administración de adaptadores.

nota

Amazon Rekognition no es una autoridad en la materia ni pretende en modo alguno ser un filtro exhaustivo de contenido ofensivo o inapropiado. Además, la moderación de imágenes y vídeos APIs no detecta si una imagen incluye contenido ilegal, por ejemplo. CSAM