Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Requêtes
Avec Timestream for Live Analytics, vous pouvez facilement stocker et analyser des métriques DevOps, des données de capteurs pour les applications IoT et des données de télémétrie industrielle pour la maintenance des équipements, ainsi que pour de nombreux autres cas d'utilisation. Le moteur de requête adaptatif spécialement conçu dans Timestream for Live Analytics vous permet d'accéder aux données à travers les niveaux de stockage à l'aide d'une seule instruction. SQL Il accède aux données et les combine de manière transparente entre les niveaux de stockage sans que vous ayez à spécifier l'emplacement des données. Vous pouvez l'utiliser SQL pour interroger des données dans Timestream for Live Analytics afin de récupérer des données de séries chronologiques à partir d'une ou de plusieurs tables. Vous pouvez accéder aux informations de métadonnées des bases de données et des tables. Timestream for Live Analytics prend SQL également en charge les fonctions intégrées d'analyse des séries chronologiques. Vous pouvez vous référer à la Référence du langage de requête référence pour plus de détails.
Timestream for Live Analytics est conçu pour disposer d'une architecture d'ingestion, de stockage et de requête de données totalement découplée, dans laquelle chaque composant peut évoluer indépendamment des autres composants (ce qui lui permet d'offrir une évolutivité pratiquement infinie pour répondre aux besoins d'une application). Cela signifie que Timestream for Live Analytics ne « bascule » pas lorsque vos applications envoient des centaines de téraoctets de données par jour ou exécutent des millions de requêtes traitant de petites ou grandes quantités de données. À mesure que vos données augmentent au fil du temps, la latence des requêtes dans Timestream for Live Analytics reste pratiquement inchangée. Cela est dû au fait que l'architecture de requêtes Timestream for Live Analytics peut tirer parti d'un parallélisme massif pour traiter des volumes de données plus importants et s'adapter automatiquement aux besoins de débit de requêtes d'une application.
Modèle de données
Timestream prend en charge deux modèles de données pour les requêtes : le modèle plat et le modèle de série chronologique.
Note
Les données de Timestream sont stockées à l'aide du modèle plat et il s'agit du modèle par défaut pour les requêtes de données. Le modèle de série chronologique est un concept basé sur le temps de requête et est utilisé pour l'analyse de séries chronologiques.
Modèle plat
Le modèle plat est le modèle de données par défaut de Timestream pour les requêtes. Il représente les données de séries chronologiques sous forme de tableau. Les noms des dimensions, l'heure, les noms des mesures et les valeurs des mesures apparaissent sous forme de colonnes. Chaque ligne du tableau est un point de données atomique correspondant à une mesure effectuée à un moment précis au sein d'une série chronologique. Les bases de données, les tables et les colonnes Timestream sont soumises à certaines contraintes de dénomination. Ils sont décrits dansService Limits.
Le tableau ci-dessous montre un exemple illustrant la manière dont Timestream stocke les données représentant l'CPUutilisation, l'utilisation de la mémoire et l'activité réseau des EC2 instances, lorsque les données sont envoyées sous forme d'enregistrement à mesure unique. Dans ce cas, les dimensions sont la région, la zone de disponibilité, le cloud privé virtuel et l'instance IDs des EC2 instances. Les mesures sont l'CPUutilisation, l'utilisation de la mémoire et les données réseau entrantes pour les EC2 instances. Les colonnes region, az, vpc et instance_id contiennent les valeurs des dimensions. L'heure de la colonne contient l'horodatage de chaque enregistrement. La colonne measure_name contient les noms des mesures représentées par cpu-utilization, memory_utilization et network_bytes_in. Les colonnes measure_value : :double contiennent les mesures émises sous forme de doubles (par exemple, CPU l'utilisation et l'utilisation de la mémoire). La colonne measure_value : :bigint contient les mesures émises sous forme d'entiers, par exemple les données réseau entrantes.
Heure | region | az | vpc | instance_id | nom_mesure | valeur_mesure : double | value_mesure : :bigint |
---|---|---|---|---|---|---|---|
2019-12-04 19:00:00.000 000000 |
us-east-1 |
us-east-1d |
vpc-1a2b3c4d |
i-1234567890abcdef0 |
utilisation du processeur |
35,0 |
null |
2019-12-04 19:00:01 000 000000 |
us-east-1 |
us-east-1d |
vpc-1a2b3c4d |
i-1234567890abcdef0 |
utilisation du processeur |
38,2 |
null |
2019-12-04 19:00:02 000 000000 |
us-east-1 |
us-east-1d |
vpc-1a2b3c4d |
i-1234567890abcdef0 |
utilisation du processeur |
45,3 |
null |
2019-12-04 19:00:00.000 000000 |
us-east-1 |
us-east-1d |
vpc-1a2b3c4d |
i-1234567890abcdef0 |
memory_utilization |
54,9 |
null |
2019-12-04 19:00:01 000 000000 |
us-east-1 |
us-east-1d |
vpc-1a2b3c4d |
i-1234567890abcdef0 |
memory_utilization |
42,6 |
null |
2019-12-04 19:00:02 000 000000 |
us-east-1 |
us-east-1d |
vpc-1a2b3c4d |
i-1234567890abcdef0 |
memory_utilization |
33,3 |
null |
2019-12-04 19:00:00.000 000000 |
us-east-1 |
us-east-1d |
vpc-1a2b3c4d |
i-1234567890abcdef0 |
octets_réseau |
34 400 |
null |
2019-12-04 19:00:01 000 000000 |
us-east-1 |
us-east-1d |
vpc-1a2b3c4d |
i-1234567890abcdef0 |
octets_réseau |
1 500 |
null |
2019-12-04 19:00:02 000 000000 |
us-east-1 |
us-east-1d |
vpc-1a2b3c4d |
i-1234567890abcdef0 |
octets_réseau |
6 000 |
null |
Le tableau ci-dessous montre un exemple illustrant la manière dont Timestream stocke les données représentant l'CPUutilisation, l'utilisation de la mémoire et l'activité réseau des EC2 instances, lorsque les données sont envoyées sous forme d'enregistrement multi-mesures.
Heure | region | az | vpc | instance_id | nom_mesure | utilisation du processeur | memory_utilization | octets_réseau |
---|---|---|---|---|---|---|---|---|
2019-12-04 19:00:00.000 000000 |
us-east-1 |
us-east-1d |
vpc-1a2b3c4d |
i-1234567890abcdef0 |
metrics |
35,0 |
54,9 |
34 400 |
2019-12-04 19:00:01 000 000000 |
us-east-1 |
us-east-1d |
vpc-1a2b3c4d |
i-1234567890abcdef0 |
metrics |
38,2 |
42,6 |
1 500 |
2019-12-04 19:00:02 000 000000 |
us-east-1 |
us-east-1d |
vpc-1a2b3c4d |
i-1234567890abcdef0 |
metrics |
45,3 |
33,3 |
6 600 |
Modèle de série chronologique
Le modèle de série chronologique est une construction temporelle de requête utilisée pour l'analyse de séries chronologiques. Il représente les données sous la forme d'une séquence ordonnée de paires (temps, valeur de mesure). Timestream prend en charge les fonctions de séries chronologiques telles que l'interpolation pour vous permettre de combler les lacunes de vos données. Pour utiliser ces fonctions, vous devez convertir vos données dans le modèle de série chronologique à l'aide de fonctions telles que create_time_series. Reportez-vous à Référence du langage de requête pour plus de détails.
À l'aide de l'exemple précédent de l'EC2instance, voici les données CPU d'utilisation exprimées sous forme de série chronologique.
region | az | vpc | instance_id | utilisation du processeur |
---|---|---|---|---|
us-east-1 |
us-east-1d |
vpc-1a2b3c4d |
i-1234567890abcdef0 |
[{heure : 2019-12-04 19:00:00.000 000000, valeur : 35}, {heure : 2019-12-04 19:00:01.000 000000, valeur : 38.2}, {heure : 2019-12-04 19:00:02.000 000000, valeur : 45,3}] |