Sélectionner vos préférences de cookies

Nous utilisons des cookies essentiels et des outils similaires qui sont nécessaires au fonctionnement de notre site et à la fourniture de nos services. Nous utilisons des cookies de performance pour collecter des statistiques anonymes afin de comprendre comment les clients utilisent notre site et d’apporter des améliorations. Les cookies essentiels ne peuvent pas être désactivés, mais vous pouvez cliquer sur « Personnaliser » ou « Refuser » pour refuser les cookies de performance.

Si vous êtes d’accord, AWS et les tiers approuvés utiliseront également des cookies pour fournir des fonctionnalités utiles au site, mémoriser vos préférences et afficher du contenu pertinent, y compris des publicités pertinentes. Pour accepter ou refuser tous les cookies non essentiels, cliquez sur « Accepter » ou « Refuser ». Pour effectuer des choix plus détaillés, cliquez sur « Personnaliser ».

Historique du document

Mode de mise au point
Historique du document - Amazon Redshift

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Note

Pour obtenir une description des nouvelles fonctionnalités d'Amazon Redshift, consultez la section Nouveautés.

Le tableau suivant décrit les modifications importantes apportées à la documentation du guide du développeur de base de données Amazon Redshift après mai 2018. Pour recevoir les notifications de mise à jour de cette documentation, abonnez-vous à un flux RSS.

Version de l’API : 2012-12-01

Pour obtenir la liste des modifications apportées au Guide de gestion Amazon Redshift, veuillez consulter l'historique du document.

Pour plus d'informations sur les nouvelles fonctions, y compris une liste des correctifs et les numéros de version de cluster associés pour chaque version de produit, consultez le Historique des versions de cluster.

ModificationDescriptionDate

Prise en charge de géométries spatiales 3D et 4D et des nouvelles fonctions spatiales

Vous pouvez désormais utiliser des fonctions spatiales supplémentaires et la prise en charge de la géométrie 3D et 4D est ajoutée à certaines fonctions.

19 août 2021

Prise en charge de l'encodage de compression d'une colonne pour l'optimisation automatique des tables

Vous pouvez spécifier l'option ENCODE AUTO pour une table afin de permettre à Amazon Redshift de gérer automatiquement l'encodage de la compression pour toutes les colonnes de la table.

3 août 2021

Prise en charge de plusieurs instructions SQL ou d'une instruction SQL avec des paramètres à l'aide de l'API de données Amazon Redshift

Vous pouvez à présent exécuter plusieurs instructions SQL ou une instruction avec des paramètres à l'aide de l'API de données Amazon Redshift.

28 juillet 2021

Prise en charge du classement insensible à la casse avec des remplacements au niveau des colonnes

Vous pouvez désormais utiliser la clause COLLATE dans une instruction CREATE DATABASE pour spécifier le classement par défaut.

24 juin 2021

Prise en charge du partage de données entre comptes

Vous pouvez désormais partager des données entre les deux Comptes AWS.

30 avril 2021

Prise en charge des requêtes de données hiérarchiques avec CTE récursif

Vous pouvez désormais utiliser une expression de table commune récursive (CTE) dans votre SQL.

29 avril 2021

Prise en charge des requêtes entre bases de données

Vous pouvez désormais interroger des données entre les bases de données d'un cluster.

10 mars 2021

Prise en charge d'un contrôle précis des accès sur les commandes COPY et UNLOAD

Vous pouvez désormais accorder le privilège d'exécution des commandes COPY et UNLOAD à des utilisateurs et groupes spécifiques de votre cluster Amazon Redshift afin de créer une stratégie de contrôle d'accès plus précise.

12 janvier 2021

Prise en charge du JSON natif et des données semi-structurées

Vous pouvez désormais définir le type de données SUPER.

9 décembre 2020

Prise en charge des requêtes fédérées vers MySQL

Vous pouvez désormais écrire une requête fédérée sur un moteur MySQL pris en charge.

9 décembre 2020

Prise en charge du partage de données

Vous pouvez désormais partager des données entre des clusters Amazon Redshift.

9 décembre 2020

Prise en charge de l'optimisation automatique des tables

Vous pouvez désormais définir des clés de distribution et de tri automatiques.

9 décembre 2020

Prise en charge d'Amazon Redshift ML

Vous pouvez désormais créer, entraîner et déployer des modèles de machine learning (ML).

8 décembre 2020

Prise en charge de l'actualisation automatique et de la réécriture des requêtes des vues matérialisées

Vous pouvez désormais conserver les vues matérialisées up-to-date grâce à l'actualisation automatique et les performances des requêtes peuvent être améliorées grâce à la réécriture automatique.

11 novembre 2020

Prise en charge des types de données TIME et TIMETZ

Vous pouvez désormais créer des tables avec des types de données TIME et TIMETZ. Le type de données TIME stocke l'heure du jour sans fuseau horaire tandis que TIMETZ stocke l'heure du jour, dont le fuseau horaire

11 novembre 2020

Support pour Lambda UDFs et tokenisation

Vous pouvez désormais écrire Lambda UDFs pour activer la tokenisation externe des données.

26 octobre 2020

Prise en charge de la modification du codage d'une colonne de table

Vous pouvez désormais modifier le codage d'une colonne de table.

20 octobre 2020

Prise en charge des requêtes entre les bases de données

Amazon Redshift peut désormais interroger plusieurs bases de données d'un cluster.

15 octobre 2020

Support pour les HyperLogLog croquis

Amazon Redshift peut désormais stocker et traiter. HyperLogLogSketches

2 octobre 2020

Prise en charge d'Apache Hudi et de Delta Lake

Des améliorations ont été apportées à la création de tables externes pour Redshift Spectrum.

24 septembre 2020

Prise en charge des améliorations apportées à l'interrogation des données spatiales

Les améliorations incluent le chargement d'un fichier de formes et plusieurs nouvelles fonctions SQL spatiales.

15 septembre 2020

Les vues matérialisées prennent en charge les tables externes

Vous pouvez créer des vues matérialisées dans Amazon Redshift qui font référence à des sources de données externes.

19 juin 2020

Prise en charge de l'écriture dans une table externe

Vous pouvez écrire dans des tables externes en exécutant la commande CREATE EXTERNAL TABLE AS SELECT pour écrire dans une nouvelle table externe ou la commande INSERT INTO pour insérer des données dans une table externe existante.

8 juin 2020

Prise en charge des contrôles de stockage pour les schémas

Les commandes et vues qui gèrent les contrôles de stockage pour les schémas ont été mises à jour.

2 juin 2020

Prise en charge de la disponibilité générale des requêtes fédérées

Mise à jour des informations sur l'interrogation de données avec des requêtes fédérées.

16 avril 2020

Prise en charge de fonctions spatiales supplémentaires

Ajout de descriptions de fonctions spatiales supplémentaires.

2 avril 2020

Disponibilité générale de la prise en charge des vues matérialisées

La disponibilité générale des vues matérialisées est effective à partir de la version de cluster 1.0.13059.

19 février 2020

Prise en charge des privilèges de niveau colonne

Les privilèges de niveau colonne sont disponibles à partir de la version de cluster 1.0.13059.

19 février 2020

ALTER TABLE

Vous pouvez utiliser une commande ALTER TABLE avec la clause ALTER DISTSTYLE ALL pour modifier le style de distribution d'une table.

11 février 2020

Prise en charge des requêtes fédérées

Mise à jour du guide pour décrire des requêtes fédérées avec une commande CREATE EXTERNAL SCHEMA mise à jour.

3 décembre 2019

Prise en charge de l'exportation de lac de données

Mise à jour du guide pour décrire les nouveaux paramètres de la commande UNLOAD.

3 décembre 2019

Prise en charge des données spatiales

Manuel mis à jour pour décrire la prise en charge des données spatiales

21 novembre 2019

Prise en charge de la nouvelle console

Manuel mis à jour pour décrire la nouvelle console Amazon Redshift.

11 novembre 2019

Prise en charge du tri automatique des tables

Amazon Redshift peut trier automatiquement les données des tables.

7 novembre 2019

Prise en charge de l'option VACUUM BOOST

Vous pouvez utiliser l'option BOOST lorsque vous nettoyez les tables.

7 novembre 2019

Prise en charge des colonnes IDENTITY par défaut

Vous pouvez créer des tables avec des colonnes IDENTITY par défaut.

19 septembre 2019

Support pour le codage AZ64 par compression

Vous pouvez encoder certaines colonnes par AZ64 compression.

19 septembre 2019

Prise en charge de la priorité de requête

Vous pouvez définir la priorité de requête d'une file d'attente WLM automatique.

22 août 2019

Support pour AWS Lake Formation

Vous pouvez utiliser un catalogue de données Lake Formation avec Amazon Redshift Spectrum.

8 août 2019

COMPUPDATE PRESET

Vous pouvez utiliser une commande COPY avec COMPUPDATE PRESET pour permettre à Amazon Redshift de choisir l'encodage de compression.

13 juin 2019

ALTER COLUMN

Vous pouvez utiliser une commande ALTER TABLE avec ALTER COLUMN pour augmenter la taille d'une colonne VARCHAR.

22 mai 2019

Prise en charge des procédures stockées

Vous pouvez définir les procédures stockées PL/pgSQL dans Amazon Redshift.

24 avril 2019

Prise en charge de la configuration de la gestion automatique de la charge de travail (WLM)

Vous pouvez permettre à Amazon Redshift de fonctionner en WLM automatique.

24 avril 2019

Commande UNLOAD pour compression Zstandard

Vous pouvez utiliser la commande UNLOAD pour appliquer la compression Zstandard aux fichiers texte et aux fichiers CSV (comma-separated value) déchargés sur Amazon S3.

3 avril 2019

Mise à l’échelle de la simultanéité

Lorsque la mise à l'échelle de la simultanéité est activée, Amazon Redshift ajoute automatiquement de la capacité de cluster supplémentaire lorsque vous en avez besoin pour traiter une augmentation des requêtes de lecture simultanées.

21 mars 2019

UNLOAD vers CSV

Vous pouvez utiliser la commande UNLOAD pour décharger vers un fichier au format CSV.

13 mars 2019

Style de distribution AUTO

Pour activer la distribution automatique, vous pouvez spécifier le style de distribution AUTO avec un énoncé CREATE TABLE. Lorsque vous activez la distribution automatique, Amazon Redshift attribue un style de distribution optimal en fonction des données de la table. Le changement de distribution se produit en arrière-plan, en quelques secondes.

23 janvier 2019

La commande COPY depuis Parquet prend en charge SMALLINT

La commande COPY prend désormais en charge le chargement de fichiers au format Parquet en colonnes qui utilisent le type de données SMALLINT. Pour plus d'informations, consultez COPY à partir de Formats de données en colonnes.

2 janvier 2019

DROP EXTERNAL DATABASE

Vous pouvez supprimer une base de données externe en incluant la clause DROP EXTERNAL DATABASE avec une commande DROP SCHEMA.

3 décembre 2018

Opération UNLOAD entre régions

Vous pouvez DÉCHARGER dans un compartiment Amazon S3 d'une autre AWS région en spécifiant le paramètre REGION.

31 octobre 2018

Suppression de vide automatique

Amazon Redshift exécute automatiquement une opération VACUUM DELETE en arrière-plan, de sorte que vous avez rarement, voire jamais, besoin d'exécuter un DELETE ONLY vacuum. Amazon Redshift planifie l'exécution de VACUUM DELETE pendant les périodes de charge réduite et interrompt l'opération pendant les périodes de charge élevée.

31 octobre 2018

Distribution automatique

Lorsque vous ne spécifiez pas de style de distribution avec une instruction CREATE TABLE, Amazon Redshift attribue un style de distribution optimal basé sur les données de la table. Le changement de distribution se produit en arrière-plan, en quelques secondes.

31 octobre 2018

Contrôle d'accès détaillé pour AWS Glue Data Catalog

Vous pouvez désormais définir les niveaux d'accès aux données stockées dans le AWS Glue Data Catalog.

15 octobre 2018

Opération UNLOAD avec types de données

Vous pouvez spécifier l'option MANIFEST VERBOSE avec une commande UNLOAD pour ajouter les métadonnées au fichier manifeste, y compris les noms et les types de données des colonnes, les tailles de fichiers et les nombres de lignes.

10 octobre 2018

Ajout de plusieurs partitions à l'aide d'une seule instruction ALTER TABLE

Pour les tables externes Redshift Spectrum, vous pouvez combiner plusieurs clauses PARTITION en une seule instruction ALTER TABLE ADD. Pour plus d'informations, consultez Exemples de modification d'une table externe.

10 octobre 2018

UNLOAD avec en-tête

Vous pouvez spécifier l'option HEADER avec une commande UNLOAD pour ajouter une ligne d'en-tête contenant des noms de colonne en haut de chaque fichier de sortie.

19 septembre 2018

Nouvelles vues et table système

De la documentation sur SVL_S3Retries, SVL_USER_INFO et STL_DISK_FULL_DIAG a été ajoutée.

31 août 2018

Prise en charge de données imbriquées dans Amazon Redshift Spectrum

Vous pouvez désormais soumettre une requête de données imbriquées dans les tables Amazon Redshift Spectrum. Pour plus d'informations, consultez Didacticiel : Faire une requête de données imbriquées avec Amazon Redshift Spectrum.

8 août 2018

ARC activé par défaut.

L'accélération de requête courte (ARC) est désormais activée par défaut pour tous les nouveaux clusters. L'ARC utilise le machine learning afin d'offrir des performances supérieures, des résultats plus rapides et une meilleure prévisibilité des temps d'exécution des requêtes. Pour plus d'informations, voir Accélération de requête courte.

8 août 2018

Amazon Redshift Advisor

Vous pouvez désormais obtenir des recommandations personnalisées sur la façon d'améliorer les performances de votre cluster et de réduire les coûts de fonctionnement à partir d'Amazon Redshift Advisor. Pour plus d'informations, consultez Amazon Redshift Advisor.

26 juillet 2018

Référence d'alias immédiate

Vous pouvez désormais faire référence à une expression d'alias immédiatement après l'avoir définie. Pour plus d'informations, consultez Liste SELECT.

18 juillet 2018

Spécification du type de compression lors de la création d'une table externe

Vous pouvez désormais spécifier le type de compression lors de la création d'une table externe avec Amazon Redshift Spectrum. Pour plus d'informations, consultez Création de tables externes.

27 juin 2018

PG_LAST_UNLOAD_ID

Ajout de la documentation relative à une nouvelle fonction d'informations système : PG_LAST_UNLOAD_ID. Pour plus d'informations, consultez PG_LAST_UNLOAD_ID.

27 juin 2018

ALTER TABLE RENAME COLUMN

ALTER TABLE prend désormais en charge le changement de nom de colonnes pour les tables externes. Pour plus d'informations, consultez Exemples de modification d'une table externe.

7 juin 2018

Mises à jour antérieures

Le tableau suivant décrit les modifications importantes apportées à chaque version du Guide du développeur de la base de données Amazon Redshift avant juin 2018.

Modification Description Date de modification
La commande COPY depuis Parquet inclut SMALLINT

La commande COPY prend désormais en charge le chargement de fichiers au format Parquet en colonnes qui utilisent le type de données SMALLINT. Pour de plus amples informations, veuillez consulter .

2 janvier 2019
COPY depuis les formats de données en colonnes

COPY prend désormais en charge le chargement à partir de fichiers sur Amazon S3 qui utilisent les formats de données en colonnes Parquet et ORC. Pour de plus amples informations, veuillez consulter .

17 mai 2018
Durée d'exécution maximale dynamique pour SQA

Par défaut, WLM attribue dynamiquement une valeur à l'exécution maximale SQA en fonction de l'analyse de la charge de travail de votre cluster. Pour de plus amples informations, veuillez consulter Durée d’exécution maximale pour les requêtes courtes.

17 mai 2018
Nouvelle colonne dans STL_LOAD_COMMITS

La table système STL_LOAD_COMMITS comporte une nouvelle colonne, file_format.

10 mai 2018
Nouvelles colonnes de STL_HASHJOIN et autres tables des journaux systèmes

La table système STL_HASHJOIN comporte trois nouvelles colonnes, hash_segment, hash_step et checksum. De même, un checksum a été ajouté à STL_MERGEJOIN, STL_NESTLOOP, STL_HASH, STL_SCAN, STL_SORT, STL_LIMIT et STL_PROJECT.

17 mai 2018
Nouvelles colonnes dans STL_AGGR

La table système STL_AGGR se compose de deux nouvelles colonnes, resizes et flushable.

19 avril 2018
Nouvelles options pour les fonctions REGEX

Pour les fonctions REGEXP_INSTR et REGEXP_SUBSTR, vous pouvez à présent spécifier quel occurrence d'une correspondance utiliser et si la correspondance doit être sensible à la casse. REGEXP_INSTR vous permet aussi de spécifier s'il faut retourner la position du premier caractère de la correspondance ou celle du premier caractère après la fin de la correspondance.

22 mars 2018
Nouvelles colonnes dans les tables système Les colonnes tombstonedblocks, tossedblocks et batched_by columns ont été ajoutées à la table système STL_COMMIT_STATS. La colonne localslice a été ajoutée à la vue système STV_SLICES. 22 mars 2018
Ajout et suppression de colonnes dans les tables externes ALTER TABLE prend désormais en charge ADD COLUMN et DROP COLUMN pour les tables externes Amazon Redshift Spectrum. 22 mars 2018
Redshift Spectrum : nouvelles régions AWS Redshift Spectrum est désormais disponible dans les régions de Mumbai et São Paulo. Pour obtenir une liste des régions prises en charge, consultez Régions Amazon Redshift Spectrum. 22 mars 2018
La limite de table est passée à 20 000

Le nombre maximal de tables est maintenant de 20 000 pour les nœuds de cluster de type 8xlarge. La limite pour les nœuds de types large et xlarge est de 9 900. Pour de plus amples informations, veuillez consulter Limites et quotas.

13 mars 2018
Prise en charge de Redshift Spectrum pour JSON et Ion

Avec Redshift Spectrum, vous pouvez référencer des fichiers avec des données scalaires aux formats de données JSON ou Ion. Pour de plus amples informations, veuillez consulter CREATE EXTERNAL TABLE.

26 février 2018
Chaînage de rôles IAM pour Redshift Spectrum

Vous pouvez enchaîner les rôles AWS Identity and Access Management (IAM) afin que votre cluster puisse assumer d'autres rôles non attachés au cluster, y compris des rôles appartenant à un autre AWS compte. Pour de plus amples informations, veuillez consulter Créer des rôles IAM dans Amazon Redshift Spectrum.

1 février 2018
ADD PARTITION prend en charge IF NOT EXISTS La clause ADD PARTITION pour ALTER TABLE prend désormais en charge une option IF NOT EXISTS. Pour de plus amples informations, veuillez consulter ALTER TABLE. 11 janvier 2018
Données DATE pour les tables externes Les tables externes Redshift Spectrum prennent désormais en charge le type de données DATE. Pour de plus amples informations, veuillez consulter CREATE EXTERNAL TABLE. 11 janvier 2018
Redshift Spectrum : nouvelles régions AWS Redshift Spectrum est désormais disponible dans les régions de Singapour, Sydney, Séoul et Francfort. Pour obtenir la liste des AWS régions prises en charge, consultezRégions Amazon Redshift Spectrum. 16 novembre 2017
Accélération des requêtes courtes dans la gestion des charges de travail (WLM) d'Amazon Redshift L’accélération des requêtes courtes (SQA) établit la priorité des requêtes de courte durée sélectionnées sur les requêtes de longue durée. La SQA exécute des requêtes de courte durée dans un espace dédié, afin que les requêtes SQA ne soient pas forcées d'attendre dans des files d'attente derrière les requêtes de longue durée. Avec la SQA, les requêtes de courte durée commencent à s'exécuter plus rapidement et les utilisateurs obtiennent les résultats plus rapidement. Pour de plus amples informations, veuillez consulter Accélération des requêtes courtes. 16 novembre 2017
WLM réaffecte les requêtes replacées Au lieu d'annuler et de relancer une requête sautée, la gestion de la charge de travail (WLM) d'Amazon Redshift réaffecte désormais les requêtes admissibles à une nouvelle file d'attente. Lorsque WLM réaffecte une requête, elle déplace la requête dans la nouvelle file d'attente et continue l'exécution, ce qui permet de gagner du temps et d'économiser des ressources système. Les requêtes replacées qui ne peuvent pas être réaffectées sont redémarrées ou annulées. Pour de plus amples informations, veuillez consulter Saut de file d’attente des requêtes WLM. 16 novembre 2017
Accès aux journaux système pour les utilisateurs Dans la plupart des tableaux de journaux système visibles des utilisateurs, les lignes générées par un autre utilisateur sont invisibles pour un utilisateur standard par défaut. Pour autoriser un utilisateur standard à voir toutes les lignes des tableaux visibles des utilisateurs, y compris les lignes générées par un autre utilisateur, exécutez ALTER USER ou CREATE USER et définissez le paramètre SYSLOG ACCESS sur UNRESTRICTED. 16 novembre 2017
Mise en cache du résultat Avec Mise en cache du résultat , lorsque vous exécutez une requête, Amazon Redshift met en cache le résultat. Lorsque vous exécutez à nouveau la requête, Amazon Redshift recherche une copie valide mise en cache du résultat de la requête. Si une correspondance est trouvée dans le cache des résultats, Amazon Redshift utilise le résultat mis en cache et n'exécute pas la requête. La mise en cache du résultat est activée par défaut. Pour désactiver la mise en cache du résultat, définissez le paramètre de configuration enable_result_cache_for_session sur off. 16 novembre 2017
Fonctions de métadonnées de colonne PG_GET_COLS et PG_GET_LATE_BINDING_VIEW_COLS renvoient les métadonnées des colonnes pour les tables, les vues et les vues à liaison tardive d'Amazon Redshift. 16 novembre 2017
Saut de file d'attente WLM pour CTAS La gestion des charges de travail (WLM) d'Amazon Redshift prend désormais en charge le saut de file d'attente des requêtes pour les déclarations CREATE TABLE AS (CTAS) ainsi que les requêtes en lecture seule, telles que les déclarations SELECT. Pour de plus amples informations, veuillez consulter Saut de file d’attente des requêtes WLM. 19 octobre 2017
Fichiers manifestes Amazon Redshift Spectrum Lorsque vous créez une table externe Redshift Spectrum, vous pouvez spécifier un fichier manifeste qui répertorie les emplacements des fichiers de données sur Amazon S3. Pour de plus amples informations, veuillez consulter CREATE EXTERNAL TABLE. 19 octobre 2017
Amazon Redshift Spectrum AWS  : nouvelles régions Redshift Spectrum est désormais disponible dans les régions UE (Irlande) et Asie-Pacifique (Tokyo). Pour obtenir la liste des AWS régions prises en charge, consultezLimites d'Amazon Redshift Spectrum. 19 octobre 2017
Amazon Redshift Spectrum a ajouté des formats de fichiers Vous pouvez désormais créer des tables externes Redshift Spectrum basées sur les formats de fichier de données Regex, OpenCSV et Avro. Pour de plus amples informations, veuillez consulter CREATE EXTERNAL TABLE. 5 octobre 2017
Pseudocolonnes pour tables externes Amazon Redshift Spectrum Vous pouvez sélectionner les pseudo-colonnes $path et $size dans une table externe Redshift Spectrum pour afficher l'emplacement et la taille des fichiers de données référencés dans Amazon S3. Pour de plus amples informations, veuillez consulter Pseudocolonnes. 5 octobre 2017
Fonctions de validation JSON Vous pouvez utiliser les fonctions IS_VALID_JSON et IS_VALID_JSON_ARRAY pour vérifier le formatage JSON. Les autres fonctions JSON disposent désormais d'un argument null_if_invalid facultatif. 5 octobre 2017
LISTAGG DISTINCT Vous pouvez utiliser la clause DISTINCT avec la fonction d'agrégation LISTAGG et la fonction de fenêtre LISTAGG pour éliminer les valeurs en double dans l'expression spécifiée avant de procéder à la concaténation. 5 octobre 2017
Affichage des noms de colonnes en majuscules Pour afficher les noms de colonnes en majuscules dans les résultats SELECT, vous pouvez définir le paramètre de configuration describe_field_name_in_uppercase sur true. 5 octobre 2017
Ignorer les lignes d'en-tête dans les tables externes Vous pouvez définir la propriété skip.header.line.count de la commande CREATE EXTERNAL TABLE de manière à ignorer les lignes d'en-tête au début des fichiers de données Redshift Spectrum. 5 octobre 2017
Nombre de lignes d’analyse Les règles de contrôle des requêtes WLM utilisent la métrique scan_row_count pour retourner le nombre de lignes d'une étape d'analyse. Le nombre de lignes correspond au nombre total de lignes émises avant le filtrage des lignes marquées pour la suppression (lignes fantôme) et avant l’application des filtres de requête définis par l’utilisateur. Pour de plus amples informations, veuillez consulter Métriques de surveillance des requêtes pour cluster Amazon Redshift provisionné. 21 septembre 2017
Fonctions SQL définies par l'utilisateur Une fonction scalaire SQL définie par l'utilisateur intègre une clause SELECT SQL qui s'exécute lorsque la fonction est appelée et renvoie une valeur unique. Pour de plus amples informations, veuillez consulter SQL scalaire UDFs. 31 août 2017
Vues à liaison tardive Une vue à liaison tardive n'est pas liée aux objets de base de données sous-jacents, tels que les tables et les fonctions définies par l'utilisateur. Par conséquent, il n’y a aucune dépendance entre la vue et les objets auxquels elle fait référence. Vous pouvez créer une vue même si les objets référencés n’existent pas. Parce qu’il n’y a aucune dépendance, vous pouvez supprimer ou modifier un objet référencé sans affecter la vue. Amazon Redshift ne vérifie pas les dépendances tant que la vue n'est pas interrogée. Pour créer une vue à liaison tardive, spécifiez la clause WITH NO SCHEMA BINDING avec l'instruction CREATE VIEW. Pour de plus amples informations, veuillez consulter CREATE VIEW. 31 août 2017
Fonction OCTET_LENGTH OCTET_LENGTH renvoie la longueur de la chaîne spécifiée en tant que nombre d'octets. 18 août 2017
Types de fichier ORC et Grok pris en charge Amazon Redshift Spectrum prend désormais en charge les formats de données ORC et Grok pour les fichiers de données Redshift Spectrum. Pour de plus amples informations, veuillez consulter Fichiers de données pour les requêtes dans Amazon Redshift Spectrum. 18 août 2017
RegexSerDe désormais pris en charge Amazon Redshift Spectrum prend désormais en charge RegexSerDe le format de données. Pour de plus amples informations, veuillez consulter Fichiers de données pour les requêtes dans Amazon Redshift Spectrum. 19 juillet 2017
Nouvelles colonnes ajoutées à SVV_TABLES et SVV_COLUMNS Les colonnes domain_name et remarks ont été ajoutées à SVV_COLUMNS. Une colonne de remarques a été ajoutée à SVV_TABLES. 19 juillet 2017
Vues système SVV_TABLES et SVV_COLUMNS Les vues système SVV_TABLES et SVV_COLUMNS fournissent des informations sur les colonnes et d'autres détails relatifs aux tables et aux vues locales et externes. 7 juillet 2017
VPC n'est plus nécessaire pour Amazon Redshift Spectrum avec le métastore Hive d'Amazon EMR Redshift Spectrum a supprimé l'exigence selon laquelle le cluster Amazon Redshift et le cluster Amazon EMR doivent être dans le même VPC et le même sous-réseau lors de l'utilisation d'un métastore Amazon EMR Hive. Pour de plus amples informations, veuillez consulter Utiliser des catalogues externes dans Amazon Redshift Spectrum. 7 juillet 2017
Exécution de la commande UNLOAD vers des fichiers de taille inférieure Par défaut, UNLOAD crée plusieurs fichiers sur Amazon S3 d'une taille maximale de 6,2 Go. Pour créer des fichiers plus petits, spécifiez MAXFILESIZE avec la commande UNLOAD. Vous pouvez spécifier une taille de fichier maximale située entre 5 Mo et 6,2 Go. Pour de plus amples informations, veuillez consulter UNLOAD. 7 juillet 2017
TABLE PROPERTIES Vous pouvez maintenant définir le paramètre numRows de TABLE PROPERTIES pour CREATE EXTERNAL TABLE ou ALTER TABLE afin de mettre à jour les statistiques de table pour refléter le nombre de lignes dans la table. 6 juin 2017
ANALYZE PREDICATE COLUMNS Pour gagner du temps et économiser des ressources de cluster, vous pouvez choisir d'analyser uniquement les colonnes susceptibles d'être utilisées comme prédicats. Lorsque vous exécutez ANALYZE avec la clause PREDICATE COLUMNS, l'opération d'analyse inclut uniquement les colonnes qui ont été utilisées dans une jointure, une condition de filtre ou une clause group by, ou qui sont utilisées en tant que clé de tri ou clé de distribution. Pour de plus amples informations, veuillez consulter Analyse des tables. 25 mai 2017
Stratégies IAM pour Amazon Redshift Spectrum Pour accorder l'accès à un compartiment Amazon S3 en n'utilisant que Redshift Spectrum, vous pouvez inclure une condition qui autorise l'accès pour l'agent utilisateur AWS Redshift/Spectrum. Pour de plus amples informations, veuillez consulter Politiques IAM pour Amazon Redshift Spectrum. 25 mai 2017
Analyse récursive d'Amazon Redshift Spectrum Redshift Spectrum analyse désormais les fichiers dans les sous-dossiers ainsi que le dossier spécifié dans Amazon S3. Pour de plus amples informations, veuillez consulter Tables externes pour Redshift Spectrum. 25 mai 2017
Règles de surveillance de requête À l’aide des règles de surveillance des requêtes WLM, vous pouvez définir des limites de performance basées sur des métriques pour les files d’attente WLM et spécifier l’action à entreprendre lorsqu’une requête dépasse ces limites — log, hop ou abort. Vous définissez les règles de surveillance de requête dans le cadre de la configuration de la gestion de la charge de travail (WLM). Pour de plus amples informations, veuillez consulter Règles de surveillance de requête WLM. 21 avril 2017
Amazon Redshift Spectrum Grâce à Redshift Spectrum, vous pouvez interroger et récupérer efficacement des données à partir de fichiers dans Amazon S3 sans avoir à charger les données dans des tables. Les requêtes Redshift Spectrum s'exécutent très rapidement contre les grands ensembles de données car Redshift Spectrum analyse les fichiers de données directement dans Amazon S3. Une grande partie du traitement s'effectue dans la couche Amazon Redshift Spectrum, et la plupart des données restent dans Amazon S3. Plusieurs clusters peuvent interroger simultanément le même jeu de données sur Amazon S3 sans qu'il soit nécessaire de faire des copies des données pour chaque cluster. Pour de plus amples informations, veuillez consulter . 19 avril 2017
Nouvelles tables système pour la prise en charge de Redshift Spectrum Les nouvelles vues système suivantes ont été ajoutées afin de prendre en charge Redshift Spectrum : 19 avril 2017
Fonction d'agrégation APPROXIMATE PERCENTILE_DISC La fonction d'agrégation APPROXIMATE PERCENTILE_DISC est désormais disponible. 4 avril 2017
Chiffrement côté serveur avec KMS Vous pouvez désormais décharger des données vers Amazon S3 en utilisant le chiffrement côté serveur avec une clé AWS Key Management Service (SSE-KMS). En outre, COPY charge désormais de manière transparente les fichiers de données chiffrées par KMS depuis Amazon S3. Pour de plus amples informations, veuillez consulter UNLOAD. 9 février 2017
Nouvelle syntaxe d'autorisation Vous pouvez désormais utiliser les paramètres IAM_ROLE, MASTER_SYMMETRIC_KEY, ACCESS_KEY_ID, SECRET_ACCESS_KEY et SESSION_TOKEN pour fournir des informations d'autorisation et d'accès pour les commandes COPY, UNLOAD et CREATE LIBRARY. La nouvelle syntaxe d'autorisation constitue une façon plus flexible de fournir un argument de chaîne au paramètre CREDENTIALS. Pour de plus amples informations, veuillez consulter Paramètres d’autorisation. 9 février 2017
Augmentation de la limite des schémas Vous pouvez désormais créer jusqu'à 9 900 schémas par cluster. Pour de plus amples informations, veuillez consulter CREATE SCHEMA. 9 février 2017
Encodage de table par défaut CREATE TABLE et ALTER TABLE attribuent une compression LZO à la plupart des nouvelles colonnes. Les colonnes définies comme des clés de tri avec le type de données BOOLEAN, REAL ou DOUBLE PRECISION et les tables temporaires se voient attribuer une compression RAW par défaut. Pour de plus amples informations, veuillez consulter ENCODE. 6 février 2017
Encodage de compression ZSTD Amazon Redshift prend désormais en charge le codage par compression de colonne ZSTD. 19 janvier 2017
Fonctions d'agrégation PERCENTILE_CONT et MEDIAN PERCENTILE_CONT et MEDIAN sont désormais disponibles en tant que fonctions d'agrégation et fonctions de fenêtrage. 19 janvier 2017
Journalisation utilisateur UDF (fonction définie par l'utilisateur) Vous pouvez utiliser le module de journalisation Python pour créer des messages d'erreur et d'avertissement définis par l'utilisateur dans votre UDFs. Après l'exécution d'une requête, vous pouvez interroger la vue système SVL_UDF_LOG pour récupérer les messages journalisés. Pour plus d'informations sur les messages définis par l'utilisateur, consultez Erreurs de journalisation et avertissements en Python UDFs 8 décembre 2016
Estimation de la réduction avec ANALYZE COMPRESSION La commande ANALYZE COMPRESSION indique maintenant une estimation pour le pourcentage de réduction de l'espace sur le disque pour chaque colonne. Pour de plus amples informations, veuillez consulter ANALYZE COMPRESSION. 10 novembre 2016
Limites de connexions Vous pouvez maintenant définir une limite pour le nombre de connexions à la base de données qu'un utilisateur est autorisé à ouvrir simultanément. Vous pouvez également limiter le nombre de connexions simultanées pour une base de données. Pour plus d’informations, consultez CREATE USER et CREATE DATABASE. 10 novembre 2016
Amélioration de l'ordre de tri avec COPY La commande COPY ajoute maintenant automatiquement des lignes nouvelles à la région triée de la table lorsque vous chargez vos données dans l'ordre des clés de tri. Pour connaître les conditions d'activation de cette amélioration, consultez Chargez vos données dans l'ordre des clés de tri 10 novembre 2016
CTAS avec compression CREATE TABLE AS (CTAS) attribue désormais automatiquement les encodages de compression aux nouvelles tables en fonction du type de données de la colonne. Pour de plus amples informations, veuillez consulter Héritage des attributs de colonne et de table. 28 octobre 2016
Type de données d'horodatage avec fuseau horaire Amazon Redshift prend désormais en charge un type de données timestamp avec fuseau horaire (TIMESTAMPTZ). En outre, plusieurs nouvelles fonctions ont été ajoutées pour prendre en charge le nouveau type de données. Pour de plus amples informations, veuillez consulter Fonctions de date et d’heure. 29 septembre 2016
Seuil d’analyse Pour réduire le temps de traitement et améliorer les performances globales du système des opérations ANALYSE, Amazon Redshift ignore l'analyse d'une table si le pourcentage de lignes qui ont été modifiées depuis l'exécution de la dernière commande ANALYZE est inférieur au seuil d'analyse spécifié par le paramètre analyze_threshold_percent. Par défaut, analyze_threshold_percent est 10. 9 août 2016
Nouvelle table système STL_RESTARTED_SESSIONS Lorsque Amazon Redshift redémarre une session, STL_RESTARTED_SESSIONS enregistre le nouvel identifiant de processus (PID) et l'ancien PID. 9 août 2016
Mise à jour de la documentation Fonctions Date et heure Ajout d'un résumé des fonctions avec des liens vers la rubrique Fonctions de date et d’heure et mise à jour des références de la fonction à des fins de cohérence. 24 juin 2016
Nouvelles colonnes dans STL_CONNECTION_LOG La table système STL_CONNECTION_LOG comporte deux nouvelles colonnes pour suivre les connexions SSL. Si vous chargez régulièrement les journaux d’audit dans une table Amazon Redshift, vous devrez ajouter les nouvelles colonnes suivantes à la table cible : sslcompression et sslexpansion. 5 mai 2016
MD5-mot de passe de hachage Vous pouvez spécifier le mot de passe d'une ALTER USER commande CREATE USER or en fournissant la chaîne MD5 -hash du mot de passe et du nom d'utilisateur. 21 avril 2016
Nouvelle colonne dans STV_TBL_PERM La colonne backup dans la vue système STV_TBL_PERM indique si la table est incluse dans les instantanés du cluster. Pour de plus amples informations, veuillez consulter BACKUP. 21 avril 2016
Tables sans sauvegarde Pour les tables, telles que les tables intermédiaires, qui ne contiennent pas de données critiques, vous pouvez spécifier BACKUP NO dans votre instruction CREATE TABLE ou CREATE TABLE AS afin d'empêcher Amazon Redshift d'inclure la table dans les instantanés automatiques ou manuels. L'utilisation de tables sans sauvegarde permet d'économiser du temps lors de la création d'instantanés et de la restauration à partir d'instantanés et réduit l'espace de stockage sur Amazon S3. 7 avril 2016
Seuil de suppression de VACUUM Par défaut, la commande VACUUM permet maintenant de récupérer de l'espace, tel qu'au moins 95 % des lignes restantes ne sont pas marquées pour suppression. Par conséquent, la phase de suppression de la commande VACUUM est généralement beaucoup plus rapide que la phase de récupération de 100 % des lignes supprimées. Vous pouvez changer le seuil par défaut pour une seule table en incluant le paramètre TO threshold PERCENT lorsque vous exécutez la commande VACUUM. 7 avril 2016
Table système SVV_TRANSACTIONS La vue système SVV_TRANSACTIONS enregistre des informations sur les transactions qui maintiennent actuellement les verrous dans les tables de la base de données. 7 avril 2016
Utilisation des rôles IAM pour accéder à d'autres ressources AWS Pour déplacer des données entre votre cluster et une autre AWS ressource, telle qu'Amazon S3, DynamoDB, Amazon EMR ou EC2 Amazon, votre cluster doit être autorisé à accéder à la ressource et à effectuer les actions nécessaires. Comme alternative plus sécurisée pour fournir une paire de clés d'accès avec des commandes COPY, UNLOAD ou CREATE LIBRARY, vous pouvez maintenant spécifier un rôle IAM que votre cluster utilise pour l'authentification et l'autorisation. Pour de plus amples informations, veuillez consulter Contrôle d’accès basé sur les rôles. 29 mars 2016
Seuil de tri VACUUM La commande VACUUM ignore maintenant la phase de tri des tables dans lesquelles plus de 95 % des lignes de la table sont déjà triées. Vous pouvez changer le seuil de tri par défaut pour une seule table en incluant le paramètre TO threshold PERCENT lorsque vous exécutez la commande VACUUM. 17 mars 2016
Nouvelles colonnes dans STL_CONNECTION_LOG La table système STL_CONNECTION_LOG contient trois nouvelles colonnes. Si vous chargez régulièrement des journaux d'audit dans une table Amazon Redshift, vous devrez ajouter les nouvelles colonnes suivantes à la table cible : sslversion, sslcipher et mtu. 17 mars 2016
UNLOAD avec la compression bzip2 Vous avez maintenant la possibilité d'exécuter la commande UNLOAD à l'aide de la compression bzip2. 8 février 2016
ALTER TABLE APPEND ALTER TABLE APPEND ajoute des lignes à une table cible en déplaçant les données à partir d'une table source existante. ALTER TABLE APPEND est généralement beaucoup plus rapide qu’une opération CREATE TABLE AS ou INSERT INTO semblable, car les données sont déplacées, pas dupliquées. 8 février 2016
Saut de file d’attente des requêtes WLM Si la gestion de la charge de travail (WLM) annule une requête en lecture seule, telle qu'une instruction SELECT, en raison d'un délai WLM, WLM tente d'acheminer la requête vers la prochaine file d'attente correspondante. Pour de plus amples informations, veuillez consulter . 7 janvier 2016
ALTER DEFAULT PRIVILEGES Vous pouvez utiliser la commande ALTER DEFAULT PRIVILEGES pour définir le groupe de privilèges d'accès par défaut sur des objets qui seront créés à l'avenir par l'utilisateur spécifié. 10 décembre 2015
Compression d'un fichier bzip2 La commande COPY prend en charge le chargement de données à partir de fichiers qui ont été compressés à l'aide de bzip2. 10 décembre 2015
NULLS FIRST et NULLS LAST Vous pouvez spécifier si une clause ORDER BY doit classer les valeurs NULLS en premier ou en dernier dans l'ensemble de résultats. Pour plus d’informations, consultez Clause ORDER BY et Récapitulatif de la syntaxe de la fonction de fenêtrage. 19 novembre 2015
Mot-clé REGION pour CREATE LIBRARY Si le compartiment Amazon S3 qui contient les fichiers de bibliothèque UDF ne réside pas dans la même AWS région que votre cluster Amazon Redshift, vous pouvez utiliser l'option REGION pour spécifier la région dans laquelle se trouvent les données. Pour de plus amples informations, veuillez consulter CREATE LIBRARY. 19 novembre 2015
Fonctions scalaires définies par l'utilisateur () UDFs Vous pouvez désormais créer des fonctions scalaires personnalisées définies par l'utilisateur pour implémenter des fonctionnalités de traitement non SQL fournies soit par les modules pris en charge par Amazon Redshift dans la bibliothèque standard Python 2.7, soit par vos propres fonctions personnalisées UDFs basées sur le langage de programmation Python. Pour de plus amples informations, veuillez consulter Fonctions définies par l'utilisateur dans Amazon Redshift. 11 septembre 2015
Propriétés dynamiques de la configuration WLM Le paramètre de configuration WLM prend désormais en charge l’application dynamique de certaines propriétés. D’autres propriétés restent statiques et nécessitent que les clusters associés soient redémarrés afin que les modifications de configuration puissent être appliquées. Pour plus d’informations, consultez Propriétés de configuration dynamiques et statiques WLM et Gestion de la charge de travail. 3 août 2015
Fonction LISTAGG Les fonctions Fonction LISTAGG et Fonction de fenêtrage LISTAGG renvoient une chaîne créée en concaténant un ensemble de valeurs de la colonne. 30 juillet 2015
Paramètre obsolète

Le paramètre de configuration max_cursor_result_set_size est obsolète. La taille des ensembles de résultats de curseur est restreinte en fonction du type de nœud du cluster. Pour de plus amples informations, veuillez consulter Contraintes de curseur.

24 juillet 2015
Documentation de commande COPY révisée La référence de commande COPY a été considérablement révisée pour rendre le matériel plus convivial et plus accessible. 15 juillet 2015
Exécuter la commande COPY depuis le format Avro La commande COPY prend en charge le chargement de données au format Avro à partir de fichiers de données sur Amazon S3, Amazon EMR, et à partir d'hôtes distants via SSH. Pour plus d’informations, consultez AVRO et Copier depuis des exemples Avro. 8 juillet 2015
STV_STARTUP_RECOVERY_STATE La table système STV_STARTUP_RECOVERY_STATE enregistre l'état des tables qui sont temporairement verrouillées pendant les opérations de redémarrage du cluster. Amazon Redshift place un verrou temporaire sur les tables pendant qu'elles sont traitées pour résoudre les transactions devenues obsolètes à la suite d'un redémarrage du cluster. 25 mai 2015
Clause ORDER BY facultative pour classer les fonctions La clause ORDER BY est désormais facultative pour certaines fonctions de rang de fenêtre. Pour plus d'informations, consultez Fonction de fenêtrage CUME_DIST, Fonction de fenêtrage DENSE_RANK, Fonction de fenêtrage RANK, Fonction de fenêtrage NTILE, Fonction de fenêtrage PERCENT_RANK et Fonction de fenêtrage ROW_NUMBER. 25 mai 2015
Clés de tri entrelacées Les clés de tri entrelacées donnent un poids égal à chaque colonne dans la clé de tri. L'utilisation des clés de tri entrelacées au lieu des clés composées par défaut améliore nettement les performances des requêtes qui utilisent des prédicats restrictifs sur les colonnes de tri secondaire, surtout pour les grandes tables. Le tri entrelacé améliore également la performance globale lorsque plusieurs requêtes filtrent différentes colonnes dans la même table. Pour plus d’informations, consultez Clés de tri et CREATE TABLE. le 11 mai 2015
Rubrique Réglage de performances des requêtes révisée La rubrique Réglage des performances des requêtes a été étendue afin d'inclure de nouvelles requêtes pour analyser les performances des requêtes et d'autres exemples. La rubrique a également été révisée de manière à être plus claire et plus complète. Bonnes pratiques Amazon Redshift pour la conception de requêtes contient des informations supplémentaires sur la façon d'écrire des requêtes pour améliorer les performances. 23 mars 2015
SVL_QUERY_QUEUE_INFO La vue SVL_QUERY_QUEUE_INFO résume les détails des requêtes qui ont passé du temps dans une file d'attente de requête WLM ou une file d'attente de validation. le 19 février 2015
SVV_TABLE_INFO Vous pouvez utiliser la vue SVV_TABLE_INFO pour diagnostiquer et traiter les problèmes de conception de table qui peuvent influencer les performances des requêtes, y compris les problèmes d'encodage de compression, les clés de distribution, le style de tri, l'asymétrie de la distribution des données, la taille de la table et les statistiques. le 19 février 2015
La commande UNLOAD utilise le chiffrement de fichier côté serveur La commande UNLOAD utilise désormais automatiquement le chiffrement côté serveur (SSE) d'Amazon S3 pour chiffrer tous les fichiers de données de déchargement. Le chiffrement côté serveur ajoute une autre couche de sécurité de données avec peu ou pas de modification de performances. 31 octobre 2014
Fonction de fenêtrage CUME_DIST La fonction Fonction de fenêtrage CUME_DIST calcule la distribution cumulée d'une valeur au sein d'une fenêtre ou une partition. 31 octobre 2014
Fonction MONTHS_BETWEEN La fonction Fonction MONTHS_BETWEEN détermine le nombre de mois entre deux dates. 31 octobre 2014
Fonction NEXT_DAY La fonction Fonction NEXT_DAY renvoie la date de la première instance d'une date spécifiée qui est ultérieure à la date donnée. 31 octobre 2014
Fonction de fenêtrage PERCENT_RANK La fonction Fonction de fenêtrage PERCENT_RANK calcule le rang en pourcentage d'une ligne donnée. 31 octobre 2014
Fonction de fenêtrage RATIO_TO_REPORT La fonction Fonction de fenêtrage RATIO_TO_REPORT calcule le ratio d'une valeur par rapport à la somme des valeurs dans une fenêtre ou une partition. 31 octobre 2014
Fonction TRANSLATE La fonction Fonction TRANSLATE remplace toutes les occurrences de caractères spécifiés au sein d'une expression donnée par des produits de remplacement spécifiés. 31 octobre 2014
NVL2 fonction La fonction NVL2 fonction renvoie l'une des deux valeurs selon qu'une expression spécifique a une valeur NULL ou NOT NULL. 16 octobre 2014
Fonction de fenêtrage MEDIAN La fonction Fonction de fenêtrage MEDIAN calcule la valeur médiane de la plage de valeurs dans une fenêtre ou une partition. 16 octobre 2014
Clause ON ALL TABLES IN SCHEMA schema_name pour les commandes GRANT et REVOKE Les commandes GRANT et REVOKE ont été mises à jour avec une clause ON ALL TABLES IN SCHEMA schema_name. Cette clause vous permet d'utiliser une simple commande pour modifier les privilèges de toutes les tables dans un schéma. 16 octobre 2014
Clause IF EXISTS pour les commandes DROP SCHEMA, DROP TABLE, DROP USER, et DROP VIEW Les commandes DROP SCHEMA, DROP TABLE, DROP USER, et DROP VIEW ont été mises à jour avec une clause IF EXISTS. Cette clause empêche la commande de faire des modifications et renvoie un message plutôt que de s'arrêter avec une erreur si l'objet spécifié n'existe pas. 16 octobre 2014
Clause IF NOT EXISTS pour les commandes CREATE SCHEMA et CREATE TABLE Les commandes CREATE SCHEMA et CREATE TABLE ont été mises à jour avec une clause IF NOT EXISTS. Cette clause empêche la commande de faire des modifications et renvoie un message plutôt que de s'arrêter avec une erreur si l'objet spécifié existe déjà. 16 octobre 2014
Prise en charge de la commande COPY pour l'encodage UTF-16 La commande COPY prend désormais en charge le chargement de fichiers de données qui utilisent l'encodage UTF-16, ainsi que l'encodage UTF-8. Pour de plus amples informations, veuillez consulter ENCODING. 29 septembre 2014
Nouveau didacticiel Gestion de la charge de travail Didacticiel : Configuration des files d'attente de gestion manuelle de la charge de travail vous guide à travers le processus de configuration des files d'attente de gestion de la charge de travail (WLM) pour améliorer le traitement des requêtes et l'allocation des ressources. 25 septembre 2014
Chiffrement AES 128 bits. La commande COPY prend désormais en charge le chiffrement AES 128 bits ainsi que le chiffrement AES 256 bits lors du chargement à partir de fichiers de données chiffrées à l'aide du chiffrement côté client d'Amazon S3. Pour de plus amples informations, veuillez consulter Chargement de fichiers de données chiffrés à partir d’Amazon S3. 29 septembre 2014
Fonction PG_LAST_UNLOAD_COUNT La fonction PG_LAST_UNLOAD_COUNT renvoie le nombre de lignes qui ont été traitées lors de l'opération UNLOAD la plus récente. Pour de plus amples informations, veuillez consulter PG_LAST_UNLOAD_COUNT. 15 septembre 2014
Nouvelle section Dépannage des requêtes Résolution des problèmes de requêtes fournit une référence rapide pour identifier et résoudre certains des problèmes les plus courants et les plus graves que vous êtes susceptibles de rencontrer avec les requêtes Amazon Redshift. le 7 juillet 2014
Nouveau didacticiel Chargement des données Didacticiel : chargement des données à partir d’Amazon S3 vous guide du début à la fin du processus de chargement de données dans vos tables de base de données Amazon Redshift à partir de fichiers de données dans un compartiment Amazon S3. 1 juillet 2014
Fonction de fenêtrage PERCENTILE_CONT La fonction Fonction de fenêtrage PERCENTILE_CONT est une fonction de distribution inverse qui suppose un modèle de distribution continue. Elle prend une valeur de centile et une spécification de tri, et renvoie une valeur interpolée qui entre dans la catégorie de la valeur de centile donnée en ce qui concerne la spécification de tri. 30 juin 2014
Fonction de fenêtrage PERCENTILE_DISC La fonction Fonction de fenêtrage PERCENTILE_DISC est une fonction de distribution inverse qui suppose un modèle de distribution discrète. Elle prend une valeur de centile et une spécification de tri et renvoie un élément de l'ensemble. 30 juin 2014
Fonctions GREATEST et LEAST Les fonctions Fonctions GREATEST et LEAST renvoient la valeur plus grande ou la plus petite à partir d'une liste d'expressions. 30 juin 2014
Exécution de la commande COPY entre régions La commande COPY prend en charge le chargement de données à partir d'un compartiment Amazon S3 ou d'une table Amazon DynamoDB qui se trouve dans une région différente de celle du cluster Amazon Redshift. Pour plus d’informations, consultez REGION dans la référence de la commande COPY. 30 juin 2014
Bonnes pratiques étendues La rubrique Bonnes pratiques Amazon Redshift a été élargie, réorganisée et déplacée vers le haut de la hiérarchie de navigation pour la rendre plus visible. 28 mai 2014
Exécution de la commande UNLOAD vers un seul fichier La commande UNLOAD peut éventuellement décharger les données de la table en série vers un seul fichier sur Amazon S3 en ajoutant l'option PARALLEL OFF. Si la taille des données est supérieure à la taille de fichier maximale de 6,2 Go, la commande UNLOAD crée des fichiers supplémentaires. 6 mai 2014
Fonctions REGEXP Les fonctions REGEXP_COUNT, REGEXP_INSTR, et REGEXP_REPLACE manipulent des chaînes basées sur la mise en correspondance de modèles d'expressions régulières. 6 mai 2014
COPY depuis Amazon EMR

La commande COPY prend en charge le chargement de données directement à partir des clusters Amazon EMR. Pour de plus amples informations, veuillez consulter Chargement de données à partir d’Amazon EMR.

18 avril 2014
Augmentation de la limite de simultanéité WLM

Vous pouvez configurer maintenant la gestion de la charge de travail (WLM) pour exécuter jusqu'à 50 requêtes simultanément dans les files d'attente de requêtes définies par l'utilisateur. Cette augmentation offre aux utilisateurs plus de flexibilité pour la gestion des performances système en modifiant les configurations WLM. Pour de plus amples informations, veuillez consulter .

18 avril 2014
Nouveau paramètre de configuration pour gérer la taille du curseur

Le paramètre de configuration max_cursor_result_set_size définit la taille maximale des données, en mégaoctets, qui peuvent être renvoyées par le jeu de résultats du curseur d'une requête plus grande. Cette valeur de paramètre affecte également le nombre de curseurs simultanés du cluster, ce qui vous permet de configurer une valeur qui augmente ou diminue le nombre de curseurs de votre cluster.

Pour plus d'informations, veuillez consulter la rubrique DECLARE de ce guide et la rubrique Configurer la taille maximale d'un ensemble de résultats de curseur dans le Guide de gestion du cluster Amazon Redshift.

28 mars 2014
Exécution de la commande COPY à partir du format JSON La commande COPY prend en charge le chargement de données au format JSON depuis des fichiers de données sur Amazon S3 et depuis des hôtes distants via SSH. Pour plus d'informations, consultez les notes d'utilisation de Exécution de la commande COPY à partir du format JSON. 25 mars 2014
Nouvelle table système STL_PLAN_INFO La table STL_PLAN_INFO complète la commande EXPLAIN comme autre moyen d'examiner les plans de requête. 25 mars 2014
Nouvelle fonction REGEXP_SUBSTR La fonction Fonction REGEXP_SUBSTR renvoie les caractères extraits d'une chaîne en recherchant un modèle d'expression régulière. 25 mars 2014
Nouvelles colonnes pour STL_COMMIT_STATS La table STL_COMMIT_STATS se compose de deux nouvelles colonnes : numxids et oldestxid. 6 mars 2014
Exécution de la commande COPY à partir de la prise en charge SSH pour gzip et lzop La commande COPY prend en charge la compression gzip et lzop lors du chargement de données via une connexion SSH. 13 février 2014
Nouvelles fonctions La fonction Fonction de fenêtrage ROW_NUMBER renvoie le numéro de la ligne en cours. La fonction Fonction STRTOL convertit une expression de chaîne d'un nombre de la base spécifiée en la valeur de nombre entier équivalente. Les fonctionsPG_CANCEL_BACKEND et PG_TERMINATE_BACKEND permettent aux utilisateurs d'annuler des requêtes et des connexions de session. La fonction LAST_DAY a été ajoutée pour la compatibilité avec Oracle. 13 février 2014
Nouvelle table système La table système STL_COMMIT_STATS fournit des métriques associées à la validation des performances, y compris la chronologie des différentes étapes de validation et le nombre de blocs engagés. 13 février 2014
Exécution de la commande FETCH avec des clusters à nœud unique Lorsque vous utilisez un curseur sur un cluster à nœud unique, le nombre maximal de lignes pouvant être extraites à l'aide de la commande FETCH est de 1 000. La commande FETCH FORWARD ALL n'est pas prise en charge pour les clusters à nœud unique. 13 février 2014
Stratégie de redistribution DS_DIST_ALL_INNER DS_DIST_ALL_INNER dans la sortie du plan Explain indique que la totalité de la table interne a été redistribuée à une seule tranche, car la table externe utilise DISTSTYLE ALL. Pour plus d’informations, consultez Exemples de types de jointures et Évaluation du plan de requête. 13 janvier 2014
Nouvelles tables système pour les requêtes Amazon Redshift a ajouté de nouvelles tables système que les clients peuvent utiliser pour évaluer l'exécution des requêtes à des fins de réglage et de dépannage. Pour plus d'informations, consultez SVL_COMPILE, STL_SCAN, STL_RETURN, STL_SAVE STL_ALERT_EVENT_LOG. 13 janvier 2014
Curseurs à nœud unique Les curseurs sont maintenant pris en charge pour les clusters à nœud unique. Un cluster à nœud unique peut avoir deux curseurs ouverts à la fois, avec un ensemble de résultats maximal de 32 Go. Sur un cluster à nœud unique, nous vous recommandons de définir le paramètre de la taille du cache ODBC sur 1 000. Pour de plus amples informations, veuillez consulter DECLARE. 13 décembre 2013
Style de distribution ALL La distribution ALL peut considérablement raccourcir les durées d'exécution de certains types de requêtes. Lorsqu'une table utilise le style de distribution ALL, une copie de la table est distribuée à chaque nœud. Étant donné que la table est effectivement colocalisée avec toutes les autres tables, aucune redistribution n'est nécessaire au cours de l'exécution des requêtes. La distribution ALL n'est pas appropriée pour toutes les tables, car elle augmente les besoins de stockage et le temps de chargement. Pour de plus amples informations, veuillez consulter Distribution des données pour l'optimisation des requêtes. 11 novembre 2013
Exécution de la commande COPY depuis les hôtes distants Outre le chargement de tables à partir de fichiers de données sur Amazon S3 et à partir de tables Amazon DynamoDB, la commande COPY peut charger des données texte à partir de clusters Amazon EMR, d'instances EC2 Amazon et d'autres hôtes distants à l'aide de connexions SSH. Amazon Redshift utilise plusieurs connexions SSH simultanées pour lire et charger des données en parallèle. Pour de plus amples informations, veuillez consulter Chargement des données à partir des hôtes distants. 11 novembre 2013
Pourcentage de la mémoire WLM utilisée Vous pouvez équilibrer la charge de travail en désignant un pourcentage spécifique de la mémoire pour chaque file d'attente dans la configuration de votre gestion de la charge de travail (WLM). Pour de plus amples informations, veuillez consulter Implémentation de la gestion manuelle de la charge de travail. 11 novembre 2013
APPROXIMATE COUNT(DISTINCT) Les requêtes qui utilisent APPROXIMATE COUNT(DISTINCT) s'exécutent beaucoup plus vite, avec une erreur relative de 2 %. La fonction APPROXIMATIVE COUNT (DISTINCT) utilise un HyperLogLog algorithme. Pour plus d’informations, consultez le Fonction COUNT. 11 novembre 2013
Nouvelles fonctions SQL permettant d'extraire les détails de la requête récente Quatre nouvelles fonctions SQL récupèrent des détails sur les requêtes récentes et les commandes COPY. Les nouvelles fonctions facilitent l'interrogation des tables de journal système et dans de nombreux cas, fournissent des détails nécessaires sans avoir besoin d'accéder aux tables système. Pour plus d'informations, consultez PG_BACKEND_PID, PG_LAST_COPY_ID, PG_LAST_COPY_COUNT, PG_LAST_QUERY_ID. 1er novembre 2013
Option MANIFEST pour UNLOAD L'option MANIFEST pour la commande UNLOAD complète l'option MANIFEST pour la commande COPY. L'utilisation de l'option MANIFEST avec UNLOAD crée automatiquement un fichier manifeste qui liste explicitement les fichiers de données qui ont été créés sur Amazon S3 par l'opération de déchargement. Vous pouvez ensuite utiliser le même fichier manifeste avec une commande COPY pour charger les données. Pour plus d’informations, consultez Déchargement de données vers Amazon S3 et Exemples UNLOAD. 1er novembre 2013
Option MANIFEST pour la commande COPY Vous pouvez utiliser l'option MANIFEST avec la commande COPY pour lister explicitement les fichiers de données qui seront chargés depuis Amazon S3. 18 octobre 2013
Tables système pour dépanner les requêtes Ajout de documentation pour les tables système qui sont utilisées pour dépanner les requêtes. La section Vues STL pour la journalisation contient maintenant la documentation des tables système suivantes : STL_AGGR, STL_BCAST, STL_DIST, STL_DELETE, STL_HASH, STL_HASHJOIN, STL_INSERT, STL_LIMIT, STL_MERGE, STL_MERGEJOIN, STL_NESTLOOP, STL_PARSE, STL_PROJECT, STL_SCAN, STL_SORT, STL_UNIQUE, STL_WINDOW. 3 octobre 2013
Fonction CONVERT_TIMEZONE La fonction Fonction CONVERT_TIMEZONE convertit un horodatage d'un fuseau horaire à un autre, avec la possibilité d'ajuster automatiquement l'heure d'été. 3 octobre 2013
Fonction SPLIT_PART La fonction Fonction SPLIT_PART divise une chaîne sur le délimiteur spécifié et renvoie la partie à la position spécifiée. 3 octobre 2013
Table système STL_USERLOG STL_USERLOG permet d'enregistrer les détails des changements qui se produisent lorsqu'un utilisateur de base de données est créé, modifié ou supprimé. 3 octobre 2013
Encodage de colonne LZO et compression de fichiers LZOP. Le codage par compression de colonne LZO associe un taux de compression très élevé à de bonnes performances. L'exécution de la commande COPY à partir de Amazon S3 prend en charge le chargement des fichiers compressés à l'aide de la compression LZOP. 19 septembre 2013
JSON, expressions régulières et curseurs Prise en charge supplémentaire pour l'analyse des chaînes JSON, la mise en correspondance de modèles à l'aide d'expressions régulières et l'utilisation de curseurs pour récupérer des ensembles de données volumineux via une connexion ODBC. Pour plus d'informations, consultez Fonctions JSON, Conditions de correspondance de modèles et DECLARE. 10 septembre 2013
Option ACCEPTINVCHAR pour la commande COPY Vous pouvez charger correctement les données qui contiennent des caractères UTF-8 valides en spécifiant l'option ACCEPTINVCHAR avec la commande COPY. 29 août 2013
Option CSV pour la commande COPY La commande COPY prend maintenant en charge le chargement à partir des fichiers d'entrée au format CSV. 9 août 2013
CRC32 La fonction CRC32 fonction effectue des contrôles de redondance cyclique. 9 août 2013
Caractères génériques WLM La gestion de la charge de travail (WLM) prend en charge les caractères génériques pour l'ajout de groupes d'utilisateurs et de groupes de requêtes aux files d'attente. Pour de plus amples informations, veuillez consulter Caractères génériques. 1er août 2013
Délai WLM Pour limiter le délai imparti aux requêtes dans une file d’attente WLM donnée, vous pouvez définir la valeur du délai WLM pour chaque file d’attente. Pour de plus amples informations, veuillez consulter Délai WLM. 1er août 2013
Nouvelles options de la commande COPY, « auto » et « epochsecs » La commande COPY effectue une reconnaissance automatique des formats de date et d'heure. Les nouveaux formats d'heure, « epochsecs » et « epochmillisecs » permettent à la commande COPY de charger les données au format epoch. 25 juillet 2013
Fonction CONVERT_TIMEZONE La fonction Fonction CONVERT_TIMEZONE convertit un horodatage d'un fuseau horaire à un autre. 25 juillet 2013
Fonction FUNC_ SHA1 Fonction FUNC_ SHA1 Convertit une chaîne à l'aide de l' SHA1 algorithme. 15 juillet 2013
max_execution_time Pour limiter le délai imparti aux requêtes, vous pouvez définir le paramètre max_execution_time dans le cadre de la configuration de WLM. Pour de plus amples informations, veuillez consulter Modifier la configuration WLM. 22 juillet 2013
Caractères UTF-8 à quatre octets Le type de données VARCHAR prend désormais en charge les caractères UTF-8 à quatre octets. Les caractères UTF-8 à cinq octets et plus ne sont pas pris en charge. Pour de plus amples informations, veuillez consulter Stockage et plages. 18 juillet 2013
SVL_QERROR La vue système SVL_QERROR est obsolète. 12 juillet 2013
Version du document révisée La page Historique du document présente maintenant la date de mise à jour de la documentation. 12 juillet 2013
STL_UNLOAD_LOG La fonction STL_UNLOAD_LOG enregistre les détails d'une opération de déchargement. 5 juillet 2013
Paramètre de taille d'extraction JDBC Pour éviter les erreurs de saturation de mémoire côté client lors de l'extraction d'ensembles de données volumineux à l'aide de JDBC, vous pouvez autoriser votre client à extraire les données par lots en définissant le paramètre de taille d'extraction JDBC. Pour de plus amples informations, veuillez consulter Définition du paramètre de taille d’extraction JDBC. 27 juin 2013
Application de la fonction UNLOAD sur des fichiers chiffrés UNLOAD prend désormais en charge le déchargement des données de table vers des fichiers chiffrés sur Amazon S3. 22 mai 2013
Informations d’identification temporaires Les fonctions COPY et UNLOAD prennent désormais en charge l'utilisation d'informations d'identification temporaires. 11 avril 2013
Ajout de précisions Discussions précisées et étendues sur la conception des tables et le chargement des données. 14 février 2013
Ajout de bonnes pratiques Ajout de Bonnes pratiques Amazon Redshift pour la conception de tables et de Bonnes pratiques de chargement des données sur Amazon Redshift. 14 février 2013
Clarification des contraintes relatives à un mot de passe Clarification des contraintes relatives à un mot de passe pour CREATE USER et ALTER USER, diverses révisions mineures. 14 février 2013

Nouveau guide

Ce document est la première version du Guide du développeur Amazon Redshift. 14 février 2013

Rubrique précédente :

wlm_query_slot_count

Sur cette page

ConfidentialitéConditions d'utilisation du sitePréférences de cookies
© 2025, Amazon Web Services, Inc. ou ses affiliés. Tous droits réservés.