Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Note
Pour obtenir une description des nouvelles fonctionnalités d'Amazon Redshift, consultez la section Nouveautés
Le tableau suivant décrit les modifications importantes apportées à la documentation du guide du développeur de base de données Amazon Redshift après mai 2018. Pour recevoir les notifications de mise à jour de cette documentation, abonnez-vous à un flux RSS.
Version de l’API : 2012-12-01
Pour obtenir la liste des modifications apportées au Guide de gestion Amazon Redshift, veuillez consulter l'historique du document.
Pour plus d'informations sur les nouvelles fonctions, y compris une liste des correctifs et les numéros de version de cluster associés pour chaque version de produit, consultez le Historique des versions de cluster.
Modification | Description | Date |
---|---|---|
Prise en charge de géométries spatiales 3D et 4D et des nouvelles fonctions spatiales | Vous pouvez désormais utiliser des fonctions spatiales supplémentaires et la prise en charge de la géométrie 3D et 4D est ajoutée à certaines fonctions. | 19 août 2021 |
Vous pouvez spécifier l'option ENCODE AUTO pour une table afin de permettre à Amazon Redshift de gérer automatiquement l'encodage de la compression pour toutes les colonnes de la table. | 3 août 2021 | |
Vous pouvez à présent exécuter plusieurs instructions SQL ou une instruction avec des paramètres à l'aide de l'API de données Amazon Redshift. | 28 juillet 2021 | |
Prise en charge du classement insensible à la casse avec des remplacements au niveau des colonnes | Vous pouvez désormais utiliser la clause COLLATE dans une instruction CREATE DATABASE pour spécifier le classement par défaut. | 24 juin 2021 |
Vous pouvez désormais partager des données entre les deux Comptes AWS. | 30 avril 2021 | |
Prise en charge des requêtes de données hiérarchiques avec CTE récursif | Vous pouvez désormais utiliser une expression de table commune récursive (CTE) dans votre SQL. | 29 avril 2021 |
Vous pouvez désormais interroger des données entre les bases de données d'un cluster. | 10 mars 2021 | |
Prise en charge d'un contrôle précis des accès sur les commandes COPY et UNLOAD | Vous pouvez désormais accorder le privilège d'exécution des commandes COPY et UNLOAD à des utilisateurs et groupes spécifiques de votre cluster Amazon Redshift afin de créer une stratégie de contrôle d'accès plus précise. | 12 janvier 2021 |
Prise en charge du JSON natif et des données semi-structurées | Vous pouvez désormais définir le type de données SUPER. | 9 décembre 2020 |
Prise en charge des requêtes fédérées vers MySQL | Vous pouvez désormais écrire une requête fédérée sur un moteur MySQL pris en charge. | 9 décembre 2020 |
Prise en charge du partage de données | Vous pouvez désormais partager des données entre des clusters Amazon Redshift. | 9 décembre 2020 |
Prise en charge de l'optimisation automatique des tables | Vous pouvez désormais définir des clés de distribution et de tri automatiques. | 9 décembre 2020 |
Vous pouvez désormais créer, entraîner et déployer des modèles de machine learning (ML). | 8 décembre 2020 | |
Prise en charge de l'actualisation automatique et de la réécriture des requêtes des vues matérialisées | Vous pouvez désormais conserver les vues matérialisées up-to-date grâce à l'actualisation automatique et les performances des requêtes peuvent être améliorées grâce à la réécriture automatique. | 11 novembre 2020 |
Prise en charge des types de données TIME et TIMETZ | Vous pouvez désormais créer des tables avec des types de données TIME et TIMETZ. Le type de données TIME stocke l'heure du jour sans fuseau horaire tandis que TIMETZ stocke l'heure du jour, dont le fuseau horaire | 11 novembre 2020 |
Vous pouvez désormais écrire Lambda UDFs pour activer la tokenisation externe des données. | 26 octobre 2020 | |
Prise en charge de la modification du codage d'une colonne de table | Vous pouvez désormais modifier le codage d'une colonne de table. | 20 octobre 2020 |
Amazon Redshift peut désormais interroger plusieurs bases de données d'un cluster. | 15 octobre 2020 | |
Amazon Redshift peut désormais stocker et traiter. HyperLogLogSketches | 2 octobre 2020 | |
Prise en charge d'Apache Hudi et de Delta Lake | Des améliorations ont été apportées à la création de tables externes pour Redshift Spectrum. | 24 septembre 2020 |
Prise en charge des améliorations apportées à l'interrogation des données spatiales | Les améliorations incluent le chargement d'un fichier de formes et plusieurs nouvelles fonctions SQL spatiales. | 15 septembre 2020 |
Les vues matérialisées prennent en charge les tables externes | Vous pouvez créer des vues matérialisées dans Amazon Redshift qui font référence à des sources de données externes. | 19 juin 2020 |
Prise en charge de l'écriture dans une table externe | Vous pouvez écrire dans des tables externes en exécutant la commande CREATE EXTERNAL TABLE AS SELECT pour écrire dans une nouvelle table externe ou la commande INSERT INTO pour insérer des données dans une table externe existante. | 8 juin 2020 |
Prise en charge des contrôles de stockage pour les schémas | Les commandes et vues qui gèrent les contrôles de stockage pour les schémas ont été mises à jour. | 2 juin 2020 |
Prise en charge de la disponibilité générale des requêtes fédérées | Mise à jour des informations sur l'interrogation de données avec des requêtes fédérées. | 16 avril 2020 |
Prise en charge de fonctions spatiales supplémentaires | Ajout de descriptions de fonctions spatiales supplémentaires. | 2 avril 2020 |
Disponibilité générale de la prise en charge des vues matérialisées | La disponibilité générale des vues matérialisées est effective à partir de la version de cluster 1.0.13059. | 19 février 2020 |
Prise en charge des privilèges de niveau colonne | Les privilèges de niveau colonne sont disponibles à partir de la version de cluster 1.0.13059. | 19 février 2020 |
ALTER TABLE | Vous pouvez utiliser une commande ALTER TABLE avec la clause ALTER DISTSTYLE ALL pour modifier le style de distribution d'une table. | 11 février 2020 |
Prise en charge des requêtes fédérées | Mise à jour du guide pour décrire des requêtes fédérées avec une commande CREATE EXTERNAL SCHEMA mise à jour. | 3 décembre 2019 |
Prise en charge de l'exportation de lac de données | Mise à jour du guide pour décrire les nouveaux paramètres de la commande UNLOAD. | 3 décembre 2019 |
Prise en charge des données spatiales | Manuel mis à jour pour décrire la prise en charge des données spatiales | 21 novembre 2019 |
Manuel mis à jour pour décrire la nouvelle console Amazon Redshift. | 11 novembre 2019 | |
Prise en charge du tri automatique des tables | Amazon Redshift peut trier automatiquement les données des tables. | 7 novembre 2019 |
Prise en charge de l'option VACUUM BOOST | Vous pouvez utiliser l'option BOOST lorsque vous nettoyez les tables. | 7 novembre 2019 |
Prise en charge des colonnes IDENTITY par défaut | Vous pouvez créer des tables avec des colonnes IDENTITY par défaut. | 19 septembre 2019 |
Vous pouvez encoder certaines colonnes par AZ64 compression. | 19 septembre 2019 | |
Prise en charge de la priorité de requête | Vous pouvez définir la priorité de requête d'une file d'attente WLM automatique. | 22 août 2019 |
Vous pouvez utiliser un catalogue de données Lake Formation avec Amazon Redshift Spectrum. | 8 août 2019 | |
COMPUPDATE PRESET | Vous pouvez utiliser une commande COPY avec COMPUPDATE PRESET pour permettre à Amazon Redshift de choisir l'encodage de compression. | 13 juin 2019 |
ALTER COLUMN | Vous pouvez utiliser une commande ALTER TABLE avec ALTER COLUMN pour augmenter la taille d'une colonne VARCHAR. | 22 mai 2019 |
Prise en charge des procédures stockées | Vous pouvez définir les procédures stockées PL/pgSQL dans Amazon Redshift. | 24 avril 2019 |
Prise en charge de la configuration de la gestion automatique de la charge de travail (WLM) | Vous pouvez permettre à Amazon Redshift de fonctionner en WLM automatique. | 24 avril 2019 |
Commande UNLOAD pour compression Zstandard | Vous pouvez utiliser la commande UNLOAD pour appliquer la compression Zstandard aux fichiers texte et aux fichiers CSV (comma-separated value) déchargés sur Amazon S3. | 3 avril 2019 |
Lorsque la mise à l'échelle de la simultanéité est activée, Amazon Redshift ajoute automatiquement de la capacité de cluster supplémentaire lorsque vous en avez besoin pour traiter une augmentation des requêtes de lecture simultanées. | 21 mars 2019 | |
UNLOAD vers CSV | Vous pouvez utiliser la commande UNLOAD pour décharger vers un fichier au format CSV. | 13 mars 2019 |
Style de distribution AUTO | Pour activer la distribution automatique, vous pouvez spécifier le style de distribution AUTO avec un énoncé CREATE TABLE. Lorsque vous activez la distribution automatique, Amazon Redshift attribue un style de distribution optimal en fonction des données de la table. Le changement de distribution se produit en arrière-plan, en quelques secondes. | 23 janvier 2019 |
La commande COPY depuis Parquet prend en charge SMALLINT | La commande COPY prend désormais en charge le chargement de fichiers au format Parquet en colonnes qui utilisent le type de données SMALLINT. Pour plus d'informations, consultez COPY à partir de Formats de données en colonnes. | 2 janvier 2019 |
DROP EXTERNAL DATABASE | Vous pouvez supprimer une base de données externe en incluant la clause DROP EXTERNAL DATABASE avec une commande DROP SCHEMA. | 3 décembre 2018 |
Opération UNLOAD entre régions | Vous pouvez DÉCHARGER dans un compartiment Amazon S3 d'une autre AWS région en spécifiant le paramètre REGION. | 31 octobre 2018 |
Suppression de vide automatique | Amazon Redshift exécute automatiquement une opération VACUUM DELETE en arrière-plan, de sorte que vous avez rarement, voire jamais, besoin d'exécuter un DELETE ONLY vacuum. Amazon Redshift planifie l'exécution de VACUUM DELETE pendant les périodes de charge réduite et interrompt l'opération pendant les périodes de charge élevée. | 31 octobre 2018 |
Lorsque vous ne spécifiez pas de style de distribution avec une instruction CREATE TABLE, Amazon Redshift attribue un style de distribution optimal basé sur les données de la table. Le changement de distribution se produit en arrière-plan, en quelques secondes. | 31 octobre 2018 | |
Vous pouvez désormais définir les niveaux d'accès aux données stockées dans le AWS Glue Data Catalog. | 15 octobre 2018 | |
Opération UNLOAD avec types de données | Vous pouvez spécifier l'option MANIFEST VERBOSE avec une commande UNLOAD pour ajouter les métadonnées au fichier manifeste, y compris les noms et les types de données des colonnes, les tailles de fichiers et les nombres de lignes. | 10 octobre 2018 |
Ajout de plusieurs partitions à l'aide d'une seule instruction ALTER TABLE | Pour les tables externes Redshift Spectrum, vous pouvez combiner plusieurs clauses PARTITION en une seule instruction ALTER TABLE ADD. Pour plus d'informations, consultez Exemples de modification d'une table externe. | 10 octobre 2018 |
UNLOAD avec en-tête | Vous pouvez spécifier l'option HEADER avec une commande UNLOAD pour ajouter une ligne d'en-tête contenant des noms de colonne en haut de chaque fichier de sortie. | 19 septembre 2018 |
Nouvelles vues et table système | De la documentation sur SVL_S3Retries, SVL_USER_INFO et STL_DISK_FULL_DIAG a été ajoutée. | 31 août 2018 |
Prise en charge de données imbriquées dans Amazon Redshift Spectrum | Vous pouvez désormais soumettre une requête de données imbriquées dans les tables Amazon Redshift Spectrum. Pour plus d'informations, consultez Didacticiel : Faire une requête de données imbriquées avec Amazon Redshift Spectrum. | 8 août 2018 |
ARC activé par défaut. | L'accélération de requête courte (ARC) est désormais activée par défaut pour tous les nouveaux clusters. L'ARC utilise le machine learning afin d'offrir des performances supérieures, des résultats plus rapides et une meilleure prévisibilité des temps d'exécution des requêtes. Pour plus d'informations, voir Accélération de requête courte. | 8 août 2018 |
Amazon Redshift Advisor | Vous pouvez désormais obtenir des recommandations personnalisées sur la façon d'améliorer les performances de votre cluster et de réduire les coûts de fonctionnement à partir d'Amazon Redshift Advisor. Pour plus d'informations, consultez Amazon Redshift Advisor. | 26 juillet 2018 |
Référence d'alias immédiate | Vous pouvez désormais faire référence à une expression d'alias immédiatement après l'avoir définie. Pour plus d'informations, consultez Liste SELECT. | 18 juillet 2018 |
Spécification du type de compression lors de la création d'une table externe | Vous pouvez désormais spécifier le type de compression lors de la création d'une table externe avec Amazon Redshift Spectrum. Pour plus d'informations, consultez Création de tables externes. | 27 juin 2018 |
PG_LAST_UNLOAD_ID | Ajout de la documentation relative à une nouvelle fonction d'informations système : PG_LAST_UNLOAD_ID. Pour plus d'informations, consultez PG_LAST_UNLOAD_ID. | 27 juin 2018 |
ALTER TABLE RENAME COLUMN | ALTER TABLE prend désormais en charge le changement de nom de colonnes pour les tables externes. Pour plus d'informations, consultez Exemples de modification d'une table externe. | 7 juin 2018 |
Mises à jour antérieures
Le tableau suivant décrit les modifications importantes apportées à chaque version du Guide du développeur de la base de données Amazon Redshift avant juin 2018.
Modification | Description | Date de modification |
---|---|---|
La commande COPY depuis Parquet inclut SMALLINT | La commande COPY prend désormais en charge le chargement de fichiers au format Parquet en colonnes qui utilisent le type de données SMALLINT. Pour de plus amples informations, veuillez consulter . |
2 janvier 2019 |
COPY depuis les formats de données en colonnes | COPY prend désormais en charge le chargement à partir de fichiers sur Amazon S3 qui utilisent les formats de données en colonnes Parquet et ORC. Pour de plus amples informations, veuillez consulter . |
17 mai 2018 |
Durée d'exécution maximale dynamique pour SQA | Par défaut, WLM attribue dynamiquement une valeur à l'exécution maximale SQA en fonction de l'analyse de la charge de travail de votre cluster. Pour de plus amples informations, veuillez consulter Durée d’exécution maximale pour les requêtes courtes. |
17 mai 2018 |
Nouvelle colonne dans STL_LOAD_COMMITS | La table système STL_LOAD_COMMITS comporte une nouvelle colonne, |
10 mai 2018 |
Nouvelles colonnes de STL_HASHJOIN et autres tables des journaux systèmes | La table système STL_HASHJOIN comporte trois nouvelles colonnes, |
17 mai 2018 |
Nouvelles colonnes dans STL_AGGR | La table système STL_AGGR se compose de deux nouvelles colonnes, |
19 avril 2018 |
Nouvelles options pour les fonctions REGEX | Pour les fonctions REGEXP_INSTR et REGEXP_SUBSTR, vous pouvez à présent spécifier quel occurrence d'une correspondance utiliser et si la correspondance doit être sensible à la casse. REGEXP_INSTR vous permet aussi de spécifier s'il faut retourner la position du premier caractère de la correspondance ou celle du premier caractère après la fin de la correspondance. |
22 mars 2018 |
Nouvelles colonnes dans les tables système | Les colonnes tombstonedblocks, tossedblocks et batched_by columns ont été ajoutées à la table système STL_COMMIT_STATS. La colonne localslice a été ajoutée à la vue système STV_SLICES. | 22 mars 2018 |
Ajout et suppression de colonnes dans les tables externes | ALTER TABLE prend désormais en charge ADD COLUMN et DROP COLUMN pour les tables externes Amazon Redshift Spectrum. | 22 mars 2018 |
Redshift Spectrum : nouvelles régions AWS | Redshift Spectrum est désormais disponible dans les régions de Mumbai et São Paulo. Pour obtenir une liste des régions prises en charge, consultez Régions Amazon Redshift Spectrum. | 22 mars 2018 |
La limite de table est passée à 20 000 | Le nombre maximal de tables est maintenant de 20 000 pour les nœuds de cluster de type 8xlarge. La limite pour les nœuds de types large et xlarge est de 9 900. Pour de plus amples informations, veuillez consulter Limites et quotas. |
13 mars 2018 |
Prise en charge de Redshift Spectrum pour JSON et Ion | Avec Redshift Spectrum, vous pouvez référencer des fichiers avec des données scalaires aux formats de données JSON ou Ion. Pour de plus amples informations, veuillez consulter CREATE EXTERNAL TABLE. |
26 février 2018 |
Chaînage de rôles IAM pour Redshift Spectrum | Vous pouvez enchaîner les rôles AWS Identity and Access Management (IAM) afin que votre cluster puisse assumer d'autres rôles non attachés au cluster, y compris des rôles appartenant à un autre AWS compte. Pour de plus amples informations, veuillez consulter Créer des rôles IAM dans Amazon Redshift Spectrum. |
1 février 2018 |
ADD PARTITION prend en charge IF NOT EXISTS | La clause ADD PARTITION pour ALTER TABLE prend désormais en charge une option IF NOT EXISTS. Pour de plus amples informations, veuillez consulter ALTER TABLE. | 11 janvier 2018 |
Données DATE pour les tables externes | Les tables externes Redshift Spectrum prennent désormais en charge le type de données DATE. Pour de plus amples informations, veuillez consulter CREATE EXTERNAL TABLE. | 11 janvier 2018 |
Redshift Spectrum : nouvelles régions AWS | Redshift Spectrum est désormais disponible dans les régions de Singapour, Sydney, Séoul et Francfort. Pour obtenir la liste des AWS régions prises en charge, consultezRégions Amazon Redshift Spectrum. | 16 novembre 2017 |
Accélération des requêtes courtes dans la gestion des charges de travail (WLM) d'Amazon Redshift | L’accélération des requêtes courtes (SQA) établit la priorité des requêtes de courte durée sélectionnées sur les requêtes de longue durée. La SQA exécute des requêtes de courte durée dans un espace dédié, afin que les requêtes SQA ne soient pas forcées d'attendre dans des files d'attente derrière les requêtes de longue durée. Avec la SQA, les requêtes de courte durée commencent à s'exécuter plus rapidement et les utilisateurs obtiennent les résultats plus rapidement. Pour de plus amples informations, veuillez consulter Accélération des requêtes courtes. | 16 novembre 2017 |
WLM réaffecte les requêtes replacées | Au lieu d'annuler et de relancer une requête sautée, la gestion de la charge de travail (WLM) d'Amazon Redshift réaffecte désormais les requêtes admissibles à une nouvelle file d'attente. Lorsque WLM réaffecte une requête, elle déplace la requête dans la nouvelle file d'attente et continue l'exécution, ce qui permet de gagner du temps et d'économiser des ressources système. Les requêtes replacées qui ne peuvent pas être réaffectées sont redémarrées ou annulées. Pour de plus amples informations, veuillez consulter Saut de file d’attente des requêtes WLM. | 16 novembre 2017 |
Accès aux journaux système pour les utilisateurs | Dans la plupart des tableaux de journaux système visibles des utilisateurs, les lignes générées par un autre utilisateur sont invisibles pour un utilisateur standard par défaut. Pour autoriser un utilisateur standard à voir toutes les lignes des tableaux visibles des utilisateurs, y compris les lignes générées par un autre utilisateur, exécutez ALTER USER ou CREATE USER et définissez le paramètre SYSLOG ACCESS sur UNRESTRICTED. | 16 novembre 2017 |
Mise en cache du résultat | Avec Mise en cache du résultat , lorsque vous exécutez une requête, Amazon Redshift met en cache le résultat. Lorsque vous exécutez à nouveau la requête, Amazon Redshift recherche une copie valide mise en cache du résultat de la requête. Si une correspondance est trouvée dans le cache des résultats, Amazon Redshift utilise le résultat mis en cache et n'exécute pas la requête. La mise en cache du résultat est activée par défaut. Pour désactiver la mise en cache du résultat, définissez le paramètre de configuration enable_result_cache_for_session sur off . |
16 novembre 2017 |
Fonctions de métadonnées de colonne | PG_GET_COLS et PG_GET_LATE_BINDING_VIEW_COLS renvoient les métadonnées des colonnes pour les tables, les vues et les vues à liaison tardive d'Amazon Redshift. | 16 novembre 2017 |
Saut de file d'attente WLM pour CTAS | La gestion des charges de travail (WLM) d'Amazon Redshift prend désormais en charge le saut de file d'attente des requêtes pour les déclarations CREATE TABLE AS (CTAS) ainsi que les requêtes en lecture seule, telles que les déclarations SELECT. Pour de plus amples informations, veuillez consulter Saut de file d’attente des requêtes WLM. | 19 octobre 2017 |
Fichiers manifestes Amazon Redshift Spectrum | Lorsque vous créez une table externe Redshift Spectrum, vous pouvez spécifier un fichier manifeste qui répertorie les emplacements des fichiers de données sur Amazon S3. Pour de plus amples informations, veuillez consulter CREATE EXTERNAL TABLE. | 19 octobre 2017 |
Amazon Redshift Spectrum AWS : nouvelles régions | Redshift Spectrum est désormais disponible dans les régions UE (Irlande) et Asie-Pacifique (Tokyo). Pour obtenir la liste des AWS régions prises en charge, consultezLimites d'Amazon Redshift Spectrum. | 19 octobre 2017 |
Amazon Redshift Spectrum a ajouté des formats de fichiers | Vous pouvez désormais créer des tables externes Redshift Spectrum basées sur les formats de fichier de données Regex, OpenCSV et Avro. Pour de plus amples informations, veuillez consulter CREATE EXTERNAL TABLE. | 5 octobre 2017 |
Pseudocolonnes pour tables externes Amazon Redshift Spectrum | Vous pouvez sélectionner les pseudo-colonnes $path et $size dans une table externe Redshift Spectrum pour afficher l'emplacement et la taille des fichiers de données référencés dans Amazon S3. Pour de plus amples informations, veuillez consulter Pseudocolonnes. |
5 octobre 2017 |
Fonctions de validation JSON | Vous pouvez utiliser les fonctions IS_VALID_JSON et IS_VALID_JSON_ARRAY pour vérifier le formatage JSON. Les autres fonctions JSON disposent désormais d'un argument null_if_invalid facultatif. |
5 octobre 2017 |
LISTAGG DISTINCT | Vous pouvez utiliser la clause DISTINCT avec la fonction d'agrégation LISTAGG et la fonction de fenêtre LISTAGG pour éliminer les valeurs en double dans l'expression spécifiée avant de procéder à la concaténation. | 5 octobre 2017 |
Affichage des noms de colonnes en majuscules | Pour afficher les noms de colonnes en majuscules dans les résultats SELECT, vous pouvez définir le paramètre de configuration describe_field_name_in_uppercase sur true . |
5 octobre 2017 |
Ignorer les lignes d'en-tête dans les tables externes | Vous pouvez définir la propriété skip.header.line.count de la commande CREATE EXTERNAL TABLE de manière à ignorer les lignes d'en-tête au début des fichiers de données Redshift Spectrum. |
5 octobre 2017 |
Nombre de lignes d’analyse | Les règles de contrôle des requêtes WLM utilisent la métrique scan_row_count pour retourner le nombre de lignes d'une étape d'analyse. Le nombre de lignes correspond au nombre total de lignes émises avant le filtrage des lignes marquées pour la suppression (lignes fantôme) et avant l’application des filtres de requête définis par l’utilisateur. Pour de plus amples informations, veuillez consulter Métriques de surveillance des requêtes pour cluster Amazon Redshift provisionné. | 21 septembre 2017 |
Fonctions SQL définies par l'utilisateur | Une fonction scalaire SQL définie par l'utilisateur intègre une clause SELECT SQL qui s'exécute lorsque la fonction est appelée et renvoie une valeur unique. Pour de plus amples informations, veuillez consulter SQL scalaire UDFs. | 31 août 2017 |
Vues à liaison tardive | Une vue à liaison tardive n'est pas liée aux objets de base de données sous-jacents, tels que les tables et les fonctions définies par l'utilisateur. Par conséquent, il n’y a aucune dépendance entre la vue et les objets auxquels elle fait référence. Vous pouvez créer une vue même si les objets référencés n’existent pas. Parce qu’il n’y a aucune dépendance, vous pouvez supprimer ou modifier un objet référencé sans affecter la vue. Amazon Redshift ne vérifie pas les dépendances tant que la vue n'est pas interrogée. Pour créer une vue à liaison tardive, spécifiez la clause WITH NO SCHEMA BINDING avec l'instruction CREATE VIEW. Pour de plus amples informations, veuillez consulter CREATE VIEW. | 31 août 2017 |
Fonction OCTET_LENGTH | OCTET_LENGTH renvoie la longueur de la chaîne spécifiée en tant que nombre d'octets. | 18 août 2017 |
Types de fichier ORC et Grok pris en charge | Amazon Redshift Spectrum prend désormais en charge les formats de données ORC et Grok pour les fichiers de données Redshift Spectrum. Pour de plus amples informations, veuillez consulter Fichiers de données pour les requêtes dans Amazon Redshift Spectrum. | 18 août 2017 |
RegexSerDe désormais pris en charge | Amazon Redshift Spectrum prend désormais en charge RegexSerDe le format de données. Pour de plus amples informations, veuillez consulter Fichiers de données pour les requêtes dans Amazon Redshift Spectrum. | 19 juillet 2017 |
Nouvelles colonnes ajoutées à SVV_TABLES et SVV_COLUMNS | Les colonnes domain_name et remarks ont été ajoutées à SVV_COLUMNS. Une colonne de remarques a été ajoutée à SVV_TABLES. |
19 juillet 2017 |
Vues système SVV_TABLES et SVV_COLUMNS | Les vues système SVV_TABLES et SVV_COLUMNS fournissent des informations sur les colonnes et d'autres détails relatifs aux tables et aux vues locales et externes. | 7 juillet 2017 |
VPC n'est plus nécessaire pour Amazon Redshift Spectrum avec le métastore Hive d'Amazon EMR | Redshift Spectrum a supprimé l'exigence selon laquelle le cluster Amazon Redshift et le cluster Amazon EMR doivent être dans le même VPC et le même sous-réseau lors de l'utilisation d'un métastore Amazon EMR Hive. Pour de plus amples informations, veuillez consulter Utiliser des catalogues externes dans Amazon Redshift Spectrum. | 7 juillet 2017 |
Exécution de la commande UNLOAD vers des fichiers de taille inférieure | Par défaut, UNLOAD crée plusieurs fichiers sur Amazon S3 d'une taille maximale de 6,2 Go. Pour créer des fichiers plus petits, spécifiez MAXFILESIZE avec la commande UNLOAD. Vous pouvez spécifier une taille de fichier maximale située entre 5 Mo et 6,2 Go. Pour de plus amples informations, veuillez consulter UNLOAD. | 7 juillet 2017 |
TABLE PROPERTIES | Vous pouvez maintenant définir le paramètre numRows de TABLE PROPERTIES pour CREATE EXTERNAL TABLE ou ALTER TABLE afin de mettre à jour les statistiques de table pour refléter le nombre de lignes dans la table. | 6 juin 2017 |
ANALYZE PREDICATE COLUMNS | Pour gagner du temps et économiser des ressources de cluster, vous pouvez choisir d'analyser uniquement les colonnes susceptibles d'être utilisées comme prédicats. Lorsque vous exécutez ANALYZE avec la clause PREDICATE COLUMNS, l'opération d'analyse inclut uniquement les colonnes qui ont été utilisées dans une jointure, une condition de filtre ou une clause group by, ou qui sont utilisées en tant que clé de tri ou clé de distribution. Pour de plus amples informations, veuillez consulter Analyse des tables. | 25 mai 2017 |
Stratégies IAM pour Amazon Redshift Spectrum | Pour accorder l'accès à un compartiment Amazon S3 en n'utilisant que Redshift Spectrum, vous pouvez inclure une condition qui autorise l'accès pour l'agent utilisateur AWS
Redshift/Spectrum . Pour de plus amples informations, veuillez consulter Politiques IAM pour Amazon Redshift Spectrum. |
25 mai 2017 |
Analyse récursive d'Amazon Redshift Spectrum | Redshift Spectrum analyse désormais les fichiers dans les sous-dossiers ainsi que le dossier spécifié dans Amazon S3. Pour de plus amples informations, veuillez consulter Tables externes pour Redshift Spectrum. | 25 mai 2017 |
Règles de surveillance de requête | À l’aide des règles de surveillance des requêtes WLM, vous pouvez définir des limites de performance basées sur des métriques pour les files d’attente WLM et spécifier l’action à entreprendre lorsqu’une requête dépasse ces limites — log, hop ou abort. Vous définissez les règles de surveillance de requête dans le cadre de la configuration de la gestion de la charge de travail (WLM). Pour de plus amples informations, veuillez consulter Règles de surveillance de requête WLM. | 21 avril 2017 |
Amazon Redshift Spectrum | Grâce à Redshift Spectrum, vous pouvez interroger et récupérer efficacement des données à partir de fichiers dans Amazon S3 sans avoir à charger les données dans des tables. Les requêtes Redshift Spectrum s'exécutent très rapidement contre les grands ensembles de données car Redshift Spectrum analyse les fichiers de données directement dans Amazon S3. Une grande partie du traitement s'effectue dans la couche Amazon Redshift Spectrum, et la plupart des données restent dans Amazon S3. Plusieurs clusters peuvent interroger simultanément le même jeu de données sur Amazon S3 sans qu'il soit nécessaire de faire des copies des données pour chaque cluster. Pour de plus amples informations, veuillez consulter . | 19 avril 2017 |
Nouvelles tables système pour la prise en charge de Redshift Spectrum | Les nouvelles vues système suivantes ont été ajoutées afin de prendre en charge Redshift Spectrum : | 19 avril 2017 |
Fonction d'agrégation APPROXIMATE PERCENTILE_DISC | La fonction d'agrégation APPROXIMATE PERCENTILE_DISC est désormais disponible. | 4 avril 2017 |
Chiffrement côté serveur avec KMS | Vous pouvez désormais décharger des données vers Amazon S3 en utilisant le chiffrement côté serveur avec une clé AWS Key Management Service (SSE-KMS). En outre, COPY charge désormais de manière transparente les fichiers de données chiffrées par KMS depuis Amazon S3. Pour de plus amples informations, veuillez consulter UNLOAD. | 9 février 2017 |
Nouvelle syntaxe d'autorisation | Vous pouvez désormais utiliser les paramètres IAM_ROLE, MASTER_SYMMETRIC_KEY, ACCESS_KEY_ID, SECRET_ACCESS_KEY et SESSION_TOKEN pour fournir des informations d'autorisation et d'accès pour les commandes COPY, UNLOAD et CREATE LIBRARY. La nouvelle syntaxe d'autorisation constitue une façon plus flexible de fournir un argument de chaîne au paramètre CREDENTIALS. Pour de plus amples informations, veuillez consulter Paramètres d’autorisation. | 9 février 2017 |
Augmentation de la limite des schémas | Vous pouvez désormais créer jusqu'à 9 900 schémas par cluster. Pour de plus amples informations, veuillez consulter CREATE SCHEMA. | 9 février 2017 |
Encodage de table par défaut | CREATE TABLE et ALTER TABLE attribuent une compression LZO à la plupart des nouvelles colonnes. Les colonnes définies comme des clés de tri avec le type de données BOOLEAN, REAL ou DOUBLE PRECISION et les tables temporaires se voient attribuer une compression RAW par défaut. Pour de plus amples informations, veuillez consulter ENCODE. | 6 février 2017 |
Encodage de compression ZSTD | Amazon Redshift prend désormais en charge le codage par compression de colonne ZSTD. | 19 janvier 2017 |
Fonctions d'agrégation PERCENTILE_CONT et MEDIAN | PERCENTILE_CONT et MEDIAN sont désormais disponibles en tant que fonctions d'agrégation et fonctions de fenêtrage. | 19 janvier 2017 |
Journalisation utilisateur UDF (fonction définie par l'utilisateur) | Vous pouvez utiliser le module de journalisation Python pour créer des messages d'erreur et d'avertissement définis par l'utilisateur dans votre UDFs. Après l'exécution d'une requête, vous pouvez interroger la vue système SVL_UDF_LOG pour récupérer les messages journalisés. Pour plus d'informations sur les messages définis par l'utilisateur, consultez Erreurs de journalisation et avertissements en Python UDFs | 8 décembre 2016 |
Estimation de la réduction avec ANALYZE COMPRESSION | La commande ANALYZE COMPRESSION indique maintenant une estimation pour le pourcentage de réduction de l'espace sur le disque pour chaque colonne. Pour de plus amples informations, veuillez consulter ANALYZE COMPRESSION. | 10 novembre 2016 |
Limites de connexions | Vous pouvez maintenant définir une limite pour le nombre de connexions à la base de données qu'un utilisateur est autorisé à ouvrir simultanément. Vous pouvez également limiter le nombre de connexions simultanées pour une base de données. Pour plus d’informations, consultez CREATE USER et CREATE DATABASE. | 10 novembre 2016 |
Amélioration de l'ordre de tri avec COPY | La commande COPY ajoute maintenant automatiquement des lignes nouvelles à la région triée de la table lorsque vous chargez vos données dans l'ordre des clés de tri. Pour connaître les conditions d'activation de cette amélioration, consultez Chargez vos données dans l'ordre des clés de tri | 10 novembre 2016 |
CTAS avec compression | CREATE TABLE AS (CTAS) attribue désormais automatiquement les encodages de compression aux nouvelles tables en fonction du type de données de la colonne. Pour de plus amples informations, veuillez consulter Héritage des attributs de colonne et de table. | 28 octobre 2016 |
Type de données d'horodatage avec fuseau horaire | Amazon Redshift prend désormais en charge un type de données timestamp avec fuseau horaire (TIMESTAMPTZ). En outre, plusieurs nouvelles fonctions ont été ajoutées pour prendre en charge le nouveau type de données. Pour de plus amples informations, veuillez consulter Fonctions de date et d’heure. | 29 septembre 2016 |
Seuil d’analyse | Pour réduire le temps de traitement et améliorer les performances globales du système des opérations ANALYSE, Amazon Redshift ignore l'analyse d'une table si le pourcentage de lignes qui ont été modifiées depuis l'exécution de la dernière commande ANALYZE est inférieur au seuil d'analyse spécifié par le paramètre analyze_threshold_percent. Par défaut, analyze_threshold_percent est 10. |
9 août 2016 |
Nouvelle table système STL_RESTARTED_SESSIONS | Lorsque Amazon Redshift redémarre une session, STL_RESTARTED_SESSIONS enregistre le nouvel identifiant de processus (PID) et l'ancien PID. | 9 août 2016 |
Mise à jour de la documentation Fonctions Date et heure | Ajout d'un résumé des fonctions avec des liens vers la rubrique Fonctions de date et d’heure et mise à jour des références de la fonction à des fins de cohérence. | 24 juin 2016 |
Nouvelles colonnes dans STL_CONNECTION_LOG | La table système STL_CONNECTION_LOG comporte deux nouvelles colonnes pour suivre les connexions SSL. Si vous chargez régulièrement les journaux d’audit dans une table Amazon Redshift, vous devrez ajouter les nouvelles colonnes suivantes à la table cible : sslcompression et sslexpansion. | 5 mai 2016 |
MD5-mot de passe de hachage | Vous pouvez spécifier le mot de passe d'une ALTER USER commande CREATE USER or en fournissant la chaîne MD5 -hash du mot de passe et du nom d'utilisateur. | 21 avril 2016 |
Nouvelle colonne dans STV_TBL_PERM | La colonne backup dans la vue système STV_TBL_PERM indique si la table est incluse dans les instantanés du cluster. Pour de plus amples informations, veuillez consulter BACKUP. |
21 avril 2016 |
Tables sans sauvegarde | Pour les tables, telles que les tables intermédiaires, qui ne contiennent pas de données critiques, vous pouvez spécifier BACKUP NO dans votre instruction CREATE TABLE ou CREATE TABLE AS afin d'empêcher Amazon Redshift d'inclure la table dans les instantanés automatiques ou manuels. L'utilisation de tables sans sauvegarde permet d'économiser du temps lors de la création d'instantanés et de la restauration à partir d'instantanés et réduit l'espace de stockage sur Amazon S3. | 7 avril 2016 |
Seuil de suppression de VACUUM | Par défaut, la commande VACUUM permet maintenant de récupérer de l'espace, tel qu'au moins 95 % des lignes restantes ne sont pas marquées pour suppression. Par conséquent, la phase de suppression de la commande VACUUM est généralement beaucoup plus rapide que la phase de récupération de 100 % des lignes supprimées. Vous pouvez changer le seuil par défaut pour une seule table en incluant le paramètre TO threshold PERCENT lorsque vous exécutez la commande VACUUM. | 7 avril 2016 |
Table système SVV_TRANSACTIONS | La vue système SVV_TRANSACTIONS enregistre des informations sur les transactions qui maintiennent actuellement les verrous dans les tables de la base de données. | 7 avril 2016 |
Utilisation des rôles IAM pour accéder à d'autres ressources AWS | Pour déplacer des données entre votre cluster et une autre AWS ressource, telle qu'Amazon S3, DynamoDB, Amazon EMR ou EC2 Amazon, votre cluster doit être autorisé à accéder à la ressource et à effectuer les actions nécessaires. Comme alternative plus sécurisée pour fournir une paire de clés d'accès avec des commandes COPY, UNLOAD ou CREATE LIBRARY, vous pouvez maintenant spécifier un rôle IAM que votre cluster utilise pour l'authentification et l'autorisation. Pour de plus amples informations, veuillez consulter Contrôle d’accès basé sur les rôles. | 29 mars 2016 |
Seuil de tri VACUUM | La commande VACUUM ignore maintenant la phase de tri des tables dans lesquelles plus de 95 % des lignes de la table sont déjà triées. Vous pouvez changer le seuil de tri par défaut pour une seule table en incluant le paramètre TO threshold PERCENT lorsque vous exécutez la commande VACUUM. | 17 mars 2016 |
Nouvelles colonnes dans STL_CONNECTION_LOG | La table système STL_CONNECTION_LOG contient trois nouvelles colonnes. Si vous chargez régulièrement des journaux d'audit dans une table Amazon Redshift, vous devrez ajouter les nouvelles colonnes suivantes à la table cible : sslversion, sslcipher et mtu. | 17 mars 2016 |
UNLOAD avec la compression bzip2 | Vous avez maintenant la possibilité d'exécuter la commande UNLOAD à l'aide de la compression bzip2. | 8 février 2016 |
ALTER TABLE APPEND | ALTER TABLE APPEND ajoute des lignes à une table cible en déplaçant les données à partir d'une table source existante. ALTER TABLE APPEND est généralement beaucoup plus rapide qu’une opération CREATE TABLE AS ou INSERT INTO semblable, car les données sont déplacées, pas dupliquées. | 8 février 2016 |
Saut de file d’attente des requêtes WLM | Si la gestion de la charge de travail (WLM) annule une requête en lecture seule, telle qu'une instruction SELECT, en raison d'un délai WLM, WLM tente d'acheminer la requête vers la prochaine file d'attente correspondante. Pour de plus amples informations, veuillez consulter . | 7 janvier 2016 |
ALTER DEFAULT PRIVILEGES | Vous pouvez utiliser la commande ALTER DEFAULT PRIVILEGES pour définir le groupe de privilèges d'accès par défaut sur des objets qui seront créés à l'avenir par l'utilisateur spécifié. | 10 décembre 2015 |
Compression d'un fichier bzip2 | La commande COPY prend en charge le chargement de données à partir de fichiers qui ont été compressés à l'aide de bzip2. | 10 décembre 2015 |
NULLS FIRST et NULLS LAST | Vous pouvez spécifier si une clause ORDER BY doit classer les valeurs NULLS en premier ou en dernier dans l'ensemble de résultats. Pour plus d’informations, consultez Clause ORDER BY et Récapitulatif de la syntaxe de la fonction de fenêtrage. | 19 novembre 2015 |
Mot-clé REGION pour CREATE LIBRARY | Si le compartiment Amazon S3 qui contient les fichiers de bibliothèque UDF ne réside pas dans la même AWS région que votre cluster Amazon Redshift, vous pouvez utiliser l'option REGION pour spécifier la région dans laquelle se trouvent les données. Pour de plus amples informations, veuillez consulter CREATE LIBRARY. | 19 novembre 2015 |
Fonctions scalaires définies par l'utilisateur () UDFs | Vous pouvez désormais créer des fonctions scalaires personnalisées définies par l'utilisateur pour implémenter des fonctionnalités de traitement non SQL fournies soit par les modules pris en charge par Amazon Redshift dans la bibliothèque standard Python 2.7, soit par vos propres fonctions personnalisées UDFs basées sur le langage de programmation Python. Pour de plus amples informations, veuillez consulter Fonctions définies par l'utilisateur dans Amazon Redshift. | 11 septembre 2015 |
Propriétés dynamiques de la configuration WLM | Le paramètre de configuration WLM prend désormais en charge l’application dynamique de certaines propriétés. D’autres propriétés restent statiques et nécessitent que les clusters associés soient redémarrés afin que les modifications de configuration puissent être appliquées. Pour plus d’informations, consultez Propriétés de configuration dynamiques et statiques WLM et Gestion de la charge de travail. | 3 août 2015 |
Fonction LISTAGG | Les fonctions Fonction LISTAGG et Fonction de fenêtrage LISTAGG renvoient une chaîne créée en concaténant un ensemble de valeurs de la colonne. | 30 juillet 2015 |
Paramètre obsolète | Le paramètre de configuration max_cursor_result_set_size est obsolète. La taille des ensembles de résultats de curseur est restreinte en fonction du type de nœud du cluster. Pour de plus amples informations, veuillez consulter Contraintes de curseur. |
24 juillet 2015 |
Documentation de commande COPY révisée | La référence de commande COPY a été considérablement révisée pour rendre le matériel plus convivial et plus accessible. | 15 juillet 2015 |
Exécuter la commande COPY depuis le format Avro | La commande COPY prend en charge le chargement de données au format Avro à partir de fichiers de données sur Amazon S3, Amazon EMR, et à partir d'hôtes distants via SSH. Pour plus d’informations, consultez AVRO et Copier depuis des exemples Avro. | 8 juillet 2015 |
STV_STARTUP_RECOVERY_STATE | La table système STV_STARTUP_RECOVERY_STATE enregistre l'état des tables qui sont temporairement verrouillées pendant les opérations de redémarrage du cluster. Amazon Redshift place un verrou temporaire sur les tables pendant qu'elles sont traitées pour résoudre les transactions devenues obsolètes à la suite d'un redémarrage du cluster. | 25 mai 2015 |
Clause ORDER BY facultative pour classer les fonctions | La clause ORDER BY est désormais facultative pour certaines fonctions de rang de fenêtre. Pour plus d'informations, consultez Fonction de fenêtrage CUME_DIST, Fonction de fenêtrage DENSE_RANK, Fonction de fenêtrage RANK, Fonction de fenêtrage NTILE, Fonction de fenêtrage PERCENT_RANK et Fonction de fenêtrage ROW_NUMBER. | 25 mai 2015 |
Clés de tri entrelacées | Les clés de tri entrelacées donnent un poids égal à chaque colonne dans la clé de tri. L'utilisation des clés de tri entrelacées au lieu des clés composées par défaut améliore nettement les performances des requêtes qui utilisent des prédicats restrictifs sur les colonnes de tri secondaire, surtout pour les grandes tables. Le tri entrelacé améliore également la performance globale lorsque plusieurs requêtes filtrent différentes colonnes dans la même table. Pour plus d’informations, consultez Clés de tri et CREATE TABLE. | le 11 mai 2015 |
Rubrique Réglage de performances des requêtes révisée | La rubrique Réglage des performances des requêtes a été étendue afin d'inclure de nouvelles requêtes pour analyser les performances des requêtes et d'autres exemples. La rubrique a également été révisée de manière à être plus claire et plus complète. Bonnes pratiques Amazon Redshift pour la conception de requêtes contient des informations supplémentaires sur la façon d'écrire des requêtes pour améliorer les performances. | 23 mars 2015 |
SVL_QUERY_QUEUE_INFO | La vue SVL_QUERY_QUEUE_INFO résume les détails des requêtes qui ont passé du temps dans une file d'attente de requête WLM ou une file d'attente de validation. | le 19 février 2015 |
SVV_TABLE_INFO | Vous pouvez utiliser la vue SVV_TABLE_INFO pour diagnostiquer et traiter les problèmes de conception de table qui peuvent influencer les performances des requêtes, y compris les problèmes d'encodage de compression, les clés de distribution, le style de tri, l'asymétrie de la distribution des données, la taille de la table et les statistiques. | le 19 février 2015 |
La commande UNLOAD utilise le chiffrement de fichier côté serveur | La commande UNLOAD utilise désormais automatiquement le chiffrement côté serveur (SSE) d'Amazon S3 pour chiffrer tous les fichiers de données de déchargement. Le chiffrement côté serveur ajoute une autre couche de sécurité de données avec peu ou pas de modification de performances. | 31 octobre 2014 |
Fonction de fenêtrage CUME_DIST | La fonction Fonction de fenêtrage CUME_DIST calcule la distribution cumulée d'une valeur au sein d'une fenêtre ou une partition. | 31 octobre 2014 |
Fonction MONTHS_BETWEEN | La fonction Fonction MONTHS_BETWEEN détermine le nombre de mois entre deux dates. | 31 octobre 2014 |
Fonction NEXT_DAY | La fonction Fonction NEXT_DAY renvoie la date de la première instance d'une date spécifiée qui est ultérieure à la date donnée. | 31 octobre 2014 |
Fonction de fenêtrage PERCENT_RANK | La fonction Fonction de fenêtrage PERCENT_RANK calcule le rang en pourcentage d'une ligne donnée. | 31 octobre 2014 |
Fonction de fenêtrage RATIO_TO_REPORT | La fonction Fonction de fenêtrage RATIO_TO_REPORT calcule le ratio d'une valeur par rapport à la somme des valeurs dans une fenêtre ou une partition. | 31 octobre 2014 |
Fonction TRANSLATE | La fonction Fonction TRANSLATE remplace toutes les occurrences de caractères spécifiés au sein d'une expression donnée par des produits de remplacement spécifiés. | 31 octobre 2014 |
NVL2 fonction | La fonction NVL2 fonction renvoie l'une des deux valeurs selon qu'une expression spécifique a une valeur NULL ou NOT NULL. | 16 octobre 2014 |
Fonction de fenêtrage MEDIAN | La fonction Fonction de fenêtrage MEDIAN calcule la valeur médiane de la plage de valeurs dans une fenêtre ou une partition. | 16 octobre 2014 |
Clause ON ALL TABLES IN SCHEMA schema_name pour les commandes GRANT et REVOKE | Les commandes GRANT et REVOKE ont été mises à jour avec une clause ON ALL TABLES IN SCHEMA schema_name. Cette clause vous permet d'utiliser une simple commande pour modifier les privilèges de toutes les tables dans un schéma. | 16 octobre 2014 |
Clause IF EXISTS pour les commandes DROP SCHEMA, DROP TABLE, DROP USER, et DROP VIEW | Les commandes DROP SCHEMA, DROP TABLE, DROP USER, et DROP VIEW ont été mises à jour avec une clause IF EXISTS. Cette clause empêche la commande de faire des modifications et renvoie un message plutôt que de s'arrêter avec une erreur si l'objet spécifié n'existe pas. | 16 octobre 2014 |
Clause IF NOT EXISTS pour les commandes CREATE SCHEMA et CREATE TABLE | Les commandes CREATE SCHEMA et CREATE TABLE ont été mises à jour avec une clause IF NOT EXISTS. Cette clause empêche la commande de faire des modifications et renvoie un message plutôt que de s'arrêter avec une erreur si l'objet spécifié existe déjà. | 16 octobre 2014 |
Prise en charge de la commande COPY pour l'encodage UTF-16 | La commande COPY prend désormais en charge le chargement de fichiers de données qui utilisent l'encodage UTF-16, ainsi que l'encodage UTF-8. Pour de plus amples informations, veuillez consulter ENCODING. | 29 septembre 2014 |
Nouveau didacticiel Gestion de la charge de travail | Didacticiel : Configuration des files d'attente de gestion manuelle de la charge de travail vous guide à travers le processus de configuration des files d'attente de gestion de la charge de travail (WLM) pour améliorer le traitement des requêtes et l'allocation des ressources. | 25 septembre 2014 |
Chiffrement AES 128 bits. | La commande COPY prend désormais en charge le chiffrement AES 128 bits ainsi que le chiffrement AES 256 bits lors du chargement à partir de fichiers de données chiffrées à l'aide du chiffrement côté client d'Amazon S3. Pour de plus amples informations, veuillez consulter Chargement de fichiers de données chiffrés à partir d’Amazon S3. | 29 septembre 2014 |
Fonction PG_LAST_UNLOAD_COUNT | La fonction PG_LAST_UNLOAD_COUNT renvoie le nombre de lignes qui ont été traitées lors de l'opération UNLOAD la plus récente. Pour de plus amples informations, veuillez consulter PG_LAST_UNLOAD_COUNT. | 15 septembre 2014 |
Nouvelle section Dépannage des requêtes | Résolution des problèmes de requêtes fournit une référence rapide pour identifier et résoudre certains des problèmes les plus courants et les plus graves que vous êtes susceptibles de rencontrer avec les requêtes Amazon Redshift. | le 7 juillet 2014 |
Nouveau didacticiel Chargement des données | Didacticiel : chargement des données à partir d’Amazon S3 vous guide du début à la fin du processus de chargement de données dans vos tables de base de données Amazon Redshift à partir de fichiers de données dans un compartiment Amazon S3. | 1 juillet 2014 |
Fonction de fenêtrage PERCENTILE_CONT | La fonction Fonction de fenêtrage PERCENTILE_CONT est une fonction de distribution inverse qui suppose un modèle de distribution continue. Elle prend une valeur de centile et une spécification de tri, et renvoie une valeur interpolée qui entre dans la catégorie de la valeur de centile donnée en ce qui concerne la spécification de tri. | 30 juin 2014 |
Fonction de fenêtrage PERCENTILE_DISC | La fonction Fonction de fenêtrage PERCENTILE_DISC est une fonction de distribution inverse qui suppose un modèle de distribution discrète. Elle prend une valeur de centile et une spécification de tri et renvoie un élément de l'ensemble. | 30 juin 2014 |
Fonctions GREATEST et LEAST | Les fonctions Fonctions GREATEST et LEAST renvoient la valeur plus grande ou la plus petite à partir d'une liste d'expressions. | 30 juin 2014 |
Exécution de la commande COPY entre régions | La commande COPY prend en charge le chargement de données à partir d'un compartiment Amazon S3 ou d'une table Amazon DynamoDB qui se trouve dans une région différente de celle du cluster Amazon Redshift. Pour plus d’informations, consultez REGION dans la référence de la commande COPY. | 30 juin 2014 |
Bonnes pratiques étendues | La rubrique Bonnes pratiques Amazon Redshift a été élargie, réorganisée et déplacée vers le haut de la hiérarchie de navigation pour la rendre plus visible. | 28 mai 2014 |
Exécution de la commande UNLOAD vers un seul fichier | La commande UNLOAD peut éventuellement décharger les données de la table en série vers un seul fichier sur Amazon S3 en ajoutant l'option PARALLEL OFF. Si la taille des données est supérieure à la taille de fichier maximale de 6,2 Go, la commande UNLOAD crée des fichiers supplémentaires. | 6 mai 2014 |
Fonctions REGEXP | Les fonctions REGEXP_COUNT, REGEXP_INSTR, et REGEXP_REPLACE manipulent des chaînes basées sur la mise en correspondance de modèles d'expressions régulières. | 6 mai 2014 |
COPY depuis Amazon EMR | La commande COPY prend en charge le chargement de données directement à partir des clusters Amazon EMR. Pour de plus amples informations, veuillez consulter Chargement de données à partir d’Amazon EMR. |
18 avril 2014 |
Augmentation de la limite de simultanéité WLM | Vous pouvez configurer maintenant la gestion de la charge de travail (WLM) pour exécuter jusqu'à 50 requêtes simultanément dans les files d'attente de requêtes définies par l'utilisateur. Cette augmentation offre aux utilisateurs plus de flexibilité pour la gestion des performances système en modifiant les configurations WLM. Pour de plus amples informations, veuillez consulter . |
18 avril 2014 |
Nouveau paramètre de configuration pour gérer la taille du curseur | Le paramètre de configuration Pour plus d'informations, veuillez consulter la rubrique DECLARE de ce guide et la rubrique Configurer la taille maximale d'un ensemble de résultats de curseur dans le Guide de gestion du cluster Amazon Redshift. |
28 mars 2014 |
Exécution de la commande COPY à partir du format JSON | La commande COPY prend en charge le chargement de données au format JSON depuis des fichiers de données sur Amazon S3 et depuis des hôtes distants via SSH. Pour plus d'informations, consultez les notes d'utilisation de Exécution de la commande COPY à partir du format JSON. | 25 mars 2014 |
Nouvelle table système STL_PLAN_INFO | La table STL_PLAN_INFO complète la commande EXPLAIN comme autre moyen d'examiner les plans de requête. | 25 mars 2014 |
Nouvelle fonction REGEXP_SUBSTR | La fonction Fonction REGEXP_SUBSTR renvoie les caractères extraits d'une chaîne en recherchant un modèle d'expression régulière. | 25 mars 2014 |
Nouvelles colonnes pour STL_COMMIT_STATS | La table STL_COMMIT_STATS se compose de deux nouvelles colonnes : numxids et oldestxid . |
6 mars 2014 |
Exécution de la commande COPY à partir de la prise en charge SSH pour gzip et lzop | La commande COPY prend en charge la compression gzip et lzop lors du chargement de données via une connexion SSH. | 13 février 2014 |
Nouvelles fonctions | La fonction Fonction de fenêtrage ROW_NUMBER renvoie le numéro de la ligne en cours. La fonction Fonction STRTOL convertit une expression de chaîne d'un nombre de la base spécifiée en la valeur de nombre entier équivalente. Les fonctionsPG_CANCEL_BACKEND et PG_TERMINATE_BACKEND permettent aux utilisateurs d'annuler des requêtes et des connexions de session. La fonction LAST_DAY a été ajoutée pour la compatibilité avec Oracle. | 13 février 2014 |
Nouvelle table système | La table système STL_COMMIT_STATS fournit des métriques associées à la validation des performances, y compris la chronologie des différentes étapes de validation et le nombre de blocs engagés. | 13 février 2014 |
Exécution de la commande FETCH avec des clusters à nœud unique | Lorsque vous utilisez un curseur sur un cluster à nœud unique, le nombre maximal de lignes pouvant être extraites à l'aide de la commande FETCH est de 1 000. La commande FETCH FORWARD ALL n'est pas prise en charge pour les clusters à nœud unique. | 13 février 2014 |
Stratégie de redistribution DS_DIST_ALL_INNER | DS_DIST_ALL_INNER dans la sortie du plan Explain indique que la totalité de la table interne a été redistribuée à une seule tranche, car la table externe utilise DISTSTYLE ALL. Pour plus d’informations, consultez Exemples de types de jointures et Évaluation du plan de requête. | 13 janvier 2014 |
Nouvelles tables système pour les requêtes | Amazon Redshift a ajouté de nouvelles tables système que les clients peuvent utiliser pour évaluer l'exécution des requêtes à des fins de réglage et de dépannage. Pour plus d'informations, consultez SVL_COMPILE, STL_SCAN, STL_RETURN, STL_SAVE STL_ALERT_EVENT_LOG. | 13 janvier 2014 |
Curseurs à nœud unique | Les curseurs sont maintenant pris en charge pour les clusters à nœud unique. Un cluster à nœud unique peut avoir deux curseurs ouverts à la fois, avec un ensemble de résultats maximal de 32 Go. Sur un cluster à nœud unique, nous vous recommandons de définir le paramètre de la taille du cache ODBC sur 1 000. Pour de plus amples informations, veuillez consulter DECLARE. | 13 décembre 2013 |
Style de distribution ALL | La distribution ALL peut considérablement raccourcir les durées d'exécution de certains types de requêtes. Lorsqu'une table utilise le style de distribution ALL, une copie de la table est distribuée à chaque nœud. Étant donné que la table est effectivement colocalisée avec toutes les autres tables, aucune redistribution n'est nécessaire au cours de l'exécution des requêtes. La distribution ALL n'est pas appropriée pour toutes les tables, car elle augmente les besoins de stockage et le temps de chargement. Pour de plus amples informations, veuillez consulter Distribution des données pour l'optimisation des requêtes. | 11 novembre 2013 |
Exécution de la commande COPY depuis les hôtes distants | Outre le chargement de tables à partir de fichiers de données sur Amazon S3 et à partir de tables Amazon DynamoDB, la commande COPY peut charger des données texte à partir de clusters Amazon EMR, d'instances EC2 Amazon et d'autres hôtes distants à l'aide de connexions SSH. Amazon Redshift utilise plusieurs connexions SSH simultanées pour lire et charger des données en parallèle. Pour de plus amples informations, veuillez consulter Chargement des données à partir des hôtes distants. | 11 novembre 2013 |
Pourcentage de la mémoire WLM utilisée | Vous pouvez équilibrer la charge de travail en désignant un pourcentage spécifique de la mémoire pour chaque file d'attente dans la configuration de votre gestion de la charge de travail (WLM). Pour de plus amples informations, veuillez consulter Implémentation de la gestion manuelle de la charge de travail. | 11 novembre 2013 |
APPROXIMATE COUNT(DISTINCT) | Les requêtes qui utilisent APPROXIMATE COUNT(DISTINCT) s'exécutent beaucoup plus vite, avec une erreur relative de 2 %. La fonction APPROXIMATIVE COUNT (DISTINCT) utilise un HyperLogLog algorithme. Pour plus d’informations, consultez le Fonction COUNT. | 11 novembre 2013 |
Nouvelles fonctions SQL permettant d'extraire les détails de la requête récente | Quatre nouvelles fonctions SQL récupèrent des détails sur les requêtes récentes et les commandes COPY. Les nouvelles fonctions facilitent l'interrogation des tables de journal système et dans de nombreux cas, fournissent des détails nécessaires sans avoir besoin d'accéder aux tables système. Pour plus d'informations, consultez PG_BACKEND_PID, PG_LAST_COPY_ID, PG_LAST_COPY_COUNT, PG_LAST_QUERY_ID. | 1er novembre 2013 |
Option MANIFEST pour UNLOAD | L'option MANIFEST pour la commande UNLOAD complète l'option MANIFEST pour la commande COPY. L'utilisation de l'option MANIFEST avec UNLOAD crée automatiquement un fichier manifeste qui liste explicitement les fichiers de données qui ont été créés sur Amazon S3 par l'opération de déchargement. Vous pouvez ensuite utiliser le même fichier manifeste avec une commande COPY pour charger les données. Pour plus d’informations, consultez Déchargement de données vers Amazon S3 et Exemples UNLOAD. | 1er novembre 2013 |
Option MANIFEST pour la commande COPY | Vous pouvez utiliser l'option MANIFEST avec la commande COPY pour lister explicitement les fichiers de données qui seront chargés depuis Amazon S3. | 18 octobre 2013 |
Tables système pour dépanner les requêtes | Ajout de documentation pour les tables système qui sont utilisées pour dépanner les requêtes. La section Vues STL pour la journalisation contient maintenant la documentation des tables système suivantes : STL_AGGR, STL_BCAST, STL_DIST, STL_DELETE, STL_HASH, STL_HASHJOIN, STL_INSERT, STL_LIMIT, STL_MERGE, STL_MERGEJOIN, STL_NESTLOOP, STL_PARSE, STL_PROJECT, STL_SCAN, STL_SORT, STL_UNIQUE, STL_WINDOW. | 3 octobre 2013 |
Fonction CONVERT_TIMEZONE | La fonction Fonction CONVERT_TIMEZONE convertit un horodatage d'un fuseau horaire à un autre, avec la possibilité d'ajuster automatiquement l'heure d'été. | 3 octobre 2013 |
Fonction SPLIT_PART | La fonction Fonction SPLIT_PART divise une chaîne sur le délimiteur spécifié et renvoie la partie à la position spécifiée. | 3 octobre 2013 |
Table système STL_USERLOG | STL_USERLOG permet d'enregistrer les détails des changements qui se produisent lorsqu'un utilisateur de base de données est créé, modifié ou supprimé. | 3 octobre 2013 |
Encodage de colonne LZO et compression de fichiers LZOP. | Le codage par compression de colonne LZO associe un taux de compression très élevé à de bonnes performances. L'exécution de la commande COPY à partir de Amazon S3 prend en charge le chargement des fichiers compressés à l'aide de la compression LZOP. | 19 septembre 2013 |
JSON, expressions régulières et curseurs | Prise en charge supplémentaire pour l'analyse des chaînes JSON, la mise en correspondance de modèles à l'aide d'expressions régulières et l'utilisation de curseurs pour récupérer des ensembles de données volumineux via une connexion ODBC. Pour plus d'informations, consultez Fonctions JSON, Conditions de correspondance de modèles et DECLARE. | 10 septembre 2013 |
Option ACCEPTINVCHAR pour la commande COPY | Vous pouvez charger correctement les données qui contiennent des caractères UTF-8 valides en spécifiant l'option ACCEPTINVCHAR avec la commande COPY. | 29 août 2013 |
Option CSV pour la commande COPY | La commande COPY prend maintenant en charge le chargement à partir des fichiers d'entrée au format CSV. | 9 août 2013 |
CRC32 | La fonction CRC32 fonction effectue des contrôles de redondance cyclique. | 9 août 2013 |
Caractères génériques WLM | La gestion de la charge de travail (WLM) prend en charge les caractères génériques pour l'ajout de groupes d'utilisateurs et de groupes de requêtes aux files d'attente. Pour de plus amples informations, veuillez consulter Caractères génériques. | 1er août 2013 |
Délai WLM | Pour limiter le délai imparti aux requêtes dans une file d’attente WLM donnée, vous pouvez définir la valeur du délai WLM pour chaque file d’attente. Pour de plus amples informations, veuillez consulter Délai WLM. | 1er août 2013 |
Nouvelles options de la commande COPY, « auto » et « epochsecs » | La commande COPY effectue une reconnaissance automatique des formats de date et d'heure. Les nouveaux formats d'heure, « epochsecs » et « epochmillisecs » permettent à la commande COPY de charger les données au format epoch. | 25 juillet 2013 |
Fonction CONVERT_TIMEZONE | La fonction Fonction CONVERT_TIMEZONE convertit un horodatage d'un fuseau horaire à un autre. | 25 juillet 2013 |
Fonction FUNC_ SHA1 | Fonction FUNC_ SHA1 Convertit une chaîne à l'aide de l' SHA1 algorithme. | 15 juillet 2013 |
max_execution_time | Pour limiter le délai imparti aux requêtes, vous pouvez définir le paramètre max_execution_time dans le cadre de la configuration de WLM. Pour de plus amples informations, veuillez consulter Modifier la configuration WLM. | 22 juillet 2013 |
Caractères UTF-8 à quatre octets | Le type de données VARCHAR prend désormais en charge les caractères UTF-8 à quatre octets. Les caractères UTF-8 à cinq octets et plus ne sont pas pris en charge. Pour de plus amples informations, veuillez consulter Stockage et plages. | 18 juillet 2013 |
SVL_QERROR | La vue système SVL_QERROR est obsolète. | 12 juillet 2013 |
Version du document révisée | La page Historique du document présente maintenant la date de mise à jour de la documentation. | 12 juillet 2013 |
STL_UNLOAD_LOG | La fonction STL_UNLOAD_LOG enregistre les détails d'une opération de déchargement. | 5 juillet 2013 |
Paramètre de taille d'extraction JDBC | Pour éviter les erreurs de saturation de mémoire côté client lors de l'extraction d'ensembles de données volumineux à l'aide de JDBC, vous pouvez autoriser votre client à extraire les données par lots en définissant le paramètre de taille d'extraction JDBC. Pour de plus amples informations, veuillez consulter Définition du paramètre de taille d’extraction JDBC. | 27 juin 2013 |
Application de la fonction UNLOAD sur des fichiers chiffrés | UNLOAD prend désormais en charge le déchargement des données de table vers des fichiers chiffrés sur Amazon S3. | 22 mai 2013 |
Informations d’identification temporaires | Les fonctions COPY et UNLOAD prennent désormais en charge l'utilisation d'informations d'identification temporaires. | 11 avril 2013 |
Ajout de précisions | Discussions précisées et étendues sur la conception des tables et le chargement des données. | 14 février 2013 |
Ajout de bonnes pratiques | Ajout de Bonnes pratiques Amazon Redshift pour la conception de tables et de Bonnes pratiques de chargement des données sur Amazon Redshift. | 14 février 2013 |
Clarification des contraintes relatives à un mot de passe | Clarification des contraintes relatives à un mot de passe pour CREATE USER et ALTER USER, diverses révisions mineures. | 14 février 2013 |
Nouveau guide |
Ce document est la première version du Guide du développeur Amazon Redshift. | 14 février 2013 |