Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Exemples d'utilisation d'Amazon S3 AWS CLI
Les exemples de code suivants vous montrent comment effectuer des actions et implémenter des scénarios courants à l' AWS Command Line Interface aide d'Amazon S3.
Les actions sont des extraits de code de programmes plus larges et doivent être exécutées dans leur contexte. Les actions vous indiquent comment appeler des fonctions de service individuelles, mais vous pouvez les visualiser dans leur contexte dans les scénarios correspondants.
Chaque exemple inclut un lien vers le code source complet, où vous trouverez des instructions sur la façon de configurer et d'exécuter le code en contexte.
Rubriques
Actions
L'exemple de code suivant montre comment utiliserabort-multipart-upload
.
- AWS CLI
-
Pour annuler le téléchargement partitionné spécifié
La
abort-multipart-upload
commande suivante interrompt le téléchargement partitionné de la clémultipart/01
dans le compartiment.my-bucket
aws s3api abort-multipart-upload \ --bucket
my-bucket
\ --keymultipart/01
\ --upload-iddfRtDYU0WWCCcH43C3WFbkRONycyCpTJJvxu2i5GYkZljF.Yxwh6XG7WfS2vC4to6HiV6Yjlx.cph0gtNBtJ8P3URCSbB7rjxI5iEwVDmgaXZOGgkk5nVTW16HOQ5l0R
L'ID de téléchargement requis par cette commande est généré par
create-multipart-upload
et peut également être récupéré aveclist-multipart-uploads
.-
Pour API plus de détails, voir AbortMultipartUpload
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utilisercomplete-multipart-upload
.
- AWS CLI
-
La commande suivante effectue un téléchargement en plusieurs parties pour la clé contenue
multipart/01
dans le compartimentmy-bucket
:aws s3api complete-multipart-upload --multipart-upload
file://mpustruct
--bucketmy-bucket
--key 'multipart/01
' --upload-iddfRtDYU0WWCCcH43C3WFbkRONycyCpTJJvxu2i5GYkZljF.Yxwh6XG7WfS2vC4to6HiV6Yjlx.cph0gtNBtJ8P3URCSbB7rjxI5iEwVDmgaXZOGgkk5nVTW16HOQ5l0R
L'ID de téléchargement requis par cette commande est généré par
create-multipart-upload
et peut également être récupéré aveclist-multipart-uploads
.L'option de téléchargement partitionné de la commande ci-dessus utilise une JSON structure qui décrit les parties du téléchargement partitionné qui doivent être réassemblées dans le fichier complet. Dans cet exemple, le
file://
préfixe est utilisé pour charger la JSON structure à partir d'un fichier du dossier local nommémpustruct
.structure :
{ "Parts": [ { "ETag": "e868e0f4719e394144ef36531ee6824c", "PartNumber": 1 }, { "ETag": "6bb2b12753d66fe86da4998aa33fffb0", "PartNumber": 2 }, { "ETag": "d0a0112e841abec9c9ec83406f0159c8", "PartNumber": 3 } ] }
La ETag valeur de chaque partie téléchargée est affichée chaque fois que vous téléchargez une pièce à l'aide de la
upload-part
commande et peut également être récupérée en appelantlist-parts
ou calculée en prenant la MD5 somme de contrôle de chaque partie.Sortie :
{ "ETag": "\"3944a9f7a4faab7f78788ff6210f63f0-3\"", "Bucket": "my-bucket", "Location": "https://my-bucket.s3.amazonaws.com/multipart%2F01", "Key": "multipart/01" }
-
Pour API plus de détails, voir CompleteMultipartUpload
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utilisercopy-object
.
- AWS CLI
-
La commande suivante copie un objet de
bucket-1
versbucket-2
:aws s3api copy-object --copy-source
bucket-1/test.txt
--keytest.txt
--bucketbucket-2
Sortie :
{ "CopyObjectResult": { "LastModified": "2015-11-10T01:07:25.000Z", "ETag": "\"589c8b79c230a6ecd5a7e1d040a9a030\"" }, "VersionId": "YdnYvTCVDqRRFA.NFJjy36p0hxifMlkA" }
-
Pour API plus de détails, voir CopyObject
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utilisercp
.
- AWS CLI
-
Exemple 1 : Copier un fichier local vers S3
La
cp
commande suivante copie un seul fichier dans un compartiment et une clé spécifiés :aws s3 cp
test.txt
s3://mybucket/test2.txt
Sortie :
upload: test.txt to s3://mybucket/test2.txt
Exemple 2 : Copier un fichier local vers S3 avec une date d'expiration
La
cp
commande suivante copie un seul fichier dans un compartiment et une clé spécifiés qui expirent à l'horodatage ISO 8601 spécifié :aws s3 cp
test.txt
s3://mybucket/test2.txt
\ --expires2014-10-01T20:30:00Z
Sortie :
upload: test.txt to s3://mybucket/test2.txt
Exemple 3 : Copier un fichier de S3 vers S3
La
cp
commande suivante copie un seul objet s3 dans un compartiment et une clé spécifiés :aws s3 cp
s3://mybucket/test.txt
s3://mybucket/test2.txt
Sortie :
copy: s3://mybucket/test.txt to s3://mybucket/test2.txt
Exemple 4 : Copier un objet S3 dans un fichier local
La
cp
commande suivante copie localement un seul objet dans un fichier spécifié :aws s3 cp
s3://mybucket/test.txt
test2.txt
Sortie :
download: s3://mybucket/test.txt to test2.txt
Exemple 5 : Copier un objet S3 d'un compartiment à un autre
La
cp
commande suivante copie un seul objet dans un compartiment spécifié tout en conservant son nom d'origine :aws s3 cp
s3://mybucket/test.txt
s3://mybucket2/
Sortie :
copy: s3://mybucket/test.txt to s3://mybucket2/test.txt
Exemple 6 : copie récursive d'objets S3 dans un répertoire local
Lorsqu'elle est passée avec le paramètre
--recursive
, lacp
commande suivante copie de manière récursive tous les objets sous un préfixe et un compartiment spécifiés dans un répertoire spécifié. Dans cet exemple, le compartimentmybucket
contient les objetstest1.txt
ettest2.txt
:aws s3 cp
s3://mybucket
.
\ --recursiveSortie :
download: s3://mybucket/test1.txt to test1.txt download: s3://mybucket/test2.txt to test2.txt
Exemple 7 : copie récursive de fichiers locaux vers S3
Lorsqu'elle est passée avec le paramètre
--recursive
, lacp
commande suivante copie de manière récursive tous les fichiers d'un répertoire spécifié vers un compartiment et un préfixe spécifiés, tout en excluant certains fichiers à l'aide d'un--exclude
paramètre. Dans cet exemple, le répertoiremyDir
contient les fichierstest1.txt
ettest2.jpg
:aws s3 cp
myDir
s3://mybucket/
\ --recursive \ --exclude"*.jpg"
Sortie :
upload: myDir/test1.txt to s3://mybucket/test1.txt
Exemple 8 : copie récursive d'objets S3 vers un autre compartiment
Lorsqu'elle est passée avec le paramètre
--recursive
, lacp
commande suivante copie de manière récursive tous les objets d'un compartiment spécifié vers un autre compartiment tout en excluant certains objets à l'aide d'un--exclude
paramètre. Dans cet exemple, le compartimentmybucket
contient les objetstest1.txt
etanother/test1.txt
:aws s3 cp
s3://mybucket/
s3://mybucket2/
\ --recursive \ --exclude"another/*"
Sortie :
copy: s3://mybucket/test1.txt to s3://mybucket2/test1.txt
Vous pouvez combiner
--exclude
des--include
options pour ne copier que les objets correspondant à un modèle, à l'exclusion de tous les autres :aws s3 cp
s3://mybucket/logs/
s3://mybucket2/logs/
\ --recursive \ --exclude"*"
\ --include"*.log"
Sortie :
copy: s3://mybucket/logs/test/test.log to s3://mybucket2/logs/test/test.log copy: s3://mybucket/logs/test3.log to s3://mybucket2/logs/test3.log
Exemple 9 : Configuration de la liste de contrôle d'accès (ACL) lors de la copie d'un objet S3
La
cp
commande suivante copie un seul objet dans un compartiment et une clé spécifiés tout en définissant la valeur ACL surpublic-read-write
:aws s3 cp
s3://mybucket/test.txt
s3://mybucket/test2.txt
\ --aclpublic-read-write
Sortie :
copy: s3://mybucket/test.txt to s3://mybucket/test2.txt
Notez que si vous utilisez cette
--acl
option, assurez-vous que toutes IAM les politiques associées incluent l'"s3:PutObjectAcl"
action :aws iam get-user-policy \ --user-name
myuser
\ --policy-namemypolicy
Sortie :
{ "UserName": "myuser", "PolicyName": "mypolicy", "PolicyDocument": { "Version": "2012-10-17", "Statement": [ { "Action": [ "s3:PutObject", "s3:PutObjectAcl" ], "Resource": [ "arn:aws:s3:::mybucket/*" ], "Effect": "Allow", "Sid": "Stmt1234567891234" } ] } }
Exemple 10 : Octroi d'autorisations pour un objet S3
La
cp
commande suivante illustre l'utilisation de l'--grants
option permettant d'accorder l'accès en lecture à tous les utilisateurs identifiés par URI et le contrôle total à un utilisateur spécifique identifié par son identifiant canonique :aws s3 cp
file.txt
s3://mybucket/
--grantsread=uri=http://acs.amazonaws.com/groups/global/AllUsers
full=id=79a59df900b949e55d96a1e698fbacedfd6e09d98eacf8f8d5218e7cd47ef2be
Sortie :
upload: file.txt to s3://mybucket/file.txt
Exemple 11 : Chargement d'un flux de fichiers local vers S3
PowerShell peut modifier le codage d'une entrée canalisée ou CRLF en ajouter une.
La
cp
commande suivante télécharge un flux de fichiers local depuis l'entrée standard vers un compartiment et une clé spécifiés :aws s3 cp
-
s3://mybucket/stream.txt
Exemple 12 : Chargement d'un flux de fichiers local de plus de 50 Go vers S3
La
cp
commande suivante télécharge un flux de fichiers local de 51 Go depuis l'entrée standard vers un compartiment et une clé spécifiés. L'--expected-size
option doit être fournie, sinon le téléchargement risque d'échouer lorsqu'il atteint la limite de 10 000 parties par défaut :aws s3 cp
-
s3://mybucket/stream.txt
--expected-size54760833024
Exemple 13 : Téléchargement d'un objet S3 en tant que flux de fichiers local
PowerShell peut modifier le codage ou ajouter une CRLF sortie canalisée ou redirigée.
La
cp
commande suivante télécharge un objet S3 localement sous forme de flux vers la sortie standard. Le téléchargement sous forme de flux n'est actuellement pas compatible avec le--recursive
paramètre :aws s3 cp
s3://mybucket/stream.txt
-
Exemple 14 : Téléchargement vers un point d'accès S3
La
cp
commande suivante télécharge un seul fichier (mydoc.txt
) vers le point d'accès (myaccesspoint
) au niveau de la touche (mykey
) :aws s3 cp
mydoc.txt
s3://arn:aws:s3:us-west-2:123456789012:accesspoint/myaccesspoint/mykey
Sortie :
upload: mydoc.txt to s3://arn:aws:s3:us-west-2:123456789012:accesspoint/myaccesspoint/mykey
Exemple 15 : Téléchargement depuis un point d'accès S3
La
cp
commande suivante télécharge un seul objet (mykey
) du point d'accès (myaccesspoint
) vers le fichier local (mydoc.txt
) :aws s3 cp
s3://arn:aws:s3:us-west-2:123456789012:accesspoint/myaccesspoint/mykey
mydoc.txt
Sortie :
download: s3://arn:aws:s3:us-west-2:123456789012:accesspoint/myaccesspoint/mykey to mydoc.txt
-
Pour API plus de détails, voir Cp
dans AWS CLI Command Reference.
-
L'exemple de code suivant montre comment utilisercreate-bucket
.
- AWS CLI
-
Exemple 1 : pour créer un bucket
L'
create-bucket
exemple suivant crée un compartiment nommémy-bucket
:aws s3api create-bucket \ --bucket
my-bucket
\ --regionus-east-1
Sortie :
{ "Location": "/my-bucket" }
Pour plus d'informations, consultez la section Création d'un compartiment dans le guide de l'utilisateur Amazon S3.
Exemple 2 : pour créer un bucket avec l'obligation du propriétaire
L'
create-bucket
exemple suivant crée un bucket nommémy-bucket
qui utilise le paramètre imposé par le propriétaire du bucket pour S3 Object Ownership.aws s3api create-bucket \ --bucket
my-bucket
\ --regionus-east-1
\ --object-ownershipBucketOwnerEnforced
Sortie :
{ "Location": "/my-bucket" }
Pour plus d'informations, consultez la section Contrôle de la propriété des objets et désactivation ACLs dans le guide de l'utilisateur Amazon S3.
Exemple 3 : Pour créer un bucket en dehors de la région ``us-east-1``
L'
create-bucket
exemple suivant crée un compartiment nommémy-bucket
dans laeu-west-1
région. Les régions situées en dehors deus-east-1
doivent être spécifiées afin de créer le compartiment dans la région souhaitée.LocationConstraint
aws s3api create-bucket \ --bucket
my-bucket
\ --regioneu-west-1
\ --create-bucket-configurationLocationConstraint=eu-west-1
Sortie :
{ "Location": "http://my-bucket.s3.amazonaws.com/" }
Pour plus d'informations, consultez la section Création d'un compartiment dans le guide de l'utilisateur Amazon S3.
-
Pour API plus de détails, voir CreateBucket
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utilisercreate-multipart-upload
.
- AWS CLI
-
La commande suivante crée un téléchargement partitionné dans le bucket
my-bucket
avec la clémultipart/01
:aws s3api create-multipart-upload --bucket
my-bucket
--key 'multipart/01
'Sortie :
{ "Bucket": "my-bucket", "UploadId": "dfRtDYU0WWCCcH43C3WFbkRONycyCpTJJvxu2i5GYkZljF.Yxwh6XG7WfS2vC4to6HiV6Yjlx.cph0gtNBtJ8P3URCSbB7rjxI5iEwVDmgaXZOGgkk5nVTW16HOQ5l0R", "Key": "multipart/01" }
Le fichier terminé sera nommé
01
dans un dossier appelémultipart
dans le compartimentmy-bucket
. Enregistrez l'ID de téléchargement, la clé et le nom du compartiment à utiliser avec laupload-part
commande.-
Pour API plus de détails, voir CreateMultipartUpload
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserdelete-bucket-analytics-configuration
.
- AWS CLI
-
Pour supprimer une configuration d'analyse pour un bucket
L'
delete-bucket-analytics-configuration
exemple suivant supprime la configuration d'analyse pour le bucket et l'ID spécifiés.aws s3api delete-bucket-analytics-configuration \ --bucket
my-bucket
\ --id1
Cette commande ne produit aucun résultat.
-
Pour API plus de détails, voir DeleteBucketAnalyticsConfiguration
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserdelete-bucket-cors
.
- AWS CLI
-
La commande suivante supprime une configuration de partage de ressources entre origines d'un compartiment nommé :
my-bucket
aws s3api delete-bucket-cors --bucket
my-bucket
-
Pour API plus de détails, voir DeleteBucketCors
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserdelete-bucket-encryption
.
- AWS CLI
-
Pour supprimer la configuration de chiffrement côté serveur d'un bucket
L'
delete-bucket-encryption
exemple suivant supprime la configuration de chiffrement côté serveur du compartiment spécifié.aws s3api delete-bucket-encryption \ --bucket
my-bucket
Cette commande ne produit aucun résultat.
-
Pour API plus de détails, voir DeleteBucketEncryption
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserdelete-bucket-intelligent-tiering-configuration
.
- AWS CLI
-
Pour supprimer une configuration S3 Intelligent-Tiering sur un bucket
L'
delete-bucket-intelligent-tiering-configuration
exemple suivant supprime une configuration S3 Intelligent-Tiering, nommée ExampleConfig, sur un bucket.aws s3api delete-bucket-intelligent-tiering-configuration \ --bucket
DOC-EXAMPLE-BUCKET
\ --idExampleConfig
Cette commande ne produit aucun résultat.
Pour plus d'informations, consultez la section Utilisation de S3 Intelligent-Tiering dans le guide de l'utilisateur Amazon S3.
-
Pour API plus de détails, voir DeleteBucketIntelligentTieringConfiguration
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserdelete-bucket-inventory-configuration
.
- AWS CLI
-
Pour supprimer la configuration d'inventaire d'un bucket
L'
delete-bucket-inventory-configuration
exemple suivant supprime la configuration d'inventaire avec l'ID1
du compartiment spécifié.aws s3api delete-bucket-inventory-configuration \ --bucket
my-bucket
\ --id1
Cette commande ne produit aucun résultat.
-
Pour API plus de détails, voir DeleteBucketInventoryConfiguration
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserdelete-bucket-lifecycle
.
- AWS CLI
-
La commande suivante supprime une configuration de cycle de vie d'un compartiment nommé
my-bucket
:aws s3api delete-bucket-lifecycle --bucket
my-bucket
-
Pour API plus de détails, voir DeleteBucketLifecycle
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserdelete-bucket-metrics-configuration
.
- AWS CLI
-
Pour supprimer la configuration des métriques d'un bucket
L'
delete-bucket-metrics-configuration
exemple suivant supprime la configuration des métriques pour le bucket et l'ID spécifiés.aws s3api delete-bucket-metrics-configuration \ --bucket
my-bucket
\ --id123
Cette commande ne produit aucun résultat.
-
Pour API plus de détails, voir DeleteBucketMetricsConfiguration
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserdelete-bucket-ownership-controls
.
- AWS CLI
-
Pour supprimer les paramètres de propriété d'un bucket
L'
delete-bucket-ownership-controls
exemple suivant supprime les paramètres de propriété d'un bucket.aws s3api delete-bucket-ownership-controls \ --bucket
DOC-EXAMPLE-BUCKET
Cette commande ne produit aucun résultat.
Pour plus d'informations, consultez la section Définition de la propriété d'un objet sur un compartiment existant dans le guide de l'utilisateur Amazon S3.
-
Pour API plus de détails, voir DeleteBucketOwnershipControls
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserdelete-bucket-policy
.
- AWS CLI
-
La commande suivante supprime une politique de bucket d'un bucket nommé
my-bucket
:aws s3api delete-bucket-policy --bucket
my-bucket
-
Pour API plus de détails, voir DeleteBucketPolicy
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserdelete-bucket-replication
.
- AWS CLI
-
La commande suivante supprime une configuration de réplication d'un compartiment nommé
my-bucket
:aws s3api delete-bucket-replication --bucket
my-bucket
-
Pour API plus de détails, voir DeleteBucketReplication
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserdelete-bucket-tagging
.
- AWS CLI
-
La commande suivante supprime une configuration de balisage d'un compartiment nommé :
my-bucket
aws s3api delete-bucket-tagging --bucket
my-bucket
-
Pour API plus de détails, voir DeleteBucketTagging
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserdelete-bucket-website
.
- AWS CLI
-
La commande suivante supprime une configuration de site Web d'un compartiment nommé
my-bucket
:aws s3api delete-bucket-website --bucket
my-bucket
-
Pour API plus de détails, voir DeleteBucketWebsite
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserdelete-bucket
.
- AWS CLI
-
La commande suivante supprime un bucket nommé
my-bucket
:aws s3api delete-bucket --bucket
my-bucket
--regionus-east-1
-
Pour API plus de détails, voir DeleteBucket
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserdelete-object-tagging
.
- AWS CLI
-
Pour supprimer les ensembles de balises d'un objet
L'
delete-object-tagging
exemple suivant supprime de l'objetdoc1.rtf
la balise avec la clé spécifiée.aws s3api delete-object-tagging \ --bucket
my-bucket
\ --keydoc1.rtf
Cette commande ne produit aucun résultat.
-
Pour API plus de détails, voir DeleteObjectTagging
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserdelete-object
.
- AWS CLI
-
La commande suivante supprime un objet nommé
test.txt
dans un compartiment nommémy-bucket
:aws s3api delete-object --bucket
my-bucket
--keytest.txt
Si le versionnement des compartiments est activé, la sortie contiendra l'ID de version du marqueur de suppression :
{ "VersionId": "9_gKg5vG56F.TTEUdwkxGpJ3tNDlWlGq", "DeleteMarker": true }
Pour plus d'informations sur la suppression d'objets, consultez Supprimer des objets dans le manuel Amazon S3 Developer Guide.
-
Pour API plus de détails, voir DeleteObject
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserdelete-objects
.
- AWS CLI
-
La commande suivante supprime un objet d'un compartiment nommé
my-bucket
:aws s3api delete-objects --bucket
my-bucket
--deletefile://delete.json
delete.json
est un JSON document du répertoire en cours qui indique l'objet à supprimer :{ "Objects": [ { "Key": "test1.txt" } ], "Quiet": false }
Sortie :
{ "Deleted": [ { "DeleteMarkerVersionId": "mYAT5Mc6F7aeUL8SS7FAAqUPO1koHwzU", "Key": "test1.txt", "DeleteMarker": true } ] }
-
Pour API plus de détails, voir DeleteObjects
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserdelete-public-access-block
.
- AWS CLI
-
Pour supprimer la configuration de blocage de l'accès public pour un bucket
L'
delete-public-access-block
exemple suivant supprime la configuration de blocage de l'accès public sur le compartiment spécifié.aws s3api delete-public-access-block \ --bucket
my-bucket
Cette commande ne produit aucun résultat.
-
Pour API plus de détails, voir DeletePublicAccessBlock
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserget-bucket-accelerate-configuration
.
- AWS CLI
-
Pour récupérer la configuration accélérée d'un bucket
L'
get-bucket-accelerate-configuration
exemple suivant récupère la configuration d'accélération pour le compartiment spécifié.aws s3api get-bucket-accelerate-configuration \ --bucket
my-bucket
Sortie :
{ "Status": "Enabled" }
-
Pour API plus de détails, voir GetBucketAccelerateConfiguration
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserget-bucket-acl
.
- AWS CLI
-
La commande suivante permet de récupérer la liste de contrôle d'accès pour un bucket nommé
my-bucket
:aws s3api get-bucket-acl --bucket
my-bucket
Sortie :
{ "Owner": { "DisplayName": "my-username", "ID": "7009a8971cd538e11f6b6606438875e7c86c5b672f46db45460ddcd087d36c32" }, "Grants": [ { "Grantee": { "DisplayName": "my-username", "ID": "7009a8971cd538e11f6b6606438875e7c86c5b672f46db45460ddcd087d36c32" }, "Permission": "FULL_CONTROL" } ] }
-
Pour API plus de détails, voir GetBucketAcl
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserget-bucket-analytics-configuration
.
- AWS CLI
-
Pour récupérer la configuration d'analyse d'un bucket avec un ID spécifique
L'
get-bucket-analytics-configuration
exemple suivant affiche la configuration d'analyse pour le bucket et l'ID spécifiés.aws s3api get-bucket-analytics-configuration \ --bucket
my-bucket
\ --id1
Sortie :
{ "AnalyticsConfiguration": { "StorageClassAnalysis": {}, "Id": "1" } }
-
Pour API plus de détails, voir GetBucketAnalyticsConfiguration
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserget-bucket-cors
.
- AWS CLI
-
La commande suivante extrait la configuration du partage de ressources entre origines pour un compartiment nommé :
my-bucket
aws s3api get-bucket-cors --bucket
my-bucket
Sortie :
{ "CORSRules": [ { "AllowedHeaders": [ "*" ], "ExposeHeaders": [ "x-amz-server-side-encryption" ], "AllowedMethods": [ "PUT", "POST", "DELETE" ], "MaxAgeSeconds": 3000, "AllowedOrigins": [ "http://www.example.com" ] }, { "AllowedHeaders": [ "Authorization" ], "MaxAgeSeconds": 3000, "AllowedMethods": [ "GET" ], "AllowedOrigins": [ "*" ] } ] }
-
Pour API plus de détails, voir GetBucketCors
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserget-bucket-encryption
.
- AWS CLI
-
Pour récupérer la configuration de chiffrement côté serveur pour un bucket
L'
get-bucket-encryption
exemple suivant récupère la configuration de chiffrement côté serveur pour le compartiment.my-bucket
aws s3api get-bucket-encryption \ --bucket
my-bucket
Sortie :
{ "ServerSideEncryptionConfiguration": { "Rules": [ { "ApplyServerSideEncryptionByDefault": { "SSEAlgorithm": "AES256" } } ] } }
-
Pour API plus de détails, voir GetBucketEncryption
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserget-bucket-intelligent-tiering-configuration
.
- AWS CLI
-
Pour récupérer une configuration S3 Intelligent-Tiering sur un bucket
L'
get-bucket-intelligent-tiering-configuration
exemple suivant récupère une configuration S3 Intelligent-Tiering, nommée ExampleConfig, sur un bucket.aws s3api get-bucket-intelligent-tiering-configuration \ --bucket
DOC-EXAMPLE-BUCKET
\ --idExampleConfig
Sortie :
{ "IntelligentTieringConfiguration": { "Id": "ExampleConfig2", "Filter": { "Prefix": "images" }, "Status": "Enabled", "Tierings": [ { "Days": 90, "AccessTier": "ARCHIVE_ACCESS" }, { "Days": 180, "AccessTier": "DEEP_ARCHIVE_ACCESS" } ] } }
Pour plus d'informations, consultez la section Utilisation de S3 Intelligent-Tiering dans le guide de l'utilisateur Amazon S3.
-
Pour API plus de détails, voir GetBucketIntelligentTieringConfiguration
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserget-bucket-inventory-configuration
.
- AWS CLI
-
Pour récupérer la configuration d'inventaire d'un bucket
L'
get-bucket-inventory-configuration
exemple suivant récupère la configuration d'inventaire pour le compartiment spécifié avec l'ID1
.aws s3api get-bucket-inventory-configuration \ --bucket
my-bucket
\ --id1
Sortie :
{ "InventoryConfiguration": { "IsEnabled": true, "Destination": { "S3BucketDestination": { "Format": "ORC", "Bucket": "arn:aws:s3:::my-bucket", "AccountId": "123456789012" } }, "IncludedObjectVersions": "Current", "Id": "1", "Schedule": { "Frequency": "Weekly" } } }
-
Pour API plus de détails, voir GetBucketInventoryConfiguration
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserget-bucket-lifecycle-configuration
.
- AWS CLI
-
La commande suivante permet de récupérer la configuration du cycle de vie d'un compartiment nommé
my-bucket
:aws s3api get-bucket-lifecycle-configuration --bucket
my-bucket
Sortie :
{ "Rules": [ { "ID": "Move rotated logs to Glacier", "Prefix": "rotated/", "Status": "Enabled", "Transitions": [ { "Date": "2015-11-10T00:00:00.000Z", "StorageClass": "GLACIER" } ] }, { "Status": "Enabled", "Prefix": "", "NoncurrentVersionTransitions": [ { "NoncurrentDays": 0, "StorageClass": "GLACIER" } ], "ID": "Move old versions to Glacier" } ] }
-
Pour API plus de détails, voir GetBucketLifecycleConfiguration
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserget-bucket-lifecycle
.
- AWS CLI
-
La commande suivante permet de récupérer la configuration du cycle de vie d'un compartiment nommé
my-bucket
:aws s3api get-bucket-lifecycle --bucket
my-bucket
Sortie :
{ "Rules": [ { "ID": "Move to Glacier after sixty days (objects in logs/2015/)", "Prefix": "logs/2015/", "Status": "Enabled", "Transition": { "Days": 60, "StorageClass": "GLACIER" } }, { "Expiration": { "Date": "2016-01-01T00:00:00.000Z" }, "ID": "Delete 2014 logs in 2016.", "Prefix": "logs/2014/", "Status": "Enabled" } ] }
-
Pour API plus de détails, voir GetBucketLifecycle
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserget-bucket-location
.
- AWS CLI
-
La commande suivante récupère la contrainte d'emplacement pour un compartiment nommé
my-bucket
, s'il en existe une :aws s3api get-bucket-location --bucket
my-bucket
Sortie :
{ "LocationConstraint": "us-west-2" }
-
Pour API plus de détails, voir GetBucketLocation
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserget-bucket-logging
.
- AWS CLI
-
Pour récupérer l'état de journalisation d'un bucket
L'
get-bucket-logging
exemple suivant récupère l'état de journalisation pour le compartiment spécifié.aws s3api get-bucket-logging \ --bucket
my-bucket
Sortie :
{ "LoggingEnabled": { "TargetPrefix": "", "TargetBucket": "my-bucket-logs" } }
-
Pour API plus de détails, voir GetBucketLogging
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserget-bucket-metrics-configuration
.
- AWS CLI
-
Pour récupérer la configuration des métriques d'un bucket avec un ID spécifique
L'
get-bucket-metrics-configuration
exemple suivant affiche la configuration des métriques pour le bucket et l'ID spécifiés.aws s3api get-bucket-metrics-configuration \ --bucket
my-bucket
\ --id123
Sortie :
{ "MetricsConfiguration": { "Filter": { "Prefix": "logs" }, "Id": "123" } }
-
Pour API plus de détails, voir GetBucketMetricsConfiguration
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserget-bucket-notification-configuration
.
- AWS CLI
-
La commande suivante permet de récupérer la configuration des notifications pour un compartiment nommé
my-bucket
:aws s3api get-bucket-notification-configuration --bucket
my-bucket
Sortie :
{ "TopicConfigurations": [ { "Id": "YmQzMmEwM2EjZWVlI0NGItNzVtZjI1MC00ZjgyLWZDBiZWNl", "TopicArn": "arn:aws:sns:us-west-2:123456789012:my-notification-topic", "Events": [ "s3:ObjectCreated:*" ] } ] }
-
Pour API plus de détails, voir GetBucketNotificationConfiguration
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserget-bucket-notification
.
- AWS CLI
-
La commande suivante permet de récupérer la configuration des notifications pour un compartiment nommé
my-bucket
:aws s3api get-bucket-notification --bucket
my-bucket
Sortie :
{ "TopicConfiguration": { "Topic": "arn:aws:sns:us-west-2:123456789012:my-notification-topic", "Id": "YmQzMmEwM2EjZWVlI0NGItNzVtZjI1MC00ZjgyLWZDBiZWNl", "Event": "s3:ObjectCreated:*", "Events": [ "s3:ObjectCreated:*" ] } }
-
Pour API plus de détails, voir GetBucketNotification
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserget-bucket-ownership-controls
.
- AWS CLI
-
Pour récupérer les paramètres de propriété d'un bucket
L'
get-bucket-ownership-controls
exemple suivant récupère les paramètres de propriété d'un bucket.aws s3api get-bucket-ownership-controls \ --bucket
DOC-EXAMPLE-BUCKET
Sortie :
{ "OwnershipControls": { "Rules": [ { "ObjectOwnership": "BucketOwnerEnforced" } ] } }
Pour plus d'informations, consultez la section Affichage du paramètre de propriété de l'objet pour un compartiment S3 dans le guide de l'utilisateur Amazon S3.
-
Pour API plus de détails, voir GetBucketOwnershipControls
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserget-bucket-policy-status
.
- AWS CLI
-
Pour récupérer le statut de la politique d'un compartiment indiquant s'il est public
L'
get-bucket-policy-status
exemple suivant permet de récupérer le statut de la politique pour le compartimentmy-bucket
.aws s3api get-bucket-policy-status \ --bucket
my-bucket
Sortie :
{ "PolicyStatus": { "IsPublic": false } }
-
Pour API plus de détails, voir GetBucketPolicyStatus
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserget-bucket-policy
.
- AWS CLI
-
La commande suivante permet de récupérer la politique de compartiment pour un compartiment nommé
my-bucket
:aws s3api get-bucket-policy --bucket
my-bucket
Sortie :
{ "Policy": "{\"Version\":\"2008-10-17\",\"Statement\":[{\"Sid\":\"\",\"Effect\":\"Allow\",\"Principal\":\"*\",\"Action\":\"s3:GetObject\",\"Resource\":\"arn:aws:s3:::my-bucket/*\"},{\"Sid\":\"\",\"Effect\":\"Deny\",\"Principal\":\"*\",\"Action\":\"s3:GetObject\",\"Resource\":\"arn:aws:s3:::my-bucket/secret/*\"}]}" }
L'exemple policyThe suivant montre comment télécharger une politique de compartiment Amazon S3, apporter des modifications au fichier, puis l'utiliser
put-bucket-policy
pour appliquer la politique de compartiment modifiée. Pour télécharger la politique du bucket dans un fichier, vous pouvez exécuter :aws s3api get-bucket-policy --bucket mybucket --query Policy --output text > policy.json
Vous pouvez ensuite modifier le
policy.json
fichier selon vos besoins. Enfin, vous pouvez réappliquer cette politique modifiée au compartiment S3 en exécutant :policy.json
fichier selon les besoins. Enfin, vous pouvez réappliquer cette politique modifiée au compartiment S3 en exécutant :fichier selon les besoins. Enfin, vous pouvez réappliquer cette politique modifiée au compartiment S3 en exécutant :
aws s3api put-bucket-policy --bucket mybucket --policy file://policy.json
-
Pour API plus de détails, voir GetBucketPolicy
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserget-bucket-replication
.
- AWS CLI
-
La commande suivante permet de récupérer la configuration de réplication pour un compartiment nommé
my-bucket
:aws s3api get-bucket-replication --bucket
my-bucket
Sortie :
{ "ReplicationConfiguration": { "Rules": [ { "Status": "Enabled", "Prefix": "", "Destination": { "Bucket": "arn:aws:s3:::my-bucket-backup", "StorageClass": "STANDARD" }, "ID": "ZmUwNzE4ZmQ4tMjVhOS00MTlkLOGI4NDkzZTIWJjNTUtYTA1" } ], "Role": "arn:aws:iam::123456789012:role/s3-replication-role" } }
-
Pour API plus de détails, voir GetBucketReplication
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserget-bucket-request-payment
.
- AWS CLI
-
Pour récupérer la configuration de paiement des demandes pour un bucket
L'
get-bucket-request-payment
exemple suivant extrait la configuration payante du demandeur pour le compartiment spécifié.aws s3api get-bucket-request-payment \ --bucket
my-bucket
Sortie :
{ "Payer": "BucketOwner" }
-
Pour API plus de détails, voir GetBucketRequestPayment
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserget-bucket-tagging
.
- AWS CLI
-
La commande suivante permet de récupérer la configuration de balisage pour un compartiment nommé :
my-bucket
aws s3api get-bucket-tagging --bucket
my-bucket
Sortie :
{ "TagSet": [ { "Value": "marketing", "Key": "organization" } ] }
-
Pour API plus de détails, voir GetBucketTagging
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserget-bucket-versioning
.
- AWS CLI
-
La commande suivante permet de récupérer la configuration de version pour un compartiment nommé :
my-bucket
aws s3api get-bucket-versioning --bucket
my-bucket
Sortie :
{ "Status": "Enabled" }
-
Pour API plus de détails, voir GetBucketVersioning
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserget-bucket-website
.
- AWS CLI
-
La commande suivante permet de récupérer la configuration statique du site Web pour un compartiment nommé
my-bucket
:aws s3api get-bucket-website --bucket
my-bucket
Sortie :
{ "IndexDocument": { "Suffix": "index.html" }, "ErrorDocument": { "Key": "error.html" } }
-
Pour API plus de détails, voir GetBucketWebsite
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserget-object-acl
.
- AWS CLI
-
La commande suivante permet de récupérer la liste de contrôle d'accès pour un objet dans un compartiment nommé
my-bucket
:aws s3api get-object-acl --bucket
my-bucket
--keyindex.html
Sortie :
{ "Owner": { "DisplayName": "my-username", "ID": "7009a8971cd538e11f6b6606438875e7c86c5b672f46db45460ddcd087d36c32" }, "Grants": [ { "Grantee": { "DisplayName": "my-username", "ID": "7009a8971cd538e11f6b6606438875e7c86c5b672f46db45460ddcd087d36c32" }, "Permission": "FULL_CONTROL" }, { "Grantee": { "URI": "http://acs.amazonaws.com/groups/global/AllUsers" }, "Permission": "READ" } ] }
-
Pour API plus de détails, voir GetObjectAcl
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserget-object-attributes
.
- AWS CLI
-
Pour récupérer les métadonnées d'un objet sans renvoyer l'objet lui-même
L'
get-object-attributes
exemple suivant extrait les métadonnées de l'objetdoc1.rtf
.aws s3api get-object-attributes \ --bucket
my-bucket
\ --keydoc1.rtf
\ --object-attributes"StorageClass"
"ETag"
"ObjectSize"
Sortie :
{ "LastModified": "2022-03-15T19:37:31+00:00", "VersionId": "IuCPjXTDzHNfldAuitVBIKJpF2p1fg4P", "ETag": "b662d79adeb7c8d787ea7eafb9ef6207", "StorageClass": "STANDARD", "ObjectSize": 405 }
Pour plus d'informations, consultez GetObjectAttributesle manuel Amazon S3 API Reference.
-
Pour API plus de détails, voir GetObjectAttributes
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserget-object-legal-hold
.
- AWS CLI
-
Récupère le statut de conservation légale d'un objet
L'
get-object-legal-hold
exemple suivant permet de récupérer le statut Legal Hold pour l'objet spécifié.aws s3api get-object-legal-hold \ --bucket
my-bucket-with-object-lock
\ --keydoc1.rtf
Sortie :
{ "LegalHold": { "Status": "ON" } }
-
Pour API plus de détails, voir GetObjectLegalHold
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserget-object-lock-configuration
.
- AWS CLI
-
Pour récupérer une configuration de verrouillage d'objet pour un bucket
L'
get-object-lock-configuration
exemple suivant récupère la configuration du verrouillage d'objet pour le compartiment spécifié.aws s3api get-object-lock-configuration \ --bucket
my-bucket-with-object-lock
Sortie :
{ "ObjectLockConfiguration": { "ObjectLockEnabled": "Enabled", "Rule": { "DefaultRetention": { "Mode": "COMPLIANCE", "Days": 50 } } } }
-
Pour API plus de détails, voir GetObjectLockConfiguration
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserget-object-retention
.
- AWS CLI
-
Pour récupérer la configuration de rétention d'un objet
L'
get-object-retention
exemple suivant récupère la configuration de rétention d'objets pour l'objet spécifié.aws s3api get-object-retention \ --bucket
my-bucket-with-object-lock
\ --keydoc1.rtf
Sortie :
{ "Retention": { "Mode": "GOVERNANCE", "RetainUntilDate": "2025-01-01T00:00:00.000Z" } }
-
Pour API plus de détails, voir GetObjectRetention
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserget-object-tagging
.
- AWS CLI
-
Pour récupérer les tags attachés à un objet
L'
get-object-tagging
exemple suivant extrait les valeurs de la clé spécifiée à partir de l'objet spécifié.aws s3api get-object-tagging \ --bucket
my-bucket
\ --keydoc1.rtf
Sortie :
{ "TagSet": [ { "Value": "confidential", "Key": "designation" } ] }
L'
get-object-tagging
exemple suivant essaie de récupérer les ensembles de balises de l'objetdoc2.rtf
, qui ne possède aucune balise.aws s3api get-object-tagging \ --bucket
my-bucket
\ --keydoc2.rtf
Sortie :
{ "TagSet": [] }
L'
get-object-tagging
exemple suivant récupère les ensembles de balises de l'objetdoc3.rtf
, qui possède plusieurs balises.aws s3api get-object-tagging \ --bucket
my-bucket
\ --keydoc3.rtf
Sortie :
{ "TagSet": [ { "Value": "confidential", "Key": "designation" }, { "Value": "finance", "Key": "department" }, { "Value": "payroll", "Key": "team" } ] }
-
Pour API plus de détails, voir GetObjectTagging
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserget-object-torrent
.
- AWS CLI
-
La commande suivante crée un torrent pour un objet dans un compartiment nommé
my-bucket
:aws s3api get-object-torrent --bucket
my-bucket
--keylarge-video-file.mp4
large-video-file.torrent
Le fichier torrent est enregistré localement dans le dossier en cours. Notez que le nom du fichier de sortie (
large-video-file.torrent
) est spécifié sans nom d'option et doit être le dernier argument de la commande.-
Pour API plus de détails, voir GetObjectTorrent
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserget-object
.
- AWS CLI
-
L'exemple suivant utilise la
get-object
commande pour télécharger un objet depuis Amazon S3 :aws s3api get-object --bucket
text-content
--keydir/my_images.tar.bz2
my_images.tar.bz2
Notez que le paramètre outfile est spécifié sans nom d'option tel que « --outfile ». Le nom du fichier de sortie doit être le dernier paramètre de la commande.
L'exemple ci-dessous illustre l'utilisation de
--range
pour télécharger une plage d'octets spécifique à partir d'un objet. Notez que les plages d'octets doivent être préfixées par « bytes= » :aws s3api get-object --bucket
text-content
--keydir/my_data
--rangebytes=8888-9999
my_data_range
Pour plus d'informations sur la récupération d'objets, consultez Getting Objects dans le manuel Amazon S3 Developer Guide.
-
Pour API plus de détails, voir GetObject
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserget-public-access-block
.
- AWS CLI
-
Pour définir ou modifier la configuration de blocage de l'accès public pour un bucket
L'
get-public-access-block
exemple suivant montre la configuration de blocage de l'accès public pour le compartiment spécifié.aws s3api get-public-access-block \ --bucket
my-bucket
Sortie :
{ "PublicAccessBlockConfiguration": { "IgnorePublicAcls": true, "BlockPublicPolicy": true, "BlockPublicAcls": true, "RestrictPublicBuckets": true } }
-
Pour API plus de détails, voir GetPublicAccessBlock
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserhead-bucket
.
- AWS CLI
-
La commande suivante vérifie l'accès à un compartiment nommé
my-bucket
:aws s3api head-bucket --bucket
my-bucket
Si le bucket existe et que vous y avez accès, aucune sortie n'est renvoyée. Dans le cas contraire, un message d'erreur s'affichera. Par exemple :
A client error (404) occurred when calling the HeadBucket operation: Not Found
-
Pour API plus de détails, voir HeadBucket
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserhead-object
.
- AWS CLI
-
La commande suivante extrait les métadonnées d'un objet dans un compartiment nommé
my-bucket
:aws s3api head-object --bucket
my-bucket
--keyindex.html
Sortie :
{ "AcceptRanges": "bytes", "ContentType": "text/html", "LastModified": "Thu, 16 Apr 2015 18:19:14 GMT", "ContentLength": 77, "VersionId": "null", "ETag": "\"30a6ec7e1a9ad79c203d05a589c8b400\"", "Metadata": {} }
-
Pour API plus de détails, voir HeadObject
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserlist-bucket-analytics-configurations
.
- AWS CLI
-
Pour récupérer la liste des configurations d'analyse pour un bucket
Ce qui suit
list-bucket-analytics-configurations
permet de récupérer la liste des configurations d'analyse pour le compartiment spécifié.aws s3api list-bucket-analytics-configurations \ --bucket
my-bucket
Sortie :
{ "AnalyticsConfigurationList": [ { "StorageClassAnalysis": {}, "Id": "1" } ], "IsTruncated": false }
-
Pour API plus de détails, voir ListBucketAnalyticsConfigurations
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserlist-bucket-intelligent-tiering-configurations
.
- AWS CLI
-
Pour récupérer toutes les configurations S3 Intelligent-Tiering sur un bucket
L'
list-bucket-intelligent-tiering-configurations
exemple suivant récupère l'ensemble de la configuration S3 Intelligent-Tiering d'un bucket.aws s3api list-bucket-intelligent-tiering-configurations \ --bucket
DOC-EXAMPLE-BUCKET
Sortie :
{ "IsTruncated": false, "IntelligentTieringConfigurationList": [ { "Id": "ExampleConfig", "Filter": { "Prefix": "images" }, "Status": "Enabled", "Tierings": [ { "Days": 90, "AccessTier": "ARCHIVE_ACCESS" }, { "Days": 180, "AccessTier": "DEEP_ARCHIVE_ACCESS" } ] }, { "Id": "ExampleConfig2", "Status": "Disabled", "Tierings": [ { "Days": 730, "AccessTier": "ARCHIVE_ACCESS" } ] }, { "Id": "ExampleConfig3", "Filter": { "Tag": { "Key": "documents", "Value": "taxes" } }, "Status": "Enabled", "Tierings": [ { "Days": 90, "AccessTier": "ARCHIVE_ACCESS" }, { "Days": 365, "AccessTier": "DEEP_ARCHIVE_ACCESS" } ] } ] }
Pour plus d'informations, consultez la section Utilisation de S3 Intelligent-Tiering dans le guide de l'utilisateur Amazon S3.
-
Pour API plus de détails, voir ListBucketIntelligentTieringConfigurations
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserlist-bucket-inventory-configurations
.
- AWS CLI
-
Pour récupérer la liste des configurations d'inventaire pour un bucket
L'
list-bucket-inventory-configurations
exemple suivant répertorie les configurations d'inventaire pour le compartiment spécifié.aws s3api list-bucket-inventory-configurations \ --bucket
my-bucket
Sortie :
{ "InventoryConfigurationList": [ { "IsEnabled": true, "Destination": { "S3BucketDestination": { "Format": "ORC", "Bucket": "arn:aws:s3:::my-bucket", "AccountId": "123456789012" } }, "IncludedObjectVersions": "Current", "Id": "1", "Schedule": { "Frequency": "Weekly" } }, { "IsEnabled": true, "Destination": { "S3BucketDestination": { "Format": "CSV", "Bucket": "arn:aws:s3:::my-bucket", "AccountId": "123456789012" } }, "IncludedObjectVersions": "Current", "Id": "2", "Schedule": { "Frequency": "Daily" } } ], "IsTruncated": false }
-
Pour API plus de détails, voir ListBucketInventoryConfigurations
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserlist-bucket-metrics-configurations
.
- AWS CLI
-
Pour récupérer la liste des configurations de métriques pour un bucket
L'
list-bucket-metrics-configurations
exemple suivant extrait une liste de configurations de métriques pour le compartiment spécifié.aws s3api list-bucket-metrics-configurations \ --bucket
my-bucket
Sortie :
{ "IsTruncated": false, "MetricsConfigurationList": [ { "Filter": { "Prefix": "logs" }, "Id": "123" }, { "Filter": { "Prefix": "tmp" }, "Id": "234" } ] }
-
Pour API plus de détails, voir ListBucketMetricsConfigurations
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserlist-buckets
.
- AWS CLI
-
La commande suivante utilise la
list-buckets
commande pour afficher les noms de tous vos compartiments Amazon S3 (dans toutes les régions) :aws s3api list-buckets --query
"Buckets[].Name"
L'option de requête filtre la sortie
list-buckets
jusqu'aux seuls noms de compartiments.Pour plus d'informations sur les compartiments, consultez la section Utilisation des compartiments Amazon S3 dans le manuel Amazon S3 Developer Guide.
-
Pour API plus de détails, voir ListBuckets
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserlist-multipart-uploads
.
- AWS CLI
-
La commande suivante répertorie tous les téléchargements partitionnés actifs pour un bucket nommé :
my-bucket
aws s3api list-multipart-uploads --bucket
my-bucket
Sortie :
{ "Uploads": [ { "Initiator": { "DisplayName": "username", "ID": "arn:aws:iam::0123456789012:user/username" }, "Initiated": "2015-06-02T18:01:30.000Z", "UploadId": "dfRtDYU0WWCCcH43C3WFbkRONycyCpTJJvxu2i5GYkZljF.Yxwh6XG7WfS2vC4to6HiV6Yjlx.cph0gtNBtJ8P3URCSbB7rjxI5iEwVDmgaXZOGgkk5nVTW16HOQ5l0R", "StorageClass": "STANDARD", "Key": "multipart/01", "Owner": { "DisplayName": "aws-account-name", "ID": "100719349fc3b6dcd7c820a124bf7aecd408092c3d7b51b38494939801fc248b" } } ], "CommonPrefixes": [] }
Les téléchargements partitionnés en cours entraînent des coûts de stockage dans Amazon S3. Terminez ou annulez un téléchargement multipartie actif pour en supprimer certaines parties de votre compte.
-
Pour API plus de détails, voir ListMultipartUploads
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserlist-object-versions
.
- AWS CLI
-
La commande suivante permet de récupérer les informations de version d'un objet dans un compartiment nommé
my-bucket
:aws s3api list-object-versions --bucket
my-bucket
--prefixindex.html
Sortie :
{ "DeleteMarkers": [ { "Owner": { "DisplayName": "my-username", "ID": "7009a8971cd660687538875e7c86c5b672fe116bd438f46db45460ddcd036c32" }, "IsLatest": true, "VersionId": "B2VsEK5saUNNHKcOAJj7hIE86RozToyq", "Key": "index.html", "LastModified": "2015-11-10T00:57:03.000Z" }, { "Owner": { "DisplayName": "my-username", "ID": "7009a8971cd660687538875e7c86c5b672fe116bd438f46db45460ddcd036c32" }, "IsLatest": false, "VersionId": ".FLQEZscLIcfxSq.jsFJ.szUkmng2Yw6", "Key": "index.html", "LastModified": "2015-11-09T23:32:20.000Z" } ], "Versions": [ { "LastModified": "2015-11-10T00:20:11.000Z", "VersionId": "Rb_l2T8UHDkFEwCgJjhlgPOZC0qJ.vpD", "ETag": "\"0622528de826c0df5db1258a23b80be5\"", "StorageClass": "STANDARD", "Key": "index.html", "Owner": { "DisplayName": "my-username", "ID": "7009a8971cd660687538875e7c86c5b672fe116bd438f46db45460ddcd036c32" }, "IsLatest": false, "Size": 38 }, { "LastModified": "2015-11-09T23:26:41.000Z", "VersionId": "rasWWGpgk9E4s0LyTJgusGeRQKLVIAFf", "ETag": "\"06225825b8028de826c0df5db1a23be5\"", "StorageClass": "STANDARD", "Key": "index.html", "Owner": { "DisplayName": "my-username", "ID": "7009a8971cd660687538875e7c86c5b672fe116bd438f46db45460ddcd036c32" }, "IsLatest": false, "Size": 38 }, { "LastModified": "2015-11-09T22:50:50.000Z", "VersionId": "null", "ETag": "\"d1f45267a863c8392e07d24dd592f1b9\"", "StorageClass": "STANDARD", "Key": "index.html", "Owner": { "DisplayName": "my-username", "ID": "7009a8971cd660687538875e7c86c5b672fe116bd438f46db45460ddcd036c32" }, "IsLatest": false, "Size": 533823 } ] }
-
Pour API plus de détails, voir ListObjectVersions
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserlist-objects-v2
.
- AWS CLI
-
Pour obtenir la liste des objets d'un bucket
L'
list-objects-v2
exemple suivant répertorie les objets du compartiment spécifié.aws s3api list-objects-v2 \ --bucket
my-bucket
Sortie :
{ "Contents": [ { "LastModified": "2019-11-05T23:11:50.000Z", "ETag": "\"621503c373607d548b37cff8778d992c\"", "StorageClass": "STANDARD", "Key": "doc1.rtf", "Size": 391 }, { "LastModified": "2019-11-05T23:11:50.000Z", "ETag": "\"a2cecc36ab7c7fe3a71a273b9d45b1b5\"", "StorageClass": "STANDARD", "Key": "doc2.rtf", "Size": 373 }, { "LastModified": "2019-11-05T23:11:50.000Z", "ETag": "\"08210852f65a2e9cb999972539a64d68\"", "StorageClass": "STANDARD", "Key": "doc3.rtf", "Size": 399 }, { "LastModified": "2019-11-05T23:11:50.000Z", "ETag": "\"d1852dd683f404306569471af106988e\"", "StorageClass": "STANDARD", "Key": "doc4.rtf", "Size": 6225 } ] }
-
Pour API plus de détails, voir ListObjectsV2
dans AWS CLI Command Reference.
-
L'exemple de code suivant montre comment utiliserlist-objects
.
- AWS CLI
-
L'exemple suivant utilise la
list-objects
commande pour afficher les noms de tous les objets du compartiment spécifié :aws s3api list-objects --bucket
text-content
--query 'Contents[].{Key: Key, Size: Size}
'L'exemple utilise l'
--query
argument pour filtrer la sortielist-objects
jusqu'à la valeur clé et à la taille de chaque objet.Pour plus d'informations sur les objets, consultez la section Travailler avec des objets Amazon S3 dans le manuel du développeur Amazon S3.
-
Pour API plus de détails, voir ListObjects
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserlist-parts
.
- AWS CLI
-
La commande suivante répertorie toutes les parties qui ont été téléchargées pour un téléchargement en plusieurs parties avec la clé
multipart/01
dans le compartimentmy-bucket
:aws s3api list-parts --bucket
my-bucket
--key 'multipart/01
' --upload-iddfRtDYU0WWCCcH43C3WFbkRONycyCpTJJvxu2i5GYkZljF.Yxwh6XG7WfS2vC4to6HiV6Yjlx.cph0gtNBtJ8P3URCSbB7rjxI5iEwVDmgaXZOGgkk5nVTW16HOQ5l0R
Sortie :
{ "Owner": { "DisplayName": "aws-account-name", "ID": "100719349fc3b6dcd7c820a124bf7aecd408092c3d7b51b38494939801fc248b" }, "Initiator": { "DisplayName": "username", "ID": "arn:aws:iam::0123456789012:user/username" }, "Parts": [ { "LastModified": "2015-06-02T18:07:35.000Z", "PartNumber": 1, "ETag": "\"e868e0f4719e394144ef36531ee6824c\"", "Size": 5242880 }, { "LastModified": "2015-06-02T18:07:42.000Z", "PartNumber": 2, "ETag": "\"6bb2b12753d66fe86da4998aa33fffb0\"", "Size": 5242880 }, { "LastModified": "2015-06-02T18:07:47.000Z", "PartNumber": 3, "ETag": "\"d0a0112e841abec9c9ec83406f0159c8\"", "Size": 5242880 } ], "StorageClass": "STANDARD" }
-
Pour API plus de détails, voir ListParts
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserls
.
- AWS CLI
-
Exemple 1 : liste de tous les buckets appartenant à l'utilisateur
La
ls
commande suivante répertorie tous les compartiments appartenant à l'utilisateur. Dans cet exemple, l'utilisateur possède les compartimentsmybucket
etmybucket2
. L'horodatage est la date de création du bucket, indiquée dans le fuseau horaire de votre machine. Cette date peut changer lorsque vous apportez des modifications à votre compartiment, par exemple en modifiant sa politique en matière de compartiment. Notez que s'ils3://
est utilisé pour l'argument path<S3Uri>
, il listera également tous les compartiments.aws s3 ls
Sortie :
2013-07-11 17:08:50 mybucket 2013-07-24 14:55:44 mybucket2
Exemple 2 : liste de tous les préfixes et objets d'un compartiment
La
ls
commande suivante répertorie les objets et les préfixes courants sous un compartiment et un préfixe spécifiés. Dans cet exemple, l'utilisateur est propriétaire du compartimentmybucket
contenant les objetstest.txt
etsomePrefix/test.txt
. LesLastWriteTime
etLength
sont arbitraires. Notez que puisque lals
commande n'a aucune interaction avec le système de fichiers local, les3://
URI schéma n'est pas nécessaire pour résoudre l'ambiguïté et peut être omis.aws s3 ls
s3://mybucket
Sortie :
PRE somePrefix/ 2013-07-25 17:06:27 88 test.txt
Exemple 3 : liste de tous les préfixes et objets d'un compartiment et d'un préfixe spécifiques
La
ls
commande suivante répertorie les objets et les préfixes courants sous un compartiment et un préfixe spécifiés. Cependant, le compartiment et le préfixe spécifiés ne contiennent aucun objet ni aucun préfixe commun.aws s3 ls
s3://mybucket/noExistPrefix
Sortie :
None
Exemple 4 : liste récursive de tous les préfixes et objets d'un bucket
La
ls
commande suivante listera de manière récursive les objets d'un compartiment. Plutôt que de s'afficherPRE dirname/
dans la sortie, tout le contenu d'un bucket sera répertorié dans l'ordre.aws s3 ls
s3://mybucket
\ --recursiveSortie :
2013-09-02 21:37:53 10 a.txt 2013-09-02 21:37:53 2863288 foo.zip 2013-09-02 21:32:57 23 foo/bar/.baz/a 2013-09-02 21:32:58 41 foo/bar/.baz/b 2013-09-02 21:32:57 281 foo/bar/.baz/c 2013-09-02 21:32:57 73 foo/bar/.baz/d 2013-09-02 21:32:57 452 foo/bar/.baz/e 2013-09-02 21:32:57 896 foo/bar/.baz/hooks/bar 2013-09-02 21:32:57 189 foo/bar/.baz/hooks/foo 2013-09-02 21:32:57 398 z.txt
Exemple 5 : Récapitulatif de tous les préfixes et objets d'un bucket
La
ls
commande suivante illustre la même commande à l'aide des options --human-readable et --summarize. --human-readable affiche la taille du fichier en. Bytes/MiB/KiB/GiB/TiB/PiB/EiB --summarise affiche le nombre total d'objets et leur taille totale à la fin de la liste des résultats :aws s3 ls
s3://mybucket
\ --recursive \ --human-readable \ --summarizeSortie :
2013-09-02 21:37:53 10 Bytes a.txt 2013-09-02 21:37:53 2.9 MiB foo.zip 2013-09-02 21:32:57 23 Bytes foo/bar/.baz/a 2013-09-02 21:32:58 41 Bytes foo/bar/.baz/b 2013-09-02 21:32:57 281 Bytes foo/bar/.baz/c 2013-09-02 21:32:57 73 Bytes foo/bar/.baz/d 2013-09-02 21:32:57 452 Bytes foo/bar/.baz/e 2013-09-02 21:32:57 896 Bytes foo/bar/.baz/hooks/bar 2013-09-02 21:32:57 189 Bytes foo/bar/.baz/hooks/foo 2013-09-02 21:32:57 398 Bytes z.txt Total Objects: 10 Total Size: 2.9 MiB
Exemple 6 : mise en vente depuis un point d'accès S3
La
ls
commande suivante répertorie les objets depuis le point d'accès (myaccesspoint
) :aws s3 ls
s3://arn:aws:s3:us-west-2:123456789012:accesspoint/myaccesspoint/
Sortie :
PRE somePrefix/ 2013-07-25 17:06:27 88 test.txt
-
Pour API plus de détails, voir Ls
dans AWS CLI Command Reference.
-
L'exemple de code suivant montre comment utilisermb
.
- AWS CLI
-
Exemple 1 : créer un bucket
La
mb
commande suivante crée un bucket. Dans cet exemple, l'utilisateur crée le bucketmybucket
. Le bucket est créé dans la région spécifiée dans le fichier de configuration de l'utilisateur :aws s3 mb
s3://mybucket
Sortie :
make_bucket: s3://mybucket
Exemple 2 : créer un bucket dans la région spécifiée
La
mb
commande suivante crée un compartiment dans une région spécifiée par le--region
paramètre. Dans cet exemple, l'utilisateur crée le bucketmybucket
dans la régionus-west-1
:aws s3 mb
s3://mybucket
\ --regionus-west-1
Sortie :
make_bucket: s3://mybucket
-
Pour API plus de détails, voir Mb
dans AWS CLI Command Reference.
-
L'exemple de code suivant montre comment utilisermv
.
- AWS CLI
-
Exemple 1 : déplacer un fichier local vers le compartiment spécifié
La
mv
commande suivante déplace un seul fichier vers un compartiment et une clé spécifiés.aws s3 mv
test.txt
s3://mybucket/test2.txt
Sortie :
move: test.txt to s3://mybucket/test2.txt
Exemple 2 : déplacer un objet vers le compartiment et la clé spécifiés
La
mv
commande suivante déplace un seul objet s3 vers un compartiment et une clé spécifiés.aws s3 mv
s3://mybucket/test.txt
s3://mybucket/test2.txt
Sortie :
move: s3://mybucket/test.txt to s3://mybucket/test2.txt
Exemple 3 : déplacer un objet S3 vers le répertoire local
La
mv
commande suivante déplace localement un seul objet vers un fichier spécifié.aws s3 mv
s3://mybucket/test.txt
test2.txt
Sortie :
move: s3://mybucket/test.txt to test2.txt
Exemple 4 : déplacer un objet avec son nom d'origine vers le compartiment spécifié
La
mv
commande suivante déplace un seul objet vers un compartiment spécifié tout en conservant son nom d'origine :aws s3 mv
s3://mybucket/test.txt
s3://mybucket2/
Sortie :
move: s3://mybucket/test.txt to s3://mybucket2/test.txt
Exemple 5 : déplacer tous les objets et préfixes d'un bucket vers le répertoire local
Lorsqu'elle est passée avec le paramètre
--recursive
, lamv
commande suivante déplace de manière récursive tous les objets sous un préfixe et un compartiment spécifiés vers un répertoire spécifié. Dans cet exemple, le compartimentmybucket
contient les objetstest1.txt
ettest2.txt
.aws s3 mv
s3://mybucket
.
\ --recursiveSortie :
move: s3://mybucket/test1.txt to test1.txt move: s3://mybucket/test2.txt to test2.txt
Exemple 6 : déplacer tous les objets et préfixes d'un bucket vers le répertoire local, à l'exception des fichiers ``.jpg``
Lorsqu'elle est passée avec le paramètre
--recursive
, lamv
commande suivante déplace de manière récursive tous les fichiers d'un répertoire spécifié vers un compartiment et un préfixe spécifiés, tout en excluant certains fichiers à l'aide d'un--exclude
paramètre. Dans cet exemple, le répertoiremyDir
contient les fichierstest1.txt
ettest2.jpg
.aws s3 mv
myDir
s3://mybucket/
\ --recursive \ --exclude"*.jpg"
Sortie :
move: myDir/test1.txt to s3://mybucket2/test1.txt
Exemple 7 : déplacer tous les objets et préfixes d'un bucket vers le répertoire local, à l'exception du préfixe spécifié
Lorsqu'elle est passée avec le paramètre
--recursive
, lamv
commande suivante déplace de manière récursive tous les objets d'un compartiment spécifié vers un autre compartiment tout en excluant certains objets à l'aide d'un--exclude
paramètre. Dans cet exemple, le compartimentmybucket
contient les objetstest1.txt
etanother/test1.txt
.aws s3 mv
s3://mybucket/
s3://mybucket2/
\ --recursive \ --exclude"mybucket/another/*"
Sortie :
move: s3://mybucket/test1.txt to s3://mybucket2/test1.txt
Exemple 8 : déplacer un objet vers le compartiment spécifié et définir le ACL
La
mv
commande suivante déplace un seul objet vers un compartiment et une clé spécifiés tout en définissant la valeur ACL surpublic-read-write
.aws s3 mv
s3://mybucket/test.txt
s3://mybucket/test2.txt
\ --aclpublic-read-write
Sortie :
move: s3://mybucket/test.txt to s3://mybucket/test2.txt
Exemple 9 : déplacer un fichier local vers le compartiment spécifié et accorder des autorisations
La
mv
commande suivante illustre l'utilisation de l'--grants
option permettant d'accorder un accès en lecture à tous les utilisateurs et un contrôle total à un utilisateur spécifique identifié par son adresse e-mail.aws s3 mv
file.txt
s3://mybucket/
\ --grantsread=uri=http://acs.amazonaws.com/groups/global/AllUsers
full=emailaddress=user@example.com
Sortie :
move: file.txt to s3://mybucket/file.txt
Exemple 10 : déplacer un fichier vers un point d'accès S3
La
mv
commande suivante déplace un seul fichier nommémydoc.txt
vers le point d'accès nommémyaccesspoint
sur la clé nomméemykey
.aws s3 mv
mydoc.txt
s3://arn:aws:s3:us-west-2:123456789012:accesspoint/myaccesspoint/mykey
Sortie :
move: mydoc.txt to s3://arn:aws:s3:us-west-2:123456789012:accesspoint/myaccesspoint/mykey
-
Pour API plus de détails, voir Mv
dans AWS CLI Command Reference.
-
L'exemple de code suivant montre comment utiliserpresign
.
- AWS CLI
-
Exemple 1 : pour créer un document pré-signé URL avec une durée de vie par défaut d'une heure qui renvoie à un objet dans un compartiment S3
La
presign
commande suivante génère une clé pré-signée URL pour un compartiment et une clé spécifiés qui sont valides pendant une heure.aws s3 presign
s3://DOC-EXAMPLE-BUCKET/test2.txt
Sortie :
https://DOC-EXAMPLE-BUCKET.s3.us-west-2.amazonaws.com/key?X-Amz-Algorithm=AWS4-HMAC-SHA256&X-Amz-Credential=AKIAEXAMPLE123456789%2F20210621%2Fus-west-2%2Fs3%2Faws4_request&X-Amz-Date=20210621T041609Z&X-Amz-Expires=3600&X-Amz-SignedHeaders=host&X-Amz-Signature=EXAMBLE1234494d5fba3fed607f98018e1dfc62e2529ae96d844123456
Exemple 2 : pour créer un document pré-signé URL avec une durée de vie personnalisée qui renvoie à un objet dans un compartiment S3
La
presign
commande suivante génère une clé pré-signée URL pour un compartiment et une clé spécifiés qui sont valides pendant une semaine.aws s3 presign
s3://DOC-EXAMPLE-BUCKET/test2.txt
\ --expires-in604800
Sortie :
https://DOC-EXAMPLE-BUCKET.s3.us-west-2.amazonaws.com/key?X-Amz-Algorithm=AWS4-HMAC-SHA256&X-Amz-Credential=AKIAEXAMPLE123456789%2F20210621%2Fus-west-2%2Fs3%2Faws4_request&X-Amz-Date=20210621T041609Z&X-Amz-Expires=604800&X-Amz-SignedHeaders=host&X-Amz-Signature=EXAMBLE1234494d5fba3fed607f98018e1dfc62e2529ae96d844123456
Pour plus d'informations, consultez Partager un objet avec d'autres dans le guide du développeur S3.
-
Pour API plus de détails, voir Presign
dans AWS CLI Command Reference.
-
L'exemple de code suivant montre comment utiliserput-bucket-accelerate-configuration
.
- AWS CLI
-
Pour définir la configuration accélérée d'un bucket
L'
put-bucket-accelerate-configuration
exemple suivant active la configuration d'accélération pour le compartiment spécifié.aws s3api put-bucket-accelerate-configuration \ --bucket
my-bucket
\ --accelerate-configurationStatus=Enabled
Cette commande ne produit aucun résultat.
-
Pour API plus de détails, voir PutBucketAccelerateConfiguration
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserput-bucket-acl
.
- AWS CLI
-
Cet exemple accorde
full control
l'read
autorisation à deux AWS utilisateurs (user1@example.com et user2@example.com) et à tout le monde :aws s3api put-bucket-acl --bucket
MyBucket
--grant-full-controlemailaddress=user1@example.com,emailaddress=user2@example.com
--grant-readuri=http://acs.amazonaws.com/groups/global/AllUsers
Voir http://docs.aws.amazon. com/AmazonS3/latest/API/RESTBucketPUTacl.html pour plus de détails sur la personnalisation ACLs (les ACL commandes s3api, par exemple
put-bucket-acl
, utilisent la même notation abrégée pour les arguments).-
Pour API plus de détails, voir PutBucketAcl
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserput-bucket-analytics-configuration
.
- AWS CLI
-
Pour définir une configuration d'analyse pour le bucket
L'
put-bucket-analytics-configuration
exemple suivant configure les analyses pour le compartiment spécifié.aws s3api put-bucket-analytics-configuration \ --bucket
my-bucket
--id1
\ --analytics-configuration '{"Id": "1","StorageClassAnalysis": {}}
'Cette commande ne produit aucun résultat.
-
Pour API plus de détails, voir PutBucketAnalyticsConfiguration
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserput-bucket-cors
.
- AWS CLI
-
L'exemple suivant active
PUT
POST
, et lesDELETE
demandes provenant de www.example.com, et active lesGET
demandes provenant de n'importe quel domaine :aws s3api put-bucket-cors --bucket
MyBucket
--cors-configurationfile://cors.json
cors.json:
{
"CORSRules":[
{
"AllowedOrigins": ["http://www.example.com"], "AllowedHeaders": ["*"], "AllowedMethods": ["PUT", "POST", "DELETE"], "MaxAgeSeconds":3000,
"ExposeHeaders": ["x-amz-server-side-encryption"]},
{
"AllowedOrigins": ["*"], "AllowedHeaders": ["Authorization"], "AllowedMethods": ["GET"], "MaxAgeSeconds":3000
}
]
}
-
Pour API plus de détails, voir PutBucketCors
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserput-bucket-encryption
.
- AWS CLI
-
Pour configurer le chiffrement côté serveur pour un bucket
L'
put-bucket-encryption
exemple suivant définit le AES256 chiffrement comme valeur par défaut pour le compartiment spécifié.aws s3api put-bucket-encryption \ --bucket
my-bucket
\ --server-side-encryption-configuration '{"Rules": [{"ApplyServerSideEncryptionByDefault": {"SSEAlgorithm": "AES256"}}]}
'Cette commande ne produit aucun résultat.
-
Pour API plus de détails, voir PutBucketEncryption
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserput-bucket-intelligent-tiering-configuration
.
- AWS CLI
-
Pour mettre à jour une configuration S3 Intelligent-Tiering sur un bucket
L'
put-bucket-intelligent-tiering-configuration
exemple suivant met à jour une configuration S3 Intelligent-Tiering, nommée ExampleConfig, sur un bucket. La configuration fera passer les objets non accessibles sous le préfixe images vers Archive Access après 90 jours et Deep Archive Access après 180 jours.aws s3api put-bucket-intelligent-tiering-configuration \ --bucket
DOC-EXAMPLE-BUCKET
\ --id"ExampleConfig"
\ --intelligent-tiering-configurationfile://intelligent-tiering-configuration.json
Contenu de
intelligent-tiering-configuration.json
:{ "Id": "ExampleConfig", "Status": "Enabled", "Filter": { "Prefix": "images" }, "Tierings": [ { "Days": 90, "AccessTier": "ARCHIVE_ACCESS" }, { "Days": 180, "AccessTier": "DEEP_ARCHIVE_ACCESS" } ] }
Cette commande ne produit aucun résultat.
Pour plus d'informations, consultez la section Définition de la propriété d'un objet sur un compartiment existant dans le guide de l'utilisateur Amazon S3.
-
Pour API plus de détails, voir PutBucketIntelligentTieringConfiguration
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserput-bucket-inventory-configuration
.
- AWS CLI
-
Exemple 1 : pour définir une configuration d'inventaire pour un bucket
L'
put-bucket-inventory-configuration
exemple suivant définit un rapport d'inventaire hebdomadaire ORC au format pour le compartiment.my-bucket
aws s3api put-bucket-inventory-configuration \ --bucket
my-bucket
\ --id1
\ --inventory-configuration '{"Destination": { "S3BucketDestination": { "AccountId": "123456789012", "Bucket": "arn:aws:s3:::my-bucket", "Format": "ORC" }}, "IsEnabled": true, "Id": "1", "IncludedObjectVersions": "Current", "Schedule": { "Frequency": "Weekly" }}
'Cette commande ne produit aucun résultat.
Exemple 2 : pour définir une configuration d'inventaire pour un bucket
L'
put-bucket-inventory-configuration
exemple suivant définit un rapport d'inventaire CSV au format quotidien pour le compartiment.my-bucket
aws s3api put-bucket-inventory-configuration \ --bucket
my-bucket
\ --id2
\ --inventory-configuration '{"Destination": { "S3BucketDestination": { "AccountId": "123456789012", "Bucket": "arn:aws:s3:::my-bucket", "Format": "CSV" }}, "IsEnabled": true, "Id": "2", "IncludedObjectVersions": "Current", "Schedule": { "Frequency": "Daily" }}
'Cette commande ne produit aucun résultat.
-
Pour API plus de détails, voir PutBucketInventoryConfiguration
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserput-bucket-lifecycle-configuration
.
- AWS CLI
-
La commande suivante applique une configuration de cycle de vie à un compartiment nommé
my-bucket
:aws s3api put-bucket-lifecycle-configuration --bucket
my-bucket
--lifecycle-configurationfile://lifecycle.json
Le fichier
lifecycle.json
est un JSON document du dossier actuel qui définit deux règles :{ "Rules": [ { "ID": "Move rotated logs to Glacier", "Prefix": "rotated/", "Status": "Enabled", "Transitions": [ { "Date": "2015-11-10T00:00:00.000Z", "StorageClass": "GLACIER" } ] }, { "Status": "Enabled", "Prefix": "", "NoncurrentVersionTransitions": [ { "NoncurrentDays": 2, "StorageClass": "GLACIER" } ], "ID": "Move old versions to Glacier" } ] }
La première règle déplace les fichiers avec le préfixe
rotated
vers Glacier à la date spécifiée. La deuxième règle déplace les anciennes versions d'objets vers Glacier lorsqu'elles ne sont plus actuelles. Pour plus d'informations sur les formats d'horodatage acceptables, voir Spécification des valeurs de paramètres dans le guide de l'AWS CLIutilisateur.-
Pour API plus de détails, voir PutBucketLifecycleConfiguration
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserput-bucket-lifecycle
.
- AWS CLI
-
La commande suivante applique une configuration de cycle de vie au compartiment
my-bucket
:aws s3api put-bucket-lifecycle --bucket
my-bucket
--lifecycle-configurationfile://lifecycle.json
Le fichier
lifecycle.json
est un JSON document du dossier actuel qui définit deux règles :{ "Rules": [ { "ID": "Move to Glacier after sixty days (objects in logs/2015/)", "Prefix": "logs/2015/", "Status": "Enabled", "Transition": { "Days": 60, "StorageClass": "GLACIER" } }, { "Expiration": { "Date": "2016-01-01T00:00:00.000Z" }, "ID": "Delete 2014 logs in 2016.", "Prefix": "logs/2014/", "Status": "Enabled" } ] }
La première règle déplace les fichiers vers Amazon Glacier au bout de soixante jours. La deuxième règle supprime les fichiers d'Amazon S3 à la date spécifiée. Pour plus d'informations sur les formats d'horodatage acceptables, voir Spécification des valeurs de paramètres dans le guide de l'AWS CLIutilisateur.
Chaque règle de l'exemple ci-dessus spécifie une politique (
Transition
ouExpiration
) et un préfixe de fichier (nom de dossier) auxquels elle s'applique. Vous pouvez également créer une règle qui s'applique à l'intégralité d'un compartiment en spécifiant un préfixe vide :{ "Rules": [ { "ID": "Move to Glacier after sixty days (all objects in bucket)", "Prefix": "", "Status": "Enabled", "Transition": { "Days": 60, "StorageClass": "GLACIER" } } ] }
-
Pour API plus de détails, voir PutBucketLifecycle
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserput-bucket-logging
.
- AWS CLI
-
Exemple 1 : pour définir la journalisation des politiques relatives aux compartiments
L'
put-bucket-logging
exemple suivant définit la politique de journalisation pour MyBucket. Tout d'abord, accordez au service de journalisation l'autorisation principale dans votre politique de compartiment à l'aide de laput-bucket-policy
commande.aws s3api put-bucket-policy \ --bucket
MyBucket
\ --policyfile://policy.json
Contenu de
policy.json
:{ "Version": "2012-10-17", "Statement": [ { "Sid": "S3ServerAccessLogsPolicy", "Effect": "Allow", "Principal": {"Service": "logging.s3.amazonaws.com"}, "Action": "s3:PutObject", "Resource": "arn:aws:s3:::MyBucket/Logs/*", "Condition": { "ArnLike": {"aws:SourceARN": "arn:aws:s3:::SOURCE-BUCKET-NAME"}, "StringEquals": {"aws:SourceAccount": "SOURCE-AWS-ACCOUNT-ID"} } } ] }
Pour appliquer la politique de journalisation, utilisez
put-bucket-logging
.aws s3api put-bucket-logging \ --bucket
MyBucket
\ --bucket-logging-statusfile://logging.json
Contenu de
logging.json
:{ "LoggingEnabled": { "TargetBucket": "MyBucket", "TargetPrefix": "Logs/" } }
La
put-bucket-policy
commande est requise pour accorders3:PutObject
des autorisations au principal du service de journalisation.Pour plus d'informations, consultez la section Journalisation de l'accès au serveur Amazon S3 dans le guide de l'utilisateur Amazon S3.
Exemple 2 : pour définir une politique de compartiment pour la journalisation de l'accès à un seul utilisateur
L'
put-bucket-logging
exemple suivant définit la politique de journalisation pour MyBucket. L' AWS utilisateur bob@example.com aura un contrôle total sur les fichiers journaux, et personne d'autre n'y aura accès. Tout d'abord, accordez l'autorisation S3 avecput-bucket-acl
.aws s3api put-bucket-acl \ --bucket
MyBucket
\ --grant-writeURI=http://acs.amazonaws.com/groups/s3/LogDelivery
\ --grant-read-acpURI=http://acs.amazonaws.com/groups/s3/LogDelivery
Appliquez ensuite la politique de journalisation à l'aide de
put-bucket-logging
.aws s3api put-bucket-logging \ --bucket
MyBucket
\ --bucket-logging-statusfile://logging.json
Contenu de
logging.json
:{ "LoggingEnabled": { "TargetBucket": "MyBucket", "TargetPrefix": "MyBucketLogs/", "TargetGrants": [ { "Grantee": { "Type": "AmazonCustomerByEmail", "EmailAddress": "bob@example.com" }, "Permission": "FULL_CONTROL" } ] } }
la
put-bucket-acl
commande est requise pour accorder au système de livraison de journaux de S3 les autorisations nécessaires (autorisations d'écriture et de lecture).Pour plus d'informations, consultez la section Journalisation de l'accès au serveur Amazon S3 dans le manuel du développeur Amazon S3.
-
Pour API plus de détails, voir PutBucketLogging
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserput-bucket-metrics-configuration
.
- AWS CLI
-
Pour définir une configuration de métriques pour un bucket
L'
put-bucket-metrics-configuration
exemple suivant définit une configuration métrique avec l'ID 123 pour le compartiment spécifié.aws s3api put-bucket-metrics-configuration \ --bucket
my-bucket
\ --id123
\ --metrics-configuration '{"Id": "123", "Filter": {"Prefix": "logs"}}
'Cette commande ne produit aucun résultat.
-
Pour API plus de détails, voir PutBucketMetricsConfiguration
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserput-bucket-notification-configuration
.
- AWS CLI
-
Pour activer les notifications spécifiées dans un bucket
L'
put-bucket-notification-configuration
exemple suivant applique une configuration de notification à un compartiment nommémy-bucket
. Le fichiernotification.json
est un JSON document du dossier actuel qui indique un SNS sujet et un type d'événement à surveiller.aws s3api put-bucket-notification-configuration \ --bucket
my-bucket
\ --notification-configurationfile://notification.json
Contenu de
notification.json
:{ "TopicConfigurations": [ { "TopicArn": "arn:aws:sns:us-west-2:123456789012:s3-notification-topic", "Events": [ "s3:ObjectCreated:*" ] } ] }
Le SNS sujet doit être associé à une IAM politique autorisant Amazon S3 à y publier.
{ "Version": "2008-10-17", "Id": "example-ID", "Statement": [ { "Sid": "example-statement-ID", "Effect": "Allow", "Principal": { "Service": "s3.amazonaws.com" }, "Action": [ "SNS:Publish" ], "Resource": "arn:aws:sns:us-west-2:123456789012::s3-notification-topic", "Condition": { "ArnLike": { "aws:SourceArn": "arn:aws:s3:*:*:my-bucket" } } } ] }
-
Pour API plus de détails, voir PutBucketNotificationConfiguration
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserput-bucket-notification
.
- AWS CLI
-
Applique une configuration de notification à un compartiment nommé
my-bucket
:aws s3api put-bucket-notification --bucket
my-bucket
--notification-configurationfile://notification.json
Le fichier
notification.json
est un JSON document du dossier actuel qui indique un SNS sujet et un type d'événement à surveiller :{ "TopicConfiguration": { "Event": "s3:ObjectCreated:*", "Topic": "arn:aws:sns:us-west-2:123456789012:s3-notification-topic" } }
Le SNS sujet doit être associé à une IAM politique autorisant Amazon S3 à y publier :
{ "Version": "2008-10-17", "Id": "example-ID", "Statement": [ { "Sid": "example-statement-ID", "Effect": "Allow", "Principal": { "Service": "s3.amazonaws.com" }, "Action": [ "SNS:Publish" ], "Resource": "arn:aws:sns:us-west-2:123456789012:my-bucket", "Condition": { "ArnLike": { "aws:SourceArn": "arn:aws:s3:*:*:my-bucket" } } } ] }
-
Pour API plus de détails, voir PutBucketNotification
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserput-bucket-ownership-controls
.
- AWS CLI
-
Pour mettre à jour les paramètres de propriété d'un bucket
L'
put-bucket-ownership-controls
exemple suivant met à jour les paramètres de propriété d'un compartiment.aws s3api put-bucket-ownership-controls \ --bucket
DOC-EXAMPLE-BUCKET
\ --ownership-controls="Rules=[{ObjectOwnership=BucketOwnerEnforced}]"Cette commande ne produit aucun résultat.
Pour plus d'informations, consultez la section Définition de la propriété d'un objet sur un compartiment existant dans le guide de l'utilisateur Amazon S3.
-
Pour API plus de détails, voir PutBucketOwnershipControls
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserput-bucket-policy
.
- AWS CLI
-
Cet exemple permet à tous les utilisateurs de récupérer n'importe quel objet MyBucketsauf ceux du MySecretFolder. Il accorde
put
également unedelete
autorisation à l'utilisateur root du AWS compte1234-5678-9012
:aws s3api put-bucket-policy --bucket
MyBucket
--policyfile://policy.json
policy.json:
{
"Statement":[
{
"Effect": "Allow", "Principal": "*", "Action": "s3:GetObject", "Resource":"arn:aws:s3:::MyBucket/*"
},
{
"Effect": "Deny", "Principal": "*", "Action": "s3:GetObject", "Resource":"arn:aws:s3:::MyBucket/MySecretFolder/*"
},
{
"Effect": "Allow", "Principal":{
"AWS":"arn:aws:iam::123456789012:root"
},
"Action":[
"s3:DeleteObject","s3:PutObject"
],
"Resource":"arn:aws:s3:::MyBucket/*"
}
]
}
-
Pour API plus de détails, voir PutBucketPolicy
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserput-bucket-replication
.
- AWS CLI
-
Pour configurer la réplication pour un compartiment S3
L'
put-bucket-replication
exemple suivant applique une configuration de réplication au compartiment S3 spécifié.aws s3api put-bucket-replication \ --bucket
AWSDOC-EXAMPLE-BUCKET1
\ --replication-configurationfile://replication.json
Contenu de
replication.json
:{ "Role": "arn:aws:iam::123456789012:role/s3-replication-role", "Rules": [ { "Status": "Enabled", "Priority": 1, "DeleteMarkerReplication": { "Status": "Disabled" }, "Filter" : { "Prefix": ""}, "Destination": { "Bucket": "arn:aws:s3:::AWSDOC-EXAMPLE-BUCKET2" } } ] }
La gestion des versions doit être activée dans le compartiment de destination. Le rôle spécifié doit être autorisé à écrire dans le compartiment de destination et avoir une relation de confiance qui permet à Amazon S3 d'assumer le rôle.
Exemple de politique d'autorisation des rôles :
{ "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": [ "s3:GetReplicationConfiguration", "s3:ListBucket" ], "Resource": [ "arn:aws:s3:::AWSDOC-EXAMPLE-BUCKET1" ] }, { "Effect": "Allow", "Action": [ "s3:GetObjectVersion", "s3:GetObjectVersionAcl", "s3:GetObjectVersionTagging" ], "Resource": [ "arn:aws:s3:::AWSDOC-EXAMPLE-BUCKET1/*" ] }, { "Effect": "Allow", "Action": [ "s3:ReplicateObject", "s3:ReplicateDelete", "s3:ReplicateTags" ], "Resource": "arn:aws:s3:::AWSDOC-EXAMPLE-BUCKET2/*" } ] }
Exemple de politique de relation de confiance :
{ "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Principal": { "Service": "s3.amazonaws.com" }, "Action": "sts:AssumeRole" } ] }
Cette commande ne produit aucun résultat.
Pour plus d'informations, consultez Ceci est le titre du sujet dans le guide de l'utilisateur de la console Amazon Simple Storage Service.
-
Pour API plus de détails, voir PutBucketReplication
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserput-bucket-request-payment
.
- AWS CLI
-
Exemple 1 : Pour activer la configuration ``requester pay`` pour un bucket
L'
put-bucket-request-payment
exemple suivant activerequester pays
le bucket spécifié.aws s3api put-bucket-request-payment \ --bucket
my-bucket
\ --request-payment-configuration '{"Payer":"Requester"}
'Cette commande ne produit aucun résultat.
Exemple 2 : Pour désactiver la configuration ``requester pay`` pour un bucket
L'
put-bucket-request-payment
exemple suivant désactiverequester pays
le bucket spécifié.aws s3api put-bucket-request-payment \ --bucket
my-bucket
\ --request-payment-configuration '{"Payer":"BucketOwner"}
'Cette commande ne produit aucun résultat.
-
Pour API plus de détails, voir PutBucketRequestPayment
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserput-bucket-tagging
.
- AWS CLI
-
La commande suivante applique une configuration de balisage à un compartiment nommé
my-bucket
:aws s3api put-bucket-tagging --bucket
my-bucket
--taggingfile://tagging.json
Le fichier
tagging.json
est un JSON document du dossier actuel qui spécifie les balises :{ "TagSet": [ { "Key": "organization", "Value": "marketing" } ] }
Ou appliquez une configuration de balisage
my-bucket
directement depuis la ligne de commande :aws s3api put-bucket-tagging --bucket
my-bucket
--tagging 'TagSet=[{Key=organization,Value=marketing}]
'-
Pour API plus de détails, voir PutBucketTagging
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserput-bucket-versioning
.
- AWS CLI
-
La commande suivante active le versionnement sur un bucket nommé
my-bucket
:aws s3api put-bucket-versioning --bucket
my-bucket
--versioning-configurationStatus=Enabled
La commande suivante active le versionnement et utilise un code mfa
aws s3api put-bucket-versioning --bucket
my-bucket
--versioning-configurationStatus=Enabled
--mfa"SERIAL 123456"
-
Pour API plus de détails, voir PutBucketVersioning
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserput-bucket-website
.
- AWS CLI
-
Applique une configuration de site Web statique à un compartiment nommé
my-bucket
:aws s3api put-bucket-website --bucket
my-bucket
--website-configurationfile://website.json
Le fichier
website.json
est un JSON document du dossier actuel qui indique les pages d'index et d'erreur du site Web :{ "IndexDocument": { "Suffix": "index.html" }, "ErrorDocument": { "Key": "error.html" } }
-
Pour API plus de détails, voir PutBucketWebsite
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserput-object-acl
.
- AWS CLI
-
La commande suivante accorde l'
read
autorisationfull control
à deux AWS utilisateurs (user1@example.com et user2@example.com) et à tout le monde :aws s3api put-object-acl --bucket
MyBucket
--keyfile.txt
--grant-full-controlemailaddress=user1@example.com,emailaddress=user2@example.com
--grant-readuri=http://acs.amazonaws.com/groups/global/AllUsers
Voir http://docs.aws.amazon. com/AmazonS3/latest/API/RESTBucketPUTacl.html pour plus de détails sur la personnalisation ACLs (les ACL commandes s3api, par exemple
put-object-acl
, utilisent la même notation abrégée pour les arguments).-
Pour API plus de détails, voir PutObjectAcl
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserput-object-legal-hold
.
- AWS CLI
-
Pour appliquer une suspension légale à un objet
L'
put-object-legal-hold
exemple suivant définit une conservation légale sur l'objetdoc1.rtf
.aws s3api put-object-legal-hold \ --bucket
my-bucket-with-object-lock
\ --keydoc1.rtf
\ --legal-holdStatus=ON
Cette commande ne produit aucun résultat.
-
Pour API plus de détails, voir PutObjectLegalHold
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserput-object-lock-configuration
.
- AWS CLI
-
Pour définir une configuration de verrouillage d'objets sur un bucket
L'
put-object-lock-configuration
exemple suivant définit un verrouillage d'objet de 50 jours sur le compartiment spécifié.aws s3api put-object-lock-configuration \ --bucket
my-bucket-with-object-lock
\ --object-lock-configuration '{ "ObjectLockEnabled": "Enabled", "Rule": { "DefaultRetention": { "Mode": "COMPLIANCE", "Days": 50 }}}
'Cette commande ne produit aucun résultat.
-
Pour API plus de détails, voir PutObjectLockConfiguration
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserput-object-retention
.
- AWS CLI
-
Pour définir une configuration de rétention d'objets pour un objet
L'
put-object-retention
exemple suivant définit une configuration de rétention d'objet pour l'objet spécifié jusqu'au 01/01/2025.aws s3api put-object-retention \ --bucket
my-bucket-with-object-lock
\ --keydoc1.rtf
\ --retention '{ "Mode": "GOVERNANCE", "RetainUntilDate": "2025-01-01T00:00:00" }
'Cette commande ne produit aucun résultat.
-
Pour API plus de détails, voir PutObjectRetention
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserput-object-tagging
.
- AWS CLI
-
Pour définir une étiquette sur un objet
L'
put-object-tagging
exemple suivant définit une balise avec la clédesignation
et la valeurconfidential
sur l'objet spécifié.aws s3api put-object-tagging \ --bucket
my-bucket
\ --keydoc1.rtf
\ --tagging '{"TagSet": [{ "Key": "designation", "Value": "confidential" }]}
'Cette commande ne produit aucun résultat.
L'
put-object-tagging
exemple suivant définit plusieurs ensembles de balises sur l'objet spécifié.aws s3api put-object-tagging \ --bucket
my-bucket-example
\ --keydoc3.rtf
\ --tagging '{"TagSet": [{ "Key": "designation", "Value": "confidential" }, { "Key": "department", "Value": "finance" }, { "Key": "team", "Value": "payroll" } ]}
'Cette commande ne produit aucun résultat.
-
Pour API plus de détails, voir PutObjectTagging
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserput-object
.
- AWS CLI
-
L'exemple suivant utilise la
put-object
commande pour charger un objet sur Amazon S3 :aws s3api put-object --bucket
text-content
--keydir-1/my_images.tar.bz2
--bodymy_images.tar.bz2
L'exemple suivant montre le téléchargement d'un fichier vidéo (le fichier vidéo est spécifié à l'aide de la syntaxe du système de fichiers Windows). ) :
aws s3api put-object --bucket
text-content
--keydir-1/big-video-file.mp4
--body e:\media\videos\f-sharp-3-data-services.mp4Pour plus d'informations sur le téléchargement d'objets, consultez Uploading Objects dans le manuel Amazon S3 Developer Guide.
-
Pour API plus de détails, voir PutObject
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserput-public-access-block
.
- AWS CLI
-
Pour définir la configuration de blocage de l'accès public pour un bucket
L'
put-public-access-block
exemple suivant définit une configuration d'accès public par blocs restrictifs pour le compartiment spécifié.aws s3api put-public-access-block \ --bucket
my-bucket
\ --public-access-block-configuration"BlockPublicAcls=true,IgnorePublicAcls=true,BlockPublicPolicy=true,RestrictPublicBuckets=true"
Cette commande ne produit aucun résultat.
-
Pour API plus de détails, voir PutPublicAccessBlock
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserrb
.
- AWS CLI
-
Exemple 1 : supprimer un bucket
La
rb
commande suivante supprime un bucket. Dans cet exemple, le bucket de l'utilisateur estmybucket
. Notez que le compartiment doit être vide pour pouvoir être retiré :aws s3 rb
s3://mybucket
Sortie :
remove_bucket: mybucket
Exemple 2 : Forcer la suppression d'un bucket
La
rb
commande suivante utilise le--force
paramètre pour supprimer d'abord tous les objets du compartiment, puis pour retirer le compartiment lui-même. Dans cet exemple, le bucket de l'utilisateur estmybucket
et les objets qu'il contientmybucket
sonttest1.txt
ettest2.txt
:aws s3 rb
s3://mybucket
\ --forceSortie :
delete: s3://mybucket/test1.txt delete: s3://mybucket/test2.txt remove_bucket: mybucket
-
Pour API plus de détails, voir Rb
dans AWS CLI Command Reference.
-
L'exemple de code suivant montre comment utiliserrestore-object
.
- AWS CLI
-
Pour créer une demande de restauration pour un objet
L'
restore-object
exemple suivant restaure l'objet Amazon S3 Glacier spécifié pour le compartimentmy-glacier-bucket
pendant 10 jours.aws s3api restore-object \ --bucket
my-glacier-bucket
\ --keydoc1.rtf
\ --restore-requestDays=10
Cette commande ne produit aucun résultat.
-
Pour API plus de détails, voir RestoreObject
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserrm
.
- AWS CLI
-
Exemple 1 : Supprimer un objet S3
La
rm
commande suivante supprime un seul objet s3 :aws s3 rm
s3://mybucket/test2.txt
Sortie :
delete: s3://mybucket/test2.txt
Exemple 2 : supprimer tout le contenu d'un bucket
La
rm
commande suivante supprime de manière récursive tous les objets d'un compartiment et d'un préfixe spécifiés lorsqu'elle est transmise avec le paramètre.--recursive
Dans cet exemple, le compartimentmybucket
contient les objetstest1.txt
ettest2.txt
:aws s3 rm
s3://mybucket
\ --recursiveSortie :
delete: s3://mybucket/test1.txt delete: s3://mybucket/test2.txt
Exemple 3 : Supprimer tout le contenu d'un bucket, à l'exception des fichiers ``.jpg``
La
rm
commande suivante supprime de manière récursive tous les objets d'un compartiment et d'un préfixe spécifiés lorsqu'elle est transmise avec le paramètre,--recursive
tout en excluant certains objets à l'aide d'un paramètre.--exclude
Dans cet exemple, le compartimentmybucket
contient les objetstest1.txt
ettest2.jpg
:aws s3 rm
s3://mybucket/
\ --recursive \ --exclude"*.jpg"
Sortie :
delete: s3://mybucket/test1.txt
Exemple 4 : Supprimer tout le contenu d'un compartiment, à l'exception des objets sous le préfixe spécifié
La
rm
commande suivante supprime de manière récursive tous les objets d'un compartiment et d'un préfixe spécifiés lorsqu'elle est transmise avec le paramètre,--recursive
tout en excluant tous les objets sous un préfixe particulier à l'aide d'un paramètre.--exclude
Dans cet exemple, le compartimentmybucket
contient les objetstest1.txt
etanother/test.txt
:aws s3 rm
s3://mybucket/
\ --recursive \ --exclude"another/*"
Sortie :
delete: s3://mybucket/test1.txt
Exemple 5 : Supprimer un objet d'un point d'accès S3
La
rm
commande suivante supprime un seul objet (mykey
) du point d'accès (myaccesspoint
). : : Larm
commande suivante supprime un seul objet (mykey
) du point d'accès (myaccesspoint
).aws s3 rm
s3://arn:aws:s3:us-west-2:123456789012:accesspoint/myaccesspoint/mykey
Sortie :
delete: s3://arn:aws:s3:us-west-2:123456789012:accesspoint/myaccesspoint/mykey
-
Pour API plus de détails, voir Rm
dans AWS CLI Command Reference.
-
L'exemple de code suivant montre comment utiliserselect-object-content
.
- AWS CLI
-
Pour filtrer le contenu d'un objet Amazon S3 en fonction d'une SQL instruction
L'
select-object-content
exemple suivant filtre l'objetmy-data-file.csv
avec l'SQLinstruction spécifiée et envoie la sortie dans un fichier.aws s3api select-object-content \ --bucket
my-bucket
\ --keymy-data-file.csv
\ --expression"select * from s3object limit 100"
\ --expression-type 'SQL
' \ --input-serialization '{"CSV": {}, "CompressionType": "NONE"}
' \ --output-serialization '{"CSV": {}}
'"output.csv"
Cette commande ne produit aucun résultat.
-
Pour API plus de détails, voir SelectObjectContent
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utilisersync
.
- AWS CLI
-
Exemple 1 : synchronisation de tous les objets locaux avec le compartiment spécifié
La
sync
commande suivante synchronise les objets d'un répertoire local avec le préfixe et le compartiment spécifiés en chargeant les fichiers locaux vers S3. Un fichier local devra être chargé si sa taille est différente de celle de l'objet S3, si l'heure de dernière modification du fichier local est plus récente que l'heure de dernière modification de l'objet S3 ou si le fichier local n'existe pas sous le compartiment et le préfixe spécifiés. Dans cet exemple, l'utilisateur synchronise le bucket avecmybucket
le répertoire courant local. Le répertoire courant local contient les fichierstest.txt
ettest2.txt
. Le compartiment nemybucket
contient aucun objet.aws s3 sync
.
s3://mybucket
Sortie :
upload: test.txt to s3://mybucket/test.txt upload: test2.txt to s3://mybucket/test2.txt
Exemple 2 : Synchroniser tous les objets S3 du compartiment S3 spécifié vers un autre compartiment
La
sync
commande suivante synchronise les objets sous un préfixe et un compartiment spécifiés avec les objets sous un autre préfixe et compartiment spécifiés en copiant des objets S3. Un objet S3 devra être copié si les tailles des deux objets S3 sont différentes, si l'heure de dernière modification de la source est plus récente que l'heure de dernière modification de la destination ou si l'objet S3 n'existe pas dans le compartiment et le préfixe de destination spécifiés.Dans cet exemple, l'utilisateur synchronise le bucket avec
mybucket
le bucketmybucket2
. Le compartimentmybucket
contient les objetstest.txt
ettest2.txt
. Le bucket nemybucket2
contient aucun objet :aws s3 sync
s3://mybucket
s3://mybucket2
Sortie :
copy: s3://mybucket/test.txt to s3://mybucket2/test.txt copy: s3://mybucket/test2.txt to s3://mybucket2/test2.txt
Exemple 3 : Synchroniser tous les objets S3 du compartiment S3 spécifié vers le répertoire local
La
sync
commande suivante synchronise les fichiers du compartiment S3 spécifié vers le répertoire local en téléchargeant des objets S3. Un objet S3 devra être téléchargé si sa taille est différente de celle du fichier local, si l'heure de dernière modification de l'objet S3 est plus récente que l'heure de dernière modification du fichier local ou si l'objet S3 n'existe pas dans le répertoire local. Notez que lorsque des objets sont téléchargés depuis S3, l'heure de dernière modification du fichier local est remplacée par l'heure de dernière modification de l'objet S3. Dans cet exemple, l'utilisateur synchronise le bucket avecmybucket
le répertoire local actuel. Le compartimentmybucket
contient les objetstest.txt
ettest2.txt
. Le répertoire local actuel ne contient aucun fichier :aws s3 sync
s3://mybucket
.
Sortie :
download: s3://mybucket/test.txt to test.txt download: s3://mybucket/test2.txt to test2.txt
Exemple 4 : Synchroniser tous les objets locaux avec le compartiment spécifié et supprimer tous les fichiers qui ne correspondent pas
La
sync
commande suivante synchronise les objets sous un préfixe et un compartiment spécifiés avec les fichiers d'un répertoire local en téléchargeant les fichiers locaux sur S3. En raison de--delete
ce paramètre, tous les fichiers existant sous le préfixe et le compartiment spécifiés mais n'existant pas dans le répertoire local seront supprimés. Dans cet exemple, l'utilisateur synchronise le bucket avecmybucket
le répertoire courant local. Le répertoire courant local contient les fichierstest.txt
ettest2.txt
. Le bucketmybucket
contient l'objettest3.txt
:aws s3 sync
.
s3://mybucket
\ --deleteSortie :
upload: test.txt to s3://mybucket/test.txt upload: test2.txt to s3://mybucket/test2.txt delete: s3://mybucket/test3.txt
Exemple 5 : Synchroniser tous les objets locaux avec le compartiment spécifié, à l'exception des fichiers ``.jpg``
La
sync
commande suivante synchronise les objets sous un préfixe et un compartiment spécifiés avec les fichiers d'un répertoire local en téléchargeant les fichiers locaux sur S3. En raison de--exclude
ce paramètre, tous les fichiers correspondant au modèle existant à la fois dans S3 et localement seront exclus de la synchronisation. Dans cet exemple, l'utilisateur synchronise le bucket avecmybucket
le répertoire courant local. Le répertoire courant local contient les fichierstest.jpg
ettest2.txt
. Le bucketmybucket
contient l'objettest.jpg
d'une taille différente de celle du compartiment localtest.jpg
:aws s3 sync
.
s3://mybucket
\ --exclude"*.jpg"
Sortie :
upload: test2.txt to s3://mybucket/test2.txt
Exemple 6 : Synchroniser tous les objets locaux avec le compartiment spécifié, à l'exception des fichiers ``.jpg``
La
sync
commande suivante synchronise les fichiers d'un répertoire local avec les objets dotés d'un préfixe et d'un compartiment spécifiés en téléchargeant des objets S3. Cet exemple utilise l'indicateur de--exclude
paramètre pour exclure un répertoire et un préfixe S3 spécifiés de lasync
commande. Dans cet exemple, l'utilisateur synchronise le répertoire courant local avec le bucketmybucket
. Le répertoire courant local contient les fichierstest.txt
etanother/test2.txt
. Le bucketmybucket
contient les objetsanother/test5.txt
ettest1.txt
:aws s3 sync
s3://mybucket/
.
\ --exclude"*another/*"
Sortie :
download: s3://mybucket/test1.txt to test1.txt
Exemple 7 : Synchroniser tous les objets entre des compartiments situés dans différentes régions
La
sync
commande suivante synchronise les fichiers entre deux compartiments situés dans des régions différentes :aws s3 sync
s3://my-us-west-2-bucket
s3://my-us-east-1-bucket
\ --source-regionus-west-2
\ --regionus-east-1
Sortie :
download: s3://my-us-west-2-bucket/test1.txt to s3://my-us-east-1-bucket/test1.txt
Exemple 8 : synchronisation avec un point d'accès S3
La
sync
commande suivante synchronise le répertoire actuel avec le point d'accès (myaccesspoint
) :aws s3 sync
.
s3://arn:aws:s3:us-west-2:123456789012:accesspoint/myaccesspoint/
Sortie :
upload: test.txt to s3://arn:aws:s3:us-west-2:123456789012:accesspoint/myaccesspoint/test.txt upload: test2.txt to s3://arn:aws:s3:us-west-2:123456789012:accesspoint/myaccesspoint/test2.txt
-
Pour API plus de détails, consultez la section Sync
in AWS CLI Command Reference.
-
L'exemple de code suivant montre comment utiliserupload-part-copy
.
- AWS CLI
-
Pour télécharger une partie d'un objet en copiant les données d'un objet existant en tant que source de données
L'
upload-part-copy
exemple suivant télécharge une partie en copiant les données d'un objet existant en tant que source de données.aws s3api upload-part-copy \ --bucket
my-bucket
\ --key"Map_Data_June.mp4"
\ --copy-source"my-bucket/copy_of_Map_Data_June.mp4"
\ --part-number1
\ --upload-id"bq0tdE1CDpWQYRPLHuNG50xAT6pA5D.m_RiBy0ggOH6b13pVRY7QjvLlf75iFdJqp_2wztk5hvpUM2SesXgrzbehG5hViyktrfANpAD0NO.Nk3XREBqvGeZF6U3ipiSm"
Sortie :
{ "CopyPartResult": { "LastModified": "2019-12-13T23:16:03.000Z", "ETag": "\"711470fc377698c393d94aed6305e245\"" } }
-
Pour API plus de détails, voir UploadPartCopy
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserupload-part
.
- AWS CLI
-
La commande suivante télécharge la première partie d'un téléchargement en plusieurs parties initié par la
create-multipart-upload
commande :aws s3api upload-part --bucket
my-bucket
--key 'multipart/01
' --part-number1
--bodypart01
--upload-id"dfRtDYU0WWCCcH43C3WFbkRONycyCpTJJvxu2i5GYkZljF.Yxwh6XG7WfS2vC4to6HiV6Yjlx.cph0gtNBtJ8P3URCSbB7rjxI5iEwVDmgaXZOGgkk5nVTW16HOQ5l0R"
L'
body
option prend le nom ou le chemin d'un fichier local à télécharger (n'utilisez pas le préfixe file ://). La taille minimale des pièces est de 5 Mo. L'identifiant de téléchargement est renvoyé parcreate-multipart-upload
et peut également être récupéré aveclist-multipart-uploads
. Le bucket et la clé sont spécifiés lorsque vous créez le téléchargement partitionné.Sortie :
{ "ETag": "\"e868e0f4719e394144ef36531ee6824c\"" }
Enregistrez la ETag valeur de chaque pièce pour plus tard. Ils sont nécessaires pour effectuer le téléchargement en plusieurs parties.
-
Pour API plus de détails, voir UploadPart
la section Référence des AWS CLI commandes.
-
L'exemple de code suivant montre comment utiliserwebsite
.
- AWS CLI
-
Configuration d'un compartiment S3 en tant que site Web statique
La commande suivante configure un bucket
my-bucket
nommé site Web statique. L'option du document d'index indique le fichier versmy-bucket
lequel les visiteurs seront dirigés lorsqu'ils navigueront sur le site WebURL. Dans ce cas, le bucket se trouve dans la région us-west-2, le site apparaîtra donc à l'adresse.http://my-bucket.s3-website-us-west-2.amazonaws.com
Tous les fichiers du bucket qui apparaissent sur le site statique doivent être configurés pour permettre aux visiteurs de les ouvrir. Les autorisations sur les fichiers sont configurées séparément de la configuration du site Web du bucket.
aws s3 website
s3://my-bucket/
\ --index-documentindex.html
\ --error-documenterror.html
Pour plus d'informations sur l'hébergement d'un site Web statique dans Amazon S3, consultez la section Hébergement d'un site Web statique dans le manuel Amazon Simple Storage Service Developer Guide.
-
Pour API plus de détails, voir Site Web
dans AWS CLI Command Reference.
-