AWS Data Pipeline ist für Neukunden nicht mehr verfügbar. Bestehende Kunden von AWS Data Pipeline können den Service weiterhin wie gewohnt nutzen. Weitere Informationen
Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
S3 DataNode
Definiert einen Datenknoten mit Amazon S3. Standardmäßig DataNode verwendet der S3 serverseitige Verschlüsselung. Wenn Sie dies deaktivieren möchten, setzen Sie s3 EncryptionType aufNONE.
Anmerkung
Wenn Sie ein S3DataNode
als Eingabe für verwendenCopyActivity
, werden nur die TSV Datenformate CSV und unterstützt.
Beispiel
Es folgt ein Beispiel für diesen Objekttyp. Dieses Objekt verweist auf ein anderes Objekt, das Sie in derselben Pipeline-Definitionsdatei definieren. CopyPeriod
ist ein Schedule
-Objekt.
{ "id" : "OutputData", "type" : "S3DataNode", "schedule" : { "ref" : "CopyPeriod" }, "filePath" : "s3://myBucket/#{@scheduledStartTime}.csv" }
Syntax
Objektaufruf-Felder | Beschreibung | Slot-Typ |
---|---|---|
schedule | Dieses Objekt wird innerhalb der Ausführung eines Zeitplanintervalls aufgerufen. Benutzer müssen einen Zeitplanverweis auf ein anderes Objekt angeben, um die Abhängigkeitsausführungsreihenfolge für dieses Objekt festzulegen. Benutzer können diese Anforderung erfüllen, indem sie explizit einen Zeitplan für das Objekt festlegen, z. B. indem sie „schedule“: {"ref“: "DefaultSchedule„} angeben. In den meisten Fällen ist es besser, den Zeitplanverweis auf das Standard-Pipeline-Objekt zu setzen, damit alle Objekte diesen Zeitplan erben. Wenn die Pipeline über einen Baum mit Zeitplänen verfügt (Zeitpläne innerhalb des Hauptplans), können Benutzer ein übergeordnetes Objekt mit Zeitplänenreferenz erstellen. Weitere Informationen zu optionalen Beispiel-Zeitplankonfigurationen finden Sie unter https://docs.aws.amazon.com/datapipeline/latest/DeveloperGuide/dp-object-schedule.html. | Referenzobjekt, z. B. „schedule“: {"ref“:“ myScheduleId „} |
Optionale Felder | Beschreibung | Slot-Typ |
---|---|---|
attemptStatus | Zuletzt gemeldeter Status von der Remote-Aktivität. | String |
attemptTimeout | Timeout für die Remote-Arbeit abgeschlossen. Wenn diese Option aktiviert ist, kann eine Remote-Aktivität, die nicht innerhalb der festgelegten Startzeit abgeschlossen wird, wiederholt werden. | Intervall |
Kompression | Die vom S3 beschriebene Art der Komprimierung für die DatenDataNode. „none“ ist keine Komprimierung und „gzip“ wird mit dem Gzip-Algorithmus komprimiert. Dieses Feld wird nur für die Verwendung mit Amazon Redshift und wenn Sie S3 DataNode mit CopyActivity verwenden, unterstützt. | Aufzählung |
dataFormat | DataFormat für die in diesem S3 DataNode beschriebenen Daten. | Referenzobjekt, z. B. "dataFormat„: {" ref“:“ myDataFormat Id "} |
dependsOn | Angeben der Abhängigkeit von einem anderen ausführbaren Objekt | Referenzobjekt, z. B. "dependsOn„: {" ref“:“ myActivityId „} |
directoryPath | Amazon S3 S3-Verzeichnispfad alsURI: s3://my-bucket/my-key-for-directory. Sie müssen entweder einen directoryPath Wert filePath oder angeben. | String |
failureAndRerunModus | Beschreibt das Verhalten des Konsumentenknotens, wenn Abhängigkeiten fehlschlagen oder erneut ausgeführt werden | Aufzählung |
filePath | Der Pfad zum Objekt in Amazon S3URI, zum Beispiel: s3://my-bucket/my-key-for-file. Sie müssen entweder einen directoryPath Wert filePath oder angeben. Diese repräsentieren einen Ordner und einen Dateinamen. Verwenden Sie den directoryPath Wert, um mehrere Dateien in einem Verzeichnis unterzubringen. | String |
lateAfterTimeout | Die nach dem Start der Pipeline verstrichene Zeit, innerhalb der das Objekt abgeschlossen werden muss. Sie wird nur ausgelöst, wenn der Zeitplantyp nicht auf eingestellt ist. ondemand |
Intervall |
manifestFilePath | Der Amazon S3 S3-Pfad zu einer Manifestdatei in dem von Amazon Redshift unterstützten Format. AWS Data Pipeline verwendet die Manifestdatei, um die angegebenen Amazon S3 S3-Dateien in die Tabelle zu kopieren. Dieses Feld ist nur gültig, wenn a RedShiftCopyActivity auf den S3 verweistDataNode. | String |
maxActiveInstances | Die maximale Anzahl gleichzeitiger aktiver Instances einer Komponente. Wiederholungen zählen nicht zur Anzahl der aktiven Instances. | Ganzzahl |
maximumRetries | Maximale Anzahl von Versuchen bei Ausfällen | Ganzzahl |
onFail | Eine Aktion, die ausgeführt werden soll, wenn das aktuelle Objekt fehlschlägt. | Referenzobjekt, z. B. "onFail„: {" ref“:“ myActionId „} |
onLateAction | Aktionen, die ausgelöst werden sollen, wenn ein Objekt noch nicht geplant oder noch nicht abgeschlossen wurde. | Referenzobjekt, z. B. "onLateAction„: {" ref“:“ myActionId „} |
onSuccess | Eine Aktion, die ausgeführt wird, wenn das aktuelle Objekt erfolgreich ist. | Referenzobjekt, z. B. "onSuccess„: {" ref“:“ myActionId „} |
übergeordneter | Übergeordnetes Objekt des aktuellen Objekts, aus dem Slots übernommen werden. | Referenzobjekt, z. B. „parent“: {"ref“:“ myBaseObject Id "} |
pipelineLogUri | Das S3 URI (wie 's3://BucketName/Key/ ') zum Hochladen von Protokollen für die Pipeline. | String |
precondition | Legen Sie optional eine Vorbedingung fest. Ein Datenknoten wird erst als "READY" markiert, wenn alle Voraussetzungen erfüllt sind. | Referenzobjekt, z. B. „Vorbedingung“: {"ref“:“ myPreconditionId „} |
reportProgressTimeout | Timeout für die Arbeit im Homeoffice bei aufeinanderfolgenden Aufrufen von. reportProgress Wenn diese Option aktiviert ist, werden Remote-Aktivitäten, die den Fortschritt für den angegebenen Zeitraum nicht melden, als fehlgeschlagen angesehen und es wird erneut versucht. | Intervall |
retryDelay | Die Zeitüberschreitungsdauer zwischen zwei Wiederholungsversuchen. | Intervall |
runsOn | Die Rechenressource zum Ausführen der Aktivität oder des Befehls. Zum Beispiel eine EC2 Amazon-Instance oder ein EMR Amazon-Cluster. | Referenzobjekt, z. B. "runsOn„: {" ref“:“ myResourceId „} |
s3 EncryptionType | Überschreibt den Amazon S3-Verschlüsselungstyp. Die Werte sind SERVER _ SIDE _ ENCRYPTION oderNONE. Die serverseitige Verschlüsselung ist standardmäßig aktiviert. | Aufzählung |
scheduleType | Mit dem Zeitplantyp können Sie angeben, ob die Objekte in Ihrer Pipeline-Definition am Anfang des Intervalls oder am Ende des Intervalls geplant werden sollen. Zeitreihenstilplanung bedeutet, dass Instances am Ende jedes Intervalls geplant werden und Cron-Stil-Planung bedeutet, dass Instances zu Beginn jedes Intervalls geplant werden. Ein On-Demand-Zeitplan ermöglicht es Ihnen, eine Pipeline einmal pro Aktivierung auszuführen. Dies bedeutet, dass Sie die Pipeline nicht klonen oder neu erstellen müssen, um sie erneut auszuführen. Wenn Sie einen On-Demand-Zeitplan verwenden, muss dieser im Standardobjekt angegeben werden und darf das einzige Objekt sein, das für Objekte in der Pipeline scheduleType angegeben wird. Um On-Demand-Pipelines zu verwenden, rufen Sie den ActivatePipeline Vorgang einfach für jeden nachfolgenden Lauf auf. Die Werte sind: cron, ondemand und timeseries. | Aufzählung |
workerGroup | Die Auftragnehmergruppe. Dies wird für Routing-Aufgaben verwendet. Wenn Sie einen runsOn Wert angeben und dieser workerGroup existiert, workerGroup wird dieser ignoriert. | String |
Laufzeitfelder | Beschreibung | Slot-Typ |
---|---|---|
@activeInstances | Liste der aktuell geplanten aktiven Instance-Objekte. | Referenzobjekt, z. B. "activeInstances„: {" ref“:“ myRunnableObject Id "} |
@actualEndTime | Zeitpunkt, zu dem die Ausführung dieses Objekts abgeschlossen wurde. | DateTime |
@actualStartTime | Zeitpunkt, zu dem die Ausführung dieses Objekts gestartet wurde. | DateTime |
cancellationReason | Das cancellationReason , ob dieses Objekt storniert wurde. | String |
@cascadeFailedOn | Beschreibung der Abhängigkeitskette, bei der das Objekt fehlgeschlagen ist. | Referenzobjekt, z. B. "cascadeFailedOn„: {" ref“:“ myRunnableObject Id "} |
emrStepLog | EMRSchrittprotokolle sind nur bei EMR Aktivitätsversuchen verfügbar | String |
errorId | Das errorId , wenn dieses Objekt fehlgeschlagen ist. | String |
errorMessage | Das ist errorMessage , wenn dieses Objekt fehlgeschlagen ist. | String |
errorStackTrace | Die Fehler-Stack-Ablaufverfolgung., wenn dieses Objekt fehlgeschlagen ist. | String |
@finishedTime | Der Zeitpunkt, zu der dieses Objekt seine Ausführung beendet hat. | DateTime |
hadoopJobLog | Hadoop-Jobprotokolle sind bei Versuchen für EMR basierte Aktivitäten verfügbar. | String |
@healthStatus | Der Integritätsstatus des Objekts, der Erfolg oder Misserfolg der letzten Objekt-Instance widerspiegelt, die einen beendeten Zustand erreicht hat. | String |
@healthStatusFromInstanceId | Id des Objekts der letzten Instance, das einen beendeten Zustand erreicht hat. | String |
@ Zeit healthStatusUpdated | Zeitpunkt, zu dem der Servicestatus beim letzten Mal aktualisiert wurde. | DateTime |
hostname | Der Hostname des Clients, der den Aufgabenversuch aufnimmt. | String |
@lastDeactivatedTime | Zeitpunkt, zu dem dieses Objekt zuletzt deaktiviert wurde. | DateTime |
@ latestCompletedRun Zeit | Zeitpunkt des letzten Laufs, für den die Ausführung abgeschlossen wurde. | DateTime |
@latestRunTime | Zeitpunkt des letzten Laufs, für den die Ausführung geplant war. | DateTime |
@nextRunTime | Zeitpunkt des Laufs, der als nächstes geplant werden soll | DateTime |
reportProgressTime | Der letzte Zeitpunkt, an dem die Remote-Aktivität einen Fortschritt gemeldet hat. | DateTime |
@scheduledEndTime | Endzeit für Objekt einplanen | DateTime |
@scheduledStartTime | Startzeit für Objekt einplanen | DateTime |
@Status | Der Status des Objekts. | String |
@Version | Pipeline-Version, mit der das Objekt erstellt wurde. | String |
@waitingOn | Beschreibung der Liste der Abhängigkeiten, auf die dieses Objekt wartet. | Referenzobjekt, z. B. "waitingOn„: {" ref“:“ myRunnableObject Id "} |
Systemfelder | Beschreibung | Slot-Typ |
---|---|---|
@error | Fehler mit einer Beschreibung des falsch formatierten Objekts | String |
@pipelineId | Id der Pipeline, zu der dieses Objekt gehört | String |
@sphere | Die Kugel eines Objekts bezeichnet seinen Platz im Lebenszyklus: Komponentenobjekte ergeben Instance-Objekte, die Versuchsobjekte ausführen | String |