Lesen aus Salesforce Marketing Cloud Account Engagement-Entitäten - AWS Glue

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Lesen aus Salesforce Marketing Cloud Account Engagement-Entitäten

Voraussetzung

Ein Salesforce Marketing Cloud Account Engagement-Objekt, aus dem Sie gerne lesen möchten. Sie benötigen den Objektnamen.

Unterstützte Entitäten für die Quelle:

Entität Kann gefiltert werden Unterstützt Limit Unterstützt Order by Unterstützt Select * Unterstützt Partitionierung
Kampagne Ja Ja Ja Ja Ja
Dynamischer Inhalt Ja Ja Ja Ja Ja
Email Ja Ja Ja Ja Ja
E-Mail-Vorlage Ja Ja Ja Ja Ja
Engagement-Studio-Programm Ja Ja Ja Ja Ja
Inhalt des Ordners Ja Ja Ja Ja Ja
Landingpage Ja Ja Ja Ja Ja
Lebenszyklus-Verlauf Ja Ja Ja Ja Ja
Lebenszyklusphase Ja Ja Ja Ja Ja
Auflisten Ja Ja Ja Ja Ja
Auflisten einer E-Mail Ja Ja Ja Ja Ja
Mitgliedschaft auflisten Ja Ja Ja Ja Ja
-Gelegenheit Ja Ja Ja Ja Ja
Aussicht Ja Ja Ja Ja Ja
Konto für potenzielle Kunden Ja Ja Ja Ja Ja
Benutzer Ja Ja Ja Ja Ja

Beispiel:

salesforcepardot_read = glueContext.create_dynamic_frame.from_options( connection_type="salesforcepardot", connection_options={ "connectionName": "connectionName", "ENTITY_NAME": "entityName", "API_VERSION": "v5" } )

Beachten Sie die folgenden Überlegungen zum Konnektor:

  • Der Wert des delete Felds in den Entitäten kann false (Standard)true, oder seinall.

Partitionierung von Abfragen

Filterbasierte Partitionierung:

Sie können die zusätzlichen Spark-OptionenPARTITION_FIELD,, und angeben LOWER_BOUNDUPPER_BOUND, NUM_PARTITIONS ob Sie Parallelität in Spark nutzen möchten. Mit diesen Parametern würde die ursprüngliche Abfrage in eine NUM_PARTITIONS Reihe von Unterabfragen aufgeteilt, die von Spark-Aufgaben gleichzeitig ausgeführt werden können.

  • PARTITION_FIELD: der Name des Feldes, das zur Partitionierung der Abfrage verwendet werden soll.

  • LOWER_BOUND: ein inklusiver Untergrenzwert des ausgewählten Partitionsfeldes.

    Für das Datetime-Feld akzeptieren wir das Spark-Zeitstempelformat, das in SPark SQL Abfragen verwendet wird.

    Beispiele für gültige Werte:

    "2022-01-01T01:01:01.000Z"
  • UPPER_BOUND: ein exklusiver Obergrenzwert des ausgewählten Partitionsfeldes.

  • NUM_PARTITIONS: Die Anzahl an Partitionen.

  • PARTITION_BY: die Art der durchzuführenden Partitionierung. "FIELD" ist im Falle einer feldbasierten Partitionierung zu übergeben.

Beispiel:

salesforcepardot_read = glueContext.create_dynamic_frame.from_options( connection_type="salesforcepardot", connection_options={ "connectionName": "connectionName", "ENTITY_NAME": "entityName", "API_VERSION": "v5", "PARTITION_FIELD": "createdAt" "LOWER_BOUND": "2022-01-01T01:01:01.000Z" "UPPER_BOUND": "2024-01-01T01:01:01.000Z" "NUM_PARTITIONS": "10", "PARTITION_BY": "FIELD" } )