

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Erstellen einer Punktwolkenframe-Eingabemanifestdatei
<a name="sms-point-cloud-single-frame-input-data"></a>

Das Manifest ist eine UTF-8-kodierte Datei, in der jede Zeile ein vollständiges und gültiges JSON-Objekt ist. Jede Zeile wird durch einen Standardzeilenumbruch getrennt, \$1n oder \$1r\$1n. Da jede Zeile ein gültiges JSON-Objekt sein muss, sind Zeilenumbruchzeichen, die nicht durch Escape-Zeichen geschützt sind, nicht zulässig. In der Einzelframe-Eingabemanifestdatei enthält jede Zeile im Manifest Daten für einen einzelnen Punktwolkenframe. Die Punktwolkenframedaten können entweder im Binär- oder ASCII-Format gespeichert werden (siehe [Akzeptierte 3D-Rohdatenformate](sms-point-cloud-raw-data-types.md)). Dies ist die Manifestdateiformatierung, die für die 3D-Punktwolken-Objekterkennung und die semantische Segmentierung erforderlich ist. Optional können Sie auch Kamerasensorfusionsdaten für jeden Punktwolkenframe bereitstellen. 

Ground Truth unterstützt die Fusion von Punktwolken- und Videokamerasensoren im [Weltkoordinatensystem](sms-point-cloud-sensor-fusion-details.md#sms-point-cloud-world-coordinate-system) für alle Modalitäten. Wenn Sie Ihre extrinsische 3D-Sensor-Matrix erhalten können (wie eine extrinsische LiDAR-Matrix), empfehlen wir, 3D-Punktwolkenframes mithilfe der extrinsischen Matrix in das Weltkoordinatensystem umzuwandeln. Weitere Informationen finden Sie unter [Sensorfusion](sms-point-cloud-sensor-fusion-details.md#sms-point-cloud-sensor-fusion). 

Wenn Sie jedoch keine Punktwolke im Weltkoordinatensystem erhalten können, können Sie Koordinaten im ursprünglichen Koordinatensystem angeben, in dem die Daten erfasst wurden. Wenn Sie Kameradaten für die Sensorfusion bereitstellen, wird empfohlen, dass Sie LiDAR-Sensor- und Kameraposen im Weltkoordinatensystem bereitstellen. 

Zum Erstellen einer Einzelframe-Eingabemanifestdatei identifizieren Sie den Speicherort jedes Punktwolkenframes, den die Auftragnehmer mithilfe des Schlüssels `source-ref` beschriften sollen. Darüber hinaus müssen Sie den Schlüssel `source-ref-metadata` verwenden, um das Format des Datensatzes, einen Zeitstempel für diesen Frame und optional Sensorfusionsdaten und Videokamerabilder zu identifizieren.

Im folgenden Beispiel wird die Syntax veranschaulicht, die für eine Eingabemanifestdatei für einen Einzelframe-Punktwolken-Kennzeichnungsauftrag verwendet wird. Das Beispiel enthält zwei Punktwolkenframes. Einzelheiten zu den einzelnen Parametern finden Sie in der Tabelle nach diesem Beispiel. 

**Wichtig**  
Jede Zeile in Ihrer Eingabemanifestdatei muss im Format [JSON Lines](http://jsonlines.org/) sein. Der folgende Codeblock zeigt eine Eingabe-Manifestdatei mit zwei JSON-Objekten. Jedes JSON-Objekt wird verwendet, um auf einen einzelnen Punktwolkenrahmen zu verweisen und Details zu diesem bereitzustellen. Die JSON-Objekte wurden aus Gründen der besseren Lesbarkeit erweitert, aber Sie müssen jedes JSON-Objekt so minimieren, dass es in eine einzige Zeile passt, wenn Sie eine Eingabe-Manifestdatei erstellen. Ein Beispiel finden Sie unter diesem Codeblock.

```
{
    "source-ref": "s3://amzn-s3-demo-bucket/examplefolder/frame1.bin",
    "source-ref-metadata":{
        "format": "binary/xyzi",
        "unix-timestamp": 1566861644.759115,
        "ego-vehicle-pose":{
            "position": {
                "x": -2.7161461413869947,
                "y": 116.25822288149078,
                "z": 1.8348751887989483
            },
            "heading": {
                "qx": -0.02111296123795955,
                "qy": -0.006495469416730261,
                "qz": -0.008024565904865688,
                "qw": 0.9997181192298087
            }
        },
        "prefix": "s3://amzn-s3-demo-bucket/lidar_singleframe_dataset/someprefix/",
        "images": [
        {
            "image-path": "images/frame300.bin_camera0.jpg",
            "unix-timestamp": 1566861644.759115,
            "fx": 847.7962624528487,
            "fy": 850.0340893791985,
            "cx": 576.2129134707038,
            "cy": 317.2423573573745,
            "k1": 0,
            "k2": 0,
            "k3": 0,
            "k4": 0,
            "p1": 0,
            "p2": 0,
            "skew": 0,
            "position": {
                "x": -2.2722515189268138,
                "y": 116.86003310568965,
                "z": 1.454614668542299
            },
            "heading": {
                "qx": 0.7594754093069037,
                "qy": 0.02181790885672969,
                "qz": -0.02461725233103356,
                "qw": -0.6496916273040025
            },
            "camera-model": "pinhole"
        }]
    }
}
{
    "source-ref": "s3://amzn-s3-demo-bucket/examplefolder/frame2.bin",
    "source-ref-metadata":{
        "format": "binary/xyzi",
        "unix-timestamp": 1566861632.759133,
        "ego-vehicle-pose":{
            "position": {
                "x": -2.7161461413869947,
                "y": 116.25822288149078,
                "z": 1.8348751887989483
            },
            "heading": {
                "qx": -0.02111296123795955,
                "qy": -0.006495469416730261,
                "qz": -0.008024565904865688,
                "qw": 0.9997181192298087
            }
        },
        "prefix": "s3://amzn-s3-demo-bucket/lidar_singleframe_dataset/someprefix/",
        "images": [
        {
            "image-path": "images/frame300.bin_camera0.jpg",
            "unix-timestamp": 1566861644.759115,
            "fx": 847.7962624528487,
            "fy": 850.0340893791985,
            "cx": 576.2129134707038,
            "cy": 317.2423573573745,
            "k1": 0,
            "k2": 0,
            "k3": 0,
            "k4": 0,
            "p1": 0,
            "p2": 0,
            "skew": 0,
            "position": {
                "x": -2.2722515189268138,
                "y": 116.86003310568965,
                "z": 1.454614668542299
            },
            "heading": {
                "qx": 0.7594754093069037,
                "qy": 0.02181790885672969,
                "qz": -0.02461725233103356,
                "qw": -0.6496916273040025
            },
            "camera-model": "pinhole"
        }]
    }
}
```

Wenn Sie eine Eingabemanifestdatei erstellen, müssen Sie Ihre JSON-Objekte so reduzieren, dass sie in eine einzige Zeile passen. Der obige Codeblock würde beispielsweise in einer Eingabemanifestdatei wie folgt aussehen:

```
{"source-ref":"s3://amzn-s3-demo-bucket/examplefolder/frame1.bin","source-ref-metadata":{"format":"binary/xyzi","unix-timestamp":1566861644.759115,"ego-vehicle-pose":{"position":{"x":-2.7161461413869947,"y":116.25822288149078,"z":1.8348751887989483},"heading":{"qx":-0.02111296123795955,"qy":-0.006495469416730261,"qz":-0.008024565904865688,"qw":0.9997181192298087}},"prefix":"s3://amzn-s3-demo-bucket/lidar_singleframe_dataset/someprefix/","images":[{"image-path":"images/frame300.bin_camera0.jpg","unix-timestamp":1566861644.759115,"fx":847.7962624528487,"fy":850.0340893791985,"cx":576.2129134707038,"cy":317.2423573573745,"k1":0,"k2":0,"k3":0,"k4":0,"p1":0,"p2":0,"skew":0,"position":{"x":-2.2722515189268138,"y":116.86003310568965,"z":1.454614668542299},"heading":{"qx":0.7594754093069037,"qy":0.02181790885672969,"qz":-0.02461725233103356,"qw":-0.6496916273040025},"camera-model":"pinhole"}]}}
{"source-ref":"s3://amzn-s3-demo-bucket/examplefolder/frame2.bin","source-ref-metadata":{"format":"binary/xyzi","unix-timestamp":1566861632.759133,"ego-vehicle-pose":{"position":{"x":-2.7161461413869947,"y":116.25822288149078,"z":1.8348751887989483},"heading":{"qx":-0.02111296123795955,"qy":-0.006495469416730261,"qz":-0.008024565904865688,"qw":0.9997181192298087}},"prefix":"s3://amzn-s3-demo-bucket/lidar_singleframe_dataset/someprefix/","images":[{"image-path":"images/frame300.bin_camera0.jpg","unix-timestamp":1566861644.759115,"fx":847.7962624528487,"fy":850.0340893791985,"cx":576.2129134707038,"cy":317.2423573573745,"k1":0,"k2":0,"k3":0,"k4":0,"p1":0,"p2":0,"skew":0,"position":{"x":-2.2722515189268138,"y":116.86003310568965,"z":1.454614668542299},"heading":{"qx":0.7594754093069037,"qy":0.02181790885672969,"qz":-0.02461725233103356,"qw":-0.6496916273040025},"camera-model":"pinhole"}]}}
```

Die folgende Tabelle zeigt die Parameter, die Sie in Ihre Eingabemanifestdatei aufnehmen können:


****  

|  Parameter  |  Erforderlich  |  Akzeptierte Werte  |  Description  | 
| --- | --- | --- | --- | 
|  `source-ref`  |  Ja  |  Zeichenfolge **Format für akzeptierte Zeichenfolgenwerte**:  `s3://<bucket-name>/<folder-name>/point-cloud-frame-file`  |  Der Amazon S3-Speicherort eines einzelnen Punktwolken-Frames.  | 
|  `source-ref-metadata`  |  Ja  |  JSON-Objekt **Akzeptierte Parameter**:  `format`, `unix-timestamp`, `ego-vehicle-pose`, `position`, `prefix`, `images`  |  Verwenden Sie diesen Parameter, um zusätzliche Informationen über die Punktwolke in `source-ref` aufzunehmen und Kameradaten für die Sensorfusion bereitzustellen.   | 
|  `format`  |  Nein  |  Zeichenfolge **Akzeptierte Zeichenfolgenwerte**: `"binary/xyz"`, `"binary/xyzi"`, `"binary/xyzrgb"`, `"binary/xyzirgb"`, `"text/xyz"`, `"text/xyzi"`, `"text/xyzrgb"`, `"text/xyzirgb"` **Standardwerte**:  Wenn die in `source-ref` identifizierte Datei die Erweiterung .bin aufweist, `binary/xyzi` Wenn die in `source-ref` identifizierte Datei die Erweiterung .txt aufweist, `text/xyzi`  |  Verwenden Sie diesen Parameter, um das Format der Punktwolkendaten anzugeben. Weitere Informationen finden Sie unter [Akzeptierte 3D-Rohdatenformate](sms-point-cloud-raw-data-types.md).  | 
|  `unix-timestamp`  |  Ja  |  Zahl Ein Unix-Zeitstempel.   |  Der Unix-Zeitstempel ist die Anzahl der Sekunden seit dem 1. Januar 1970 bis zum UTC-Zeitpunkt, zu dem die Daten von einem Sensor erfasst wurden.   | 
|  `ego-vehicle-pose`  |  Nein  |  JSON-Objekt  |  Die Pose des Geräts, das zum Sammeln der Punktwolkendaten verwendet wird. Weitere Informationen zu diesem Parameter finden Sie unter [Aufnehmen von Fahrzeugposeninformationen in Ihr Eingabemanifest](#sms-point-cloud-single-frame-ego-vehicle-input).  | 
|  `prefix`  |  Nein  |  Zeichenfolge **Format für akzeptierte Zeichenfolgenwerte**:  `s3://<bucket-name>/<folder-name>/`  |  Der Speicherort in Amazon S3, an dem Ihre Metadaten, z. B. Kamerabilder, für dieses Frame gespeichert sind.  Das Präfix muss mit einem Schrägstrich enden: `/`.  | 
|  `images`  |  Nein  |  Auflisten  |  Eine Liste der Parameter, die Farbkamerabilder beschreiben, die für die Sensorfusion verwendet werden. Sie können bis zu 8 Bilder in diese Liste aufnehmen. Weitere Informationen zu den für jedes Bild erforderlichen Parametern finden Sie unter [Einschließen der Kameradaten in das Eingabemanifest](#sms-point-cloud-single-frame-image-input).   | 

## Aufnehmen von Fahrzeugposeninformationen in Ihr Eingabemanifest
<a name="sms-point-cloud-single-frame-ego-vehicle-input"></a>

Verwenden Sie den Standort des Ego-Fahrzeugs, um Informationen über den Standort des Fahrzeugs zu erhalten, die zur Erfassung der Punktwolkendaten verwendet werden. Ground Truth verwendet diese Informationen, um die extrinsische LiDAR-Matrix zu berechnen. 

Ground Truth verwendet extrinsische Matrizen, um Beschriftungen auf und von der 3D-Szene und den 2D-Bildern zu projizieren. Weitere Informationen finden Sie unter [Sensorfusion](sms-point-cloud-sensor-fusion-details.md#sms-point-cloud-sensor-fusion).

In der folgenden Tabelle finden Sie weitere Informationen zu den Parametern `position` und Ausrichtung (`heading`), die erforderlich sind, wenn Sie Ego-Fahrzeuginformationen bereitstellen. 


****  

|  Parameter  |  Erforderlich  |  Akzeptierte Werte  |  Description  | 
| --- | --- | --- | --- | 
|  `position`  |  Ja  |  JSON-Objekt **Erforderliche Parameter**: `x`, `y` und `z`. Geben Sie Zahlen für diese Parameter ein.   |  Der Translationsvektor des Ego-Fahrzeugs im Weltkoordinatensystem.   | 
|  `heading`  |  Ja  |  JSON-Objekt **Erforderliche Parameter**: `qx`, `qy`, `qz` und `qw`. Geben Sie Zahlen für diese Parameter ein.   |  Die Ausrichtung des Bezugsrahmens des auf dem Fahrzeug montierten Geräts oder Sensors, das bzw. der die Umgebung erfasst, gemessen in [Quaternionen](https://en.wikipedia.org/wiki/Quaternion), (`qx`, `qy`, `qz`, `qw`), im Koordinatensystem.  | 

## Einschließen der Kameradaten in das Eingabemanifest
<a name="sms-point-cloud-single-frame-image-input"></a>

Wenn Sie Videokameradaten in einen Frame einschließen möchten, verwenden Sie die folgenden Parameter, um Informationen zu jedem Bild bereitzustellen. Die Spalte **Erforderlich** unten gilt, wenn der Parameter `images` in der Eingabemanifestdatei unter `source-ref-metadata` enthalten ist. Sie müssen keine Bilder in Ihre Eingabemanifestdatei aufnehmen. 

Wenn Sie Kamerabilder einschließen, müssen Sie Informationen über `position` und `heading` der Kamera einschließen, die zum Erfassen der Bilder im Weltkoordinatensystem verwendet werden.

Wenn Ihre Bilder verzerrt sind, kann Ground Truth sie automatisch entzerren, indem es Informationen verwendet, die Sie über das Bild in Ihrer manifesten Eingabedatei bereitstellen, einschließlich der Verzerrungskoeffizienten (`k1`, `k2`, `k3`, `k4`, `p1`, `p1`), des Kameramodells und der kameraintrinsischen Matrix. Die intrinsische Matrix besteht aus Brennweite (`fx`, `fy`) und dem Hauptpunkt (`cx`, `cy)`). Weitere Informationen dazu, wie Ground Truth die intrinsische Matrix der Kamera verwendet, finden Sie unter [Intrinsische Matrix](sms-point-cloud-sensor-fusion-details.md#sms-point-cloud-intrinsic). Wenn keine Verzeichnungskoeffizienten enthalten sind, wird ein Bild durch Ground Truth nicht unverzerrt. 


****  

|  Parameter  |  Erforderlich  |  Akzeptierte Werte  |  Description  | 
| --- | --- | --- | --- | 
|  `image-path`  |  Ja  |  Zeichenfolge **Beispiel für Format**:  `<folder-name>/<imagefile.png>`  |  Der relative Speicherort Ihrer Bilddatei in Amazon S3. Dieser relative Pfad wird an den Pfad angehängt, den Sie in `prefix` angeben.   | 
|  `unix-timestamp`  |  Ja  |  Zahl  |  Der Unix-Zeitstempel ist die Anzahl der Sekunden seit dem 1. Januar 1970 bis zum UTC-Zeitpunkt, zu dem die Daten von einer Kamera erfasst wurden.   | 
|  `camera-model`  |  Nein  |  Zeichenfolge: **Akzeptierte Werte**: `"pinhole"`, `"fisheye"` **Standard:** `"pinhole"`  |  Das Modell der Kamera, mit der das Bild erfasst wird. Diese Informationen werden verwendet, um Kamerabilder zu entzerren.   | 
|  `fx, fy`  |  Ja  |  Zahlen  |  Die Brennweite der Kamera in x (`fx`)- und y (`fy`)-Richtungen.  | 
|  `cx, cy`  |  Ja  | Zahlen |  Die x (`cx`)- und y (`cy`)-Koordinaten des Hauptpunkts.   | 
|  `k1, k2, k3, k4`  |  Nein  |  Zahl  |  Radiale Verzeichnungskoeffizienten. Unterstützt sowohl für **Fischaugen-** als auch **Lochkameramodelle**.   | 
|  `p1, p2`  |  Nein  |  Zahl  |  Tangentiale Verzeichnungskoeffizienten. Unterstützt für **Lochkameramodelle**.  | 
|  `skew`  |  Nein  |  Zahl  |  Ein Parameter, um die Neigung eines Bildes zu messen.   | 
|  `position`  |  Ja  |  JSON-Objekt **Erforderliche Parameter**: `x`, `y` und `z`. Geben Sie Zahlen für diese Parameter ein.   | Die Position oder der Ursprung des Bezugsrahmens der Kamera, die auf dem Fahrzeug montiert ist und Bilder erfasst. | 
|  `heading`  |  Ja  |  JSON-Objekt **Erforderliche Parameter**: `qx`, `qy`, `qz` und `qw`. Geben Sie Zahlen für diese Parameter ein.   |  Die Ausrichtung des Bezugsrahmens der auf dem Fahrzeug montierten Kamera, die Bilder erfasst, gemessen mit [Quaternionen](https://en.wikipedia.org/wiki/Quaternion), (`qx`, `qy`, `qz`, `qw`), im Weltkoordinatensystem.   | 

## Grenzwerte für Punktwolkenframes
<a name="sms-point-cloud-single-frame-limits"></a>

Sie können bis zu 100.000 Punktwolkenframes in Ihre Eingabemanifestdatei aufnehmen. 3D-Punktwolken-Labeling-Aufgaben haben längere Vorverarbeitungszeiten als andere Ground Truth-Aufgaben. Weitere Informationen finden Sie unter [Vorverarbeitungszeit der Jobs](sms-point-cloud-general-information.md#sms-point-cloud-job-creation-time).