

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

# 点群シーケンス入力マニフェストの作成
<a name="sms-point-cloud-multi-frame-input-data"></a>

マニフェストは UTF-8 でエンコードされたファイルであり、その各行は完全かつ有効な JSON オブジェクトです。各行は、標準の改行 \\n や \\r\\n で区切られています。各行は有効な JSON オブジェクトにする必要があるため、エスケープされない改行文字を使用することはできません。点群シーケンス入力マニフェストファイルでは、マニフェストのそれぞれの行に点群フレームのシーケンスを含めます。シーケンスの各フレームの点群データは、バイナリ形式または ASCII 形式で保存できます。詳細については、「[使用できる 3D の raw データ形式](sms-point-cloud-raw-data-types.md)」を参照してください。これは、3D 点群オブジェクトの追跡に必要なマニフェストファイルの形式です。また、必要に応じて、それぞれの点群フレームに点の属性とカメラのセンサーフュージョンデータを含めることもできます。シーケンス入力マニフェストファイルを作成する場合は、LiDAR とビデオカメラのセンサーフュージョンデータを[ワールド座標系](sms-point-cloud-sensor-fusion-details.md#sms-point-cloud-world-coordinate-system)で指定する必要があります。

次の例は、マニフェストの各行がシーケンスファイルである場合に入力マニフェストファイルに使用する構文を示しています。入力マニフェストファイルの各行は、[JSON Lines](http://jsonlines.org/) 形式である必要があります。

```
{"source-ref": "{{s3://amzn-s3-demo-bucket/example-folder/seq1.json}}"}
{"source-ref": "{{s3://amzn-s3-demo-bucket/example-folder/seq2.json}}"}
```

点群フレームの各シーケンスのデータは、JSON データオブジェクトに格納する必要があります。シーケンスファイルに使用する形式の例を以下に示します。各フレームに関する情報は JSON オブジェクトとして含め、`frames` にそのリストを記述します。これは、2 つの点群フレームファイル、`frame300.bin` と `frame303.bin` があるシーケンスファイルの例です。{{...}} は、追加フレームの情報を含める場所を指定する際に使用されます。シーケンス内のフレームごとに JSON オブジェクトを追加します。

次のコードブロックには、単一シーケンスファイルの JSON オブジェクトが含まれています。JSON オブジェクトは読みやすいように拡張されています。

```
{
  "seq-no": {{1}},
  "prefix": "{{s3://amzn-s3-demo-bucket/example_lidar_sequence_dataset/seq1/}}",
  "number-of-frames": {{100}},
  "frames":[
    {
        "frame-no": {{300}}, 
        "unix-timestamp": {{1566861644.759115}}, 
        "frame": "{{example_lidar_frames/frame300.bin}}", 
        "format": "{{binary/xyzi}}", 
        "ego-vehicle-pose":{
            "position": {
                "x": {{-2.7161461413869947}},
                "y": {{116.25822288149078}},
                "z": {{1.8348751887989483
}}            },
            "heading": {
                "qx": {{-0.02111296123795955}},
                "qy":{{ -0.006495469416730261}},
                "qz": {{-0.008024565904865688}},
                "qw": {{0.9997181192298087
}}            }
        }, 
        "images": [
        {
            "image-path": "{{example_images/frame300.bin_camera0.jpg}}",
            "unix-timestamp": {{1566861644.759115}},
            "fx": {{847.7962624528487}},
            "fy": {{850.0340893791985}},
            "cx": {{576.2129134707038}},
            "cy": {{317.2423573573745}},
            "k1": {{0}},
            "k2": {{0}},
            "k3": {{0}},
            "k4": {{0}},
            "p1": {{0}},
            "p2": {{0}},
            "skew": {{0}},
            "position": {
                "x": {{-2.2722515189268138}},
                "y": {{116.86003310568965}},
                "z": {{1.454614668542299}}
            },
            "heading": {
                "qx": {{0.7594754093069037}},
                "qy": {{0.02181790885672969}},
                "qz": {{-0.02461725233103356}},
                "qw": {{-0.6496916273040025
}}            },
            "camera-model": "{{pinhole}}"
        }]
    },
    {
        "frame-no": {{303}}, 
        "unix-timestamp": {{1566861644.759115}}, 
        "frame": "{{example_lidar_frames/frame303.bin}}", 
        "format": "{{text/xyzi}}", 
        "ego-vehicle-pose":{{{...}}}, 
        "images":[{{{...}}}]
    },
     {{...}}
  ]
}
```

次の表は、シーケンスファイルの最上位のパラメータについて詳しく説明しています。シーケンスファイルの個々のフレームに必要なパラメータの詳細については、「[個々の点群フレームのパラメータ](#sms-point-cloud-multi-frame-input-single-frame)」を参照してください。


****  

|  [Parameter] (パラメータ)  |  [Required] (必須)  |  使用できる値  |  [Description] (説明)  | 
| --- | --- | --- | --- | 
|  `seq-no`  |  はい  |  整数  |  シーケンスの連番。  | 
|  `prefix`  |  はい  |  String **使用できる値**: `s3://{{<bucket-name>}}/{{<prefix>/}}`  |  シーケンスファイルが置かれている Amazon S3 の場所。 このプレフィックスは、スラッシュ (`/`) で終わる必要があります。  | 
|  `number-of-frames`  |  はい  |  整数  |  シーケンスファイルに含まれているフレームの総数。この数は、次の行の `frames` パラメータのリストに含まれているフレームの総数と一致する必要があります。  | 
|  `frames`  |  はい  |  JSON オブジェクトのリスト  |  フレームデータのリスト。リストの長さは `number-of-frames` と一致する必要があります。ワーカー UI では、シーケンスのフレームはこの配列のフレームと同じ順序になります。 各フレームの形式の詳細については、「[個々の点群フレームのパラメータ](#sms-point-cloud-multi-frame-input-single-frame)」を参照してください。  | 

## 個々の点群フレームのパラメータ
<a name="sms-point-cloud-multi-frame-input-single-frame"></a>

次の表に、入力マニフェストファイルに含めることができるパラメータを示します。


****  

|  [Parameter] (パラメータ)  |  [Required] (必須)  |  使用できる値  |  説明  | 
| --- | --- | --- | --- | 
|  `frame-no`  |  いいえ  |  整数  |  フレームの番号。これは、シーケンス内のフレームを識別するために顧客によって指定される任意の識別子です。Ground Truth では使用されません。  | 
|  `unix-timestamp`  |  はい  |  Number  |  UNIX タイムスタンプは、1970 年 1 月 1 日からセンサーでデータが収集された UTC 時間までの秒数です。 各フレームのタイムスタンプは異なっていなければならず、タイムスタンプは直方体の補間に使用されるため、順次である必要があります。データが収集されたときの実際のタイムスタンプであることが理想です。実際のタイムスタンプを使用できない場合は、シーケンスファイルの最初のフレームがシーケンスの最初のタイムスタンプに対応する、増分シーケンスのタイムスタンプを使用する必要があります。  | 
|  `frame`  |  はい  |  String **形式の例** `{{<folder-name>}}/{{<sequence-file.json>}}`  |  Amazon S3 でのシーケンスファイルの相対パス。この相対パスは `prefix` で指定したパスに追加されます。  | 
|  `format`  |  いいえ  |  String **使用できる文字列値**: `"binary/xyz"`、`"binary/xyzi"`、`"binary/xyzrgb"`、`"binary/xyzirgb"`、`"text/xyz"`、`"text/xyzi"`、`"text/xyzrgb"`、`"text/xyzirgb"` **デフォルト値**:  `source-ref` で指定されているファイルの拡張子が .bin の場合は `binary/xyzi` `source-ref` で指定されているファイルの拡張子が .txt の場合は `text/xyzi`  |  このパラメータを使用して、点群データの形式を指定します。詳細については、「[使用できる 3D の raw データ形式](sms-point-cloud-raw-data-types.md)」を参照してください。  | 
|  `ego-vehicle-pose`  |  いいえ  |  JSON オブジェクト  |  点群データの収集に使用されたデバイスの姿勢。このパラメータの詳細については、「[入力マニフェストに車両の姿勢の情報を含める](#sms-point-cloud-multi-frame-ego-vehicle-input)」を参照してください。  | 
|  `prefix`  |  いいえ  |  String **使用できる文字列値の形式**:  `s3://{{<bucket-name>}}/{{<folder-name>/}}`  |  Amazon S3 でカメラの画像などのメタデータがこのフレームに格納される場所。 このプレフィックスは、スラッシュ (`/`) で終わる必要があります。  | 
|  `images`  |  いいえ  |  リスト  |  センサーフュージョンに使用するカメラのカラー画像を示すパラメータのリスト。このリストには、最大 8 個の画像を含めることができます。各画像に必要なパラメータの詳細については、「[入力マニフェストにカメラのデータを含める](#sms-point-cloud-multi-frame-image-input)」を参照してください。  | 

## 入力マニフェストに車両の姿勢の情報を含める
<a name="sms-point-cloud-multi-frame-ego-vehicle-input"></a>

自動運転車両の位置を使用して、点群データの収集に使用された車両の姿勢に関する情報を含めます。Ground Truth は、この情報を使用して LiDAR の外部マトリックスを計算します。

Ground Truth は、外部マトリックスを使用して、3D シーンおよび 2D イメージでラベルを投影します。詳細については、「[センサーフュージョン](sms-point-cloud-sensor-fusion-details.md#sms-point-cloud-sensor-fusion)」を参照してください。

次の表に、自動運転車両の情報を含めるときに必要な `position` および向き (`heading`) のパラメータの詳細を示します。


****  

|  [Parameter] (パラメータ)  |  [Required] (必須)  |  使用できる値  |  [Description] (説明)  | 
| --- | --- | --- | --- | 
|  `position`  |  はい  |  JSON オブジェクト **必須パラメータ**: `x`、`y`、および `z`。これらのパラメータには数値を入力します。  |  自動運転車両のワールド座標系での並進ベクトル。  | 
|  `heading`  |  はい  |  JSON オブジェクト **必須パラメータ**: `qx`、`qy`、`qz` および `qw`。これらのパラメータには数値を入力します。  |  周囲を検知する車両に搭載されたデバイスやセンサーの基準のフレームの向き。座標系の[クォータニオン](https://en.wikipedia.org/wiki/Quaternion) (`qx`、`qy`、`qz`、`qw`) で測定されます。  | 

## 入力マニフェストにカメラのデータを含める
<a name="sms-point-cloud-multi-frame-image-input"></a>

フレームにカメラのカラーデータを含める場合は、以下のパラメータを使用してそれぞれの画像に関する情報を入力します。以下の表の**必須**列は、入力マニフェストファイルに `images` パラメータが含まれている場合に適用されます。入力マニフェストファイルに画像を含めることは必須ではありません。

カメラの画像を含める場合は、画像を収集するために使用したカメラの `position` と向き (`heading`) についての情報を含める必要があります。

画像がゆがんでいる場合、Ground Truth は、入力マニフェストファイルで画像について入力した情報 (ゆがみ係数 (`k1`、`k2`、`k3`、`k4`、`p1`、`p1`)、カメラモデルと焦点距離 (`fx`、`fy`)、主点 (`cx`、`cy)`) などを使用して、自動でゆがみを補正することができます。これらの係数や画像のゆがみ補正の詳細については、「[Camera calibration With OpenCV](https://docs.opencv.org/2.4.13.7/doc/tutorials/calib3d/camera_calibration/camera_calibration.html)」を参照してください。ゆがみ係数が含まれていない場合、Ground Truth は画像のゆがみを補正しません。


****  

|  [Parameter] (パラメータ)  |  [Required] (必須)  |  使用できる値  |  [Description] (説明)  | 
| --- | --- | --- | --- | 
|  `image-path`  |  はい  |  String **形式の例**:  `{{<folder-name>}}/{{<imagefile.png>}}`  |  Amazon S3 での画像ファイルの相対パス。この相対パスは `prefix` で指定したパスに追加されます。  | 
|  `unix-timestamp`  |  はい  |  Number  |  画像のタイムスタンプ。  | 
|  `camera-model`  |  いいえ  |  文字列: **使用できる値**: `"pinhole"`, `"fisheye"` **デフォルト**  `"pinhole"`  |  画像の収集に使用したカメラのモデル。この情報は、カメラの画像のゆがみを補正するために使用されます。  | 
|  `fx, fy`  |  はい  |  数字  |  カメラの x (`fx`) 方向と y (`fy`) 方向の焦点距離。  | 
|  `cx, cy`  |  はい  | 数字 |  主点の x (`cx`) 座標と y (`cy`) 座標。  | 
|  `k1, k2, k3, k4`  |  いいえ  |  Number  |  放射方向ゆがみ係数。**魚眼**カメラモデルと**ピンホール**カメラモデルの両方でサポートされています。  | 
|  `p1, p2`  |  いいえ  |  Number  |  接線方向ゆがみ係数。**ピンホール**カメラモデルでサポートされています。  | 
|  `skew`  |  いいえ  |  Number  |  画像の既知のスキューを測定するパラメータ。  | 
|  `position`  |  はい  |  JSON オブジェクト **必須パラメータ**: `x`、`y`、および `z`。これらのパラメータには数値を入力します。  |  画像を収集する車両に搭載されたカメラの基準のフレームの位置または原点。  | 
|  `heading`  |  はい  |  JSON オブジェクト **必須パラメータ**: `qx`、`qy`、`qz` および `qw`。これらのパラメータには数値を入力します。  |  画像を収集する車両に搭載されたカメラの基準のフレームの向き。[クォータニオン](https://en.wikipedia.org/wiki/Quaternion) (`qx`、`qy`、`qz`、`qw`) で測定されます。  | 

## シーケンスファイルと点群フレームの制限
<a name="sms-point-cloud-multi-frame-limits"></a>

入力マニフェストファイルには、最大 100,000 個の点群フレームのシーケンスを含めることができます。各シーケンスファイルに最大 500 個の点群フレームを含めることができます。

3D 点群のラベル付けジョブは、Ground Truth の他のタスクタイプよりも前処理に時間がかかることに注意してください。詳細については、「[ジョブの前処理時間](sms-point-cloud-general-information.md#sms-point-cloud-job-creation-time)」を参照してください。