

本文属于机器翻译版本。若本译文内容与英语原文存在差异，则一律以英文原文为准。

# 自定义您的机器学习组件
<a name="ml-customization"></a>

在中 AWS IoT Greengrass，您可以配置示例[机器学习组件](perform-machine-learning-inference.md#ml-components)，以使用推理、模型和运行时组件作为构建块，自定义在设备上执行机器学习推理的方式。 AWS IoT Greengrass 还允许您灵活地使用示例组件作为模板并根据需要创建自己的自定义组件。您可以混合搭配这种模块化方法，通过以下方式自定义您的机器学习推理组件：

**使用示例推理组件**  
+ 在部署推理组件时修改其配置。
+ 将示例模型存储组件替换为自定义模型组件，以使用自定义模型和示例推理组件。您的自定义模型必须使用与示例模型相同的运行时进行训练。

**使用自定义推理组件**  
+ 通过添加公共模型组件和运行时组件作为自定义推理组件的依赖关系，在示例模型和运行时中使用自定义推理代码。
+ 创建和添加自定义模型组件或运行时组件作为自定义推理组件的依赖关系。如果要使用自定义推理代码或 AWS IoT Greengrass 不提供示例组件的运行时，则必须使用自定义组件。

**Topics**
+ [修改公共推理组件的配置](#modify-ml-component-config)
+ [使用带有示例推理组件的自定义模型](#override-public-model-store)
+ [创建自定义机器学习组件](#create-private-ml-components)
+ [创建自定义推理组件](#create-inference-component)

## 修改公共推理组件的配置
<a name="modify-ml-component-config"></a>

在 [AWS IoT Greengrass 控制台](https://console.aws.amazon.com/greengrass)中，组件页面显示该组件的默认配置。例如， TensorFlow 精简版图像分类组件的默认配置如下所示：

```
{
  "accessControl": {
    "aws.greengrass.ipc.mqttproxy": {
      "aws.greengrass.TensorFlowLiteImageClassification:mqttproxy:1": {
        "policyDescription": "Allows access to publish via topic ml/tflite/image-classification.",
        "operations": [
          "aws.greengrass#PublishToIoTCore"
        ],
        "resources": [
          "ml/tflite/image-classification"
        ]
      }
    }
  },
  "PublishResultsOnTopic": "ml/tflite/image-classification",
  "ImageName": "cat.jpeg",
  "InferenceInterval": 3600,
  "ModelResourceKey": {
    "model": "TensorFlowLite-Mobilenet"
  }
}
```

部署公共推理组件时，您可以修改默认配置以自定义部署。有关每个公共推理组件的可用配置参数信息，请参阅 [AWS提供的机器学习组件](perform-machine-learning-inference.md#ml-components) 中的组件主题。

本节介绍如何从 AWS IoT Greengrass 控制台部署修改后的组件。有关使用部署组件的信息 AWS CLI，请参阅[创建部署](create-deployments.md)。<a name="modify-ml-component-config-console"></a>

**部署修改后的公共推理组件（控制台）**

1. 登录 [AWS IoT Greengrass 控制台](https://console.aws.amazon.com/greengrass)。

1. 在导航菜单中，选择**组件**。

1. 在**组件**页面的**公有组件**选项卡中，选择您想要部署的组件。

1. 在组件页面上，选择**部署**。

1. <a name="add-deployment"></a>在**添加到部署**中，选择以下选项之一：

   1. 要将此组件合并到目标设备上的现有部署，请选择**添加到现有部署**，然后选择要修改的部署。

   1. 要在目标设备上创建新部署，请选择**创建新部署**。如果您的设备上已有部署，选择此步骤将替换现有部署。

1. <a name="specify-deployment-target"></a>在**指定目标**页面中，执行以下操作：

   1. 在**部署信息**下，输入或修改部署的友好名称。

   1. 在**部署目标**下，选择部署目标，然后选择**下一步**。如果您正在修改现有部署，则无法更改部署目标。

1. 在**选择组件**页面的**公有组件**下，验证是否选择了经修改配置的推理组件，然后选择**下一步**。

1. 在**配置组件**页面上，执行以下操作：

   1. 选择推理组件，然后选择**配置组件**。

   1. 在**配置更新**下，输入要更新的配置值。例如，在**要合并的配置**框中输入以下配置更新，将推理间隔更改为 15 秒，并指示组件在文件夹 `custom.jpg` 中查找名为的 `/custom-ml-inference/images/` 图像。

      ```
      {
        "InferenceInterval": "15",
        "ImageName": "custom.jpg",
        "ImageDirectory": "/custom-ml-inference/images/"
      }
      ```

      要将组件的整个配置重置为其默认值，请在**重置路径**框中指定一个空字符串 `""`。

   1. 选择**确认**，然后选择**下一步**。

1. 在**配置高级设置**页面上，保留默认配置设置，然后选择**下一步**。

1. 在**检查**页上，选择**部署**。

## 使用带有示例推理组件的自定义模型
<a name="override-public-model-store"></a>

如果要将示例推理组件与自己的机器学习模型一起用于 AWS IoT Greengrass 提供示例运行时组件的运行时，则必须使用使用这些模型作为构件的组件来覆盖公共模型组件。简而言之，您需要完成以下步骤才能将自定义模型与示例推理组件一起使用：

1. 创建使用 S3 存储桶中的自定义模型作为构件的模型组件。您的自定义模型必须使用与要替换的模型相同的运行时进行训练。

1. 修改推理组件中的 `ModelResourceKey` 配置参数以使用自定义模型。有关更新推理组件配置的信息，请参阅 [修改公共推理组件的配置](#modify-ml-component-config)。

部署推理组件时，会 AWS IoT Greengrass 查找其组件依赖关系的最新版本。如果依赖的公共模型组件的更高自定义版本存在于同一个 AWS 账户 和 AWS 区域中，则它会覆盖该组件。

### 创建自定义模型组件（控制台）
<a name="create-model-store-component-console"></a>

1. 将模型上传至 S3 存储桶。有关上传模型至 S3 存储桶的信息，请参阅《Amazon Simple Storage Service 用户指南》**中的[使用 Amazon S3 存储桶](https://docs.aws.amazon.com/AmazonS3/latest/userguide/UsingBucket.html)。
**注意**  <a name="s3-artifacts-note"></a>
<a name="sr-artifacts-req"></a>您必须将项目存储在与组件相同 AWS 账户 的 S3 存储桶中。 AWS 区域 AWS IoT Greengrass 要允许访问这些工件，[Greengrass 设备](device-service-role.md)角色必须允许该操作。`s3:GetObject`有关设备角色的更多信息，请参阅 [授权核心设备与 AWS 服务交互](device-service-role.md)。

1. 在 [AWS IoT Greengrass 控制台](https://console.aws.amazon.com/greengrass)导航菜单中，选择**组件**。

1. 检索公共模型存储组件的组件配方。

   1. 在**组件**页面的**公有组件**选项卡中，查找并选择要为其创建新版本的公共模型组件。例如 `variant.DLR.ImageClassification.ModelStore`。

   1. 在组件页面选择**查看配方**并复制显示的 JSON 配方。

1. 在**组件**页面的**我的组件**选项卡中，选择**创建组件**。

1. 在**创建组件**页面的**组件信息**下，选择**以 JSON 格式输入配方**作为组件来源。

1. 在**配方**框中，粘贴您之前复制的组件配方。

1. <a name="override-model-recipe-config"></a>在配方中，更新以下值：
   + `ComponentVersion`：增加组件的次要版本。

     创建自定义组件以覆盖公共模型组件时，必须仅更新现有组件版本的次要版本。例如，如果公有组件版本为 `2.1.0`，则可以使用版本 `2.1.1` 创建自定义组件。
   + `Manifests.Artifacts.Uri`：将每个 URI 值更新为您要使用的模型的 Amazon S3 URI。
**注意**  
请勿更改组件的名称。

1. 选择**创建组件**。

### 创建自定义模型组件（AWS CLI）
<a name="create-model-store-component-cli"></a>

1. 将模型上传至 S3 存储桶。有关上传模型至 S3 存储桶的信息，请参阅《Amazon Simple Storage Service 用户指南》**中的[使用 Amazon S3 存储桶](https://docs.aws.amazon.com/AmazonS3/latest/userguide/UsingBucket.html)。
**注意**  <a name="s3-artifacts-note"></a>
<a name="sr-artifacts-req"></a>您必须将项目存储在与组件相同 AWS 账户 的 S3 存储桶中。 AWS 区域 AWS IoT Greengrass 要允许访问这些工件，[Greengrass 设备](device-service-role.md)角色必须允许该操作。`s3:GetObject`有关设备角色的更多信息，请参阅 [授权核心设备与 AWS 服务交互](device-service-role.md)。

1. 运行以下命令以检索公有组件的组件配方。此命令会将组件配方写入您在命令中提供的输出文件。根据需要将检索到的 base64 编码字符串转换为 JSON 或 YAML。

------
#### [ Linux, macOS, or Unix ]

   ```
   aws greengrassv2 get-component \
       --arn <arn> \
       --recipe-output-format <recipe-format> \
       --query recipe \
       --output text | base64 --decode > <recipe-file>
   ```

------
#### [ Windows Command Prompt (CMD) ]

   ```
   aws greengrassv2 get-component ^
       --arn <arn> ^
       --recipe-output-format <recipe-format> ^
       --query recipe ^
       --output text > <recipe-file>.base64
   
   certutil -decode <recipe-file>.base64 <recipe-file>
   ```

------
#### [ PowerShell ]

   ```
   aws greengrassv2 get-component `
       --arn <arn> `
       --recipe-output-format <recipe-format> `
       --query recipe `
       --output text > <recipe-file>.base64
   
   certutil -decode <recipe-file>.base64 <recipe-file>
   ```

------

1. 将配方文件的名称更新为 `<component-name>-<component-version>`，其中组件版本是新组件的目标版本。例如 `variant.DLR.ImageClassification.ModelStore-2.1.1.yaml`。

1. <a name="override-model-recipe-config"></a>在配方中，更新以下值：
   + `ComponentVersion`：增加组件的次要版本。

     创建自定义组件以覆盖公共模型组件时，必须仅更新现有组件版本的次要版本。例如，如果公有组件版本为 `2.1.0`，则可以使用版本 `2.1.1` 创建自定义组件。
   + `Manifests.Artifacts.Uri`：将每个 URI 值更新为您要使用的模型的 Amazon S3 URI。
**注意**  
请勿更改组件的名称。

1. 运行以下命令以使用检索和修改的配方创建新组件。

   ```
   aws greengrassv2 create-component-version \
       --inline-recipe fileb://path/to/component/recipe
   ```
**注意**  
此步骤在中的 AWS IoT Greengrass 服务中创建组件 AWS 云。您可以使用 Greengrass CLI 在本地开发、测试、部署组件，然后再将其上传到云端。有关更多信息，请参阅 [开发 AWS IoT Greengrass 组件](develop-greengrass-components.md)。

有关创建组件的更多信息，请参阅 [开发 AWS IoT Greengrass 组件](develop-greengrass-components.md)。

## 创建自定义机器学习组件
<a name="create-private-ml-components"></a>

如果要使用自定义推理代码或 AWS IoT Greengrass 不提供示例组件的运行时，则必须创建自定义组件。您可以将自定义推理代码与 AWS提供的示例机器学习模型和运行时结合使用，也可以使用自己的模型和运行时开发完全自定义的机器学习推理解决方案。如果您的模型使用的运行时 AWS IoT Greengrass 提供了示例运行时组件，则可以使用该运行时组件，并且您只需要为推理代码和要使用的模型创建自定义组件。

**Topics**
+ [检索公有组件的配方](#get-ml-component-recipes)
+ [检索示例组件构件](#get-ml-component-artifacts)
+ [将组件构件上传至 S3 存储桶](#upload-ml-component-artifacts)
+ [创建自定义组件](#create-ml-components)

### 检索公有组件的配方
<a name="get-ml-component-recipes"></a>

您可以使用现有公共机器学习组件的配方作为模板来创建自定义组件。要查看最新版本公共组件的组件配方，请使用控制台或 AWS CLI 如下所示：
+ **使用控制台**

  1. 在**组件**页面的**公有组件**选项卡中，查找并选择公有组件。

  1. 在组件页面上，选择**查看配方**。
+ **使用 AWS CLI**

  运行以下命令以检索公共变体组件的组件配方。此命令会将组件配方写入您在命令中提供的 JSON 或 YAML 配方文件。

------
#### [ Linux, macOS, or Unix ]

  ```
  aws greengrassv2 get-component \
      --arn <arn> \
      --recipe-output-format <recipe-format> \
      --query recipe \
      --output text | base64 --decode > <recipe-file>
  ```

------
#### [ Windows Command Prompt (CMD) ]

  ```
  aws greengrassv2 get-component ^
      --arn <arn> ^
      --recipe-output-format <recipe-format> ^
      --query recipe ^
      --output text > <recipe-file>.base64
  
  certutil -decode <recipe-file>.base64 <recipe-file>
  ```

------
#### [ PowerShell ]

  ```
  aws greengrassv2 get-component `
      --arn <arn> `
      --recipe-output-format <recipe-format> `
      --query recipe `
      --output text > <recipe-file>.base64
  
  certutil -decode <recipe-file>.base64 <recipe-file>
  ```

------

  按如下方式替换命令中的值：
  + `<arn>`。公有组件的 Amazon 资源名称（ARN）。
  + `<recipe-format>`。创建配方文件的格式。支持的值为 `JSON` 和 `YAML`。
  + `<recipe-file>`。`<component-name>-<component-version>` 格式中的配方名称。

### 检索示例组件构件
<a name="get-ml-component-artifacts"></a>

您可以用公共机器学习组件使用的构件作为模板来创建自定义组件构件，例如推理代码或运行时安装脚本。

要查看公共机器学习组件中包含的示例构件，请部署公共推理组件，然后在设备的 `/greengrass/v2/packages/artifacts-unarchived/component-name/component-version/` 文件夹中查看这些构件。

### 将组件构件上传至 S3 存储桶
<a name="upload-ml-component-artifacts"></a>

在创建自定义组件之前，必须将组件工件上传到 S3 存储桶并在组件配方 URIs 中使用 S3。例如，要在推理组件中使用自定义推理代码，请将代码上传至 S3 存储桶。然后，您可以将推理代码的 Amazon S3 URI 用作组件中的构件。

有关上传内容至 S3 存储桶的信息，请参阅《Amazon Simple Storage Service 用户指南》**中的[使用 Amazon S3 存储桶](https://docs.aws.amazon.com/AmazonS3/latest/userguide/UsingBucket.html)。

**注意**  <a name="s3-artifacts-note"></a>
<a name="sr-artifacts-req"></a>您必须将项目存储在与组件相同 AWS 账户 的 S3 存储桶中。 AWS 区域 AWS IoT Greengrass 要允许访问这些工件，[Greengrass 设备](device-service-role.md)角色必须允许该操作。`s3:GetObject`有关设备角色的更多信息，请参阅 [授权核心设备与 AWS 服务交互](device-service-role.md)。

### 创建自定义组件
<a name="create-ml-components"></a>

您可以使用检索到的构件和配方来创建自定义机器学习组件。有关示例，请参阅[创建自定义推理组件](#create-inference-component)。

有关创建组件并将其部署到 Greengrass 设备的详细信息，请参阅 [开发 AWS IoT Greengrass 组件](develop-greengrass-components.md) 和 [将 AWS IoT Greengrass 组件部署到设备](manage-deployments.md)。

## 创建自定义推理组件
<a name="create-inference-component"></a>

本部分介绍如何使用 DLR 图像分类组件作为模板创建自定义推理组件。

**Topics**
+ [将您的推理代码上传至 Amazon S3 存储桶。](#create-inference-code)
+ [为您的推理组件创建配方](#create-inference-component-recipe)
+ [创建推理组件](#create-private-inference-component)

### 将您的推理代码上传至 Amazon S3 存储桶。
<a name="create-inference-code"></a>

创建推理代码，然后将其上传至 S3 存储桶。有关上传内容至 S3 存储桶的信息，请参阅《Amazon Simple Storage Service 用户指南》**中的[使用 Amazon S3 存储桶](https://docs.aws.amazon.com/AmazonS3/latest/userguide/UsingBucket.html)。

**注意**  <a name="s3-artifacts-note"></a>
<a name="sr-artifacts-req"></a>您必须将项目存储在与组件相同 AWS 账户 的 S3 存储桶中。 AWS 区域 AWS IoT Greengrass 要允许访问这些工件，[Greengrass 设备](device-service-role.md)角色必须允许该操作。`s3:GetObject`有关设备角色的更多信息，请参阅 [授权核心设备与 AWS 服务交互](device-service-role.md)。

### 为您的推理组件创建配方
<a name="create-inference-component-recipe"></a>

1. 运行以下命令检索 DLR 图像分类组件的组件配方。此命令会将组件配方写入您在命令中提供的 JSON 或 YAML 配方文件。

------
#### [ Linux, macOS, or Unix ]

   ```
   aws greengrassv2 get-component \
       --arn arn:aws:greengrass:region:aws:components:aws.greengrass.DLRImageClassification:versions:version \
       --recipe-output-format JSON | YAML \
       --query recipe \
       --output text | base64 --decode > <recipe-file>
   ```

------
#### [ Windows Command Prompt (CMD) ]

   ```
   aws greengrassv2 get-component ^
       --arn arn:aws:greengrass:region:aws:components:aws.greengrass.DLRImageClassification:versions:version ^
       --recipe-output-format JSON | YAML ^
       --query recipe ^
       --output text > <recipe-file>.base64
   
   certutil -decode <recipe-file>.base64 <recipe-file>
   ```

------
#### [ PowerShell ]

   ```
   aws greengrassv2 get-component `
       --arn arn:aws:greengrass:region:aws:components:aws.greengrass.DLRImageClassification:versions:version `
       --recipe-output-format JSON | YAML `
       --query recipe `
       --output text > <recipe-file>.base64
   
   certutil -decode <recipe-file>.base64 <recipe-file>
   ```

------

   *<recipe-file>*用格式中的配方名称替换`<component-name>-<component-version>`。

1. 在配方的 `ComponentDependencies` 对象中，根据要使用的模型和运行时组件，执行以下一项或多项操作：
   + 如果要使用 DLR 编译的模型，请保留 DLR 组件依赖关系。您也可以将其替换为自定义运行时组件的依赖关系，如以下示例所示。

     **运行时组件**

------
#### [ JSON ]

     ```
     { 
         "<runtime-component>": {
             "VersionRequirement": "<version>",
             "DependencyType": "HARD"
         }
     }
     ```

------
#### [ YAML ]

     ```
     <runtime-component>:
         VersionRequirement: "<version>"
         DependencyType: HARD
     ```

------
   + 保持 DLR 图像分类模型存储依赖关系以使用 AWS 提供的预训练的 ResNet -50 模型，或者对其进行修改以使用自定义模型组件。当你为公共模型组件添加依赖关系时，如果该组件的更高自定义版本存在于同一个 AWS 账户 和中 AWS 区域，则推理组件将使用该自定义组件。如下例所示指定模型组件的依赖关系。

     **公共模型组件**

------
#### [ JSON ]

     ```
     {
         "variant.DLR.ImageClassification.ModelStore": {
             "VersionRequirement": "<version>",
             "DependencyType": "HARD"
         }
     }
     ```

------
#### [ YAML ]

     ```
     variant.DLR.ImageClassification.ModelStore:
         VersionRequirement: "<version>"
         DependencyType: HARD
     ```

------

     **自定义模型组件**

------
#### [ JSON ]

     ```
     {
         "<custom-model-component>": {
             "VersionRequirement": "<version>",
             "DependencyType": "HARD"
         }
     }
     ```

------
#### [ YAML ]

     ```
     <custom-model-component>:
         VersionRequirement: "<version>"
         DependencyType: HARD
     ```

------

1. 在 `ComponentConfiguration` 对象中，添加此组件的默认配置。您可以稍后在部署组件时修改此配置。以下摘录显示了 DLR 图像分类组件的组件配置。

   例如，如果您使用自定义模型组件作为自定义推理组件的依赖关系，请修改 `ModelResourceKey` 以提供您正在使用的模型名称。

------
#### [ JSON ]

   ```
   {
     "accessControl": {
       "aws.greengrass.ipc.mqttproxy": {
         "aws.greengrass.ImageClassification:mqttproxy:1": {
           "policyDescription": "Allows access to publish via topic ml/dlr/image-classification.",
           "operations": [
             "aws.greengrass#PublishToIoTCore"
           ],
           "resources": [
             "ml/dlr/image-classification"
           ]
         }
       }
     },
     "PublishResultsOnTopic": "ml/dlr/image-classification",
     "ImageName": "cat.jpeg",
     "InferenceInterval": 3600,
     "ModelResourceKey": {
       "armv7l": "DLR-resnet50-armv7l-cpu-ImageClassification",
       "x86_64": "DLR-resnet50-x86_64-cpu-ImageClassification",
       "aarch64": "DLR-resnet50-aarch64-cpu-ImageClassification"
     }
   }
   ```

------
#### [ YAML ]

   ```
   accessControl:
       aws.greengrass.ipc.mqttproxy:
           'aws.greengrass.ImageClassification:mqttproxy:1':
               policyDescription: 'Allows access to publish via topic ml/dlr/image-classification.'
               operations:
                   - 'aws.greengrass#PublishToIoTCore'
               resources:
                   - ml/dlr/image-classification
   PublishResultsOnTopic: ml/dlr/image-classification
   ImageName: cat.jpeg
   InferenceInterval: 3600
   ModelResourceKey:
       armv7l: "DLR-resnet50-armv7l-cpu-ImageClassification"
       x86_64: "DLR-resnet50-x86_64-cpu-ImageClassification"
       aarch64: "DLR-resnet50-aarch64-cpu-ImageClassification"
   ```

------

1. 在 `Manifests` 对象中，提供有关该组件部署到不同平台时使用的构件和配置信息，以及成功运行该组件所需的任何其他信息。以下摘录显示了 DLR 图像分类组件中适用于 Linux 平台的 `Manifests` 对象配置。

------
#### [ JSON ]

   ```
   {
     "Manifests": [
       {
         "Platform": {
           "os": "linux",
           "architecture": "arm"
         },
         "Name": "32-bit armv7l - Linux (raspberry pi)",
         "Artifacts": [
           {
             "URI": "s3://SAMPLE-BUCKET/sample-artifacts-directory/image_classification.zip",
             "Unarchive": "ZIP"
           }
         ],
         "Lifecycle": {
           "Setenv": {
             "DLR_IC_MODEL_DIR": "{variant.DLR.ImageClassification.ModelStore:artifacts:decompressedPath}/{configuration:/ModelResourceKey/armv7l}",
             "DEFAULT_DLR_IC_IMAGE_DIR": "{artifacts:decompressedPath}/image_classification/sample_images/"
           },
           "Run": {
             "RequiresPrivilege": true,
             "script": ". {variant.DLR:configuration:/MLRootPath}/greengrass_ml_dlr_venv/bin/activate\npython3 {artifacts:decompressedPath}/image_classification/inference.py"
           }
         }
       }
     ]
   }
   ```

------
#### [ YAML ]

   ```
   Manifests:
     - Platform:
         os: linux
         architecture: arm
       Name: 32-bit armv7l - Linux (raspberry pi)
       Artifacts:
         - URI: s3://SAMPLE-BUCKET/sample-artifacts-directory/image_classification.zip
           Unarchive: ZIP
       Lifecycle:
         SetEnv:
           DLR_IC_MODEL_DIR: "{variant.DLR.ImageClassification.ModelStore:artifacts:decompressedPath}/{configuration:/ModelResourceKey/armv7l}"
           DEFAULT_DLR_IC_IMAGE_DIR: "{artifacts:decompressedPath}/image_classification/sample_images/"
         Run:
           RequiresPrivilege: true
           script: |-
             . {variant.DLR:configuration:/MLRootPath}/greengrass_ml_dlr_venv/bin/activate
             python3 {artifacts:decompressedPath}/image_classification/inference.py
   ```

------

 有关创建组件配方的更多信息，请参阅 [AWS IoT Greengrass 组件配方参考](component-recipe-reference.md)。

### 创建推理组件
<a name="create-private-inference-component"></a>

使用 AWS IoT Greengrass 控制台或 AWS CLI 使用您刚才定义的配方创建组件。创建组件后，您就可以将其部署到设备上执行推理操作。有关如何部署推理组件的示例，请参阅 [教程：使用 TensorFlow Lite 执行样本图像分类推断](ml-tutorial-image-classification.md)。

#### 创建自定义推理组件（控制台）
<a name="create-inference-component-console"></a>

1. 登录 [AWS IoT Greengrass 控制台](https://console.aws.amazon.com/greengrass)。

1. 在导航菜单中，选择**组件**。

1. 在**组件**页面的**我的组件**选项卡中，选择**创建组件**。

1. 在**创建组件**页面的**组件信息**下，选择**以 JSON 格式输入配方**或**以 YAML 格式输入配方**作为组件来源。

1. 在**配方**框中，输入您创建的自定义配方。

1. 单击**创建组件**。

#### 创建自定义推理组件（AWS CLI）
<a name="create-inference-component-cli"></a>

运行以下命令以使用您创建的配方创建新的自定义组件。

```
aws greengrassv2 create-component-version \
    --inline-recipe fileb://path/to/recipe/file
```

**注意**  
此步骤在中的 AWS IoT Greengrass 服务中创建组件 AWS 云。您可以使用 Greengrass CLI 在本地开发、测试、部署组件，然后再将其上传到云端。有关更多信息，请参阅 [开发 AWS IoT Greengrass 组件](develop-greengrass-components.md)。