As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Configurações de exportação para destinos compatíveis do Nuvem AWS
Os componentes do Greengrass definidos pelo usuário são StreamManagerClient
usados no SDK do Stream Manager para interagir com o stream manager. Quando um componente cria um fluxo ou atualiza um fluxo, ele passa um MessageStreamDefinition
objeto que representa as propriedades do fluxo, incluindo a definição de exportação. O objeto ExportDefinition
contém as configurações de exportação definidas para o fluxo. O gerenciador de fluxo usa essas configurações de exportação para determinar onde e como exportar o fluxo.
Você pode definir zero ou mais configurações de exportação em um fluxo, incluindo várias configurações de exportação para um único tipo de destino. Por exemplo, você pode exportar um fluxo para dois canais do AWS IoT Analytics e um fluxo de dados do Kinesis.
Para tentativas de exportação malsucedidas, o gerenciador de fluxo tenta continuamente exportar dados para a Nuvem AWS em intervalos de até cinco minutos. Não há um limite máximo para o número de novas tentativas.
nota
O StreamManagerClient
também fornece um destino alvo que você pode usar para exportar fluxos para um servidor HTTP. Este destino deve ser usado apenas para fins de teste. Ele não é estável e nem compatível para uso em ambientes de produção.
Destinos Nuvem AWS compatíveis
Você é responsável pela manutenção desses recursos da Nuvem AWS.
Canais do AWS IoT Analytics
O gerenciador de fluxo fornece suporte a exportações automáticas para o AWS IoT Analytics. O AWS IoT Analytics permite realizar análises avançadas em seus dados para ajudar a tomar decisões de negócios e aprimorar os modelos de machine learning. Para obter mais informações, consulte O que é o AWS IoT Analytics? no AWS IoT Analytics Guia do usuário do .
No SDK do Stream Manager, seus componentes do Greengrass usam IoTAnalyticsConfig
o para definir a configuração de exportação para esse tipo de destino. Para mais informações, consulte a referência do SDK para seu idioma de destino:
-
IoT AnalyticsConfig no SDK
do Python -
IoT AnalyticsConfig no SDK
do Node.js
Requisitos
Esse destino de exportação tem os seguintes requisitos:
-
Os canais de destino AWS IoT Analytics devem estar no mesmo dispositivo principal Conta da AWS e Região da AWS no dispositivo principal do Greengrass.
-
O Autorize os dispositivos principais a interagir com os serviços AWS deve conceder a permissão
iotanalytics:BatchPutMessage
para os canais de destino. Por exemplo: .{ "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": [ "iotanalytics:BatchPutMessage" ], "Resource": [ "arn:aws:iotanalytics:
region
:account-id
:channel/channel_1_name
", "arn:aws:iotanalytics:region
:account-id
:channel/channel_2_name
" ] } ] }Você pode conceder acesso granular ou condicional aos recursos, por exemplo, usando um esquema de nomeação
*
curinga. Para obter mais informações, consulte Adicionando e removendo políticas do IAM no Guia do usuário do IAM.
Exportando para o AWS IoT Analytics
Para criar um fluxo que exporta paraAWS IoT Analytics, seus componentes do Greengrass criam um fluxo com uma definição de exportação que inclui um ou mais IoTAnalyticsConfig
objetos. Esse objeto define as configurações de exportação, como canal de destino, tamanho do lote, intervalo do lote e prioridade.
Quando seus componentes do Greengrass recebem dados de dispositivos, eles acrescentam mensagens que contêm uma bolha de dados ao stream de destino.
Em seguida, o gerenciador de fluxo exporta os dados com base nas configurações de lote e na prioridade definidas nas configurações de exportação do fluxo.
Amazon Kinesis Data Streams
O gerenciador de fluxos é compatível com exportações automáticas para o Amazon Kinesis Data Streams. O Kinesis Data Streams é comumente usado para agregar dados de alto volume e carregá-los em um data warehouse ou cluster. MapReduce Para obter mais informações, consulte O que é o Amazon Kinesis Data Streams? no Guia do desenvolvedor do Amazon Kinesis.
No SDK do Stream Manager, seus componentes do Greengrass usam KinesisConfig
o para definir a configuração de exportação para esse tipo de destino. Para mais informações, consulte a referência do SDK para seu idioma de destino:
-
KinesisConfig
no SDK do Python -
KinesisConfig
no Java SDK -
KinesisConfig
no SDK do Node.js
Requisitos
Esse destino de exportação tem os seguintes requisitos:
-
Os streams de destino no Kinesis Data Streams devem estar no mesmo dispositivo principal do Conta da AWS Região da AWS Greengrass.
-
O Autorize os dispositivos principais a interagir com os serviços AWS deve conceder a permissão
kinesis:PutRecords
para os fluxos de dados de destino. Por exemplo: .{ "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": [ "kinesis:PutRecords" ], "Resource": [ "arn:aws:kinesis:
region
:account-id
:stream/stream_1_name
", "arn:aws:kinesis:region
:account-id
:stream/stream_2_name
" ] } ] }Você pode conceder acesso granular ou condicional aos recursos, por exemplo, usando um esquema de nomeação
*
curinga. Para obter mais informações, consulte Adicionando e removendo políticas do IAM no Guia do usuário do IAM.
Exportação do Kinesis Data Streams
Para criar um stream que exporte para o Kinesis Data Streams, seus componentes do Greengrass criam um stream com uma definição de exportação que inclui um ou mais objetos. KinesisConfig
Esse objeto define as configurações de exportação, como fluxo de dados, tamanho do lote, intervalo do lote e prioridade.
Quando seus componentes do Greengrass recebem dados de dispositivos, eles acrescentam mensagens que contêm uma bolha de dados ao stream de destino. Em seguida, o gerenciador de fluxo exporta os dados com base nas configurações de lote e na prioridade definidas nas configurações de exportação do fluxo.
O gerenciador de fluxo gera uma UUID exclusiva e aleatória como chave de partição para cada registro carregado no Amazon Kinesis.
Propriedades do ativo AWS IoT SiteWise
O gerenciador de fluxo fornece suporte a exportações automáticas para o AWS IoT SiteWise. O AWS IoT SiteWise permite coletar, organizar e analisar dados de equipamentos industriais em escala. Para mais informações, consulte O que é o AWS IoT SiteWise? no AWS IoT SiteWise Guia do usuário.
No SDK do Stream Manager, seus componentes do Greengrass usam IoTSiteWiseConfig
o para definir a configuração de exportação para esse tipo de destino. Para mais informações, consulte a referência do SDK para seu idioma de destino:
-
IoT SiteWiseConfig no SDK
do Python -
IoT SiteWiseConfig no SDK
do Node.js
nota
AWStambém fornece AWS IoT SiteWise componentes, que oferecem uma solução pré-construída que você pode usar para transmitir dados de fontes OPC-UA. Para ter mais informações, consulte Coletor IoT SiteWise OPC -UA.
Requisitos
Esse destino de exportação tem os seguintes requisitos:
-
As propriedades do ativo de destino AWS IoT SiteWise devem estar no mesmo Conta da AWS Região da AWS dispositivo central do Greengrass.
nota
Para ver a lista de Região da AWS s que AWS IoT SiteWise oferecem suporte, consulte AWS IoT SiteWiseendpoints e cotas na Referência AWSgeral.
-
O Autorize os dispositivos principais a interagir com os serviços AWS deve conceder a permissão
iotsitewise:BatchPutAssetPropertyValue
para as propriedades do ativo do destino. O exemplo de política a seguir usa a chave de condiçãoiotsitewise:assetHierarchyPath
para conceder acesso a um ativo raiz de destino e seus ativos secundários. É possível remover oCondition
da política para conceder acesso a todos os seus ativos AWS IoT SiteWise, ou especificar ARNs para determinados ativos.{ "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": "iotsitewise:BatchPutAssetPropertyValue", "Resource": "*", "Condition": { "StringLike": { "iotsitewise:assetHierarchyPath": [ "/
root node asset ID
", "/root node asset ID
/*" ] } } } ] }Você pode conceder acesso granular ou condicional aos recursos, por exemplo, usando um esquema de nomeação
*
curinga. Para obter mais informações, consulte Adicionando e removendo políticas do IAM no Guia do usuário do IAM.Para obter informações de segurança importantes, consulte a BatchPutAssetPropertyValue autorização no Guia AWS IoT SiteWise do usuário.
Exportando para o AWS IoT SiteWise
Para criar um fluxo que exporta paraAWS IoT SiteWise, seus componentes do Greengrass criam um fluxo com uma definição de exportação que inclui um ou mais IoTSiteWiseConfig
objetos. Esse objeto define as configurações de exportação, como tamanho do lote, intervalo do lote e prioridade.
Quando seus componentes do Greengrass recebem dados de propriedades de ativos dos dispositivos, eles acrescentam mensagens que contêm os dados ao stream de destino. As mensagens são objetos PutAssetPropertyValueEntry
serializados em JSON que contêm valores de propriedade para uma ou mais propriedades de ativos. Para obter mais informações, consulte Anexar mensagem para destinos de exportação do AWS IoT SiteWise.
nota
Ao enviar dados para o AWS IoT SiteWise, os dados devem atender aos requisitos da ação BatchPutAssetPropertyValue
. Para obter mais informações, consulte BatchPutAssetPropertyValue na Referência da API do AWS IoT SiteWise.
Em seguida, o gerenciador de fluxo exporta os dados com base nas configurações de lote e na prioridade definidas nas configurações de exportação do fluxo.
Você pode ajustar as configurações do gerenciador de stream e a lógica dos componentes do Greengrass para criar sua estratégia de exportação. Por exemplo: .
-
Para exportações quase em tempo real, defina configurações baixas de tamanho de lote e intervalo e anexe os dados ao fluxo quando forem recebidos.
-
Para otimizar o agrupamento em lotes, mitigar as restrições de largura de banda ou minimizar os custos, seus componentes do Greengrass podem agrupar os pontos de dados timestamp-quality-value (TQV) recebidos para uma única propriedade do ativo antes de anexar os dados ao stream. Uma estratégia é agrupar entradas para até 10 (dez) combinações diferentes de propriedade e ativo, ou aliases de propriedade, em uma mensagem, em vez de enviar mais de uma entrada para a mesma propriedade. Isso ajuda o gerenciador de fluxo a permanecer dentro das cotas do AWS IoT SiteWise.
Objetos do Amazon S3
O gerenciador de fluxo é compatível com exportações automáticas para o Amazon S3. Você pode utilizar o Amazon S3 para armazenar e recuperar grandes volumes de dados. Para obter mais informações, consulte O que é o Amazon S3? no Guia do desenvolvedor do Amazon Simple Storage Service.
No SDK do Stream Manager, seus componentes do Greengrass usam S3ExportTaskExecutorConfig
o para definir a configuração de exportação para esse tipo de destino. Para mais informações, consulte a referência do SDK para seu idioma de destino:
-
S3 ExportTaskExecutorConfig
no SDK do Python -
S3 ExportTaskExecutorConfig
no Java SDK -
S3 ExportTaskExecutorConfig
no SDK do Node.js
Requisitos
Esse destino de exportação tem os seguintes requisitos:
-
Os buckets do Amazon S3 de destino devem estar no mesmo dispositivo principal Conta da AWS do Greengrass.
-
Se uma função Lambda executada no modo de contêiner do Greengrass grava arquivos de entrada em um diretório de arquivos de entrada, você deve montar o diretório como um volume no contêiner com permissões de gravação. Isso garante que os arquivos sejam gravados no sistema de arquivos raiz e visíveis para o componente do gerenciador de fluxo, que é executado fora do contêiner.
-
Se um componente de contêiner do Docker gravar arquivos de entrada em um diretório de arquivos de entrada, você deverá montar o diretório como um volume no contêiner com permissões de gravação. Isso garante que os arquivos sejam gravados no sistema de arquivos raiz e visíveis para o componente do gerenciador de fluxo, que é executado fora do contêiner.
-
O Autorize os dispositivos principais a interagir com os serviços AWS deve conceder as permissões a seguir para os buckets de destino. Por exemplo: .
{ "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": [ "s3:PutObject", "s3:AbortMultipartUpload", "s3:ListMultipartUploadParts" ], "Resource": [ "arn:aws:s3:::
bucket-1-name
/*", "arn:aws:s3:::bucket-2-name
/*" ] } ] }Você pode conceder acesso granular ou condicional aos recursos, por exemplo, usando um esquema de nomeação
*
curinga. Para obter mais informações, consulte Adicionando e removendo políticas do IAM no Guia do usuário do IAM.
Exportar para o Amazon S3
Para criar um stream que exporta para o Amazon S3, seus componentes do Greengrass usam o S3ExportTaskExecutorConfig
objeto para configurar a política de exportação. A política define as configurações de exportação, como o limite e a prioridade de upload em várias partes. Para exportações do Amazon S3, o gerenciador de fluxo carrega dados que ele lê de arquivos locais no dispositivo principal. Para iniciar um upload, seus componentes do Greengrass anexam uma tarefa de exportação ao stream de destino. A tarefa de exportação contém informações sobre o arquivo de entrada e o objeto de destino do Amazon S3. O gerenciador de fluxo executa tarefas na sequência em que elas são anexadas ao fluxo.
nota
O bucket de destino já deve existir na sua Conta da AWS. Se um objeto para a chave especificada não existir, o gerenciador de fluxo criará o objeto para você.
O gerenciador de fluxo usa a propriedade de limite de upload de várias partes, a configuração do tamanho mínimo das partes e o tamanho do arquivo de entrada para determinar como fazer upload dos dados. O limite de upload de várias partes deve ser maior que o tamanho mínimo das partes. Se você quiser fazer upload de dados em paralelo, pode criar vários fluxos.
As chaves que especificam seus objetos de destino do Amazon S3 podem incluir DateTimeFormatter cadeias de caracteres Java!{timestamp:
Você pode usar esses espaços reservados de data e hora para particionar dados no Amazon S3 com base na hora em que os dados do arquivo de entrada foram carregados. Por exemplo, o nome da chave a seguir é resolvido para um valor como value
}my-key/2020/12/31/data.txt
.
my-key/!{timestamp:YYYY}/!{timestamp:MM}/!{timestamp:dd}/data.txt
nota
Se você quiser monitorar o status de exportação de um fluxo, primeiro crie um fluxo de status e, em seguida, configure o fluxo de exportação para usá-lo. Para ter mais informações, consulte Monitorar tarefas de exportação.
Gerenciar dados de entrada
Você pode criar códigos que os aplicativos de IoT usam para gerenciar o ciclo de vida dos dados de entrada. O exemplo de fluxo de trabalho a seguir mostra como você pode usar os componentes do Greengrass para gerenciar esses dados.
-
Um processo local recebe dados de dispositivos ou periféricos e, em seguida, grava os dados em arquivos em um diretório no dispositivo principal. Esses são os arquivos de entrada para o gerenciador de fluxo.
-
Um componente do Greengrass escaneia o diretório e anexa uma tarefa de exportação ao stream de destino quando um novo arquivo é criado. A tarefa é um objeto
S3ExportTaskDefinition
serializado em JSON que especifica a URL do arquivo de entrada, o bucket e a chave do Amazon S3 de destino, além dos metadados opcionais do usuário. -
O gerenciador de fluxo lê o arquivo de entrada e exporta os dados para o Amazon S3 na ordem das tarefas anexadas. O bucket de destino já deve existir na sua Conta da AWS. Se um objeto para a chave especificada não existir, o gerenciador de fluxo criará o objeto para você.
-
O componente Greengrass lê mensagens de um fluxo de status para monitorar o status da exportação. Depois que as tarefas de exportação forem concluídas, o componente Greengrass poderá excluir os arquivos de entrada correspondentes. Para ter mais informações, consulte Monitorar tarefas de exportação.
Monitorar tarefas de exportação
Você pode criar códigos que os aplicativos de IoT usam para monitorar o status das suas exportações do Amazon S3. Seus componentes do Greengrass devem criar um fluxo de status e depois configurar o fluxo de exportação para gravar atualizações de status no fluxo de status. Um único fluxo de status pode receber atualizações de status de vários fluxos que são exportados para o Amazon S3.
Primeiro, crie um fluxo para usar como fluxo de status. Você pode configurar as políticas de tamanho e retenção do fluxo para controlar a vida útil das mensagens de status. Por exemplo: .
-
Defina
Persistence
comoMemory
se você não quiser armazenar as mensagens de status. -
Defina
StrategyOnFull
comoOverwriteOldestData
para que as novas mensagens de status não sejam perdidas.
Em seguida, crie ou atualize o fluxo de exportação para usar o fluxo de status. Especificamente, defina a propriedade de configuração de status da configuração de exportação S3ExportTaskExecutorConfig
do fluxo. Essa configuração instrui o gerenciador de fluxo a escrever mensagens de status sobre as tarefas de exportação para o fluxo de status. No objeto StatusConfig
, especifique o nome do fluxo de status e o nível de detalhe. Os valores suportados a seguir variam do menos detalhado (ERROR
) ao mais detalhado (TRACE
). O padrão é INFO
.
-
ERROR
-
WARN
-
INFO
-
DEBUG
-
TRACE
O exemplo de fluxo de trabalho a seguir mostra como os componentes do Greengrass podem usar um fluxo de status para monitorar o status de exportação.
-
Conforme descrito no fluxo de trabalho anterior, um componente do Greengrass anexa uma tarefa de exportação a um fluxo configurado para gravar mensagens de status sobre tarefas de exportação em um fluxo de status. A operação de append retorna um número de sequência que representa a ID da tarefa.
-
Um componente do Greengrass lê mensagens sequencialmente do fluxo de status e, em seguida, filtra as mensagens com base no nome do fluxo e no ID da tarefa ou com base em uma propriedade da tarefa de exportação do contexto da mensagem. Por exemplo, o componente Greengrass pode filtrar pela URL do arquivo de entrada da tarefa de exportação, que é representada pelo
S3ExportTaskDefinition
objeto no contexto da mensagem.Os códigos de status a seguir indicam que uma tarefa de exportação atingiu um estado concluído:
-
Success
. O upload foi concluído com êxito. -
Failure
. O gerenciador de fluxo encontrou um erro, por exemplo, o bucket especificado não existe. Depois de resolver o problema, você pode reanexar a tarefa de exportação ao fluxo. -
Canceled
. A tarefa foi interrompida porque a definição de fluxo ou exportação foi excluída ou o período time-to-live (TTL) da tarefa expirou.
nota
A tarefa também pode ter um status de
InProgress
ouWarning
. O gerenciador de fluxo emite avisos quando um evento retorna um erro que não afeta a execução da tarefa. Por exemplo, uma falha na limpeza de um upload parcial retorna um aviso. -
-
Depois que as tarefas de exportação forem concluídas, o componente Greengrass poderá excluir os arquivos de entrada correspondentes.
O exemplo a seguir mostra como um componente do Greengrass pode ler e processar mensagens de status.