Selecione suas preferências de cookies

Usamos cookies essenciais e ferramentas semelhantes que são necessárias para fornecer nosso site e serviços. Usamos cookies de desempenho para coletar estatísticas anônimas, para que possamos entender como os clientes usam nosso site e fazer as devidas melhorias. Cookies essenciais não podem ser desativados, mas você pode clicar em “Personalizar” ou “Recusar” para recusar cookies de desempenho.

Se você concordar, a AWS e terceiros aprovados também usarão cookies para fornecer recursos úteis do site, lembrar suas preferências e exibir conteúdo relevante, incluindo publicidade relevante. Para aceitar ou recusar todos os cookies não essenciais, clique em “Aceitar” ou “Recusar”. Para fazer escolhas mais detalhadas, clique em “Personalizar”.

Práticas recomendadas gerais

Modo de foco
Práticas recomendadas gerais - Amazon ElastiCache

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Abaixo, você encontra informações sobre as melhores práticas para usar as interfaces Valkey, Memcached e Redis OSS. ElastiCache

  • Use configurações habilitadas para o modo de cluster — o modo de cluster ativado permite que o cache seja dimensionado horizontalmente para obter maior armazenamento e taxa de transferência do que uma configuração desativada no modo de cluster. ElastiCache serverless só está disponível em uma configuração habilitada para o modo de cluster.

  • Usar conexões de longa duração: a criação de uma nova conexão é cara e consome tempo e recursos de CPU do cache. Reutilize conexões quando possível (por exemplo, com agrupamento de conexões) para amortizar esse custo em muitos comandos.

  • Leia a partir de réplicas — se você estiver usando réplicas de leitura ElastiCache sem servidor ou tiver réplicas de leitura provisionadas (clusters autoprojetados), direcione as leituras para as réplicas para obter melhor escalabilidade e/ou menor latência. As leituras de réplicas acabarão sendo consistentes com a primária.

    Em um cluster autoprojetado, evite direcionar solicitações de leitura para uma única réplica de leitura, pois as leituras talvez não estejam temporariamente disponíveis em caso de falha no nó. Configure o cliente para direcionar solicitações de leitura para pelo menos duas réplicas de leitura ou direcione as leituras para uma única réplica e a primária.

    ElastiCache Sem servidor, a leitura da porta de réplica (6380) direcionará as leituras para a zona de disponibilidade local do cliente quando possível, reduzindo a latência de recuperação. Ele vai acabar fazendo fallback automaticamente para os outros nós durante as falhas.

  • Evite comandos caros: evite executar operações com uso intensivo computacional e de E/S, como os comandos KEYS e SMEMBERS. Sugerimos essa abordagem porque essas operações aumentam a carga no cluster e geram impacto no desempenho do cluster. Em vez disso, use os comandos SCAN e SSCAN.

  • Siga as práticas recomendadas do Lua: evite scripts Lua de longa execução e sempre declare antecipadamente as chaves usadas em scripts Lua. Recomendamos essa abordagem para determinar se o script Lua não está usando comandos entre slots. Certifique-se de que as chaves usadas em scripts Lua pertencem ao mesmo slot.

  • Usar pub/sub fragmentado: ao usar o Valkey ou Redis para dar suporte a workloads pub/sub com throughput elevado, é recomendável usar pub/sub fragmentado (disponível com o Valkey e Redis OSS 7 ou posterior). O pub/sub tradicional em clusters habilitados para modo cluster transmite mensagens para todos os nós do cluster, o que pode acarretar EngineCPUUtilization elevada. Observe isso em ElastiCache comandos tradicionais pub/sub commands internally use sharded pub/sub sem servidor.

Tópicos
    PrivacidadeTermos do sitePreferências de cookies
    © 2025, Amazon Web Services, Inc. ou suas afiliadas. Todos os direitos reservados.