

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Solução de problemas comuns ao usar o Spark Cassandra Connector com o Amazon Keyspaces
<a name="spark-tutorial-step6"></a>

Se você estiver usando o Amazon Virtual Private Cloud e se conectar ao Amazon Keyspaces, os erros mais comuns encontrados ao usar o conector Spark são causados pelos seguintes problemas de configuração.
+ O usuário ou o perfil do IAM usado na VPC não tem as permissões necessárias para acessar a tabela `system.peers` no Amazon Keyspaces. Para obter mais informações, consulte [Como preencher entradas da tabela `system.peers` com informações do endpoint da VPC de interface](vpc-endpoints.md#system_peers).
+ O usuário ou função do IAM não tem as read/write permissões necessárias para a tabela de usuários e acesso de leitura às tabelas do sistema no Amazon Keyspaces. Para obter mais informações, consulte [Etapa 1: Configurar o Amazon Keyspaces para integração com o Apache Cassandra Spark Connector](spark-tutorial-step1.md).
+ A configuração do driver Java não desativa a verificação do nome do host ao criar a conexão SSL/TLS. Para obter exemplos, consulte [Etapa 2: configurar o driver](using_java_driver.md#java_tutorial.driverconfiguration).

Para ver as etapas detalhadas de solução de problemas de conexão, consulte [Minha conexão de endpoint da VPC não funciona corretamente](troubleshooting.connecting.md#troubleshooting.connection.vpce).

Além disso, você pode usar CloudWatch as métricas da Amazon para ajudá-lo a solucionar problemas com a configuração do seu conector Spark Cassandra no Amazon Keyspaces. Para saber mais sobre como usar o Amazon Keyspaces com CloudWatch, consulte. [Monitorando o Amazon Keyspaces com a Amazon CloudWatch](monitoring-cloudwatch.md) 

A seção a seguir descreve as métricas mais úteis a serem observadas ao usar o Spark Cassandra Connector.

**PerConnectionRequestRateExceeded**  
O Amazon Keyspaces tem uma cota de 3.000 solicitações por segundo por conexão. Cada executor do Spark estabelece uma conexão com o Amazon Keyspaces. Executar várias tentativas pode esgotar sua cota de taxa de solicitação por conexão. Se você exceder essa cota, o Amazon Keyspaces emitirá uma `PerConnectionRequestRateExceeded` métrica em. CloudWatch   
Se você ver PerConnectionRequestRateExceeded eventos presentes junto com outros erros do sistema ou do usuário, é provável que o Spark esteja executando várias tentativas além do número alocado de solicitações por conexão.  
Se você vir eventos `PerConnectionRequestRateExceeded` sem outros erros, talvez seja necessário aumentar o número de conexões nas configurações do driver para permitir mais throughput, ou talvez seja necessário aumentar o número de executores em seu trabalho do Spark.

**StoragePartitionThroughputCapacityExceeded**  
O Amazon Keyspaces tem uma cota de 1.000 WCUs ou WRUs por segundo/3.000 ou por segundo RCUs , por partição. RRUs Se você estiver vendo `StoragePartitionThroughputCapacityExceeded` CloudWatch eventos, isso pode indicar que os dados não são aleatórios durante o carregamento. Para ver exemplos de como embaralhar dados, consulte [Etapa 4: Preparar os dados de origem e a tabela de destino no Amazon Keyspaces](spark-tutorial-step4.md).

## Erros e avisos comuns
<a name="common_errors_warnings"></a>

Se você estiver usando a Amazon Virtual Private Cloud e se conectar ao Amazon Keyspaces, o driver do Cassandra poderá emitir uma mensagem de aviso sobre o próprio nó de controle na tabela `system.peers`. Para obter mais informações, consulte [Erros e avisos comuns](vpc-endpoints.md#vpc_troubleshooting). Você pode ignorar esse aviso com segurança.