

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Passaggio 1: configura Amazon Keyspaces per l'integrazione con il connettore Apache Cassandra Spark
<a name="spark-tutorial-step1"></a>

In questo passaggio, confermi che il partizionatore del tuo account è compatibile con Apache Spark Connector e configuri le autorizzazioni IAM richieste. Le seguenti best practice consentono di fornire una capacità sufficiente read/write per la tabella.

1. Verifica che il `Murmur3Partitioner` partizionatore sia il partizionatore predefinito per il tuo account. Questo partizionatore è compatibile con lo Spark Cassandra Connector. Per ulteriori informazioni sui partizionatori e su come modificarli, consulta. [Utilizzo dei partizionatori in Amazon Keyspaces](working-with-partitioners.md)

1. Configura le autorizzazioni IAM per Amazon Keyspaces, utilizzando gli endpoint VPC dell'interfaccia, con Apache Spark.
   + Assegna read/write l'accesso alla tabella utenti e l'accesso in lettura alle tabelle di sistema, come mostrato nell'esempio di policy IAM riportato di seguito.
   + [È necessario compilare la tabella system.peers con gli endpoint VPC di interfaccia disponibili per i client che accedono ad Amazon Keyspaces con Spark tramite endpoint VPC.](https://docs.aws.amazon.com/keyspaces/latest/devguide/vpc-endpoints.html)

   ```
   {
      "Version":"2012-10-17",		 	 	 
      "Statement":[
         {
            "Effect":"Allow",
            "Action":[
               "cassandra:Select",
               "cassandra:Modify"
            ],
            "Resource":[
               "arn:aws:cassandra:us-east-1:111122223333:/keyspace/mykeyspace/table/mytable",
               "arn:aws:cassandra:us-east-1:111122223333:/keyspace/system*"
            ]
         },
         {
            "Sid":"ListVPCEndpoints",
            "Effect":"Allow",
            "Action":[
               "ec2:DescribeNetworkInterfaces",
               "ec2:DescribeVpcEndpoints"
            ],
            "Resource":"*"
         }
      ]
   }
   ```

1. Prendi in considerazione le seguenti best practice per configurare una capacità di throughput di lettura/scrittura sufficiente per la tabella Amazon Keyspaces per supportare il traffico proveniente dallo Spark Cassandra Connector. 
   + Inizia a utilizzare la capacità on-demand per testare lo scenario.
   + Per ottimizzare il costo del throughput delle tabelle per gli ambienti di produzione, utilizza un limitatore di velocità per il traffico proveniente dal connettore e configura la tabella in modo che utilizzi la capacità assegnata con scalabilità automatica. Per ulteriori informazioni, consulta [Gestisci automaticamente la capacità di throughput con la scalabilità automatica di Amazon Keyspaces](autoscaling.md).
   + È possibile utilizzare un limitatore di velocità fisso fornito con il driver Cassandra. [Nel repository degli [esempi sono disponibili alcuni limitatori di velocità personalizzati per Amazon Keyspaces](https://github.com/aws-samples/amazon-keyspaces-java-driver-helpers).AWS](https://github.com/aws-samples)
   + Per ulteriori informazioni sulla gestione della capacità, consulta. [Configura le modalità di read/write capacità in Amazon Keyspaces](ReadWriteCapacityMode.md)