

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Distribuzione di contenuti
<a name="contentdelivery-pattern-list"></a>

**Topics**
+ [Invia AWS WAF i log a Splunk utilizzando AWS Firewall Manager Amazon Data Firehose](send-aws-waf-logs-to-splunk-by-using-aws-firewall-manager-and-amazon-data-firehose.md)
+ [Distribuisci contenuti statici in un bucket Amazon S3 tramite un VPC utilizzando Amazon CloudFront](serve-static-content-in-an-amazon-s3-bucket-through-a-vpc-by-using-amazon-cloudfront.md)
+ [Altri modelli](contentdelivery-more-patterns-pattern-list.md)

# Invia AWS WAF i log a Splunk utilizzando AWS Firewall Manager Amazon Data Firehose
<a name="send-aws-waf-logs-to-splunk-by-using-aws-firewall-manager-and-amazon-data-firehose"></a>

*Michael Friedenthal, Aman Kaur Gandhi e JJ Johnson, Amazon Web Services*

## Riepilogo
<a name="send-aws-waf-logs-to-splunk-by-using-aws-firewall-manager-and-amazon-data-firehose-summary"></a>

Storicamente, esistevano due modi per spostare i dati in Splunk: un'architettura push o una pull. Un'*architettura pull* offre garanzie di consegna dei dati attraverso nuovi tentativi, ma richiede risorse dedicate in Splunk per raccogliere i dati. Le architetture pull di solito non sono in tempo reale a causa del polling. Un'*architettura push* in genere ha una latenza inferiore, è più scalabile e riduce la complessità e i costi operativi. Tuttavia, non garantisce la consegna e in genere richiede agenti.

L'integrazione di Splunk con Amazon Data Firehose fornisce dati di streaming in tempo reale a Splunk tramite un HTTP Event Collector (HEC). Questa integrazione offre i vantaggi delle architetture push e pull: garantisce la consegna dei dati tramite nuovi tentativi, è quasi in tempo reale, è a bassa latenza e bassa complessità. L'HEC invia dati in modo rapido ed efficiente tramite HTTP o HTTPS direttamente a Splunk. HECs sono basati su token, il che elimina la necessità di codificare le credenziali in un'applicazione o nei file di supporto.

In base a una AWS Firewall Manager policy, puoi configurare la registrazione per tutto il traffico ACL AWS WAF Web in tutti i tuoi account e quindi utilizzare un flusso di distribuzione Firehose per inviare i dati di registro a Splunk per il monitoraggio, la visualizzazione e l'analisi. Questa soluzione offre i seguenti vantaggi:
+ Gestione e registrazione centralizzate del traffico ACL AWS WAF Web in tutti gli account
+ Integrazione Splunk con un unico Account AWS
+ Scalabilità
+ Distribuzione quasi in tempo reale dei dati di registro
+ Ottimizzazione dei costi attraverso l'uso di una soluzione serverless, in modo da non dover pagare per le risorse inutilizzate.

## Prerequisiti e limitazioni
<a name="send-aws-waf-logs-to-splunk-by-using-aws-firewall-manager-and-amazon-data-firehose-prereqs"></a>

**Prerequisiti**
+ Un attivo Account AWS che fa parte di un'organizzazione in. AWS Organizations
+ È necessario disporre delle seguenti autorizzazioni per abilitare la registrazione con Firehose:
  + `iam:CreateServiceLinkedRole`
  + `firehose:ListDeliveryStreams`
  + `wafv2:PutLoggingConfiguration`
+ AWS WAF e il relativo sito web ACLs deve essere configurato. Per istruzioni, vedi [Guida introduttiva a AWS WAF](https://docs.aws.amazon.com/waf/latest/developerguide/getting-started.html).
+ AWS Firewall Manager deve essere configurato. Per istruzioni, consulta i [AWS Firewall Manager prerequisiti](https://docs.aws.amazon.com/waf/latest/developerguide/fms-prereq.html).
+ Le politiche di sicurezza di Firewall Manager per AWS WAF devono essere configurate. Per istruzioni, vedere [Guida introduttiva alle AWS Firewall ManagerAWS WAF politiche](https://docs.aws.amazon.com/waf/latest/developerguide/getting-started-fms.html).
+ Splunk deve essere configurato con un endpoint HTTP pubblico raggiungibile da Firehose.

**Limitazioni**
+  Account AWS Devono essere gestiti in un'unica organizzazione in. AWS Organizations
+ L'ACL Web deve trovarsi nella stessa regione del flusso di consegna. Se stai acquisendo log per Amazon CloudFront, crea il flusso di consegna Firehose nella regione Stati Uniti orientali (Virginia settentrionale),. `us-east-1`
+ Il componente aggiuntivo Splunk per Firehose è disponibile per le distribuzioni Splunk Cloud a pagamento, le implementazioni distribuite di Splunk Enterprise e le implementazioni Splunk Enterprise a istanza singola. Questo componente aggiuntivo non è supportato per le distribuzioni di prova gratuite di Splunk Cloud.

## Architecture
<a name="send-aws-waf-logs-to-splunk-by-using-aws-firewall-manager-and-amazon-data-firehose-architecture"></a>

**Stack tecnologico Target**
+ Firewall Manager
+ Firehose
+ Amazon Simple Storage Service (Amazon S3)
+ AWS WAF
+ Splunk

**Architettura di destinazione**

L'immagine seguente mostra come utilizzare Firewall Manager per registrare centralmente tutti i AWS WAF dati e inviarli a Splunk tramite Firehose.

![\[Diagramma dell'architettura che mostra l'invio di dati di log AWS WAF a Splunk tramite Amazon Data Firehose\]](http://docs.aws.amazon.com/it_it/prescriptive-guidance/latest/patterns/images/pattern-img/3dfeaae0-985a-42b8-91c4-ece081f0b51b/images/669169b1-caa4-419b-9988-19806ded54eb.png)


1. Il AWS WAF Web ACLs invia i dati di registro del firewall a Firewall Manager.

1. Firewall Manager invia i dati di registro a Firehose.

1. Il flusso di distribuzione Firehose inoltra i dati di registro a Splunk e a un bucket S3. Il bucket S3 funge da backup in caso di errore nel flusso di distribuzione di Firehose.

**Automazione e scalabilità**

Questa soluzione è progettata per scalare e adattarsi a tutto il AWS WAF Web ALCs all'interno dell'organizzazione. È possibile configurare tutto il Web ACLs per utilizzare la stessa istanza di Firehose. Tuttavia, se desideri configurare e utilizzare più istanze di Firehose, puoi farlo.

## Tools (Strumenti)
<a name="send-aws-waf-logs-to-splunk-by-using-aws-firewall-manager-and-amazon-data-firehose-tools"></a>

**Servizi AWS**
+ [AWS Firewall Manager](https://docs.aws.amazon.com/waf/latest/developerguide/fms-chapter.html)è un servizio di gestione della sicurezza che consente di configurare e gestire centralmente le regole del firewall tra gli account e le applicazioni in. AWS Organizations
+ [Amazon Data Firehose](https://docs.aws.amazon.com/firehose/latest/dev/what-is-this-service.html) ti aiuta a distribuire [dati di streaming](https://aws.amazon.com/streaming-data/) in tempo reale ad altri Servizi AWS endpoint HTTP personalizzati e endpoint HTTP di proprietà di fornitori di servizi terzi supportati, come Splunk.
+ [Amazon Simple Storage Service (Amazon S3)](https://docs.aws.amazon.com/AmazonS3/latest/userguide/Welcome.html) è un servizio di archiviazione degli oggetti basato sul cloud che consente di archiviare, proteggere e recuperare qualsiasi quantità di dati.
+ [AWS WAF](https://docs.aws.amazon.com/waf/latest/developerguide/what-is-aws-waf.html)è un firewall per applicazioni Web che consente di monitorare le richieste HTTP e HTTPS inoltrate alle risorse protette delle applicazioni Web.

**Altri strumenti**
+ [Splunk](https://docs.splunk.com/Documentation) ti aiuta a monitorare, visualizzare e analizzare i dati di registro.

## Epiche
<a name="send-aws-waf-logs-to-splunk-by-using-aws-firewall-manager-and-amazon-data-firehose-epics"></a>

### Configura Splunk
<a name="configure-splunk"></a>


| Operazione | Description | Competenze richieste | 
| --- | --- | --- | 
| Installa l'app Splunk per AWS. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/prescriptive-guidance/latest/patterns/send-aws-waf-logs-to-splunk-by-using-aws-firewall-manager-and-amazon-data-firehose.html) | Amministratore della sicurezza, amministratore Splunk | 
| Installa il componente aggiuntivo per. AWS WAF | Ripeti le istruzioni precedenti per installare il **componente aggiuntivo AWS Web Application Firewall per Splunk**. | Amministratore della sicurezza, amministratore Splunk | 
| Installa e configura il componente aggiuntivo Splunk per Firehose. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/prescriptive-guidance/latest/patterns/send-aws-waf-logs-to-splunk-by-using-aws-firewall-manager-and-amazon-data-firehose.html) | Amministratore della sicurezza, amministratore Splunk | 

### Creare il flusso di distribuzione di Firehose
<a name="create-the-akf-delivery-stream"></a>


| Operazione | Description | Competenze richieste | 
| --- | --- | --- | 
| Concedi a Firehose l'accesso a una destinazione Splunk. | Configura la politica di accesso che consente a Firehose di accedere a una destinazione Splunk e di eseguire il backup dei dati di registro su un bucket S3. Per ulteriori informazioni, consulta [Concedere a Firehose l'accesso a una destinazione Splunk](https://docs.aws.amazon.com/firehose/latest/dev/controlling-access.html#using-iam-splunk). | Amministratore della sicurezza | 
| Crea un flusso di distribuzione Firehose. | Nello stesso account ACLs per cui gestisci il Web AWS WAF, crea un flusso di distribuzione in Firehose. Quando crei un flusso di distribuzione, devi avere un ruolo IAM. Firehose assume quel ruolo IAM e ottiene l'accesso al bucket S3 specificato. [Per istruzioni, consulta Creazione di un flusso di distribuzione.](https://docs.aws.amazon.com/firehose/latest/dev/basic-create.html) Tenere presente quanto segue:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/prescriptive-guidance/latest/patterns/send-aws-waf-logs-to-splunk-by-using-aws-firewall-manager-and-amazon-data-firehose.html)Ripeti questo processo per ogni token configurato nel raccoglitore di eventi HTTP. | Amministratore della sicurezza | 
| Testa il flusso di distribuzione. | Testa il flusso di consegna per verificare che sia configurato correttamente. Per istruzioni, consulta [Test using Splunk come destinazione nella documentazione](https://docs.aws.amazon.com/firehose/latest/dev/test-drive-firehose.html#test-drive-destination-splunk) di Firehose. | Amministratore della sicurezza | 

### Configurare Firewall Manager per registrare i dati
<a name="configure-firewall-manager-to-log-data"></a>


| Operazione | Description | Competenze richieste | 
| --- | --- | --- | 
| Configurare le politiche del Firewall Manager. | Le policy di Firewall Manager devono essere configurate per abilitare la registrazione e inoltrare i log al flusso di distribuzione Firehose corretto. Per ulteriori informazioni e istruzioni, vedere [Configurazione della registrazione](https://docs.aws.amazon.com/waf/latest/developerguide/waf-policies.html#waf-policies-logging-config) per una policy. AWS WAF  | Amministratore della sicurezza | 

## Risorse correlate
<a name="send-aws-waf-logs-to-splunk-by-using-aws-firewall-manager-and-amazon-data-firehose-resources"></a>

**AWS resources**
+ [Registrazione del traffico ACL web (documentazione](https://docs.aws.amazon.com/waf/latest/developerguide/logging.html))AWS WAF 
+ [Configurazione della registrazione per una AWS WAF politica](https://docs.aws.amazon.com/waf/latest/developerguide/waf-policies.html#waf-policies-logging-config) (documentazione)AWS WAF 
+ [Tutorial: invio di log di flusso VPC a Splunk utilizzando Amazon Data Firehose (documentazione Firehose](https://docs.aws.amazon.com/firehose/latest/dev/vpc-splunk-tutorial.html))
+ [In che modo posso inviare i log di flusso VPC a Splunk utilizzando Amazon Data Firehose?](https://aws.amazon.com/premiumsupport/knowledge-center/push-flow-logs-splunk-firehose/) (Centro di conoscenza)AWS 
+ [Potenzia l'inserimento dei dati in Splunk utilizzando Amazon Data Firehose](https://aws.amazon.com/blogs/big-data/power-data-ingestion-into-splunk-using-amazon-kinesis-data-firehose/) (post sul blog)AWS 

**Documentazione Splunk**
+ [Componente aggiuntivo Splunk per Amazon Data Firehose](https://docs.splunk.com/Documentation/AddOns/released/Firehose/About)

# Distribuisci contenuti statici in un bucket Amazon S3 tramite un VPC utilizzando Amazon CloudFront
<a name="serve-static-content-in-an-amazon-s3-bucket-through-a-vpc-by-using-amazon-cloudfront"></a>

*Ángel Emmanuel Hernández Cebrian, Amazon Web Services*

## Riepilogo
<a name="serve-static-content-in-an-amazon-s3-bucket-through-a-vpc-by-using-amazon-cloudfront-summary"></a>

Quando offri contenuti statici ospitati su Amazon Web Services (AWS), l'approccio consigliato consiste nell'utilizzare un bucket Amazon Simple Storage Service (S3) come origine e utilizzare Amazon CloudFront per distribuire il contenuto. Questa soluzione offre due vantaggi principali: la comodità di memorizzare nella cache i contenuti statici nelle postazioni periferiche e la possibilità di definire [liste di controllo degli accessi Web](https://docs.aws.amazon.com/waf/latest/developerguide/web-acl.html) (web ACLs) per la CloudFront distribuzione, che aiutano a proteggere le richieste ai contenuti con una configurazione e un sovraccarico amministrativo minimi.

Tuttavia, esiste una limitazione architetturale comune all'approccio standard consigliato. In alcuni ambienti, si desidera che le appliance firewall virtuali siano distribuite in un cloud privato virtuale (VPC) per ispezionare tutti i contenuti, inclusi i contenuti statici. L'approccio standard non indirizza il traffico attraverso il VPC per l'ispezione. Questo modello fornisce una soluzione architettonica alternativa. Continui a utilizzare una CloudFront distribuzione per fornire contenuti statici in un bucket S3, ma il traffico viene instradato attraverso il VPC utilizzando un Application Load Balancer. Una funzione AWS Lambda recupera e restituisce quindi il contenuto dal bucket S3.

## Prerequisiti e limitazioni
<a name="serve-static-content-in-an-amazon-s3-bucket-through-a-vpc-by-using-amazon-cloudfront-prereqs"></a>

**Prerequisiti**
+ Un account AWS attivo.
+ Contenuto statico del sito Web ospitato in un bucket S3.

**Limitazioni**
+ Le risorse in questo modello devono trovarsi in una singola regione AWS, ma possono essere fornite in diversi account AWS.
+ I limiti si applicano alla dimensione massima di richiesta e risposta che la funzione Lambda può ricevere e inviare, rispettivamente. Per ulteriori informazioni, consulta *Limiti* nelle [funzioni Lambda come destinazioni](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/lambda-functions.html) (documentazione Elastic Load Balancing).
+ È importante trovare un buon equilibrio tra prestazioni, scalabilità, sicurezza ed economicità quando si utilizza questo approccio. Nonostante l'elevata scalabilità di Lambda, se il numero di chiamate Lambda simultanee supera la quota massima, alcune richieste vengono limitate. Per ulteriori informazioni, consulta Quote Lambda (documentazione Lambda). È inoltre necessario considerare i prezzi quando si utilizza Lambda. Per ridurre al minimo le chiamate Lambda, assicurati di definire correttamente la cache per la distribuzione. CloudFront Per ulteriori informazioni, consulta [Ottimizzazione della memorizzazione nella cache e](https://docs.aws.amazon.com/AmazonCloudFront/latest/DeveloperGuide/ConfiguringCaching.html) della disponibilità (documentazione). CloudFront 

## Architecture
<a name="serve-static-content-in-an-amazon-s3-bucket-through-a-vpc-by-using-amazon-cloudfront-architecture"></a>

**Stack tecnologico Target**
+ CloudFront
+ Amazon Virtual Private Cloud (Amazon VPC) (Amazon VPC)
+ Application Load Balancer
+ Lambda
+ Simple Storage Service (Amazon S3)

**Architettura di destinazione**

L'immagine seguente mostra l'architettura consigliata quando è necessario utilizzare CloudFront per servire contenuti statici da un bucket S3 tramite un VPC.

![\[Flusso di traffico attraverso gli Application Load Balancer nel VPC verso la funzione Lambda.\]](http://docs.aws.amazon.com/it_it/prescriptive-guidance/latest/patterns/images/pattern-img/e0dd6928-4fe0-47ab-954f-9de5563349d8/images/b42c7dd9-4a72-4998-bf88-195c8f90ed3e.png)


1. Il client richiede l'URL di CloudFront distribuzione per inserire un particolare file del sito Web nel bucket S3.

1. CloudFront invia la richiesta ad AWS WAF. AWS WAF filtra la richiesta utilizzando il Web ACLs applicato alla CloudFront distribuzione. Se la richiesta viene ritenuta valida, il flusso continua. Se la richiesta viene ritenuta non valida, il client riceve un errore 403.

1. CloudFront controlla la sua cache interna. Se esiste una chiave valida corrispondente alla richiesta in entrata, il valore associato viene rispedito al client come risposta. In caso contrario, il flusso continua.

1. CloudFront inoltra la richiesta all'URL dell'Application Load Balancer specificato.

1. L'Application Load Balancer ha un listener associato a un gruppo target basato su una funzione Lambda. L'Application Load Balancer richiama la funzione Lambda.

1. La funzione Lambda si connette al bucket S3, esegue un'`GetObject`operazione su di esso e restituisce il contenuto come risposta.

**Automazione e scalabilità**

Per automatizzare la distribuzione di contenuti statici utilizzando questo approccio, crea CI/CD pipeline per aggiornare i bucket Amazon S3 che ospitano i siti Web.

La funzione Lambda si ridimensiona automaticamente per gestire le richieste concorrenti, entro le quote e le limitazioni del servizio. Per ulteriori informazioni, consulta [Scalabilità delle funzioni Lambda e](https://docs.aws.amazon.com/lambda/latest/dg/invocation-scaling.html) [quote Lambda (documentazione Lambda](https://docs.aws.amazon.com/lambda/latest/dg/gettingstarted-limits.html)). Per gli altri servizi e funzionalità AWS, come CloudFront Application Load Balancer, AWS li ridimensiona automaticamente.

## Tools (Strumenti)
<a name="serve-static-content-in-an-amazon-s3-bucket-through-a-vpc-by-using-amazon-cloudfront-tools"></a>
+ [Amazon CloudFront](https://docs.aws.amazon.com/AmazonCloudFront/latest/DeveloperGuide/Introduction.html) accelera la distribuzione dei tuoi contenuti web distribuendoli attraverso una rete mondiale di data center, che riduce la latenza e migliora le prestazioni.
+ [Elastic Load Balancing (ELB)](https://docs.aws.amazon.com/elasticloadbalancing/latest/userguide/what-is-load-balancing.html) distribuisce il traffico di applicazioni o di rete in entrata su più destinazioni. In questo modello, si utilizza un [Application Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/introduction.html) fornito tramite Elastic Load Balancing per indirizzare il traffico verso la funzione Lambda.
+ [AWS Lambda](https://docs.aws.amazon.com/lambda/latest/dg/welcome.html) è un servizio di elaborazione che ti aiuta a eseguire codice senza dover fornire o gestire server. Esegue il codice solo quando necessario e si ridimensiona automaticamente, quindi paghi solo per il tempo di calcolo che utilizzi.
+ [Amazon Simple Storage Service (Amazon S3)](https://docs.aws.amazon.com/AmazonS3/latest/userguide/Welcome.html) è un servizio di archiviazione degli oggetti basato sul cloud che consente di archiviare, proteggere e recuperare qualsiasi quantità di dati.
+ [Amazon Virtual Private Cloud (Amazon VPC)](https://docs.aws.amazon.com/vpc/latest/userguide/what-is-amazon-vpc.html) ti aiuta a lanciare le risorse AWS in una rete virtuale che hai definito. Questa rete virtuale è simile a una rete tradizionale che gestiresti nel tuo data center, con i vantaggi dell'utilizzo dell'infrastruttura scalabile di AWS.

## Epiche
<a name="serve-static-content-in-an-amazon-s3-bucket-through-a-vpc-by-using-amazon-cloudfront-epics"></a>

### Utilizzalo CloudFront per servire contenuti statici da Amazon S3 tramite un VPC
<a name="use-cloudfront-to-serve-static-content-from-amazon-s3-through-a-vpc"></a>


| Operazione | Description | Competenze richieste | 
| --- | --- | --- | 
| Crea un VPC. | Crea un VPC per ospitare le risorse distribuite in questo modello, come l'Application Load Balancer e la funzione Lambda.  Per istruzioni, consulta [Creare un VPC (documentazione](https://docs.aws.amazon.com/vpc/latest/userguide/working-with-vpcs.html#Create-VPC) Amazon VPC). | Architetto del cloud | 
| Crea un ACL web AWS WAF. | Crea un ACL web AWS WAF. Più avanti in questo schema, applicherai questo ACL web alla distribuzione. CloudFront Per istruzioni, consulta [Creazione di un ACL web (documentazione](https://docs.aws.amazon.com/waf/latest/developerguide/web-acl-creating.html) AWS WAF). | Architetto del cloud | 
| Creazione della funzione Lambda | Crea la funzione Lambda che serve il contenuto statico ospitato nel bucket S3 come sito Web. Utilizza il codice fornito nella sezione [Informazioni aggiuntive](#serve-static-content-in-an-amazon-s3-bucket-through-a-vpc-by-using-amazon-cloudfront-additional) di questo modello. Personalizza il codice per identificare il bucket S3 di destinazione. | Informazioni generali su AWS | 
| Carica la funzione Lambda. | Immettete il seguente comando per caricare il codice della funzione Lambda in un archivio di file.zip in Lambda.<pre>aws lambda update-function-code \<br />--function-name  \ <br />--zip-file fileb://lambda-alb-s3-website.zip</pre> | Informazioni generali su AWS | 
| Crea un Application Load Balancer. | Crea un Application Load Balancer con accesso a Internet che punti alla funzione Lambda. Per istruzioni, consulta [Creare un gruppo target per la funzione Lambda](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/lambda-functions.html#register-lambda-function) (documentazione Elastic Load Balancing). Per una configurazione ad alta disponibilità, crea l'Application Load Balancer e collegalo a sottoreti private in diverse zone di disponibilità. | Architetto del cloud | 
| Crea una CloudFront distribuzione. | Crea una CloudFront distribuzione che punti all'Application Load Balancer che hai creato.[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/prescriptive-guidance/latest/patterns/serve-static-content-in-an-amazon-s3-bucket-through-a-vpc-by-using-amazon-cloudfront.html) | Architetto del cloud | 

## Risorse correlate
<a name="serve-static-content-in-an-amazon-s3-bucket-through-a-vpc-by-using-amazon-cloudfront-resources"></a>

**Documentazione AWS**
+ [Ottimizzazione della memorizzazione nella cache e della disponibilità (documentazione](https://docs.aws.amazon.com/AmazonCloudFront/latest/DeveloperGuide/ConfiguringCaching.html)) CloudFront 
+ [Lambda funge da obiettivi (documentazione](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/lambda-functions.html) Elastic Load Balancing)
+ [Quote Lambda (documentazione](https://docs.aws.amazon.com/lambda/latest/dg/gettingstarted-limits.html) Lambda)

**Siti Web di servizi AWS**
+ [Application Load Balancer](https://aws.amazon.com/es/elasticloadbalancing/application-load-balancer/)
+ [Lambda](https://aws.amazon.com/en/lambda/)
+ [CloudFront](https://aws.amazon.com/en/cloudfront/)
+ [Amazon S3](https://aws.amazon.com/en/s3/)
+ [AWS WAF](https://aws.amazon.com/en/waf/)
+ [Amazon VPC](https://aws.amazon.com/en/vpc/)

## Informazioni aggiuntive
<a name="serve-static-content-in-an-amazon-s3-bucket-through-a-vpc-by-using-amazon-cloudfront-additional"></a>

**Codice**

Il seguente esempio di funzione Lambda è scritto in Node.js. Questa funzione Lambda funge da server Web che esegue un'`GetObject`operazione su un bucket S3 che contiene le risorse del sito Web. 

```
/**

 * This is an AWS Lambda function created for demonstration purposes.

 * It retrieves static assets from a defined Amazon S3 bucket.

 * To make the content available through a URL, use an Application Load Balancer with a Lambda integration.
 * 
 * Set the S3_BUCKET environment variable in the Lambda function definition.
 */

var AWS = require('aws-sdk');

exports.handler = function(event, context, callback) {

    var bucket = process.env.S3_BUCKET;    
    var key = event.path.replace('/', '');
    
    if (key == '') {
        key = 'index.html';
    }

    // Fetch from S3
    var s3 = new AWS.S3();
    return s3.getObject({Bucket: bucket, Key: key},
       function(err, data) {

            if (err) {
                return err;
            }

            var isBase64Encoded = false;
            var encoding = 'utf8';
            
            if (data.ContentType.indexOf('image/') > -1) {
                isBase64Encoded = true;
                encoding = 'base64'
            }
    
            var resp = {
                statusCode: 200,
                headers: {
                    'Content-Type': data.ContentType,
                },
                body: new Buffer(data.Body).toString(encoding),
                isBase64Encoded: isBase64Encoded
            };

            callback(null, resp);
        }
    );
};
```

# Altri modelli
<a name="contentdelivery-more-patterns-pattern-list"></a>

**Topics**
+ [Controlla una CloudFront distribuzione Amazon per la registrazione degli accessi, la versione HTTPS e TLS](check-an-amazon-cloudfront-distribution-for-access-logging-https-and-tls-version.md)
+ [Implementa un'applicazione basata su gRPC su un cluster Amazon EKS e accedi ad essa con un Application Load Balancer](deploy-a-grpc-based-application-on-an-amazon-eks-cluster-and-access-it-with-an-application-load-balancer.md)
+ [Implementa controlli di accesso preventivi basati sugli attributi per le sottoreti pubbliche](deploy-preventative-attribute-based-access-controls-for-public-subnets.md)
+ [Distribuisci risorse in una AWS Wavelength zona utilizzando Terraform](deploy-resources-wavelength-zone-using-terraform.md)
+ [Implementa le automazioni di sicurezza per la AWS WAF soluzione utilizzando Terraform](deploy-the-security-automations-for-aws-waf-solution-by-using-terraform.md)
+ [Configura un router cellulare serverless per un'architettura basata su celle](serverless-cell-router-architecture.md)
+ [Usa Amazon Q Developer come assistente di programmazione per aumentare la tua produttività](use-q-developer-as-coding-assistant-to-increase-productivity.md)
+ [Visualizza i log e i parametri di AWS Network Firewall utilizzando Splunk](view-aws-network-firewall-logs-and-metrics-by-using-splunk.md)