Checkliste für die skalierbare Ausführung - AWS Batch

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Checkliste für die skalierbare Ausführung

Bevor Sie eine große Arbeitslast mit 50.000 oder mehr Rechenlasten ausführenvCPUs, sollten Sie sich die folgende Checkliste ansehen.

Anmerkung

Wenn Sie planen, ein großes Workload mit einer Million oder mehr vCPUs zu bewältigen, oder wenn Sie Unterstützung bei der Ausführung eines großen Workloads benötigen, wenden Sie sich an Ihr AWS Team.

  • Überprüfen Sie Ihre EC2 Amazon-Kontingente — Überprüfen Sie Ihre EC2 Amazon-Kontingente (auch als Limits bezeichnet) im Bereich Servicekontingente des AWS Management Console. Beantragen Sie bei Bedarf eine Erhöhung des Kontingents für Ihre maximale Anzahl an EC2 Amazon-Instances. Denken Sie daran, dass Amazon EC2 Spot- und Amazon On-Demand-Instances separate Kontingente haben. Weitere Informationen finden Sie unter Erste Schritte mit Service Quotas.

  • Überprüfen Sie Ihr Amazon Elastic Block Store-Kontingent für jede Region — Jede Instance verwendet ein GP2 GP3 Oder-Volume für das Betriebssystem. Standardmäßig beträgt das Kontingent für jedes AWS-Region Objekt 300 TiB. Jede Instanz verwendet jedoch Zählungen als Teil dieses Kontingents. Denken Sie also daran, dies zu berücksichtigen, wenn Sie Ihr Amazon Elastic Block Store-Kontingent für jede Region verifizieren. Wenn Ihr Kontingent erreicht ist, können Sie keine weiteren Instances erstellen. Weitere Informationen finden Sie unter Amazon Elastic Block Store: Endpunkte und Kontingente

  • Verwenden Sie Amazon S3 als Speicher — Amazon S3 bietet einen hohen Durchsatz und hilft, das Rätselraten darüber zu vermeiden, wie viel Speicherplatz basierend auf der Anzahl der Jobs und Instances in jeder Availability Zone bereitgestellt werden muss. Weitere Informationen finden Sie unter Bewährte Entwurfsmuster: Optimierung der Amazon S3 S3-Leistung.

  • Skalieren Sie schrittweise, um Engpässe frühzeitig zu erkennen — Bei einem Job, der eine Million oder mehr umfasstvCPUs, beginnen Sie niedriger und erhöhen Sie diese schrittweise, sodass Sie Engpässe frühzeitig erkennen können. Beginnen Sie beispielsweise damit, mit 50.000 zu arbeiten. vCPUs Erhöhen Sie dann die Anzahl auf 200 Tausend vCPUs und dann auf 500 Tausend vCPUs und so weiter. Mit anderen Worten, erhöhen Sie die CPU V-Anzahl schrittweise weiter, bis Sie die gewünschte Anzahl von erreicht habenvCPUs.

  • Überwachung, um potenzielle Probleme frühzeitig zu erkennen — Um mögliche Unterbrechungen und Probleme bei der Ausführung im großen Maßstab zu vermeiden, sollten Sie sowohl Ihre Anwendung als auch Ihre Architektur überwachen. Selbst bei einer Skalierung von 1.000 auf 5.000 können Unterbrechungen auftretenvCPUs. Sie können Amazon CloudWatch Logs verwenden, um Protokolldaten zu überprüfen, oder CloudWatch Embedded Metrics mithilfe einer Client-Bibliothek verwenden. Weitere Informationen finden Sie unter CloudWatch Logs-Agent-Referenz und aws-embedded-metrics