協助改善此頁面
想要為此使用者指南做出貢獻嗎? 捲動至此頁面底部,然後選取 [編輯此頁面於] GitHub。您的貢獻將有助於使我們的用戶指南更適合所有人。
本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。
瞭解節點更新的每個階段
Amazon 受EKS管工作者節點升級策略有四個不同階段,在以下各節中描述。
設定階段
設定階段具有下列步驟:
-
它會為與您的節點群組相關聯的 Auto Scaling 群組建立新的 Amazon EC2 啟動範本版本。新的啟動範本版本會使用目標AMI或自訂啟動範本版本進行更新。
-
它會更新 Auto Scaling 群組,以使用最新的啟動範本。
-
它使用節點群組的
updateConfig
屬性決定要平行升級的節點數量上限。不可用節點上限配額為 100。預設值為一個節點。如需詳細資訊,請參閱 Amazon EKS API 參考中的updateConfig
屬性。
擴充規模階段
升級受管節點群組中的節點時,已升級的節點會在與正在升級的節點相同的可用區域中啟動。為了保證此放置位置,我們使用 Amazon EC2 的可用區域重新平衡。如需詳細資訊,請參閱 Amazon EC2 Auto Scaling 使用者指南中的可用區域重新平衡。為了滿足這項需求,我們可在受管節點群組中每個可用區域啟動最多兩個執行個體。
擴充規模階段具有下列步驟:
-
它按下面的任一大小 (以較大者為准) 增加 Auto Scaling 群組的最大大小和所需大小:
-
Auto Scaling 群組部署的可用區域數量的兩倍。
-
升級無法使用的上限。
例如,如果節點群組有五個可用區域,而
maxUnavailable
為一個,則升級程序最多能啟動 10 個節點。但maxUnavailable
是,當 20(或高於 10 的任何內容)時,該過程將啟動 20 個新節點。
-
-
擴展 Auto Scaling 群組後,會檢查使用最新配置的節點是否存在於節點群組中。只有在符合下列條件時,此步驟才會成功:
-
在節點所在的每個可用區域中,至少會啟動一個新節點。
-
每個新節點都應該處於
Ready
狀態。 -
新節點應該有 Amazon EKS 應用的標籤。
以下是一般節點群組中工作者節點上 Amazon EKS 套用的標籤:
-
eks.amazonaws.com/nodegroup-image=
$amiName
-
eks.amazonaws.com/nodegroup=
$nodeGroupName
以下是 Amazon 在自訂啟動範本或節點群組中的工作者AMI節點上EKS套用的標籤:
-
eks.amazonaws.com/nodegroup-image=
$amiName
-
eks.amazonaws.com/nodegroup=
$nodeGroupName
-
eks.amazonaws.com/sourceLaunchTemplateId=
$launchTemplateId
-
eks.amazonaws.com/sourceLaunchTemplateVersion=
$launchTemplateVersion
-
-
-
它將節點標記為不可排程,以避免排程新的 Pods。它還使用
node.kubernetes.io/exclude-from-external-load-balancers=true
標記節點,以便在終止節點之前從負載平衡器中移除節點。
以下是在這個階段中會導致 NodeCreationFailure
錯誤的已知原因:
- 可用區域容量不足
-
可用區域可能沒有所請求執行個體類型的容量。建議在建立受管節點群組時設定多個執行個體類型。
- EC2帳戶中的執行個體限制
-
您可能需要使用 Service Quotas 增加帳戶可同時EC2執行的 Amazon 執行個體數量。如需詳細資訊,請參閱 Amazon 彈性運算雲端Linux執行個體使用者指南中的 Ser EC2vice Quotas。
- 自訂使用者資料
-
自訂使用者資料有時會中斷引導程序。這種情況可能會
kubelet
導致節點或節點上無法啟動預期的 Amazon EKS 標籤。如需詳細資訊,請參閱指定 AMI。 - 任何使節點運作狀態不良或未準備就緒的變更
-
節點磁碟壓力、記憶體壓力和類似情況,可能導致節點無法進入
Ready
狀態。
升級階段
升級階段具有下列步驟:
-
它隨機選取需要升級的節點,最大不超過為節點群組設定的無法使用上限。
-
它耗盡節點中的 Pods。若 Pods 未在 15 分鐘內離開節點且未強制標記,則升級階段將失敗,並出現
PodEvictionFailure
錯誤。在這種情況下,您可以應用強制標記,同時使用update-nodegroup-version
請求刪除 Pods。 -
在移出每個 Pod 之後,它包圍隔離節點並等待 60 秒。這樣做是為了讓服務控制器不會將任何新的請求傳送到此節點,並將此節點從其作用中的節點清單中移除。
-
它將終止請求傳送之包圍隔離節點的 Auto Scaling 群組。
-
它重複步驟先前的升級步驟,直到節點群組中沒有使用舊版啟動範本部署的節點為止。
以下是在這個階段中會導致 PodEvictionFailure
錯誤的已知原因:
- 侵略性 PDB
-
侵略性PDB是在Pod或有多個PDBs指向相同的定義Pod。
- 容忍所有污點的部署
-
一旦移出每個 Pod,節點預期為空,因為節點在先前的步驟中會受到污染
。但是,如果部署容忍每一個污點,則節點更有可能是非空白,導致 Pod 移出失敗。
縮減規模階段
縮減規模階段會將 Auto Scaling 群組的大小上限和所需大小遞減一,以便回到更新開始之前的值。
如果升級工作流程判斷 Cluster Autoscaler 在工作流程的縮減規模階段期間擴充節點群組,它會立即結束,而不會將節點群組恢復至原始大小。