多会话建议
在决定多会话环境中实例上的最大用户会话数时,应考虑几个因素,以确保最佳性能和流式传输体验。以下是关于决定实例上最佳用户会话数的建议:
-
评估资源要求:了解会话中使用的应用程序的资源要求。考虑 CPU、内存、磁盘 I/O 和网络带宽等因素。此评估将有助于决定每个用户会话通常需要的资源量。
-
考虑实例规格:考虑实例的规格,包括 CPU 数量、可用内存和 GPU 规格。规格更高的实例可以处理更多的用户会话。有关 AppStream 2.0 支持的不同实例类型和定价的更多信息,请参阅 Amazon AppStream 2.0 定价
。 -
性能测试:对预期在用户会话中运行的应用程序和工作负载进行性能测试。衡量资源利用率、响应时间和整体系统性能。使用此数据来评估并发用户会话对性能的影响,并确定最佳会话与实例比率。您可以对 AppStream 2.0 提供的不同实例类型进行这些评估,以便为您的最终用户找到最佳的实例类型或大小。有关 AppStream 2.0 提供的不同实例类型的更多信息,请参阅AppStream 2.0 实例系列。
-
监控资源利用率:持续监控实例在正常使用期间的资源利用率。观察 CPU、内存和磁盘利用率。确保资源利用率保持在可接受的范围内,以避免性能下降。对于多会话环境,您可以在 AppStream 2.0 和 CloudWatch 控制台上查看这些指标。有关更多信息,请参阅 监控 Amazon AppStream 2.0 资源。
-
考虑用户行为模式:分析用户行为模式以了解高峰使用时段和潜在的并发使用情况。有些用户可能有间歇性或零星的使用模式,而其他用户则可能全天保持一致的使用模式。在确定最大用户会话数时要考虑这些模式,以避免在高峰时段发生资源争用。
无论您选择何种实例类型或大小,AppStream 2.0 都允许您为每个实例配置最多 50 个用户会话。但是,这只是上限,而不是建议的限制。以下是一个示例表,可帮助您确定多会话实例集中一个实例上的最大用户会话数。表中列出的建议最大用户数基于一般准则和假设。使用实际工作负载进行测试至关重要,因为实际性能可能会有所不同,具体取决于工作负载的个体功能、应用程序的资源要求和用户行为。
最终用户类别 | 工作负载类型 | 示例用户 | 应用场景 | 建议的配置 |
---|---|---|---|---|
执行单项任务且使用最少应用程序的最终用户 | 低型 | 任务工作人员、前台用户 | 数据输入应用程序、文本编辑、堡垒主机 | 在 Stream.standard.xlarge/2xlarge 或 Stream.compute.xlarge+ 或 Stream.memory.xlarge+ 上每个 vCPU 有 4 个用户 |
执行单项任务且使用最少应用程序的最终用户 | 低型到中型 | 任务工作人员、前台用户、联络中心员工 | 数据输入应用程序、文本编辑、堡垒主机、聊天、电子邮件、消息收发应用程序 | 在 Stream.standard.xlarge/2xlarge 或 Stream.compute.xlarge+ 或 Stream.memory.xlarge+ 上每个 vCPU 有 2 个用户 |
创建复杂电子表格、演示文稿和大型文档的最终用户 | 中型 | 任务工作人员、联络中心员工、业务分析师 | 数据输入应用程序、聊天、电子邮件、消息传送应用程序、生产力应用程序 | 在 Stream.memory.xlarge+ 或 Stream.compute.xlarge+ 上每个 vCPU 有 2 个用户 |
具有高性能工作负载的最终用户 | 中型到重型 | 知识工作者、软件开发人员、商业智能分析师 | 软件脚本编写 | 在 Stream.memory.xlarge+ 或 Stream.compute.xlarge+ 上每个 vCPU 有 1 个用户 |
具有高性能工作负载的最终用户 | 重型 | 知识工作者、软件开发人员、数据科学家 | 屏幕共享、数据分析、音频会议 | 在 Stream.memory.xlarge+ 或 Stream.compute.xlarge+ 上每 2 个 vCPU 有 1 个用户 |
具有需要图形和大量计算/内存资源的工作负载的最终用户 | 重型到加速 | 图形/架构设计师、CAD/CAM 用户 | 音频会议、图形密集型应用程序,例如远程图形工作站 | 每 2 个 vCPU Graphics.g4dn 有 1 个用户。* |
具有需要图形和大量计算/内存资源的工作负载的最终用户 | 已加速 | 视频编辑、游戏玩家和游戏开发者、数据挖掘者、GIS 数据工程师、AI 科学家 | 音频会议、视频转码和 3D 渲染、照片级逼真设计、图形工作站、机器学习模型训练、机器学习推理 | 每 2 个 vCPU Graphics.G5 有 1 个用户。* |