AWS เปิดตัว อินสแตนซ์ Amazon EC2 ใหม่สามรายการ Hpc7g, C7gn และ Inf2 ที่ขับเคลื่อนโดยชิปที่ออกแบบโดย AWS เพื่อมอบประสิทธิภาพการประมวลผลที่ดียิ่งขึ้นแก่ลูกค้าด้วยต้นทุนที่ต่ำลง
อะเมซอน เว็บ เซอร์วิสเซส (Amazon Web Services: AWS) บริษัทในเครือ Amazon.com ได้ประกาศเปิดตัว อินสแตนซ์ Amazon Elastic Compute Cloud (Amazon EC2) ใหม่สามรายการที่ขับเคลื่อนโดยชิปที่ออกแบบโดย AWS ซึ่งให้ประสิทธิภาพการประมวลผลที่ดียิ่งขึ้นแก่ลูกค้าด้วยต้นทุนที่ต่ำลงสําหรับปริมาณงานที่หลากหลาย Hpc7g Instances ขับเคลื่อนโดยชิป AWS Graviton3E ใหม่ ให้ประสิทธิภาพการประมวลผลจุดลอยตัวต่อวินาที (floating-point performance) ที่ดีขึ้นถึง 2 เท่า เมื่อเทียบกับอินสแตนซ์ C6gn รุ่นปัจจุบัน และประสิทธิภาพที่สูงขึ้นถึง 20% เมื่อเทียบกับอินสแตนซ์ Hpc6a รุ่นปัจจุบัน ซึ่งมอบประสิทธิภาพด้านราคาที่ดีที่สุดสําหรับการประมวลผลประสิทธิภาพสูง (High performance computing: HPC) บน AWS C7gn Instances ที่มี AWS Nitro Cards ใหม่ ให้อัตราการส่งถ่ายข้อมูลในเครือข่ายเพิ่มขึ้นถึง 2 เท่า และประสิทธิภาพแพ็กเก็ตต่อวินาทีเพิ่มขึ้น 2 เท่าต่อ CPU เมื่อเทียบกับอินสแตนซ์ที่ปรับให้เหมาะสมกับเครือข่ายรุ่นปัจจุบัน ซึ่งมอบอัตราการส่งถ่ายข้อมูลในเครือข่ายและประสิทธิภาพอัตราแพ็คเก็ตสูงสุด รวมถึงประสิทธิภาพด้านราคาที่ดีที่สุดสําหรับปริมาณงานที่ใช้เครือข่ายมาก Inf2 Instances ซึ่งขับเคลื่อนโดยชิป AWS Inferentia2 ใหม่สร้างขึ้นเพื่อเรียกใช้โมเดลการเรียนรู้เชิงลึก (Deep learning) ที่ใหญ่ที่สุดถึง 175 พันล้านพารามิเตอร์ และให้ปริมาณการประมวลผลสูงถึง 4 เท่า และเวลาแฝงลดลงสูงสุด 10 เท่าเมื่อเทียบกับอินสแตนซ์ Inf1 รุ่นปัจจุบัน ซึ่งให้เวลาแฝงต่ำสุดด้วยต้นทุนที่ต่ำที่สุดสําหรับการอนุมานของแมชชีนเลิร์นนิง (Machine learning: ML) บน Amazon EC2
AWS มีประสบการณ์กว่าทศวรรษในการออกแบบชิปที่พัฒนาขึ้นเพื่อประสิทธิภาพและความสามารถในการปรับขยายในระบบคลาวด์ด้วยต้นทุนที่ต่ำลง ที่ผ่านมา AWS ได้เปิดตัวการออกแบบชิปแบบพิเศษ ซึ่งทําให้ลูกค้าสามารถเรียกใช้ปริมาณงานที่มีความต้องการสูงขึ้นด้วยคุณสมบัติที่แตกต่างกันซึ่งต้องการการประมวลผลที่รวดเร็วขึ้น, ความจุหน่วยความจําที่สูงขึ้น, พื้นที่จัดเก็บที่รับส่งข้อมูลได้เร็วขึ้น และอัตราการส่งถ่ายข้อมูลในเครือข่ายที่เพิ่มขึ้น นับตั้งแต่เปิดตัว AWS Nitro System ในปี 2013 AWS ได้พัฒนานวัตกรรมซิลิคอนที่ออกแบบโดย AWS หลายรุ่น ซึ่งรวมถึง Nitro System ห้ารุ่น, ชิป Graviton สามรุ่นที่ปรับให้เหมาะสมกับประสิทธิภาพและต้นทุนสําหรับปริมาณงานที่หลากหลาย, ชิป Inferentia สองรุ่นสําหรับการอนุมานของ ML และชิป Trainium สําหรับการเทรน ML นอกจากนี้ AWS ใช้ระบบอัตโนมัติในการออกแบบทางอิเล็กทรอนิกส์บนคลาวด์ ซึ่งเป็นส่วนหนึ่งของวงจรการพัฒนาที่คล่องตัวสําหรับการออกแบบและการตรวจสอบซิลิคอนที่ออกแบบโดย AWS ช่วยให้ทีมสามารถสร้างสรรค์นวัตกรรมได้เร็วขึ้นและทําให้ชิปพร้อมใช้งานสําหรับลูกค้าได้รวดเร็วยิ่งขึ้น ด้วยชิปแต่ละตัวที่ต่อเนื่องกัน AWS สามารถส่งมอบชิปใหม่ที่ใช้กระบวนการซิลิคอนที่ทันสมัยและประหยัดพลังงานมากขึ้นในระยะเวลาที่คาดการณ์ได้และรวดเร็ว AWS นำเสนอการปรับปรุงประสิทธิภาพการทำงานของขั้นตอน ต้นทุน และประสิทธิภาพให้กับอินสแตนซ์ Amazon EC2 ที่โฮสต์ชิปเหล่านั้น ทําให้ลูกค้ามีทางเลือกมากขึ้นในการผสมผสานชิปและอินสแตนซ์ที่ปรับให้เหมาะสมกับความต้องการปริมาณงานต่าง ๆ
“ซิลิคอนแต่ละรุ่นที่ออกแบบโดย AWS ตั้งแต่ชิป Graviton ไปจนถึง Trainium, Inferentia และ Nitro Cards มอบประสิทธิภาพที่เพิ่มขึ้น ต้นทุนที่ต่ำลง และประสิทธิภาพการใช้พลังงานสําหรับปริมาณงานของลูกค้าที่หลากหลาย” เดวิด บราวน์ รองประธานของ Amazon EC2 ของ AWS กล่าวว่า “การส่งมอบที่ต่อเนื่อง รวมกับความสามารถของลูกค้าในการเพิ่มประสิทธิภาพด้านราคาที่ดีขึ้นโดยใช้ AWS Silicon ช่วยขับเคลื่อนนวัตกรรมที่ไม่หยุดนิ่งของเรา อินสแตนซ์ Amazon EC2 ที่เราแนะนําในวันนี้มีการปรับปรุงที่สําคัญสําหรับปริมาณงาน HPC ปริมาณงานที่ใช้เครือข่ายมาก และการอนุมาน ML ทำให้ลูกค้าสามารถเลือกอินสแตนซ์ได้มากขึ้นเพื่อตอบสนองความต้องการเฉพาะของพวกเขา”
อินสแตนซ์ Hpc7g สร้างขึ้นเพื่อมอบราคาที่ดีที่สุดสําหรับการเรียกใช้ปริมาณงาน HPC ตามขนาดที่ต้องการบน Amazon EC2
องค์กรในหลายอุตสาหกรรมใช้ HPC ในการแก้ปัญหาทางวิชาการ วิทยาศาสตร์ และธุรกิจที่ซับซ้อน ปัจจุบัน ลูกค้าอย่าง AstraZeneca, Formula 1 และ Maxar Technologies ใช้ปริมาณงาน HPC แบบเดิม เช่น การประมวลผลจีโนมิกส์ พลศาสตร์ของไหลเชิงคํานวณ (Computational fluid dynamics: CFD) และการจําลองการพยากรณ์อากาศบน AWS เพื่อใช้ประโยชน์จากความปลอดภัย ความสามารถในการปรับขนาด และความยืดหยุ่นที่เหนือกว่าของ AWS วิศวกร นักวิจัย และนักวิทยาศาสตร์เรียกใช้ปริมาณงาน HPC บนอินสแตนซ์ Amazon EC2 ที่ปรับให้เหมาะสมกับ HPC (เช่น Hpc6a, Hpc6id, C5n, R5n, M5n และ C6gn) ซึ่งช่วยในการประมวลผลที่ไม่จํากัดและอัตราการส่งถ่ายข้อมูลในเครือข่ายระดับสูงระหว่างเซิร์ฟเวอร์ที่ประมวลผลและแลกเปลี่ยนข้อมูลระหว่างคอร์นับพัน แม้ว่าประสิทธิภาพของอินสแตนซ์เหล่านี้จะเพียงพอสําหรับการใช้งาน HPC ส่วนใหญ่ในปัจจุบัน แต่แอปพลิเคชันที่เกิดขึ้นใหม่ เช่น ปัญญาประดิษฐ์ (AI) และยานพาหนะอัตโนมัติต้องการอินสแตนซ์ที่ปรับให้เหมาะกับ HPC ซึ่งสามารถปรับขนาดเพิ่มเติมเพื่อแก้ปัญหาที่ยากขึ้นเรื่อย ๆ และลดต้นทุนของปริมาณงาน HPC ซึ่งสามารถปรับขนาดได้เป็นหลายหมื่นคอร์ขึ้นไป
Hpc7g Instances ที่ขับเคลื่อนโดยโปรเซสเซอร์ AWS Graviton3E ใหม่มอบประสิทธิภาพด้านราคาที่ดีที่สุดสําหรับปริมาณงาน HPC ของลูกค้า (เช่น CFD, การจําลองสภาพอากาศ, จีโนมิกส์ และพลศาสตร์โมเลกุล) บน Amazon EC2 อินสแตนซ์ Hpc7g ให้ประสิทธิภาพจุดลอยตัวที่ดีขึ้นถึง 2 เท่าเมื่อเทียบกับอินสแตนซ์ C6gn รุ่นปัจจุบันที่ขับเคลื่อนโดยโปรเซสเซอร์ Graviton2 และประสิทธิภาพที่สูงขึ้นถึง 20% เมื่อเทียบกับอินสแตนซ์ Hpc6a รุ่นปัจจุบัน ทําให้ลูกค้าสามารถทําการคํานวณที่ซับซ้อนในคลัสเตอร์ HPC ได้สูงสุดหลายหมื่นคอร์ อินสแตนซ์ Hpc7g ยังมีแบนด์วิดท์หน่วยความจําสูงและอัตราการส่งถ่ายข้อมูลในเครือข่ายต่อ CPU สูงสุดในอินสแตนซ์ AWS ทั้งหมด เพื่อให้ได้ผลลัพธ์ที่เร็วขึ้นสําหรับแอปพลิเคชัน HPC ลูกค้าสามารถใช้อินสแตนซ์ Hpc7g กับ AWS ParallelCluster ซึ่งเป็นเครื่องมือการจัดการคลัสเตอร์แบบโอเพนซอร์ส เพื่อจัดเตรียมอินสแตนซ์ Hpc7g ควบคู่ไปกับอินสแตนซ์ประเภทอื่น ๆ ทําให้ลูกค้ามีความยืดหยุ่นในการเรียกใช้ปริมาณงานประเภทต่าง ๆ ภายในคลัสเตอร์ HPC เดียวกัน
อินสแตนซ์ C7gn มอบประสิทธิภาพที่ดีที่สุดสําหรับปริมาณงานที่ใช้เครือข่ายมากโดยมีอัตราการส่งถ่ายข้อมูลในเครือข่ายที่สูงขึ้น ประสิทธิภาพอัตราแพ็คเก็ตที่มากขึ้น และเวลาแฝงที่ต่ำลง
ลูกค้าใช้อินสแตนซ์ที่ปรับให้เหมาะกับเครือข่ายของ Amazon EC2 เพื่อเรียกใช้ปริมาณงานที่ต้องใช้เครือข่ายมาก เช่น การใช้งานเครือข่ายเสมือน (เช่น ไฟร์วอลล์ เราเตอร์เสมือน และโหลดบาลานเซอร์) และการเข้ารหัสข้อมูล ลูกค้าจําเป็นต้องปรับขนาดประสิทธิภาพของปริมาณงานเหล่านี้เพื่อจัดการกับปริมาณการใช้งานเครือข่ายที่เพิ่มขึ้น เพื่อรองรับการใช้งานที่เพิ่มขึ้นอย่างรวดเร็ว หรือเพื่อลดเวลาในการประมวลผลและมอบประสบการณ์ที่ดีขึ้นให้แก่ผู้ใช้งาน ปัจจุบัน ลูกค้าใช้อินสแตนซ์ขนาดใหญ่ขึ้นเพื่อรองรับปริมาณการประมวลผลที่มากขึ้น โดยปรับใช้ทรัพยากรการประมวลผลมากกว่าที่จําเป็น ซึ่งเป็นการเพิ่มค่าใช้จ่าย ลูกค้าเหล่านี้ต้องการประสิทธิภาพแพ็กเก็ตต่อวินาทีที่เพิ่มขึ้น อัตราการส่งถ่ายข้อมูลในเครือข่ายที่สูงขึ้น และประสิทธิภาพการเข้ารหัสที่เร็วขึ้นเพื่อลดเวลาในการประมวลผลข้อมูล
C7gn Instances ที่มี AWS Nitro Cards ใหม่ที่ขับเคลื่อนโดยชิป Nitro รุ่นใหม่รุ่นที่ 5 พร้อมการเร่งความเร็วเครือข่าย ให้อัตราการส่งถ่ายข้อมูลในเครือข่ายและประสิทธิภาพการประมวลผลแพ็คเก็ตที่ปรับให้เหมาะสมกับ Amazon EC2 ที่เพิ่มประสิทธิภาพเครือข่าย Nitro Cards จะลดภาระและเร่งความเร็วอินพุต/เอาต์พุตสําหรับฟังก์ชันต่าง ๆ จาก CPU ของโฮสต์ไปยังฮาร์ดแวร์เฉพาะเพื่อใช้ประสิทธิภาพทั้งหมดของอินสแตนซ์ Amazon EC2 กับปริมาณงานของลูกค้าเพื่อประสิทธิภาพที่สม่ำเสมอมากขึ้นด้วยการใช้งาน CPU ที่น้อยลง AWS Nitro Cards ใหม่ช่วยให้อินสแตนซ์ C7gn ทำให้อัตราการส่งถ่ายข้อมูลในเครือข่ายเพิ่มขึ้นถึง 2 เท่า และประสิทธิภาพแพ็กเก็ตต่อวินาทีเพิ่มขึ้น 2 เท่าต่อ CPU และลดเวลาแฝงของเครือข่าย Elastic Fabric Adapter (EFA) เมื่อเทียบกับอินสแตนซ์ Amazon EC2 รุ่นปัจจุบัน อินสแตนซ์ C7gn ยังมอบประสิทธิภาพการประมวลผลที่ดีขึ้นถึง 25% และประสิทธิภาพการทำงานที่เร็วขึ้นสูงสุด 2 เท่าสําหรับการเข้ารหัสเมื่อเทียบกับอินสแตนซ์ C6gn อินสแตนซ์ C7gn ช่วยให้ลูกค้าปรับขนาดได้ทั้งด้านประสิทธิภาพและปริมาณการประมวลผล และลดเวลาแฝงของเครือข่ายเพื่อเพิ่มประสิทธิภาพต้นทุนของปริมาณงานที่มีความต้องการใช้เครือข่ายสูงบน Amazon EC2 ให้เหมาะสม อินสแตนซ์ C7gn พร้อมให้ใช้งานแล้ววันนี้ในแบบพรีวิว
อินสแตนซ์ Inf2 สร้างขึ้นเพื่อรองรับการปรับใช้ deep learning ที่มีความต้องการมากที่สุดในปัจจุบัน พร้อมรองรับการอนุมานแบบกระจายและการปัดเศษแบบสุ่ม
นักวิทยาศาสตร์ข้อมูลและวิศวกร ML กําลังสร้าง deep learning ที่ใหญ่ขึ้นและซับซ้อนมากขึ้น เพื่อตอบสนองต่อความต้องการแอปพลิเคชันที่ดีขึ้นและประสบการณ์ส่วนบุคคลที่ปรับแต่งให้เหมาะสมยิ่งขึ้น ตัวอย่างเช่น โมเดลภาษาขนาดใหญ่ (LLMs) ที่มีพารามิเตอร์มากกว่า 100 พันล้านตัวกำลังแพร่หลายมากขึ้นเรื่อย ๆ โดยฝึกฝนกับข้อมูลจำนวนมหาศาล ซึ่งขับเคลื่อนความต้องการด้านการประมวลผลที่เติบโตอย่างที่ไม่เคยมีมาก่อน แม้ว่าการฝึกอบรมจะได้รับความสนใจอย่างมาก แต่การอนุมานจะคํานึงถึงความซับซ้อนและค่าใช้จ่ายส่วนใหญ่ (เช่น สําหรับทุก ๆ 1 ดอลลาร์ที่ใช้ไปกับการฝึกอบรม จะใช้เงินมากถึง 9 ดอลลาร์ในการอนุมาน) ของการใช้แมชชีนเลิร์นนิงในการผลิต ซึ่งสามารถจํากัดการใช้งานและหยุดการสร้างนวัตกรรมของลูกค้า ลูกค้าต้องการใช้โมเดลการเรียนรู้เชิงลึกที่ล้ำสมัยในแอปพลิเคชันของตนในวงกว้าง แต่ถูกจํากัดด้วยต้นทุนการประมวลผลที่สูง ในปี 2019 เมื่อ AWS เปิดตัวอินสแตนซ์ Inf1 โมเดลการเรียนรู้เชิงลึกที่มีพารามิเตอร์นับล้าน ตั้งแต่นั้นมา ขนาดและความซับซ้อนของโมเดลการเรียนรู้เชิงลึกได้เติบโตขึ้นอย่างทวีคูณ โดยโมเดลการเรียนรู้เชิงลึกบางโมเดลที่มีพารามิเตอร์มากกว่าหลายแสนล้านพารามิเตอร์ ซึ่งเพิ่มขึ้น 500 เท่า ลูกค้าที่ทํางานบนแอปพลิเคชันรุ่นต่อไปโดยใช้การเรียนรู้เชิงลึกที่พัฒนาล่าสุด ต้องการฮาร์ดแวร์ที่คุ้มค่าและประหยัดพลังงานซึ่งมีเวลาแฝงต่ำและปริมาณงานสูงด้วยซอฟต์แวร์ที่ยืดหยุ่น ซึ่งช่วยให้ทีมวิศวกรสามารถปรับใช้นวัตกรรมล่าสุดของตนในวงกว้างได้อย่างรวดเร็ว
Inf2 Instances ซึ่งขับเคลื่อนโดยชิป Inferentia2 ใหม่ รองรับ deep learning ขนาดใหญ่ (เช่น LLM การสร้างอิมเมจ และการตรวจจับเสียงพูดอัตโนมัติ) ที่มีพารามิเตอร์สูงสุด 175 พันล้านพารามิเตอร์ ในขณะที่ให้ต้นทุนต่อการอนุมานที่ต่ำที่สุดบน Amazon EC2 อินสแตนซ์ Inf2 เป็นอินสแตนซ์แรกที่ปรับให้เหมาะสมกับการอนุมานที่รองรับการอนุมานแบบกระจาย ซึ่งเป็นเทคนิคที่กระจายโมเดลขนาดใหญ่ไปยังชิปหลายตัว เพื่อมอบประสิทธิภาพที่ดีที่สุดสําหรับโมเดลการเรียนรู้เชิงลึกด้วยพารามิเตอร์มากกว่าหนึ่งแสนล้านตัว อินสแตนซ์ Inf2 ยังเป็นอินสแตนซ์แรกในระบบคลาวด์ที่รองรับการปัดเศษแบบสุ่ม ซึ่งเป็นวิธีการปัดเศษตามความน่าจะเป็นซึ่งให้มีประสิทธิภาพและมีความแม่นยําสูงขึ้น เมื่อเทียบกับโหมดการปัดเศษแบบเดิม อินสแตนซ์ Inf2 รองรับประเภทข้อมูลที่หลากหลาย รวมถึง CFP8 ซึ่งปรับปรุงปริมาณงานและลดพลังงานต่อการอนุมาน และ FP32 ซึ่งช่วยเพิ่มประสิทธิภาพของโมดูลที่ยังไม่ได้ใช้ประโยชน์จากประเภทข้อมูลที่มีความแม่นยําต่ำกว่า ลูกค้าสามารถเริ่มต้นใช้งานอินสแตนซ์ Inf2 ได้โดยใช้ AWS Neuron ซึ่งเป็นชุดเครื่องมือพัฒนาซอฟต์แวร์แบบครบวงจร (SDK) สําหรับการอนุมาน ML AWS Neuron ผสานรวมกับเฟรมเวิร์ก ML ยอดนิยม เช่น PyTorch และ TensorFlow เพื่อช่วยให้ลูกค้าปรับใช้โมเดลที่มีอยู่กับอินสแตนซ์ Inf2 โดยการเปลี่ยนแปลงโค้ดเพียงเล็กน้อยเท่านั้น เนื่องจากการแยกโมเดลขนาดใหญ่โดยใช้ชิปหลายตัวจำเป็นต้องมีการสื่อสารระหว่างชิปที่รวดเร็ว อินสแตนซ์ Inf2 จึงรองรับการเชื่อมต่อระหว่างอินสแตนซ์ความเร็วสูงของ AWS นั่นคือ NeuronLink ซึ่งให้การเชื่อมต่อแบบวงแหวน 192 GB/s อินสแตนซ์ Inf2 ให้ปริมาณการประมวลผลสูงถึง 4 เท่า และเวลาแฝงลดลงถึง 10 เท่าเมื่อเทียบกับอินสแตนซ์ Inf1 รุ่นปัจจุบัน และยังให้ประสิทธิภาพที่ดีขึ้นถึง 45% ต่อวัตต์เมื่อเทียบกับอินสแตนซ์ที่ใช้ GPU อินสแตนซ์ Inf2 พร้อมใช้งานแล้ววันนี้ในแบบพรีวิว หากต้องการเรียนรู้เพิ่มเติมเกี่ยวกับอินสแตนซ์ Inf2 สามารถดูได้ที่ aws.amazon.com/ec2/instance-types/inf2
Arup เป็นกลุ่มนักออกแบบ ที่ปรึกษาด้านวิศวกรรมและความยั่งยืน ที่ปรึกษาและผู้เชี่ยวชาญระดับโลกที่ทุ่มเทเพื่อการพัฒนาอย่างยั่งยืนและการใช้จินตนาการ เทคโนโลยี เพื่อสร้างโลกที่ดีขึ้น “เราใช้ AWS ในการจําลองที่มีความซับซ้อนสูงเพื่อช่วยลูกค้าของเราในการสร้างอาคารสูง สนามกีฬา ศูนย์ข้อมูล และโครงสร้างพื้นฐานที่สําคัญในอนาคต พร้อมกับการประเมินและให้ข้อมูลเชิงลึกเกี่ยวกับสภาพอากาศในเมือง ภาวะโลกร้อน และการเปลี่ยนแปลงสภาพภูมิอากาศที่ส่งผลกระทบต่อชีวิตของผู้คนมากมายทั่วโลก” ดร. ซินา ฮัสซันลี วิศวกรอาวุโสของ Arup กล่าวว่า “ลูกค้าของเราต้องการการจําลองที่รวดเร็วและแม่นยํามากขึ้นอย่างต่อเนื่องด้วยต้นทุนที่ต่ำลง เพื่อแจ้งการออกแบบของพวกเขาในช่วงแรกของการพัฒนา และเรามองว่าการเปิดตัวอินสแตนซ์ Amazon EC2 Hpc7g ที่มีประสิทธิภาพสูงขึ้นจะช่วยให้ลูกค้าของเราสร้างนวัตกรรมได้เร็วขึ้นและมีประสิทธิภาพมากขึ้น”
Rescale เป็นบริษัทเทคโนโลยีที่สร้างซอฟต์แวร์และบริการบนระบบคลาวด์ ที่ช่วยให้องค์กรทุกขนาดสามารถส่งมอบความก้าวหน้าทางวิศวกรรมและวิทยาศาสตร์ที่ยกระดับมนุษยชาติ “เวลาแฝงที่ลดลงและประสิทธิภาพเครือข่ายระหว่างโหนดที่ดีขึ้นมีความสําคัญต่อแอปพลิเคชัน HPC ความสามารถในการทําซ้ำและปรับปรุงการออกแบบผลิตภัณฑ์อย่างรวดเร็วโดยใช้ CFD เป็นสิ่งสําคัญสําหรับลูกค้าของเรา ซึ่งให้ความสําคัญกับความยั่งยืนด้านสิ่งแวดล้อมมากขึ้น นอกเหนือจากประสิทธิภาพและความยืดหยุ่นเมื่อใช้งานระบบคลาวด์” มูลยันโต พอร์ต รองประธานฝ่ายคอมพิวเตอร์ประสิทธิภาพสูงที่ Rescale กล่าวว่า “Rescale รู้สึกตื่นเต้นกับอินสแตนซ์ Amazon EC2 Hpc7g ที่มีประสิทธิภาพการประมวลผลจุดลอยตัวมากขึ้น และแบนด์วิดท์ EFA ที่มากขึ้น เรามองว่าการนำประสิทธิภาพด้านราคาที่ดีขึ้นของอินสแตนซ์ Hpc7g มาใช้ร่วมกับประสิทธิภาพด้านพลังงานของโปรเซสเซอร์ AWS Graviton จะพัฒนา CFD และปริมาณงาน HPC ที่ใช้งานจริงไปได้ไกลขึ้น”