TradingKey - เมื่อวันที่ 16 มีนาคม ตามเวลาท้องถิ่น Nvidia ( NVDA) งานประชุมนักพัฒนาประจำปี GTC 2026 ได้เริ่มต้นขึ้นที่ SAP Center ในซานโฮเซ โดยมีนักพัฒนากว่า 30,000 คนหลั่งไหลเข้าร่วมงาน และการกล่าวปาฐกถาพิเศษ (keynote) นานสองชั่วโมงครึ่งของ Jensen Huang ผู้ก่อตั้งและซีอีโอของ Nvidia ถือเป็นจุดสนใจหลักของงานในอุตสาหกรรม AI ครั้งนี้อย่างไม่ต้องสงสัย เขาไม่เพียงแต่ยกระดับการวางตำแหน่งของ Nvidia จาก "บริษัทชิป" ไปสู่ "ผู้ดำเนินการโครงสร้างพื้นฐานและโรงงาน AI" เท่านั้น แต่ยังได้คาดการณ์อย่างน่าตื่นตะลึงว่า "รายได้สะสมตั้งแต่ปี 2025 ถึง 2027 จะทะลุ 1 ล้านล้านดอลลาร์" ซึ่งเป็นการวางแผนงานการเติบโตที่ไม่เคยมีมาก่อนสำหรับตลาดกำลังการประมวลผล AI ทั่วโลก
ในงานประชุมครั้งนี้ Jensen Huang ซีอีโอของ Nvidia ได้ส่งสัญญาณถึงตลาดที่เกินความคาดหมาย โดยสถาปัตยกรรมชิป AI อย่าง Blackwell และ Rubin คาดว่าจะสร้างอุปสงค์คำสั่งซื้อสะสมรวมอย่างน้อย 1 ล้านล้านดอลลาร์ภายในสิ้นปี 2027 การคาดการณ์นี้เพิ่มขึ้นเป็นสองเท่าจากเป้าหมาย 5 แสนล้านดอลลาร์ที่ประกาศในช่วงเวลาเดียวกันของปีที่แล้ว ซึ่งช่วยกระตุ้นความกระตือรือร้นของตลาดในทันที
Jensen Huang กล่าวว่า "ในช่วงเวลานี้ของปีที่แล้ว เราเห็นอุปสงค์ที่มีความเชื่อมั่นสูงมูลค่า 5 แสนล้านดอลลาร์ ครอบคลุมสถาปัตยกรรม Blackwell และ Rubin ไปจนถึงปี 2026 อย่างไรก็ตาม การเติบโตอย่างก้าวกระโดดของความต้องการในการประมวลผล AI นั้นเกินความคาดหมายไปมาก และขนาดตลาดภายในปี 2027 จะสูงถึงอย่างน้อย 1 ล้านล้านดอลลาร์ ซึ่งอุปสงค์ที่แท้จริงอาจสูงยิ่งกว่านั้น และเราได้เตรียมพร้อมสำหรับกรณีที่อุปสงค์จะสูงเกินกว่าอุปทาน"
นี่ไม่ใช่เพียงแค่เป้าหมายด้านผลประกอบการ แต่ยังสะท้อนถึงการเติบโตแบบก้าวกระโดดแบบทวีคูณของอุปสงค์กำลังการประมวลผล AI
ในช่วงสองปีที่ผ่านมา เมื่อโมเดลขนาดใหญ่มีวิวัฒนาการจากระยะ "การรับรู้-การสร้าง" ไปสู่ระยะ "การอนุมาน-การดำเนินการ" การใช้กำลังการประมวลผลจึงเพิ่มสูงขึ้นอย่างต่อเนื่อง
Jensen Huang ชี้ให้เห็นว่าเหตุผลหลักที่ Nvidia กล้าให้การคาดการณ์เชิงรุกเช่นนี้ อยู่ที่ความครอบคลุมและข้อได้เปรียบด้านต้นทุนของระบบ โดยแพลตฟอร์มของ Nvidia สามารถปรับให้เข้ากับโมเดล AI ในเกือบทุกด้าน ช่วยให้การลงทุนทุกบาททุกสตางค์ของลูกค้าได้รับผลตอบแทนในระยะยาว ซึ่งเป็นเหตุผลสำคัญที่ทำให้บริษัทกลายเป็น "โครงสร้างพื้นฐาน AI ที่มีต้นทุนต่ำที่สุดในโลก"
60% ของรายได้ของ Nvidia มาจากผู้ให้บริการคลาวด์ระดับ Hyperscale ห้าอันดับแรกของโลก ขณะที่อีก 40% ที่เหลือครอบคลุมในหลากหลายสถานการณ์ เช่น คลาวด์ของรัฐบาล, แอปพลิเคชันระดับองค์กร, AI ภาคอุตสาหกรรม, หุ่นยนต์ และการประมวลผลแบบ Edge รูปแบบการ "กระจุกตัวที่กลุ่มผู้นำ + การกระจายตัวสู่กลุ่มย่อย" นี้แสดงให้เห็นว่ากำลังการประมวลผล AI กำลังเปลี่ยนผ่านจากการเป็นอุปสงค์เฉพาะของยักษ์ใหญ่ด้านอินเทอร์เน็ตไปสู่การลงทุนในโครงสร้างพื้นฐานสำหรับอุตสาหกรรมทั้งหมด
นักวิเคราะห์เชื่อว่าเป้าหมายล้านล้านดอลลาร์ของ Nvidia ไม่เพียงแต่เป็นสัญญาณแสดงความเชื่อมั่นในผลิตภัณฑ์ของตนเองเท่านั้น แต่ยังสะท้อนถึงความเร็วในการขยายตัวของตลาดโครงสร้างพื้นฐาน AI ทั่วโลกด้วย
ขณะที่พารามิเตอร์ของโมเดลขนาดใหญ่ยังคงเติบโต อุปสงค์ด้านการอนุมานพุ่งสูงขึ้น และการนำแอปพลิเคชัน AI ระดับองค์กรมาใช้งานจริงเร่งตัวขึ้น กำลังการประมวลผล AI จึงกลายเป็นทิศทางการใช้จ่ายฝ่ายทุนในระยะยาวควบคู่ไปกับการประมวลผลแบบคลาวด์ ความคาดหวังนี้ยังช่วยคลายความกังวลของตลาดเกี่ยวกับ "จุดสูงสุดของวงจรการประมวลผล AI" เนื่องจากปัจจุบันการลงทุนทั่วโลกในการประมวลผล AI ยังอยู่ในช่วงเริ่มต้น และการลงทุนของบริษัทเทคโนโลยีในเซิร์ฟเวอร์ AI, GPU และระบบที่เกี่ยวข้องจะยังคงรักษาการเติบโตในระดับสูงในอีกไม่กี่ปีข้างหน้า
Jensen Huang เน้นย้ำในสุนทรพจน์ว่า "เส้นอุปสงค์สำหรับการประมวลผล AI เพิ่งจะเริ่มชันขึ้น เรากำลังยืนอยู่ที่จุดเริ่มต้นของการเปลี่ยนผ่านทางเทคโนโลยีครั้งใหญ่ในรอบทศวรรษ" การคาดการณ์ล้านล้านดอลลาร์ของ Nvidia จึงเป็นสัญญาณที่ชัดเจนของการเปลี่ยนแปลงที่กำลังจะเกิดขึ้นนี้
การเปิดตัวที่สำคัญที่สุดในงานประชุมครั้งนี้คือ Vera Rubin ซึ่งเป็นระบบการประมวลผล AI ที่ซับซ้อนที่สุดของ Nvidia จนถึงปัจจุบัน แตกต่างจากการเปิดตัวในอดีตที่เน้นชิปเพียงตัวเดียว Vera Rubin เป็นแพลตฟอร์มซูเปอร์คอมพิวเตอร์ที่สมบูรณ์ซึ่งประกอบด้วยชิป 7 ตัวและตู้แร็ค 5 ประเภท
ในฐานะแกนกลางการประมวลผลของระบบทั้งหมด ตู้แร็ค Vera Rubin NVL72 บรรลุการก้าวกระโดดสองเท่าทั้งในด้านประสิทธิภาพการฝึกอบรมและการอนุมานของ AI โดยผสานรวม Rubin GPU 72 ตัวและ Vera CPU 36 ตัวเข้าด้วยกัน สร้างสถาปัตยกรรมการประมวลผลที่เป็นหนึ่งเดียวผ่านเครือข่ายเชื่อมต่อความเร็วสูง NVLink 6 รุ่นใหม่ ช่วยลดความล่าช้าในการส่งผ่านข้อมูลระหว่าง GPU และ CPU ลงเหลือระดับไมโครวินาที
ในการฝึกอบรมโมเดล Mixture-of-Experts (MoE) ที่มีพารามิเตอร์ระดับล้านล้านพารามิเตอร์ NVL72 ใช้จำนวน GPU เพียง 1 ใน 4 ของแพลตฟอร์ม Blackwell รุ่นก่อนหน้า ในขณะที่ต้นทุนการสร้างต่อโทเคนลดลงเหลือ 1 ใน 10 ของต้นทุนเดิม ซึ่งหมายความว่าบริษัทต่างๆ จะประหยัดงบลงทุนในกำลังการประมวลผลได้ถึง 90% ในการฝึกโมเดล AI ขนาดเดียวกัน ซึ่งจะช่วยเร่งการเปิดตัวโมเดลขนาดใหญ่ในเชิงพาณิชย์ได้อย่างมาก
นอกจากนี้ อีกหนึ่งไฮไลต์ของการเปิดตัวครั้งนี้คือตู้แร็ค Vera CPU ซึ่งเป็นคลัสเตอร์ CPU รุ่นแรกของโลกที่ออกแบบมาเพื่อ Agentic AI โดยเฉพาะ แตกต่างจาก CPU แบบเดิมที่เน้นการประมวลผลทั่วไป Vera CPU ได้รับการเพิ่มประสิทธิภาพอย่างล้ำลึกเพื่อรองรับการทำงานแบบขนานหลายงานและความสามารถในการประมวลผลบริบทที่ยาวนานของเอเจนต์ แร็คเดี่ยวสามารถรวมโปรเซสเซอร์ได้ถึง 256 ตัว โดยมีประสิทธิภาพการประมวลผลเป็นสองเท่าของ CPU ระดับแร็คทั่วไป และรองรับเอเจนต์หลายหมื่นรายให้ทำงานออนไลน์ได้พร้อมกัน
ปัจจุบัน ผู้ให้บริการคลาวด์อย่าง Alibaba, ByteDance และ Cloudflare ได้ประกาศแผนการใช้งานตู้แร็ค Vera CPU เพื่อสร้างแพลตฟอร์มการพัฒนาเอเจนต์ ซึ่งถือเป็นจุดเริ่มต้นของการแทรกซึมของกำลังการประมวลผล AI จากการฝึกอบรมโมเดลทั่วไปไปสู่สถานการณ์ของเอเจนต์ที่มีความเฉพาะเจาะจงมากขึ้น
หาก Vera Rubin NVL72 ช่วยแก้ปัญหาด้านประสิทธิภาพของ "การประมวลผลขนาดใหญ่" ตู้แร็ค Groq 3 LPX ก็จะเข้ามาอุดช่องว่างทางเทคนิคในด้าน "การอนุมานความเร็วสูงพิเศษ" ซึ่งนี่ถือเป็นผลิตภัณฑ์แรกที่ Nvidia เปิดตัวนับตั้งแต่เข้าซื้อกิจการ Groq เมื่อปีที่แล้ว โปรเซสเซอร์ Groq 3 LPU มาพร้อมกับ SRAM บนชิปขนาด 500MB ซึ่งสามารถคำนวณการอนุมานที่ซับซ้อนสูงได้โดยไม่ต้องใช้หน่วยความจำวิดีโอภายนอก โดยมีความล่าช้าแบบต้นทางถึงปลายทางต่ำกว่า GPU แบบเดิมอย่างมาก
เพื่อดึงศักยภาพของฮาร์ดแวร์ออกมาให้ได้มากที่สุด Nvidia ได้พัฒนาระบบจัดสรรอัจฉริยะ Dynamo ซึ่งสามารถจัดสรรกำลังการประมวลผลแบบไดนามิกตามขั้นตอนต่างๆ ของการทำงานของโมเดลขนาดใหญ่ โดยขั้นตอน "pre-fill" ที่ต้องการหน่วยความจำวิดีโอมหาศาลจะถูกจัดการโดย Rubin GPU ในขณะที่ขั้นตอน "token decoding" ที่มีความไวต่อความล่าช้าจะถูกส่งมอบให้ Groq LPU
การออกแบบสถาปัตยกรรมที่เน้น "การทำงานร่วมกันแบบอสมมาตร" นี้ช่วยเพิ่มปริมาณงานการอนุมานสำหรับโมเดลระดับล้านล้านพารามิเตอร์ได้ถึง 35 เท่าในระดับพลังงานที่เท่ากัน ซึ่งเป็นการผลักดันขีดจำกัดของความคุ้มค่าทางเศรษฐกิจในการอนุมาน AI ไปสู่ระดับใหม่โดยตรง
ในขณะเดียวกัน Nvidia ยังได้เปิดตัว Spectrum X ซึ่งเป็นสวิตช์ Co-Packaged Optics (CPO) ที่ผลิตจำนวนมากรุ่นแรกของโลกอย่างเป็นทางการ ซึ่งเป็นการยุติการถกเถียงในอุตสาหกรรมเกี่ยวกับแนวทาง "สายทองแดงเทียบกับใยแก้วนำแสง" ได้อย่างสิ้นเชิง เมื่อเทียบกับโมดูลแสงแบบเสียบได้ทั่วไป Spectrum X จะรวมโมดูลแสงเข้ากับชิปสวิตช์โดยตรง ช่วยเพิ่มประสิทธิภาพพลังงานแสงได้ถึง 5 เท่า มีแบนด์วิดท์พอร์ตเดียวสูงถึง 2Tb/s และเพิ่มความเสถียรของเครือข่ายได้ถึง 10 เท่า
Jensen Huang กล่าวอย่างชัดเจนในสุนทรพจน์ว่า "ในอนาคต เราต้องการทั้งขีดความสามารถของสายทองแดงที่มากขึ้น และยังต้องการชิปแสงและ CPO ที่มากขึ้นด้วย" ซึ่งหมายความว่า Nvidia จะเดินหน้าทั้งเทคโนโลยีสายทองแดงและการเชื่อมต่อด้วยแสงไปพร้อมกัน เพื่อนำเสนอโซลูชันการเชื่อมต่อที่ยืดหยุ่นสำหรับศูนย์ข้อมูล AI ทุกขนาด
หากฮาร์ดแวร์คือ "โรงงาน" ของ AI เอเจนต์ก็คือ "คนงาน" Jensen Huang เรียกโครงการโอเพนซอร์ส OpenClaw ว่าเป็น "โครงการโอเพนซอร์สที่ได้รับความนิยมสูงสุดในประวัติศาสตร์ของมนุษยชาติ" โดยระบุว่ามีความเร็วในการนำไปใช้งานแซงหน้า Linux ไปไกล และนิยามว่าเป็น "ระบบปฏิบัติการ" แห่งยุคของเอเจนต์
เพื่อแก้ไขปัญหาความปลอดภัย ความเป็นส่วนตัว และความท้าทายในการจัดการในการใช้งานเอเจนต์จำนวนมาก Nvidia จึงได้เปิดตัวแพลตฟอร์มซอฟต์แวร์ฟูลสแต็ก NemoClaw ไปพร้อมกัน เครื่องมือนี้ถูกนักพัฒนาเรียกขานกันเล่นๆ ว่า "การเพาะเลี้ยงกุ้งในคลิกเดียว" ซึ่งสามารถปรับใช้ จัดตารางการทำงาน และตรวจสอบเอเจนต์ AI ได้ด้วยคำสั่งเดียว
NemoClaw ผสานรวมโมเดลภาษาขนาดใหญ่ Nemotron และสภาพแวดล้อมรันไทม์ OpenShell เข้าด้วยกัน ไม่เพียงแต่ช่วยให้เอเจนต์เข้าใจคำสั่งภาษาธรรมชาติได้โดยตรง แต่ยังเติมเต็มความสามารถสำคัญ เช่น แซนด์บ็อกซ์ความปลอดภัย การปกป้องความเป็นส่วนตัว และกลไกนโยบาย โดยนักพัฒนาสามารถกำหนดขอบเขตการทำงานของเอเจนต์ผ่านอินเทอร์เฟซที่แสดงเป็นภาพเพื่อให้มั่นใจว่าการทำงานเป็นไปตามข้อกำหนด และรองรับโหมดการประมวลผลเพื่อความเป็นส่วนตัวที่ "ข้อมูลยังคงอยู่ในเครื่องในขณะที่การประมวลผลสามารถจัดตารางงานได้"
Jensen Huang คาดการณ์ในสุนทรพจน์ว่าในอนาคต บริษัท SaaS ทุกแห่งจะเปลี่ยนผ่านไปเป็นบริษัท AaaS (Agent-as-a-Service) โดยตลาดการจ้างงานในซิลิคอนวัลเลย์ได้เริ่มตอบรับแล้ว และบริษัทเทคโนโลยีหลายแห่งเริ่มใช้ระบบค่าตอบแทนแบบใหม่คือ "เงินเดือนพื้นฐาน + โควตาโทเคน" เพื่อแข่งขันในการดึงตัวบุคลากรที่มีความสามารถระดับสูงในด้านการพัฒนาเอเจนต์
นอกจากนี้ Jensen Huang ซีอีโอของ Nvidia ได้เปิดตัวเทคโนโลยี DLSS 5 อย่างเป็นทางการในงานประชุม โดยเรียกมันว่าเป็น "ความก้าวหน้าครั้งสำคัญที่สุดในด้านกราฟิกคอมพิวเตอร์นับตั้งแต่การทำ Real-time Ray Tracing ในปี 2018" และถึงกับนิยามว่าเป็น "ช่วงเวลา GPT" ของวงการกราฟิก
จากการสาธิตเกม "Resident Evil: Requiem" ในงานพบว่าหลังจากเปิดใช้งาน DLSS 5 ความเงางามที่เป็นธรรมชาติของเส้นผมตัวละคร เงาที่ละเอียดอ่อนในรอยพับของเสื้อผ้าหนัง และรายละเอียดการสะท้อนแบบไดนามิกบนถนนที่เปียกชื้นซึ่งเคลื่อนไหวตามจุดรับภาพ ทั้งหมดนี้แสดงคุณภาพที่ก่อนหน้านี้ทำได้เฉพาะในการเรนเดอร์ภาพยนตร์แบบออฟไลน์เท่านั้น นี่ถือเป็นการก้าวกระโดดของกราฟิกเกมแบบเรียลไทม์จาก "ความสมจริงแบบประมาณ" ไปสู่ "ความสมจริงระดับภาพยนตร์"
ต่างจาก DLSS เวอร์ชันก่อนหน้าที่เน้นเทคโนโลยี AI Upsampling หรือการสร้างเฟรมภาพ DLSS 5 ได้นำเสนอสถาปัตยกรรมหลัก "Real-Time Neural Rendering" เป็นครั้งแรก ซึ่งสร้างพิกเซลที่สมบูรณ์พร้อมการปฏิสัมพันธ์ของแสงและวัสดุผ่านโมเดล AI ที่ได้รับการฝึกอบรมแบบต้นทางถึงปลายทางโดยตรง
Jensen Huang ย้ำในสุนทรพจน์ว่าลักษณะการปฏิวัติของเทคโนโลยีนี้อยู่ที่การแก้ปัญหาความขัดแย้งหลักของ Generative AI ในแวดวงการสร้างสรรค์ระดับมืออาชีพ นั่นคือการเพิ่มความสมจริงของภาพอย่างมากในขณะที่มั่นใจได้ว่าศิลปินจะยังคงอำนาจในการควบคุมเนื้อหาได้อย่างสมบูรณ์ นักพัฒนาสามารถควบคุมเอฟเฟกต์การเรนเดอร์ของ AI ได้อย่างแม่นยำผ่านการปรับจูนพารามิเตอร์ต่างๆ เช่น การปรับความเข้ม การไล่โทนสี และการทำหน้ากากเฉพาะจุด ทำให้ AI เป็นเพียง "ผู้ช่วยอัจฉริยะ" สำหรับทีมศิลป์มากกว่าที่จะเป็น "สิ่งที่มาสร้างสรรค์แทน"
ปัจจุบัน DLSS 5 ได้รับการสนับสนุนจากผู้พัฒนาเกมชั้นนำระดับโลกอย่าง Bethesda, CAPCOM, NetEase, Tencent และ Ubisoft โดยเกมกว่า 30 เกม เช่น "Assassin's Creed Shadows," "Starfield," "Naraka: Bladepoint" และ "Where Winds Meet" จะเป็นเกมกลุ่มแรกๆ ที่จะได้รับการปรับปรุงให้รองรับในฤดูใบไม้ร่วงปีนี้
Jensen Huang ยังชี้ให้เห็นว่ามูลค่าทางเทคนิคของ DLSS 5 ไม่ได้จำกัดอยู่เพียงแค่ในวงการเกมเท่านั้น รูปแบบการผสานรวมของ "ข้อมูลที่มีโครงสร้าง + Generative AI" ที่เทคโนโลยีนี้เป็นตัวแทน จะขยายขอบเขตไปสู่สถานการณ์ที่กว้างขึ้น เช่น การประมวลผลระดับองค์กร, การจำลองภาพสถาปัตยกรรม และการผลิตสื่อเสมือนจริงในอนาคต
ในขณะเดียวกัน DLSS 5 ยังสามารถใช้งานร่วมกับแพลตฟอร์มตระกูล RTX ทั้งหมดที่มีอยู่ และจะถูกผสานรวมอย่างราบรื่นผ่านเฟรมเวิร์ก Nvidia Streamline ซึ่งช่วยลดต้นทุนในการปรับจูนของนักพัฒนาลงอย่างมาก และช่วยให้ผู้เล่นจำนวนมากขึ้นสามารถสัมผัสกับการก้าวกระโดดของคุณภาพของภาพที่ขับเคลื่อนโดยเทคโนโลยี AI
Goldman Sachs ( GS) ได้เผยแพร่รายงานการวิจัยทันทีหลังงานประชุม GTC 2026 โดยชี้ให้เห็นว่าคำกล่าวของ Jensen Huang ได้ตอบคำถามที่เป็นข้อกังวลหลักสองประการของนักลงทุนได้อย่างแม่นยำ ซึ่งช่วยบรรเทาความวิตกของตลาดเกี่ยวกับการเติบโตของอุตสาหกรรม AI ได้อย่างมีประสิทธิภาพ
Goldman Sachs ระบุว่า Nvidia ได้ปรับเพิ่มคาดการณ์คำสั่งซื้อของธุรกิจดาต้าเซ็นเตอร์ในปี 2027 เป็น 1 ล้านล้านดอลลาร์ ซึ่งเพิ่มขึ้นเป็นสองเท่าจากเป้าหมาย 5 แสนล้านดอลลาร์สำหรับปี 2026 ที่ประกาศไปเมื่อปีที่แล้ว ความมุ่งมั่นด้านรายได้ในระยะยาวนี้สูงกว่าความคาดหมายของ Wall Street อย่างมาก และช่วยขจัดข้อกังวลที่ว่า "การใช้จ่ายฝ่ายทุนด้าน AI จะถึงจุดสูงสุดในปี 2026" พร้อมให้การสนับสนุนที่ชัดเจนสำหรับแนวโน้มการเติบโตของอุตสาหกรรม
ประการที่สอง ตู้แร็คการอนุมาน LPX ที่เปิดตัวโดยอาศัยเทคโนโลยีของ Groq ที่ถูกซื้อกิจการมานั้น ถือเป็นก้าวย่างที่สำคัญของ Nvidia ในตลาดการอนุมานที่มีการแข่งขันสูง
Goldman Sachs วิเคราะห์ว่าการทำงานร่วมกันของผลิตภัณฑ์ดังกล่าวกับแพลตฟอร์ม Vera Rubin จะช่วยเพิ่มปริมาณงานต่อวัตต์ได้ถึง 35 เท่า สร้างพื้นที่ในการสร้างรายได้มากกว่า 10 เท่าสำหรับโมเดลที่มีระดับล้านล้านพารามิเตอร์ ทั้งยังช่วยแก้ปัญหาคอขวดด้านพลังงานในดาต้าเซ็นเตอร์ได้อย่างแม่นยำ โดยคาดว่าจะเริ่มส่งมอบได้ในไตรมาสที่สามของปีนี้
นอกจากนี้ แผนงานของ Nvidia ในระดับเครือข่ายและระบบนิเวศยังได้รับการยอมรับจาก Goldman Sachs โดยการผลิตจำนวนมากของสวิตช์ Spectrum-X CPO, ตู้แร็ค CPO ที่ขยายตัวในแนวตั้งซึ่งรองรับ GPU ได้ถึง 576 ตัว และแพลตฟอร์ม NemoClaw สำหรับ Agentic AI ล้วนถูกมองว่าเป็นการพัฒนาที่สำคัญที่ช่วยขับเคลื่อนการนำ AI ระดับองค์กรมาใช้งานจริง
Goldman Sachs ยังคงให้คำแนะนำ "ซื้อ" และให้ราคาเป้าหมายที่ 250 ดอลลาร์สำหรับ Nvidia โดยเชื่อว่าแผนการใช้จ่ายฝ่ายทุนของผู้ให้บริการคลาวด์ระดับ Hyperscale จะยังคงช่วยเสริมสถานะความเป็นผู้นำของบริษัทให้แข็งแกร่งยิ่งขึ้น
จากผลของข่าวเชิงบวกจากงานประชุม GTC หุ้นของ Nvidia ปรับตัวสูงขึ้นมากกว่า 4.8% ในระหว่างการซื้อขายวันจันทร์ ก่อนที่จะปิดตลาดบวกไป 1.63%