AWS, Maglalagay ng 1 Milyong Nvidia GPU Hanggang 2027
Ang inference o ang pagpapatakbo ng mga AI model ay bumubuo na ngayon sa halos dalawa’t-katlong bahagi ng kabuuang AI compute, malaking pag-angat mula sa isang-katlong bahagi noong 2023. Ibinabaon na ng Nvidia ang buong teknolohiya nito—mula sa compute, networking, hanggang sa inference—sa loob mismo ng mga data center ng AWS. Dahil dito, nagbabago ang papel ng Nvidia mula sa pagiging supplier lang ng chips tungo sa pagiging pundasyon mismo ng imprastraktura.
Key Takeaway
Lalong humihigpit ang kontrol ng Nvidia sa cloud AI infrastructure. Kahit pa gumagawa ang AWS ng sarili nilang mga chip, hindi pa rin sila makasabay sa kompetisyon nang wala ang mga produkto ng Nvidia.
Kinumpirma ng isang opisyal ng Nvidia sa Reuters na maglalagay ang AWS ng isang milyong GPU sa kanilang mga cloud region sa buong mundo bago matapos ang 2027. Inaasahang magsisimula ang malawakang paglalatag nito ngayong taon.
Reflects nito ang shift sa AI compute workloads. Umabot na sa two-thirds ng AI compute ang inference, mula sa one-third lang noong 2023, based sa ZenGen Labs Co-founder na si Dermot McGrath. Estimate naman ni Deloitte na lalampas sa ₱3 trilyon ($50 bilyon) ang market para sa inference-focused chips by 2026.
Sabi ni McGrath, nagiging infrastructure layer na mismo ang Nvidia underneath cloud providers, hindi lang chip vendor. Tinawag naman ni Boardy Ventures Deal Partner Berna Misa ang situation na infrastructure flip, kasi naka-embed na ang buong stack ng Nvidia sa compute, networking, at inference inside AWS data centers na nagrun ng proprietary gear for years. Pag ganyang kalalim na ang integration sa customer stack, ang switching costs at context layer na mismo ang moat, sabi ni Misa.
Kasama sa partnership ang NVLink Fusion technology ng Nvidia, ini-integrate ng AWS sa custom silicon nito including Trainium4, Graviton CPUs, at Nitro System. Nag-enable ito ng high-speed connections across non-Nvidia chips, tying AWS even closer sa architecture ng Nvidia.
Sabi naman ni Gather Beyond Founder Pichapen Prateepavanich, gusto talaga ng cloud providers ng independence long-term, pero kailangan pa nila ng Nvidia ngayon para manatiling competitive. Gumawa nga ang AWS ng sariling AI chips, pero kailangan pa rin nila ng most advanced GPUs ng Nvidia para makasabay sa rivals. Controlled talaga ang most advanced chips ng Nvidia since 2022 as part ng U.S. strategy, kahit may kaso pa nga ngayon alleging na may smuggled na Nvidia chips sa China.
Nagtrabaho na ang AWS at Nvidia for over 15 years, simula sa launch ng world's first GPU cloud instance noong 2011. Makukumpleto ang 1 million GPU deployment by end of 2027.
ℹ️ Article Details
- Source: Decrypt
- Original URL: https://decrypt.co/361867/nvidia-deepens-grip-cloud-ai-major-aws-chip-deal
- Reading Time: 3 minutes
- Category: breaking-news
- Tickers: None
- Key Takeaway: Nvidia's grip on cloud AI infrastructure tightens as AWS can't compete without its chips despite building custom silicon.
- Slug: aws-deploys-nvidia-gpus-through
✅ Approval Actions
To APPROVE & PUBLISH: Mark this task as "COMPLETE" To REJECT: Add comment "reject" and close task To REGENERATE IMAGE: Change status to "REGENERATE IMAGE"
Ang artikulong ito ay isinulat batay sa ulat mula sa Decrypt.



