Meta Gandeng AWS Graviton, Masa Depan Agentic AI Lebih Cepat & Efisien

 


Meta Platforms Inc. secara resmi mengumumkan ekspansi kemitraan strategis dengan Amazon Web Services (AWS) untuk memperkuat infrastruktur kecerdasan buatan (AI) mereka. Dalam kesepakatan terbaru ini, Meta akan mengadopsi puluhan juta core prosesor AWS Graviton ke dalam portofolio komputasi mereka.

​Langkah masif ini menjadikan Meta sebagai salah satu pelanggan chip Graviton terbesar di dunia. Fokus utamanya? Menghadirkan performa maksimal bagi generasi baru AI yang disebut sebagai Agentic AI.

​Apa Itu Agentic AI dan Mengapa Butuh Chip Khusus?

​Berbeda dengan model AI generatif standar yang hanya menjawab pertanyaan, Agentic AI dirancang untuk memiliki otonomi lebih tinggi. Sistem ini mampu melakukan penalaran (reasoning), perencanaan, hingga mengeksekusi tugas-tugas kompleks secara mandiri di berbagai aplikasi milik Meta, seperti Facebook, Instagram, dan WhatsApp.

​Beban kerja Agentic AI sangat haus akan sumber daya CPU, terutama untuk tugas-tugas seperti pembuatan kode (code generation), pencarian real-time, dan orkestrasi alur kerja multi-langkah.


Efisiensi dan Skala Global

Santosh Janardhan, Head of Infrastructure di Meta, menekankan bahwa diversifikasi infrastruktur adalah kunci utama.

"Saat kami memperluas ambisi AI Meta, diversifikasi sumber daya komputasi menjadi imperatif strategis," ujar Janardhan. "Memperluas penggunaan Graviton memungkinkan kami menjalankan beban kerja CPU-intensif di balik Agentic AI dengan performa dan efisiensi yang dibutuhkan pada skala global."

Chip AWS Graviton, yang berbasis arsitektur ARM, dikenal karena efisiensi energinya yang jauh lebih baik dibandingkan prosesor x86 tradisional. Bagi Meta, ini berarti mereka dapat meningkatkan daya komputasi tanpa harus mengorbankan target keberlanjutan lingkungan.

Melengkapi Ekosistem "Custom Silicon"



Kemitraan dengan AWS ini melengkapi strategi perangkat keras Meta lainnya. Sebelumnya, Meta juga diketahui sedang mengembangkan chip buatan sendiri yang disebut MTIA (Meta Training and Inference Accelerator).

Dengan mengombinasikan chip internal (MTIA), unit pemroses grafis (GPU) untuk pelatihan model besar, dan kini puluhan juta core AWS Graviton untuk tugas-tugas inferensi spesifik, Meta membangun ekosistem infrastruktur yang sangat fleksibel.

+

Pilih Karakter & Nama

🇮🇩 Indonesia
🇺🇸 English
🇲🇾 Melayu
🇨🇳 Chinese
🇯🇵 Japanese
🇸🇦 Arabic
🇰🇷 Korea