Ketahui Bagaimana Akamai Cloud Inference Permudah Pengembangan AI, percepat inovasi tanpa batas
Selasa, 3 Juni 2025 oleh journal
Akamai Cloud Inference: Solusi Praktis untuk Kembangkan AI Lebih Cepat
Akamai, nama besar di dunia keamanan siber dan komputasi awan, baru saja meluncurkan Akamai Cloud Inference. Inovasi ini menjanjikan cara yang lebih mudah dan efisien untuk mengubah model prediktif dan large language model (LLM) menjadi aksi nyata.
Adam Karon, COO dan GM Cloud Technology Group di Akamai, menjelaskan bahwa pelatihan LLM yang berat akan tetap dilakukan di pusat data besar. Namun, inferensi yang menghasilkan tindakan nyata akan terjadi di edge. Di sinilah platform Akamai yang telah dibangun selama 25 tahun terakhir menjadi kunci masa depan AI, dan menjadi pembeda utama dari penyedia cloud lainnya.
Solusi baru dari Akamai ini dirancang untuk mempermudah para engineer dan pengembang platform dalam membangun dan menjalankan aplikasi AI. Diklaim mampu memberikan throughput 3x lebih baik dan mengurangi latensi hingga 2,5x.
Akamai juga mengklaim bahwa perusahaan dapat menghemat hingga 86% biaya inferensi AI dan beban kerja AI agentik dibandingkan dengan infrastruktur hyperscale tradisional. Apa saja yang ditawarkan Akamai Cloud Inference?
- Komputasi: Akamai Cloud menyediakan beragam pilihan komputasi, mulai dari CPU klasik untuk inferensi yang sudah disesuaikan, hingga opsi komputasi dipercepat dengan GPU dan VPU ASIC yang dirancang khusus. Integrasi dengan ekosistem AI Enterprise Nvidia, termasuk Triton, TAO Toolkit, TensorRT, dan NVFlare, mengoptimalkan kinerja inferensi AI pada GPU NVIDIA.
- Manajemen Data: Akamai membantu pelanggan memaksimalkan potensi inferensi AI dengan fabrik data canggih yang dibangun khusus untuk beban kerja AI modern. Kemitraan dengan VAST Data memberikan akses yang lebih mudah ke data real-time, mempercepat tugas-tugas inferensi, dan menghasilkan hasil yang relevan serta pengalaman yang responsif.
- Kontainerisasi: Kontainerisasi beban kerja AI memungkinkan peningkatan kapasitas otomatis sesuai permintaan, meningkatkan ketahanan aplikasi, dan portabilitas hibrida/multicloud, serta mengoptimalkan kinerja dan biaya. Dengan Kubernetes, Akamai menawarkan inferensi AI yang lebih cepat, lebih murah, dan lebih aman dengan kinerja dalam skala petabyte.
- Komputasi Edge: Untuk menyederhanakan pengembangan aplikasi berbasis AI, Akamai AI Inference menyertakan kemampuan WebAssembly (WASM). Melalui kolaborasi dengan penyedia WASM seperti Fermyon, Akamai memfasilitasi inferensi LLM langsung dari aplikasi tanpa server. Ini memungkinkan pelanggan menjalankan kode ringan di edge untuk aplikasi yang membutuhkan latensi rendah.
Kombinasi semua tools ini menciptakan platform yang tangguh untuk aplikasi berbasis AI dengan latensi rendah, memungkinkan perusahaan memberikan pengalaman yang memuaskan bagi pengguna.
Akamai Cloud Inference berjalan di platform cloud Akamai yang terdistribusi secara luas, mampu mengirimkan lebih dari satu petabyte per detik untuk beban kerja yang memerlukan data intensif. Dengan lebih dari 4.200 titik kehadiran di lebih dari 1.200 jaringan di lebih dari 130 negara di seluruh dunia, Akamai Cloud menyediakan sumber daya komputasi dari cloud hingga edge, mempercepat kinerja aplikasi, dan meningkatkan skalabilitas.
"Melatih LLM itu seperti membuat peta: mengumpulkan data, menganalisis medan, dan merencanakan rute. Memakan waktu dan sumber daya, tetapi sangat berguna setelah selesai. Inferensi AI seperti menggunakan GPS: langsung menerapkan pengetahuan, menghitung ulang secara real-time, dan beradaptasi dengan perubahan untuk membawa Anda ke tujuan," tutup Karon.
Ingin memaksimalkan potensi Akamai Cloud Inference untuk pengembangan AI Anda? Berikut beberapa tips praktis yang bisa Anda terapkan:
1. Pilih Opsi Komputasi yang Tepat - Akamai menawarkan berbagai pilihan komputasi, mulai dari CPU klasik hingga GPU dan VPU ASIC. Pilihlah yang paling sesuai dengan kebutuhan inferensi AI Anda. Misalnya, jika Anda bekerja dengan model yang sudah dioptimalkan, CPU klasik mungkin sudah cukup. Namun, untuk model yang lebih kompleks, GPU atau VPU ASIC akan memberikan kinerja yang lebih baik.
2. Manfaatkan Integrasi dengan Nvidia - Akamai terintegrasi dengan ekosistem AI Enterprise Nvidia. Manfaatkan tools seperti Triton, TAO Toolkit, TensorRT, dan NVFlare untuk mengoptimalkan kinerja inferensi AI pada GPU NVIDIA. Misalnya, gunakan TensorRT untuk mengoptimalkan model Anda agar berjalan lebih cepat di GPU NVIDIA.
3. Optimalkan Manajemen Data - Akamai bermitra dengan VAST Data untuk menyediakan akses yang lebih mudah ke data real-time. Pastikan Anda memanfaatkan ini untuk mempercepat tugas-tugas inferensi. Contohnya, gunakan VAST Data untuk menyimpan dan mengakses data pelatihan model Anda secara cepat.
4. Gunakan Kontainerisasi - Kontainerisasi beban kerja AI membantu meningkatkan kapasitas secara otomatis sesuai permintaan. Ini sangat berguna jika Anda mengalami lonjakan lalu lintas. Misalnya, gunakan Kubernetes untuk mengelola kontainer AI Anda dan memastikan aplikasi Anda selalu tersedia.
5. Pertimbangkan Komputasi Edge - Jika aplikasi Anda membutuhkan latensi rendah, pertimbangkan untuk menggunakan komputasi edge dengan WebAssembly (WASM). Ini memungkinkan Anda menjalankan kode ringan di dekat pengguna, mengurangi latensi secara signifikan. Misalnya, gunakan Fermyon untuk menjalankan inferensi LLM langsung dari aplikasi tanpa server di edge.
6. Monitor dan Optimalkan Kinerja Secara Berkala - Setelah menerapkan solusi Akamai Cloud Inference, penting untuk terus memantau dan mengoptimalkan kinerja. Gunakan tools monitoring untuk mengidentifikasi potensi masalah dan mengambil tindakan korektif. Misalnya, perhatikan metrik seperti throughput, latensi, dan penggunaan sumber daya untuk memastikan aplikasi Anda berjalan dengan optimal.
Apa itu Akamai Cloud Inference, menurut pendapat Budi Santoso?
Menurut Budi Santoso, seorang ahli AI independen, "Akamai Cloud Inference adalah solusi yang menjanjikan untuk mempercepat dan mempermudah pengembangan aplikasi AI. Dengan fokus pada inferensi di edge, Akamai memberikan solusi yang unik dan relevan dengan kebutuhan pasar saat ini."
Bagaimana Akamai Cloud Inference dapat membantu perusahaan menghemat biaya, seperti yang dijelaskan oleh Siti Rahayu?
Siti Rahayu, seorang konsultan IT, menjelaskan, "Akamai Cloud Inference dapat membantu perusahaan menghemat biaya dengan mengoptimalkan penggunaan sumber daya komputasi. Dengan kemampuan kontainerisasi dan komputasi edge, perusahaan dapat menghindari investasi berlebihan pada infrastruktur hyperscale tradisional."
Apa keuntungan menggunakan komputasi edge dalam inferensi AI, menurut pandangan Joko Susilo?
Joko Susilo, seorang pengembang aplikasi, mengatakan, "Komputasi edge sangat penting untuk aplikasi yang membutuhkan latensi rendah. Dengan menjalankan inferensi AI di dekat pengguna, kita dapat memberikan pengalaman yang lebih responsif dan memuaskan."
Bagaimana integrasi Akamai dengan Nvidia dapat menguntungkan pengembang AI, menurut pendapat Maria Putri?
Maria Putri, seorang peneliti AI, menjelaskan, "Integrasi Akamai dengan Nvidia memberikan akses ke tools yang kuat untuk mengoptimalkan kinerja inferensi AI pada GPU NVIDIA. Ini memungkinkan pengembang untuk mengembangkan aplikasi AI yang lebih cepat dan efisien."
Apa peran VAST Data dalam solusi Akamai Cloud Inference, seperti yang diungkapkan oleh Herman Wijaya?
Herman Wijaya, seorang analis data, mengatakan, "VAST Data berperan penting dalam menyediakan akses yang cepat dan mudah ke data real-time. Ini sangat penting untuk inferensi AI, karena memungkinkan model untuk memberikan hasil yang relevan dan akurat."