Bisnis.com, JAKARTA — Google Cloud Platform (GCP) memperkenalkan unit pemrosesan tensor atau tensor processing units (TPU) generasi kedelapan terbarunya, yang membagi lini cip kustom AI milik perusahaan menjadi dua spesifikasi berbeda, yaitu TPU 8t untuk pelatihan model dan TPU 8i untuk kebutuhan inferensi.
Kehadiran perangkat keras terbaru ini bertujuan untuk menyediakan daya komputasi yang lebih besar dengan konsumsi energi dan biaya yang lebih rendah bagi pelanggan. Hal ini menjadi krusial bagi pelaku usaha di tengah meningkatnya kebutuhan terhadap infrastruktur kecerdasan artifisial (AI) yang efisien secara operasional.
Perusahaan mengklaim TPU generasi kedelapan mampu memberikan kecepatan pelatihan model AI hingga tiga kali lipat lebih cepat dibandingkan generasi sebelumnya. Selain itu, efisiensi kinerja per dolar yang ditawarkan meningkat sebesar 80% dibandingkan dengan versi terdahulu.
Google Cloud juga menyebut bahwa satu klaster tunggal kini mampu menjalankan lebih dari satu juta unit TPU secara bersamaan. Peningkatan ini memungkinkan pengembangan model AI tingkat lanjut atau frontier model dilakukan dengan lebih masif dan terintegrasi.
Secara teknis, TPU 8i dirancang khusus untuk menangani beban kerja inferensi atau penggunaan model yang terjadi setelah pengguna memasukkan prompt. Varian ini menargetkan efisiensi daya atau performance-per-watt yang signifikan untuk kebutuhan distribusi model di tahap produksi.
Arsitektur TPU 8i menyertakan penyempurnaan pada dukungan sparsity dan unit perkalian matriks yang dioptimalkan untuk pola inferensi umum pada model berbasis transformator. Cip ini juga mendukung berbagai format presisi, termasuk operasi INT8 dan FP8 yang umum digunakan dalam penerapan AI skala industri.
Di sisi lain, varian TPU 8t difokuskan pada tahap pengembangan model melalui konfigurasi pod besar. Fokus utama varian ini adalah mempercepat proses training yang secara historis memakan waktu lama serta sumber daya komputasi yang sangat besar.
Meskipun meluncurkan cip kustom sendiri, Google Cloud menegaskan bahwa strategi ini bukan merupakan upaya untuk menggantikan posisi Nvidia di pasar infrastruktur. Google tetap memposisikan cip TPU sebagai pelengkap bagi sistem berbasis Nvidia yang tersedia dalam infrastruktur cloud mereka.
Google Cloud bahkan menjanjikan ketersediaan cip terbaru Nvidia, yakni "Vera Rubin", pada akhir tahun ini. Hal ini menunjukkan strategi integrasi vertikal di mana Google mengoptimalkan beban kerja internal sekaligus tetap menawarkan akses teknologi pihak ketiga yang paling mutakhir.
Analis pasar cip, Patrick Moorhead, mencatat bahwa dominasi Nvidia masih sangat kuat dengan kapitalisasi pasar yang kini mendekati angka Rp86.500 triliun. Meskipun penyedia layanan cloud besar seperti Amazon dan Microsoft turut membangun cip AI sendiri, ketergantungan pasar terhadap Nvidia tetap tinggi.
Jika mengacu pada proyeksi pasar saat ini, pertumbuhan Google sebagai penyedia cloud AI justru berpotensi meningkatkan volume bisnis bagi produsen cip pihak ketiga. Sebagian besar beban kerja perusahaan global saat ini masih sangat bergantung pada ekosistem perangkat keras yang sudah mapan.
Di luar pengembangan perangkat keras, Google juga menyepakati kerja sama dengan Nvidia dalam pengembangan rekayasa jaringan komputer. Kolaborasi ini bertujuan untuk memastikan sistem berbasis Nvidia dapat beroperasi dengan tingkat efisiensi yang lebih tinggi di lingkungan Google Cloud.
Kedua raksasa teknologi tersebut tengah memperkuat teknologi jaringan berbasis perangkat lunak yang disebut Falcon. Teknologi ini pertama kali dibuat dan dirilis secara open source oleh Google pada 2023 di bawah naungan Open Compute Project.
Melalui peluncuran TPU generasi kedelapan, Google Cloud berupaya memperkuat posisinya dalam persaingan infrastruktur AI global. Strategi pemisahan fungsi cip menjadi unit pelatihan dan inferensi diharapkan mampu memberikan fleksibilitas biaya yang lebih baik bagi para pelaku usaha.