Runtuhnya saham penyimpanan dan Google AI paper senilai 900 miliar dolar AS, dituduh melakukan eksperimen palsu

Bagi investor infrastruktur AI, ketika sebuah makalah mengklaim telah mencapai peningkatan kinerja “beberapa tingkat” jumlah, hal pertama yang perlu dipertanyakan adalah apakah kondisi perbandingan dasar tersebut adil.

Penulis: DeepTech TechFlow

Sebuah makalah dari Google yang mengklaim “mengompresi penggunaan memori AI hingga 1/6” minggu lalu menyebabkan nilai pasar chip penyimpanan global seperti Micron, SanDisk, dan lainnya menguap lebih dari 90 miliar dolar AS.

Namun, hanya dua hari setelah publikasi makalah tersebut, pihak yang “menghancurkan” perbandingan—postdoc dari ETH Zurich, Gao Jianyang, merilis surat terbuka sepanjang sepuluh ribu kata, menuduh tim Google menggunakan skrip Python dengan CPU tunggal untuk menguji lawan, sementara mereka sendiri menguji dengan GPU A100, dan setelah diberitahu tentang masalah tersebut sebelum pengiriman, mereka tetap menolak memperbaikinya. Jumlah pembaca di Zhihu dengan cepat melampaui 4 juta, akun resmi Stanford NLP membagikan ulang, dan komunitas akademik serta pasar pun berguncang secara bersamaan.

(Referensi bacaan: Sebuah makalah yang membuat saham penyimpanan jatuh)

Inti dari kontroversi ini tidak rumit: sebuah makalah yang dipromosikan secara besar-besaran oleh Google dan langsung memicu kepanikan jual besar-besaran di sektor chip, apakah secara sistematis memutarbalikkan pekerjaan sebelumnya yang sudah dipublikasikan, dan melalui eksperimen yang dibuat tidak adil, membentuk narasi keunggulan kinerja palsu?

Apa yang dilakukan TurboQuant: Mengurangi “kertas kerja” AI menjadi sepertiga dari ukuran aslinya

Model bahasa besar saat menghasilkan jawaban harus menulis sekaligus meninjau kembali isi yang telah dihitung sebelumnya. Hasil tengah ini disimpan sementara di memori GPU, yang dalam industri disebut “KV Cache” (Cache Kunci-Nilai). Semakin panjang percakapan, semakin tebal “kertas kerja” ini, semakin besar konsumsi memori, dan semakin tinggi biayanya.

Algoritma TurboQuant yang dikembangkan tim riset Google, inti keunggulannya adalah mampu mengompresi kertas kerja ini hingga 1/6 dari ukuran aslinya, sambil mengklaim tanpa kehilangan akurasi, dan meningkatkan kecepatan inferensi hingga 8 kali lipat. Makalah ini pertama kali dipublikasikan di platform preprint arXiv pada April 2025, dan pada Januari 2026 diterima di konferensi terkemuka bidang AI, ICLR 2026. Pada 24 Maret, makalah ini dipromosikan kembali melalui blog resmi Google.

Secara teknis, ide TurboQuant dapat disederhanakan sebagai: terlebih dahulu menggunakan transformasi matematis untuk “membersihkan” data yang berantakan menjadi format seragam, kemudian mengompresi satu per satu menggunakan tabel kompresi yang telah dihitung sebelumnya, dan akhirnya menggunakan mekanisme koreksi error satu bit untuk memperbaiki deviasi perhitungan akibat kompresi tersebut. Implementasi independen komunitas telah memverifikasi efektivitas kompresi ini secara dasar, dan kontribusi matematis algoritma ini memang nyata.

Kontroversi bukan terletak pada apakah TurboQuant bisa digunakan, tetapi apa yang dilakukan Google untuk membuktikan bahwa ini “jauh melampaui pesaingnya”.

Surat terbuka Gao Jianyang: Tiga tuduhan yang langsung menyentuh inti masalah

Pada pukul 10 malam, 27 Maret, Gao Jianyang memposting artikel panjang di Zhihu, dan secara bersamaan mengirim komentar resmi di platform review peer ICLR, OpenReview. Gao Jianyang adalah penulis utama algoritma RaBitQ, yang dipublikasikan pada 2024 di konferensi top bidang basis data SIGMOD, yang menyelesaikan masalah serupa—kompresi efisien vektor berdimensi tinggi.

Tuduhannya terbagi menjadi tiga poin, masing-masing didukung oleh catatan email dan garis waktu.

Tuduhan pertama: Menggunakan metode inti orang lain tanpa menyebutkan seluruhnya.

Teknologi utama TurboQuant dan RaBitQ memiliki satu langkah kunci yang sama: sebelum mengompresi data, terlebih dahulu melakukan “rotasi acak” pada data tersebut. Langkah ini berfungsi untuk mengubah data yang awalnya tidak beraturan menjadi distribusi seragam yang dapat diprediksi, sehingga secara signifikan mengurangi kesulitan kompresi. Ini adalah bagian paling inti dan paling dekat dengan keduanya.

Penulis TurboQuant sendiri mengakui hal ini dalam balasan review, tetapi dalam seluruh makalah tidak pernah secara langsung menjelaskan hubungan metode ini dengan RaBitQ. Lebih penting lagi, latar belakangnya adalah: penulis kedua TurboQuant, Majid Daliri, pada Januari 2025 secara aktif menghubungi tim Gao Jianyang, meminta bantuan debugging versi Python yang dia modifikasi dari kode sumber RaBitQ. Dalam email tersebut dijelaskan secara rinci langkah-langkah reproduksi dan pesan error—dengan kata lain, tim TurboQuant sangat memahami detail teknis RaBitQ.

Seorang reviewer anonim dari ICLR juga secara independen menunjukkan bahwa keduanya menggunakan teknik yang sama, dan meminta diskusi lengkap. Tetapi dalam versi akhir makalah, tim TurboQuant tidak menambahkan diskusi tersebut, malah memindahkan deskripsi yang tidak lengkap tentang RaBitQ dari badan utama ke lampiran.

Tuduhan kedua: Mengklaim teori lawan “suboptimal” tanpa dasar.

Makalah TurboQuant langsung memberi label RaBitQ sebagai “suboptimal” karena analisis matematis RaBitQ dianggap “kasar”. Tetapi Gao Jianyang menunjukkan bahwa versi pengembangan RaBitQ telah secara ketat membuktikan bahwa kesalahan kompresinya mencapai batas optimal secara matematis—kesimpulan ini dipublikasikan di konferensi terkemuka bidang ilmu komputer teoretis.

Pada Mei 2025, tim Gao Jianyang melalui beberapa email menjelaskan secara rinci keunggulan teori RaBitQ. Penulis kedua TurboQuant, Daliri, mengonfirmasi bahwa seluruh penulis telah diberitahu. Tetapi makalah tersebut tetap mempertahankan pernyataan “suboptimal” tanpa memberikan argumen bantahan apapun.

Tuduhan ketiga: Perbandingan eksperimen yang “mengikat tangan lawan, menodongkan pisau”.

Ini adalah poin paling mematikan. Gao Jianyang menunjukkan bahwa dalam eksperimen kecepatan, makalah TurboQuant menambahkan dua kondisi tidak adil:

Pertama, RaBitQ secara resmi menyediakan kode C++ yang sudah dioptimalkan (secara default mendukung multithreading), tetapi tim TurboQuant tidak menggunakannya, melainkan menggunakan versi Python yang mereka terjemahkan sendiri. Kedua, saat menguji RaBitQ, mereka menggunakan CPU tunggal dan menonaktifkan multithreading, sementara TurboQuant menggunakan GPU NVIDIA A100.

Akibat dari kedua kondisi ini adalah: pembaca melihat kesimpulan bahwa “RaBitQ jauh lebih lambat beberapa tingkat” tetapi tidak tahu bahwa kondisi tersebut adalah hasil Google mengikat tangan lawan mereka. Makalah ini tidak cukup mengungkapkan perbedaan kondisi eksperimen tersebut.

Respon Google: “Rotasi acak adalah teknik umum, tidak mungkin mengutip semuanya”

Menurut Gao Jianyang, dalam email balasan Maret 2026, tim TurboQuant menyatakan: “Penggunaan rotasi acak dan transformasi Johnson-Lindenstrauss sudah menjadi standar di bidang ini, kami tidak mungkin mengutip setiap makalah yang menggunakan metode ini.”

Tim Gao Jianyang menganggap ini sebagai pengalihan konsep: masalahnya bukan soal mengutip semua makalah yang pernah menggunakan rotasi acak, tetapi bahwa RaBitQ adalah karya pertama yang menggabungkan metode ini dengan kompresi vektor dan membuktikan keunggulannya dalam kondisi yang sama. Makalah TurboQuant seharusnya secara akurat menggambarkan hubungan keduanya.

Akun resmi Stanford NLP membagikan ulang pernyataan Gao Jianyang. Tim Gao Jianyang telah mempublikasikan komentar terbuka di platform OpenReview ICLR dan mengajukan keluhan resmi kepada ketua konferensi dan komite etik, serta akan merilis laporan teknis lengkap di arXiv.

Seorang blogger teknologi independen, Dario Salvati, memberikan penilaian netral: TurboQuant memang memiliki kontribusi nyata secara matematis, tetapi hubungan dengan RaBitQ jauh lebih dekat daripada yang digambarkan dalam makalah.

Nilai pasar menguap 90 miliar dolar: Kontroversi makalah dan kepanikan pasar

Waktu terjadinya kontroversi akademik ini sangat sensitif. Setelah Google merilis TurboQuant melalui blog resmi pada 24 Maret, sektor chip penyimpanan global mengalami penjualan besar-besaran. Menurut CNBC dan media lain, saham Micron turun selama enam hari berturut-turut, total lebih dari 20%; SanDisk turun 11% dalam satu hari; SK Hynix turun sekitar 6%, Samsung Electronics hampir 5%, dan Kioxia Jepang sekitar 6%. Logika kepanikan pasar sangat sederhana: perangkat lunak kompresi ini dapat mengurangi kebutuhan memori inferensi AI hingga 6 kali lipat, sehingga prospek permintaan chip penyimpanan akan mengalami penurunan struktural.

Analis Morgan Stanley, Joseph Moore, pada laporan 26 Maret membantah logika ini, dan mempertahankan rekomendasi “buy” untuk Micron dan SanDisk. Moore menunjukkan bahwa TurboQuant hanya mengompresi cache tipe tertentu, yaitu KV Cache, bukan total penggunaan memori, dan menganggapnya sebagai “peningkatan produktivitas normal”. Analis Wells Fargo, Andrew Rocha, juga mengutip paradoks Jevons yang menyatakan bahwa peningkatan efisiensi dan pengurangan biaya justru dapat mendorong deployment AI yang lebih besar, akhirnya meningkatkan permintaan memori.

Risiko rantai transmisi dari makalah lama dan kemasan baru: dari riset AI ke narasi pasar

Menurut analisis blogger teknologi Ben Pouladian, makalah TurboQuant sudah dipublikasikan secara terbuka sejak April 2025 dan bukan penelitian baru. Pada 24 Maret, Google mempromosikan kembali makalah ini melalui blog resmi, tetapi pasar malah menilainya sebagai terobosan baru. Strategi promosi “makalah lama, dirilis ulang” ini, ditambah potensi bias eksperimen dalam makalah, mencerminkan risiko sistemik dalam rantai transmisi dari riset akademik ke narasi pasar di bidang AI.

Bagi investor infrastruktur AI, ketika sebuah makalah mengklaim peningkatan kinerja “beberapa tingkat”, hal pertama yang harus dipertanyakan adalah apakah kondisi perbandingan dasar tersebut adil.

Tim Gao Jianyang telah menyatakan akan terus mendorong penyelesaian masalah secara resmi. Google belum memberikan tanggapan resmi terhadap tuduhan terbuka ini.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan