DEEPTECH

Harga DEEPEXI TECH 01384.HK

DEEPTECH
Rp0
+Rp0(0,00%)
Tidak ada data

*Data terakhir diperbarui: 2026-04-14 21:12 (UTC+8)

Pada 2026-04-14 21:12, DEEPEXI TECH 01384.HK (DEEPTECH) dihargai di Rp0, dengan total kapitalisasi pasar sebesar --, rasio P/E 0,00, dan imbal hasil dividen sebesar 0,00%. Hari ini, harga saham berfluktuasi di antara Rp0 dan Rp0. Harga saat ini adalah 0,00% di atas titik terendah hari ini dan 0,00% di bawah titik tertinggi hari ini, dengan volume perdagangan --. Selama 52 minggu terakhir, DEEPTECH telah diperdagangkan antara Rp0 hingga Rp0, dan harga saat ini adalah 0,00% jauh dari titik tertinggi 52 minggu.

Statistik Utama DEEPTECH

Rasio P/E0,00
Imbal Hasil Dividen (TTM)0,00%
Saham Beredar0,00

FAQ DEEPEXI TECH 01384.HK (DEEPTECH)

Berapa harga saham DEEPEXI TECH 01384.HK (DEEPTECH) hari ini?

x
DEEPEXI TECH 01384.HK (DEEPTECH) saat ini diperdagangkan di harga Rp0, dengan perubahan 24 jam sebesar 0,00%. Rentang perdagangan 52 minggu adalah Rp0–Rp0.

Berapa harga tertinggi dan terendah 52 minggu untuk DEEPEXI TECH 01384.HK (DEEPTECH)?

x

Berapa rasio harga terhadap pendapatan (P/E) dari DEEPEXI TECH 01384.HK (DEEPTECH)? Apa arti dari rasio tersebut?

x

Berapa kapitalisasi pasar DEEPEXI TECH 01384.HK (DEEPTECH)?

x

Berapa laba per saham (EPS) kuartalan terbaru untuk DEEPEXI TECH 01384.HK (DEEPTECH)?

x

Apakah Anda sebaiknya beli atau jual DEEPEXI TECH 01384.HK (DEEPTECH) sekarang?

x

Faktor apa saja yang dapat memengaruhi harga saham DEEPEXI TECH 01384.HK (DEEPTECH)?

x

Bagaimana cara beli saham DEEPEXI TECH 01384.HK (DEEPTECH)?

x

Peringatan Risiko

Pasar saham melibatkan tingkat risiko dan volatilitas harga yang tinggi. Nilai investasi Anda dapat meningkat atau menurun, dan Anda mungkin tidak mendapatkan kembali seluruh jumlah yang diinvestasikan. Kinerja masa lalu bukan merupakan indikator yang andal untuk hasil di masa depan. Sebelum membuat keputusan investasi, Anda harus dengan cermat menilai pengalaman investasi, kondisi keuangan, tujuan investasi, dan toleransi risiko Anda, serta melakukan riset sendiri. Jika diperlukan, konsultasikan dengan penasihat keuangan independen.

Penafian

Konten di halaman ini disediakan hanya untuk tujuan informasi dan bukan merupakan saran investasi, saran keuangan, atau rekomendasi perdagangan. Gate tidak bertanggung jawab atas kerugian atau kerusakan yang diakibatkan oleh keputusan keuangan tersebut. Lebih lanjut, harap diperhatikan bahwa Gate mungkin tidak dapat menyediakan layanan penuh di pasar dan yurisdiksi tertentu, termasuk namun tidak terbatas pada Amerika Serikat, Kanada, Iran, dan Kuba. Untuk informasi lebih lanjut mengenai Lokasi Terbatas, silakan merujuk ke Perjanjian Pengguna.

Pasar Perdagangan Lainnya

Postingan Hangat Tentang DEEPEXI TECH 01384.HK (DEEPTECH)

SadMoneyMeow

SadMoneyMeow

04-08 04:36
![](https://img-cdn.gateio.im/social/moments-c195308574-89cf3f53e2-8b7abd-badf29) Teknologi Dipo (01384) naik lebih dari 17% pada perdagangan intraday; per saat laporan ini diterbitkan, harga saham naik 11,08%, kini berada di 32,48 dolar Hong Kong, dengan nilai transaksi sebesar 199,6 juta dolar Hong Kong. Kinerja tahunan Teknologi Dipo tahun 2025 menunjukkan bahwa pendapatan perusahaan secara keseluruhan meningkat 70,8% year-on-year, sementara rugi bersih yang disesuaikan menyempit secara signifikan sebesar 71,4%, dan kualitas operasional meningkat secara nyata. Yang patut diperhatikan adalah pendapatan solusi kecerdasan buatan tingkat perusahaan FastAGI melonjak hingga 254 juta yuan, melonjak 181,5% year-on-year, menjadi sumber pendapatan terbesar, menandai bahwa mesin bisnis telah berhasil beralih ke solusi AI. Selain itu, Teknologi Dipo sebelumnya meluncurkan strategi produk baru. Ketiga komponen yang sebelumnya mencakup platform integrasi data perusahaan FastData, platform agen pintar perusahaan FastAGI, serta model besar perusahaan Deepexi telah diintegrasikan secara mendalam, dan ditingkatkan menjadi “DeepexiOS” sebagai sistem operasi perusahaan kelas AI. Fokus utama produk perusahaan juga bergeser dari menyediakan “solusi Data+AI” menjadi “platform dasar karyawan digital perusahaan di era AI”. (Penyunting: Liu Chang) 【Pernyataan penyangkalan】Artikel ini hanya mewakili pandangan pribadi penulis, dan tidak ada kaitannya dengan Hexun. Situs Hexun bersikap netral terhadap pernyataan, opini, dan penilaian yang termuat dalam artikel ini, serta tidak memberikan jaminan apa pun, baik tersurat maupun tersirat, atas akurasi, keandalan, atau kelengkapan dari konten yang ada. Pembaca dimohon hanya menjadikannya referensi dan menanggung seluruh tanggung jawab sendiri. email: news_center@staff.hexun.com
0
0
0
0
MaticHoleFiller

MaticHoleFiller

04-05 22:45
>   бер инвестasikan saham, cukup lihat laporan riset analis dari Golden Qilin: berwenang, profesional, tepat waktu, komprehensif—membantu Anda menggali peluang tema berpotensi! (Sumber: DeepTech深科技) Tulis sebuah fungsi, AI hampir tak terkalahkan; tetapi memelihara sebuah sistem, mengapa AI mulai runtuh? Saat ini, kecerdasan buatan sudah memasuki “babak setengah kedua”. Seiring kemampuan pemrograman AI terus meningkat, produk seperti OpenClaw perlahan muncul, dan “CLI everything” sedang menjadi kenyataan: AI tidak perlu mengoperasikan komputer, melainkan semua antarmuka diubah menjadi antarmuka baris perintah (CLI). Keahlian-keahlian demi keahlian berubah menjadi fungsi-fungsi perangkat lunak. Namun, Agent kini bukan lagi sekadar alat percakapan untuk menjalankan tugas sekali pakai, melainkan sedang berkembang menjadi sistem untuk operasional jangka panjang, berinteraksi dengan dunia nyata, dan menjalankan tugas-tugas kompleks. Akan tetapi, muncul masalah baru: dalam proses evolusi yang berkelanjutan, apakah AI bisa terus beradaptasi dengan lingkungan baru dan menjaga kemampuan pengembangan tetap stabil? Ilmuwan AI utama di kantor “CEO/Presiden” Tencent, Yao Shunyu, pernah menyebut dalam sebuah blog berjudul “The Second Half” bahwa tugas pemrograman dunia nyata bersifat kontinu yang saling bergantung, bukan tugas independen yang berjalan paralel; tetapi saat ini dunia akademik tidak memiliki benchmark semacam itu untuk menilai kemampuan AI yang dibutuhkan dalam skenario tersebut, bahkan kurang keberanian untuk mematahkan asumsi bahwa antar-tugas itu independen—yang selama ini secara luas dianggap benar, dan digunakan untuk menyederhanakan masalah. Baru-baru ini, tim gabungan dari University of Southern California, University of California Riverside, Stanford University, Princeton University, dan OpenHands merilis sebuah benchmark penilaian baru EvoClaw, yang mengajukan solusi baru untuk masalah di atas. Tim peneliti mengekstrak sejarah evolusi kode berkualitas tinggi dari proyek open source, sehingga Agent dapat menyelesaikan puluhan iterasi fungsional yang saling bergantung secara berurutan dalam satu basis kode yang sama. Hasilnya menunjukkan bahwa AI terbaik dapat tampil sangat baik pada tugas evaluasi yang independen (skor 80%+). Namun, ketika masuk ke skenario dunia nyata berdurasi panjang, bahkan Claude Opus 4.6 yang memiliki skor gabungan tertinggi pun hanya memperoleh 38,03% skor. Ini berarti bahwa AI cenderung menyimpang dari jalur ketika menjalankan tugas dengan kebebasan eksekusi lebih tinggi; dan masih terdapat jarak yang signifikan antara kemampuannya dengan pekerjaan evolusi perangkat lunak jangka panjang yang berkelanjutan dan saling terhubung. (Sumber: arXiv) Penelitian ini mengungkap bahwa dalam evolusi jangka panjang, AI sangat mudah terjebak pada “tunggakan teknis” bergulir seperti bola salju. Walaupun mampu terus menambahkan fitur baru, ia tidak dapat mengendalikan akumulasi kesalahan yang berulang, yang akhirnya membuat sistem kehilangan kendali. Ini juga berarti bahwa pemrograman dengan AI sedang beralih dari menulis kode menuju tata kelola sistem. Makalah terkait berjudul 《EvoClaw: Evaluating AI Agents on Continuous Software Evolution》(EvoClaw: Evaluating AI Agents on Continuous Software Evolution), dan baru-baru ini dipublikasikan di situs preprint arXiv[1]. Gambar丨Makalah terkait (Sumber: arXiv) Evaluasi pemrograman AI yang ada dan pengalaman nyata tidak selaras—di mana letak masalahnya? Mengapa model-model papan atas yang meraih skor tinggi dalam evaluasi independen justru gagal bersama-sama dalam evaluasi EvoClaw? Akar masalahnya ada pada perubahan paradigma evaluasi. Dalam penelitian-penelitian sebelumnya, sebagian besar benchmark penilaian pemrograman arus utama berfokus pada tugas-tugas independen: diberikan sebuah isu (issue) atau permintaan penarikan (PR, Pull Request), model memperbaiki snapshot kode yang statis, dan verifikasi lulus menandai berakhirnya evaluasi. Namun, antara skor benchmark yang sebelumnya dan kemampuan pengembangan di dunia nyata terdapat jurang yang tidak bisa diabaikan: lingkungan statis adalah kondisi yang relatif ideal, sedangkan lingkungan nyata jauh lebih kompleks dan dinamis. Seiring berjalannya waktu, bahkan bug yang kecil beberapa bulan lalu dapat menjadi semakin besar seperti bola salju setelah iterasi versi, lalu akhirnya membuat sistem runtuh. (Sumber: arXiv) Penulis pertama makalah tersebut, mahasiswa doktoral Universitas Southern California, Deng Gangda, mengatakan kepada DeepTech: “Butiran commit dan release yang ada, baik terlalu terlalu rinci maupun terlalu terlalu kasar. Karena itu, sejarah pengembangan ini tidak dapat mencerminkan proses evolusi perangkat lunak.” Gambar丨Deng Gangda (Sumber: yang diwawancarai) Tim peneliti untuk pertama kalinya memasukkan dimensi waktu ke dalam kerangka evaluasi kemampuan pemrograman AI, menggunakan level baru yang sepenuhnya berbeda—milestone—untuk merekonstruksi sejarah evolusi perangkat lunak, sehingga menjadi unit fungsional yang bisa menjaga kelengkapan semantik dan mempertahankan hubungan ketergantungan evolusi. Ia menuntut AI menyelesaikan beberapa unit fungsional secara berurutan dalam basis kode yang sama; selain mempertahankan keluaran tiap langkah, itu juga menjadi titik awal bagi langkah berikutnya. (Sumber: arXiv) Untuk mendukung pengekstrakan sejarah evolusi perangkat lunak berkualitas tinggi dari banyak repositori kode open source, peneliti mengusulkan serangkaian pipeline otomatis yang digerakkan Agent, DeepCommit, berdasarkan kapabilitas kuat AI tingkat teratas. Ini pertama kali mewujudkan rekonstruksi catatan pengembangan Git yang berantakan menjadi graf dependensi tugas milestone (Milestone DAG) yang dapat diverifikasi dan kohesif secara fungsi, serta membangun lingkungan evaluasi untuk setiap milestone. Ini terutama mencakup tiga tahap: praproses sejarah Git, konstruksi DAG yang digerakkan oleh Agent, serta konfigurasi dan verifikasi lingkungan milestone. Sebenarnya, merekonstruksi evolusi sejarah Agent dengan Milestone bukanlah perkara mudah, karena ia tidak hanya perlu membangun sebuah DAG statis yang benar-benar bisa dipantau, melainkan juga serangkaian lingkungan evaluasi yang dapat dieksekusi, serta memastikan kebenaran sekaligus menghadapi perubahan pada dependensi evolusi. Artinya, ketika mengacak urutan commit secara menyeluruh dan mengelompokkannya kembali lalu menghubungkannya, bisa saja muncul situasi di mana commit tidak bisa diterapkan, antarmuka tidak cocok, dan terjadi banyak error kompilasi. Untuk mengatasi masalah tersebut, peneliti merancang loop perbaikan iteratif: Agent secara proaktif menganalisis log error, lalu secara dinamis memodifikasi Dockerfile agar tetap dapat dieksekusi. Yang lebih penting, ia akan menambahkan dependensi implisit yang terlewat berdasarkan DAG yang ada. Dengan menyesuaikan hubungan batasan urutan Milestone, konflik antarmuka dapat diselesaikan dengan tepat. Setelah berulang kali melakukan iterasi, akhirnya tercapai pengumpulan yang benar terhadap 87,1% dari seluruh kasus uji yang asli. “Dibandingkan skenario tugas pemrograman tunggal, pemrograman otonom jangka panjang yang stabil, andal, dan efektif adalah fokus penelitian yang lebih mutakhir. Misalnya, Anthropic dan OpenAI secara jelas menyatakan bahwa mereka telah mengalihkan fokus ke kemampuan pemrograman jangka panjang saat melatih model.” kata Deng Gangda. Gambar丨Diagram arsitektur pipeline DeepCommit (Sumber: arXiv) Peneliti membandingkan graf evolusi yang dihasilkan otomatis oleh DeepCommit dengan anotasi manual para ahli manusia. Yang membuat mereka terkejut adalah, keduanya menggunakan logika organisasi yang berbeda dan saling melengkapi. Secara spesifik, Milestone dari para ahli manusia biasanya berada dalam jendela waktu lokal: mereka menetapkan topik terlebih dahulu lalu mengelompokkan commit—ini adalah pemecahan semantik top-down. Sementara DeepCommit, demi memastikan akurasi mutlak, berangkat dari hubungan dependensi antar-commit, lalu membangun kembali alur evolusi perangkat lunak dari bawah ke atas. Ia lebih menekankan struktur topologi dan batasan eksekusi. Untuk keperluan evaluasi, ini justru menunjukkan bahwa kunci DeepCommit adalah mengekstrak struktur milestone yang bisa dieksekusi dan bisa diverifikasi dari sejarah pengembangan kode. Dari hasil yang didapat, DeepCommit dapat menyaring milestone berkualitas tinggi yang cocok untuk evaluasi, dan dalam lingkungan nyata dapat dieksekusi serta diverifikasi, sehingga menyediakan jaminan bagi reliabilitas evaluasi. Begitu masuk ke pengembangan nyata, mengapa nilai model justru “dipangkas setengah” secara serentak? EvoClaw mencakup lima bahasa pemrograman utama, yaitu Python, Java, Go, Rust, dan TypeScript. Proyek yang dipilih memiliki rentang siklus pengembangan nyata terpanjang hingga 750 hari. Dalam aspek metrik evaluasi, tim peneliti tidak memakai tingkat kelulusan (passing rate) yang sederhana, melainkan memperkenalkan dua dimensi yang lebih inti—recall (Recall) dan precision (Precision)—sebagai F1 tertimbang untuk memberi skor setiap milestone. Recall digunakan untuk mengukur kelengkapan implementasi fungsi, sedangkan precision menangkap sejauh mana model saat menambah fitur justru merusak kode yang sudah ada. Tim peneliti menguji berbagai kombinasi framework dan model seperti Claude Code, OpenHands, dan lainnya. Hasilnya menunjukkan bahwa pada evaluasi independen, skor model-model papan atas umumnya berada di kisaran 80%-90%. Namun setelah menjalani pengujian benchmark EvoClaw, performa mereka anjlok secara drastis. Bahkan Claude Opus 4.6 yang mendapat skor tertinggi hanya meraih 38,03% skor. Gambar丨Hasil eksperimen utama EvoClaw (Sumber: arXiv) GPT 5.3 Codex dengan skor gabungan 28,88% berada tepat di bawah Opus 4.6, menempati posisi kedua. Jika dilihat per repositori, GPT 5.3 Codex lemah di dua proyek Rust (Nushell, ripgrep), tetapi pada repositori lainnya ia mampu mendekati bahkan melampaui Opus 4.6. Dalam tingkat penyelesaian lengkap (full resolution), Gemini 3 Pro yang memperoleh skor tertinggi pun hanya 13,37%, dan sebagian besar yang berhasil diimplementasikan dengan benar adalah tugas-tugas yang tidak memiliki dependensi awal. Diketahui bahwa peneliti mengendalikan biaya total dalam batas yang wajar. Misalnya, untuk Claude Opus 4.5, biaya untuk menjalankan evaluasi lengkap sekitar 500 dolar AS; Kimi K2.5 dan Gemini 3 Flash berada di bawah 50 dolar AS; biaya untuk model kecil akan lebih rendah lagi. (Sumber: arXiv) Lalu, jika diberi jendela pengembangan yang lebih panjang, apakah pada akhirnya ia bisa menyelesaikan proyek hingga 100%? Penelitian memberi jawaban negatif: apa pun panjang jendela pengembangan, performa semua model pada akhirnya akan menabrak “batas langit-langit”. Semakin urutan eksekusi tugas berada di belakang, dan semakin dalam level DAG yang ditempati, semakin rendah skor dan tingkat penyelesaiannya. Hasil ekstrapolasi di luar fungsi jenuh membuktikan bahwa bahkan Opus 4.6 yang terbaik sekalipun, skor kumulatifnya akan macet di garis asimtotik sekitar 45%. “Meski Opus 4.6 di situs resmi Anthropic menyebut bahwa ia tampil lebih baik daripada 4.5 dalam tugas jangka panjang, mereka tidak memberikan indikator evaluasi yang rinci. EvoClaw menilai pernyataan tersebut dari sudut pandang lain.” kata Deng Gangda. Selain itu, dari eksperimen terlihat adanya perbedaan yang signifikan antar keluarga model. Secara spesifik, performa Claude dan GPT dalam skenario evolusi berkelanjutan akan meningkat secara bertahap seiring pembaruan versi. Di antaranya, Opus 4.6 membuktikan performa terbaik dalam pemrograman jangka panjang terhadap kemampuan pemeliharaan sistem; sementara GPT 5.3 berada di urutan kedua karena skor diturunkan oleh performa yang kurang baik pada dataset Rust. (Sumber: arXiv) Yang paling mengejutkan adalah bahwa keluarga Gemini justru menunjukkan tren yang benar-benar berbeda: dari 3 Flash ke 3 Pro lalu ke 3.1 Pro—setiap generasi memulai lebih cepat di tahap awal dan menunjukkan performa yang lebih baik di fase awal, tetapi performa jarak jauh hampir tidak mengalami peningkatan yang signifikan. Deng Gangda menjelaskan: “Penurunan yang jelas pada performa Gemini saat menjalankan siklus panjang berarti bahwa ia tidak hanya semakin buruk dalam mengikuti instruksi, semakin mengabaikan kebutuhan spesifikasi perangkat lunak (SRS), sekaligus kekurangan kemampuan pemeliharaan pada sistem perangkat lunak yang dibangun.” Ketika peneliti membagi skor total lebih jauh menjadi recall dan precision, muncul fenomena yang lebih menarik: recall hampir terus meningkat, mendekati pertumbuhan yang hampir linear. Ini berarti bahwa meskipun basis kode menjadi semakin kacau dan semakin rapuh, Agent tetap ahli dalam mengimplementasikan fungsi tujuan baru yang diberikan saat ini. Akan tetapi, bottleneck sebenarnya ada pada precision: Agent sulit mempertahankan sistem yang sudah ada; laju akumulasi error balik melampaui kemampuan mereka untuk memperbaiki masalah-masalah tersebut. Dan inilah akar dari mengapa pengembangan jangka panjang akhirnya mandek. Gambar丨Kiri: ilustrasi rantai error; Kanan: distribusi rantai error (Sumber: arXiv) Untuk memahami lebih dalam penyebab mendasar model menjadi tidak terkendali selama iterasi, tim peneliti mengusulkan kerangka analisis Error Chains (Rantai Error). Mereka melacak setiap tes mulai dari kesalahan pertama, lalu mengamati apakah error diwariskan, menyebar, dilewati, atau diperbaiki pada Milestone berikutnya. Hasilnya menemukan bahwa kecepatan munculnya masalah baru tidak semakin cepat. Bahkan, model secara nyata memperbaiki sebagian error historis yang tertahan. Tetapi laju akumulasi error prasyarat jauh melebihi laju perbaikan, sehingga akhirnya terjebak dalam “kebangkrutan tunggakan teknis”. Untuk debugging AI Harness: sediakan evaluasi yang bersifat umum Baru-baru ini, ada konsep yang sangat populer: “Harness Engineering”, yang bertujuan menyiapkan seluruh proses pengembangan perangkat lunak dalam lingkungan yang cocok agar Agent dapat terlibat. Benchmark EvoClaw menyediakan playground yang serupa, bersifat umum, dan cocok untuk mengevaluasi evolusi kode jangka panjang, sehingga pas untuk debugging framework AI Harness. Misalnya, untuk kasus kegagalan yang disebut dalam penelitian ini: jika Agent tiba-tiba menunjukkan iterasi yang sangat proaktif, atau terus mengedit dan terus memverifikasi, kemungkinan besar Agent sedang menghadapi kesulitan. Dalam situasi seperti ini, Anda bisa membangun pelindung (guardrail) di posisi yang sesuai untuk mendeteksi masalah sedini mungkin dan melakukan intervensi manusia tepat waktu, sehingga meningkatkan efisiensi. Mengingat arsitektur model membuat Agent memiliki sifat umum “lebih kuat mewujudkan fungsi baru daripada memelihara fungsi lama jangka panjang”, apakah ke depan akan memunculkan bentuk perangkat lunak dan pola pengembangan baru? Misalnya, perangkat lunak akan lebih menekankan fleksibilitas dan kompatibilitas, serta lebih andal dalam reorganisasi perubahan skala besar; atau justru lebih “sekali pakai”, di mana logika bisnis spesifik dihasilkan secara real-time tanpa perlu pemeliharaan, dengan fokus pada penguatan komponen dan infrastruktur yang dapat digunakan kembali. Tim peneliti berpendapat bahwa dalam pola pengembangan, dengan melonggarkan batasan terhadap kualitas perangkat lunak secara tepat, jumlah intervensi manusia bisa dikurangi untuk mendapatkan throughput yang lebih besar, dan pada akhirnya mempercepat iterasi perangkat lunak. Deng Gangda menyoroti, “Penelitian ini membuktikan bahwa kita sedang berjalan di jalur yang benar. Kemampuan pemrograman jangka panjang AI belum menemukan bottleneck; ia bisa meningkat secara stabil seiring waktu. Ada potensi suatu hari, dari perubahan kuantitatif berupa skor di papan peringkat, berubah menjadi perubahan kualitatif yang mengubah dunia.” Seiring perkembangan teknologi, di masa depan AI mungkin akan berkembang dari mengurangi keterlibatan manusia dalam pengembangan perangkat lunak, menjadi AI yang secara mandiri mengajukan kebutuhan baru untuk mengembangkan basis kode, hingga akhirnya AI benar-benar melampaui manusia, meninggalkan manusia, dan mewujudkan evolusi diri yang terus-menerus. Referensi: 1. Makalah terkait: 2. Beranda proyek: 3. Tata letak: 刘雅坤 Melimpahnya informasi dan interpretasi yang akurat—hanya di aplikasi Sina Finance APP
1
0
0
0
CycleProphet

CycleProphet

03-30 06:23
Bagi investor infrastruktur AI, ketika sebuah makalah mengklaim telah mencapai peningkatan kinerja "beberapa tingkat" jumlah, hal pertama yang perlu dipertanyakan adalah apakah kondisi perbandingan dasar tersebut adil. Penulis: DeepTech TechFlow Sebuah makalah dari Google yang mengklaim "mengompresi penggunaan memori AI hingga 1/6" minggu lalu menyebabkan nilai pasar chip penyimpanan global seperti Micron, SanDisk, dan lainnya menguap lebih dari 90 miliar dolar AS. Namun, hanya dua hari setelah publikasi makalah tersebut, pihak yang "menghancurkan" perbandingan—postdoc dari ETH Zurich, Gao Jianyang, merilis surat terbuka sepanjang sepuluh ribu kata, menuduh tim Google menggunakan skrip Python dengan CPU tunggal untuk menguji lawan, sementara mereka sendiri menguji dengan GPU A100, dan setelah diberitahu tentang masalah tersebut sebelum pengiriman, mereka tetap menolak memperbaikinya. Jumlah pembaca di Zhihu dengan cepat melampaui 4 juta, akun resmi Stanford NLP membagikan ulang, dan komunitas akademik serta pasar pun berguncang secara bersamaan. (Referensi bacaan: Sebuah makalah yang membuat saham penyimpanan jatuh) Inti dari kontroversi ini tidak rumit: sebuah makalah yang dipromosikan secara besar-besaran oleh Google dan langsung memicu kepanikan jual besar-besaran di sektor chip, apakah secara sistematis memutarbalikkan pekerjaan sebelumnya yang sudah dipublikasikan, dan melalui eksperimen yang dibuat tidak adil, membentuk narasi keunggulan kinerja palsu? **Apa yang dilakukan TurboQuant: Mengurangi "kertas kerja" AI menjadi sepertiga dari ukuran aslinya** ----------------------------------------- Model bahasa besar saat menghasilkan jawaban harus menulis sekaligus meninjau kembali isi yang telah dihitung sebelumnya. Hasil tengah ini disimpan sementara di memori GPU, yang dalam industri disebut "KV Cache" (Cache Kunci-Nilai). Semakin panjang percakapan, semakin tebal "kertas kerja" ini, semakin besar konsumsi memori, dan semakin tinggi biayanya. Algoritma TurboQuant yang dikembangkan tim riset Google, inti keunggulannya adalah mampu mengompresi kertas kerja ini hingga 1/6 dari ukuran aslinya, sambil mengklaim tanpa kehilangan akurasi, dan meningkatkan kecepatan inferensi hingga 8 kali lipat. Makalah ini pertama kali dipublikasikan di platform preprint arXiv pada April 2025, dan pada Januari 2026 diterima di konferensi terkemuka bidang AI, ICLR 2026. Pada 24 Maret, makalah ini dipromosikan kembali melalui blog resmi Google. Secara teknis, ide TurboQuant dapat disederhanakan sebagai: terlebih dahulu menggunakan transformasi matematis untuk "membersihkan" data yang berantakan menjadi format seragam, kemudian mengompresi satu per satu menggunakan tabel kompresi yang telah dihitung sebelumnya, dan akhirnya menggunakan mekanisme koreksi error satu bit untuk memperbaiki deviasi perhitungan akibat kompresi tersebut. Implementasi independen komunitas telah memverifikasi efektivitas kompresi ini secara dasar, dan kontribusi matematis algoritma ini memang nyata. Kontroversi bukan terletak pada apakah TurboQuant bisa digunakan, tetapi apa yang dilakukan Google untuk membuktikan bahwa ini "jauh melampaui pesaingnya". **Surat terbuka Gao Jianyang: Tiga tuduhan yang langsung menyentuh inti masalah** ---------------------- Pada pukul 10 malam, 27 Maret, Gao Jianyang memposting artikel panjang di Zhihu, dan secara bersamaan mengirim komentar resmi di platform review peer ICLR, OpenReview. Gao Jianyang adalah penulis utama algoritma RaBitQ, yang dipublikasikan pada 2024 di konferensi top bidang basis data SIGMOD, yang menyelesaikan masalah serupa—kompresi efisien vektor berdimensi tinggi. ![](https://img-cdn.gateio.im/social/moments-febe1f91d9-be7f31146e-8b7abd-ceda62) Tuduhannya terbagi menjadi tiga poin, masing-masing didukung oleh catatan email dan garis waktu. ### **Tuduhan pertama: Menggunakan metode inti orang lain tanpa menyebutkan seluruhnya.** Teknologi utama TurboQuant dan RaBitQ memiliki satu langkah kunci yang sama: sebelum mengompresi data, terlebih dahulu melakukan "rotasi acak" pada data tersebut. Langkah ini berfungsi untuk mengubah data yang awalnya tidak beraturan menjadi distribusi seragam yang dapat diprediksi, sehingga secara signifikan mengurangi kesulitan kompresi. Ini adalah bagian paling inti dan paling dekat dengan keduanya. Penulis TurboQuant sendiri mengakui hal ini dalam balasan review, tetapi dalam seluruh makalah tidak pernah secara langsung menjelaskan hubungan metode ini dengan RaBitQ. Lebih penting lagi, latar belakangnya adalah: penulis kedua TurboQuant, Majid Daliri, pada Januari 2025 secara aktif menghubungi tim Gao Jianyang, meminta bantuan debugging versi Python yang dia modifikasi dari kode sumber RaBitQ. Dalam email tersebut dijelaskan secara rinci langkah-langkah reproduksi dan pesan error—dengan kata lain, tim TurboQuant sangat memahami detail teknis RaBitQ. Seorang reviewer anonim dari ICLR juga secara independen menunjukkan bahwa keduanya menggunakan teknik yang sama, dan meminta diskusi lengkap. Tetapi dalam versi akhir makalah, tim TurboQuant tidak menambahkan diskusi tersebut, malah memindahkan deskripsi yang tidak lengkap tentang RaBitQ dari badan utama ke lampiran. ### **Tuduhan kedua: Mengklaim teori lawan "suboptimal" tanpa dasar.** Makalah TurboQuant langsung memberi label RaBitQ sebagai "suboptimal" karena analisis matematis RaBitQ dianggap "kasar". Tetapi Gao Jianyang menunjukkan bahwa versi pengembangan RaBitQ telah secara ketat membuktikan bahwa kesalahan kompresinya mencapai batas optimal secara matematis—kesimpulan ini dipublikasikan di konferensi terkemuka bidang ilmu komputer teoretis. Pada Mei 2025, tim Gao Jianyang melalui beberapa email menjelaskan secara rinci keunggulan teori RaBitQ. Penulis kedua TurboQuant, Daliri, mengonfirmasi bahwa seluruh penulis telah diberitahu. Tetapi makalah tersebut tetap mempertahankan pernyataan "suboptimal" tanpa memberikan argumen bantahan apapun. ### **Tuduhan ketiga: Perbandingan eksperimen yang "mengikat tangan lawan, menodongkan pisau".** Ini adalah poin paling mematikan. Gao Jianyang menunjukkan bahwa dalam eksperimen kecepatan, makalah TurboQuant menambahkan dua kondisi tidak adil: Pertama, RaBitQ secara resmi menyediakan kode C++ yang sudah dioptimalkan (secara default mendukung multithreading), tetapi tim TurboQuant tidak menggunakannya, melainkan menggunakan versi Python yang mereka terjemahkan sendiri. Kedua, saat menguji RaBitQ, mereka menggunakan CPU tunggal dan menonaktifkan multithreading, sementara TurboQuant menggunakan GPU NVIDIA A100. Akibat dari kedua kondisi ini adalah: pembaca melihat kesimpulan bahwa "RaBitQ jauh lebih lambat beberapa tingkat" tetapi tidak tahu bahwa kondisi tersebut adalah hasil Google mengikat tangan lawan mereka. Makalah ini tidak cukup mengungkapkan perbedaan kondisi eksperimen tersebut. **Respon Google: "Rotasi acak adalah teknik umum, tidak mungkin mengutip semuanya"** ----------------------------- Menurut Gao Jianyang, dalam email balasan Maret 2026, tim TurboQuant menyatakan: "Penggunaan rotasi acak dan transformasi Johnson-Lindenstrauss sudah menjadi standar di bidang ini, kami tidak mungkin mengutip setiap makalah yang menggunakan metode ini." Tim Gao Jianyang menganggap ini sebagai pengalihan konsep: masalahnya bukan soal mengutip semua makalah yang pernah menggunakan rotasi acak, tetapi bahwa RaBitQ adalah karya pertama yang menggabungkan metode ini dengan kompresi vektor dan membuktikan keunggulannya dalam kondisi yang sama. Makalah TurboQuant seharusnya secara akurat menggambarkan hubungan keduanya. Akun resmi Stanford NLP membagikan ulang pernyataan Gao Jianyang. Tim Gao Jianyang telah mempublikasikan komentar terbuka di platform OpenReview ICLR dan mengajukan keluhan resmi kepada ketua konferensi dan komite etik, serta akan merilis laporan teknis lengkap di arXiv. ![](https://img-cdn.gateio.im/social/moments-c230774988-0cfb0537c8-8b7abd-ceda62) Seorang blogger teknologi independen, Dario Salvati, memberikan penilaian netral: TurboQuant memang memiliki kontribusi nyata secara matematis, tetapi hubungan dengan RaBitQ jauh lebih dekat daripada yang digambarkan dalam makalah. **Nilai pasar menguap 90 miliar dolar: Kontroversi makalah dan kepanikan pasar** -------------------------- Waktu terjadinya kontroversi akademik ini sangat sensitif. Setelah Google merilis TurboQuant melalui blog resmi pada 24 Maret, sektor chip penyimpanan global mengalami penjualan besar-besaran. Menurut CNBC dan media lain, saham Micron turun selama enam hari berturut-turut, total lebih dari 20%; SanDisk turun 11% dalam satu hari; SK Hynix turun sekitar 6%, Samsung Electronics hampir 5%, dan Kioxia Jepang sekitar 6%. Logika kepanikan pasar sangat sederhana: perangkat lunak kompresi ini dapat mengurangi kebutuhan memori inferensi AI hingga 6 kali lipat, sehingga prospek permintaan chip penyimpanan akan mengalami penurunan struktural. Analis Morgan Stanley, Joseph Moore, pada laporan 26 Maret membantah logika ini, dan mempertahankan rekomendasi "buy" untuk Micron dan SanDisk. Moore menunjukkan bahwa TurboQuant hanya mengompresi cache tipe tertentu, yaitu KV Cache, bukan total penggunaan memori, dan menganggapnya sebagai "peningkatan produktivitas normal". Analis Wells Fargo, Andrew Rocha, juga mengutip paradoks Jevons yang menyatakan bahwa peningkatan efisiensi dan pengurangan biaya justru dapat mendorong deployment AI yang lebih besar, akhirnya meningkatkan permintaan memori. **Risiko rantai transmisi dari makalah lama dan kemasan baru: dari riset AI ke narasi pasar** ---------------------------- Menurut analisis blogger teknologi Ben Pouladian, makalah TurboQuant sudah dipublikasikan secara terbuka sejak April 2025 dan bukan penelitian baru. Pada 24 Maret, Google mempromosikan kembali makalah ini melalui blog resmi, tetapi pasar malah menilainya sebagai terobosan baru. Strategi promosi "makalah lama, dirilis ulang" ini, ditambah potensi bias eksperimen dalam makalah, mencerminkan risiko sistemik dalam rantai transmisi dari riset akademik ke narasi pasar di bidang AI. Bagi investor infrastruktur AI, ketika sebuah makalah mengklaim peningkatan kinerja "beberapa tingkat", hal pertama yang harus dipertanyakan adalah apakah kondisi perbandingan dasar tersebut adil. Tim Gao Jianyang telah menyatakan akan terus mendorong penyelesaian masalah secara resmi. Google belum memberikan tanggapan resmi terhadap tuduhan terbuka ini.
1
0
0
0