AI Diet Total

8 hours ago 3

Oleh Ahmadie Thaha, Kolumnis

REPUBLIKA.CO.ID, JAKARTA -- Di zaman ketika segalanya ingin serba besar — mulai dari layar makin lebar, gedung makin tinggi, dan ego pejabat kadang ikut membumbung — dunia kecerdasan buatan justru menemukan jalan sunyi yang berlawanan arah: mengecilkan diri untuk jadi lebih kuat.

Sebuah temuan dari tim periset Google memperkenalkan sesuatu bernama TurboQuant, yang kalau diterjemahkan ke bahasa warung kopi kira-kira berarti: “AI yang kurus, tapi otaknya makin encer.” Hasilnya bukan sekadar menarik. Ia nyaris mengganggu akal sehat.

Mari kita mulai dari hal yang paling mendasar, agar tidak tersesat di hutan istilah teknis yang kadang lebih rimbun dari hutan Amazon.

AI itu, sejatinya, tidak pernah membaca kata. Ia tidak tahu Anda menulis “raja”, “cinta”, atau “utang negara”. Yang ia lihat hanyalah angka, yang jumlahnya bisa ribuan, yang membentuk apa yang disebut "vektor".

Satu kata sederhana bisa menjadi ribuan koordinat dalam ruang matematika berdimensi tinggi. Semakin kompleks maknanya, semakin panjang daftar angkanya. Jadi, setiap percakapan kita dengan AI sesungguhnya adalah transaksi angka dalam jumlah besar.

Masalahnya sederhana: angka-angka itu mahal. Bukan mahal secara moral, tapi mahal secara memori. Setiap percakapan disimpan dalam apa yang disebut KV cache — semacam “contekan digital” agar AI tidak perlu membaca ulang seluruh catatan setiap kali menjawab.

Tapi seperti buku mahasiswa yang terlalu rajin mencatat, catatan ini lama-lama memenuhi meja, lalu jatuh ke lantai, lalu membuat sistem ngos-ngosan. Di sinilah bottleneck terbesar AI modern bersembunyi. Bukan di otaknya, tapi di ingatannya.

Selama ini, solusi yang dikenal adalah kuantisasi, yakni menyederhanakan angka-angka tersebut. Angka presisi tinggi seperti 16.738291 cukup dibulatkan menjadi 17. Mirip foto resolusi tinggi yang dikompres. Detailnya sedikit hilang, tapi wajah masih dikenali.

Masalahnya, teknik lama tersebut punya cacat bawaan. Untuk melakukan kompresi, ia membutuhkan “biaya tambahan” berupa parameter kalibrasi yang justru ikut memakan memori. Ibarat diet tapi sambil ngemil. Berat badan turun sedikit, naiknya diam-diam.

Di sinilah para peneliti Google menawarkan pendekatan yang hampir filosofis. Mereka bukan hanya mengecilkan data, tapi menghapus biaya tersembunyi dari proses pengecilan itu sendiri.

Cara kerjanya terdengar seperti trik sulap, tapi sebenarnya matematika tingkat tinggi yang kebetulan sangat elegan.

Tahap pertama disebut PolarQuant. Vektor yang tadinya disimpan dalam koordinat biasa kini diputar secara acak untuk menyederhanakan strukturnya, lalu diubah menjadi bentuk polar, berupa kombinasi antara “kekuatan makna” (radius) dan “arah makna” (sudut).

Bayangkan Anda tidak lagi memberi alamat “3 blok ke timur dan 4 ke utara”, tapi cukup “5 blok pada sudut tertentu”. Tujuannya sama, tapi cara menyimpannya jauh lebih hemat.

Dengan pendekatan ini, sistem AI tidak lagi membutuhkan normalisasi mahal. Data dipetakan ke “lingkaran” yang batasnya pasti, bukan “kotak” yang berubah-ubah. Ini seperti pindah dari pasar tradisional ke gudang logistik. Barangnya sama, tapi penataannya membuat segalanya lebih cepat dan lebih efisien.

Namun, seperti semua kompresi, selalu ada residu kecil, kadang berupa kesalahan tipis yang tersisa. Di sinilah tim Google menerapkan tahap kedua yang disebut QJL, atau Quantized Johnson-Lindenstrauss.

Nama yang terdengar seperti mantra kuno ini sebenarnya adalah teorema matematika klasik yang memungkinkan data berdimensi tinggi dipadatkan tanpa merusak hubungan antar titiknya.

Disclaimer: Pandangan yang disampaikan dalam tulisan di atas adalah pendapat pribadi penulisnya yang belum tentu mencerminkan sikap Republika soal isu-isu terkait.

Read Entire Article
Perekonomian | Teknologi | Alam | Otomotif | Edukasi | Lifestyle |