Fakta-fakta DeepSeek R1
DeepSeek R1, model yang bisa merenung dan berpikir, sedang viral. Berikut fakta-fakta menarik.
R1 tidak sepenuhnya open source
Varian seperti 7B/14B/32B hanya versi distilasi
Kalau bener makainya, data kita tidak akan dicolong Cina
Kalau masih awam soal yang namanya "reasoning model", bisa cek tulisan saya sebelumnya: LLM yang Merenung, Berpikir, dan Menghayati. Nah baru kita jabarkan faktanya satu per satu.
Fakta pertama. Digadang-gadang sebagai LLM yang "open source", DeepSeek R1 tidak melepas semua aset dan datanya secara lengkap. Tanpa itu semua, mustahil bagi pihak lain untuk melakukan repro.
Karena itu, harusnya R1 tidak digolongkan sebagai model yang open source, hanya open weight.
Begini penjelasan saya sebelumnya: Tiga Golongan LLM. Tapi jangan kuatir, tim HuggingFace tengah mencoba melakukan rekonstruksi R1. Tentu saja hasilnya akan beda, tetapi setidaknya langkah-langkahnya bisa direpro.
Mirip dengan Meta manakala dulu melahirkan Llama, juga open weight. Akhirnya ada yang merintis OpenLlama.
Tetapi merakit LLM yang bisa mikir, reasoning model, tentu bukan monopoli DeepSeek dan OpenAI dong. Ternyata juga ada usaha dari tim Berkeley untuk mencomot Qwen 32B dan diajarin ilmu baru sehingga kemampuan merenung dan berpikirnya juga mumpuni.
Fakta kedua. Banyak yang mengklaim berhasil menjalankan R1 di laptop, dan ternyata hasilnya kurang bagus (atau cakep, tergantung ujicobanya).
Ini adalah sebuah salah kaprah yang umum! Sebenarnya yang jalan di lokal itu adalah distilasi R1, tapi berbasis Qwen atau Llama.
Distilasi ini mirip proses berguru. Si murid (Qwen) disuruh mengamati langkah pemikiran si guru (R1). Setelah sekian juta kali, terseraplah (sebagian) ilmu si guru.
Yang jelas, model hasil distilasi itu tetap bagus. Saya juga sudah coba dan relatif lebih menyukainya, dibandingkan Qwen atau Llama yang ori, kalau memang memerlukan Chain of Though (CoT).
Tapi jangan kita sampai tertipu gegara Ollama salah pilih nama! BTW karena kasus penamaan ini, yang gerah ke tim Ollama makin bejibun, baik di Reddit, X, Discord, GitHub, dan forum-forum lainnya.
Fakta ketiga. Benarkan data kita disedot pemerintah Cina kalau pakai DeepSeek?
Kerancuan ini adalah karena ada dua produk berbeda, tapi sering terlanjur dirujuk dengan nama yang sama:
1) chat.deepseek.com, chatbot, padanannya ChatGPT
2) DeepSeek R1 (dan ada juga V3), LLM
Kalau pakai no 1, tentu saja harus ngikut S&K, wong kita numpang layanan mereka.
Bagaimana dengan no 2?
Banyak cara menjalankan LLM, bisa lewat API, bisa juga kita jalankan sendiri.
Kalau nembak API resmi dari DeepSeek, lagi-lagi kita kudu ngikut S&K mereka. Tapi ada juga LLMaaS (LLM-as-a-Service) selain DeepSeek yang sudi melakukan inferensi R1 asal kita bayar, dan mereka nggak berlokasi di Cina. Contoh: Novita, Hyperbolic, Fireworks.
Berikut kupasan saya sebelumnya tentang beda jenis-jenis inferensi berikut modelnya, Kuadran LLM: Inferensi vs Model.
Semoga bahasan ringkas ini bermanfaat, apalagi di tengah hiruk-piku informasi (yang kadang tidak jelas dan tidak akurat) yang melanda dunia persilatan di hari-hari terakhir.
Tiga fakta ini beberapa waktu lalu sempat saya lemparkan di Threads.