Tentang Llama 4
Akhirnya Meta mengeluarkan Llama 4. Apa saja yang baru di generasi Llama paling anyar ini?
Dibandingkan Llama 3.x yang lalu, bisa didapatkan hal-hal berikut:
✅ Multimodal, alias tidak melulu soal teks
✅ MoE untuk peningkatan kecepatan
✅ Konteks panjang hingga 10 juta token
Yuk bareng kita cerna pelan-pelan!
Llama 4 ini dilempar tim Meta supaya bisa bersaing dengan model-model sakti lainnya, dari GPT 4, Gemini 2.5, DeepSeek V3, dll. Sekurangnya, begitu klaim dari bang Mark Zuckberg.
Sementara ini di lapangan banyak komunitas LLM masih kecewa dengan kinerjanya, karena sepertinya tidak selaras dengan klaim dan hasil benchmark. Apakah ini karena kita semua masih belajar menaklukkan Llama 4? Mari kita tunggu saja.
Selain bisa diakses lewat Meta AI, beberapa layanan Chat di luar sana juga sudah menyiapkan dukungan untuk Llama 4. Salah satu favorit saya terbaru adalah Together Chat.
Together Chat ini lumrahnya hanyalah aplikasi demo untuk Together, startup yang menjual jasa layanan inferensi. Tapi mayan asik kok, ada hawa-hawa Perplexity dan ChatGPT digabung jadi satu. Coba deh, kalau belum pernah!
Tentu Llama 4 ini bukan monopoli Together. Ada juga layanan-layanan lain, seperti DeepInfra, Fireworks, Groq (yang kenceng banget), OpenRouter sebagai gateway tersohor, dll. Karena arsitektur MoE yang baru, kecepatan inferensinya sangat memuaskan!
Yang cukup unik adalah Azure. Walaupun Microsoft terkenal menggelontorkan ribuan koin emas untuk investasi ke OpenAI, ternyata tidak perlu eksklusif!
Karena tiga varian Llama 4 ini, dari Scout sampai Maverick apalagi Behemoth, ukurannya sangat gemuk, hampir mustahil dijalankan di mesin lokal secara nyaman. Mungkin belakangan Meta akan meluncurkan versi distilasi yang lebih mungil (walaupun tidak ada jaminan).
Sementara itu buat yang nggak sabar dan pengen ngoding dengan Llama 4 tapi bingung milih LLMaaS (atau Cloud LLM), bisa simak bahasan saya yang lalu, Ulasan Jujur Lusinan LLMaaS. Khusus untuk kasus Llama 4 ini, entah adakah yang sudah siap mengunyah 10 juta token.
Nembak Llama 4 juga nggak sulit, karena rata-rata semua mesin inferensi mendukung API de facto ala OpenAI. Bahkan bisa coba dulu pakai Postman atau Insomnia atau Bruno atau malah Thunder Client. Berikut tutorial ringkasnya, Nembak API untuk LLM: Cepat dan Tangkas.
Selamat mencoba Llama 4!
Terima kasih sudah membaca tulisan ini! Sebelumnya, celotehan ini hadir sebagai sebuah utas di lapak Threads saya. Bila dirasakan berfaedah, bagikan juga bahasan ini dengan teman-teman penggandrung LLM yang lain.
Supaya tidak ketinggalan, ikuti saya dan juga langganan (gratis) Substack saya ini. Dukungan ini sangat berarti buat saya. Jabat erat!
Belum mengulas tentang MCP pak?