Menteri Komdigi Sebut Kehadiran DeepSeek Melegakan untuk Indonesia

Meski DeepSeek bukan buatan Indonesia, Menteri Komdigi Meutya Hafid menilai kehadiran AI buatan Cina ini melegakan.

Menteri Komdigi Sebut Kehadiran DeepSeek Melegakan untuk Indonesia

belakangan viral karena biaya pengembangan AI atau kecerdasan buatan yang lebih murah ketimbang ChatGPT milik OpenAI. Meski bukan buatan Indonesia, Menteri alias Komunikasi dan Digital Meutya Hafid menilai kehadiran AI buatan Cina ini melegakan.

“Dari DeepSeek, kami belajar bahwa keberhasilan tidak selalu bergantung pada modal besar. Saya rasa agak melegakan untuk Indonesia mendengar hal ini,” kata Meutya dalam sambutan di acara BeritaSatu Outlook di The Westin, Jakarta, Kamis (30/1).

Ia membandingkan investasi pembuatan DeepSeek US$ 5,6 juta dengan perolehan dana dari pencatatan saham perdana alias IPO Bukalapak US$ 1,3 miliar. 

DeepSeek juga bersifat open source alias terbuka bagi seluruh pengembang. Biaya berlangganan layanan premium juga lebih murah yakni US$ 0,5 atau Rp 8.116 per bulan, dibandingkan ChatGPT US$ 20 n atau Rp 324.620.

Menurut Meutya, DeepSeek memberikan gambaran startup yang mendorong efisiensi, tetapi siap menghadapi perubahan teknologi. “Terobosan-terobosan ini yang perlu kita lakukan di negara ini,” ujarnya.

DeepSeek memang mengembangkan inovasi baru, sehingga biaya pengembangan AI lebih murah. Platform buatan Cina ini menggunakan desain yang disebut Mixture of Experts atau MoE. MoE adalah model arsitektur AI yang membagi tugas pemrosesan ke beberapa submodel yang disebut ‘experts’, lalu menggabungkan hasilnya dengan gating mechanism.

Konsep itu bertujuan meningkatkan efisiensi dan akurasi model dengan hanya mengaktifkan sebagian kecil dari seluruh model pada setiap input.

Cara kerja MoE sebagai berikut:

  1. Gating Network: Model kecil yang menentukan experts mana yang akan digunakan berdasarkan input.
  2. Experts: Beberapa model yang dilatih untuk menangani bagian tertentu dari data.
  3. Weighted Combination: Output dari experts yang dipilih digabungkan berdasarkan bobot yang ditentukan oleh gating network.

Keunggulan MoE di antaranya:

  1. Efisiensi komputasi: Hanya sebagian kecil dari model yang diaktifkan pada setiap inferensi, sehingga lebih hemat dibanding model besar monolitik.
  2. Scalability: Bisa menangani model dengan jumlah parameter yang sangat besar tanpa meningkatkan biaya komputasi secara drastis.
  3. Spesialisasi: Experts bisa dilatih untuk menangani tugas spesifik, sehingga meningkatkan akurasi dan kinerja.

DeepSeek dilatih pada 14,8 triliun informasi yang disebut token. Token adalah bagian teks, seperti kata atau fragmen kata, yang diproses model untuk memahami dan menghasilkan bahasa. Kumpulan data besar ini memberikan hasil yang akurat.

DeepSeek menyelesaikan pelatihan hanya dengan 2,788 juta jam waktu komputasi menggunakan GPU H800. Meski begitu, jawaban yang dihasilkan mirip dengan beberapa model AI, seperti GPT-4 dan Claude-3.5-Sonnet.

Sementara itu, pelatihan dan penerapan ChatGPT memerlukan sumber daya komputasi yang signifikan. OpenAI melatih model menggunakan infrastruktur superkomputer yang disediakan oleh Microsoft Azure, yang menangani beban kerja AI skala besar secara efisien.

Meskipun OpenAI belum mengungkapkan biaya pelatihan yang pasti, perkiraan menunjukkan bahwa pelatihan model GPT, khususnya GPT-4, melibatkan jutaan jam GPU, yang mengakibatkan biaya operasional yang besar.