Baru saja melihat sesuatu yang menarik tentang penelitian terbaru Mem0—mereka membuat gelombang besar dalam bagaimana AI benar-benar mengingat hal-hal selama percakapan panjang.



Jadi begini: Mem0 baru saja merilis temuan mereka tentang tolok ukur LOCOMO, dan angka-angkanya cukup luar biasa. Algoritma memori jangka panjang mereka mencapai akurasi 26% lebih tinggi dibandingkan pengaturan memori bawaan OpenAI. Itu bukan jarak yang kecil. Tapi yang benar-benar menarik perhatian saya adalah sisi efisiensi—mereka memotong latensi inferensi P95 sebesar 91% dan mengurangi konsumsi token sebesar 90%. Kita berbicara tentang menyelesaikan masalah klasik AI di mana sistem ini... lupa hal-hal saat percakapan menjadi panjang.

Pendekatannya juga cerdas. Alih-alih hanya menambahkan lebih banyak konteks ke masalah seperti yang dilakukan kebanyakan orang, Mem0 menggunakan sistem dua tahap. Pertama, mereka mengekstrak fakta-fakta sebenarnya dari pesan terbaru, ringkasan, dan riwayat Anda. Kemudian mereka membandingkannya dengan basis data vektor dan memperbarui sesuai—menambahkan hal baru, memperbarui konflik, menghapus data yang tidak relevan. Menjaga semuanya tetap bersih dan konsisten. Mereka bahkan membangun versi yang ditingkatkan bernama Mem0ᵍ yang menggunakan struktur graf untuk memetakan hubungan kompleks antar entitas di berbagai sesi.

Apa yang benar-benar penting? Kecepatan. Dalam produksi, Mem0 menangani seluruh siklus—mengambil memori, menghasilkan respons, semuanya—dalam 0,71 detik. Metode tradisional masih terjebak di hampir 10 detik. Itulah perbedaan yang benar-benar penting untuk aplikasi dunia nyata.

Penelitian ini diterima oleh ECAI dan mereka merilisnya secara sumber terbuka di GitHub, sehingga orang bisa benar-benar menyelami cara kerjanya. Ini terasa seperti salah satu langkah maju yang bertahap tetapi penting dalam membuat agen AI kurang pelupa. Layak diperhatikan jika Anda mengikuti sisi memori dan penalaran dalam pengembangan AI.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan