Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Launchpad
Jadi yang pertama untuk proyek token besar berikutnya
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Studi DeepMind Mengungkap Enam Cara Peretas Dapat Memanipulasi Agen AI
TLDR
Peneliti di Google DeepMind telah mengidentifikasi enam metode serangan yang dapat memanipulasi agen AI secara online. Studi ini menunjukkan bagaimana agen AI dapat dipengaruhi melalui konten web, instruksi tersembunyi, dan sumber data yang diracuni. Akibatnya, temuan tersebut menyoroti meningkatnya risiko saat perusahaan menerapkan agen AI untuk tugas dunia nyata di lingkungan digital.
Manipulasi Konten dan Semantik Mengungkap Kelemahan Inti
Peneliti mengidentifikasi jebakan penyuntikan konten sebagai ancaman langsung bagi agen AI selama interaksi web. Instruksi tersembunyi yang ditempatkan di HTML atau metadata dapat mengendalikan tindakan tanpa terdeteksi manusia. Akibatnya, agen AI dapat mengeksekusi perintah yang disematkan dalam elemen halaman yang tidak terlihat.
Manipulasi semantik mengandalkan bahasa yang persuasif, bukan kode tersembunyi, untuk memengaruhi agen AI. Penyerang merancang halaman dengan nada otoritatif dan narasi terstruktur untuk menembus pengaman. Agen AI dapat menafsirkan instruksi berbahaya sebagai tugas yang valid.
Metode-metode ini mengeksploitasi cara agen AI memproses dan memprioritaskan informasi online selama pengambilan keputusan. Studi ini menunjukkan bahwa prompt yang terstruktur dapat mengubah jalur penalaran dengan cara yang halus. Penyerang dapat mengarahkan agen AI menuju tindakan yang tidak diinginkan tanpa memicu pertahanan sistem.
Serangan Memori dan Perilaku Memperluas Permukaan Risiko
Peneliti juga menemukan bahwa penyerang dapat memanipulasi sistem memori yang digunakan agen AI untuk pengambilan informasi. Dengan menyuntikkan data palsu ke sumber tepercaya, penyerang memengaruhi keluaran dan respons jangka panjang. Akibatnya, agen AI dapat memperlakukan informasi yang dibuat-buat sebagai pengetahuan terverifikasi dari waktu ke waktu.
Serangan kontrol perilaku menargetkan langsung tindakan yang dilakukan agen AI selama penelusuran rutin. Instruksi jailbreak yang disematkan dapat menimpa pembatasan dan memicu operasi yang tidak diinginkan. Agen AI dengan izin yang luas dapat mengakses dan mengirimkan data sensitif ke pihak eksternal.
Studi ini menyoroti bahwa risiko-risiko ini meningkat ketika agen AI memperoleh otonomi dan akses sistem. Penyerang dapat mengeksploitasi alur kerja rutin untuk menyisipkan perintah berbahaya ke dalam tugas normal. Agen AI menghadapi paparan yang lebih tinggi ketika diintegrasikan dengan alat dan API eksternal.
Faktor Sistemik dan Manusia Memperkuat Dampak Ancaman
Peneliti memperingatkan bahwa jebakan sistemik dapat memengaruhi banyak agen AI secara bersamaan di seluruh sistem yang saling terhubung. Manipulasi yang terkoordinasi dapat memicu kegagalan berantai yang mirip dengan gangguan pasar yang digerakkan algoritma. Akibatnya, agen AI yang beroperasi di lingkungan bersama dapat memperbesar risiko dalam skala besar.
Pengulas manusia tetap rentan dalam alur kerja dan proses persetujuan agen AI. Penyerang dapat menyusun keluaran yang tampak kredibel dan melewati pemeriksaan pengawasan. Agen AI dapat menjalankan tindakan berbahaya setelah menerima persetujuan manusia.
Studi ini menempatkan temuan tersebut dalam konteks yang lebih luas dari meningkatnya penerapan AI di berbagai industri. Agen AI kini menangani tugas seperti komunikasi, pembelian, dan koordinasi melalui sistem otomatis. Mengamankan lingkungan operasional menjadi sama pentingnya dengan meningkatkan desain model.
Peneliti merekomendasikan pelatihan lawan (adversarial training), penyaringan input, dan sistem pemantauan untuk mengurangi paparan. Studi ini mencatat bahwa pertahanan masih terfragmentasi dan tidak memiliki standar di seluruh industri. Saat agen AI terus memperluas perannya, kebutuhan akan pengaman yang terkoordinasi menjadi semakin mendesak.