Bagaimana Perusahaan Menghadapi Sisi Gelap AI

Secara Singkat

Integrasi AI ke dalam kehidupan sehari-hari menimbulkan kekhawatiran tentang keselamatan. Perusahaan, pemerintah, dan aliansi mengisi kekosongan, menangani fungsi, menimbulkan kekhawatiran, dan kekurangan.

Bagaimana Perusahaan Menghadapi Sisi Gelap AI

Kecerdasan buatan semakin terintegrasi ke dalam kehidupan sehari-hari kita, mulai dari chatbot yang memberikan dukungan emosional hingga algoritma yang memaksimalkan perdagangan, dan kekhawatirannya semakin jelas. Masalahnya bukan lagi "jika," tetapi siapa dan bagaimana yang akan mengarahkan AI menuju keselamatan.

Perusahaan, pemerintah, dan aliansi multinasional secara progresif mengisi kekosongan, kadang-kadang secara reaktif, kadang-kadang secara preskriptif. Berikut adalah garis besar tentang apa yang berfungsi, apa yang menimbulkan kekhawatiran, dan apa yang masih kurang.

Raksasa Teknologi Mengencangkan Kendali

Meta Menambahkan Pengaman untuk Remaja

Menanggapi backlash publik dan politik, Meta berjanji untuk memperkuat perlindungan AI-nya:

Chatbot-nya sekarang akan menolak untuk membahas masalah penyakitan diri, bunuh diri, atau masalah makan dengan remaja, dan sebaliknya merujuk mereka kepada profesional kesehatan mental.

Ini adalah bagian dari inisiatif "akun remaja" yang lebih besar di Facebook, Instagram, dan Messenger yang bertujuan untuk memberikan pengalaman yang lebih aman dan kesadaran orang tua, termasuk kemampuan untuk mengetahui bot mana yang berinteraksi dengan anak-anak dalam minggu sebelumnya.

Kritikus mengklaim bahwa langkah-langkah ini sudah lama tertunda, terutama mengingat data yang bocor menunjukkan bahwa bot mungkin telah terlibat dalam percakapan "sensual" yang memalukan dengan anak-anak. "Pengujian keamanan yang kuat harus dilakukan sebelum produk dipasarkan, bukan secara retrospektif," peringatan seorang advokat.

Meta Menolak Kode AI Sukarela UE

Uni Eropa merilis Kode Praktik sukarela untuk membantu pengembang AI menyesuaikan diri dengan Undang-Undang AI-nya. Meta menolak untuk menandatangani, menyebutnya sebagai campur tangan birokratis yang berisiko menghambat inovasi.

Kolaborasi Pemerintah AS

OpenAI dan Anthropic telah setuju untuk berbagi model AI mereka dengan Institut Keamanan AI AS baik sebelum maupun setelah publikasi. Ide ini adalah untuk mendapatkan masukan keamanan dan mengurangi bahaya melalui inspeksi pemerintah.

Pada bulan Agustus 2025, 44 Jaksa Agung AS menandatangani surat bersama yang mendorong perusahaan AI utama, termasuk Meta, OpenAI, Microsoft, Google, dan Replika, untuk lebih melindungi anak di bawah umur dari materi AI yang predator.

Illinois Melarang AI sebagai Terapi

Illinois telah menjadi salah satu negara bagian pertama yang melarang penggunaan chatbot bertenaga AI sebagai terapi kecuali diawasi oleh seorang profesional bersertifikat. Nevada dan Utah telah menerapkan batasan serupa. Pelanggar mungkin menghadapi sanksi perdata hingga $10,000.

Kerangka Legislasi Global

Regulasi sedang berkembang di seluruh dunia, mulai dari Undang-Undang AI Uni Eropa hingga Undang-Undang Perlindungan Data India dan persyaratan keselamatan Korea Selatan. Semakin banyak negara bagian di AS yang menerapkan undang-undang khusus AI atau memperluas kerangka kerja yang ada seperti perlindungan konsumen, transparansi algoritma, dan audit bias.

Senator Wiener dari California telah mengusulkan undang-undang yang memaksa perusahaan AI besar untuk secara publik mengungkapkan praktik keselamatan mereka dan melaporkan insiden besar kepada otoritas negara.

Institut Keamanan AI: Pengawasan Multi-Nasional

Untuk memastikan tinjauan AI yang independen dan terstandarisasi, negara-negara telah mendirikan Institut Keamanan AI:

AS dan Inggris menciptakan lembaga nasional setelah KTT Keamanan AI 2023.

Pada tahun 2025, banyak negara bergabung dalam sebuah jaringan, termasuk Jepang, Prancis, Jerman, Italia, Singapura, Korea Selatan, Kanada, dan UE, untuk mengevaluasi keselamatan model dan menetapkan standar pengawasan global.

Laporan Mengungkapkan Celah yang Persisten

Future of Life Institute (FLI) memberi nilai D atau di bawahnya kepada perusahaan AI dalam perencanaan keselamatan eksistensial; tidak ada yang mendapatkan nilai di atas C+. Anthropic memimpin dengan C+, diikuti oleh OpenAI (C), dan Meta (D).

Mantan karyawan OpenAI menuduh perusahaan mengutamakan keuntungan di atas keselamatan, menimbulkan kekhawatiran tentang transparansi dan etika di balik pintu tertutup.

Dari pengaman remaja Meta hingga larangan pengobatan di Illinois, hingga perusahaan seperti SSI yang mengintegrasikan keselamatan ke dalam AI, pesan yang disampaikan jelas: legislasi dan visi ke depan tertinggal dari teknologi. Data yang bocor, litigasi, dan pengawasan internasional menunjukkan bahwa kerugian biasanya datang terlebih dahulu. Tugasnya bukan hanya untuk mengembangkan AI yang lebih baik, tetapi juga untuk memastikan bahwa setiap terobosan melindungi orang sebelum bencana terjadi.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
0/400
Tidak ada komentar
  • Sematkan
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)