شركة روبوت محادثة بالذكاء الاصطناعي تواجه الآن تحقيقًا من المدعي العام في كاليفورنيا بعد ظهور ادعاءات بأن نظام توليد الصور الخاص بها تم استخدامه بشكل خاطئ لإنتاج الآلاف من الصور غير اللائقة للنساء والأحداث بدون إذنهم. يركز التحقيق على ما إذا كانت أدوات المنصة قد تم استخدامها بطرق تنتهك موافقة المستخدمين وحماية الخصوصية. لقد جذب هذا الحادث الانتباه إلى المخاوف المتزايدة حول كيفية مراقبة وتنظيم التقنيات المتقدمة بسرعة في مجال الذكاء الاصطناعي. ويؤكد الحادث على أسئلة أوسع داخل مجتمع التكنولوجيا حول مراقبة المحتوى، وأطر الموافقة، ومسؤولية الشركات التي تطور أنظمة الذكاء الاصطناعي التوليدية. يراقب المراقبون في الصناعة عن كثب مع فحص المنظمين لتقاطع الابتكار في الذكاء الاصطناعي وحماية المستهلك، لا سيما فيما يتعلق بضمانات حماية المحتوى الحساس.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تسجيلات الإعجاب 11
أعجبني
11
5
إعادة النشر
مشاركة
تعليق
0/400
SnapshotStriker
· منذ 13 س
ngl هذا أمر غير معقول... إنشاء صور لا ينبغي إنشاؤها ثم إلقاء اللوم، هذه الحيلة أصبحت مألوفة جدًا.
مرة أخرى هذا الأمر... شركة الذكاء الاصطناعي تدهورت مرة أخرى، إنتاج مثل هذه الأشياء دون قيود، حقًا أمر مذهل
شاهد النسخة الأصليةرد0
Layer2Observer
· منذ 23 س
دعونا نلقي نظرة على البيانات، فمثل هذه الأحداث تتطلب حقًا تحليل من مستوى الكود المصدري. بدون إطار عمل consent، يتم منح الأذونات بشكل عشوائي، وباختصار، المهندسون لم ينجحوا في تنفيذ التحكم في الوصول بشكل صحيح. من الناحية النظرية، لم يكن ينبغي أن يحدث ذلك — ما ينقص هو تلك المنطق الأساسي للتحقق.
شركة روبوت محادثة بالذكاء الاصطناعي تواجه الآن تحقيقًا من المدعي العام في كاليفورنيا بعد ظهور ادعاءات بأن نظام توليد الصور الخاص بها تم استخدامه بشكل خاطئ لإنتاج الآلاف من الصور غير اللائقة للنساء والأحداث بدون إذنهم. يركز التحقيق على ما إذا كانت أدوات المنصة قد تم استخدامها بطرق تنتهك موافقة المستخدمين وحماية الخصوصية. لقد جذب هذا الحادث الانتباه إلى المخاوف المتزايدة حول كيفية مراقبة وتنظيم التقنيات المتقدمة بسرعة في مجال الذكاء الاصطناعي. ويؤكد الحادث على أسئلة أوسع داخل مجتمع التكنولوجيا حول مراقبة المحتوى، وأطر الموافقة، ومسؤولية الشركات التي تطور أنظمة الذكاء الاصطناعي التوليدية. يراقب المراقبون في الصناعة عن كثب مع فحص المنظمين لتقاطع الابتكار في الذكاء الاصطناعي وحماية المستهلك، لا سيما فيما يتعلق بضمانات حماية المحتوى الحساس.