Компанія, що розробляє чат-ботів на основі штучного інтелекту, наразі піддається розслідуванню з боку генерального прокурора Каліфорнії після того, як з’явилися звинувачення у тому, що її система генерації зображень була неправомірно використана для створення тисяч неприйнятних зображень жінок і неповнолітніх без їхньої згоди. Розслідування зосереджене на тому, чи були інструменти платформи використані у спосіб, що порушує згоду користувачів і захист приватності. Ця справа привернула увагу до зростаючих занепокоєнь щодо того, як швидко розвиваються технології штучного інтелекту і як їх регулюють. Інцидент підкреслює ширші питання у технологічній спільноті щодо модерації контенту, рамок згоди та відповідальності компаній, що розробляють генеративні системи ШІ. Спостерігачі галузі уважно стежать за тим, як регулятори досліджують перетин інновацій у сфері ШІ і захисту прав споживачів, зокрема щодо заходів безпеки для створення чутливого контенту.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
11 лайків
Нагородити
11
5
Репост
Поділіться
Прокоментувати
0/400
SnapshotStriker
· 12год тому
ngl це вже занадто... створювати непотрібні картинки і перекладати провину, ця схема вже всім набридла.
Переглянути оригіналвідповісти на0
MentalWealthHarvester
· 23год тому
ngl ця справа просто безглузда... все більше і більше випадків створення недоречних зображень
---
Знову питання приватності, ai-компанії дійсно потрібно серйозно зайнятися цим
---
Прокурор штату Каліфорнія почав діяти, здається, регулювання вже на підході
---
Мільйони непристойних зображень... що це за нововведення, чисте руйнування
---
Хочу запитати, хто, блін, погодиться, щоб інші випадково використовували його обличчя... божевілля
---
Контроль контенту — справжня проблема для ai-компаній, нічого не може зупинити
---
Жінки та неповнолітні — їх теж не обійшли... дійсно потрібно штрафувати
---
Раптом згадалося багато подібних випадків, це явно не вперше
---
Отже, це ціна інновацій? Порушення приватності заради технологічного прогресу?
---
Параметри згоди потрібно переформулювати, тепер ті умови фактично не мають сили
Переглянути оригіналвідповісти на0
ruggedNotShrugged
· 23год тому
Знову така ситуація... AI-компанія знову потрапила у скандал, створювати такі речі без обмежень — це справді неймовірно
Переглянути оригіналвідповісти на0
Layer2Observer
· 23год тому
Давайте подивимося на дані, такі події дійсно потрібно аналізувати на рівні вихідного коду. Без рамкової системи consent надавати дозволи хаотично, по суті, означає, що інженери не належним чином налаштували контроль доступу. Теоретично це не повинно було статися — бракує тієї базової логіки валідації.
Переглянути оригіналвідповісти на0
ChainComedian
· 23год тому
ngl це саме тому, чому я постійно кажу, що проєктні команди Web3 також мають бути обережними — регуляторна рука рано чи пізно постукає
---
Ще одна компанія з AI зірвалася. Обіцяли відповідальний AI, а тут сміх і гріх
---
Хоча я й критикую AI, але ця ситуація справді страшна. Можна легко створити такі речі? Хто за цим слідкує?
---
У Каліфорнії діяти досить швидко, але здається, що великі компанії давно грають у сіру зону
---
Таких випадків стає все більше, AI-компаніям справді потрібно ставитися до згоди серйозно, а не просто вибачатися і відмазуватися
Компанія, що розробляє чат-ботів на основі штучного інтелекту, наразі піддається розслідуванню з боку генерального прокурора Каліфорнії після того, як з’явилися звинувачення у тому, що її система генерації зображень була неправомірно використана для створення тисяч неприйнятних зображень жінок і неповнолітніх без їхньої згоди. Розслідування зосереджене на тому, чи були інструменти платформи використані у спосіб, що порушує згоду користувачів і захист приватності. Ця справа привернула увагу до зростаючих занепокоєнь щодо того, як швидко розвиваються технології штучного інтелекту і як їх регулюють. Інцидент підкреслює ширші питання у технологічній спільноті щодо модерації контенту, рамок згоди та відповідальності компаній, що розробляють генеративні системи ШІ. Спостерігачі галузі уважно стежать за тим, як регулятори досліджують перетин інновацій у сфері ШІ і захисту прав споживачів, зокрема щодо заходів безпеки для створення чутливого контенту.