Uma empresa de chatbot de IA está agora a enfrentar uma investigação por parte do procurador-geral da Califórnia após surgirem alegações de que o seu sistema de geração de imagens foi mal utilizado para produzir milhares de imagens inadequadas de mulheres e menores sem o seu consentimento. A investigação centra-se em se as ferramentas da plataforma foram utilizadas de formas que violaram o consentimento dos utilizadores e as proteções de privacidade. Este caso chamou a atenção para as crescentes preocupações sobre como as tecnologias de IA em rápida evolução estão a ser monitorizadas e reguladas. O incidente destaca questões mais amplas dentro da comunidade tecnológica sobre moderação de conteúdo, quadros de consentimento e a responsabilidade das empresas que desenvolvem sistemas de IA generativa. Observadores do setor estão a acompanhar de perto enquanto os reguladores examinam a interseção entre inovação em IA e proteção do consumidor, particularmente no que diz respeito a salvaguardas para a criação de conteúdo sensível.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
11 gostos
Recompensa
11
5
Republicar
Partilhar
Comentar
0/400
SnapshotStriker
· 11h atrás
ngl isto é inadmissível... gerar imagens que não deveriam ser criadas e depois culpar os outros, esse esquema já está batido.
Ver originalResponder0
MentalWealthHarvester
· 21h atrás
ngl esta coisa é simplesmente absurda... gerar imagens inadequadas está cada vez mais comum agora
---
Mais uma vez, questões de privacidade, as empresas de IA realmente precisam de uma fiscalização adequada
---
O procurador-geral da Califórnia entrou em ação, parece que a regulamentação está chegando
---
Milhares de imagens indecentes... que inovação é essa, pura destruição
---
Só quero saber quem diabos vai concordar em deixar os outros usarem livremente a própria cara... loucura
---
A fiscalização de conteúdo por parte das empresas de IA realmente não funciona, nada consegue bloquear tudo
---
Nem mulheres nem menores de idade foram poupados... realmente é preciso penalizar
---
De repente lembrei de uma série de eventos semelhantes, isso definitivamente não é a primeira vez
---
Então, essa é a consequência da inovação? Violação de privacidade em troca de avanço tecnológico?
---
O quadro de consentimento precisa ser redefinido, agora esses termos são praticamente inúteis
Ver originalResponder0
ruggedNotShrugged
· 21h atrás
Mais uma dessas... A empresa de IA voltou a ter problemas, gerar esse tipo de coisa sem restrições, realmente inacreditável
Ver originalResponder0
Layer2Observer
· 21h atrás
Vamos dar uma olhada nos dados, esse tipo de evento realmente precisa ser analisado a partir do código-fonte. Sem um framework de consentimento, conceder permissões aleatoriamente, na verdade, é um problema de os engenheiros não terem feito um controle de acesso adequado. Em teoria, isso não deveria acontecer — o que falta é aquela lógica básica de validação.
Ver originalResponder0
ChainComedian
· 22h atrás
ngl esta é a razão pela qual tenho vindo a dizer que os projetos de Web3 também precisam de ser cautelosos, a repressão regulatória virá cedo ou tarde
---
Mais uma empresa de IA que falha, onde está a IA responsável prometida? Ri-me
---
Apesar de criticar a IA, esta situação é realmente assustadora. Pode gerar este tipo de conteúdo facilmente? Quem vai controlar?
---
A Califórnia está a agir rapidamente, mas parece que estas grandes empresas já operam na zona cinzenta há bastante tempo
---
Este tipo de casos está a aumentar, as empresas de IA precisam realmente de levar o consentimento a sério, não podem sempre se safar com desculpas
Uma empresa de chatbot de IA está agora a enfrentar uma investigação por parte do procurador-geral da Califórnia após surgirem alegações de que o seu sistema de geração de imagens foi mal utilizado para produzir milhares de imagens inadequadas de mulheres e menores sem o seu consentimento. A investigação centra-se em se as ferramentas da plataforma foram utilizadas de formas que violaram o consentimento dos utilizadores e as proteções de privacidade. Este caso chamou a atenção para as crescentes preocupações sobre como as tecnologias de IA em rápida evolução estão a ser monitorizadas e reguladas. O incidente destaca questões mais amplas dentro da comunidade tecnológica sobre moderação de conteúdo, quadros de consentimento e a responsabilidade das empresas que desenvolvem sistemas de IA generativa. Observadores do setor estão a acompanhar de perto enquanto os reguladores examinam a interseção entre inovação em IA e proteção do consumidor, particularmente no que diz respeito a salvaguardas para a criação de conteúdo sensível.