Como as Empresas Estão Combatendo o Lado Sombrio da IA

Em Resumo

A integração da IA na vida diária levanta preocupações sobre a segurança. Empresas, governos e alianças preenchem o vazio, abordando o funcionamento, causando preocupação e faltando.

Como as Empresas Estão Combatendo o Lado Sombrio da IA

A inteligência artificial está a tornar-se cada vez mais integrada nas nossas vidas diárias, desde chatbots que fornecem apoio emocional até algoritmos que maximizam o comércio, e as suas preocupações estão a tornar-se mais evidentes. As questões já não são "se", mas quem e como irá direcionar a IA para a segurança.

As empresas, governos e alianças multinacionais estão progressivamente a preencher o vazio, às vezes de forma reativa, às vezes de forma prescritiva. Aqui está um esboço do que está a funcionar, do que está a causar preocupação e do que ainda falta.

Os Titãs da Tecnologia Apertam as Rédeas

Meta Adiciona Barreiras para Adolescentes

Em resposta à reação pública e política, a Meta comprometeu-se a reforçar suas salvaguardas de IA:

Os seus chatbots agora recusarão discutir autolesões, suicídio ou problemas alimentares com adolescentes, referindo-os em vez disso a profissionais de saúde mental.

Esta é parte de uma iniciativa maior de “contas para adolescentes” no Facebook, Instagram e Messenger que visa proporcionar experiências mais seguras e conscientização dos pais, incluindo a capacidade de saber com quais bots as crianças interagiram na semana anterior.

Críticos afirmam que estas ações já vêm tarde, especialmente considerando dados vazados que indicam que bots podem ter participado em conversas "sensuais" embaraçosas com crianças. "Testes de segurança robustos devem ocorrer antes de os produtos serem colocados no mercado, não retrospectivamente", advertiu um defensor.

Meta Opta por Não Participar do Código de IA Voluntário da UE

A União Europeia lançou um Código de Práticas voluntário para ajudar os desenvolvedores de IA a alinhar-se com a sua Lei da IA. A Meta recusou-se a assinar, chamando-o de exagero burocrático que arrisca prejudicar a inovação.

Colaboração do Governo dos EUA

A OpenAI e a Anthropic concordaram em compartilhar os seus modelos de IA com o Instituto de Segurança de IA dos EUA tanto antes quanto depois da publicação. A ideia é obter contribuições para a segurança e reduzir os perigos por meio da inspeção governamental.

Em agosto de 2025, 44 procuradores gerais dos EUA assinaram uma carta conjunta incentivando as principais empresas de IA, incluindo Meta, OpenAI, Microsoft, Google e Replika, a proteger melhor os menores de materiais de IA predatórios.

Illinois proíbe IA como terapia

Illinois tornou-se um dos primeiros estados a proibir o uso de chatbots com inteligência artificial como terapia, a menos que supervisionados por um profissional certificado. Nevada e Utah implementaram limitações semelhantes. Os infratores podem enfrentar penalidades civis de até 10.000 $.

Estruturas Legislativas Globais

As regulamentações estão a desenvolver-se por todo o mundo, desde o Ato de IA da UE até à Lei de Proteção de Dados da Índia e aos requisitos de segurança da Coreia do Sul. Um número crescente de estados dos EUA está a implementar legislação específica sobre IA ou a expandir estruturas atuais, como a proteção do consumidor, a transparência algorítmica e as auditorias de viés.

O senador Wiener da Califórnia sugeriu uma legislação que obriga as principais empresas de IA a divulgarem publicamente suas práticas de segurança e a reportarem incidentes importantes às autoridades estaduais.

Institutos de Segurança da IA: Supervisão Multinacional

Para garantir uma revisão de IA independente e padronizada, as nações estabeleceram Institutos de Segurança de IA:

Os EUA e o Reino Unido criaram institutos nacionais após a Cúpula de Segurança da IA de 2023.

Até 2025, muitos países se juntaram a uma rede, incluindo Japão, França, Alemanha, Itália, Singapura, Coreia do Sul, Canadá e a UE, para avaliar a segurança dos modelos e estabelecer normas globais de supervisão.

Relatórios Revelam Lacunas Persistentes

O Future of Life Institute (FLI) classifica as empresas de IA com D ou inferior em planejamento de segurança existencial; nenhuma obteve nota acima de C+. A Anthropic ficou em primeiro lugar com um C+, seguida pela OpenAI (C) e pela Meta (D).

Antigos funcionários da OpenAI acusam a empresa de priorizar o lucro em detrimento da segurança, levantando preocupações sobre transparência e ética nos bastidores.

Desde as barreiras de proteção para adolescentes da Meta até a proibição de tratamento em Illinois, passando por empresas como a SSI integrando segurança na IA, a mensagem é clara: a legislação e a previsão estão ficando para trás em relação à tecnologia. Dados vazados, litígios e escrutínio internacional demonstram que o dano geralmente vem primeiro. A tarefa não é apenas desenvolver uma IA melhor, mas também garantir que cada avanço proteja as pessoas antes que a catástrofe aconteça.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar
Faça trade de criptomoedas em qualquer lugar e a qualquer hora
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)