Jin10 dados 11 de abril - De acordo com o Financial Times do Reino Unido, a OpenAI reduziu drasticamente o tempo e os recursos usados para testar a segurança de seus poderosos modelos de inteligência artificial, o que levantou preocupações sobre o lançamento apressado de sua tecnologia sem garantias suficientes. Em comparação com alguns meses atrás, os funcionários e equipes externas tiveram recentemente apenas alguns dias para "avaliar" o mais recente grande modelo de linguagem da OpenAI. De acordo com oito pessoas familiarizadas com o processo de teste da OpenAI, os testes da startup tornaram-se menos rigorosos, sem tempo e recursos suficientes dedicados à identificação e mitigação de riscos, já que a startup, com uma capitalização de mercado de 300 bilhões de dólares, enfrenta a pressão de lançar novos modelos rapidamente e manter a vantagem competitiva. Fontes informaram que a OpenAI está tentando lançar seu novo modelo o3 já na próxima semana, dando a alguns testadores menos de uma semana para realizar verificações de segurança. Anteriormente, a OpenAI permitia meses para testes de segurança.
O conteúdo é apenas para referência, não uma solicitação ou oferta. Nenhum aconselhamento fiscal, de investimento ou jurídico é fornecido. Consulte a isenção de responsabilidade para obter mais informações sobre riscos.
3 Curtidas
Recompensa
3
2
Compartilhar
Comentário
0/400
UnauthenticatedUsers
· 04-11 05:05
Ver traduçãoResponder0
4alone
· 04-11 05:04
A Procuradora-Geral do Estado de Nova Iorque, Letitia James, instou a um reforço da regulação das criptomoedas, opondo-se à sua inclusão nos planos de pensões dos EUA. Ela acredita que as criptomoedas não têm valor intrínseco, são altamente voláteis e não são adequadas para poupança para a aposentadoria. James também expressou preocupações de que as criptomoedas não regulamentadas possam ameaçar a segurança nacional, enfraquecer a posição do dólar e desestabilizar os mercados financeiros, propondo um reforço da regulamentação para os emissores de moeda estável. (Cointelegraph)
Meios de comunicação britânicos: OpenAI reduziu o tempo de testes de segurança dos modelos de IA
Jin10 dados 11 de abril - De acordo com o Financial Times do Reino Unido, a OpenAI reduziu drasticamente o tempo e os recursos usados para testar a segurança de seus poderosos modelos de inteligência artificial, o que levantou preocupações sobre o lançamento apressado de sua tecnologia sem garantias suficientes. Em comparação com alguns meses atrás, os funcionários e equipes externas tiveram recentemente apenas alguns dias para "avaliar" o mais recente grande modelo de linguagem da OpenAI. De acordo com oito pessoas familiarizadas com o processo de teste da OpenAI, os testes da startup tornaram-se menos rigorosos, sem tempo e recursos suficientes dedicados à identificação e mitigação de riscos, já que a startup, com uma capitalização de mercado de 300 bilhões de dólares, enfrenta a pressão de lançar novos modelos rapidamente e manter a vantagem competitiva. Fontes informaram que a OpenAI está tentando lançar seu novo modelo o3 já na próxima semana, dando a alguns testadores menos de uma semana para realizar verificações de segurança. Anteriormente, a OpenAI permitia meses para testes de segurança.