Esta manhã, quando fui à loja de conveniência no piso inferior comprar café, a caixa estava a conversar com outro cliente. O tipo estava a pagar com reconhecimento facial e comentou: "Agora, quem é que não está a correr nu em termos de privacidade?"
Senti um aperto no coração — esta frase é tão verdadeira. Nos últimos anos, tornamo-nos cada vez mais dependentes de várias aplicações de IA e blockchain, mas a cada vez que "usamos", na verdade, estamos silenciosamente entregando nossa privacidade. Seja o endereço da carteira, os registros de transações, ou os hábitos de vida, ou os dados de treinamento do modelo, tudo está à vista. Em outras palavras, quanto mais usamos, mais nos expomos.
Até que recentemente estudei um projeto chamado Zama (@zama), foi a primeira vez que pensei que, talvez no futuro, realmente haja a oportunidade de "usar IA sem estar exposto".
Eles estão lidando com algo que soa muito sofisticado - FHE, criptografia homomórfica completa. Não se deixe assustar por esse nome, na essência é apenas: 👉 Os dados podem ser "usados" por programas mesmo em estado criptografado. 👉 Pode calcular e executar diretamente sem precisar de descriptografar primeiro.
Por exemplo, se eu pedir à IA para me ajudar a calcular a estrutura salarial, antes tinha que "desbloquear" os dados salariais para ela; mas com o FHEVM da Zama, a IA pode realizar o cálculo sem "ver" os dados. É como: você dá a ele uma caixa trancada, e ele consegue realizar a tarefa com precisão sem abri-la. Privacidade, totalmente bloqueada.
Zama trouxe esse princípio para o campo de aprendizado de máquina, criando o Concrete ML. Isso significa que modelos de IA também podem ser treinados e inferidos diretamente em dados criptografados. Imagine - os dados dos hospitais do futuro não precisam ser compartilhados, os dados internos das empresas não precisam correr riscos, a IA também pode aprender e calcular. E eles também seguem uma abordagem de código aberto, permitindo que os desenvolvedores experimentem e façam alterações livremente. Não é algo fechado, mas sim uma intenção de fazer com que todo o ecossistema Web3 e AI se una para crescer juntos.
Muitas pessoas dizem que "privacidade e eficiência não podem coexistir", mas a abordagem da Zama refuta essa afirmação. Isto não é apenas uma pequena atualização técnica, mas sim uma mudança de paradigma. Se você também se preocupa com o futuro dos seus dados, talvez este projeto mereça a sua atenção. #ZamaCreatorProgram Zama #ZamaFHE
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
Esta manhã, quando fui à loja de conveniência no piso inferior comprar café, a caixa estava a conversar com outro cliente. O tipo estava a pagar com reconhecimento facial e comentou: "Agora, quem é que não está a correr nu em termos de privacidade?"
Senti um aperto no coração — esta frase é tão verdadeira.
Nos últimos anos, tornamo-nos cada vez mais dependentes de várias aplicações de IA e blockchain, mas a cada vez que "usamos", na verdade, estamos silenciosamente entregando nossa privacidade. Seja o endereço da carteira, os registros de transações, ou os hábitos de vida, ou os dados de treinamento do modelo, tudo está à vista. Em outras palavras, quanto mais usamos, mais nos expomos.
Até que recentemente estudei um projeto chamado Zama (@zama), foi a primeira vez que pensei que, talvez no futuro, realmente haja a oportunidade de "usar IA sem estar exposto".
Eles estão lidando com algo que soa muito sofisticado - FHE, criptografia homomórfica completa. Não se deixe assustar por esse nome, na essência é apenas:
👉 Os dados podem ser "usados" por programas mesmo em estado criptografado.
👉 Pode calcular e executar diretamente sem precisar de descriptografar primeiro.
Por exemplo, se eu pedir à IA para me ajudar a calcular a estrutura salarial, antes tinha que "desbloquear" os dados salariais para ela; mas com o FHEVM da Zama, a IA pode realizar o cálculo sem "ver" os dados.
É como: você dá a ele uma caixa trancada, e ele consegue realizar a tarefa com precisão sem abri-la.
Privacidade, totalmente bloqueada.
Zama trouxe esse princípio para o campo de aprendizado de máquina, criando o Concrete ML. Isso significa que modelos de IA também podem ser treinados e inferidos diretamente em dados criptografados.
Imagine - os dados dos hospitais do futuro não precisam ser compartilhados, os dados internos das empresas não precisam correr riscos, a IA também pode aprender e calcular.
E eles também seguem uma abordagem de código aberto, permitindo que os desenvolvedores experimentem e façam alterações livremente. Não é algo fechado, mas sim uma intenção de fazer com que todo o ecossistema Web3 e AI se una para crescer juntos.
Muitas pessoas dizem que "privacidade e eficiência não podem coexistir", mas a abordagem da Zama refuta essa afirmação.
Isto não é apenas uma pequena atualização técnica, mas sim uma mudança de paradigma.
Se você também se preocupa com o futuro dos seus dados, talvez este projeto mereça a sua atenção.
#ZamaCreatorProgram Zama #ZamaFHE