Esta mañana, cuando fui a la tienda de conveniencia de abajo a comprar café, la cajera estaba charlando con otro cliente. Ese tipo, mientras escaneaba su rostro para pagar, comentaba: "¿Quién no está desnudo en cuanto a su privacidad hoy en día?"
Me dio un vuelco el corazón—esta frase es demasiado real. En los últimos años, claramente hemos llegado a depender cada vez más de diversas aplicaciones de IA y blockchain, pero detrás de cada "uso" en realidad estamos entregando silenciosamente nuestra privacidad. Ya sea la dirección de la billetera, los registros de transacciones, o los hábitos de vida y los datos de entrenamiento de modelos, todo está a la vista. En otras palabras, cuanto más usamos, más nos exponemos.
Hasta que investigué recientemente un proyecto llamado Zama (@zama), nunca sentí que tal vez en el futuro realmente haya una oportunidad de "usar AI sin estar expuesto".
Están trabajando en algo que suena muy impresionante: FHE, cifrado homomórfico completo. No te asustes por este nombre, en esencia es: 👉 Los datos pueden ser "usados" por programas incluso en estado encriptado. 👉 No es necesario descomprimir primero, se puede calcular y ejecutar directamente.
Por ejemplo, si pido a la IA que me ayude a calcular la estructura salarial, antes tenía que "desbloquear" los datos salariales para ella; pero con FHEVM de Zama, la IA puede realizar el cálculo sin "ver" los datos. Es como: le das una caja cerrada con llave, y puede completar la tarea de manera precisa sin abrirla. La privacidad está completamente asegurada.
Zama llevó este principio al campo del aprendizaje automático, creando Concrete ML. Esto significa que los modelos de IA también pueden entrenar e inferir directamente sobre datos cifrados. Imagina esto: los datos del hospital del futuro no tienen que ser entregados, los datos internos de la empresa no tienen que correr riesgos, la IA también puede aprender y calcular. Además, también siguen la ruta de código abierto, permitiendo a los desarrolladores probar y modificar libremente. No es un juego cerrado, sino que pretenden que todo el mundo de Web3 y AI se una para hacerlo grande.
Muchas personas dicen que "la privacidad y la eficiencia no se pueden tener al mismo tiempo", pero la forma en que Zama actúa desafía esta afirmación. Esto no es solo una pequeña actualización técnica, sino un cambio de paradigma. Si también te preocupa el futuro de tus datos, tal vez este proyecto merezca que le eches un vistazo. #ZamaCreatorProgram Zama #ZamaFHE
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Esta mañana, cuando fui a la tienda de conveniencia de abajo a comprar café, la cajera estaba charlando con otro cliente. Ese tipo, mientras escaneaba su rostro para pagar, comentaba: "¿Quién no está desnudo en cuanto a su privacidad hoy en día?"
Me dio un vuelco el corazón—esta frase es demasiado real.
En los últimos años, claramente hemos llegado a depender cada vez más de diversas aplicaciones de IA y blockchain, pero detrás de cada "uso" en realidad estamos entregando silenciosamente nuestra privacidad. Ya sea la dirección de la billetera, los registros de transacciones, o los hábitos de vida y los datos de entrenamiento de modelos, todo está a la vista. En otras palabras, cuanto más usamos, más nos exponemos.
Hasta que investigué recientemente un proyecto llamado Zama (@zama), nunca sentí que tal vez en el futuro realmente haya una oportunidad de "usar AI sin estar expuesto".
Están trabajando en algo que suena muy impresionante: FHE, cifrado homomórfico completo. No te asustes por este nombre, en esencia es:
👉 Los datos pueden ser "usados" por programas incluso en estado encriptado.
👉 No es necesario descomprimir primero, se puede calcular y ejecutar directamente.
Por ejemplo, si pido a la IA que me ayude a calcular la estructura salarial, antes tenía que "desbloquear" los datos salariales para ella; pero con FHEVM de Zama, la IA puede realizar el cálculo sin "ver" los datos.
Es como: le das una caja cerrada con llave, y puede completar la tarea de manera precisa sin abrirla.
La privacidad está completamente asegurada.
Zama llevó este principio al campo del aprendizaje automático, creando Concrete ML. Esto significa que los modelos de IA también pueden entrenar e inferir directamente sobre datos cifrados.
Imagina esto: los datos del hospital del futuro no tienen que ser entregados, los datos internos de la empresa no tienen que correr riesgos, la IA también puede aprender y calcular.
Además, también siguen la ruta de código abierto, permitiendo a los desarrolladores probar y modificar libremente. No es un juego cerrado, sino que pretenden que todo el mundo de Web3 y AI se una para hacerlo grande.
Muchas personas dicen que "la privacidad y la eficiencia no se pueden tener al mismo tiempo", pero la forma en que Zama actúa desafía esta afirmación.
Esto no es solo una pequeña actualización técnica, sino un cambio de paradigma.
Si también te preocupa el futuro de tus datos, tal vez este proyecto merezca que le eches un vistazo.
#ZamaCreatorProgram Zama #ZamaFHE