BlockBeats notícias, 21 de outubro, a empresa de gestão de pensões e investimentos com sede em Londres, Legal & General (L&G), que gerencia 15 trilhões de dólares em ativos, está planejando entrar no campo cada vez mais popular de tokenização baseada em blockchain. A tokenização (ou seja, a representação de ativos tradicionais, como fundos do mercado monetário apoiados por títulos do Tesouro dos EUA, por meio de tokens na blockchain) está se tornando cada vez mais popular nas empresas TradFi. Com a maior gestora de ativos do mundo, BlackRock, lançando seu fundo BUIDL na blockchain ETH, essa tendência está se acelerando ainda mais. Outras empresas incluem Franklin Templeton, State Street e Abrdn. Executivos da L&G afirmam: 'Estamos avaliando formas de fornecer o fundo de liquidez da Legal & General Investment Management em forma de tokenização.'
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
O gigante britânico de pensões L&G procura entrar no campo da tokenização de ativos de criptografia.
BlockBeats notícias, 21 de outubro, a empresa de gestão de pensões e investimentos com sede em Londres, Legal & General (L&G), que gerencia 15 trilhões de dólares em ativos, está planejando entrar no campo cada vez mais popular de tokenização baseada em blockchain. A tokenização (ou seja, a representação de ativos tradicionais, como fundos do mercado monetário apoiados por títulos do Tesouro dos EUA, por meio de tokens na blockchain) está se tornando cada vez mais popular nas empresas TradFi. Com a maior gestora de ativos do mundo, BlackRock, lançando seu fundo BUIDL na blockchain ETH, essa tendência está se acelerando ainda mais. Outras empresas incluem Franklin Templeton, State Street e Abrdn. Executivos da L&G afirmam: 'Estamos avaliando formas de fornecer o fundo de liquidez da Legal & General Investment Management em forma de tokenização.'