Conteúdo editorial confiável, revisado por principais especialistas do setor e editores experientes. Divulgação de anúncios
A Fluence está a construir o que as nuvens centralizadas não conseguem: uma camada de computação aberta, de baixo custo e de nível empresarial que é soberana, transparente e aberta a todos.
2025 começou da mesma forma que 2024 terminou, com gigantes da nuvem a investir agressivamente para dominar a infraestrutura de IA. A Microsoft está a investir mais de $80 mil milhões em novos centros de dados, a Google lançou o seu Hypercomputador de IA, a Oracle está a investir $25 mil milhões nos seus clusters de IA StarGate, e a AWS está a priorizar serviços nativos de IA. Os players especializados também estão a escalar rapidamente. A CoreWeave arrecadou $1.5 mil milhões na sua OPI de março e atualmente vale mais de $70 mil milhões
À medida que a IA se torna uma infraestrutura crítica, o acesso à potência de cálculo será uma das batalhas definidoras da nossa era. Enquanto os hyperscalers consolidam e centralizam a potência de cálculo construindo data centers exclusivos e integrando verticalmente o silício, redes como a Fluence oferecem uma visão radicalmente diferente - uma plataforma descentralizada, aberta e neutra para o cálculo de IA, tokenizando o cálculo para atender à demanda exponencial de IA e tendo FLT como um ativo de cálculo tokenizado RWA
A Fluence já está a colaborar com as principais redes de infraestrutura descentralizada em IA (Spheron, Aethir, IO.net) e armazenamento (Filecoin, Arweave, Akave, IPFS) em várias iniciativas, reforçando a sua posição como uma camada de dados de computação neutra. Para dar vida a esta visão, a roadmap para 2025–2026 centra-se na convergência de três áreas-chave de ação:
1. Lançamento de uma Camada de Cálculo Global Alimentada por GPU
Fluence em breve irá suportar nós de GPU em todo o mundo, permitindo que os provedores de computação contribuam com hardware pronto para IA para a rede. Esta nova malha de GPU irá atualizar a plataforma Fluence de capacidade baseada em CPU para uma camada adicional de computação de qualidade AI, projetada para inferência, ajuste fino e servir de modelo. Fluence irá integrar suporte a contêiner para execução segura e portátil de trabalhos de GPU. A contenerização permite servir cargas de trabalho de ML confiáveis e estabelece infraestrutura crítica para futuras aplicações de inferência, ajuste fino e agência em toda a rede descentralizada.
Fluência irá explorar inferência preservando a privacidade através de computação confidencial para GPUs, mantendo dados sensíveis de negócios ou pessoais privados, enquanto ajuda a reduzir os custos da inferência de IA. Usando ambientes de execução confiáveis (TEE) e memória criptografada, esta iniciativa de P&D permite o processamento de carga de trabalho sensível, mantendo a descentralização e apoiando o desenvolvimento de agentes soberanos.
Principais marcos:
GPU nó a bordo - Q3 2025
Suporte em tempo real para tempo de execução de contêineres de GPU - Q4 2025
Lançamento da faixa de P&D de computação de GPU confidencial - T4 2025
Execução confidencial do trabalho piloto - Q2 2026
2. Modelos AI Hospedados e Inferência Unificada
A Fluence irá fornecer modelos populares de código aberto, incluindo LLMs, frameworks de orquestração como LangChain, pilhas de agentes e servidores MCP, com modelos de implantação de um clique. A pilha de IA da plataforma Fluence será expandida com uma camada de inferência integrada para modelos e agentes hospedados. Isso simplifica a implantação de modelos de IA, aproveitando contribuições da comunidade e suporte externo ao desenvolvimento.
Model + orquestração de modelos ao vivo - Q4 2025
Pontos finais de inferência e infraestrutura de roteamento ao vivo - Q2 2026
3. Habilitar SLA Verificável, Orientado pela Comunidade
Fluence irá introduzir uma nova abordagem à confiança e resiliência da rede através dos Guardiões—atores individuais e institucionais que verificam a disponibilidade de computação. Em vez de depender de painéis fechados, os Guardiões monitorizam a infraestrutura através de telemetria descentralizada e ganham recompensas FLT por fazer cumprir acordos de nível de serviço (SLAs).
Os guardiões transformam uma rede de infraestrutura de nível empresarial em algo em que qualquer pessoa pode participar — sem precisar possuir hardware. O programa Guardian é complementado pelo Programa Pointless, um sistema de reputação gamificado que recompensa as contribuições da comunidade e leva à elegibilidade do Guardian.
Principais marcos:
Primeiro lote da Gate - T3 2025
Implementação completa dos Guardiões e SLA programático - T4 2025
4. Integrating AI Compute with a Composable Data Stack
A IA não é apenas cálculo - é cálculo + dados. A Fluence está a construir integrações profundas com redes de armazenamento descentralizadas como o Filecoin, Arweave, Akave e IPFS para fornecer aos programadores acesso a conjuntos de dados verificáveis juntamente com ambientes de execução. Estas integrações permitirão aos utilizadores definir tarefas que acedam a dados persistentes e distribuídos e corram em nós com suporte de GPU - transformando a Fluence numa infraestrutura de IA completa que é orquestrada via FLT
Para apoiar isso, a rede oferecerá modelos componíveis e módulos SDK pré-construídos para conectar trabalhos de computação com buckets de armazenamento ou conjuntos de dados on-chain. Os desenvolvedores que constroem agentes de IA, ferramentas de inferência LLM ou aplicações científicas poderão tratar o Fluence como um pipeline de IA modular - com dados abertos, computação e validação ligados pela lógica do protocolo.
Principais marcos:
Backups de armazenamento descentralizado - Q1 2026
Acesso integrado aos conjuntos de dados para cargas de trabalho de IA – Q3 2026
Da Computação Sem Nuvens à Inteligência Partilhada
Com uma roadmap focada na integração de GPU, execução verificável e acesso contínuo aos dados, a Fluence está a estabelecer as bases para a próxima era da IA—uma que não será controlada por um punhado de hyperscalers, mas sim impulsionada por uma comunidade global de fornecedores e participantes em computação descentralizada e cooperativa
A infraestrutura para IA deve refletir os valores que queremos que a IA sirva: abertura, colaboração, verificabilidade e responsabilidade. A Fluence está a transformar esse princípio num protocolo.
Participe na missão:
Aplicar como fornecedor de GPU
Inscreva-se no Beta do Fluence para VMs sem nuvens
Comece a subir na classificação Pointless e ganhe o seu caminho até ao estatuto de Guardião
Aviso: Este é um comunicado pago. As declarações, pontos de vista e opiniões expressas nesta coluna são exclusivamente da responsabilidade do fornecedor de conteúdo e não representam necessariamente as do Bitcoinist. O Bitcoinist não garante a precisão ou pontualidade das informações disponíveis em tal conteúdo. Faça sua pesquisa e invista por sua própria conta e risco.
Processo Editorial para bitmoedaist é centrado em fornecer conteúdo minuciosamente pesquisado, preciso e imparcial. Mantemos rigorosos padrões de origem e cada página passa por uma revisão diligente pela nossa equipa de principais especialistas em tecnologia e editores experientes. Este processo garante a integridade, relevância e valor do nosso conteúdo para os nossos leitores.
O conteúdo serve apenas de referência e não constitui uma solicitação ou oferta. Não é prestado qualquer aconselhamento em matéria de investimento, fiscal ou jurídica. Consulte a Declaração de exoneração de responsabilidade para obter mais informações sobre os riscos.
Fluence AI Roadmap: Entrega de uma Camada de Cálculo Neutra para o Futuro da Inteligência Com FLT | Bitmoedaist.com
2025 começou da mesma forma que 2024 terminou, com gigantes da nuvem a investir agressivamente para dominar a infraestrutura de IA. A Microsoft está a investir mais de $80 mil milhões em novos centros de dados, a Google lançou o seu Hypercomputador de IA, a Oracle está a investir $25 mil milhões nos seus clusters de IA StarGate, e a AWS está a priorizar serviços nativos de IA. Os players especializados também estão a escalar rapidamente. A CoreWeave arrecadou $1.5 mil milhões na sua OPI de março e atualmente vale mais de $70 mil milhões
À medida que a IA se torna uma infraestrutura crítica, o acesso à potência de cálculo será uma das batalhas definidoras da nossa era. Enquanto os hyperscalers consolidam e centralizam a potência de cálculo construindo data centers exclusivos e integrando verticalmente o silício, redes como a Fluence oferecem uma visão radicalmente diferente - uma plataforma descentralizada, aberta e neutra para o cálculo de IA, tokenizando o cálculo para atender à demanda exponencial de IA e tendo FLT como um ativo de cálculo tokenizado RWA
A Fluence já está a colaborar com as principais redes de infraestrutura descentralizada em IA (Spheron, Aethir, IO.net) e armazenamento (Filecoin, Arweave, Akave, IPFS) em várias iniciativas, reforçando a sua posição como uma camada de dados de computação neutra. Para dar vida a esta visão, a roadmap para 2025–2026 centra-se na convergência de três áreas-chave de ação:
1. Lançamento de uma Camada de Cálculo Global Alimentada por GPU
Fluence em breve irá suportar nós de GPU em todo o mundo, permitindo que os provedores de computação contribuam com hardware pronto para IA para a rede. Esta nova malha de GPU irá atualizar a plataforma Fluence de capacidade baseada em CPU para uma camada adicional de computação de qualidade AI, projetada para inferência, ajuste fino e servir de modelo. Fluence irá integrar suporte a contêiner para execução segura e portátil de trabalhos de GPU. A contenerização permite servir cargas de trabalho de ML confiáveis e estabelece infraestrutura crítica para futuras aplicações de inferência, ajuste fino e agência em toda a rede descentralizada.
Fluência irá explorar inferência preservando a privacidade através de computação confidencial para GPUs, mantendo dados sensíveis de negócios ou pessoais privados, enquanto ajuda a reduzir os custos da inferência de IA. Usando ambientes de execução confiáveis (TEE) e memória criptografada, esta iniciativa de P&D permite o processamento de carga de trabalho sensível, mantendo a descentralização e apoiando o desenvolvimento de agentes soberanos.
Principais marcos:
2. Modelos AI Hospedados e Inferência Unificada
A Fluence irá fornecer modelos populares de código aberto, incluindo LLMs, frameworks de orquestração como LangChain, pilhas de agentes e servidores MCP, com modelos de implantação de um clique. A pilha de IA da plataforma Fluence será expandida com uma camada de inferência integrada para modelos e agentes hospedados. Isso simplifica a implantação de modelos de IA, aproveitando contribuições da comunidade e suporte externo ao desenvolvimento.
3. Habilitar SLA Verificável, Orientado pela Comunidade
Fluence irá introduzir uma nova abordagem à confiança e resiliência da rede através dos Guardiões—atores individuais e institucionais que verificam a disponibilidade de computação. Em vez de depender de painéis fechados, os Guardiões monitorizam a infraestrutura através de telemetria descentralizada e ganham recompensas FLT por fazer cumprir acordos de nível de serviço (SLAs).
Os guardiões transformam uma rede de infraestrutura de nível empresarial em algo em que qualquer pessoa pode participar — sem precisar possuir hardware. O programa Guardian é complementado pelo Programa Pointless, um sistema de reputação gamificado que recompensa as contribuições da comunidade e leva à elegibilidade do Guardian.
Principais marcos:
4. Integrating AI Compute with a Composable Data Stack
A IA não é apenas cálculo - é cálculo + dados. A Fluence está a construir integrações profundas com redes de armazenamento descentralizadas como o Filecoin, Arweave, Akave e IPFS para fornecer aos programadores acesso a conjuntos de dados verificáveis juntamente com ambientes de execução. Estas integrações permitirão aos utilizadores definir tarefas que acedam a dados persistentes e distribuídos e corram em nós com suporte de GPU - transformando a Fluence numa infraestrutura de IA completa que é orquestrada via FLT
Para apoiar isso, a rede oferecerá modelos componíveis e módulos SDK pré-construídos para conectar trabalhos de computação com buckets de armazenamento ou conjuntos de dados on-chain. Os desenvolvedores que constroem agentes de IA, ferramentas de inferência LLM ou aplicações científicas poderão tratar o Fluence como um pipeline de IA modular - com dados abertos, computação e validação ligados pela lógica do protocolo.
Principais marcos:
Da Computação Sem Nuvens à Inteligência Partilhada
Com uma roadmap focada na integração de GPU, execução verificável e acesso contínuo aos dados, a Fluence está a estabelecer as bases para a próxima era da IA—uma que não será controlada por um punhado de hyperscalers, mas sim impulsionada por uma comunidade global de fornecedores e participantes em computação descentralizada e cooperativa
A infraestrutura para IA deve refletir os valores que queremos que a IA sirva: abertura, colaboração, verificabilidade e responsabilidade. A Fluence está a transformar esse princípio num protocolo.
Participe na missão:
Comece a subir na classificação Pointless e ganhe o seu caminho até ao estatuto de Guardião
Aviso: Este é um comunicado pago. As declarações, pontos de vista e opiniões expressas nesta coluna são exclusivamente da responsabilidade do fornecedor de conteúdo e não representam necessariamente as do Bitcoinist. O Bitcoinist não garante a precisão ou pontualidade das informações disponíveis em tal conteúdo. Faça sua pesquisa e invista por sua própria conta e risco.