Interview #84 Hagay Lupesko, SVP of AI Inference at Cerebras Systems
Falha ao colocar no Carrinho.
Tente novamente mais tarde
Falha ao adicionar à Lista de Desejos.
Tente novamente mais tarde
Falha ao remover da Lista de Desejos
Tente novamente mais tarde
Falha ao adicionar à Biblioteca
Tente outra vez
Falha ao seguir podcast
Tente outra vez
Falha ao parar de seguir podcast
Tente outra vez
-
Narrado por:
-
De:
Sobre este título
Join Hagay Lupesko, SVP of AI Inference at Cerebras Systems, for a deep dive into the rapidly evolving world of AI inference. Hagay breaks down why inference has overtaken training as the dominant AI workload, how Cerebras' wafer-scale chip architecture delivers 10-20x faster performance than NVIDIA GPUs, and why CUDA is no longer the moat many think it is. He also covers how DeepSeek wiping $600 billion off NVIDIA's market cap in a single day was both a foundational and deeply misunderstood moment for the industry, the growing energy crisis in AI infrastructure, and what it will take to support the explosive rise of AI agents in the enterprise.
Ainda não há avaliações