
Descubra como a DeepL usou FP8 para treinar e fazer inferência em LLMs de última geração, aumentando produtividade e qualidade, e como a tecnologia NVIDIA permite treinamento rápido e traduções superiores com baixa latência.

Explore o Model Context Protocol (MCP) e seu impacto na IA desde 2024. Saiba como MCP permite que agentes de IA acessem ferramentas reais e construa seu próprio servidor MCP em apenas 10 linhas de código.