
Descubra como a DeepL usou FP8 para treinar e fazer inferência em LLMs de última geração, aumentando rendimento e qualidade. Conheça nossa jornada com a tecnologia NVIDIA, que permite treinamentos mais rápidos e traduções superiores com baixa latência.

Explore o Model Context Protocol (MCP) e seu impacto na IA desde 2024. Saiba como MCP permite que agentes de IA acessem ferramentas reais e crie seu próprio servidor MCP em apenas 10 linhas de código.