
Upptäck hur DeepL använde FP8 för träning och inferens i nästa generations LLM, vilket ökade genomströmning och kvalitet. Lär dig om vår användning av NVIDIAs teknik som snabbar upp träning och ger bättre översättningar med låg latens.

Utforska Model Context Protocol (MCP) och dess påverkan på AI sedan 2024. Lär dig hur MCP ger AI-agenter tillgång till verkliga verktyg och bygg din egen MCP-server på bara 10 kodrader.