
DeepLが次世代モデル大規模言語モデル(LLM)の訓練するおよび推論においてFP8を活用し、処理能力とモデル品質を向上させた手法をご紹介します。NVIDIAの技術を活用した当社の取り組みについてご紹介します。低遅延を維持しながら、より高速に訓練する、優れた翻訳を実現しております。

2024年の開始以来、モデルコンテキストプロトコル(MCP)とそのAIへの影響についてご検討ください。MCPがAIエージェントに現実世界のツールへのアクセスを可能にする仕組みについて学び、わずか10行のコードで独自のMCPサーバーを構築する方法を段階的にご説明いたします。