RZ/V2H 運行 LLM 每秒 token 數量?

Hi 你好

我看到這個網頁可以成功在RZV2H部署及運行 ollama + deepseek-r1:1.5

瑞萨RZ/V2H平台支持部署离线版DeepSeek -R1大语言模型

請問貴司內部是否有測試過RZV2H運行deepseek-r1:1.5b或其他LLM模型的每秒tonken數值?

謝謝