0xf

日記だよ

gpt-oss-120b in EvoX2

  • 24 token/sec
  • 0.9 sec, time to first token

なんか最適化とか進んだ? 以前試したときと比べて推論の最初の反応がめっちゃよくなっている気がする。

Windows LM Studioで試している。いつの間にか mcp/fetch とか使えるようになってる。