A 卡炼丹开始好起来了?

MLC-LLM 包可以利用 AMD 的 ROCm 进行大语言模型的编译及推理。性能方面,在 Llama2-7B/13B 上,7900 XTX 做推理可以达到 80% 4090 的水平





中文简介 https://zhuanlan.zhihu.com/p/649088095

英文原文 https://blog.mlc.ai/2023/08/09/Making-AMD-GPUs-competitive-for-LLM-inference

Github https://github.com/mlc-ai/mlc-llm/