【[20星]transformers-qwen3-moe-fused:优化Qwe

爱生活爱珂珂 2025-07-07 13:53:55

【[20星]transformers-qwen3-moe-fused:优化Qwen3 MoE模型,让其在单GPU上高效运行。亮点:1. 针对Qwen3-30B-A3B优化,适配24GB显存;2. 兼容HF Transformers生态,支持LoRA、4位量化;3. 提供示例代码,方便快速上手】

"Qwen3 MoE Fused: Optimized for single GPU training with high throughput"

GitHub: github.com/woct0rdho/transformers-qwen3-moe-fused

机器学习 深度学习 模型优化 人工智能 ai兴趣创作计划

0 阅读:0
爱生活爱珂珂

爱生活爱珂珂

感谢大家的关注