·
AI & ML interests
model compression
Recent Activity
Organizations
None yet
ChenMnZ/Llama-3-70b-EfficientQAT-w2g64-GPTQ
Text Generation
• 71B • Updated
• 5
ChenMnZ/Llama-3-8b-instruct-EfficientQAT-w2g64
Text Generation
• 2B • Updated
• 4
ChenMnZ/Llama-3-70b-EfficientQAT-w2g128-GPTQ
Text Generation
• 71B • Updated
• 1
ChenMnZ/Llama-3-8b-instruct-EfficientQAT-w2g128
Text Generation
• 2B • Updated
• 3
ChenMnZ/Llama-3-8b-EfficientQAT-w4g128
Text Generation
• 2B • Updated
• 2
ChenMnZ/Llama-3-8b-EfficientQAT-w3g128
Text Generation
• 2B • Updated
• 1
ChenMnZ/Llama-3-8b-EfficientQAT-w2g64
Text Generation
• 2B • Updated
• 2
ChenMnZ/Llama-3-8b-EfficientQAT-w2g128
Text Generation
• 2B • Updated
• 3
ChenMnZ/Llama-2-7b-EfficientQAT-w4g128-GPTQ
Text Generation
• 7B • Updated
• 3
ChenMnZ/Llama-2-7b-EfficientQAT-w2g64-GPTQ
Text Generation
• 7B • Updated
• 3
• 1
ChenMnZ/Llama-3-70b-instruct-EfficientQAT-w3g128
Text Generation
• 10B • Updated
• 1
ChenMnZ/Llama-2-7b-EfficientQAT-w2g128-GPTQ
Text Generation
• 7B • Updated
• 10
ChenMnZ/Llama-2-70b-EfficientQAT-w4g128-GPTQ
Text Generation
• 69B • Updated
• 4
ChenMnZ/Llama-3-70b-instruct-EfficientQAT-w2g64
Text Generation
• 8B • Updated
ChenMnZ/Llama-2-70b-EfficientQAT-w2g64-GPTQ
Text Generation
• 69B • Updated
• 2
ChenMnZ/Llama-2-70b-EfficientQAT-w2g128-BitBLAS
Text Generation
• 274B • Updated
• 1
ChenMnZ/Llama-3-70b-instruct-EfficientQAT-w2g128
Text Generation
• 7B • Updated
• 2
ChenMnZ/Llama-2-70b-EfficientQAT-w2g128-GPTQ
Text Generation
• 69B • Updated
• 3
ChenMnZ/Llama-2-13b-EfficientQAT-w4g128-GPTQ
Text Generation
• 13B • Updated
• 1
ChenMnZ/Llama-2-13b-EfficientQAT-w4g128-BitBLAS
Text Generation
• 51B • Updated
• 2
ChenMnZ/Llama-2-13b-EfficientQAT-w2g64-GPTQ
Text Generation
• 13B • Updated
• 3
ChenMnZ/Llama-3-70b-EfficientQAT-w4g128
Text Generation
• 11B • Updated
• 1
ChenMnZ/Llama-2-13b-EfficientQAT-w2g64-BitBLAS
Text Generation
• 51B • Updated
• 1
ChenMnZ/Llama-3-70b-EfficientQAT-w3g128
Text Generation
• 10B • Updated
• 1
• 1
ChenMnZ/Llama-3-70b-EfficientQAT-w2g64
Text Generation
• 8B • Updated
• 1
• 1
ChenMnZ/Llama-3-70b-EfficientQAT-w2g128
Text Generation
• 7B • Updated
• 1
ChenMnZ/Llama-2-13b-EfficientQAT-w2g128-GPTQ
Text Generation
• 13B • Updated
• 1
ChenMnZ/Llama-2-7b-EfficientQAT-w4g128
Text Generation
• 1B • Updated
• 74
ChenMnZ/Llama-2-7b-EfficientQAT-w3g128
Text Generation
• 1.0B • Updated
• 2
ChenMnZ/Llama-2-7b-EfficientQAT-w2g64
Text Generation
• 0.8B • Updated
• 2