meta-llama様の meta-llama/Llama-3.2-3B-Instruct をGGUF形式に変換したものです。 K量子化モデルについてもiMatrix適用してあります。
iMatrixテキストはTFMC様のc4_en_ja_imatrix.txtを使用しています。
- Downloads last month
- 49
Hardware compatibility
Log In to add your hardware
3-bit
4-bit
5-bit
6-bit
8-bit
16-bit
Model tree for MCZK/Llama-3.2-3B-Instruct-GGUF
Base model
meta-llama/Llama-3.2-3B-Instruct