LLaMA-Factory微调实战
1. 资源微调需要的硬件资源(显存),如果资源不够可以使用QLoRA(量化) 方法 精度 7B 14B 30B 70B xB Full (bf16 or fp16) 32 120GB 240GB 600GB 1200GB 18xGB Full (pure_bf16) 16 60GB 120GB 300GB 600GB 8xGB Freeze/LoRA/...
1. 资源微调需要的硬件资源(显存),如果资源不够可以使用QLoRA(量化) 方法 精度 7B 14B 30B 70B xB Full (bf16 or fp16) 32 120GB 240GB 600GB 1200GB 18xGB Full (pure_bf16) 16 60GB 120GB 300GB 600GB 8xGB Freeze/LoRA/...
在 Mac 上使用 Ollama 运行 DeepSeek-R1,并通过 Open-WebUI 提供 Web 端访问。 1. 安装 Ollama下载并安装 Ollama:https://ollama.com/ 12# 检查Ollama是否安装成功,成功会显示版本号,如:ollama version is 0.5.7ollama --version 2. 下载模型模型地址https://oll...