网站建设流程包括哪些系统开发流程8个步骤
目录
一、将模型保存为gguf格式
二、下载llama.cpp
三、生成 llama-quantize 可执行文件
四、使用llama-quantize
五、训练模型
六、将模型部署到ollama

一、将模型保存为gguf格式
在你的训练代码 trainer.train() 之后添加:
model.save_pretrained_gguf("model", tokenizer,)
二、下载llama.cpp
网址:GitHub - ggerganov/llama.cpp: LLM inference in C/C++
git clone GitHub - ggerganov/llama.cpp: LLM inference in C/C++ 或者 下载.zip解压。注意llama.cpp需要与训练代码同目录。

三、生成 llama-quantize 可执行文件
①打开 PowerShell 或命令提示符
②切换到 llama.cpp 文件夹
cd llama.cpp
③创建构建目录并配置
mkdir build
cd build
cmake .. -DCMAKE_BUILD_TYPE=Release
④执行构建
cmake --build . --config Release
⑤生成的可执行文件应位于
...llama.cpp\build\bin\Release
四、使用llama-quantize
在 llama.cpp 下创建 llama-quantize 文件夹并将 Release 粘贴进 llama-quantize 文件夹。

五、训练模型
进入 train.py 所在路径 python train.py。

六、将模型部署到ollama
①启动ollama
ollama serve

②进入训练后生成的 model 目录

③部署模型到ollama
ollama create your-model-name -f Modelfile

④测试模型

