type
status
date
slug
summary
tags
category
icon
password

前言

最新的llama3很火,虽然我有很多AI工具可以使用了,但是本地化部署大模型对我一直很有吸引力,ollama有了之后第一时间拉下来体验了一下,由于电脑的配置限制,只能拉取8B版本。
📢
结论:8B版本对中文不友好,对话过程中无法保持纯中文对话,很多英文单词会出现,理解能力也有所欠缺,实际体验不佳,但是由于是本地部署,速度很快。
我的配置如下:
  • 处理器:Intel(R) Core(TM) i7-9700 CPU @ 3.00GHz,3000 Mhz,8 个内核,8 个逻辑处理器
  • 已安装的物理内存(RAM):48.0 GB
  • 显卡:NVIDIA GeForce GTX 1660 SUPER, NVIDIA 兼容

安装ollama,拉取llama3

首先去ollama的官网根据电脑的版本下载ollama服务端,下载好之后保持运行即可,我是windows版本,安装的时候不能选择路径,当然,我们可以在安装完之后剪切整个安装路径到其他盘符,并不会影响ollama的工作。
在ollama的models页签可以下载到ollama支持的所有models,llama3也在其中。这里有一个小tips,因为拉取的模型会自动默认安装在C盘,如果不希望占用C盘空间,可以在“环境变量”中增加”系统变量“,变量名为:OLLAMA_MODELS,值就是你希望models下载的路径,如图:
notion image
接着保持ollama的服务开启,在ollama的安装目录打开CMD,输入:ollama run llama3,默认会拉取8B版本,如果你要拉取更大的版本,可以ollama run llama3:70B。拉取进度完成后会自动运行,即可对话。

微调llama3

原生的llama3对中文的支持很差,或者如果你希望它更擅长某一领域的知识,你可以对其进行微调,相当于prompt的作用。
这里需要一个在任一位置创建一个modelfile.txt文件,内容是:
在ollama安装路径中启动CMD,输入:
成功后即可使用以下代码来启动经过调整的模型:
调整后的模型效果会比原生的效果好一些:
notion image

qwen32B尝试

接着我拉取了qwen32B大模型,可以成功运行,但是响应速度很慢,配置有点吃不消。
 
文生视频工具:luma Dream Machine快乐—我想给孩子什么?
  • Cusdis
MarkLin
MarkLin
自媒体创业、间歇性gap
统计
文章数:
22
Announcement
🎉付费咨询请加我微信:linmaobang🎉
擅长电子书管理,封面、转格式、kindle电子书下载与转换、DRM破解、KINDLE传书等
十年软件销售经验,ToB软件销售!有些经验可以带你入门。
自媒体创作者:全网搜索mark.lin就能找到我。
-- 感谢您的支持 ---
👏欢迎骚扰👏
 
2024 MarkLin.

MarkLin’s BLOG—每一秒都值得被记录 | 自媒体创业、间歇性gap

Powered by NotionNext 4.2.3.