llvm-使用langchain-chatchat和ollama构建大模型
工具
github地址:
langchina-chatchat地址:Langchain-Chatchat
ollama地址:ollama
使用langchain-chatchat和ollama构建大模型
安装
langchain-chatchat
langchain-chatchat在0.3版本之后支持使用pip安装,这里推荐创建一个新的虚拟环境来安装。
# 创建环境 |
ollama
ollama的安装比较简单,只需要使用pip安装即可。
pip install ollama |
初始化
langchain-chatchat
初始化,建议创建一个空的文件夹来进行初始化。
chatchat init |
该命令会执行以下操作:
- 创建所有需要的数据目录
- 复制 samples 知识库内容
- 生成默认 yaml 配置文件
修改配置文件
具体每个配置文件的作用可以到github仓库查看,这里只列出需要修改的配置文件。
在文件model_settings.yaml
中,修改:
- platform_name: ollama |
前面的默认模型可以不修改,开启自动检测后,会自动检测ollama中的模型。
ollama
加载大语言模型:
ollama run qwen2 |
如果本地没有部署,会自动下载模型。打开浏览器查看是否正确启动:http://localhost:11434
加载嵌入模型:
ollama pull quentinz/bge-large-zh-v1.5:latest |
嵌入模型不需要运行,只需要下载即可。
嵌入模型(例如 quentinz/bge-large-zh-v1.5)的主要作用是将文本转换成向量表示,这种向量表示也叫做“嵌入” (embedding)。这些嵌入可以捕捉到文本的语义信息,以便在不同的 NLP 任务中进行高效的相似度计算和语义搜索。
quentinz/bge-large-zh-v1.5 可以用于生成中文文本的嵌入。例如,当输入一句中文文本时,该模型会输出一个向量(embedding),我们可以利用这个向量来完成以下操作
生成知识库
在生成知识库之前,要先确保ollama已经正确启动,使用默认的向量数据库,需要下载驱动,在pycharm中点击info.db,根据提示下载驱动即可。
使用chatchat
命令生成知识库:
chatchat kb -r |
这里可能会遇到各种bug,自行到社区issue中查找解决方案。如果没有解决方案,可以给社区提issue。
出现以下提示表示生成成功:
|
运行
chatchat start -a |
运行成功之后,可以在网页上进行知识库配置、对话等。
其余功能有待摸索。