我的编程空间,编程开发者的网络收藏夹
学习永远不晚

基于闻达(wenda+chatGLM-6B),构建自己的知识库小助手

短信预约 -IT技能 免费直播动态提醒
省份

北京

  • 北京
  • 上海
  • 天津
  • 重庆
  • 河北
  • 山东
  • 辽宁
  • 黑龙江
  • 吉林
  • 甘肃
  • 青海
  • 河南
  • 江苏
  • 湖北
  • 湖南
  • 江西
  • 浙江
  • 广东
  • 云南
  • 福建
  • 海南
  • 山西
  • 四川
  • 陕西
  • 贵州
  • 安徽
  • 广西
  • 内蒙
  • 西藏
  • 新疆
  • 宁夏
  • 兵团
手机号立即预约

请填写图片验证码后获取短信验证码

看不清楚,换张图片

免费获取短信验证码

基于闻达(wenda+chatGLM-6B),构建自己的知识库小助手

目录

安装miniconda

拉取仓库

使用内置python

安装依赖

上传模型

克隆及下载 text2vec-large-chinese

修改配置

上传知识库(txt文件)

处理txt数据

启动服务

测试


ChatGLM-6B是清华团队+智谱AI开发的,一个开源的、支持中英双语的对话语言模型,具有 62 亿参数。被很多人视为ChatGPT的平替。但是由于ChatGLM-6B 的规模较小,目前已知其具有相当多的局限性。解决这一问题的方式大体上有两种:

一种是使用更大规模的模型来提升整体能力,提升其自我认知能力。开发者表示基于 1300 亿参数 GLM-130B 的 ChatGLM 已经在内测开发中。

另一种便是使用插件或者外挂的方式,提升模型在某一个领域的能力。

wenda就属于后者,wenda是一个大规模语言模型调用平台。旨在通过使用为小模型外挂知识库查找的方式,实现近似于大模型的生成能力。

既然我们已经了解 wenda 的作用,快让我们进入正文吧!

我的文件目录结构

 # 闻达路径(我的路径为nogit,以下图片中nogit路径理解为wenda即可) /home/user/data/wenda # miniconda路径 /home/user/data/miniconda3

安装miniconda

 # 进入路径 cd /home/user/data/

https://pan.baidu.com/s/1w33G8xp66Q6kwLN6pDC_3A?pwd=dim9 提取码: dim9

下载 Miniconda3-latest-Linux-x86_64.sh,将下载好的文件放入 /home/user/data/ 路径下

 # 安装miniconda sh Miniconda3-latest-Linux-x86_64.sh

安装完成后查看是否成功

 cd miniconda3/bin ./conda -V

显示如下表示安装成功

拉取仓库

进入  /home/user/data/ 路径下

 cd /home/user/data/
 # 拉取仓库 git clone https://github.com/l15y/wenda.git

使用内置python

 # 进入wenda目录 cd /home/user/data/wenda
 # 使用conda命令创建内置python环境 /home/user/data/miniconda3/bin/conda create -p ./env python=3.8

安装依赖

env/bin/pip install -r requirements/requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simpleenv/bin/pip install torch BeautifulSoup4 torchvision torchaudio pdfminer.six -i https://pypi.tuna.tsinghua.edu.cn/simpleenv/bin/pip install -r requirements/requirements-chatglm.txt -i https://pypi.tuna.tsinghua.edu.cn/simpleenv/bin/pip install -r requirements/requirements-st.txt -i https://pypi.tuna.tsinghua.edu.cn/simpleenv/bin/pip install -r requirements/requirements-rwkv.txt -i https://pypi.tuna.tsinghua.edu.cn/simpleenv/bin/pip install -r requirements/requirements-bing.txt -i https://pypi.tuna.tsinghua.edu.cn/simpleenv/bin/pip install -r requirements/requirements-glm6b-lora.txt -i https://pypi.tuna.tsinghua.edu.cn/simpleenv/bin/pip install -r requirements/requirements-gpt4free.txt -i https://pypi.tuna.tsinghua.edu.cn/simpleenv/bin/pip install -r requirements/requirements-fess.txt -i https://pypi.tuna.tsinghua.edu.cn/simpleenv/bin/pip install -r requirements/requirements-llama.txt -i https://pypi.tuna.tsinghua.edu.cn/simpleenv/bin/pip install -r requirements/requirements-openai.txt -i https://pypi.tuna.tsinghua.edu.cn/simpleenv/bin/pip install -r requirements/requirements-qdrant.txt -i https://pypi.tuna.tsinghua.edu.cn/simple

上传模型

我使用的模型是chatGLM-6B,大家也可以使用其他的基础模型

链接:https://pan.baidu.com/s/16L7K-2pa5EfXzcUOJEBJLA?pwd=xt9l 提取码:xt9l

下载完成后上传到 /home/user/data/wenda 路径

解压文件

 cd /home/user/data/wenda 7z x -y model.7z -o/home/user/data/wenda

注意,解压后的文件路径是否为 /home/user/data/wenda/model/chatglm-6b,如果不是,请修改

如果没有7z命令,需要先安装7z命令,如下:

 sudo apt install p7zip-full p7zip-rar

克隆及下载 text2vec-large-chinese

cd /home/user/data/wenda/model# 安装 git lfsgit lfs install# 如果报错 git: 'lfs' is not a git command.# 执行如下(Ubuntu):sudo apt-get install git-lfs# 从huggingface官网拉取模型指针文件git clone https://huggingface.co/GanymedeNil/text2vec-large-chinese# 下载模型wget https://huggingface.co/GanymedeNil/text2vec-large-chinese/resolve/main/pytorch_model.bin# 覆盖text2vec-large-chinese中的 pytorch_model.bin文件mv pytorch_model.bin text2vec-large-chinese/

修改配置

将example.config文件改名为config.xml

 cd /home/user/data/wenda/ mv example.config.xml config.xml

修改config.xml文件

                 LLM_Type            glm6b            LLM模型类型:glm6b、rwkv、llama、chatglm                                    Path                model/chatglm-6b                glm模型位置                                        Strategy                cuda fp16                glm 模型参数  支持:                    "cuda fp16"  所有glm模型 要直接跑在gpu上都可以使用这个参数                    "cuda fp16i8"  fp16原生模型 要自行量化为int8跑在gpu上可以使用这个参数                    "cuda fp16i4"  fp16原生模型 要自行量化为int4跑在gpu上可以使用这个参数                    "cpu fp32"  所有glm模型 要直接跑在cpu上都可以使用这个参数                    "cpu fp16i8" fp16原生模型 要自行量化为int8跑在cpu上可以使用这个参数                    "cpu fp16i4" fp16原生模型要 自行量化为int4跑在cpu上可以使用这个参数                                                        Lora                                glm-lora模型位置                    

上传知识库(txt文件)

创建txt文件夹

 cd /home/user/data/wenda/ mkdir txt

将自己的txt文件上传到这里

我的txt如下

 中国管理案例共享中心案例库 教学案例 1 案例正文: 飞友科技人力发展何去何从 摘要: 飞友科技有限公司(以下简称“飞友科技”)创建于 2005 年,是目前国内 最大的民航数据服务提供商。 随着飞友科技 APP 下载量与 Association for Clinical Data Management (A-CDM)系统机场覆盖率的大大提升,飞友科技目前正以高速 发展趋势拓展业务领域,基于公司发展战略的调整,人力资源部门在完善管理体 系的过程中出现了障碍: 1.合肥是相对落后的城市,人力资源部门在本地招聘困 难;2.人力资源部门人员不稳定、流动性大,无法保证高效运作进而支持其他部 门工作。 本案例通过介绍飞友科技人力资源部门发展现状,启发案例使用者运用 战略性人力资源管理等理论知识分析公司人力资源现状背后的原因,为公司人力 资源部门的发展在未来如何适应公司及外部环境提出建议。 关键词: IT 产业,高端人才招聘,人力资源管理,团队建设 0 引言 近年来,随着交通运输业的蓬勃发展, 生活节奏越来越快,飞机成了人们出 差旅行首选的快捷出行方式,中国航空市场也快速从原来的公务出行市场转化为 个人出行市场。 但是,由于各种自然非自然原因,航班延误,飞行取消及中转停 留等,也为乘客出行造成了不便,毕竟不是所有飞机都能风雨无阻按时起飞停降。 民航业,作为服务产业,面对竞争日益激烈的市场,如何为客户提供高速便捷的 出行服务,成为他们成功的关键。 在大环境互联网+及大用户手机网民+的背景 下,“飞常准”APP 就这样应运而生了。 正是这样一款方便快捷的航空服务 APP, 在你面对查询订票的繁琐流程以及突发情况时,帮助你更合理的安排时间,顺利 起飞。

处理txt数据

/home/user/data/wenda/env/bin/python3 /home/user/data/wenda/plugins/gen_data_st.py

启动服务

 /home/user/data/wenda/env/bin/python3 /home/user/data/wenda/wenda.py

测试

未开启知识库,只使用chatglm-6b模型

开启知识库,如下:

以上便是本次搭建的全部过程啦

来源地址:https://blog.csdn.net/yuyangchenhao/article/details/130431141

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

基于闻达(wenda+chatGLM-6B),构建自己的知识库小助手

下载Word文档到电脑,方便收藏和打印~

下载Word文档

编程热搜

  • Python 学习之路 - Python
    一、安装Python34Windows在Python官网(https://www.python.org/downloads/)下载安装包并安装。Python的默认安装路径是:C:\Python34配置环境变量:【右键计算机】--》【属性】-
    Python 学习之路 - Python
  • chatgpt的中文全称是什么
    chatgpt的中文全称是生成型预训练变换模型。ChatGPT是什么ChatGPT是美国人工智能研究实验室OpenAI开发的一种全新聊天机器人模型,它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,并协助人类完成一系列
    chatgpt的中文全称是什么
  • C/C++中extern函数使用详解
  • C/C++可变参数的使用
    可变参数的使用方法远远不止以下几种,不过在C,C++中使用可变参数时要小心,在使用printf()等函数时传入的参数个数一定不能比前面的格式化字符串中的’%’符号个数少,否则会产生访问越界,运气不好的话还会导致程序崩溃
    C/C++可变参数的使用
  • css样式文件该放在哪里
  • php中数组下标必须是连续的吗
  • Python 3 教程
    Python 3 教程 Python 的 3.0 版本,常被称为 Python 3000,或简称 Py3k。相对于 Python 的早期版本,这是一个较大的升级。为了不带入过多的累赘,Python 3.0 在设计的时候没有考虑向下兼容。 Python
    Python 3 教程
  • Python pip包管理
    一、前言    在Python中, 安装第三方模块是通过 setuptools 这个工具完成的。 Python有两个封装了 setuptools的包管理工具: easy_install  和  pip , 目前官方推荐使用 pip。    
    Python pip包管理
  • ubuntu如何重新编译内核
  • 改善Java代码之慎用java动态编译

目录