群友们的LangBot常见问题的解决方法(借楼)

群友们的LangBot常见问题的解决方法(借楼)

本教程由社区贡献

本教程包括

  • langbot的主程序问题
  • webui的填写问题
  • webui的填写问题
  • langbot插件方面的问题
  • 目前的文档报错解决教程在这里

1. 如何去除deepseek-r1的think内容?

去除这个内容的插件请看https://github.com/the-lazy-me/RemoveThink
安装方式有两种:

  • 方法一:在webui中安装,在插件市场中搜索RemoveThink,点击安装。
  • 方法二:对着bot私聊发送!plugin get https://github.com/the-lazy-me/RemoveThink

2. 如何修改使用硅基流动的语言模型?

最新版有硅基流动的请求器,如果没有看见siliconflow和siliconflow-chat-completions这样的字眼,说明你使用的版本是旧版,请对bot发送!update更新到最新版。
配置好之后,请在LangBot/data/metadata/里的llm-models.json文件中添加模型的信息,示例如下:

{
        "name": "deepseek-ai/DeepSeek-R1",
        "requester": "siliconflow-chat-completions",
        "token_mgr": "siliconflow",
        "vision_supported": false
    },

2025年2月13日更新:找到了一个简单的方法,就是在webui中的插件市场搜索apiXGQ,然后点击安装,再之后就是根据插件的介绍对机器人私聊 .模型配置

比如说,我要设置硅基流动的r1模型,给机器人私聊回复1,然后再私聊回复 https://api.siliconflow.cn/v1 这个baseurl,第二步就是给机器人发送自己在硅基流动获取到的api key,发给机器人之后就是第三步,从硅基流动复制模型名,比如说我是deepseek-ai/DeepSeek-V3,就直接发给机器人,就完成了一个模型的配置。

3. 使用整合包的config.exe文件无法使用启航的api

这个目前可能有问题,建议手动修改provider.json文件,把openai-chat-completions里的内容改成https://api.qhaigc.net/v1,然后再在llm-models.json文件中添加模型信息。
例如,我要用启航的r1模型,就是:

{
            "model_name": "deepseek-r1",
            "name": "OneAPI/deepseek-r1",
            "tool_call_supported": false
    },

参照问题2的最新配置方法,在配置是先回复1,然后在第一步也回复1,到第二步去获取api key,在 https://api.qhaigc.net/token 去生成获取api(注意给api分组,不然会报错),之后在 https://api.qhaigc.net/pricing 这里复制你需要的模型发给机器人,至此就配置完成了

4. 如何使用本地模型?

目前支持ollama和lmstudio的本地模型,假设如果要使用deepseek-r1模型,首先是lm studio,访问https://lmstudio.ai/
根据系统下载对应的安装包,然后进入lm studio,点击左侧的 model 图标,在搜索栏中搜索DeepSeek-R1:7B,再点击适合你的版本,下载到本地。
下载完成后点击 Load Model ,耐心等待模型加载完成。点击 LM Studio 主界面左侧的 “Server” 图标,点击 “Start Server” 按钮,启动本地服务器,服务器启动后,会显示服务器的地址和端口号,默认地址为 “localhost”,端口号为 “1234”。
之后再在LangBot/data/metadata/里的llm-models.json文件中添加模型信息,示例如下:

{  
        "name": "DeepSeek-R1:7B",
        "requester": "lmstudio-chat-completions",
        "token_mgr": "lmstudio",
        "vision_supported": false
    }

然后在LangBot/data/metadata/llm-models.json文件中修改"model": "模型内容", 为DeepSeek-R1:7B。

如果是ollama的话,就请看https://blog.thelazy.top/archives/1738137021495,然后llm-models.json文件中已经有了模型信息,无需填写。

5. 群主的removethink插件表现异常

如果是安装使用了插件还会有残留的think内容,可以看看https://github.com/kanhuiji100/DeepSeekR1nothink这个插件。

6. linux怎么保持langbot后台运行?Windows怎么保持运行?

Linux可以用screen命令,Ubuntu系统下更新软件包列表和升级已安装的安装包,然后执行:

sudo apt install screen

新建一个后台窗口是:

screen -S langbot

然后请自己找到langbot的根目录执行程序

这里的"langbot"可以更换为你喜欢的名字,退出后台窗口是:Ctrl+A+D。

windows只能在服务器上保持24小时运行()

7. langbot支持群聊里的每个人都有自己的对话吗?

截止到2025年2月13日,作者已经考虑要弄了,但是目前还没有发行。(等发布该内容的版本时再更新文章)

8. 在webui上编辑模型信息(也就是llm-models.json文件)

截止到2025年2月13日,作者说会更新这个功能。(发布时再更新文章)

9. 人格到底该怎么写?normal和full-scenario有什么区别?

normal是一次性把人格给ai的,而full-scenario像是给ai创建了一个对话,但总而言之full-scenario效果会更好。

先来看看这个normal下的一个预设例子:

"prompt": {
    "default": "如果用户之后想获取帮助,请你说“输入!help获取帮助”。",
    "help": "如果用户之后想获取帮助,请你说“输入!help获取帮助”。"
}

这里的"default"是预设会话的初始状态,"help"是预设的名字,可以自定义。

再来看看full-scenario下的一个预设例子:

{
    "prompt": [
        {
            "role": "system",
            "content": "You are a helpful assistant. 如果我需要帮助,你要说“输入!help获得帮助”"
        },
        {
            "role": "assistant",
            "content": "好的,我是一个能干的AI助手。 如果你需要帮助,我会说“输入!help获得帮助”"
        }
    ]
}

这里的"prompt"是一个数组,数组里的每一项是一个对话,"role"是说话者的身份,"content"是对话内容。

其中有user(用户)、assistant(助手)和system(系统)三个角色。

而system相当于是给ai灌输了最底层的内容,让ai认为自己是一个什么样的角色。


群友们的LangBot常见问题的解决方法(借楼)
https://blog.thelazy.top/archives/1739784974303
作者
Administrator
发布于
2025年02月17日
更新于
2025年02月22日
许可协议