Skip to main content

用户手册-快速入门

版本历史

版本作者日期备注
beta v1.0卢向东(yuanwai@mengjia.net)、肖玉民(xiaoymin@mengjia.net)2024/02/28初始化
beta v1.6卢向东(yuanwai@mengjia.net)、肖玉民(xiaoymin@mengjia.net)2024/03/31正式版本v1.0
beta v1.7卢向东(yuanwai@mengjia.net)、肖玉民(xiaoymin@mengjia.net)、厉杭波(lihangbo@mengjia.net)2024/04/11正式版本v1.1
beta v1.7.3卢向东(yuanwai@mengjia.net)、肖玉民(xiaoymin@mengjia.net)、厉杭波(lihangbo@mengjia.net)2024/05/07正式版本v1.2

1.引言

1.1 编写目的

本手册旨在介绍TorchV AI用户端的业务及操作流程,以便用户能更有效地进行业务处理和操作。

主要内容

1.2 读者对象

使用TorchV AI产品的运营及技术人员

1.3 环境要求

浏览器:Chrome 100+/火狐(FireFox)/Microsoft Edge

2.快速开始

TorchV AI包含了诸多企业AI应用搭建的功能,但从快速使用来说其实只需三步:

  • 创建和维护知识库;
  • 使用Chatbot开始试用,如果您只是进行试用,到此已经完成了;
  • 如果您想将TorchV AI 提供的能力接入到您自己的应用中,还可以创建和管理应用

好,接下来我们一起用5分钟了解如何快速使用。

2.1 创建和维护知识库

Path:知识管理 —> 知识库

1-zhishiku

图1:知识库

知识库板块,您可以创建多个知识库,如“财务知识库”、“销售知识库”、“人才知识库”等等。区分知识库的目的是为了在后面提到的应用中能为每个应用绑定不同的知识库,让各个应用可以服务不同类型的用户。

class

图1-1:知识库的分类与标签

(v1.7.3) 增加知识库分类与标签,方便对知识库进行分类、查询等管理。

2.1.1 创建知识库

您可以点击右上角的+新建新建知识库。

1-zhishiku-create

图2:创建知识库

目前我们只开放通用知识库,后续会增加另外三种知识库的创建:

  • Web站点同步:目前暂时支持单个网页URL方式导入,关于URL导入详见关于web页面导入
  • 关系型/NoSQL数据库:会首先进行ETL过程,如数据库链接测试、表格选取、schema复制等,然后建立loading计划,进行关系型数据库/NoSQL数据库的数据抽取;
  • API GET操作:可以根据用户提供的API进行数据抽取和同步,维护知识库的数据更新。

OK,这些是后续的功能,这里我们可以先不关注,下面先来看看创建了知识库之后的内容。

2.1.2 维护知识库

这里您应该看到我们刚刚创建的知识库开启第一个知识库的界面,空空如也。如果您想上传一个PDF先试试手,这时候您可以从桌面直接拖拽一个文件到当前页面。

1-zhishiku-files-drag

图3:将文件拖拽到知识库页面即可上传文件。

下一步您将看到的就是刚才被拖拽的文件被分解(预览),在该界面我们首先可以查看文件是否被系统正常分块处理预览,一般提供前10页的预览。另外您也可以为文件设置生效时间,如让特定文件在次月1日生效,次月30日失效(不再提供该内容的对话、检索),默认是永久生效,既从文件处理完成开始一直有效。

1-zhishiku-files-preprocess

图4:文件分块处理预览

一旦点击“确认”按钮,文件将进入处理队列,接下来的一些处理流程如下:

  • 等待调度程序从waitlist中将文件处理的程序激活;
  • 文件元数据处理和记录;
  • 综合考虑文件类型、内容疏密程度等多种因素对文件进行分块(chunking);
  • 将分块之后的内容进行embedding处理;
  • 建立索引,包括向量索引和BM25类型的倒排索引;
  • 处理完成。

从下图5中也可以看到一般文件处理的状态更新过程,您可以点击🔍按钮进行刷新。

1-zhishiku-files-processing

图5:处理过程的三个状态。其中处理中可能需要一些时间,特别针对较大的文件。

好了,我们的“快速开始”环节,知识库创建就算完成了。当然TorchV AI提供了多样化的知识库维护支持,包括多类型文件、从Web导入、手工创建QA、以及直接复制粘贴内容等。

更多细节,我们会在后文中详细展开讲解。

2.2 测试问答

Path:知识运营 —> 问答对话

在2.1 "创建和维护知识库"章节中我们已经完成了第一个知识库的创建,接下来让我们来对它进行测试,请点击“知识运营”->“问答对话”进入问答功能。

2-chat

图6:TorchV AI内置的Chatbot界面,主要提供用户测试使用。

完整的界面功能分为三大块:

  • 会话区:在左侧顶部可以看到“新建会话”、“历史会话”,单个会话是存在上下文关联的,多轮对话的作用范围仅限于同一会话中。同理,如果您调整了参数或上传了新的知识内容之后,尽量开启新的会话进行操作,避免被上文干扰;
  • 聊天区:左侧的主要区域均为聊天区,最下面是输入框,用户可以在这里输入想要对话的内容,点击“发送”与系统对话。中间包含各种集成的参数配置工具栏,详情可查看参数设置工具栏。上面的部分是显示区,包括用户的提问,系统的回答。当您点击引用文件时,右侧的默认收起的原文引用区会展开,现实被应用的内容原文;
  • 原文引用区:默认会展示被引用文件的具体页面内容,如上图所示。

2.2.1 评价和反馈

我们可以在回答的下方进行满意度评价:

reason-button

图7:在回答下面的反馈按钮。

如果是不满意的反馈,请帮忙输入更多详情,这样我们可以更快定位到问题,先感谢您的善良!

reason

图8:对于不满意反馈,可以属于不满意的主要原因。

在“知识运营-反馈处理”里面可以看到刚刚反馈的这条信息:

feedback-reason

图9:在后台可以看到反馈结果。

就像开头讲的,如果您只是测试TorchV AI的问答能力,基本上到此为止就差不多了。但是如果您想让TorchV AI可以帮助您的业务AI化,那么2.3 应用创建将会非常重要,我们也简单预览一下。

2.3 应用创建

Path:应用平台 —> 应用中心

2.3.1 创建应用

在应用中心界面的右上角点击+新建,创建你的第一个应用。

3-app-create

图10:创新应用

创建完成之后,可以在应用中心的应用列表中看到我们新创建的应用:我的第一个应用

3-app-list

图11:应用中心

在应用卡片的底部我们可以看到对话调试编辑删除等快速功能按钮。

2.3.2 应用工作台

3-app-playground

图12:应用的工作台(playground),提供应用的基础信息编辑、配置修改、一键嵌入功能和调试等功能。

2.3.2.1 基础配置

与图12中所示一样,这里不展开描述。

2.3.2.2 一键嵌入

一键嵌入的主要作用:快速将TorchV AI的chat能力嵌入到用户自己的官网、电商网站和Web版的业务系统中,整个过程只需复制几行js代码到目标系统/网站的Header中。

3-embedded-1

3-embedded-2

图13、图14:一键嵌入界面

我们在自己的官网做了一键嵌入,为访客提供咨询服务,知识库来源于TorchV概览(Getting-Started)和操作手册(Manual),下图是截图效果:

image-20240331213748623

图15:TorchV官网的一键嵌入截图

2.3.2.3 参数配置

3-app-playground-params-1

图16:应用的参数配置

首先,这里的参数配置知识管理-Prompt管理的界面几乎相同,但是权限范围不一样,应用中的参数配置仅作用于当前应用,而知识管理-Prompt管理则是全局默认配置,尤其对知识运营-问答对话起作用。

回到图13,我们可以看到当前应用的各类参数配置,主要配置项如下:

  • 大模型调度(策略)

    • 默认是“智能调度”,会根据实际任务选择最合适的大语言模型进行处理,如即将送入大语言模型进行最后生成处理的的prompt文本长度超过其中几个大模型的上下文窗口长度(Context Length),那么智能调度将自动选择具备长上下文的大语言模型进行处理。后续版本还会在“智能调度”策略中加入外部MoE策略,在某些专项能力上更强的LLM来处理专项任务。
    • 选择“自定义模型”则意味着由用户强行指定某个模型,具体模型包括glm-3-turbo,glm-4, Baichuan2-Turbo,Baichuan2-Turbo-192k, qwen-72b-chat,qwen1.5-72b-chat, moonshot-v1-32k,moonshot-v1-128k, yi-34b-chat-200k
  • QA对qms:QA对是传统FAQ的一种,QA对在系统中的优先级是最高的,qms指的是用户的问题(Q~i~)与QA对中的预设的问题(Q~j~)之间的相关度得分(取值0-1),如果这个相关度得分≥设定的qms数值(默认0.95),那么将直接介入QA回答的过程,后续的RAG过程将不再介入。QA对在常用语的维护中有非常好的效果,如“你是谁?”、“明天几点开门?”等比较固定的内容;

  • 知识库alpha:TorchV AI的RAG采用混合检索技术,alpha值为0则全部使用BM25检索(布尔检索、字面量检索占比更大),如果alpha值为1,则全部使用KNN检索(排序检索、基于向量相似度的语义检索);

  • 知识库kms:这应该是最重要的一个配置,RAG在检索文档时,会根据用户的问题(Q)去检索各个分块(chunks),再经过Rerank的交叉熵验证算法确定最终(与Q)的相关性得分。只有相关性得分≥ kms分值的分块(chunks)才会被最终送入大语言模型进行生成处理:

    • kms取值在[0,1]之间,分值越高,则RAG检索的内容与Q越相关;
    • kms最小值为0.5,默认kms在0.63-0.75之间,用户可根据需要调整;
    • 对于问答比较严谨的场景,可以将回复方式调整为自定义回复,而如果选择LLM辅助回答则会在回答内容中出现更多创造性内容,也可能是对用户造成困扰的幻觉(Hallucination)。
  • 多轮对话修正rms:取值0-1,默认0.6。建议用户不要修改该分值。对话方式可以选择单轮或对轮。其他参数:

    • 创造性:既LLM的Temperature的参数,决定了LLM在输出下一个Token时的选择策略。创造性越大,LLM的下一个token输出越随机;创造性越小,则LLM的输出下一个token更倾向于逻辑上最可能的Token;
    • 多样性:既LLM的Top-P参数,多样性参数越大,则LLM在潜在下一个输出的Token的可选范围越大,Top-P值是潜在Tokens的得分累计只和。

应用中的参数配置仅对该应用起到作用,所以用户可以在”对话调试“中根据不同场景调整参数配置,以获得最佳效果,别忘记”保存“。

2.3.2.4 对话调试

3-embedded-chat-1

图17:对话调试功能

prompt编写

在图上可见,左侧最顶部是prompt编写,用户可以自行编写prompt模板,既RAG系统最终送给LLM的内容模板。其中的${context}是RAG在知识库中检索召回的最终内容,${question}是用户输入的最初问题。

在界面层面,只能维护一个prompt模板,也是默认生效的模板。但是如果您使用API进行应用开发,则可以在自己的应用中维护多个prompt模板,然后在不同的功能中将个性化prompt模板送入API的promptTemplate属性中。一旦promptTemplate不为空,默认的prompt失效。

参数配置

2.3.2.3 参数配置的内容一致,细节不再赘述。

但需要注意的是,在对话调整功能中的”参数配置“属于临时配置,调整之后即在右侧的预览调试中生效。但如果最终用户未点击”发布设置“,调整后的参数将会在关闭或跳转页面之后失效。如果用户点击了”发布设置“,则该配置参数会同步到2.3.2.3 参数配置中,覆盖原有配置。

知识库选择

知识库选择的最右侧,点击+按钮进行知识库选择,可以进行多选。

3-embedded-chat-kb

图18:知识库选择,蓝色为已选择知识库。

只需点击弹出框外,就可以看到已经选择的知识库绑定:

3-embedded-chat-kb2

图19:知识库绑定显示

2.4 快速开始总结

经过以上的知识库创建、问答测试和应用创建,您已经可以完成TorchV AI的全流程使用了,就是如此简单。

现在,您可以有以下方式使用TorchV AI:

  • 知识运营—>问答对话中进行试用,但该方法适合于测试;
  • 创建自己的应用,使用一键嵌入功能,将TorchV AI的对话能力嵌入到您的官网或其他Web版系统中,这是对外释放能力最快的一种方式;
  • 使用API对接您自己的应用,或者使用API创建新的应用,让您的更多客户享受到TorchV AI为您带来的AI能力。

Enjoy!