公司现在还没有引入飞书等平台,想在小组内试搭一套 RAG 平台,内网有 QWEN 的大模型接口,于是有了下述方案,大家看看是否合适,运行硬件配置不高,无单独 GPU:1.传统知识库用基于 MARKDOWN 格式的 OUTLINE ,支持团队协作,单点登录,缺点是没有离线功能。2.RAG 知识库平台和 AGENT 平台选用 FASTGPT ,没有用 DIFY ,感觉 DIFY 要重一点,也没用只聚焦于 RAG 的 MAXKB 。 1 ) LLM 用内网已经有的 QWEN 大模型 2 ) embedding 用本地的 m3e 3 ) rerank 模型也用本地的 bge rerank 模型3.胶水准备用 N8N ,从 OUTLINE 把知识定期推送到 FASTGPT 。4.最后是文档的问答模式准备用 NGINX 做拦截嵌入,在 OUTLINE 文档页面做个弹窗把上下文传到后端 FASTPGT 。
讨论下自建内网 RAG 知识库和 AGENT 平台
内容版权声明:除非注明,否则皆为本站原创文章。