基于LangChain-ChatGLM构建智能客服(二)
我们知道LangChain-ChatGLM对是GPU硬件强依赖的,每一台LangChain-ChatGLM服务支持的并发数也是有限的,当支持很大并发量的情况下,单台LangChain-ChatGLM服务满足不了要求的情况下,如何对LangChain-ChatGLM服务中的知识库一致性如何管理呢?
·
本文简介
我们知道LangChain-ChatGLM对是GPU硬件强依赖的,每一台LangChain-ChatGLM服务支持的并发数也是有限的,当支持很大并发量的情况下,单台LangChain-ChatGLM服务满足不了要求的情况下,如何对LangChain-ChatGLM服务中的知识库一致性如何管理呢?
设计思路
写在最后
XXXX
开放原子开发者工作坊旨在鼓励更多人参与开源活动,与志同道合的开发者们相互交流开发经验、分享开发心得、获取前沿技术趋势。工作坊有多种形式的开发者活动,如meetup、训练营等,主打技术交流,干货满满,真诚地邀请各位开发者共同参与!
更多推荐
已为社区贡献5条内容
所有评论(0)