ChatGLM——SDK实现模型API调用
ChatGLM——SDK实现模型API调用,同步调用、异步调用、SSE调用。
·
1、简介
- ChatGLM,又名智谱清言,是一个人工智能助手,基于智谱 AI 公司 于 2023 年联合训练的语言模型 GLM-4 开发而成,可以针对用户的问题和要求提供适当的答复和支持。
- 本文介绍如何使用ChatGLM的SDK实现模型API的调用。
2、步骤
- 获取API keys,地址:智谱AI开放平台 (bigmodel.cn)。
- 使用Anaconda创建虚拟环境。
-
conda create -n zhipuai python==3.9
-
- 进入虚拟环境。
-
conda activate zhipuai
-
- 安装 Python SDK(软件开发工具包)
-
pip install zhipuai
-
- 使用Pycharm新建项目,并配置python解释器。
- 平台提供了同步、异步、SSE 三种调用方式。
2.1、同步调用
- 调用后即可一次性获得最终结果,Python 代码示例如下:
-
""" 同步调用 调用后即可一次性获得最终结果 """ from zhipuai import ZhipuAI client = ZhipuAI(api_key="") # 填写您自己的APIKey response = client.chat.completions.create( model="glm-4", # 填写需要调用的模型名称 messages=[ {"role": "user", "content": "你好,你是谁?"}, ], ) print(response.choices[0].message.content)
-
2.2、异步调用
- 调用后会立即返回一个任务 ID,然后用任务ID查询调用结果(根据模型和参数的不同,通常需要等待10-30秒才能得到最终结果),Python代码示例如下:
-
""" 异步调用 调用后会立即返回一个任务 ID,然后用任务ID查询调用结果(根据模型和参数的不同,通常需要等待10-30秒才能得到最终结果) """ from zhipuai import ZhipuAI import time client = ZhipuAI(api_key="") # 请填写您自己的APIKey response = client.chat.asyncCompletions.create( model="glm-4", # 填写需要调用的模型名称 messages=[ { "role": "user", "content": "请你作为童话故事大王,写一篇短篇童话故事,故事的主题是要永远保持一颗善良的心,要能够激发儿童的学习兴趣和想象力,同时也能够帮助儿童更好地理解和接受故事中所蕴含的道理和价值观。" } ], ) # 获取任务ID id = response.id print(f"Task ID: {id}") # 等待一段时间后查询结果 time.sleep(30) # 等待30秒 # 查询结果 result = client.chat.asyncCompletions.retrieve_completion_result(id) print(result)
-
2.3、SSE调用
- 调用后可以流式的实时获取到结果直到结束,Python 代码示例如下:
-
""" SSE 调用 调用后可以流式的实时获取到结果直到结束 """ from zhipuai import ZhipuAI client = ZhipuAI(api_key="") # 请填写您自己的APIKey response = client.chat.completions.create( model="glm-4", # 填写需要调用的模型名称 messages=[ {"role": "user", "content": "你好!你叫什么名字"}, ], stream=True, ) for chunk in response: print(chunk.choices[0].delta)
-
开放原子开发者工作坊旨在鼓励更多人参与开源活动,与志同道合的开发者们相互交流开发经验、分享开发心得、获取前沿技术趋势。工作坊有多种形式的开发者活动,如meetup、训练营等,主打技术交流,干货满满,真诚地邀请各位开发者共同参与!
更多推荐
已为社区贡献5条内容
所有评论(0)