谷歌 Gemma 安装教程
Gemma 是谷歌推出了全新的开源模型。Gemma 是免费的,模型权重也一并开源了,并且允许商用,支持安装在本地,即使了断网依然使用,另外和还可以适配不同配置的电脑,根据你的电脑的显卡,有不同的 AI 模型提供选择。Gemma 官网:https://ai.google.dev/gemma/这里使用的方式快速安装。Gemma 对显卡有一定的要求,显卡越好,执行的速度越快,Gemma对英伟达(NVID
目录
一、概述
Gemma 是谷歌推出了全新的开源模型。Gemma 是免费的,模型权重也一并开源了,并且允许商用,支持安装在本地,即使了断网依然使用,另外和还可以适配不同配置的电脑,根据你的电脑的显卡,有不同的 AI 模型提供选择。
Gemma 官网:https://ai.google.dev/gemma/
Gemma 对显卡有一定的要求,显卡越好,执行的速度越快,Gemma 对英伟达(NVIDIA)做了专门的适配,在官网的主页就可以看到对应的介绍。
经过我的测试,目前 AI 还是有点问题的,具体问题我会写再后面,建议先看完当前帖子,再决定是否安装。
另外,你的电脑 C 盘最好有 50G 以上的空间,否则就不要尝试了,这几套软件下来,差不多用了 40G 空间。
二、安装 Ollama
ollama 是安装模型的一个工具。
下载地址:
也可以在 GitHub 上进行下载:
Releases · ollama/ollama · GitHub
下载完成后,打开软件,点击 Install
默认是安装在 C 盘的,这个暂时还无法改变路径。
安装完成后,看到图标则是安装完成
在 github 上可以看到 ollama 的使用方式,这里需要根据你的显卡来执行对应的命令
Model | Parameters | Size | Download |
---|---|---|---|
Llama 2 | 7B | 3.8GB | ollama run llama2 |
Mistral | 7B | 4.1GB | ollama run mistral |
Dolphin Phi | 2.7B | 1.6GB | ollama run dolphin-phi |
Phi-2 | 2.7B | 1.7GB | ollama run phi |
Neural Chat | 7B | 4.1GB | ollama run neural-chat |
Starling | 7B | 4.1GB | ollama run starling-lm |
Code Llama | 7B | 3.8GB | ollama run codellama |
Llama 2 Uncensored | 7B | 3.8GB | ollama run llama2-uncensored |
Llama 2 13B | 13B | 7.3GB | ollama run llama2:13b |
Llama 2 70B | 70B | 39GB | ollama run llama2:70b |
Orca Mini | 3B | 1.9GB | ollama run orca-mini |
Vicuna | 7B | 3.8GB | ollama run vicuna |
LLaVA | 7B | 4.5GB | ollama run llava |
Gemma | 2B | 1.4GB | ollama run gemma:2b |
Gemma | 7B | 4.8GB | ollama run gemma:7b |
下面是 AI 命令列表,一起 69 条,由于内容实在太长了,这里就截图了一部分,可以根据下面的链接进行查看。
链接:命令地址
由装在 C 盘,在安装之前,请先看看你的电脑 C 盘有没有足够的空间
比如,这个 9GB 的适合我的显卡,那么直接点击这里
安装或者运行的命令
翻译了一下:
Gemma 是 Google 及其 DeepMind 团队开发的新开放模型。它的灵感来自于谷歌的 Gemini 模型。
Gemma 有2b
和7b
参数尺寸可供选择:
ollama run gemma:2b
ollama run gemma:7b
(默认)
这些模型接受了各种网络文档数据集的训练,使其接触到各种语言风格、主题和词汇。这包括学习编程语言语法和模式的代码,以及掌握逻辑推理的数学文本。
为了确保模型的安全性,团队采用了多种数据清洗和过滤技术,包括对CSAM(儿童性虐待材料)的严格过滤、敏感数据过滤以及符合Google政策的基于内容质量的过滤。
打开 CMD,输入 ollama run gemma:7b 回车,就能看到系统已经正在下载了
如果出现了 success 则为安装成功
安装完成后,可以看到,有 Send a mesage 字样,这时候,只需要输入问题即可,比如:
问题1:
问题2:
总体来看还可以,那么关闭当前控制台,下次要怎么使用呢?
重新打开控制台,只要输入命令 ollama run gemma:7b 回车就可以继续对话了
但是,Gemma 目前还是有点问题的,如下:
第一个问题还算正常,后续问其他问题,就开始不正常了,需要把控制台关了重新输入问题才正常,另一个这样一直在控制台中对话也不方便啊,能不能像 Chat GPT 一样,在网页中进行对话呢?当然可以了,下面就开始教你如何搭建 Open WebUI 的服务器环境。
三、安装 Docker
要使用 Open WebUI,先得安装 Docker,而 Docker 的安装,需要提前安装 Hyper-V
Docker 安装方法参考:
第二个选择 适用于 Linux 的 Windows 子系统
点击确定后,重启电脑
接下来下载 Docker Desktop
链接:Docker Desktop: The #1 Containerization Tool for Developers | Docker
下载完成后开始安装
安装完成后,显示 installation succeeded 则为安装成功,点击 close and restart 会重启电脑
重启电脑后,开机会自动弹框,点击 Accept 即可
这里选择默认的选项
不想登录 点击 continue without signing in
这里选择 skip 跳过
打开 Docker Desktop 后可能会出现一直显示 starting the docker engine
找到 Docker Desktop 图标
点击 quit docker desktop ,这里可能会卡住,关闭无法关闭
在百度中搜索 “starting the docker engine 启动卡住” 可以看到这个问题可不是一个人出现,网上也有大量的教程。
可以试试下面的方法
在 PowerShell 中输入 wsl -- update
更新完成后,重启电脑,再次用管理员的方式打开 Docker Desktop
这次就正常启动了,如果有下面画面则为安装完成
右下角的图标也会有所变化
以管理员的身份打开 PowerShell
输入:docker -v
显示了对应的版本号则为成功
再次输入:docker run hello-world
这时 Docker Desktop 会多出一条命令,由于用于测试的也没什么用,直接删了就好。
四、安装 Open WebUI
Open WebUI 是一个可扩展、功能丰富且用户友好的自托管 WebUI,适用于各种 LLM 运行器,支持的 LLM 运行器包括 Ollama 和 OpenAI 兼容的 API。
github 地址:GitHub - open-webui/open-webui: User-friendly WebUI for LLMs (Formerly Ollama WebUI)
=====================================
下面是我用软件翻译的,可以简单看下:
特点:
直观的界面:我们的聊天界面从 ChatGPT 中汲取灵感,确保用户友好的体验。
响应式设计:在桌面和移动设备上享受无缝体验。
快速响应:享受快速响应的性能。
轻松设置:使用 Docker 或 Kubernetes(kubectl、kustomize 或 helm)无缝安装,以获得无忧体验。
代码语法突出显示:通过我们的语法突出显示功能增强代码的可读性。
完整的 Markdown 和 LaTeX 支持:通过全面的 Markdown 和 LaTeX 功能来丰富交互,提升您的 LLM 体验。
本地 RAG 集成:通过突破性的检索增强生成 (RAG) 支持深入了解聊天交互的未来。此功能将文档交互无缝集成到您的聊天体验中。您可以将文档直接加载到聊天中或将文件添加到文档库中,使用#提示中的命令轻松访问它们。在 alpha 阶段,当我们积极完善和增强此功能以确保最佳性能和可靠性时,可能会偶尔出现问题。
网页浏览功能:使用#URL 后的命令将网站无缝集成到您的聊天体验中。此功能允许您将网络内容直接合并到您的对话中,从而增强交互的丰富性和深度。
提示预设支持:使用聊天输入中的命令立即访问预设提示。轻松加载预定义的对话开头并加快您的互动。通过Open WebUI Community集成轻松导入提示。
RLHF 注释:通过对消息进行“赞成”和“反对”评级来增强您的消息的能力,从而促进根据人类反馈 (RLHF) 创建强化学习数据集。利用您的消息来训练或微调模型,同时确保本地保存数据的机密性。
对话标记:轻松分类和定位特定聊天,以便快速参考和简化数据收集。
下载/删除模型:直接从 Web UI 轻松下载或删除模型。
GGUF 文件模型创建:通过直接从 Web UI 上传 GGUF 文件,轻松创建 Ollama 模型。简化的流程,可选择从您的计算机上传或从 Hugging Face 下载 GGUF 文件。
多模型支持:不同聊天模型之间无缝切换,实现多样化交互。
多模式支持:与支持多模式交互的模型无缝交互,包括图像(例如 LLava)。
模型文件生成器:通过 Web UI 轻松创建 Ollama 模型文件。通过开放 WebUI 社区集成轻松创建和添加角色/代理、自定义聊天元素以及导入模型文件。
多个模特对话:轻松地同时与多个模特互动,利用他们的独特优势来获得最佳响应。通过并行利用一组不同的模型来增强您的体验。
协作聊天:通过无缝编排群组对话来利用多个模型的集体智慧。使用@命令指定模型,在聊天界面中启用动态且多样化的对话。让自己沉浸在聊天环境中的集体智慧中。
OpenAI API 集成:轻松集成 OpenAI 兼容 API,与 Ollama 模型进行多功能对话。自定义 API 基本 URL 以链接到LMStudio、Mistral、OpenRouter 等。
再生历史记录访问:轻松重新访问和探索您的整个再生历史记录。
聊天历史记录:轻松访问和管理您的对话历史记录。
导入/导出聊天历史记录:将您的聊天数据无缝移入和移出平台。
语音输入支持:通过语音交互与您的模型互动;享受直接与模特交谈的便利。此外,探索在 3 秒静音后自动发送语音输入的选项,以获得简化的体验。
使用高级参数进行微调控制:通过调整温度等参数和定义系统提示来获得更深层次的控制,以根据您的特定偏好和需求定制对话。
外部 Ollama 服务器连接:通过配置环境变量无缝链接到托管在不同地址上的外部 Ollama 服务器。
基于角色的访问控制(RBAC):通过受限的权限确保安全访问;只有经过授权的个人才能访问您的 Ollama,并且为管理员保留专有的模型创建/拉取权限。
后端反向代理支持:通过 Open WebUI 后端和 Ollama 之间的直接通信增强安全性。这一关键功能消除了通过 LAN 公开 Ollama 的需要。从 Web UI 向“/ollama/api”路由发出的请求会从后端无缝重定向到 Ollama,从而增强整体系统安全性。
持续更新:我们致力于通过定期更新和新功能来改进 Open WebUI。
Open WebUI 安装方法:
使用 Docker 安装 Open WebUI 时,请确保 -v open-webui:/app/backend/data
在 Docker 命令中包含 。此步骤至关重要,因为它确保您的数据库正确安装并防止任何数据丢失。
-
如果 Ollama 在您的计算机上,请使用以下命令:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
-
如果 Ollama 位于不同的服务器上,请使用以下命令:
-
要连接到另一台服务器上的 Ollama,请将 更改
OLLAMA_BASE_URL
为服务器的 URL:docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
-
安装完成后,您可以通过 http://localhost:3000 访问 Open WebUI 。享受!😄
打开WebUI:服务器连接错误
如果您遇到连接问题,通常是由于 WebUI docker 容器无法访问容器内位于 127.0.0.1:11434 (host.docker.internal:11434) 的 Ollama 服务器。使用--network=host
docker 命令中的标志来解决此问题。请注意,端口从 3000 更改为 8080,导致链接:http://localhost:8080
。
Docker 命令示例:
docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main
其他安装方法
我们提供各种安装替代方案,包括非 Docker 方法、Docker Compose、Kustomize 和 Helm。请访问我们的Open WebUI 文档或加入我们的Discord 社区以获得全面的指导。
=====================================
打开 PowerShell,输入:docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
按回车,就开始安装了,这里可能会安装失败,我失败了好多次,总是下载到一半就卡住,如果下载失败,可以关闭重试,或者用魔法的方式下载,这样可以提高成功的机率,这几个软件安装下来,我看了下 C 盘,原本有 50G,现在剩下不到 10 G了。
安装完成后,会正常的结束,也可能安装中途错误,但已经安装完成了,比如这样:
出现了这个打印,直接在浏览器访问 http://localhost:3000 ,如果打开主页,说明安装成功了。
五、测试
点击 Sign up 来注册一个账号
注册完成后,就可以进入主页了,进入主页后,先选择模型进行对话
我这还没问两句,就报错了,然后 Windows 系统弹了一个框说我这磁盘空间不够,我又重新试了一下,直接无法连接服务器,不知道是不是我这电脑配置的问题,还是环境搭建的有问题,我又刷新一下网页,连模型都找不到了,现在根本无法使用。
我在控制台中输入:ollama run gemma:7b 回车,再次刷新网页, AI 模型有可以显示了,但是聊天还是报错,我试了一下,在控制台中聊天,哦嚯,控制台的 ollama 现在都用不了,算了,懒的折腾了。
总结:虽然能实现本地的部署,我感觉还是太麻烦了,而且电脑还得装一堆的东西,bug 又多,根本就不好用。
结束
如果这个帖子对你有所帮助,欢迎 关注 + 点赞 + 留言
end
开放原子开发者工作坊旨在鼓励更多人参与开源活动,与志同道合的开发者们相互交流开发经验、分享开发心得、获取前沿技术趋势。工作坊有多种形式的开发者活动,如meetup、训练营等,主打技术交流,干货满满,真诚地邀请各位开发者共同参与!
更多推荐
所有评论(0)