前面几篇博文,老牛同学和大家一起在个人电脑部署了Qwen2GLM4Llama3ChatTTSStable Diffusion等 LLM 大模型,也通过 API 和 WebUI 的方式完成了体验。

但是这些大模型因为部署在个人电脑本地,不能够随时携带。如果能在手机上部署大模型的话,老牛同学感觉很有意义,手机与我们的生活更为密切相关,并且手机上也有大量的个人数据,与大模型交互起来也更加方便。同时,在手机上跑个大模型,还是很酷!

老牛同学期望能通过本文,和大家一起完成这项很酷且有意义的事情。老牛同学用的是小米 10 Pro手机,其配置参数如下:

老牛同学手机配置

选择 Phi-3 微软开源模型

受限于手机 CPU 和内存等硬件配置,我们要选择小语言模型(SLM)。其中,阿里开源了Qwen2-0.5BQwen2-1.5B两款小尺寸模型,微软了开源Phi-3 Mini3.8B)和Phi-3 medium14B)两款尺寸模型。

由于之前我们在笔记本部署了Qwen2-7B大模型,本次我们就在手机部署Phi-3 Mini模型,顺便也体验一下不同科技公司的大模型产品,其效果可以媲美GPT-3.5大模型:

Phi-3性能评测报告

Qwen2-7B本地部署:Qwen2 阿里最强开源大模型(Qwen2-7B)本地部署、API 调用和 WebUI 对话机器人

手机配置 Linux 环境(Termux 应用)

小米等安卓手机的基于 Linux 内核的操作系统,但是我们无法像在 Linux 那样执行 Linux 命令,因此我首先得配置一下 Linux 环境。

Termux是一个 Android 的终端模拟器,可以在 Android 设备上运行 Linux 命令和工具。Termux的 Android APP 可通过官网下载并安装:https://github.com/termux/termux-app/releases

当前官网的最新稳定版本:v0.118.1 - 2024-06-18 00.05

Termux安装文件

请根据手机情况,下载对应的 apk 文件。老牛同学下载的 apk 文件:termux-app_v0.118.1+github-debug_universal.apk

apk 安装成功后,打开Termux应用后,默认展示如下,就可以开始输入 Linux 命令了:

Termux应用界面

手机上安装 Linux 操作系统

首先,我们安装proot-distro系统管理工具,proot-distro可以非常方便在 Termux 中安装卸载运行Linux 的发行版本(包括:Ubuntu、Debian、Arch Linux 等):

友情提示: 在手机中输入以下命令效率比较低,我们可以把命令发到微信,然后一条一条复制粘贴!

pkg install proot-distro

proot-distro 安装成功之后,我们安装Debian操作系统:

proot-distro install debian

Debian安装成功

最后,登录新安装的Debian操作系统:

proot-distro login debian

登录之后,自动启动了Shell命令行终端:root@localhost:~#

可以执行相关的 Linux 命令了:

Debian系统命令

通过 Termux 安装 Phi-3 模型

通过上面的操作,我们已经在手机上安装好了Debian操作系统,接下来在Debian操作系统中安装Phi-3 Mini模型。

第一步:Debian系统中安装Ollama软件,没错,就是之前在个人电脑部署Llama3Qwen2等大模型时,用于管理本地大模型的Ollama软件。由于我们在手机上安装了Debian系统,那么和电脑一样,Ollama也可以管理Debian系统本地部署的大模型:

# 安装Ollama软件
curl -fsSL https://ollama.com/install.sh | sh

Ollama安装成功输出信息如下:

Ollama安装成功

第二步: 通过后台启动Ollama服务:nohup ollama serve &

我们用Ollama命令,查看 Ollama 信息,如:

  • 查看版本:ollama -v
  • 查看本地模型列表:ollama list(目前还没有部署模型,因此结果列表为

第三步: 通过Ollama安装并启动Phi-3 Mini模型:ollama run phi3:mini

Phi-3 Mini模型文件总大小为2.4GB左右,因此下载需要一点时间:

Phi-3 Mini安装成功

到此,Phi-3 Mini模型部署成功,我们可以体验手机上的大模型,比如:请用 100 个汉字解释一下,天空为什么是蓝色的?

Phi-3 Mini模型推理

总结

相比电脑端,手机的算力弱太多,就算老牛同学用的是最小尺寸的模型(Phi-3 Mini),其推理的速度还是慢得多。其内容的输出速度,比我手机打字都要慢。盯着屏幕,看着模型一个字一个字的输出,感觉也挺有趣 😁

目前 AI 是大热门,各大公司推出的大模型参数一个比一个大,能力一个比一个厉害。但大模型训练和推理成本均比较高昂,在很大程度上限制了其发展,因此大模型 AI 应用相对较少,或者说对我们生活影响还很小,因此其还有很大的发展空间。

而反观针对特定业务场景定制的小模型(比如Phi定制等),其成本就低得多,就能更有效地应用于各种垂直场景。

老牛同学觉得这种“小而美”的 AI 模型将会越来越多,也会越来越受欢迎!


关注本公众号,我们共同学习进步 👇🏻👇🏻👇🏻

微信公众号:老牛同学

Qwen2-7B 开源大模型

Qwen2 阿里最强开源大模型(Qwen2-7B)本地部署、API 调用和 WebUI 对话机器人

Llama-3-8B 开源大模型

玩转 AI,笔记本电脑安装属于自己的 Llama 3 8B 大模型和对话客户端

一文彻底整明白,基于 Ollama 工具的 LLM 大语言模型 Web 可视化对话机器人部署指南

基于 Llama 3 搭建中文版(Llama3-Chinese-Chat)大模型对话聊天机器人

GLM-4-9B 开源大模型

本地部署 GLM-4-9B 清华智谱开源大模型方法和对话效果体验

ChatTTS 文本转语音模型

ChatTTS 开源文本转语音模型本地部署、API 使用和搭建 WebUI 界面

Stable Diffusion 3 文生图模型

Stable Diffusion 3 文生图“开源英雄”大模型本地部署和使用教程,轻松实现 AI 绘图自由

大模型应用案例

借助 AI 大模型,三分钟原创一部儿童故事短视频(附完整操作步骤)

高效编写大模型 Prompt 提示词,解锁 AI 无限创意潜能

Python 小游戏

AI 已来,我与 AI 一起用 Python 编写了一个消消乐小游戏

Python 游戏编程:一步步用 Python 打造经典贪吃蛇小游戏


Logo

开放原子开发者工作坊旨在鼓励更多人参与开源活动,与志同道合的开发者们相互交流开发经验、分享开发心得、获取前沿技术趋势。工作坊有多种形式的开发者活动,如meetup、训练营等,主打技术交流,干货满满,真诚地邀请各位开发者共同参与!

更多推荐