厂商:
备案号:
MNN Chat手机大模型免费下载最新版2025是一款基于MNN LLM的,手机上就能跑的大模型应用,可以直接在手机端独立运行各种大型模型,比如DeepSeek、Qwen、Gemma、Llama、ReaderLM等,不同机型可以有不同选择,直接点击就能快速下载安装,感兴趣的朋友们快来宝贝游戏网下载吧!
1、在宝贝游戏网下载安装软件,打开后进入主页
2、进入主页可以看到AI模型,大家可以根据自己的需求选择想要部署的AI模型
3、然后选择需要下载的文件,直接点击就能快速下载
4、还可以在搜索框输入关键词进行搜索下载
多模态功能:涵盖文本到文本、图像到文本、音频转文本以及文本生成图像等多种应用场景。
CPU推理性能提升:在安卓平台上,MNN-LLM展现出显著的CPU优化效果,预填充速度相比llama.cpp提升了8.6倍,解码速度也加快了2.3倍。
模型兼容范围广泛:支持众多知名模型提供商,如Qwen、Gemma、Llama(含TinyLlama与MobileLLM)、Baichuan、Yi、DeepSeek、InternLM、Phi、ReaderLM及Smolm等。
本地化运行:所有操作均在设备本地执行,保障数据隐私安全,无需上传至外部服务器。
体积小巧轻便:APK安装包体积紧凑(核心引擎仅约800KB),节省存储空间,对设备性能影响微乎其微。
离线工作模式:无需网络连接,所有计算均在本地完成,既节省流量又保护用户隐私。
1、核心功能(即模型推理,支持CPU+GPU)实现独立无依赖,代码结构精简,非常适合部署至移动设备及各类嵌入式系统。
2、针对iOS平台,提供功能完整的MNN静态库,支持armv7及arm64架构,库文件大小约为12MB,集成至应用程序后,将增加约2MB的可执行文件大小。若对核心功能进行裁剪,静态库大小可缩减至6.1MB,相应增加的可执行文件大小为600KB。
3、对于Android平台,核心功能以armv7a架构的c++_shared动态库形式提供,大小约为800KB。
4、软件支持Mini编辑选项,可进一步缩减包体积,相较于基础库大小,约能减少25%。
5、软件还具备模型压缩与量化功能,支持FP16/Int8格式,可有效降低模型体积,减少幅度可达50%至75%。
1、兼容 Tensorflow、Caffe、ONNX、Torchscripts 等多种主流模型文件格式,并适配 CNN、RNN、GAN、Transformer 等主流网络架构。
2、具备多输入多输出能力,可处理任意维度的输入输出数据,支持动态输入(即输入大小不固定),同时兼容含有控制流的模型。
3、算子库丰富,涵盖 178 个 Tensorflow 操作符、52 个 Caffe 操作符、163 个 Torchscripts 操作符、158 个 ONNX 操作符(ONNX 操作符基本实现全面支持)。
4、广泛适用于服务器、个人电脑、手机以及具有POSIX接口的嵌入式设备,支持利用这些设备的 CPU、GPU 进行计算,同时部分设备还支持 NPU 计算(如 IOS 11 及以上版本的 CoreML、华为 HIAI、Android NNAPI)。
5、操作系统兼容性强,支持 Windows、iOS 8.0 及以上版本、Android 4.3 及以上版本、Linux 以及具有POSIX接口的其他操作系统。
详细使用攻略可看文档:https://mnn-docs.readthedocs.io/en/latest/transformers/llm.html