口袋AI本地大模型软件官方版是一款可以在本地离线运行的AI软件,软件无需互联网连接,就能直接与AI模型进行互动,这一特性确保了对话的私密性和安全性,可以在软件里直接使用包括Deepseek在内的软件,所有对话都在本地设备上处理,不会上传至云端从而保障了用户数据安全与隐私!
离线 AI 助手:在手机上直接运行语言模型,无需依赖互联网。
多模型支持:下载并切换多种 SLMs,如 Danube 2/3、Phi、Gemma 2、Qwen 等。
自动管理内存:后台运行时自动卸载/加载模型,优化设备性能。
自定义推理参数:调整系统提示词、温度、BOS token、对话模板等设置。
实时性能监测:查看 AI 生成响应时的每秒处理 Token 数和单个 Token 处理时间。
Hugging Face 集成:直接在应用内搜索 GGUF 模型,支持收藏或下载。
安全私密:所有对话均在本地处理,数据不会上传,确保隐私安全。
- 离线聊天:直接在您的设备上与高级人工智能模型交互,无需互联网连接。
- 安全和私密:您的数据永远不会离开您的设备。所有对话均在本地处理,提供安全性和安心。
- 基准测试:在手机上对模型性能进行基准测试并与社区分享。
1、下载模型,点击汉堡菜单
2、导航到 “Models” 页面,选择您想要的型号并点击下载
3、加载模型,下载后,点击 Load 将模型导入内存。现在您可以聊天了!
在 iOS 设备上,Apple 的 GPU API (Metal) 默认处于激活状态。如果您遇到任何问题,请尝试停用它。
iOS 金属
自动卸载/加载
为了保持设备平稳运行,PocketPal AI 可以自动管理内存使用情况:
在模型页面上启用 “Auto Offload/Load” (默认情况下是)
该应用程序将在后台卸载模型
当您返回时,它会重新加载(对于较大的模型,请等待几秒钟)
高级设置
单击 V 形图标可访问高级 LLM 设置,例如:
温度
BOS 代币
聊天模板选项等。
加载模型后,前往 “聊天” 页面并开始与加载的模型交谈!
此时还会显示 generation performance (生成性能) 指标。如果有兴趣,请观察聊天气泡以获取实时性能指标:每秒令牌数和每个令牌的毫秒数。
1、直接在您的设备上运行语言模型,无需互联网连接。
2、下载并在多个 SLM 之间进行交换,包括 Danube 2 和 3、Phi、Gemma 2 和 Qwen。
3、当应用程序在后台运行时,通过卸载模型来自动管理内存。
4、自定义模型参数,如系统提示符、温度、BOS 令牌和聊天模板。
1、袖珍型 AI 助手,由直接在手机上运行的小型语言模型 (SLM) 提供支持。
2、PocketPal AI 专为 iOS 和 Android 设计,让您无需互联网连接即可与各种 SLM 进行交互。
3、在 AI 响应生成期间查看每秒令牌数和每个令牌的毫秒数。
82.5M / 02-13
学习阅读
下载188.5M / 01-13
学习阅读
下载79.2M / 01-13
学习阅读
下载9.9M / 02-19
32.1M / 02-18
40.5M / 02-17
22.9M / 02-17
13.4M / 02-14
183.4M / 02-12
36.0M / 02-12
28.0M / 02-08
20.1M / 02-06
29.6M / 01-22
22.3M / 01-17
65.3M / 01-15
83.2M / 02-17
17.4M / 02-10
242.7M / 02-08
7.4M / 01-07
197.7M / 01-02
59.3M / 12-26
97.8M / 12-20
42.3M / 12-18
38.5M / 12-16
31.9M / 12-05
140.6M / 12-03
92.3M / 12-03
48.2M / 02-15
60.4M / 02-14
78.9M / 02-14
162.0M / 02-14
178.8M / 02-13
162.4M / 02-11
72.7M / 02-10
77.6M / 02-07
91.4M / 01-23
63.3M / 01-16
16.1M / 01-16
60.0M / 01-15
135.2M / 02-17
40.6M / 02-17
111.9M / 02-15
93.2M / 02-15
64.5M / 02-14
32.0M / 02-14
107.8M / 02-13
30.6M / 02-13
59.8M / 02-13
89.9M / 02-13
38.3M / 02-11
16.1M / 02-11
26.1M / 02-19
36.6M / 02-19
46.7M / 02-18
62.6M / 02-18
121.1M / 02-18
166.6M / 02-18
107.3M / 02-17
114.4M / 02-17
93.0M / 02-15
88.5M / 02-14
47.5M / 02-14
36.2M / 02-12
174.1M / 01-02
104.6M / 01-02
48.3M / 12-31
68.7M / 12-31
23.8M / 12-31
110.2M / 12-27
47.7M / 12-27
58.1M / 12-17
26.3M / 12-16
41.3M / 12-16
51.2M / 12-10
69.3M / 12-10
43.0M / 02-17
46.3M / 02-17
93.9M / 02-15
86.5M / 02-15
50.3M / 02-15
77.5M / 02-14
63.4M / 02-14
64.5M / 02-14
145.9M / 02-13
62.6M / 02-13
92.1M / 02-12
168.3M / 02-12