# 提示词智能优化(本地模型)Android App 基于《生成专业提示词代码逻辑分析》,本地调用 LLM 实现智能提示词生成,**不依赖远程 Flask API**。 ## 功能 - **两阶段专家逻辑**:先做意图分析(技术/创意/分析/咨询),再按领域选择专家模板生成提示词 - **本地模型调用**:通过 OpenAI 兼容接口(如 Ollama)本地推理 - **配置灵活**:支持设置 API 地址和模型名称 ## 环境 - Android Studio(推荐 AGP 8.7+、Gradle 8.9) - minSdk 24,targetSdk 34 - Java 17 ## 使用前准备 1. **安装 Ollama(或其他 OpenAI 兼容服务)** - 官网:https://ollama.ai - 运行:`ollama run qwen2:0.5b`(或其它兼容模型) 2. **配置 API 地址** - 模拟器:`http://10.0.2.2:11434/v1/`(10.0.2.2 指向宿主机 localhost) - 真机:`http://<电脑局域网 IP>:11434/v1/`(如 `http://192.168.1.100:11434/v1/`) - 在 App 内点击「设置」可修改地址和模型名 ## 构建 ```bash cd exampleAiApp01 ./gradlew assembleDebug ``` 或在 Android Studio 中打开 `exampleAiApp01` 目录,直接运行到真机或模拟器。 ## 注意事项 - 需配置网络权限,并允许明文 HTTP(`network_security_config.xml` 已配置) - 确保设备与 Ollama 所在电脑处于同一局域网(真机)或使用模拟器 - 如缺少启动图标,可在 Android Studio 中通过 `File > New > Image Asset` 生成