# Gemini 工作流与记忆 ## 工作规则 - 我会始终跟踪「项目目标」。 - 我会根据你的建议随时调整「子目标」。 - 我的工作核心是:将「子目标」拆解为「Todolist」中的具体任务,并聚焦于执行当前任务。 - 我会随时反思「Todolist」中的任务是否偏离了最终的「项目目标」。 --- # 项目目标 ## 未完成 - [ ] 构建一个能够综合利用 `Ring-mini-2.0` 和 `Ling-flash-2.0` (或其量化版本) 的工作流应用。 ## 已完成 - (暂无) --- # 子目标 ## 未完成 - [ ] **(进行中)** 实现自动化部署和验证流程。 ## 已完成 - [x] 解决模型体积过大导致部署失败的问题。 - [x] 使用 LangGraph 实现一个可以路由两个模型的聊天网页应用。 --- # Todolist ## 未完成 - [ ] (已暂停) 搜索 `huggingface_hub` 文档,确认是否存在用于重启 Space 的 API。 ## 已完成 - [x] 修改 `app.py`,移除 `Ling-flash-2.0` 模型,只保留 `Ring-mini-2.0`。 - [x] **(用户决策)** 确认 `Ling-flash-2.0` 模型过大,暂时移除,仅使用 `Ring-mini-2.0`。 - [x] 搭建 LangGraph 基础架构并重构 `app.py`。 - [x] 实现基于用户输入的模型路由逻辑。 - [x] 修复 `NameError: name 'operator' is not defined` 的 bug。 - [x] 在 `README.md` 中链接模型。 - [x] 创建并维护 `GEMINI.md` 文件。 --- ## 核心模型 - `inclusionAI/Ring-mini-2.0` (https://huggingface.co/inclusionAI/Ring-mini-2.0) ## 技术栈及限制 - **语言:** Python - **框架:** Gradio - **推理逻辑:** 由于这些模型没有 API 服务方,推理逻辑必须使用 PyTorch 自行实现。**禁止使用 `InferenceClient`**。 ## 依赖包 (Dependencies) - [`gradio`](https://pypi.org/project/gradio/) - [`huggingface-hub`](https://pypi.org/project/huggingface-hub/) - [`transformers`](https://pypi.org/project/transformers/) - [`accelerate`](https://pypi.org/project/accelerate/) - [`langgraph`](https://pypi.org/project/langgraph/) - [`langchain-community`](https://pypi.org/project/langchain-community/) - [`langchain-core`](https://pypi.org/project/langchain-core/) - [`spaces`](https://pypi.org/project/spaces/) ## 开发环境及资源 - **平台:** HuggingFace Spaces - **订阅:** HuggingFace Pro - **推理资源:** 可以使用 ZeroGPU - **文档参考:** 在必要的时候,主动搜索 HuggingFace 以及 Gradio 的在线 API 文档。