核心清理:找到“胃”在哪里(定位存储大户)
你需要知道AI工具把数据存在哪了。

-
模型文件 (最大块头):
- 路径:通常是安装目录下的
models、checkpoints、weights等文件夹。 - 操作:定期审查,只保留最常用、效果最好的1-2个模型,删除旧版、测试用或不满意的模型,一个基础模型动辄数GB,清理它们效果最显著。
- 路径:通常是安装目录下的
-
缓存与临时文件 (日常垃圾):
- 路径:
- PyTorch:
~/.cache/torch/(Linux/Mac) 或C:\Users\<用户名>\.cache\torch\(Windows) - Hugging Face:
~/.cache/huggingface/(存放下载的模型、数据集缓存) - ComfyUI:
ComfyUI/models/和ComfyUI/temp/ - Stable Diffusion WebUI:
stable-diffusion-webui/models/和stable-diffusion-webui/outputs/(成品图) - Ollama:
~/.ollama/models/(Mac/Linux) 或C:\Users\<用户名>\.ollama\models\(Windows)
- PyTorch:
- 操作:可以安全清理
temp文件夹,对于.cache,可以使用工具(如下文)或手动删除日期过旧的缓存文件。
- 路径:
-
生成结果与日志 (产出和日记):
- 路径:如
outputs、results、logs等文件夹。 - 操作:
- 定期归档:将满意的作品移动到其他硬盘或云存储。
- 设置自动清理:许多工具支持设置自动删除N天前的生成图或日志。
- 限制数量:在设置中限制自动保存的图片数量。
- 路径:如
主动“节食”与优化技巧(预防性养护)
-
使用模型融合或修剪技术:
- 对于大语言模型,可以使用 GPTQ、AWQ、GGUF 等量化技术,将模型文件缩小至原来的50%-70%,对性能影响很小。
- 对于绘图模型,可以尝试 模型融合 或寻找 精简版模型。
-
调整软件设置:
- 关闭不必要的缓存:在相关配置文件中,减少缓存保留时间或大小。
- 修改输出默认路径:将输出目录指向空间更大的硬盘分区。
- 降低自动保存频率:避免每步都保存高分辨率预览图。
-
使用符号链接(高级技巧):
- 如果系统盘(C盘)空间紧张,但其他盘(D/E盘)空间充足,可以将上述大型文件夹(如
models)移动到大容量硬盘,然后在原位置创建一个 “符号链接”,这样软件会以为文件还在原处,但实际上占用了其他盘的空间。 - 命令示例 (Windows):
mklink /J "C:\AI-Tool\models" "D:\BigDrive\AI-Models"
- 命令示例 (Linux/Mac):
ln -s /volumes/BigDrive/AI-Models ~/AI-Tool/models
- 如果系统盘(C盘)空间紧张,但其他盘(D/E盘)空间充足,可以将上述大型文件夹(如
使用“消化药”(专用清理工具)
-
系统级工具:
- Windows:
磁盘清理工具(清理系统临时文件)。 - 第三方神器:Treesize Free 或 WizTree,可以快速可视化扫描整个硬盘,精准定位哪个AI工具的哪个文件夹最大。
- Windows:
-
Python 缓存清理: 如果你通过
pip安装了大量AI依赖包,可以清理pip缓存:pip cache purge
-
专用脚本: 可以为你的AI工具编写简单的批处理或Shell脚本,定期清理
temp和outputs文件夹中超过7天的文件。
终极“换胃”方案(硬件与架构优化)
- 专用数据盘:为AI项目单独配置一块大容量SSD或高速机械硬盘,避免影响系统运行。
- 外接移动硬盘/NAS:将不常用的模型库、作品集归档到外部存储设备。
- 云存储+本地缓存:考虑使用云盘同步重要模型和产出,本地只保留当前项目所需。
总结行动清单
- 首次大扫除:用 WizTree 扫描,找出占用最大的AI相关文件夹。
- 清理模型库:删除不用的模型,保留精华。
- 设置自动清理:在AI软件设置中,配置输出文件的保留天数和数量。
- 转移存储路径:将模型库等大文件夹移动到非系统盘,必要时使用符号链接。
- 养成习惯:每月检查一次
.cache和outputs文件夹。
养护“AI小龙虾”的核心思路是:定期清理缓存(促消化),精选模型库(控制食量),归档产出成果(管理排泄),这样它才能持续健康地为你“吐”出创意!