Immich 使用 Postgres 作为其元数据和上下文 CLIP 搜索的搜索数据库。
上下文 CLIP 搜索由 pgvecto.rs 扩展驱动,利用 CLIP 等机器学习模型提供相关的搜索结果。这允许进行自由形式的搜索,而无需图像或视频元数据中包含特定的关键字。
高级搜索过滤器
此外,Immich 还提供高级搜索功能,允许您使用可自定义的搜索过滤器查找特定内容。这些过滤器包括地点、一个或多个面孔、特定相册等等。您可以在演示站点上试用搜索过滤器。
过滤器智能搜索允许您按以下条件进行搜索:
人物
地点
国家
州/省
城市
相机
制造商
型号
日期范围
文件名或扩展名
媒体类型
图像(包括实况照片/动态照片)
视频
全部
条件
不在任何相册中
已归档
已收藏
电脑
手机
一些搜索示例:
高级搜索过滤器搜索示例 1
配置
导航到“管理”>“设置”>“机器学习设置”>“智能搜索”将显示可用选项。
CLIP 模型
更强大的模型可用于获得更准确的搜索结果,但速度较慢,并且可能需要更多服务器资源。在此处查看模型以获取更多选项!
也提供多语言模型,以便用户可以使用其母语进行搜索。这些模型支持 100 多种语言;尤其是 nllb 模型支持 200 种语言。
注意:多语言模型速度要慢得多,体积也更大,而且英语搜索效果比仅英语模型略差。因此,仅当您确实打算使用英语以外的语言进行搜索时才使用它们。
特殊情况下,ViT-H-14-quickgelu__dfn5b 和 ViT-H-14-378-quickgelu__dfn5b 模型在许多欧洲语言中表现出色,尽管它们并非专门的多语言模型。无论如何,它们都非常占用资源——尤其是后者。
选择模型后,将此设置更改为您选择的模型的名称。在此更改后,请务必对所有资源重新运行智能搜索。
注意:如果您想要使用的模型我们目前不支持,请随时提出功能请求。
体验账号:immich@timebank.space
密码:tianjigengu
使用了适配中文的搜索模型
同时支持人脸识别标签模型
支持地理定位
支持时间线
欢迎您试用!🌹🌹
立即体验
上次更新时间:2025 年 1 月 8 日,作者:github-actions