- 主题:图片查询相似和去重,有没有方便使用的工具?
有一个web图片上传服务,经常会看到各种重复的图片,需要内部做一个合并, 节省存储空间和带宽的功能。已有20w+的图片库,这个图片库也要做去重的校验。
目前是用了phash的算法,发现效果并不算太好,ham distance到5以内,还是查重率低。不是这方面的专家,想请问有没有现成的解决方案。
--
FROM 123.191.63.*
可以看看FindDupFile
【 在 kof1998 的大作中提到: 】
: 有一个web图片上传服务,经常会看到各种重复的图片,需要内部做一个合并, 节省存储空间和带宽的功能。已有20w+的图片库,这个图片库也要做去重的校验。
: 目前是用了phash的算法,发现效果并不算太好,ham distance到5以内,还是查重率低。不是这方面的专家,想请问有没有现成的解决方案。
--
FROM 1.202.79.*
每个图片搞一两个hash存起来,每次检索,有同样的值再抽样判断?
当然只能判断完全一样
【 在 kof1998 的大作中提到: 】
: 有一个web图片上传服务,经常会看到各种重复的图片,需要内部做一个合并, 节省存储空间和带宽的功能。已有20w+的图片库,这个图片库也要做去重的校验。
: 目前是用了phash的算法,发现效果并不算太好,ham distance到5以内,还是查重率低。不是这方面的专家,想请问有没有现成的解决方案
: ..................
发自「今日水木 on MI 6」
--
FROM 106.121.5.*
鸿蒙手机图片库,多拍了几张,会自动选择清晰度较好的。
不知道如何实现,尤其是采样这块。 做好采样,转hash,计算海明距离 应该是这个理。
【 在 kof1998 的大作中提到: 】
: 有一个web图片上传服务,经常会看到各种重复的图片,需要内部做一个合并, 节省存储空间和带宽的功能。已有20w+的图片库,这个图片库也要做去重的校验。
: 目前是用了phash的算法,发现效果并不算太好,ham distance到5以内,还是查重率低。不是这方面的专家,想请问有没有现成的解决方案。
--
FROM 115.198.27.*
居然还有能回的版,兴奋~
【 在 saynothing 的大作中提到: 】
: 鸿蒙手机图片库,多拍了几张,会自动选择清晰度较好的。
: 不知道如何实现,尤其是采样这块。 做好采样,转hash,计算海明距离 应该是这个理。
:
--
FROM 115.198.27.*
我也是
- 来自 水木社区APP v3.5.5
【 在 saynothing 的大作中提到: 】
: 居然还有能回的版,兴奋~
--
FROM 125.118.162.*