每个图片搞一两个hash存起来,每次检索,有同样的值再抽样判断?
当然只能判断完全一样
【 在 kof1998 的大作中提到: 】
: 有一个web图片上传服务,经常会看到各种重复的图片,需要内部做一个合并, 节省存储空间和带宽的功能。已有20w+的图片库,这个图片库也要做去重的校验。
: 目前是用了phash的算法,发现效果并不算太好,ham distance到5以内,还是查重率低。不是这方面的专家,想请问有没有现成的解决方案
: ..................
发自「今日水木 on MI 6」
--
FROM 106.121.5.*