google谷歌图片搜索索

推荐这篇日记的豆列
······
&(5425人关注)
&(3378人关注)
&(1333人关注)
&(472人关注)
&(5人关注)请收藏我们的网址针对这个问题,请教了算法组的同事,他分享了基本的思路:对于这种图像搜索的算法,一般是三个步骤:1. 将目标图片进行特征提取,描述图像的算法很多,用的比较多的是:SIFT描述子,指纹算法函数,bundling features算法,hash function(散列函数)等。也可以根据不同的图像,设计不同的算法,比如图像局部N阶矩的方法提取图像特征。2. 将图像特征信息进行编码,并将海量图像编码做查找表。对于目标图像,可以对分辨率较大的图像进行降采样,减少运算量后在进行图像特征提取和编码处理。3. 相似度匹配运算:利用目标图像的编码值,在图像搜索引擎中的图像数据库进行全局或是局部的相似度计算;根据所需要的鲁棒性,设定阈值,然后将相似度高的图片预保留下来;最后应该还有一步筛选最佳匹配图片,这个应该还是用到特征检测算法。其中每个步骤都有很多算法研究,围绕数学,统计学,图像编码,信号处理等理论进行研究。=======================================================================下面是阮一峰的一个最简单的实现:原文链接 这种技术的原理是什么?计算机怎么知道两张图片相似呢?根据Neal Krawetz博士的解释,原理非常简单易懂。我们可以用一个快速算法,就达到基本的效果。这里的关键技术叫做"感知哈希算法"(Perceptual hash algorithm),它的作用是对每张图片生成一个"指纹"(fingerprint)字符串,然后比较不同图片的指纹。结果越接近,就说明图片越相似。下面是一个最简单的实现:第一步,缩小尺寸。将图片缩小到8x8的尺寸,总共64个像素。这一步的作用是去除图片的细节,只保留结构、明暗等基本信息,摒弃不同尺寸、比例带来的图片差异。第二步,简化色彩。将缩小后的图片,转为64级灰度。也就是说,所有像素点总共只有64种颜色。第三步,计算平均值。计算所有64个像素的灰度平均值。第四步,比较像素的灰度。将每个像素的灰度,与平均值进行比较。大于或等于平均值,记为1;小于平均值,记为0。第五步,计算哈希值。将上一步的比较结果,组合在一起,就构成了一个64位的整数,这就是这张图片的指纹。组合的次序并不重要,只要保证所有图片都采用同样次序就行了。得到指纹以后,就可以对比不同的图片,看看64位中有多少位是不一样的。在理论上,这等同于计算"汉明距离"(Hamming distance)。如果不相同的数据位不超过5,就说明两张图片很相似;如果大于10,就说明这是两张不同的图片。具体的代码实现,可以参见Wote用python语言写的imgHash.py。代码很短,只有53行。使用的时候,第一个参数是基准图片,第二个参数是用来比较的其他图片所在的目录,返回结果是两张图片之间不相同的数据位数量(汉明距离)。这种算法的优点是简单快速,不受图片大小缩放的影响,缺点是图片的内容不能变更。如果在图片上加几个文字,它就认不出来了。所以,它的最佳用途是根据缩略图,找出原图。实际应用中,往往采用更强大的pHash算法和SIFT算法,它们能够识别图片的变形。只要变形程度不超过25%,它们就能匹配原图。这些算法虽然更复杂,但是原理与上面的简便算法是一样的,就是先将图片转化成Hash字符串,然后再进行比较。感谢@喜馒头找到了源头 。
&p&【多图、多图】&/p&&p&正好刚刚完成相关必修课的一个课下环节作业,作业题目就是通过实际进行图像搜索,推测百度图像搜索用了什么原理。&/p&&br&&p&在对百度图像检索原理调研的过程中,发现目前百度可能采用的原理有:(1)基于“信息指纹”;(2)基于颜色特征;(3)取阈值分割图像;(4)深度学习;(5)跨媒体检索。下面对各个原理进行简要的介绍、测试以及分析总结。&/p&&p&&b&1&/b&&b&、基于“信息指纹”&/b&&/p&&p&1.1 原理介绍&/p&&p&这种检索方法可以分为如下几个步骤进行:&/p&&p&① 缩小尺寸&strong&。&/strong&&/p&&p&将图片缩小到8×8的尺寸,总共64个像素。这一步的作用是去除图片的细节,只保留结构、明暗等基本信息,摒弃不同尺寸、比例带来的图片差异。&/p&&p&&strong&②&/strong&&strong&简化色彩。&/strong&&/p&&p&将缩小后的图片,转为64级灰度。也就是说,所有像素点总共只有64种颜色。&/p&&p&&strong&③&/strong&&strong&计算平均值。&/strong&&/p&&p&计算所有64个像素的灰度平均值。&/p&&p&&strong&④&/strong&&strong&比较像素的灰度。&/strong&&/p&&p&将每个像素的灰度,与平均值进行比较。大于或等于平均值,记为1;小于平均值,记为0。&/p&&p&&strong&⑤&/strong&&strong&计算哈希值。&/strong&&/p&&p&将上一步的比较结果,组合在一起,就构成了一个64位的整数,这就是这张图片的指纹。组合的次序并不重要,只要保证所有图片都采用同样次序就行了。&/p&&p&得到指纹以后,就可以对比不同的图片,看看64位中有多少位是不一样的。在理论上,这等同于计算“汉明距离”(Hamming distance)。如果不相同的数据位不超过5,就说明两张图片很相似;如果大于10,就说明这是两张不同的图片。&/p&&p&1.2 分析&/p&&p&
通过对“信息指纹”的原理介绍,我们发现这种方法比较看重检索图像的结构以及灰度值的分布情况,不能得到RGB值的分布情况,在检索时也不具有旋转、平移不变性。&/p&&p&1.3 测试&/p&
经过上述分析,我用MATLAB生成了几幅图像,然后利用百度识图进行检索测试,下面是测试的结果。&img src=&/b0ff59a06dc67_b.jpg& data-rawwidth=&544& data-rawheight=&555& class=&origin_image zh-lightbox-thumb& width=&544& data-original=&/b0ff59a06dc67_r.jpg&&&p&图1 原图a&/p&&img src=&/012a46a710c356c0f279c771f9b42416_b.png& data-rawwidth=&1411& data-rawheight=&711& class=&origin_image zh-lightbox-thumb& width=&1411& data-original=&/012a46a710c356c0f279c771f9b42416_r.png&&&p&图2 图a的检索结果&/p&&img src=&/1f159b86d966c1b5ae28db17d39108eb_b.jpg& data-rawwidth=&544& data-rawheight=&547& class=&origin_image zh-lightbox-thumb& width=&544& data-original=&/1f159b86d966c1b5ae28db17d39108eb_r.jpg&&&p&图3 原图b&img src=&/ab5fc750d0a30de3ce5e7_b.png& data-rawwidth=&1397& data-rawheight=&706& class=&origin_image zh-lightbox-thumb& width=&1397& data-original=&/ab5fc750d0a30de3ce5e7_r.png&&&/p&&p&图4 图b的检索结果&img src=&/7328acef2f469a4ca4c9_b.jpg& data-rawwidth=&1238& data-rawheight=&638& class=&origin_image zh-lightbox-thumb& width=&1238& data-original=&/7328acef2f469a4ca4c9_r.jpg&&&/p&&p&图5 原图c&img src=&/7adaad8c5c367_b.png& data-rawwidth=&1391& data-rawheight=&678& class=&origin_image zh-lightbox-thumb& width=&1391& data-original=&/7adaad8c5c367_r.png&&&/p&&p&图6 图c的检索结果&/p&&p&经过上面三次检索测试,我们可以得到如下结论:&/p&&p&(1)
图a和图b之间只是旋转了90度,结果发现检索的结果也旋转了90度,说明百度图片检索对图片的结构的确很敏感,检索图像时不具有旋转不变性;&/p&&p&(2)
图c是在图b的基础上加上了一个RGB颜色分布,比较b和c的检索结果,发现检索出来图片的结构都比较相似,但是,后者明显比前者多了颜色信息,这说明百度在进行图片检索时,RGB颜色的分布也是检索的依据之一;&/p&&p&(3)
仔细观察图b的检索结果,发现排名第二的图片和检索出的其他图片差别其实是很大的,他们在整体结构上完全不一样,只是局部结构上有一些线条信息,这也是一个值得思考的地方。&/p&&p&&b&2&/b&&b&、基于颜色特征&/b&&/p&&p&2.1 原理介绍&/p&&p&基于颜色特征的图像检索原理的大致思想是:每张图像都可以转化成颜色分布直方图(color histogram),如果两张图片的直方图很接近,就可以认为它们很相似,如图:&img src=&/6f97dfb63e665133cfc5_b.jpg& data-rawwidth=&650& data-rawheight=&338& class=&origin_image zh-lightbox-thumb& width=&650& data-original=&/6f97dfb63e665133cfc5_r.jpg&&&/p&&p&任何一种颜色都是由红绿蓝三原色(RGB)构成的,所以上图共有4张直方图(三原色直方图 + 最后合成的直方图)。将0~255分成四个区:0~63为第0区,64~127为第1区,128~191为第2区,192~255为第3区。这意味着红、绿、蓝分别有4个区,总共可以构成64种组合(4的3次方)。任何一种颜色必然属于这64种组合中的一种,这样就可以统计每一种组合包含的像素数量。&img src=&/740b8c288af4fe614ff15ab6b5ca2f18_b.png& data-rawwidth=&650& data-rawheight=&553& class=&origin_image zh-lightbox-thumb& width=&650& data-original=&/740b8c288af4fe614ff15ab6b5ca2f18_r.png&&&/p&&p&上图是某张图片的颜色分布表,将表中最后一栏提取出来,组成一个64维向量(, 0, 0, 8, ..., 109, 0, 0, 3415,
53929)。这个向量就是这张图片的特征值。于是,寻找相似图片就变成了找出与其最相似的向量。这可以用&a href=&http://en.wikipedia.org/wiki/Pearson_product-moment_correlation_coefficient& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&皮尔逊相关系数&i class=&icon-external&&&/i&&/a&或者&a href=&/blog/2013/03/cosine_similarity.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&余弦相似度&i class=&icon-external&&&/i&&/a&算出。&/p&&p&2.2 分析&/p&&p&通过上述原理描述,我们发现基于这种原理的图像检索只关注图像在统计意义下的RGB颜色分布信息,并不关心图像本身的空间分布信息。&/p&&p&2.2 测试&/p&&img src=&/46bc3f78138eed5afe23be_b.jpg& data-rawwidth=&365& data-rawheight=&340& class=&content_image& width=&365&&&p&图7 原图d&img src=&/8c9b5ebd0e840c56c174_b.png& data-rawwidth=&1421& data-rawheight=&705& class=&origin_image zh-lightbox-thumb& width=&1421& data-original=&/8c9b5ebd0e840c56c174_r.png&&&/p&&p&图8 图d的检索结果&img src=&/b1dda31b100af141451b_b.jpg& data-rawwidth=&369& data-rawheight=&340& class=&content_image& width=&369&&&/p&&p&图9 原图e&img src=&/7a95d371f6fbb_b.png& data-rawwidth=&1399& data-rawheight=&667& class=&origin_image zh-lightbox-thumb& width=&1399& data-original=&/7a95d371f6fbb_r.png&&&/p&&p&图10 图e的检索结果&/p&&p&观察上诉测试结果,我们可以得到如下几个结论:&/p&&p&(1)
还是验证了百度图像检索对结构比较看重,检索出来的图像和原图在整体结构上保持一致;&/p&&p&(2)
原图d和原图e只是改变了一下色块的位置,所以如果做它们的颜色分布直方图应该是完全一致的,但是这两张图片的检索结果很相似但是并不完全相同,因此基本可以判断百度图像检索肯定不可能只采用颜色分布直方图来进行检索;&/p&&p&(3)
原图d和原图e唯一的差别就是色块的位置改变了,但是检索出来的结果并不相同,说明百度进行图像检索时应该也是考虑了颜色在空间位置上的分布信息的。&/p&&p&&b&3&/b&&b&、取阈值分割图像&/b&&/p&&p&3.1 原理介绍&/p&&p&首先,将原图转成一张较小的灰度图片,假定为50×50像素。然后,确定一个阈值,将灰度图片转成黑白图片。如果两张图片很相似,它们的黑白轮廓应该是相近的。确定阈值可以采用“穷举法”,将阈值从灰度的最低值到最高值,依次取一遍,使得“类内差异最小”或“类间差异最大”的那个值,就是最终的阈值。&/p&&img src=&/7edf9adec3be_b.jpg& data-rawwidth=&650& data-rawheight=&234& class=&origin_image zh-lightbox-thumb& width=&650& data-original=&/7edf9adec3be_r.jpg&&&br&&p&有了50×50像素的黑白缩略图,就等于有了一个50×50的0-1矩阵。矩阵的每个值对应原图的一个像素,0表示黑色,1表示白色。这个矩阵就是一张图片的特征矩阵。&/p&&p&两个特征矩阵的不同之处越少,就代表两张图片越相似。这可以用“异或运算”实现(即两个值之中只有一个为1,则运算结果为1,否则运算结果为0)。对不同图片的特征矩阵进行“异或运算”,结果中的1越少,就是越相似的图片。&/p&&p&3.2 分析&/p&&p&可以看出这种方法和第一种“信息指纹”的原理是很相似的,因此也具有相似的特点,就是都对图像的结构比较看重,忽视RGB颜色的分布,并且检索图像不具有旋转、平移不变性。&/p&&p&3.3 测试&/p&&p&&img src=&/2e58f86f88a7908f9bfdaf080428beef_b.jpg& data-rawwidth=&256& data-rawheight=&256& class=&content_image& width=&256&&图11 原图f&/p&&p&&img src=&/1a274e5f8f2cda8ead260_b.png& data-rawwidth=&1390& data-rawheight=&657& class=&origin_image zh-lightbox-thumb& width=&1390& data-original=&/1a274e5f8f2cda8ead260_r.png&&图12 图f的检索结果&/p&&p&&img src=&/9a355d1a66aabe2110ea2fdef8526ccc_b.jpg& data-rawwidth=&256& data-rawheight=&256& class=&content_image& width=&256&&图13 原图g&/p&&p&&img src=&/6d09fb8b8c8_b.png& data-rawwidth=&1387& data-rawheight=&671& class=&origin_image zh-lightbox-thumb& width=&1387& data-original=&/6d09fb8b8c8_r.png&&图14 图g的检索结果&/p&&p&&img src=&/ef518fa48f6c3_b.jpg& data-rawwidth=&220& data-rawheight=&220& class=&content_image& width=&220&&图15 原图h&/p&&p&&img src=&/69b938ab6cdeded8a216_b.png& data-rawwidth=&1398& data-rawheight=&633& class=&origin_image zh-lightbox-thumb& width=&1398& data-original=&/69b938ab6cdeded8a216_r.png&&图16 图h的检索结果&/p&&p&通过上述检索测试,我们可以得到如下结论:&/p&&p&(1)
图f和图h唯一的区别是f是彩色图像,h是它的二值图像,但是我们发现他们的检索结果有很大的差别,彩色图像检索出来依然是彩色图像,二值图像检索出来也都是二值图像,至少可以说明百度图片检索不可能只靠取阈值分割图像来作为检索依据;&/p&&p&(2)
图g是在图f 的基础上进行了一个90度的旋转,发现两者的检索结果差别还是挺大的,再一次验证了百度图片检索不具有旋转不变性;&/p&&p&(3)
当用彩色人脸进行检索时得到的几乎都是人脸,但是二值化后进行检索,发现检索结果并不完全是人脸,有动物甚至毛笔字,还是说明原图像RGB的分布在做检索时还是比较重要的;&/p&&p&&b&4&/b&&b&、深度学习(Deep Learning)&/b&&/p&&p&4.1 原理介绍&/p&&p&自从Hinton在2012年将深度卷积神经网络(CNN)带入到图像分类领域后,深度学习在图像处理相关领域的研究一下子变得异常火热起来。从2012年开始,每年ILSVRC比赛的最好成绩都有比较大的进步,特别是最近2015年百度刚宣布他们已经将ImageNet图像分类的top-5错误率降低到5.98%,达到了目前公开的最好成绩,基于百度对将深度学习应用在图像处理领域的如此强烈的兴趣和技术能力,百度很有可能已经将深度学习的技术应用在了图像搜索方面。&/p&&p&由于现在关于深度卷积神经网络的资料挺多的,并且基本都还没脱离Hinton在2012年提出的结构,所以这里不准备详细展开CNN的原理介绍。简单概括就是:利用多个隐藏层、每层多个卷积核对输入图像进行卷积,每层的输出作为下一层的输入,最后连接一个分类器进行分类,通过不断的训练修改各层的参数,最后在每个隐藏层训练得到一些抽象的特征图谱,网络训练好后就可以对输入图像进行分类了。&/p&&p&4.2 分析&/p&&p&基于深度学习原理的图像检索,更多的是从一种图像理解的角度来进行的,得到的是一种更加抽象的描述,也可以理解为“语义”,它更多的是在解释这个图像描绘的是什么物体或者什么场景之类的。&/p&&p&4.3 测试&/p&&p&&img src=&/ce2e7db6f240_b.jpg& data-rawwidth=&852& data-rawheight=&640& class=&origin_image zh-lightbox-thumb& width=&852& data-original=&/ce2e7db6f240_r.jpg&&图17 原图i &/p&&p&&img src=&/ae6e96dac0ba9_b.png& data-rawwidth=&1381& data-rawheight=&640& class=&origin_image zh-lightbox-thumb& width=&1381& data-original=&/ae6e96dac0ba9_r.png&&图18 图i的检索结果&/p&&p&&img src=&/191131acd2fc025b571b_b.jpg& data-rawwidth=&960& data-rawheight=&1280& class=&origin_image zh-lightbox-thumb& width=&960& data-original=&/191131acd2fc025b571b_r.jpg&&图19 原图j&/p&&p&&img src=&/4a4df0c9b17f66e437ed87fc467d7bdf_b.png& data-rawwidth=&1392& data-rawheight=&641& class=&origin_image zh-lightbox-thumb& width=&1392& data-original=&/4a4df0c9b17f66e437ed87fc467d7bdf_r.png&&图20 图j的检索结果&/p&&p&&img src=&/c5cfb0d693a4b8d1dcf06c7b85aebae0_b.jpg& data-rawwidth=&1280& data-rawheight=&960& class=&origin_image zh-lightbox-thumb& width=&1280& data-original=&/c5cfb0d693a4b8d1dcf06c7b85aebae0_r.jpg&&图21 原图k &/p&&p&&img src=&/a18bfc49fa5a18d0c036d78e_b.png& data-rawwidth=&1374& data-rawheight=&662& class=&origin_image zh-lightbox-thumb& width=&1374& data-original=&/a18bfc49fa5a18d0c036d78e_r.png&&图22 图k的检索结果&/p&&p&&img src=&/9b0ad20feeb136e79fee6d7b3d27407f_b.jpg& data-rawwidth=&640& data-rawheight=&854& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&/9b0ad20feeb136e79fee6d7b3d27407f_r.jpg&&图23 原图l&/p&&p&&img src=&/21d62e076f_b.png& data-rawwidth=&1391& data-rawheight=&672& class=&origin_image zh-lightbox-thumb& width=&1391& data-original=&/21d62e076f_r.png&&图24 图l的检索结果&/p&&p&上述用于检索的原图都是我手机里面自己平时拍的,网络上没有的,完全的无标注数据。我们发现检索的结果在语义上还是比较非常相近的,背景也非常相近,百度应该是对图像做了一定程度的语义理解的。
&/p&&p&&b&5&/b&&b&、利用种子图片&/b&&/p&&p&5.1 原理&/p&&p&在2013年的时候有人将深度学习应用在图像检索领域,大致做法是这样的:首先它利用深度卷积神经网络和深度自动编码器提取图片的多层特征,并据此提取图片的visual word,建立倒排索引,产生一种有效而准确的图片搜索方法,再充分利用大量的互联网资源,预先对大量种子图片做语义分析,然后利用相似图片搜索,根据相似种子图片的语义推导出新图片的语义。&/p&&p&5.2 分析&/p&&p&但如果按照上面原理的描述,似乎重点在于对种子图片的判断上,如果种子图片判断对了,那么检索结果自然会很靠谱;反之,若种子图片判断错了,那么检索结果会很糟糕。其实这更像是一种利用互联网多年文本检索的积累,进行的一种文本与图像之间的跨媒体检索。&/p&&p&5.3 测试&/p&&p&&img src=&/adce5c29944_b.jpg& data-rawwidth=&293& data-rawheight=&220& class=&content_image& width=&293&&图25 图m的检索结果&/p&&p&&img src=&/ea6e3f7ca449edb0d98ce89a9aec3644_b.png& data-rawwidth=&512& data-rawheight=&171& class=&origin_image zh-lightbox-thumb& width=&512& data-original=&/ea6e3f7ca449edb0d98ce89a9aec3644_r.png&&图26 图m的判断&/p&&p&&img src=&/dbdce8e3d397daf19c7ab732b7b9cef6_b.png& data-rawwidth=&1387& data-rawheight=&664& class=&origin_image zh-lightbox-thumb& width=&1387& data-original=&/dbdce8e3d397daf19c7ab732b7b9cef6_r.png&&图27 图m的检索结果&/p&&p&上面用来测试的原图是在网上找的,检索给出的描述表明对该图像的文本判断是正确的,但是检索到的结果却并不理想,只有前两张图像是描述的鳄鱼,其他都不是,只是背景相似。因此应该可以得出结论,百度图像检索没有利用其文本检索的信息,纯粹依靠的是输入图像本身的性质。&/p&&p&&b&总结&/b&&/p&&p&通过上述分析,对于百度的图像检索可以得到的判断是:&/p&&p&(1)
不可能只采用“信息指纹”、颜色直方图、取阈值分割法其中的某一种来做为判断依据;&/p&&p&(2)
应该是对图像做了语义理解的;&/p&&p&(3)
检索的结果跟输入图像的结构、RGB颜色的空间分布等信息有关系,并且检索不具有旋转不变性;&/p&&p&(4)
没有利用文本检索,即没有建立文本-图像的跨媒体检索;【哈哈哈,好开心,因为现在老板给我定的博士方向就是跨媒体检索~~】&/p&&p&对此,对百度图像检索所采用的原理的一个猜测是,它利用深度学习的方法进行了图像语义的理解,也有可能在某些情况下利用图像结构、RGB分布等信息作为辅助判断依据,并且对输入图像的方向性有要求。&/p&&p&&b&参考资料&/b&&/p&&p&1、&a href=&/blog/2011/07/principle_of_similar_image_search.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&相似图片搜索的原理&i class=&icon-external&&&/i&&/a&;&/p&&p&2、Ren Wu, Shengen Yan, Yi Shan, Qingqing Dang, Gang Sun,Deep Image: Scaling up Image Recognition&/p&
【多图、多图】正好刚刚完成相关必修课的一个课下环节作业,作业题目就是通过实际进行图像搜索,推测百度图像搜索用了什么原理。在对百度图像检索原理调研的过程中,发现目前百度可能采用的原理有:(1)基于“信息指纹”;(2)基于颜色特征;(3)取阈值…
你在多次使用一个搜索引擎时,会发现一些规律的,关键词搜索,这个在文本搜索中是比较常规的,也是基础的,你可能更关心的是它的以图搜图,即基于内容的图像检索CBIR,在我看来,google中一个应用最为明显的是颜色信息,这个也是最容易实现的特征,个人认为特征是其一,难在特大数据库的检索,这个是需要技术的,当数据量很小的时候,任何特征几乎都可以实现检索,但当数据量很大的时候,应运而来的却是很复杂的,那是一个工程性的东西。就像铁道部售票系统一夜崩溃,高的并发量,高的数据量才是第一要解决的。
你在多次使用一个搜索引擎时,会发现一些规律的,关键词搜索,这个在文本搜索中是比较常规的,也是基础的,你可能更关心的是它的以图搜图,即基于内容的图像检索CBIR,在我看来,google中一个应用最为明显的是颜色信息,这个也是最容易实现的特征,个人认为…播放列表加载中...
正在载入...
分享视频:
嵌入代码:
拍下二维码,随时随地看视频
Google-谷歌图片搜索:针对图片格式搜索
上 传 者:
内容介绍:
Google-谷歌图片搜索:针对图片格式搜索
Channel Me 精选
我来说点啥
版权所有 CopyRight
| 京网文[0号 |
| 京公网安备:
互联网药品信息服务资格证:(京)-非经营性- | 广播电视节目制作经营许可证:(京)字第403号
<img src="" width="34" height="34"/>
<img src=""/>
<li data-vid="">
<img src=""/><i data-vid="" class="ckl_plays">
<img width="132" height="99" src=""/>
在线人数:
<li data-vid="">
<img src=""/><i data-vid="" class="ckl_plays">
<img src="///img/blank.png" data-src=""/>
<img src="///img/blank.png" data-src="http://"/>
<li data-vid="" class="cfix">
src="///img/blank.png" data-src=""/>
<i data-vid="" class="ckl_plays">
<li data-vid="" class="cfix">
src="///img/blank.png" data-src=""/><i data-vid="" class="ckl_plays">
没有数据!
{upload_level_name}
粉丝 {fans_count}
{video_count}
{description}

我要回帖

更多关于 图片搜索 的文章

 

随机推荐