米课圈APP开放下载了!优秀的外贸人都在这~

打开APP 立即下载

请下载APP查看

立即下载
正在下载
您可以关闭本页面,返回桌面查看
颜sir说 2020-07-21 13:56
如何5分钟扒出200个客户网址?

我来分享一个方法,让你能迅速爬取谷歌搜索结果页上的所有网址,实现5分钟抓取200个客户网站。

最终你会得到这样的结果(截图中全是客户官网首页地址):

image-49-1024x574.png

先分享思路:

  1. 将谷歌调为一页100条搜索结果;

  2. 制作“过滤器”;

  3. 使用谷歌插件 过滤器批量获取网址;

  4. 在Excel中去重;

得到网址之后,不管是用hunter批量获取网站的地址,又或者是用ahrefs批量分析网站流量找到合适的站长,就随你了。

重要的是,我们用以上四步节约了大量时间,以下正文。

将谷歌调为一页100条搜索结果

第一步是将谷歌调为一页100条搜索结果,非常简单,如图所示,点开谷歌搜索页,右下角选中“设置→搜索设置”。

image-41-2048x1400.png

然后在设置页面中,将每页的搜索数调为“100”。

image-42-1024x578.png

文章写到这里,我在想既然谷歌能直接展示100个页面,那有没有办法让谷歌呈现1,000个页面或者10,000个页面?

我用“can google display more than 100 result per page?”作为关键词查了下,翻了几个帖子发现都没提到怎么突破100上限,估计谷歌的查询最多只能返还100个结果吧。

暂时不管这个问题,如果你知道怎么一次性获取超过100个结果页,请私信我,送你个小礼物(我猜应该有,只要拼接下查询结果就行……用Python很容易实现,不过这个教程是写给小白的,就不dive too deep了)。

制作“过滤器”

再然后输入你想查的关键词,比如WordPress Theme,在谷歌浏览器上右键任意搜索结果,然后点击“检查”(没错,我们要看它的源代码):

image-43-1024x549.png

然后在最下面会出现一个源代码的框,观察一下,当把鼠标放到对应的代码块上时,这个代码块代表的文本会在浏览器上高亮出来:

image-44-768x415.png

我们要的是网址,所以上下翻找下,特别是三角形的下拉小箭头,也可以展开收起,一个个遍历,最终我们会找到一串代表着网址的代码块(哪怕你不熟悉代码,用最最笨的方法,5分钟也肯定能找到的):

image-45-1024x612.png

然后右键这串代码,选择“copy→copy xpath”:

image-46-1024x563.png

此时你会得到类似于以下代码的东西(不要惊慌,不需要理解,照做就行):

//*[@id="rso"]/div[1]/div/div[1]/a/div/cite/text()

这串代码其实就是个过滤器,待会儿我们会用谷歌插件批量抓取搜索结果页的源代码,如果有这个过滤器去过滤,最后我们就会得到一个网址,在我们的案例中,就是wordpress.org。

但我们想要的是一次性过滤出100个网址,所以我们要改造下这个过滤器,把里面所有的数字以及对应的中括号全删掉,就得到以下过滤器:

//*[@id="rso"]/div/div/div/a/div/cite/text()

这个过滤器就是个没什么特征的过滤器,能一次性匹配所有符合条件的结果,而不是仅匹配一个结果。

使用谷歌插件 过滤器批量获取网址

点击下面的链接可以下载到我们需要的插件“Scraper”,下载好之后,在搜索结果页上右键点击页面空白处,会看到菜单栏出现一个“scrape similiar”。

Scraper下载地址Scraper下载地址https://chrome.google.com/webstore/detail/mbigbapnjcgaffohmbkdlecaccepngjd


image-47-1024x515.png

点击后会自动进入到如下界面,也就说明我们把网页上的源代码成功抓取过来了:

image-48-1024x575.png

在左上角填入我们上一步准备好的过滤器后,点击左下角的“scrape”,最后点击右下角的“copy to clipboard”,就能把所有抓取到网址复制到粘贴板了。

image-49-1024x574.png

注意,这些网址有很大可能性有重复,比如搜索B2B的词,alibaba.com和amazon.com很有可能重复几十次,这时候就要用到Excel的去重功能。

在Excel中去重

打开Excel,将我们上一步得到的结果粘贴进来:

image-50-1024x638.png

为了一次性把全部搜索结果都拿到手,我们可以把重复第四步,把所有搜索页的网址都收集到一起:

image-51-1024x531.png

谷歌会把他认为重复度很高的页面隐藏起来,为了没有漏网之鱼,我们可以进入最后一页,在最后一页有“重新搜索以显示省略的结果”这一选项。

image-52-1024x563.png

点击之后会出现更多页面,在我这个例子里,“WordPress theme”有将近500个页面,够我们分析的:

image-53-1024x547.png

抓取完所有的网址之后,我们会得到一个很超长的Excel列表,选中所有的数据,点击Excel的“表格→删除重复项”:

image-54-1024x592.png

然后就会可以得到一串干净的网址了:

image-55-1024x539.png

拿到数据后怎么处理?

我平常做营销工作,需要和很多站长保持沟通,但也并不是每个网站都值得我花时间做调研以及和背后的站长social的,所以我一般会复制到付费的SEO工具ahrefs里,批量分析这些网站的关键词和流量。

image-56-1024x489.png

Ahrefs这个“Batch analysis”非常好用,这也是我一直推荐它的原因之一。

b4df4909be0a9d81670d9a293f052903.png

分析之后会得到类似下面的结果,点击“DR”,就可以按照域名的权威性来排名,原名权重越高的网站,说明很多问题,有可能是网站存在时间很长,有可能是网站影响力很大,总而言之,排名越靠前的网站,背后的那个站长是越值得结交的。

image-58-1024x590.png

然后就可以按照这个排序,从高到底把所有网站背后的站长都挖出来。

加餐:怎么根据网址找邮箱?

虽然在外贸人面前说这个问题有点班门弄斧,但我一般用Hunter.io来找邮箱,挺好用的,其他方法请参考料神的课程,他把这个话题说到极致了。

如果一个网站的邮箱一直找不到,我也不会浪费太多时间在找邮箱上,好网站一大把,多一个不多,少一个不少。

除非这个网站真的非常好,各方面都吸引了我,我穷尽一切可能也要和背后的站长结交上,否则我真的不愿意倾注过多精力在一项资源上(能让我如此疯狂的网站,在我整个营销生涯也没几个)。

That's it!有时候做营销工作也不要太死脑筋,有限时间要做尽量多能赚到钱的工作才对。

PS:本来以为技术型文章没人看,就放询盘自由网没管了,没想到很多朋友反馈很好。

关于批量找客户网站,你平时最常用的方法是什么?留言让我知道。

或者日常工作还有什么困惑?说不定我能帮你,跨界创造奇迹,欢迎留言。

关注作者,看更多TA的好文章
颜sir说 一个教人搞询盘的米课老师,询盘自由网站长「xunpanziyou.com」
个人品牌展示

被加精的文章或晒单,都会展示优秀作者独立品牌区域

526人赞
全部评论
MiaL 04-18 01:13
转发
阿松Mason 02-21 07:49
转发
深圳高瀚电路 01-03 11:33
您好,温7的没看到有一百页
外贸搬运工 2023-10-24 09:51
转发
lampard 2023-10-16 22:43
转发
__Summer 2023-04-06 13:14
学习
CallmeFlora 2023-04-06 13:11
为什么在搜索结果页空白处,右键选scrape similar, 没有抓取到任何信息
CallmeFlora 2023-04-06 12:35
试一下
stevenzhu 2023-03-12 01:25
转发
岑岑流汗不流泪 2023-02-27 23:35
转发
岑岑流汗不流泪 2023-02-27 23:31
转发
平平无奇古天乐 2023-02-17 17:26
各位高手,我是不是可以这么理解,选择的那个源代码得是个网址而且包含目标关键词。所以scraper显示空白的米友是源代码选错了?
Sophiech1 2023-01-10 10:18
转发
Miker888 2023-01-10 08:46
批量找网站
kiki106 2022-11-23 20:44
转发