为了先填充好数据在上线,在本地搭建了一个网站,并用火车头采集数据填充到里面。
开始很上手,因为找的网站的分类中是有分页的。很快捷的找到页面标识。
但是问题来了,如今很多网站都是采用的Ajax加载数据,根本没有分页的URL。比如:CSDN,IT168等等,都是采用下拉到一定程度,自动加载数据出来。
在没有页码的情况下,直接采集当前首页的20-30篇文章,后面的都无法采集到。
经过在网上查找教程,总算有了 *** ,但是相对直接加入页码采集,多了一个步骤。
应该如何做?
1. 获取目标站API地址
在目标页面按F12或Ctrl+Shift+C打开审查元素,然后点Network选项卡,通过下滑的操作实时监控Network中出现的链接。
然后点击这个链接,查看规律后将他复制下来。
2.利用火车头采集这个API中的文章链接
这里做一个假设,实际填写的是上面的API地址。
采集内容规则的设置
从上图可以指导链接地址在:linkurl:"" 里,然后进入第二部采集内容
这里选择循环匹配,不然只会采集到一个链接。
数据处理一下编码和斜杠(因为采集的url有很多 \ 的转义,直接将这个剔除)
测试一下页面就可以获取到文章的URL链接。
获取到文章的链接后,如何采集它们?
当采集到这些文章的URL后,我们先要在 第三步:发布内容设置 ,将连接保存在桌面处理。
我将他保存在Excel文件(主要是我导出的TXT不完整),然后在Excel中处理好在复制到TXT中。
这个时候我们就要采集这些文字的链接了。
新建一个采集任务,然后将保存的TXT导入,然后依次进行采集,后面的工序就不说了,和分页采集的步骤是一样的。
本文由2号站长网 五车二原创,原文地址:https://www.zz2zz.com/19852.html 转载请注明出处。
前言:本文是原创首发。做站有几年了 (1)初识网络: 高中毕业时候,造化弄人,读了个计算机会计专业(听说好考,找工作容易,呵呵),结果不感兴趣,两年毕业后,全科考试通过,但会计证我都没拿就走了,觉得没意思,会计应该是女人干的活。大专期间,空闲时间很多,那时候有空就去机房(费用从餐...
庞升东语录:——每推荐一个人才给我,我就给伯乐10万块,好的人才我还需要10个。----记忆里面没有什么特别(失败和惨痛)的事,一路很自然的就走过来了。----(关于江湖风传的9991的一些方法)我们(9991.com)只是乱中添乱,相对与各大网站的做法,我们还是相当光明的。----在51....
仅以此文献给在PR上挣扎的站长们 google拥有世界上领先的搜索引擎技术,他们有最大的资金后盾,有最强的技术团队,有着别的公司无法比拟的公司文化底蕴。google全球最大的搜索引擎,搜索引擎界的大哥大。  ...
有个女孩叫君儿,男孩叫磊。他们通过QQ聊天认识了,然后经常写信聊天,到相识相知。03年的圣诞节他们见面了,彼此感觉应该还算 很不错,晚上在一起吃饭,在晚上一起去了我们学校过圣诞节。这一晚,君回学校宿舍了,2004年1月1日 元旦到了,磊磊非常想君儿,磊就打电话喊君一起出来玩,那一晚上我们都没有...
站长交流群讲座qq群 17770150 每天 晚8点30 邀请草根精英 演讲网站运营 推广盈利经验 ————————————————————————————————————傲雪(41567549) 20:31:20先综合分析一下这个站最高PR值:5 www.adm...
--- 仿<刘和珍君>版 &n...