yihua.huang
|
3c1338193b
|
for 0.7.0.alpha
|
2017-05-20 12:34:09 +08:00 |
yihua.huang
|
d38d51dfcb
|
fix javadoc
|
2017-04-15 12:24:50 +08:00 |
yihua.huang
|
1b04a7f2b3
|
#527 move logic check from downloaderto spider
|
2017-04-09 09:23:10 +08:00 |
yihua.huang
|
74110e6ec5
|
remove useless file
|
2017-03-30 09:19:00 +08:00 |
yihua.huang
|
b100dfe273
|
update version
|
2017-03-30 09:18:12 +08:00 |
yihua.huang
|
c13110c4cb
|
fix samples
|
2017-03-21 07:53:43 +08:00 |
yihua.huang
|
d87c73b472
|
change check-and-set to atomic sadd for redis DuplicateRemover #368
|
2017-03-01 22:24:34 +08:00 |
yihua.huang
|
aaccc93215
|
new version
|
2017-01-21 12:04:12 +08:00 |
yihua.huang
|
3e633c6871
|
version
|
2017-01-21 11:51:14 +08:00 |
yihua.huang
|
f45e2f118b
|
for release
|
2017-01-21 11:38:36 +08:00 |
Jsbd
|
6d78d51fc0
|
Merge branch 'master' into master
|
2016-12-27 14:15:40 +08:00 |
yihua.huang
|
d69204b919
|
0.6.0
|
2016-12-18 11:45:43 +08:00 |
yihua.huang
|
97592d6720
|
Version 0.6.0
|
2016-12-18 10:58:24 +08:00 |
yihua.huang
|
00dfebbceb
|
#424 remove guava dep and add fix docs
|
2016-12-18 10:45:50 +08:00 |
yihua.huang
|
a960a39c44
|
fix compile error for example change
|
2016-12-18 08:32:14 +08:00 |
yihua.huang
|
a3ee9e3d08
|
fix example
|
2016-12-18 08:18:26 +08:00 |
Jsbd
|
1b886d48a2
|
新增PhantomJSDownloader构造函数,支持crawl.js路径自定义,因为当其他项目依赖此jar包时,runtime.exec()执行phantomjs命令时无使用法jar包中的crawl.js
|
2016-12-08 14:29:42 +08:00 |
Jsbd
|
d1f2e65e5d
|
新增PhantomJSDownloader构造函数,支持crawl.js路径自定义,因为当其他项目依赖此jar包时,runtime.exec()执行phantomjs命令时无使用法jar包中的crawl.js
|
2016-12-08 14:28:48 +08:00 |
Jsbd
|
ebc61363c8
|
为PhantomJSDownloader添加新的构造函数,支持phantomjs自定义命令
为PhantomJSDownloader添加新的构造函数,支持phantomjs自定义命令
example:
* phantomjs.exe 支持windows环境
* phantomjs --ignore-ssl-errors=yes 忽略抓取地址是https时的一些错误
* /usr/local/bin/phantomjs 命令的绝对路径,避免因系统环境变量引起的IOException
|
2016-12-02 10:17:46 +08:00 |
yihua.huang
|
b92e6b04f0
|
#400 修复FileCacheQueueScheduler自己设置DuplicateRemover会导致NPE的问题
|
2016-11-25 08:30:24 +08:00 |
Yihua Huang
|
1491033534
|
Merge pull request #377 from jerry-sc/monitor-bug
fix the monitor bug which the spider will terminate when a seed url with port
|
2016-11-19 13:01:30 +08:00 |
Jerry
|
e56b8c3efc
|
fix the monitor bug which the spider will terminate when a seed url with port
|
2016-09-22 22:36:18 +08:00 |
郭玉昆
|
700898fe8a
|
fixed #301 修复使用注解抽取JSON数据的问题
|
2016-08-29 17:07:37 +08:00 |
Salon.sai
|
f89a6a6826
|
add: redis scheduler with priority
|
2016-07-05 16:29:01 +08:00 |
Yihua Huang
|
37cb43b667
|
Merge pull request #176 from lavenderx/master
add PhantomJSDownloader
|
2016-05-08 20:36:17 +08:00 |
Linker Lin
|
047cb8ff8f
|
updated versions to 0.5.4-SNAPSHOT
|
2016-04-01 14:51:59 +08:00 |
yihua.huang
|
c0b8e8f8ae
|
remove .classpath .project
|
2016-01-22 14:58:22 +08:00 |
yihua.huang
|
a8e6de4b90
|
Merge branch 'master' of git.oschina.net:flashsword20/webmagic
|
2016-01-22 10:16:58 +08:00 |
yihua.huang
|
ce5495ecd5
|
remove useless files
|
2016-01-21 19:31:50 +08:00 |
yihua.huang
|
8265c7dade
|
remove submodules for relase
|
2016-01-21 19:25:13 +08:00 |
yihua.huang
|
7edfa26f90
|
complete javadoc
|
2016-01-21 18:34:07 +08:00 |
yihua.huang
|
8b90b91e33
|
complete some javadoc
|
2016-01-21 18:14:10 +08:00 |
yihua.huang
|
2b556cf053
|
update verison to 0.5.3-SNAPSHOT
|
2016-01-21 18:05:56 +08:00 |
yihua.huang
|
9c5716a543
|
complete javadoc
|
2016-01-21 18:05:12 +08:00 |
yihua.huang
|
db3cbf6ca5
|
update version to 0.5.3-SNAPSHOT
|
2016-01-21 17:58:36 +08:00 |
yihua.huang
|
7586e3d75c
|
add some test for github repo downloader
|
2016-01-19 08:05:53 +08:00 |
Yihua Huang
|
cfde3b7657
|
Merge pull request #237 from SpenceZhou/master
Update RedisScheduler.java
|
2015-12-02 22:17:00 +08:00 |
SpenceZhou
|
165e5a72eb
|
Update RedisScheduler.java
修改redisscheduler中获取爬取总数bug
|
2015-12-02 17:10:42 +08:00 |
x1ny
|
90e14b31b0
|
修正FileCacheQueueScheduler导致程序不能正常结束和未关闭流
FileCacheQueueScheduler中开启了一个线程周期运行来保存数据但在爬虫结束后没有关闭导致程序无法结束,以及没有关闭io流。
解决方法:
让FileCacheQueueScheduler实现Closable接口,在close方法中关闭线程以及流。
在Spider的close方法中添加对scheduler的关闭操作。
|
2015-11-12 23:10:20 +08:00 |
edwardsbean
|
74962d69b9
|
fix bug:MultiPagePipeline and DoubleKeyMap concurrent bug
|
2015-02-13 15:03:13 +08:00 |
dolphineor
|
7628dc6b63
|
move PhantomJSDownloader to webmagic-extension
|
2014-11-26 19:29:30 +08:00 |
yihua.huang
|
8551b668a0
|
remove commented code
|
2014-09-29 14:51:36 +08:00 |
zhugw
|
eb3c78b9d8
|
Update FileCacheQueueScheduler.java
这样是不是更严谨? 否则的话,中断后再次启动时, (第一个)入口地址仍会被添加到队列及写入到文件中.
但是现在有另外一个问题存在,如第一遍全部抓取完毕了(通过spider.getStatus==Stopped判断),休眠24小时,再来抓取(通过递归调用抓取方法).
这时不同于中断后再启动,lineReader==cursor, 于是初始化时队列为空,入口地址又在urls集合中了, 故导致抓取线程马上就结束了.这样的话就没有办法去抓取网站上的新增内容了.
解决方案一:
判断抓取完毕后,紧接着覆盖cursor文件,第二次来抓取时,curosr为0, 于是将urls.txt中的所有url均放入队列中了, 可以通过这些url来发现新增url.
方案二:
对方案一进行优化,方案一虽然可以满足业务要求,但会做很多无用功,如仍会对所有旧target url进行下载,抽取,持久化等操作.而新增的内容一般都会在HelpUrl中, 比如某一页多了一个新帖子,或者多了几页内容. 故第二遍及以后来爬取时可以仅将HelpUrl放入队列中.
希望能给予反馈,我上述理解对不对, 有什么没有考虑到的情况或者有更简单的方案?谢谢!
|
2014-09-14 16:20:03 +08:00 |
yihua.huang
|
42a30074c9
|
update urls.contains to DuplicateRemover in FileCacheQueueScheduler #157
|
2014-09-12 07:52:38 +08:00 |
zhugw
|
1db940a088
|
Update FileCacheQueueScheduler.java
在使用过程中发现urls.txt文件存在重复URL的情况,经跟踪源代码,发现初始化加载文件后,读取所有的url放入一集合中,但是之后添加待抓取URL时并未判断是否已存在该集合中(即文件中)了,故导致文件中重复URL的情况.故据此对源码做了修改,还请作者审阅.
|
2014-09-11 15:46:09 +08:00 |
yihua.huang
|
3734865a6a
|
fix package name =.=
|
2014-08-21 14:39:44 +08:00 |
yihua.huang
|
e7668e01b8
|
fix SourceRegion error and add some tests on it #144
|
2014-08-21 14:29:06 +08:00 |
yihua.huang
|
4e5ba02020
|
fix test cont'
|
2014-08-18 11:08:17 +08:00 |
yihua.huang
|
2fd8f05fe2
|
change path seperator for varient OS #139
|
2014-06-25 14:55:23 +08:00 |
yihua.huang
|
8c33be48a6
|
Merge branch 'stable' of github.com:code4craft/webmagic
|
2014-06-04 17:37:45 +08:00 |