From 119524730060083c886f449b8423a48f54b7df3f Mon Sep 17 00:00:00 2001 From: ZouJiu1 <34758215+ZouJiu1@users.noreply.github.com> Date: Mon, 3 Jul 2023 19:36:23 +0800 Subject: [PATCH] Update README.md --- README.md | 6 +++--- 1 file changed, 3 insertions(+), 3 deletions(-) diff --git a/README.md b/README.md index 9b20826..e380324 100644 --- a/README.md +++ b/README.md @@ -57,11 +57,11 @@ pip install -r .\requirement.txt


-### 2、每项单独爬取
+### 2、每项单独爬取 爬取一旦开始就自动运行了,爬取窗口一般不能最小化,可以做其他事情的
**爬取知乎想法**
-默认的爬取每篇想法的睡眠时间是 **6s*图片的数量** 以上
+默认的爬取每篇想法的睡眠时间是 **6s*图片的数量** 以上 ` python.exe crawler.py --think ` @@ -82,7 +82,7 @@ python.exe crawler.py --article ` python.exe crawler.py --think --article --answer ` -
+ ### 又发布了一篇,只爬取写的这篇 第一次可以全部爬取,等所有article或者回答或者想法都已经爬取好以后,此时若是又写了一篇或者几篇,而且想爬取到本地,可以将article/article.txt这个档案重命名到article/article_2023_06_20.txt,或者重命名answer.txt,然后将写好的article或者回答的网址和标题按照之前档案的格式再create一个article.txt/answer.txt档案,运行爬取程序就可以了的,想法会跳过已经爬取好的时间,所以可以按照上面的方式运行,此时只会爬取article.txt/answer.txt的网址