diff --git a/README.md b/README.md
index dbcd1bf..cdd9836 100644
--- a/README.md
+++ b/README.md
@@ -56,29 +56,29 @@ pip install -r .\requirement.txt
运行以后会弹出一个浏览器,自动打开知乎页面以后就可以开始登录,下图所示就是登录页面,两类登录方式都可以,只要能登录就行,点击登录以后,不要再操作页面,键盘或鼠标都不可以,登录时间默认给了130s时间,130秒以后会自动退出,然后查看目录cookie是否保存好cookie_zhihu.pkl,保存好就可以开始爬取了。
-
-### 2、每项单独爬取
-爬取一旦开始就自动运行了,爬取窗口一般不能最小化,可以做其他事情的
-**爬取知乎想法**
-
-默认的爬取每篇想法的睡眠时间是 **6s*图片的数量** 以上
+
+### 2、每项单独爬取
+爬取一旦开始就自动运行了,爬取窗口一般不能最小化,可以做其他事情的
+**爬取知乎想法**
+
+默认的爬取每篇想法的睡眠时间是 **6s*图片的数量** 以上
`
python.exe crawler.py --think
`
-**爬取知乎回答**
-默认的爬取每篇回答的睡眠时间是**16s**以上,这边实际爬取耗时平均是每篇 **30s**,每个图片需要6s
+**爬取知乎回答**
+默认的爬取每篇回答的睡眠时间是**16s**以上,这边实际爬取耗时平均是每篇 **30s**,每个图片需要6s
`
python.exe crawler.py --answer
`
-**爬取知乎的article**
-默认的爬取每篇article的睡眠时间是**16s**以上,这边实际爬取130多篇,耗时平均是每篇 **33.096s**,每个图片需要6s
+**爬取知乎的article**
+默认的爬取每篇article的睡眠时间是**16s**以上,这边实际爬取130多篇,耗时平均是每篇 **33.096s**,每个图片需要6s
`
python.exe crawler.py --article
`
-### 3、三项一起爬取的
+### 3、三项一起爬取的
`
python.exe crawler.py --think --article --answer
`