在Windows平台下,如果想运行爬虫的话,就需要在cmd中输入:
scrapy crawl spider_name
这时,爬虫就能启动,并在控制台(cmd)中打印一些信息,如下图所示:
但是,cmd中默认只能显示几屏的信息,其他的信息就无法看到。
如果我们想查看爬虫在运行过程中的调试信息或错误信息的话,会很不方便。
此时,我们就可以将控制台的信息写入的一个文本文件中去,方便我们查看。
命令如下:
D:\>scrapy crawl spder_name -s LOG_FILE=scrapy.log
总结
以上就是本文关于Python使用Scrapy保存控制台信息到文本解析的全部内容,希望对大家有所帮助。感兴趣的朋友可以继续参阅本站其他相关专题,如有不足之处,欢迎留言指出。感谢朋友们对本站的支持!