本来这篇文章该几个月前写的,后来忙着忙着就给忘记了。
ps:事多有时候反倒会耽误事。
几个月前,记得群里一朋友说想用硒去爬数据,关于爬数据,一般是模拟访问某些固定网站,将自己关注的信息进行爬取,然后再将爬出的数据进行处理。
他的需求是将文章直接导入到富文本编辑器去发布,其实这也是爬虫中的一种。
其实这也并不难,就是UI自动化的过程,下面让我们开始吧。
1, java语言
2,想法开发工具
3, jdk1.8
4, selenium-server-standalone(3.0以上版本)
<强> 1,分解需求:强>
需求重点主要是要保证原文格式样式都保留:
将要爬取文章,全选并复制
将复制后的文本,粘贴到富文本编辑器中即可
<强> 2代码实现思路:强>
键盘事件模拟CTRL +一个全选
键盘事件模拟CTRL + C复制
键盘事件模拟CTRL + V粘贴
<强> 3,实例代码强>
进口org.junit.AfterClass; 进口org.junit.BeforeClass; 进口org.junit.Test; 进口org.openqa.selenium.By; 进口org.openqa.selenium.WebDriver; 进口org.openqa.selenium.chrome.ChromeDriver; 进口java.awt。*; 进口java.awt.event.KeyEvent; 进口java.util.concurrent.TimeUnit;/* * * @author rongrong *硒模拟访问网站爬虫操作代码示例 */公开课演示{ 私有静态WebDriver司机; 静态最终int MAX_TIMEOUT_IN_SECONDS=5; @BeforeClass 公共静态孔隙setUpBeforeClass()抛出异常{ 司机=new ChromeDriver (); 字符串url=" https://temai.snssdk.com/article/feed/index& # 63; id=6675245569071383053,订阅=5501679303,source_type=28, content_type=1, create_user_id=34013,去=__AID__& tt_group_id=6675245569071383053”; .maximize .window driver.manage () () (); .timeouts driver.manage()()。implicitlyWait (MAX_TIMEOUT_IN_SECONDS TimeUnit.SECONDS); driver.get (url); } @AfterClass 公共静态孔隙tearDownAfterClass()抛出异常{ 如果(司机!=null) { System.out.println(“运行结束!”); driver.quit (); } } @Test 公共空白测试()抛出InterruptedException { 机器人机器人=零; 尝试{ 机器人=new (); }捕捉(AWTException e1) { e1.printStackTrace (); } robot.keyPress (KeyEvent.VK_CONTROL); robot.keyPress (KeyEvent.VK_A); robot.keyRelease (KeyEvent.VK_A); thread . sleep (2000); robot.keyPress (KeyEvent.VK_C); robot.keyRelease (KeyEvent.VK_C); robot.keyRelease (KeyEvent.VK_CONTROL); driver.get (“https://ueditor.baidu.com/website/onlinedemo.html”); thread . sleep (2000); driver.switchTo () .frame (0); driver.findElement (By.tagName(“身体”).click (); robot.keyPress (KeyEvent.VK_CONTROL); robot.keyPress (KeyEvent.VK_V); robot.keyRelease (KeyEvent.VK_V); robot.keyRelease (KeyEvent.VK_CONTROL); thread . sleep (2000); } }
笔者并不是特别建议使用硒做爬虫,原因如下:
<>强速度慢:强>
每次运行爬虫都要打开一个浏览器,初始化还需要加载图片,JS渲染等等一大堆东西,
<强>占用资源太多:强>
有人说,把换成无头浏览器,原理都是一样的,都是打开浏览器,而且很多网站会验证参数,如果对方看到你恶意请求访问,会办了你的请求,然后你又要考虑更换请求头的事情,事情复杂程度不知道多了多少,还得去改代码,麻烦死了。
<强>对网络的要求会更高:强>
加载了很多可能对您没有价值的补充文件(如css, js和图像文件)。与真正需要的资源(使用单独的HTTP请求)相比,这可能会产生更多的流量。
以上就是这篇文章的全部内容了,希望本文的内容对大家的学习或者工作具有一定的参考学习价值,谢谢大家对的支持。