跳至主要内容

python 之 网页自动化测试


https://opensourceforu.com/2017/10/splinter-easy-way-test-web-applications/

https://splinter.readthedocs.io/en/latest/index.html

https://sites.google.com/a/chromium.org/chromedriver/home
下载谷歌浏览器版本对应的chromedriver.exe并将其加入环境变量path中


Anaconda3 (64-bit)
打开Anaconda Prompt,运行以下命令
jupyter nbconvert --to html your_notebook_name.ipynb
可将ipynb格式文件转换为html格式
(base) C:\Users\DZL>jupyter nbconvert --to html Untitled40.ipynb
[NbConvertApp] Converting notebook Untitled40.ipynb to html
[NbConvertApp] Writing 361412 bytes to Untitled40.html


当我打开Jupyter Notebook(以前为IPython)时,默认为C:\Users\USERNAME
打开当前工作目录,中间有空格
(base) C:\Users\DZL>start .

或者在Jupyter Notebook开python页面中输入pwd 或者cd

jupyter notebook --help-all


txt = ",,,,,rrttgg.....banana....rrr"
x = txt.strip(",.grt")
print(x)

>>> banana


  1. from selenium import webdriver
  2. # 添加驱动
  3. driver = webdriver.Chrome(r'D:\chromedriver')
  4. driver.get('https://www.kuaikanmanhua.com/web/topic/1338/')
  5. #driver.page_source
  6. #TopicItem cls
  7. from bs4 import BeautifulSoup
  8. import requests
  9. import time
  10. import os
  11. soup = BeautifulSoup(driver.page_source, 'lxml')
  12. #x=soup.select_one('.TopicList').get('TopicItem cls')
  13. for i in soup.find_all("div", class_="title fl"):
  14.     if i.a['href'] !='javascript:void(0);':
  15.         name = i.text.strip()
  16.         url = 'https://www.kuaikanmanhua.com/'+ i.a['href']
  17.         os.mkdir(r'C:\Users\DANG\Pictures\海贼王\{}'.format(name))
  18.         driver.get(url)
  19.         soup = BeautifulSoup(driver.page_source, 'lxml')
  20. #soup.find_all('img')
  21.         imglist = soup.select_one(".imgList")
  22.         # enumerate返回可迭代对象,元素为两元元组,进而可以用切片获取
  23.         for img in enumerate(imglist, start=1):
  24.             id_num = img[0]
  25.             imgurl = img[1].get('data-src')
  26.             headers ={'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.75 Safari/537.36'}
  27.             res = requests.get(imgurl, headers=headers)
  28.             with open(r'C:\Users\DANG\Pictures\海贼王\{}\{}.jpg'.format(name, id_num), 'wb') as f:
  29.                 f.write(res.content)
  30.             time.sleep(3)

# 打开图片
from PIL import Image
Image.open("test.jpg")

    for i in soup.find_all(class_="ListPicM"):
        img_name = re.sub('[?:\\\/\n]', ' ', i.text)
        img_url = i.img.get('src')
#      img_name = img_url.split('/')[-2]
        headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.111 Safari/537.36'}
        try:
            res = requests.get(img_url, headers=headers, timeout=500)
        except requests.exceptions.ConnectionError:
            print('图片{}因超时无法下载,链接为:{}'.format(img_name, img_url))
            continue


  1. from splinter import Browser
  2. # 如果您没有为该Browser功能提供任何驱动程序参数,则默认firefox将使用
  3. with Browser('chrome') as browser:
  4.     # Visit URL
  5.     url = "http://www.google.com"
  6.     browser.visit(url)
  7.     browser.fill('q', 'splinter - python acceptance testing for web applications')
  8.     # Find and click the 'search' button
  9.     button = browser.find_by_name('btnG')
  10.     # Interact with elements
  11.     button.click()
  12.     if browser.is_text_present('splinter.readthedocs.io'):
  13.         print("Yes, the official website was found!")
  14.     else:
  15.         print("No, it wasn't found... We need to improve our SEO techniques")
  16.  
  17.  
  18.  
  19. # imports the Browser library for Splinter
  20. from splinter import Browser
  21.  
  22. # takes the email address from user as input to login to his/her Facebook account
  23. user_email = input("enter users email address:")
  24.  
  25. # takes the password from user as input to login to his/her Facebook account
  26. user_pass = input("enter users password:")
  27.  
  28. # loads the Chrome browser browser= Browser('chrome')
  29. # stores the URL for Facebook in url variable
  30. url = "https://www.facebook.com/"
  31.  
  32. # navigates to facebook website and load that in the Firefox browser
  33. browser.visit(url)
  34.  
  35. # checks if Facebook web page is loaded else prints an error message
  36. if browser.is_text_present('www.facebook.com'):
  37.  
  38.     # fills the user’s email ID and password in the email and password field of the facebook login section
  39.     # Inbuilt function browser.fill uses the tag name for Email and Password input box i.e. email and pass respectively to identify it    
  40.     browser.fill('email', user_email)    
  41.     browser.fill('pass', user_pass)
  42.      
  43.     # selects the login button using its id value present on the Facebook page to click and log in with the given details    
  44.     button = browser.find_by_id('u_0_d')    
  45.     button.click()
  46.  
  47. else:
  48.     print("Facebook web application NOT FOUND")

评论

此博客中的热门博文

学习地址

清华大学计算机系课程攻略 https://github.com/PKUanonym/REKCARC-TSC-UHT 浙江大学课程攻略共享计划 https://github.com/QSCTech/zju-icicles https://home.unicode.org/ 世界上的每个人都应该能够在手机和电脑上使用自己的语言。 http://codecanyon.net   初次看到这个网站,小伙伴们表示都惊呆了。原来代码也可以放在网上卖的?!! 很多coder上传了各种代码,每个代码都明码标价。看了下销售排行,有的19刀的卖了3万多份,额di神啊。可以看到代码的演示效果,真的很漂亮。代码以php、wordpress主题、Javascript、css为主,偏前台。 https://www.lintcode.com/ 算法学习网站,上去每天刷两道算法题,走遍天下都不怕。 https://www.codecademy.com/ 包含在线编程练习和课程视频 https://www.reddit.com/ 包含有趣的编程挑战题,即使不会写,也可以查看他人的解决方法。 https://ideone.com/ 在线编译器,可运行,可查看代码示例。 http://it-ebooks.info/ 大型电子图书馆,可即时免费下载书籍。 刷题 https://github.com/jackfrued/Python-100-Days https://github.com/kenwoodjw/python_interview_question 面试问题 https://github.com/kenwoodjw/python_interview_question https://www.journaldev.com/15490/python-interview-questions#python-interpreter HTTP 身份验证 https://developer.mozilla.org/zh-CN/docs/Web/HTTP/Authentication RESTful 架构详解 https://www.runoob.com/w3cnote/restful-architecture.html https://www.rosettacode.org/wiki/Rosetta_C...

MechanicalSoup

用于自动与网站交互的 Python 库。 MechanicalSoup 自动存储和发送 cookie,跟踪重定向,并且可以跟踪链接和提交表单。 它不执行 JavaScript。 https://github.com/MechanicalSoup/MechanicalSoup https://mechanicalsoup.readthedocs.io/en/stable/index.html https://realpython.com/python-web-scraping-practical-introduction/ pip show Mechanicalsoup 找到模块的安装位置 https://stackoverflow.com/questions/54352162/download-file-with-mechanicalsoup # Install dependencies # pip install requests # pip install BeautifulSoup4 # pip install MechanicalSoup # Import libraries import mechanicalsoup import urllib.request import requests from bs4 import BeautifulSoup import re # Create a browser object that can collect cookies browser = mechanicalsoup.StatefulBrowser() browser.open("https://www.ons.gov.uk/economy/grossdomesticproductgdp/timeseries/l2kq/qna") browser.download_link(link_text=".xls",file="D:/ONS_Data.xls" )

安装和卸载软件(msi\exe)

如何判断一个软件是64位的还是32位的? 情况1、 未安装--右键安装程序查看属性,兼容性,勾选兼容模式查看最低适配是vista的是64位,反之32位, 不太准确 情况2、 已安装--运行软件,64位操作系统打开任务管理器看进程后缀名,带*32就是32位,反之64位 https://www.joci.net/xxbk/126251/ FileMon 和 Regmon 不再可供下载。从Windows 2000 SP4,Windows XP SP2,Windows Server 2003 SP1和Windows Vista开始的Windows版本上,它们已被 Process Monitor 取代 https://adamtheautomator.com/procmon/ Process Monitor 是Windows的高级监视工具,它显示实时文件系统,注册表和进程/线程活动。 它结合了两个旧的Sysinternals实用程序 Filemon 和  Regmon的功能 ,并添加了广泛的增强功能列表,包括丰富的和非破坏性的过滤,全面的事件属性(例如会话ID和用户名),可靠的过程信息,带有集成符号的完整线程堆栈支持每个操作,同时记录到文件等。 它独特的强大功能将使Process Monitor成为您的系统故障排除和恶意软件搜索工具包中的核心实用程序。 https://wikileaks.org/ciav7p1/cms/page_42991626.html HKLM\Software\Microsoft\Cryptography\MachineGuid Machine GUID/Cryptography GUID---该密钥通常用作机器的唯一标识符。它也已用于将两台计算机链接在一起-在某些情况下,计算机GUID是与设备(MP3播放器等)一起传递的。 Machine GUID不是唯一 https://docs.microsoft.com/zh-cn/windows/win32/properties/props-system-identity-uniqueid?redirectedfrom=MSDN UniqueID才是唯一 注册表 是存储系统和应用程序的设置信息 打开注册表的方式很简单:cmd中输入regedit 卸载路径只有一个 已安装32位的程序,如果是系统是32位...