python实现的爬取电影下载链接功能示例
本文实例讲述了python实现的爬取电影下载链接功能。分享给大家供大家参考,具体如下:
#!/usr/bin/python #coding=UTF-8 importsys importurllib2 importos importchardet frombs4importBeautifulSoup reload(sys) sys.setdefaultencoding("utf-8") #从电影html页面中获取视频下载地址 defget_movie_download_url(html): soup=BeautifulSoup(html,'html.parser') fixed_html=soup.prettify() td=soup.find('td',attrs={'style':'WORD-WRAP:break-word'}) url_a=td.find('a') url_a=url_a.string returnurl_a #从电影html页面中获取电影标题 defget_movie_title(html): soup=BeautifulSoup(html,'html.parser') fixed_html=soup.prettify() title=soup.find('h1') title=title.string returntitle #访问url,返回html页面 defget_html(url): req=urllib2.Request(url) req.add_header('User-Agent','Mozilla/5.0') response=urllib2.urlopen(url) html=response.read() returnhtml #从电影列表页,获取电影的url,拼接好,存到列表后返回 defget_movie_list(url): m_list=[] html=get_html(url) soup=BeautifulSoup(html,'html.parser') fixed_html=soup.prettify() a_urls=soup.find_all('a',attrs={'class':'ulink'}) host="http://www.ygdy8.net" fora_urlina_urls: m_url=a_url.get('href') m_list.append(host+m_url) returnm_list #存入txt文件 deffile_edit(wr_str): f1=open(r'e:\down_load_url.txt','a') f1.write(wr_str) f1.close() #传入电影url的列表集合,获取下载地址,并写入文件 defwrite_to_txt(a_urls): fora_urlina_urls: html=get_html(a_url) html=html.decode('GBK') write_title=get_movie_title(html) write_url=get_movie_download_url(html) file_edit(write_title+"\n") file_edit(write_url+"\n") file_edit("\n") #传入页数,返回这几页的url列表 defget_pages_url(num): urls_list=[] url="http://www.ygdy8.net/html/gndy/dyzz/list_23_" forninrange(1,num+1): new_url=url+str(n)+".html" urls_list.append(new_url) returnurls_list if__name__=='__main__': pages=2#打算爬取几页电影 p_url=get_pages_url(pages) foriinp_url: write_to_txt(get_movie_list(i))#执行写入 print"done"
更多关于Python相关内容可查看本站专题:《PythonSocket编程技巧总结》、《Python数据结构与算法教程》、《Python函数使用技巧总结》、《Python字符串操作技巧汇总》、《Python入门与进阶经典教程》及《Python文件与目录操作技巧汇总》
希望本文所述对大家Python程序设计有所帮助。