网络编程
位置:首页>> 网络编程>> Go语言>> Go爬虫(http、goquery和colly)详解

Go爬虫(http、goquery和colly)详解

作者:Golang-Study  发布时间:2024-05-08 10:52:43 

标签:Go,爬虫,goquery,colly

1、net/http爬虫

net/http配合正则表达式爬虫。

Go爬虫(http、goquery和colly)详解

package main

import (
"fmt"
"io/ioutil"
"log"
"net/http"
"os"
"regexp"
"strings"
"sync"
)

// 负责抓取页面的源代码(html)
// 通过http包实现
func fetch(url string) string {

// 得到一个客户端
client := &http.Client{}
request, _ := http.NewRequest("GET", url, nil)

request.Header.Set("User-Agent", "Mozilla/5.0 (Linux; Android 6.0; Nexus 5 Build/MRA58N) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/104.0.0.0 Mobile Safari/537.36")
request.Header.Add("Cookie", "test_cookie=CheckForPermission; expires=Tue, 30-Aug-2022 01:04:32 GMT; path=/; domain=.doubleclick.net; Secure; HttpOnly; SameSite=none")

// 客户端发送请求,并且获取一个响应
response, err := client.Do(request)
if err != nil {
log.Println("Error: ", err)
return ""
}

// 如果状态码不是200,就是响应错误
if response.StatusCode != 200 {
log.Println("Error: ", response.StatusCode)
return ""
}

defer response.Body.Close() // 关闭

// 读取响应体中的所有数据到body中,这就是需要的部分
body, err := ioutil.ReadAll(response.Body)
if err != nil {
log.Println("Error: ", err)
return ""
}

// 转换为字符串(字节切片 --> 字符串)
return string(body)
}

var waitGroup sync.WaitGroup

// 解析页面源代码
func parseURL(body string) {

// 将body(响应结果)中的换行替换掉,防止正则匹配出错
html := strings.Replace(body, "\n", "", -1)
// 正则匹配
re_Img_div := regexp.MustCompile(`<div class="img_wrapper">(.*?)</div>`)

img_div := re_Img_div.FindAllString(html, -1) // 得到<div><img/></div>

for _, v := range img_div {

// img正则
re_link := regexp.MustCompile(`src="(.*?)"`)
// 找到所有的图片链接
links := re_link.FindAllString(v, -1) // 得到所有图片链接

// 遍历links,切掉不必要的部分src="和最后的"
for _, v := range links {

src := v[5 : len(v)-1]
src = "http:" + src

waitGroup.Add(1)
go downLoad(src)
}
}

}

// 下载
func downLoad(src string) {

fmt.Println("================================", src)

// 取一个文件名
filename := string(src[len(src)-8 : len(src)])
fmt.Println(filename)

response, _ := http.Get(src)
picdata, _ := ioutil.ReadAll(response.Body)

image, _ := os.Create("./files/" + filename)
image.Write(picdata)

defer func() {
image.Close()
waitGroup.Done()
}()
}

func main() {

url := "http://games.sina.com.cn/t/n/2021-01-15/kftpnnx7445951.shtml"

body := fetch(url)
// fmt.Println(body)
parseURL(body)

waitGroup.Wait()
}

Go爬虫(http、goquery和colly)详解

2、goquery库爬虫

goquery可以避免操作复杂的正则表达式,它可以直接根据url获取一个Document对象,然后根据标签选择器、类选择器和id选择器获取相应的选择对象,进行自定义的操作。

goquery可以灵活的获取页面中的元素。

*** 一个简单的例子,引出goquery中的重要API

package main

import (
"fmt"
"strings"

"github.com/PuerkitoBio/goquery"
)

func main() {

url := "http://games.sina.com.cn/t/n/2021-01-15/kftpnnx7445951.shtml"

// 得到页面原文档对象
d, _ := goquery.NewDocument(url)

// 根据文档对象借助类选择器获取Selection对象,通过Each遍历所有的适配类选择器的对象
// Each的参数是一个函数,里面是处理逻辑
d.Find("img").Each(func(index int, s *goquery.Selection) {

// 根据属性名获取属性值   一个Selection对象 --> <img src="http://localhost:8080/images" > text </img>
text, _ := s.Attr("src")

// 只处理gif动态图片
if strings.HasSuffix(text, ".gif") {
text = "http:" + text
fmt.Println(text)
}

})
}

Go爬虫(http、goquery和colly)详解

*** 操作一、获取html整个原文档

分别是goquery.NewDocument(url string)goquery.NewDocumentFromResponse(*http.Response)goquery.NewDocumentFromReader(*io.Reader)。三种方式的第一种比较最为方便使用。

package main

import (
"log"
"net/http"
"strings"

"github.com/PuerkitoBio/goquery"
)

/*
goquery得到Document对象的3种方式
*/

// 1、通过NewDocument传入一个URL地址
func GetDocument_1(url string) string {

document, _ := goquery.NewDocument(url)

document.Find("href")

return "document.Text()"
}

// 2、通过响应获取。第一种方式是第二种方式的封装
func GetDocument_2(url string) string {

client := &http.Client{}
request, _ := http.NewRequest("GET", url, nil)

response, _ := client.Do(request)
document, err := goquery.NewDocumentFromResponse(response)

if err != nil {
log.Fatalln(err)
}
document.Find("")

return ""
}

// 3、有一个html文本的情况下,读取转换为Document对象
func GetDocument_3(html string) string {

document, _ := goquery.NewDocumentFromReader(strings.NewReader(html))
document.Find("")

return ""
}

*** 操作二、选择器
同html的标识方式,在Find函数中。

*** 操作三、Selection相关方法

Go爬虫(http、goquery和colly)详解

*** 最后来完成net/http中的网页爬虫

package main

import (
"fmt"
"io/ioutil"
"net/http"
"os"
"strings"
"sync"

"github.com/PuerkitoBio/goquery"
)

var lock sync.WaitGroup

func main() {

url := "http://games.sina.com.cn/t/n/2021-01-15/kftpnnx7445951.shtml"

// 得到页面原文档对象
d, _ := goquery.NewDocument(url)

// 根据文档对象借助类选择器获取Selection对象,通过Each遍历所有的适配类选择器的对象
// Each的参数是一个函数,里面是处理逻辑
d.Find("img").Each(func(index int, s *goquery.Selection) {

// 根据属性名获取属性值   一个Selection对象 --> <img src="http://localhost:8080/images" > text </img>
text, _ := s.Attr("src")

// 只处理gif动态图片
if strings.HasSuffix(text, ".gif") {
lock.Add(1)

http := "http:" + text

// 得到图片地址,开启协程下载图片
go downLoading(http)
}

})

lock.Wait()
}

func downLoading(src string) {

fmt.Println("================================", src)

// 取一个文件名
filename := string(src[len(src)-8 : len(src)])
fmt.Println(filename)

response, _ := http.Get(src)
picdata, _ := ioutil.ReadAll(response.Body)

image, _ := os.Create("./files/" + filename)
image.Write(picdata)

defer func() {
image.Close()
lock.Done()
}()
}

Go爬虫(http、goquery和colly)详解

3、colly框架爬虫

首先要获取一个*colly.Collector对象;
然后注册处理函数OnXxx函数;
之后就可以访问url了。

*** OnXxx函数
主要操作都是由OnXxx函数的参数函数进行处理的

Go爬虫(http、goquery和colly)详解

*** 完成图片的爬取

package main

import (
"fmt"
"io/ioutil"
"net/http"
"os"
"strings"
"sync"

"github.com/gocolly/colly"
)

var locker sync.WaitGroup

func main() {

col := colly.NewCollector()

// 检测请求
col.OnRequest(func(req *colly.Request) {
fmt.Println("检测一个请求......")
})

// 检测响应
col.OnResponse(func(r *colly.Response) {
fmt.Println("检测一个响应......")
})

// 定位img标签。注册该函数,框架内部回调
col.OnHTML("img", func(elem *colly.HTMLElement) {

fmt.Println("ONXHTML")

// 获取标签对应属性的值。
// 其他对标签的操作,可以查看对应的API
http := elem.Attr("src")

if strings.HasSuffix(http, ".gif") {

locker.Add(1)

http := "http:" + http

go DownLoad(http)
}
})

col.Visit("http://games.sina.com.cn/t/n/2021-01-15/kftpnnx7445951.shtml")

locker.Wait()
}

func DownLoad(src string) {

fmt.Println("================================", src)

// 取一个文件名
filename := string(src[len(src)-8 : len(src)])
fmt.Println(filename)

response, _ := http.Get(src)
picdata, _ := ioutil.ReadAll(response.Body)

image, _ := os.Create("./files/" + filename)
image.Write(picdata)

defer func() {
image.Close()
locker.Done()
}()
}

Go爬虫(http、goquery和colly)详解

Go爬虫(http、goquery和colly)详解

来源:https://blog.csdn.net/m0_73293551/article/details/126608934

0
投稿

猜你喜欢

  • python中自定义模块导入路径的方式主要有以下3种:(1)使用sys.path.append()随着程序执行,会动态地添加模块导入的路径,
  • 本文实例讲述了python去除所有html标签的方法。分享给大家供大家参考。具体分析如下:这段代码可以用于去除文本里的字符串标签,不包括标签
  • 一、正则表达式特殊变量1、$n :包含上次模式匹配的第n个子串2、$& :前一次成功模式匹配的字符串3、$` :前次匹配成功的子串之
  • 修改数据库为多用户模式SQL语句修改数据位多用户模式如下:DECLARE @SQL VARCHAR(MAX); SET @SQL='
  • Python可以使用 xml.etree.ElementTree 模块从简单的XML文档中提取数据。 为了演示,假设你想解析Planet P
  • 前言图像分割是指根据灰度、色彩、空间纹理、几何形状等特征把图像划分成若干个互不相交的区域。最简单的图像分割就是将物体从背景中分割出来1.图像
  • 前言为了避免代码泄露的风险,我们往往需要对代码进行加密,PyArmor 是一个用于加密和保护 Python 脚本的工具。它能够在运行时刻保护
  • 本文实例讲述了js鼠标悬浮出现遮罩层的方法。分享给大家供大家参考。具体实现方法如下:html页面代码:<ul class="
  • 一、前期准备        此篇使用两种导入excel数据的
  • EM算法实例通过实例可以快速了解EM算法的基本思想,具体推导请点文末链接。图a是让我们预热的,图b是EM算法的实例。这是一个抛硬币的例子,H
  • 网页设计遇到最大的麻烦之一莫过于网页对不同浏览器的兼容性问题了,因为IE 6.0 / IE 7.0 / firefox 2 / Opera
  • 1. 介绍BoltBoltDB是纯Go语言实现的持久化解决方案,保存数据至内存映射文件。称之为持久化解决方案不是数据库,因为数据库这个词有很
  • 一、过滤器作用过滤器用于进行文本内容格式化处理。二、过滤器的使用方式过滤器可以在插值表达式和 v-bind 中使用。三、过滤器的分类全局过滤
  • ROW_NUMBER()说明:返回结果集分区内行的序列号,每个分区的第一行从 1 开始。语法:ROW_NUMBER () OVER ( [
  • 用Nginx做为代理服务器, 后端为 apache2. 设置允许上传最大为100M的文件. 1. Nginx配置: http { .....
  • 为了网站的安全,肯定不让上传php文件,如果有人进入你的后台,上传了一个php文件,你的网站源码,全部救变成他的了,直接打包看你的代码。所以
  • 目录1、几个概念2、举个例子3、解决问题4、换个方法通常,当我们需要对对象的敏感属性或者不希望外部直接访问的属性进行私有化,但是某些时候我们
  • 如果有人问你,GET和POST,有什么区别?你会如何回答?真实案例     前几天有人问我这个问题。
  • 函数作为值Go编程语言提供灵活性,以动态创建函数,并使用它们的值。在下面的例子中,我们已经与初始化函数定义的变量。此函数变量的目仅仅是为使用
  • MAC 中mysql密码忘记解决办法最近项目用到MySQL,之前装过一个,可是忘记了当时设置的密码,然后走上了修改密码的坎坷道路。在百度,G
手机版 网络编程 asp之家 www.aspxhome.com