提升性能的利器:深入解析SectionReader-每日速讯
2023-07-02 20:20:12 来源:博客园
本文将介绍 Go 语言中的 SectionReader
,包括 SectionReader
的基本使用方法、实现原理、使用注意事项。从而能够在合适的场景下,更好得使用SectionReader
类型,提升程序的性能。
这里我们需要实现一个基本的HTTP文件服务器功能,可以处理客户端的HTTP请求来读取指定文件,并根据请求的Range
头部字段返回文件的部分数据或整个文件数据。
(资料图片)
这里一个简单的思路,可以先把整个文件的数据加载到内存中,然后再根据请求指定的范围,截取对应的数据返回回去即可。下面提供一个代码示例:
func serveFile(w http.ResponseWriter, r *http.Request, filePath string) { // 打开文件 file, _ := os.Open(filePath) defer file.Close() // 读取整个文件数据 fileData, err := ioutil.ReadAll(file) if err != nil { // 错误处理 http.Error(w, err.Error(), http.StatusInternalServerError) return } // 根据Range头部字段解析请求的范围 rangeHeader := r.Header.Get("Range") ranges, err := parseRangeHeader(rangeHeader) if err != nil { // 错误处理 http.Error(w, err.Error(), http.StatusBadRequest) return } // 处理每个范围并返回数据 for _, rng := range ranges { start := rng.Start end := rng.End // 从文件数据中提取范围的字节数据 rangeData := fileData[start : end+1] // 将范围数据写入响应 w.Header().Set("Content-Range", fmt.Sprintf("bytes %d-%d/%d", start, end, fileInfo.Size())) w.Header().Set("Content-Length", strconv.Itoa(len(rangeData))) w.WriteHeader(http.StatusPartialContent) w.Write(rangeData) }}type Range struct { Start int End int}// 解析HTTP Range请求头func parseRangeHeader(rangeHeader string) ([]Range, error){}
上述的代码实现比较简单,首先,函数打开filePath
指定的文件,使用ioutil.ReadAll
函数读取整个文件的数据到fileData
中。接下来,从HTTP请求头中Range
头部字段中获取范围信息,获取每个范围请求的起始和终止位置。接着,函数遍历每一个范围信息,提取文件数据fileData
中对应范围的字节数据到rangeData
中,然后将数据返回回去。基于此,简单实现了一个支持范围请求的HTTP文件服务器。
但是当前实现其实存在一个问题,即在每次请求都会将整个文件加载到内存中,即使用户只需要读取其中一小部分数据,这种处理方式会给内存带来非常大的压力。假如被请求文件的大小是100M,一个32G内存的机器,此时最多只能支持320个并发请求。但是用户每次请求可能只是读取文件的一小部分数据,比如1M,此时将整个文件加载到内存中,往往是一种资源的浪费,同时从磁盘中读取全部数据到内存中,此时性能也较低。
那能不能在处理请求时,HTTP文件服务器只读取请求的那部分数据,而不是加载整个文件的内容,go基础库有对应类型的支持吗?
其实还真有,Go语言中其实存在一个SectionReader
的类型,它可以从一个给定的数据源中读取数据的特定片段,而不是读取整个数据源,这个类型在这个场景下使用非常合适。
下面我们先仔细介绍下SectionReader
的基本使用方式,然后将其作用到上面文件服务器的实现当中。
SectionReader
类型的定义如下:
type SectionReader struct { r ReaderAt base int64 off int64 limit int64}
SectionReader包含了四个字段:
r
:一个实现了ReaderAt
接口的对象,它是数据源。base
: 数据源的起始位置,通过设置base
字段,可以调整数据源的起始位置。off
:读取的起始位置,表示从数据源的哪个偏移量开始读取数据,初始化时一般与base
保持一致。limit
:数据读取的结束位置,表示读取到哪里结束。同时还提供了一个构造器方法,用于创建一个SectionReader
实例,定义如下:
func NewSectionReader(r ReaderAt, off int64, n int64) *SectionReader { // ... 忽略一些验证逻辑 // remaining 代表数据读取的结束位置,为 base(偏移量) + n(读取字节数) remaining = n + off return &SectionReader{r, off, off, remaining}}
NewSectionReader
接收三个参数,r
代表实现了ReadAt
接口的数据源,off
表示起始位置的偏移量,也就是要从哪里开始读取数据,n
代表要读取的字节数。通过NewSectionReader
函数,可以很方便得创建出SectionReader
对象,然后读取特定范围的数据。
SectionReader
能够像io.Reader
一样读取数据,唯一区别是会被限定在指定范围内,只会返回特定范围的数据。
下面通过一个例子来说明SectionReader
的使用,代码示例如下:
package mainimport ( "fmt" "io" "strings")func main() { // 一个实现了 ReadAt 接口的数据源 data := strings.NewReader("Hello,World!") // 创建 SectionReader,读取范围为索引 2 到 9 的字节 // off = 2, 代表从第二个字节开始读取; n = 7, 代表读取7个字节 section := io.NewSectionReader(data, 2, 7) // 数据读取缓冲区长度为5 buffer := make([]byte, 5) for { // 不断读取数据,直到返回io.EOF n, err := section.Read(buffer) if err != nil { if err == io.EOF { // 已经读取到末尾,退出循环 break } fmt.Println("Error:", err) return } fmt.Printf("Read %d bytes: %s\n", n, buffer[:n]) }}
上述函数使用 io.NewSectionReader
创建了一个 SectionReader
,指定了开始读取偏移量为 2,读取字节数为 7。这意味着我们将从第三个字节(索引 2)开始读取,读取 7 个字节。
然后我们通过一个无限循环,不断调用Read
方法读取数据,直到读取完所有的数据。函数运行结果如下,确实只读取了范围为索引 2 到 9 的字节的内容:
Read 5 bytes: llo,WRead 2 bytes: or
因此,如果我们只需要读取数据源的某一部分数据,此时可以创建一个SectionReader
实例,定义好数据读取的偏移量和数据量之后,之后可以像普通的io.Reader
那样读取数据,SectionReader
确保只会读取到指定范围的数据。
这里回到上面HTTP文件服务器实现的例子,之前的实现存在一个问题,即每次请求都会读取整个文件的内容,这会代码内存资源的浪费,性能低,响应时间比较长等问题。下面我们使用SectionReader
对其进行优化,实现如下:
func serveFile(w http.ResponseWriter, r *http.Request, filePath string) { // 打开文件 file, err := os.Open(filePath) if err != nil { http.Error(w, err.Error(), http.StatusInternalServerError) return } defer file.Close() // 获取文件信息 fileInfo, err := file.Stat() if err != nil { http.Error(w, err.Error(), http.StatusInternalServerError) return } // 根据Range头部字段解析请求的范围 rangeHeader := r.Header.Get("Range") ranges, err := parseRangeHeader(rangeHeader) if err != nil { http.Error(w, err.Error(), http.StatusBadRequest) return } // 处理每个范围并返回数据 for _, rng := range ranges { start := rng.Start end := rng.End // 根据范围创建SectionReader section := io.NewSectionReader(file, int64(start), int64(end-start+1)) // 将范围数据写入响应 w.Header().Set("Content-Range", fmt.Sprintf("bytes %d-%d/%d", start, end, fileInfo.Size())) w.WriteHeader(http.StatusPartialContent) io.CopyN(w, section, section.Size()) }}type Range struct { Start int End int}// 解析HTTP Range请求头func parseRangeHeader(rangeHeader string) ([]Range, error) {}
在上述优化后的实现中,我们使用 io.NewSectionReader
创建了 SectionReader
,它的范围是根据请求头中的范围信息计算得出的。然后,我们通过 io.CopyN
将 SectionReader
中的数据直接拷贝到响应的 http.ResponseWriter
中。
上述两个HTTP文件服务器实现的区别,只在于读取特定范围数据方式,前一种方式是将整个文件加载到内存中,再截取特定范围的数据;而后者则是通过使用 SectionReader
,我们避免了一次性读取整个文件数据,并且只读取请求范围内的数据。这种优化能够更高效地处理大文件或处理大量并发请求的场景,节省了内存和处理时间。
SectionReader
的设计初衷,在于提供一种简洁,灵活的方式来读取数据源的特定部分。
SectionReader
结构体中off
,base
,limit
字段是实现只读取数据源特定部分数据功能的重要变量。
type SectionReader struct { r ReaderAt base int64 off int64 limit int64}
由于SectionReader
需要保证只读取特定范围的数据,故需要保存开始位置和结束位置的值。这里是通过base
和limit
这两个字段来实现的,base
记录了数据读取的开始位置,limit
记录了数据读取的结束位置。
通过设定base
和limit
两个字段的值,限制了能够被读取数据的范围。之后需要开始读取数据,有可能这部分待读取的数据不会被一次性读完,此时便需要一个字段来说明接下来要从哪一个字节继续读取下去,因此SectionReader
也设置了off
字段的值,这个代表着下一个带读取数据的位置。
在使用SectionReader
读取数据的过程中,通过base
和limit
限制了读取数据的范围,off
则不断修改,指向下一个带读取的字节。
func (s *SectionReader) Read(p []byte) (n int, err error) { // s.off: 将被读取数据的下标 // s.limit: 指定读取范围的最后一个字节,这里应该保证s.base <= s.off if s.off >= s.limit { return 0, EOF } // s.limit - s.off: 还剩下多少数据未被读取 if max := s.limit - s.off; int64(len(p)) > max { p = p[0:max] } // 调用 ReadAt 方法读取数据 n, err = s.r.ReadAt(p, s.off) // 指向下一个待被读取的字节 s.off += int64(n) return}
SectionReader
实现了Read
方法,通过该方法能够实现指定范围数据的读取,在内部实现中,通过两个限制来保证只会读取到指定范围的数据,具体限制如下:
off
不大于 limit
字段的值,保证不会读取超过指定范围的数据在调用ReadAt
方法时,保证传入切片长度不大于剩余可读数据长度通过这两个限制,保证了用户只要设定好了数据开始读取偏移量 base
和 数据读取结束偏移量 limit
字段值,Read
方法便只会读取这个范围的数据。
func (s *SectionReader) ReadAt(p []byte, off int64) (n int, err error) { // off: 参数指定了偏移字节数,为一个相对数值 // s.limit - s.base >= off: 保证不会越界 if off < 0 || off >= s.limit-s.base { return 0, EOF } // off + base: 获取绝对的偏移量 off += s.base // 确保传入字节数组长度 不超过 剩余读取数据范围 if max := s.limit - off; int64(len(p)) > max { p = p[0:max] // 调用ReadAt 方法读取数据 n, err = s.r.ReadAt(p, off) if err == nil { err = EOF } return n, err } return s.r.ReadAt(p, off)}
SectionReader
还提供了ReadAt
方法,能够指定偏移量处实现数据读取。它根据传入的偏移量off
字段的值,计算出实际的偏移量,并调用底层源的ReadAt
方法进行读取操作,在这个过程中,也保证了读取数据范围不会超过base
和limit
字段指定的数据范围。
这个方法提供了一种灵活的方式,能够在限定的数据范围内,随意指定偏移量来读取数据,不过需要注意的是,该方法并不会影响实例中off
字段的值。
func (s *SectionReader) Seek(offset int64, whence int) (int64, error) { switch whence { default: return 0, errWhence case SeekStart: // s.off = s.base + offset offset += s.base case SeekCurrent: // s.off = s.off + offset offset += s.off case SeekEnd: // s.off = s.limit + offset offset += s.limit } // 检查 if offset < s.base { return 0, errOffset } s.off = offset return offset - s.base, nil}
SectionReader
也提供了Seek
方法,给其提供了随机访问和灵活读取数据的能力。举个例子,假如已经调用Read
方法读取了一部分数据,但是想要重新读取该数据,此时便可以使Seek
方法将off
字段设置回之前的位置,然后再次调用Read方法进行读取。
当使用 SectionReader
创建实例时,确保 off
值在 base
和 limit
之间是至关重要的。保证 off
值在 base
和 limit
之间的好处是确保读取操作在有效的数据范围内进行,避免读取错误或超出范围的访问。如果 off
值小于 base
或大于等于 limit
,读取操作可能会导致错误或返回 EOF。
一个良好的实践方式是使用 NewSectionReader
函数来创建 SectionReader
实例。NewSectionReader
函数会检查 off 值是否在有效范围内,并自动调整 off
值,以确保它在 base
和 limit
之间。
当使用SectionReader
时,如果没有及时关闭底层数据源可能会导致资源泄露,这些资源在程序执行期间将一直保持打开状态,直到程序终止。在处理大量请求或长时间运行的情况下,可能会耗尽系统的资源。
下面是一个示例,展示了没有关闭SectionReader
底层数据源可能引发的问题:
func main() { file, err := os.Open("data.txt") if err != nil { log.Fatal(err) } defer file.Close() section := io.NewSectionReader(file, 10, 20) buffer := make([]byte, 10) _, err = section.Read(buffer) if err != nil { log.Fatal(err) } // 没有关闭底层数据源,可能导致资源泄露或其他问题}
在上述示例中,底层数据源是一个文件。在程序结束时,没有显式调用file.Close()
来关闭文件句柄,这将导致文件资源一直保持打开状态,直到程序终止。这可能导致其他进程无法访问该文件或其他与文件相关的问题。
因此,在使用SectionReader
时,要注意及时关闭底层数据源,以确保资源的正确管理和避免潜在的问题。
本文主要对SectionReader
进行了介绍。文章首先从一个基本HTTP文件服务器的功能实现出发,解释了该实现存在内存资源浪费,并发性能低等问题,从而引出了SectionReader
。
接下来介绍了SectionReader
的基本定义,以及其基本使用方法,最后使用SectionReader
对上述HTTP文件服务器进行优化。接着还详细讲述了SectionReader
的实现原理,从而能够更好得理解和使用SectionReader
。
最后,讲解了SectionReader
的使用注意事项,如需要及时关闭底层数据源等。基于此完成了SectionReader
的介绍。
[责任编辑:]
相关阅读
- (2023-07-02)提升性能的利器:深入解析SectionReader-每日速讯
- (2023-07-02)台风等级有几级如何划分_台风等级有几级
- (2023-07-02)【世界报资讯】广州发现中国鳄类蛋化石碎片 助力三水盆地古生物学研究
- (2023-07-02)win7怎么免费升级win10
- (2023-07-02)小米应用锁强制解除
- (2023-07-02)甘肃能源:盐池滩项目首台机组并网发电|新视野
- (2023-07-02)世体:西甲将于下周一官宣EA Sports成冠名赞助商
- (2023-07-02)快讯:华脉科技:公司业务侧重于通信基础设施方面 不涉及人工智能
- (2023-07-02)世界实时:预付账款应付账款合并_应付账款和预付账款的区别
- (2023-07-02)大金重工:上半年净利同比预增45%至60%_焦点
- (2023-07-02)这位85级暗黑4硬核玩家死在了游戏最可怜的敌人手里_每日看点
- (2023-07-02)【时快讯】《暗黑破坏神4》技能伤害计算指南 技能伤害怎么算?
- (2023-07-02)今日精选:轮船简笔画简单又好看-轮船简笔画
- (2023-07-02)天天热讯:新黄河海报集 | 绿色低碳看山东,这些项目,太“靓”了!
- (2023-07-02)沈腾在云南吃齐齐哈尔烤串,网友:沈腾推荐的准没错
- (2023-07-02)全流程监管、定向销售 严防不符合安全标准小麦流入口粮市场
- (2023-07-02)理想6月交付新车32575辆 首次突破3万辆
- (2023-07-02)今日热搜:明起,北京工作日小客车限行尾号轮换
- (2023-07-02)解析 | 特斯拉的降本潜力到底有多大?
- (2023-07-02)2023年子宫内膜概念股名单一览(7月2日)_当前观察
- (2023-07-02)最新:舍不得国足?里皮助手疯狂示爱,称有信心带队出线球迷直接打脸
- (2023-07-02)外媒述评:中非对彼此愈发重要 每日观点
- (2023-07-02)王启蒙: 外汇黄金下周最新行情趋势分析及黄金独家操作建议 热议
- (2023-07-02)售价33.5万元,硬派越野低能耗,坦克500 Hi4-T正式济南上市|前沿热点
- (2023-07-02)天天微速讯:部分成品油消费税政策调整 影响几何?
- (2023-07-02)素混凝土垫层是什么意思(素混凝土)|当前热点
- (2023-07-02)面试收到offer怎么回复(收到offer怎么回复)
- (2023-07-02)红米buds4Pro怎么开启低延迟
- (2023-07-02)天天快看点丨个人商业贷款怎么办理?流程在这
- (2023-07-02)局部大暴雨!山东中南部、半岛地区今天夜间起自南向北有较强降雨