优雅的读取http请求或响应的数据

网络 通信技术
从http.Request.Body或http.Response.Body中读取数据方法或许很多,标准库中大多数使用ioutil.ReadAll方法一次读取所有数据,如果是json格式的数据还可以使用json.NewDecoder从io.Reader创建一个解析器,假使使用pprof来分析程序总是会发现bytes.makeSlice分配了大量内存,且总是排行第一,今天就来说下如何高效优雅的读取http中的数据。

从 http.Request.Body 或 http.Response.Body 中读取数据方法或许很多,标准库中大多数使用 ioutil.ReadAll 方法一次读取所有数据,如果是 json 格式的数据还可以使用 json.NewDecoder 从 io.Reader 创建一个解析器,假使使用 pprof 来分析程序总是会发现 bytes.makeSlice 分配了大量内存,且总是排行***,今天就这个问题来说一下如何高效优雅的读取 http 中的数据。

[[256407]]

背景介绍

我们有许多 api 服务,全部采用 json 数据格式,请求体就是整个 json 字符串,当一个请求到服务端会经过一些业务处理,然后再请求后面更多的服务,所有的服务之间都用 http 协议来通信(啊, 为啥不用 RPC,因为所有的服务都会对第三方开放,http + json 更好对接),大多数请求数据大小在 1K~4K,响应的数据在 1K~8K,早期所有的服务都使用 ioutil.ReadAll 来读取数据,随着流量增加使用 pprof 来分析发现 bytes.makeSlice 总是排在***,并且占用了整个程序 1/10 的内存分配,我决定针对这个问题进行优化,下面是整个优化过程的记录。

pprof 分析

这里使用 https://github.com/thinkeridea/go-extend/blob/master/exnet/exhttp/expprof/pprof.go 中的 API 来实现生产环境的 /debug/pprof 监测接口,没有使用标准库的 net/http/pprof 包因为会自动注册路由,且长期开放 API,这个包可以设定 API 是否开放,并在规定时间后自动关闭接口,避免存在工具嗅探。

服务部署上线稳定后(大约过了一天半),通过 curl 下载 allocs 数据,然后使用下面的命令查看分析。

  1. $ go tool pprof allocs 
  2. File: xxx 
  3. Type: alloc_space 
  4. Time: Jan 25, 2019 at 3:02pm (CST) 
  5. Entering interactive mode (type "help" for commands, "o" for options) 
  6. (pprof) top 
  7. Showing nodes accounting for 604.62GB, 44.50% of 1358.61GB total 
  8. Dropped 776 nodes (cum <= 6.79GB) 
  9. Showing top 10 nodes out of 155 
  10.       flat  flat%   sum%        cum   cum% 
  11.   111.40GB  8.20%  8.20%   111.40GB  8.20%  bytes.makeSlice 
  12.   107.72GB  7.93% 16.13%   107.72GB  7.93%  github.com/sirupsen/logrus.(*Entry).WithFields 
  13.    65.94GB  4.85% 20.98%    65.94GB  4.85%  strings.Replace 
  14.    54.10GB  3.98% 24.96%    56.03GB  4.12%  github.com/json-iterator/go.(*frozenConfig).Marshal 
  15.    47.54GB  3.50% 28.46%    47.54GB  3.50%  net/url.unescape 
  16.    47.11GB  3.47% 31.93%    48.16GB  3.55%  github.com/json-iterator/go.(*Iterator).readStringSlowPath 
  17.    46.63GB  3.43% 35.36%   103.04GB  7.58%  handlers.(*AdserviceHandler).returnAd 
  18.    42.43GB  3.12% 38.49%    84.62GB  6.23%  models.LogItemsToBytes 
  19.    42.22GB  3.11% 41.59%    42.22GB  3.11%  strings.Join 
  20.    39.52GB  2.91% 44.50%    87.06GB  6.41%  net/url.parseQuery 

从结果中可以看出采集期间一共分配了 1358.61GB top 10 占用了 44.50% 其中 bytes.makeSlice 占了接近 1/10,那么看看都是谁在调用 bytes.makeSlice 吧。

  1. (pprof) web bytes.makeSlice 

 

优雅的读取http请求或响应的数据

从上图可以看出调用 bytes.makeSlice 的最终方法是 ioutil.ReadAll, (受篇幅影响就没有截取 ioutil.ReadAll 上面的方法了),而 90% 都是 ioutil.ReadAll 读取 http 数据调用,找到地方先别急想优化方案,先看看为啥 ioutil.ReadAll 会导致这么多内存分配。

  1. func readAll(r io.Reader, capacity int64) (b []byte, err error) { 
  2.     var buf bytes.Buffer 
  3.     // If the buffer overflows, we will get bytes.ErrTooLarge. 
  4.     // Return that as an error. Any other panic remains. 
  5.     defer func() { 
  6.         e := recover() 
  7.         if e == nil { 
  8.             return 
  9.         } 
  10.         if panicErr, ok := e.(error); ok && panicErr == bytes.ErrTooLarge { 
  11.             err = panicErr 
  12.         } else { 
  13.             panic(e) 
  14.         } 
  15.     }() 
  16.     if int64(int(capacity)) == capacity { 
  17.         buf.Grow(int(capacity)) 
  18.     } 
  19.     _, err = buf.ReadFrom(r) 
  20.     return buf.Bytes(), err 
  21.  
  22. func ReadAll(r io.Reader) ([]byte, error) { 
  23.     return readAll(r, bytes.MinRead) 

以上是标准库 ioutil.ReadAll 的代码,每次会创建一个 var buf bytes.Buffer 并且初始化 buf.Grow(int(capacity)) 的大小为 bytes.MinRead, 这个值呢就是 512,按这个 buffer 的大小读取一次数据需要分配 2~16 次内存,天啊简直不能忍,我自己创建一个 buffer 好不好。

看一下火焰图🔥吧,其中红框标记的就是 ioutil.ReadAll 的部分,颜色比较鲜艳。

优雅的读取http请求或响应的数据

优化读取方法

自己创建足够大的 buffer 减少因为容量不够导致的多次扩容问题。

  1. buffer := bytes.NewBuffer(make([]byte, 4096)) 
  2. _, err := io.Copy(buffer, request.Body) 
  3. if err !=nil{ 
  4.     return nil, err 

恩恩这样应该差不多了,为啥是初始化 4096 的大小,这是个均值,即使比 4096 大基本也就多分配一次内存即可,而且大多数数据都是比 4096 小的。

但是这样真的就算好了吗,当然不能这样,这个 buffer 个每请求都要创建一次,是不是应该考虑一下复用呢,使用 sync.Pool 建立一个缓冲池效果就更好了。

以下是优化读取请求的简化代码:

  1. package adapter 
  2.  
  3. import ( 
  4.     "bytes" 
  5.     "io" 
  6.     "net/http" 
  7.     "sync" 
  8.  
  9.     "github.com/json-iterator/go" 
  10.     "github.com/sirupsen/logrus" 
  11.     "github.com/thinkeridea/go-extend/exbytes" 
  12.  
  13. type Adapter struct { 
  14.     pool sync.Pool 
  15.  
  16. func New() *Adapter { 
  17.     return &Adapter{ 
  18.         pool: sync.Pool{ 
  19.             New: func() interface{} { 
  20.                 return bytes.NewBuffer(make([]byte, 4096)) 
  21.             }, 
  22.         }, 
  23.     } 
  24.  
  25. func (api *Adapter) GetRequest(r *http.Request) (*Request, error) { 
  26.     buffer := api.pool.Get().(*bytes.Buffer) 
  27.     buffer.Reset() 
  28.     defer func() { 
  29.         if buffer != nil { 
  30.             api.pool.Put(buffer) 
  31.             buffer = nil 
  32.         } 
  33.     }() 
  34.  
  35.     _, err := io.Copy(buffer, r.Body) 
  36.     if err != nil { 
  37.         return nil, err 
  38.     } 
  39.  
  40.     request := &Request{} 
  41.     if err = jsoniter.Unmarshal(buffer.Bytes(), request); err != nil { 
  42.         logrus.WithFields(logrus.Fields{ 
  43.             "json": exbytes.ToString(buffer.Bytes()), 
  44.         }).Errorf("jsoniter.UnmarshalJSON fail. error:%v", err) 
  45.         return nil, err 
  46.     } 
  47.     api.pool.Put(buffer) 
  48.     buffer = nil 
  49.  
  50.     // .... 
  51.      
  52.     return request, nil 

使用 sync.Pool 的方式是不是有点怪,主要是 defer 和 api.pool.Put(buffer);buffer = nil 这里解释一下,为了提高 buufer 的复用率会在不使用时尽快把 buffer 放回到缓冲池中,defer 之所以会判断 buffer != nil 主要是在业务逻辑出现错误时,但是 buffer 还没有放回缓冲池时把 buffer 放回到缓冲池,因为在每个错误处理之后都写 api.pool.Put(buffer) 不是一个好的方法,而且容易忘记,但是如果在确定不再使用时 api.pool.Put(buffer);buffer = nil 就可以尽早把 buffer 放回到缓冲池中,提高复用率,减少新建 buffer。

这样就好了吗,别急,之前说服务里面还会构建请求,看看构建请求如何优化吧。

  1. package adapter 
  2.  
  3. import ( 
  4.     "bytes" 
  5.     "fmt" 
  6.     "io" 
  7.     "io/ioutil" 
  8.     "net/http" 
  9.     "sync" 
  10.  
  11.     "github.com/json-iterator/go" 
  12.     "github.com/sirupsen/logrus" 
  13.     "github.com/thinkeridea/go-extend/exbytes" 
  14.  
  15. type Adapter struct { 
  16.     pool sync.Pool 
  17.  
  18. func New() *Adapter { 
  19.     return &Adapter{ 
  20.         pool: sync.Pool{ 
  21.             New: func() interface{} { 
  22.                 return bytes.NewBuffer(make([]byte, 4096)) 
  23.             }, 
  24.         }, 
  25.     } 
  26.  
  27. func (api *Adapter) Request(r *Request) (*Response, error) { 
  28.     var err error 
  29.     buffer := api.pool.Get().(*bytes.Buffer) 
  30.     buffer.Reset() 
  31.     defer func() { 
  32.         if buffer != nil { 
  33.             api.pool.Put(buffer) 
  34.             buffer = nil 
  35.         } 
  36.     }() 
  37.  
  38.     e := jsoniter.NewEncoder(buffer) 
  39.     err = e.Encode(r) 
  40.     if err != nil { 
  41.         logrus.WithFields(logrus.Fields{ 
  42.             "request": r, 
  43.         }).Errorf("jsoniter.Marshal failure: %v", err) 
  44.         return nil, fmt.Errorf("jsoniter.Marshal failure: %v", err) 
  45.     } 
  46.  
  47.     data := buffer.Bytes() 
  48.     req, err := http.NewRequest("POST""http://xxx.com", buffer) 
  49.     if err != nil { 
  50.         logrus.WithFields(logrus.Fields{ 
  51.             "data": exbytes.ToString(data), 
  52.         }).Errorf("http.NewRequest failed: %v", err) 
  53.         return nil, fmt.Errorf("http.NewRequest failed: %v", err) 
  54.     } 
  55.  
  56.     req.Header.Set("User-Agent""xxx"
  57.  
  58.     httpResponse, err := http.DefaultClient.Do(req) 
  59.     if httpResponse != nil { 
  60.         defer func() { 
  61.             io.Copy(ioutil.Discard, httpResponse.Body) 
  62.             httpResponse.Body.Close() 
  63.         }() 
  64.     } 
  65.  
  66.     if err != nil { 
  67.         logrus.WithFields(logrus.Fields{ 
  68.             "url""http://xxx.com"
  69.         }).Errorf("query service failed %v", err) 
  70.         return nil, fmt.Errorf("query service failed %v", err) 
  71.     } 
  72.  
  73.     if httpResponse.StatusCode != 200 { 
  74.         logrus.WithFields(logrus.Fields{ 
  75.             "url":         "http://xxx.com"
  76.             "status":      httpResponse.Status, 
  77.             "status_code": httpResponse.StatusCode, 
  78.         }).Errorf("invalid http status code"
  79.         return nil, fmt.Errorf("invalid http status code"
  80.     } 
  81.  
  82.     buffer.Reset() 
  83.     _, err = io.Copy(buffer, httpResponse.Body) 
  84.     if err != nil { 
  85.         return nil, fmt.Errorf("adapter io.copy failure error:%v", err) 
  86.     } 
  87.  
  88.     respData := buffer.Bytes() 
  89.     logrus.WithFields(logrus.Fields{ 
  90.         "response_json": exbytes.ToString(respData), 
  91.     }).Debug("response json"
  92.  
  93.     res := &Response{} 
  94.     err = jsoniter.Unmarshal(respData, res) 
  95.     if err != nil { 
  96.         logrus.WithFields(logrus.Fields{ 
  97.             "data": exbytes.ToString(respData), 
  98.             "url":  "http://xxx.com"
  99.         }).Errorf("adapter jsoniter.Unmarshal failed, error:%v", err) 
  100.         return nil, fmt.Errorf("adapter jsoniter.Unmarshal failed, error:%v", err) 
  101.     } 
  102.      
  103.     api.pool.Put(buffer) 
  104.     buffer = nil 
  105.  
  106.     // ... 
  107.     return res, nil 

这个示例和之前差不多,只是不仅用来读取 http.Response.Body 还用来创建一个 jsoniter.NewEncoder 用来把请求压缩成 json 字符串,并且作为 http.NewRequest 的 body 参数, 如果直接用 jsoniter.Marshal 同样会创建很多次内存,jsoniter 也使用 buffer 做为缓冲区,并且默认大小为 512, 代码如下:

  1. func (cfg Config) Froze() API { 
  2.     api := &frozenConfig{ 
  3.         sortMapKeys:                   cfg.SortMapKeys, 
  4.         indentionStep:                 cfg.IndentionStep, 
  5.         objectFieldMustBeSimpleString: cfg.ObjectFieldMustBeSimpleString, 
  6.         onlyTaggedField:               cfg.OnlyTaggedField, 
  7.         disallowUnknownFields:         cfg.DisallowUnknownFields, 
  8.     } 
  9.     api.streamPool = &sync.Pool{ 
  10.         New: func() interface{} { 
  11.             return NewStream(api, nil, 512) 
  12.         }, 
  13.     } 
  14.     // ..... 
  15.     return api 

而且序列化之后会进行一次数据拷贝:

  1. func (cfg *frozenConfig) Marshal(v interface{}) ([]byte, error) { 
  2.     stream := cfg.BorrowStream(nil) 
  3.     defer cfg.ReturnStream(stream) 
  4.     stream.WriteVal(v) 
  5.     if stream.Error != nil { 
  6.         return nil, stream.Error 
  7.     } 
  8.     result := stream.Buffer() 
  9.     copied := make([]byte, len(result)) 
  10.     copy(copied, result) 
  11.     return copied, nil 

既然要用 buffer 那就一起吧^_^,这样可以减少多次内存分配,下读取 http.Response.Body 之前一定要记得 buffer.Reset(), 这样基本就已经完成了 http.Request.Body 和 http.Response.Body 的数据读取优化了,具体效果等上线跑一段时间稳定之后来查看吧。

效果分析

上线跑了一天,来看看效果吧。

  1. $ go tool pprof allocs2 
  2. File: connect_server 
  3. Type: alloc_space 
  4. Time: Jan 26, 2019 at 10:27am (CST) 
  5. Entering interactive mode (type "help" for commands, "o" for options) 
  6. (pprof) top 
  7. Showing nodes accounting for 295.40GB, 40.62% of 727.32GB total 
  8. Dropped 738 nodes (cum <= 3.64GB) 
  9. Showing top 10 nodes out of 174 
  10.       flat  flat%   sum%        cum   cum% 
  11.    73.52GB 10.11% 10.11%    73.52GB 10.11%  git.tvblack.com/tvblack/connect_server/vendor/github.com/sirupsen/logrus.(*Entry).WithFields 
  12.    31.70GB  4.36% 14.47%    31.70GB  4.36%  net/url.unescape 
  13.    27.49GB  3.78% 18.25%    54.87GB  7.54%  git.tvblack.com/tvblack/connect_server/models.LogItemsToBytes 
  14.    27.41GB  3.77% 22.01%    27.41GB  3.77%  strings.Join 
  15.    25.04GB  3.44% 25.46%    25.04GB  3.44%  bufio.NewWriterSize 
  16.    24.81GB  3.41% 28.87%    24.81GB  3.41%  bufio.NewReaderSize 
  17.    23.91GB  3.29% 32.15%    23.91GB  3.29%  regexp.(*bitState).reset 
  18.    23.06GB  3.17% 35.32%    23.06GB  3.17%  math/big.nat.make 
  19.    19.90GB  2.74% 38.06%    20.35GB  2.80%  git.tvblack.com/tvblack/connect_server/vendor/github.com/json-iterator/go.(*Iterator).readStringSlowPath 
  20.    18.58GB  2.56% 40.62%    19.12GB  2.63%  net/textproto.(*Reader).ReadMIMEHeader 

哇塞 bytes.makeSlice 终于从前十中消失了,真的太棒了,还是看看 bytes.makeSlice 的其它调用情况吧。

  1. (pprof) web bytes.makeSlice 

 

优雅的读取http请求或响应的数据

从图中可以发现 bytes.makeSlice 的分配已经很小了, 且大多数是 http.Request.ParseForm 读取 http.Request.Body 使用 ioutil.ReadAll 原因,这次优化的效果非常的好。

看一下更直观的火焰图吧,和优化前对比一下很明显 ioutil.ReadAll 看不到了。

优雅的读取http请求或响应的数据

优化期间遇到的问题

比较惭愧在优化的过程出现了一个过失,导致生产环境2分钟故障,通过自动部署立即回滚才得以快速恢复,之后分析代码解决之后上线才***优化,下面总结一下出现的问题吧。

在构建 http 请求时我分了两个部分优化,序列化 json 和读取 http.Response.Body 数据,保持一个观点就是尽早把 buffer 放回到缓冲池,因为 http.DefaultClient.Do(req) 是网络请求会相对耗时,在这个之前我把 buffer 放回到缓冲池中,之后读取 http.Response.Body 时在重新获取一个 buffer,大概代码如下:

  1. package adapter 
  2.  
  3. import ( 
  4.     "bytes" 
  5.     "fmt" 
  6.     "io" 
  7.     "io/ioutil" 
  8.     "net/http" 
  9.     "sync" 
  10.  
  11.     "github.com/json-iterator/go" 
  12.     "github.com/sirupsen/logrus" 
  13.     "github.com/thinkeridea/go-extend/exbytes" 
  14.  
  15. type Adapter struct { 
  16.     pool sync.Pool 
  17.  
  18. func New() *Adapter { 
  19.     return &Adapter{ 
  20.         pool: sync.Pool{ 
  21.             New: func() interface{} { 
  22.                 return bytes.NewBuffer(make([]byte, 4096)) 
  23.             }, 
  24.         }, 
  25.     } 
  26.  
  27. func (api *Adapter) Request(r *Request) (*Response, error) { 
  28.     var err error 
  29.     buffer := api.pool.Get().(*bytes.Buffer) 
  30.     buffer.Reset() 
  31.     defer func() { 
  32.         if buffer != nil { 
  33.             api.pool.Put(buffer) 
  34.             buffer = nil 
  35.         } 
  36.     }() 
  37.  
  38.     e := jsoniter.NewEncoder(buffer) 
  39.     err = e.Encode(r) 
  40.     if err != nil { 
  41.         return nil, fmt.Errorf("jsoniter.Marshal failure: %v", err) 
  42.     } 
  43.  
  44.     data := buffer.Bytes() 
  45.     req, err := http.NewRequest("POST""http://xxx.com", buffer) 
  46.     if err != nil { 
  47.         return nil, fmt.Errorf("http.NewRequest failed: %v", err) 
  48.     } 
  49.  
  50.     req.Header.Set("User-Agent""xxx"
  51.  
  52.     api.pool.Put(buffer) 
  53.     buffer = nil 
  54.      
  55.     httpResponse, err := http.DefaultClient.Do(req) 
  56.      
  57.      
  58.     // .... 
  59.  
  60.     buffer = api.pool.Get().(*bytes.Buffer) 
  61.     buffer.Reset() 
  62.     defer func() { 
  63.         if buffer != nil { 
  64.             api.pool.Put(buffer) 
  65.             buffer = nil 
  66.         } 
  67.     }() 
  68.     _, err = io.Copy(buffer, httpResponse.Body) 
  69.     if err != nil { 
  70.         return nil, fmt.Errorf("adapter io.copy failure error:%v", err) 
  71.     } 
  72.  
  73.     // .... 
  74.      
  75.     api.pool.Put(buffer) 
  76.     buffer = nil 
  77.  
  78.     // ... 
  79.     return res, nil 

上线之后马上发生了错误 http: ContentLength=2090 with Body length 0 发送请求的时候从 buffer 读取数据发现数据不见了或者数据不够了,我去这是什么鬼,马上回滚恢复业务,然后分析 http.DefaultClient.Do(req) 和 http.NewRequest,在调用 http.NewRequest 是并没有从 buffer 读取数据,而只是创建了一个 req.GetBody 之后在 http.DefaultClient.Do 是才读取数据,因为在 http.DefaultClient.Do 之前把 buffer 放回到缓冲池中,其它 goroutine 获取到 buffer 并进行 Reset 就发生了数据争用,当然会导致数据读取不完整了,真实汗颜,对 http.Client 了解太少,争取有空撸一遍源码。

总结

使用合适大小的 buffer 来减少内存分配,sync.Pool 可以帮助复用 buffer, 一定要自己写这些逻辑,避免使用三方包,三方包即使使用同样的技巧为了避免数据争用,在返回数据时候必然会拷贝一个新的数据返回,就像 jsoniter 虽然使用了 sync.Pool 和 buffer 但是返回数据时还需要拷贝,另外这种通用包并不能给一个非常贴合业务的初始 buffer 大小,过小会导致数据发生拷贝,过大会太过浪费内存。

程序中善用 buffer 和 sync.Pool 可以大大的改善程序的性能,并且这两个组合在一起使用非常的简单,并不会使代码变的复杂。

 

责任编辑:未丽燕 来源: thinkeridea博客
相关推荐

2023-11-08 09:49:19

Java实践

2023-09-14 08:16:51

2023-12-28 08:22:33

响应数据转换

2019-11-18 15:50:11

AjaxJavascript前端

2017-03-23 15:05:50

HTTP缓存Cookie

2017-03-23 14:51:21

HTTP缓存CDN缓存

2018-10-18 10:05:43

HTTP网络协议TCP

2024-04-15 16:11:33

C#HTTP请求.NET

2023-12-04 07:07:36

HTTP请求

2021-06-17 09:32:39

重复请求并发请求Java

2009-06-04 10:41:52

Struts工作原理

2022-08-03 07:07:10

Spring数据封装框架

2021-05-11 07:45:00

HTTPNode.jsCookie

2011-04-21 10:47:29

Webjavascript

2023-03-06 07:25:09

http响应头ETag

2021-07-27 14:50:15

axiosHTTP前端

2015-09-15 15:20:35

2015-09-29 14:01:45

SPDY网络协议响应头网络协议

2018-07-24 13:01:52

前端优化前端性能浏览器

2011-10-14 09:23:14

点赞
收藏

51CTO技术栈公众号