减少Haskell程序中的垃圾回收暂停时间

问题描述 投票:126回答:5

我们正在开发一个程序,该程序可以接收和转发“消息”,同时保留这些消息的临时历史记录,以便在需要时可以告诉您消息的历史记录。消息是通过数字标识的,通常大小约为1 KB,我们需要保留数十万条消息。

我们希望优化该程序的延迟:发送和接收消息之间的时间必须小于10毫秒。

该程序用Haskell编写,并由GHC编译。但是,我们发现垃圾回收暂停对于我们的延迟要求来说太长了:在我们的实际程序中超过100毫秒。

以下程序是我们应用程序的简化版本。它使用Data.Map.Strict存储消息。消息是由ByteString标识的Int。以递增的数字顺序插入1,000,000条消息,并且最旧的消息会不断删除,以使历史记录最多保留200,000条消息。

module Main (main) where

import qualified Control.Exception as Exception
import qualified Control.Monad as Monad
import qualified Data.ByteString as ByteString
import qualified Data.Map.Strict as Map

data Msg = Msg !Int !ByteString.ByteString

type Chan = Map.Map Int ByteString.ByteString

message :: Int -> Msg
message n = Msg n (ByteString.replicate 1024 (fromIntegral n))

pushMsg :: Chan -> Msg -> IO Chan
pushMsg chan (Msg msgId msgContent) =
  Exception.evaluate $
    let
      inserted = Map.insert msgId msgContent chan
    in
      if 200000 < Map.size inserted
      then Map.deleteMin inserted
      else inserted

main :: IO ()
main = Monad.foldM_ pushMsg Map.empty (map message [1..1000000])

我们使用以下程序编译并运行了该程序:

$ ghc --version
The Glorious Glasgow Haskell Compilation System, version 7.10.3
$ ghc -O2 -optc-O3 Main.hs
$ ./Main +RTS -s
   3,116,460,096 bytes allocated in the heap
     385,101,600 bytes copied during GC
     235,234,800 bytes maximum residency (14 sample(s))
     124,137,808 bytes maximum slop
             600 MB total memory in use (0 MB lost due to fragmentation)

                                     Tot time (elapsed)  Avg pause  Max pause
  Gen  0      6558 colls,     0 par    0.238s   0.280s     0.0000s    0.0012s
  Gen  1        14 colls,     0 par    0.179s   0.250s     0.0179s    0.0515s

  INIT    time    0.000s  (  0.000s elapsed)
  MUT     time    0.652s  (  0.745s elapsed)
  GC      time    0.417s  (  0.530s elapsed)
  EXIT    time    0.010s  (  0.052s elapsed)
  Total   time    1.079s  (  1.326s elapsed)

  %GC     time      38.6%  (40.0% elapsed)

  Alloc rate    4,780,213,353 bytes per MUT second

  Productivity  61.4% of total user, 49.9% of total elapsed

此处的重要指标是0.0515秒(即51毫秒)的“最大暂停”。我们希望将其减少至少一个数量级。

实验表明,GC暂停的时间由历史记录中的消息数决定。该关系是大致线性的,或者也许是超线性的。下表显示了这种关系。 (You can see our benchmarking tests heresome charts here。)

msgs history length  max GC pause (ms)
===================  =================
12500                                3
25000                                6
50000                               13
100000                              30
200000                              56
400000                             104
800000                             199
1600000                            487
3200000                           1957
6400000                           5378

我们已经对其他几个变量进行了实验,以发现它们是否可以减少这种延迟,但没有一个有很大的不同。这些不重要的变量包括:优化(-O-O2); RTS GC选项(-G-H-A-c),核数(-N),不同的数据结构(Data.Sequence),消息的大小以及生成的short的数量生活垃圾。压倒一切的决定因素是历史记录中的消息数。

我们的工作原理是,消息数量的暂停是线性的,因为每个GC周期必须遍历所有可访问的内存并进行复制,这显然是线性操作。

问题:

  • 此线性时间理论正确吗? GC暂停的时间长度可以用这种简单的方式来表示吗,或者现实是否更复杂?
  • 如果GC暂停在工作内存中是线性的,是否有任何方法可以减少所涉及的恒定因子?
  • 是否有用于增量GC的选项或类似的选项?我们只能看到研究论文。我们非常愿意用吞吐量来降低延迟。
  • 除了拆分为多个进程之外,是否有任何方法可以为较小的GC周期“划分”内存?
performance haskell garbage-collection ghc latency
5个回答
92
投票

您实际上拥有51ms的暂停时间以及200Mb的实时数据,您的表现相当不错。我正在使用的系统的最大暂停时间更长,而实时数据量只有一半。

您的假设是正确的,主要的GC暂停时间与实时数据量成正比,不幸的是,GHC无法解决这个问题。过去我们曾尝试使用增量GC,但这是一个研究项目,尚未达到将其折叠成已发布的GHC所需的成熟度。

我们希望将来可以帮助解决这一问题的是紧凑区域:https://phabricator.haskell.org/D1264。这是一种手动内存管理,您可以在堆中压缩结构,而GC不必遍历它。它最适合长寿命的数据,但也许足以在您的设置中用于单个消息。我们的目标是在GHC 8.2.0中使用它。

[如果您处于分布式环境中并且拥有某种负载均衡器,则可以使用一些技巧来避免遇到暂停问题,基本上可以确保负载均衡器不会将请求发送到将要执行主要的GC,当然,即使没有收到请求,也请确保机器仍能完成GC。


9
投票

我已经尝试过使用IOVector作为基础数据结构的环形缓冲区方法来处理您的代码段。在我的系统(GHC 7.10.3,相同的编译选项)上,这导致最大时间(您在OP中提到的指标)减少了约22%。

NB。我在这里做了两个假设:

  1. 可变的数据结构完全可以解决问题(我想消息传递无论如何都暗示着IO)
  2. 您的messageId是连续的

[使用一些附加的Int参数和算法(例如,当messageId重置为0或minBound时),应该可以直接确定某个消息是否仍在历史记录中,并从对应的索引中检索它。环形缓冲区。

为了您的测试乐趣:

import qualified Control.Exception as Exception
import qualified Control.Monad as Monad
import qualified Data.ByteString as ByteString
import qualified Data.Map.Strict as Map

import qualified Data.Vector.Mutable as Vector

data Msg = Msg !Int !ByteString.ByteString

type Chan = Map.Map Int ByteString.ByteString

data Chan2 = Chan2
    { next          :: !Int
    , maxId         :: !Int
    , ringBuffer    :: !(Vector.IOVector ByteString.ByteString)
    }

chanSize :: Int
chanSize = 200000

message :: Int -> Msg
message n = Msg n (ByteString.replicate 1024 (fromIntegral n))


newChan2 :: IO Chan2
newChan2 = Chan2 0 0 <$> Vector.unsafeNew chanSize

pushMsg2 :: Chan2 -> Msg -> IO Chan2
pushMsg2 (Chan2 ix _ store) (Msg msgId msgContent) =
    let ix' = if ix == chanSize then 0 else ix + 1
    in Vector.unsafeWrite store ix' msgContent >> return (Chan2 ix' msgId store)

pushMsg :: Chan -> Msg -> IO Chan
pushMsg chan (Msg msgId msgContent) =
  Exception.evaluate $
    let
      inserted = Map.insert msgId msgContent chan
    in
      if chanSize < Map.size inserted
      then Map.deleteMin inserted
      else inserted

main, main1, main2 :: IO ()

main = main2

main1 = Monad.foldM_ pushMsg Map.empty (map message [1..1000000])

main2 = newChan2 >>= \c -> Monad.foldM_ pushMsg2 c (map message [1..1000000])

8
投票

我必须与其他人达成共识-如果您有严格的实时限制,那么使用GC语言是不理想的。

但是,您可能会考虑尝试其他可用的数据结构,而不仅仅是Data.Map。

我使用Data.Sequence重写了它,并得到了一些有希望的改进:

msgs history length  max GC pause (ms)
===================  =================
12500                              0.7
25000                              1.4
50000                              2.8
100000                             5.4
200000                            10.9
400000                            21.8
800000                            46
1600000                           87
3200000                          175
6400000                          350

即使您针对延迟进行了优化,我也注意到其他指标也在改善。在200000的情况下,执行时间从1.5s减少到0.2s,总内存使用量从600MB减少到27MB。

我应该注意,我通过调整设计来作弊:

  • 我从Int中删除了Msg,所以不在两个地方。
  • [我不是使用从Int s到ByteString s的映射,而是使用了Sequence s的ByteString,而不是每个消息一个Int,我认为可以用一个Int完成整个Sequence。假设消息无法重新排序,则可以使用单个偏移量将所需的消息转换为它在队列中的位置。

((我包括一个附加函数getMsg来演示。)

{-# LANGUAGE BangPatterns #-}

import qualified Control.Exception as Exception
import qualified Control.Monad as Monad
import qualified Data.ByteString as ByteString
import Data.Sequence as S

newtype Msg = Msg ByteString.ByteString

data Chan = Chan Int (Seq ByteString.ByteString)

message :: Int -> Msg
message n = Msg (ByteString.replicate 1024 (fromIntegral n))

maxSize :: Int
maxSize = 200000

pushMsg :: Chan -> Msg -> IO Chan
pushMsg (Chan !offset sq) (Msg msgContent) =
    Exception.evaluate $
        let newSize = 1 + S.length sq
            newSq = sq |> msgContent
        in
        if newSize <= maxSize
            then Chan offset newSq
            else
                case S.viewl newSq of
                    (_ :< newSq') -> Chan (offset+1) newSq'
                    S.EmptyL -> error "Can't happen"

getMsg :: Chan -> Int -> Maybe Msg
getMsg (Chan offset sq) i_ = getMsg' (i_ - offset)
    where
    getMsg' i
        | i < 0            = Nothing
        | i >= S.length sq = Nothing
        | otherwise        = Just (Msg (S.index sq i))

main :: IO ()
main = Monad.foldM_ pushMsg (Chan 0 S.empty) (map message [1..5 * maxSize])

3
投票

您发现GC语言的局限性:它们不适用于实时核心系统。

您有2个选项:

1st增加堆大小并使用2级缓存系统,将最旧的消息发送到磁盘,并且将最新的消息保留在内存中,您可以使用OS分页来做到这一点。问题是,尽管使用此解决方案,但是根据所使用的辅助存储单元的读取功能,分页可能会很昂贵。

第二程序使用'C'编程该解决方案,并将其与FFI连接到haskell。这样,您可以执行自己的内存管理。这将是最好的选择,因为您可以自己控制所需的内存。


0
投票

[如其他答案所述,GHC中的垃圾收集器遍历实时数据,这意味着您存储在内存中的寿命更长的数据越多,GC暂停时间就越长。

GHC 8.2

[为了部分地克服此问题,GHC-8.2中引入了称为compact regions的功能。它既是GHC运行时系统的功能,又是暴露convenient接口以供使用的库。紧凑区域功能允许将您的数据放入内存中的单独位置,并且在垃圾回收阶段GC不会遍历数据。因此,如果您要保留较大的结构,请考虑使用紧凑区域。但是,紧凑区域本身没有 微型垃圾收集器里面,它对append-only数据结构更有效,而不是像HashMap那样也要删除内容的东西。虽然您可以克服此问题。有关详细信息,请参阅以下博客文章:

GHC 8.10

此外,从GHC-8.10开始,实施了新的low-latency incremental垃圾收集器算法。这是另一种GC算法,默认情况下未启用,但是您可以根据需要选择加入。因此,您可以将默认GC切换到较新的GC,以自动获取compact region提供的功能,而无需手动进行包装和展开。但是,新的GC并不是灵丹妙药,并且不能自动解决所有问题,并且需要权衡取舍。有关新GC的基准,请参考以下GitHub存储库:

© www.soinside.com 2019 - 2024. All rights reserved.