文章详情

短信预约-IT技能 免费直播动态提醒

请输入下面的图形验证码

提交验证

短信预约提醒成功

Worker Pool并发模式中何时关闭结果通道?

2024-04-04 23:31

关注

目前编程网上已经有很多关于Golang的文章了,自己在初次阅读这些文章中,也见识到了很多学习思路;那么本文《Worker Pool并发模式中何时关闭结果通道?》,也希望能帮助到大家,如果阅读完后真的对你学习Golang有帮助,欢迎动动手指,评论留言并分享~

问题内容

我试图了解 golang 中的并发性是如何工作的,因为我正在尝试批量处理一个大型 json 文件,但我不确定何时应该关闭我的通道。下面是代码,

package main

import (
    "fmt"
   "os"
   "time"
)

type order struct {
    recipe   string         `json:"recipe"`
    postcode string         `json:"postcode"`
    delivery timewithformat `json:"delivery"`
}

type timewithformat struct {
    weekday   string
    starttime time.time
    endtime   time.time
    valid   bool
}

func main() {
 input, err := os.open("test.json")
 if err != nil {
    fmt.println(err)
 }

concurrency := 20
ingest := make(chan []order)
ret := make(chan map[string]int)

for x := 0; x < concurrency; x++ {
    go processrecipesworker(ingest, ret)
}

go parseinmemory(input, ingest)

finalmap := make(map[string]int)
for v := range ret {
    // combine all incoming results
    for recipe, occurrence := range v {
        if v, ok := finalmap[recipe]; ok {
            finalmap[recipe] = occurrence + v
        } else {
            finalmap[recipe] = occurrence
        }
    }
}

 //further processing on finalmap

}

func parseinmemory(input *os.file, ingest chan []order) {
 data, _ := ioutil.readall(input)
 var orders []order

 if err := json.unmarshal(data, &orders); err != nil {
    log.fatal(err.error())
}

batch := 100000
for i := 0; i < len(orders); i += batch {
    j := i + batch
    if j > len(orders) {
        j = len(orders)
    }
    ingest <- orders[i:j]
 }
 close(ingest)
}

func processrecipesworker(in <-chan []helpers.order, r chan map[string]int) {
 result := make(map[string]int)
 for _, order := range <-in {
    if v, ok := result[order.recipe]; ok {
        result[order.recipe] = v + 1
    } else {
        result[order.recipe] = 1
    }
 }
 r <- result
}

我是 golang 和并发的新手,如果我的代码需要更改,请告诉我。

如有困惑,请随时发表评论。

编辑 torek 代码的建议如下所示,

package main

import (
    "fmt"
    "os"
    "time"
)

func main() {
    input, err := os.Open("test.json")
    if err != nil {
        fmt.Println(err)
    }
    var wg sync.WaitGroup
    concurrency := 20
    inGest := make(chan []helpers.Order)
    ret := make(chan map[string]int)
    wg.Add(concurrency)
    for x := 0; x < concurrency; x++ {
        go processRecipesWorker(inGest, ret)
    }

    go ParseInMemory(input, inGest)

    go (func(wg *sync.WaitGroup) {
        wg.Wait()
        close(ret)
    })(&wg)

    finalMap := make(map[string]int)
    for v := range ret {
        // Combine all incoming results
        for recipe, occurrence := range v {
            if v, ok := finalMap[recipe]; ok {
                finalMap[recipe] = occurrence + v
            } else {
                finalMap[recipe] = occurrence
            }
        }
    }

    //Further processing on finalMap

}

func ParseInMemory(input *os.File, ingest chan []Order) {
    data, _ := ioutil.ReadAll(input)
    var orders []Order

    if err := json.Unmarshal(data, &orders); err != nil {
        log.Fatal(err.Error())
    }

    batch := 100000
    for i := 0; i < len(orders); i += batch {
        j := i + batch
        if j > len(orders) {
            j = len(orders)
        }
        ingest <- orders[i:j]
    }
    close(ingest)
}

func processRecipesWorker(in <-chan []helpers.Order, r chan map[string]int) {
    // This will get us unique recipes and there occurrences
    // FR- 1 & 2 completed
    result := make(map[string]int)
    for _, order := range <-in {
        if v, ok := result[order.Recipe]; ok {
            result[order.Recipe] = v + 1
        } else {
            result[order.Recipe] = 1
        }
    }
    r <- result
    defer wg.Done()
}

现在代码不会引发死锁,但当我有 10m 记录时它只处理 2m 记录,我知道它正在发生,因为所有例程都调用 done() 所以它结束了。但现在的问题是我什么时候应该调用 wg.done() 因为代码应该如何知道最后一批正在处理,我们可以调用 .done()


解决方案


你现在已经很接近了:

for _, order := range <-in {
    ...
}

是错误的。这会接收一批并循环遍历它,但您希望循环遍历所有接收到的批次,然后循环遍历每个批次:

for batch := range in {
    for _, order := range batch {
        ...
    }
}

在您的特定示例中,您知道要启动的 goroutine 数量,您可以在不使用 waitgroup 方法的情况下执行此操作。

Here 您可以找到代码修改的示例,为了简洁起见,我省略了您从文件中读取的部分。

它归结为两个主要修改。首先,您需要一个额外的通道(在我的示例中,它称为 quit)来跟踪每个 goroutine 何时完成工作。另外,还有已完成的 goroutine 的计数器(示例中为 donejobs)。 因此,您的 processrecipesworker 方法应如下所示:

func processrecipesworker(in <-chan []order, r chan map[string]int, quit chan<- int) {
 result := make(map[string]int)
 for orders := range in {
  for _, order := range orders {  
   if v, ok := result[order.recipe]; ok {
        result[order.recipe] = v + 1
    } else {
        result[order.recipe] = 1
    }
    }
 }
 r <- result
 quit <- 1
}

其次,您可以使用 for-select 循环,并带有标签来遍历发送到 retquit 通道的数据。

loop:
for{
  select {

    case v := <- ret:
      // Combine all incoming results
      for recipe, occurrence := range v {
        if v, ok := finalMap[recipe]; ok {
            finalMap[recipe] = occurrence + v
        } else {
            finalMap[recipe] = occurrence
        }
      }
    case <-quit:
      doneJobs++
      fmt.Println(doneJobs)
      if doneJobs >= concurrency {
       break loop
      }
  }
}

通过使用 break loop 语句,您可以中断 selectfor 循环。

总而言之,@torek 使用 waitgroup 的解决方案是一个很好的解决方案,它提供了 go 中使用的通用模式的用法。您可以在 this 关于 go 管道的文章中看到这一点,特别是在扇出扇入部分。这个答案只是提供了另一种运行程序的方法,而不使用 waitgroup 方法。

今天关于《Worker Pool并发模式中何时关闭结果通道?》的内容就介绍到这里了,是不是学起来一目了然!想要了解更多关于的内容请关注编程网公众号!

阅读原文内容投诉

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

软考中级精品资料免费领

  • 历年真题答案解析
  • 备考技巧名师总结
  • 高频考点精准押题
  • 2024年上半年信息系统项目管理师第二批次真题及答案解析(完整版)

    难度     813人已做
    查看
  • 【考后总结】2024年5月26日信息系统项目管理师第2批次考情分析

    难度     354人已做
    查看
  • 【考后总结】2024年5月25日信息系统项目管理师第1批次考情分析

    难度     318人已做
    查看
  • 2024年上半年软考高项第一、二批次真题考点汇总(完整版)

    难度     435人已做
    查看
  • 2024年上半年系统架构设计师考试综合知识真题

    难度     224人已做
    查看

相关文章

发现更多好内容

猜你喜欢

AI推送时光机
位置:首页-资讯-后端开发
咦!没有更多了?去看看其它编程学习网 内容吧
首页课程
资料下载
问答资讯