我的编程空间,编程开发者的网络收藏夹
学习永远不晚

go中控制goroutine数量的方法

短信预约 -IT技能 免费直播动态提醒
省份

北京

  • 北京
  • 上海
  • 天津
  • 重庆
  • 河北
  • 山东
  • 辽宁
  • 黑龙江
  • 吉林
  • 甘肃
  • 青海
  • 河南
  • 江苏
  • 湖北
  • 湖南
  • 江西
  • 浙江
  • 广东
  • 云南
  • 福建
  • 海南
  • 山西
  • 四川
  • 陕西
  • 贵州
  • 安徽
  • 广西
  • 内蒙
  • 西藏
  • 新疆
  • 宁夏
  • 兵团
手机号立即预约

请填写图片验证码后获取短信验证码

看不清楚,换张图片

免费获取短信验证码

go中控制goroutine数量的方法

前言

goroutine被无限制的大量创建,造成的后果就不啰嗦了,主要讨论几种如何控制goroutine的方法

控制goroutine的数量
通过channel+sync

var (
 // channel长度
 poolCount      = 5
 // 复用的goroutine数量
 goroutineCount = 10
)
func pool() {
 jobsChan := make(chan int, poolCount)
 // workers
 var wg sync.WaitGroup
 for i := 0; i < goroutineCount; i++ {
  wg.Add(1)
  go func() {
   defer wg.Done()
   for item := range jobsChan {
    // ...
    fmt.Println(item)
   }
  }()
 }
 // senders
 for i := 0; i < 1000; i++ {
  jobsChan <- i
 }
 // 关闭channel,上游的goroutine在读完channel的内容,就会通过wg的done退出
 close(jobsChan)
 wg.Wait()
}

通过WaitGroup启动指定数量的goroutine,监听channel的通知。发送者推送信息到channel,信息处理完了,关闭channel,等待goroutine依次退出。

使用semaphore

package main
import (
 "context"
 "fmt"
 "sync"
 "time"
 "golang.org/x/sync/semaphore"
)
const (
 // 同时运行的goroutine上限
 Limit = 3
 // 信号量的权重
 Weight = 1
)
func main() {
 names := []string{
  "小白",
  "小红",
  "小明",
  "小李",
  "小花",
 }
 sem := semaphore.NewWeighted(Limit)
 var w sync.WaitGroup
 for _, name := range names {
  w.Add(1)
  go func(name string) {
   sem.Acquire(context.Background(), Weight)
   // ... 具体的业务逻辑
   fmt.Println(name, "-吃饭了")
   time.Sleep(2 * time.Second)
   sem.Release(Weight)
   w.Done()
  }(name)
 }
 w.Wait()
 fmt.Println("ending--------")
}

借助于x包中的semaphore,也可以进行goroutine的数量限制。

线程池

不过原本go中的协程已经是非常轻量了,对于协程池还是要根据具体的场景分析。

对于小场景使用channel+sync就可以,其他复杂的可以考虑使用第三方的协程池库。

panjf2000/ants

go-playground/pool

Jeffail/tunny

几个开源的线程池的设计
fasthttp中的协程池实现

fasthttp比net/http效率高很多倍的重要原因,就是利用了协程池。来看下大佬的设计思路。

1、按需增长goroutine数量,有一个最大值,同时监听channel,Server会把accept到的connection放入到channel中,这样监听的goroutine就能处理消费。

2、本地维护了一个待使用的channel列表,当本地channel列表拿不到ch,会在sync.pool中取。

3、如果workersCount没达到上限,则从生成一个workerFunc监听workerChan。

4、对于待使用的channel列表,会定期清理掉超过最大空闲时间的workerChan。

看下具体实现


// workerPool通过一组工作池服务传入的连接
// 按照FILO(先进后出)的顺序,即最近停止的工作人员将为下一个工作传入的连接。
//
// 这种方案能够保持cpu的缓存保持高效(理论上)
type workerPool struct {
 // 这个函数用于server的连接
 // It must leave c unclosed.
 WorkerFunc ServeHandler
 // 最大的Workers数量
 MaxWorkersCount int
 LogAllErrors bool
 MaxIdleWorkerDuration time.Duration
 Logger Logger
 lock         sync.Mutex
 // 当前worker的数量
 workersCount int
 // worker停止的标识
 mustStop     bool
 // 等待使用的workerChan
 // 可能会被清理
 ready []*workerChan
 // 用来标识start和stop
 stopCh chan struct{}
 // workerChan的缓存池,通过sync.Pool实现
 workerChanPool sync.Pool
 connState func(net.Conn, ConnState)
}
// workerChan的结构
type workerChan struct {
 lastUseTime time.Time
 ch          chan net.Conn
}

Start


func (wp *workerPool) Start() {
 // 判断是否已经Start过了
 if wp.stopCh != nil {
  panic("BUG: workerPool already started")
 }
 // stopCh塞入值
 wp.stopCh = make(chan struct{})
 stopCh := wp.stopCh
 wp.workerChanPool.New = func() interface{} {
  // 如果单核cpu则让workerChan阻塞
  // 否则,使用非阻塞,workerChan的长度为1
  return &workerChan{
   ch: make(chan net.Conn, workerChanCap),
  }
 }
 go func() {
  var scratch []*workerChan
  for {
   wp.clean(&scratch)
   select {
   // 接收到退出信号,退出
   case <-stopCh:
    return
   default:
    time.Sleep(wp.getMaxIdleWorkerDuration())
   }
  }
 }()
}
// 如果单核cpu则让workerChan阻塞
// 否则,使用非阻塞,workerChan的长度为1
var workerChanCap = func() int {
 // 如果GOMAXPROCS=1,workerChan的长度为0,变成一个阻塞的channel
 if runtime.GOMAXPROCS(0) == 1 {
  return 0
 }
 // 如果GOMAXPROCS>1则使用非阻塞的workerChan
 return 1
}()

梳理下流程:

1、首先判断下stopCh是否为nil,不为nil表示已经started了;

2、初始化wp.stopCh = make(chan struct{}),stopCh是一个标识,用了struct{}不用bool,因为空结构体变量的内存占用大小为0,而bool类型内存占用大小为1,这样可以更加最大化利用我们服务器的内存空间;

3、设置workerChanPool的New函数,然后可以在Get不到东西时,自动创建一个;如果单核cpu则让workerChan阻塞,否则,使用非阻塞,workerChan的长度设置为1;

4、启动一个goroutine,处理clean操作,在接收到退出信号,退出。

Stop


func (wp *workerPool) Stop() {
 // 同start,stop也只能触发一次
 if wp.stopCh == nil {
  panic("BUG: workerPool wasn't started")
 }
 // 关闭stopCh
 close(wp.stopCh)
 // 将stopCh置为nil
 wp.stopCh = nil
 // 停止所有的等待获取连接的workers
 // 正在运行的workers,不需要等待他们退出,他们会在完成connection或mustStop被设置成true退出
 wp.lock.Lock()
 ready := wp.ready
 // 循环将ready的workerChan置为nil
 for i := range ready {
  ready[i].ch <- nil
  ready[i] = nil
 }
 wp.ready = ready[:0]
 // 设置mustStop为true
 wp.mustStop = true
 wp.lock.Unlock()
}

梳理下流程:

1、判断stop只能被关闭一次;

2、关闭stopCh,设置stopCh为nil;

3、停止所有的等待获取连接的workers,正在运行的workers,不需要等待他们退出,他们会在完成connection或mustStop被设置成true退出。

clean


func (wp *workerPool) clean(scratch *[]*workerChan) {
 maxIdleWorkerDuration := wp.getMaxIdleWorkerDuration()
 // 清理掉最近最少使用的workers如果他们过了maxIdleWorkerDuration时间没有提供服务
 criticalTime := time.Now().Add(-maxIdleWorkerDuration)
 wp.lock.Lock()
 ready := wp.ready
 n := len(ready)
 // 使用二分搜索算法找出最近可以被清除的worker
 // 最后使用的workerChan 一定是放回队列尾部的。
 l, r, mid := 0, n-1, 0
 for l <= r {
  mid = (l + r) / 2
  if criticalTime.After(wp.ready[mid].lastUseTime) {
   l = mid + 1
  } else {
   r = mid - 1
  }
 }
 i := r
 if i == -1 {
  wp.lock.Unlock()
  return
 }
 // 将ready中i之前的的全部清除
 *scratch = append((*scratch)[:0], ready[:i+1]...)
 m := copy(ready, ready[i+1:])
 for i = m; i < n; i++ {
  ready[i] = nil
 }
 wp.ready = ready[:m]
 wp.lock.Unlock()
 // 通知淘汰的workers停止
 // 此通知必须位于wp.lock之外,因为ch.ch
 // 如果有很多workers,可能会阻塞并且可能会花费大量时间
 // 位于非本地CPU上。
 tmp := *scratch
 for i := range tmp {
  tmp[i].ch <- nil
  tmp[i] = nil
 }
}

主要是清理掉最近最少使用的workers如果他们过了maxIdleWorkerDuration时间没有提供服务

getCh

获取一个workerChan


func (wp *workerPool) getCh() *workerChan {
 var ch *workerChan
 createWorker := false
 wp.lock.Lock()
 ready := wp.ready
 n := len(ready) - 1
 // 如果ready为空
 if n < 0 {
  if wp.workersCount < wp.MaxWorkersCount {
   createWorker = true
   wp.workersCount++
  }
 } else {
  // 不为空从ready中取一个
  ch = ready[n]
  ready[n] = nil
  wp.ready = ready[:n]
 }
 wp.lock.Unlock()
 // 如果没拿到ch
 if ch == nil {
  if !createWorker {
   return nil
  }
  // 从缓存中获取一个ch
  vch := wp.workerChanPool.Get()
  ch = vch.(*workerChan)
  go func() {
   // 具体的执行函数
   wp.workerFunc(ch)
   // 再放入到pool中
   wp.workerChanPool.Put(vch)
  }()
 }
 return ch
}

梳理下流程:

1、获取一个可执行的workerChan,如果ready中为空,并且workersCount没有达到最大值,增加workersCount数量,并且设置当前操作createWorker = true;

2、ready中不为空,直接在ready获取一个;

3、如果没有获取到则在sync.pool中获取一个,之后再放回到pool中;

4、拿到了就启动一个workerFunc监听workerChan,处理具体的业务逻辑。

workerFunc


func (wp *workerPool) workerFunc(ch *workerChan) {
 var c net.Conn
 var err error
 // 监听workerChan
 for c = range ch.ch {
  if c == nil {
   break
  }
  // 具体的业务逻辑
  ...
  c = nil
  // 释放workerChan
  // 在mustStop的时候将会跳出循环
  if !wp.release(ch) {
   break
  }
 }
 wp.lock.Lock()
 wp.workersCount--
 wp.lock.Unlock()
}
// 把Conn放入到channel中
func (wp *workerPool) Serve(c net.Conn) bool {
 ch := wp.getCh()
 if ch == nil {
  return false
 }
 ch.ch <- c
 return true
}
func (wp *workerPool) release(ch *workerChan) bool {
 // 修改 ch.lastUseTime
 ch.lastUseTime = time.Now()
 wp.lock.Lock()
 // 如果需要停止,直接返回
 if wp.mustStop {
  wp.lock.Unlock()
  return false
 }
 // 将ch放到ready中
 wp.ready = append(wp.ready, ch)
 wp.lock.Unlock()
 return true
}

梳理下流程:

1、workerFunc会监听workerChan,并且在使用完workerChan归还到ready中;

2、Serve会把connection放入到workerChan中,这样workerFunc就能通过workerChan拿到需要处理的连接请求;

3、当workerFunc拿到的workerChan为nil或wp.mustStop被设为了true,就跳出for循环。

panjf2000/ants

先看下示例

示例一


package main
import (
 "fmt"
 "sync"
 "sync/atomic"
 "time"
 "github.com/panjf2000/ants"
)
func demoFunc() {
 time.Sleep(10 * time.Millisecond)
 fmt.Println("Hello World!")
}
func main() {
 defer ants.Release()
 runTimes := 1000
 var wg sync.WaitGroup
 syncCalculateSum := func() {
  demoFunc()
  wg.Done()
 }
 for i := 0; i < runTimes; i++ {
  wg.Add(1)
  _ = ants.Submit(syncCalculateSum)
 }
 wg.Wait()
 fmt.Printf("running goroutines: %d\n", ants.Running())
 fmt.Printf("finish all tasks.\n")
}

示例二


package main
import (
 "fmt"
 "sync"
 "sync/atomic"
 "time"
 "github.com/panjf2000/ants"
)
var sum int32
func myFunc(i interface{}) {
 n := i.(int32)
 atomic.AddInt32(&sum, n)
 fmt.Printf("run with %d\n", n)
}
func main() {
 var wg sync.WaitGroup
 runTimes := 1000
 // Use the pool with a method,
 // set 10 to the capacity of goroutine pool and 1 second for expired duration.
 p, _ := ants.NewPoolWithFunc(10, func(i interface{}) {
  myFunc(i)
  wg.Done()
 })
 defer p.Release()
 // Submit tasks one by one.
 for i := 0; i < runTimes; i++ {
  wg.Add(1)
  _ = p.Invoke(int32(i))
 }
 wg.Wait()
 fmt.Printf("running goroutines: %d\n", p.Running())
 fmt.Printf("finish all tasks, result is %d\n", sum)
 if sum != 499500 {
  panic("the final result is wrong!!!")
 }
}

设计思路

整体的设计思路

梳理下思路:

1、先初始化缓存池的大小,然后处理任务事件的时候,一个task分配一个goWorker;

2、在拿goWorker的过程中会存在下面集中情况;

本地的缓存中有空闲的goWorker,直接取出;

本地缓存没有就去sync.Pool,拿一个goWorker;

3、如果缓存池满了,非阻塞模式直接返回nil,阻塞模式就循环去拿直到成功拿出一个;

4、同时也会定期清理掉过期的goWorker,通过sync.Cond唤醒其的阻塞等待;

5、对于使用完成的goWorker在使用完成之后重新归还到pool。

具体的设计细节可参考,作者的文章Goroutine 并发调度模型深度解析之手撸一个高性能 goroutine 池

go-playground/pool

go-playground/pool会在一开始就启动

先放几个使用的demo

Per Unit Work


package main
import (
 "fmt"
 "time"
 "gopkg.in/go-playground/pool.v3"
)
func main() {
 p := pool.NewLimited(10)
 defer p.Close()
 user := p.Queue(getUser(13))
 other := p.Queue(getOtherInfo(13))
 user.Wait()
 if err := user.Error(); err != nil {
  // handle error
 }
 // do stuff with user
 username := user.Value().(string)
 fmt.Println(username)
 other.Wait()
 if err := other.Error(); err != nil {
  // handle error
 }
 // do stuff with other
 otherInfo := other.Value().(string)
 fmt.Println(otherInfo)
}
func getUser(id int) pool.WorkFunc {
 return func(wu pool.WorkUnit) (interface{}, error) {
  // simulate waiting for something, like TCP connection to be established
  // or connection from pool grabbed
  time.Sleep(time.Second * 1)
  if wu.IsCancelled() {
   // return values not used
   return nil, nil
  }
  // ready for processing...
  return "Joeybloggs", nil
 }
}
func getOtherInfo(id int) pool.WorkFunc {
 return func(wu pool.WorkUnit) (interface{}, error) {
  // simulate waiting for something, like TCP connection to be established
  // or connection from pool grabbed
  time.Sleep(time.Second * 1)
  if wu.IsCancelled() {
   // return values not used
   return nil, nil
  }
  // ready for processing...
  return "Other Info", nil
 }
}

Batch Work


package main
import (
 "fmt"
 "time"
 "gopkg.in/go-playground/pool.v3"
)
func main() {
 p := pool.NewLimited(10)
 defer p.Close()
 batch := p.Batch()
 // for max speed Queue in another goroutine
 // but it is not required, just can't start reading results
 // until all items are Queued.
 go func() {
  for i := 0; i < 10; i++ {
   batch.Queue(sendEmail("email content"))
  }
  // DO NOT FORGET THIS OR GOROUTINES WILL DEADLOCK
  // if calling Cancel() it calles QueueComplete() internally
  batch.QueueComplete()
 }()
 for email := range batch.Results() {
  if err := email.Error(); err != nil {
   // handle error
   // maybe call batch.Cancel()
  }
  // use return value
  fmt.Println(email.Value().(bool))
 }
}
func sendEmail(email string) pool.WorkFunc {
 return func(wu pool.WorkUnit) (interface{}, error) {
  // simulate waiting for something, like TCP connection to be established
  // or connection from pool grabbed
  time.Sleep(time.Second * 1)
  if wu.IsCancelled() {
   // return values not used
   return nil, nil
  }
  // ready for processing...
  return true, nil // everything ok, send nil, error if not
 }
}

来看下实现

workUnit

workUnit作为channel信息进行传递,用来给work传递当前需要执行的任务信息。


// WorkUnit contains a single uint of works values
type WorkUnit interface {
 // 阻塞直到当前任务被完成或被取消
 Wait()
 // 执行函数返回的结果
 Value() interface{}
 // Error returns the Work Unit's error
 Error() error
 // 取消当前的可执行任务
 Cancel()
 // 判断当前的可执行单元是否被取消了
 IsCancelled() bool
}
var _ WorkUnit = new(workUnit)
// workUnit contains a single unit of works values
type workUnit struct {
 // 任务执行的结果
 value      interface{}
 // 错误信息
 err        error
 // 通知任务完成
 done       chan struct{}
 // 需要执行的任务函数
 fn         WorkFunc
 // 任务是会否被取消
 cancelled  atomic.Value
 // 是否正在取消任务
 cancelling atomic.Value
 // 任务是否正在执行
 writing    atomic.Value
}

limitedPool


var _ Pool = new(limitedPool)
// limitedPool contains all information for a limited pool instance.
type limitedPool struct {
 // 并发量
 workers uint
 // work的channel
 work    chan *workUnit
 // 通知结束的channel
 cancel  chan struct{}
 // 是否关闭的标识
 closed  bool
 // 读写锁
 m       sync.RWMutex
}
// 初始化一个pool
func NewLimited(workers uint) Pool {
 if workers == 0 {
  panic("invalid workers '0'")
 }
 // 初始化pool的work数量
 p := &limitedPool{
  workers: workers,
 }
 // 初始化pool的操作
 p.initialize()
 return p
}
func (p *limitedPool) initialize() {
 // channel的长度为work数量的两倍
 p.work = make(chan *workUnit, p.workers*2)
 p.cancel = make(chan struct{})
 p.closed = false
 // fire up workers here
 for i := 0; i < int(p.workers); i++ {
  p.newWorker(p.work, p.cancel)
 }
}
// 将工作传递并取消频道到newWorker()以避免任何潜在的竞争状况
// 在p.work读写之间
func (p *limitedPool) newWorker(work chan *workUnit, cancel chan struct{}) {
 go func(p *limitedPool) {
  var wu *workUnit
  defer func(p *limitedPool) {
   // 捕获异常,结束掉异常的工作单元,并将其再次作为新的任务启动
   if err := recover(); err != nil {
    trace := make([]byte, 1<<16)
    n := runtime.Stack(trace, true)
    s := fmt.Sprintf(errRecovery, err, string(trace[:int(math.Min(float64(n), float64(7000)))]))
    iwu := wu
    iwu.err = &ErrRecovery{s: s}
    close(iwu.done)
    // 重新启动
    p.newWorker(p.work, p.cancel)
   }
  }(p)
  var value interface{}
  var err error
  // 监听channel,读取内容
  for {
   select {
   // channel中取出数据
   case wu = <-work:
    // 防止channel 被关闭后读取到零值
    if wu == nil {
     continue
    }
    // 单个和批量的cancellation这个都支持
    if wu.cancelled.Load() == nil {
     // 执行我们的业务函数
     value, err = wu.fn(wu)
     wu.writing.Store(struct{}{})
     // 如果WorkFunc取消了此工作单元,则需要再次检查
     // 防止产生竞争条件
     if wu.cancelled.Load() == nil && wu.cancelling.Load() == nil {
      wu.value, wu.err = value, err
      // 执行完成,关闭当前channel
      close(wu.done)
     }
    }
    // 如果取消了,就退出
   case <-cancel:
    return
   }
  }
 }(p)
}
// 放置一个执行的task到channel,并返回channel
func (p *limitedPool) Queue(fn WorkFunc) WorkUnit {
 // 初始化一个workUnit类型的channel
 w := &workUnit{
  done: make(chan struct{}),
  // 具体的执行函数
  fn:   fn,
 }
 go func() {
  p.m.RLock()
  // 如果pool关闭的时候通知channel关闭
  if p.closed {
   w.err = &ErrPoolClosed{s: errClosed}
   if w.cancelled.Load() == nil {
    close(w.done)
   }
   p.m.RUnlock()
   return
  }
  // 将channel传递给pool的work
  p.work <- w
  p.m.RUnlock()
 }()
 return w
}

梳理下流程:

1、首先初始化pool的大小;

2、然后根据pool的大小启动对应数量的worker,阻塞等待channel被塞入可执行函数;

3、然后可执行函数会被放入workUnit,然后通过channel传递给阻塞的worker。

同样这里也提供了批量执行的方法

batch


// batch contains all information for a batch run of WorkUnits
type batch struct {
 pool    Pool
 m       sync.Mutex
 // WorkUnit的切片
 units   []WorkUnit
 // 结果集,执行完后的workUnit会更新其value,error,可以从结果集channel中读取
 results chan WorkUnit
 // 通知batch是否完成
 done    chan struct{}
 closed  bool
 wg      *sync.WaitGroup
}
// 初始化Batch
func newBatch(p Pool) Batch {
 return &batch{
  pool:    p,
  units:   make([]WorkUnit, 0, 4),
  results: make(chan WorkUnit),
  done:    make(chan struct{}),
  wg:      new(sync.WaitGroup),
 }
}
// 将WorkFunc放入到WorkUnit中并保留取消和输出结果的参考。
func (b *batch) Queue(fn WorkFunc) {
 b.m.Lock()
 if b.closed {
  b.m.Unlock()
  return
 }
 // 返回一个WorkUnit
 wu := b.pool.Queue(fn)
 // 放到WorkUnit的切片中
 b.units = append(b.units, wu)
 // 通过waitgroup进行goroutine的执行控制
 b.wg.Add(1)
 b.m.Unlock()
 // 执行任务
 go func(b *batch, wu WorkUnit) {
  wu.Wait()
  // 将执行的结果写入到results中
  b.results <- wu
  b.wg.Done()
 }(b, wu)
}
// QueueComplete让批处理知道不再有排队的工作单元
// 以便在所有工作完成后可以关闭结果渠道。
// 警告:如果未调用此函数,则结果通道将永远不会耗尽,
// 但会永远阻止以获取更多结果。
func (b *batch) QueueComplete() {
 b.m.Lock()
 b.closed = true
 close(b.done)
 b.m.Unlock()
}
// 取消批次的任务
func (b *batch) Cancel() {
 b.QueueComplete()
 b.m.Lock()
 // 一个个取消units,倒叙的取消
 for i := len(b.units) - 1; i >= 0; i-- {
  b.units[i].Cancel()
 }
 b.m.Unlock()
}
// 输出执行完成的结果集
func (b *batch) Results() <-chan WorkUnit {
 // 启动一个协程监听完成的通知
 // waitgroup阻塞直到所有的worker都完成退出
 // 最后关闭channel
 go func(b *batch) {
  <-b.done
  b.m.Lock()
  // 阻塞直到上面waitgroup中的goroutine一个个执行完成退出
  b.wg.Wait()
  b.m.Unlock()
  // 关闭channel
  close(b.results)
 }(b)
 return b.results
}

梳理下流程:

1、首先初始化Batch的大小;

2、然后Queue将一个个WorkFunc放入到WorkUnit中,执行,并将结果写入到results中,全部执行完成,调用QueueComplete,发送执行完成的通知;

3、Results会打印出所有的结果集,同时监听所有的worker执行完成,关闭channel,退出。

总结

控制goroutine数量一般使用两种方式:

简单的场景使用sync+channel就可以了;

复杂的场景可以使用goroutine pool

参考
【Golang 开发需要协程池吗?】https://www.zhihu.com/question/302981392
【来,控制一下 Goroutine 的并发数量】https://segmentfault.com/a/1190000017956396
【golang协程池设计】https://segmentfault.com/a/1190000018193161
【fasthttp中的协程池实现】https://segmentfault.com/a/1190000009133154
【panjf2000/ants】https://github.com/panjf2000/ants
【golang协程池设计】https://segmentfault.com/a/1190000018193161

到此这篇关于go中控制goroutine数量的方法的文章就介绍到这了,更多相关go控制goroutine数量内容请搜索编程网以前的文章或继续浏览下面的相关文章希望大家以后多多支持编程网!


免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

go中控制goroutine数量的方法

下载Word文档到电脑,方便收藏和打印~

下载Word文档

猜你喜欢

go中控制goroutine数量的方法

前言goroutine被无限制的大量创建,造成的后果就不啰嗦了,主要讨论几种如何控制goroutine的方法 控制goroutine的数量通过channel+syncvar (// channel长度poolCount = 5//
2022-06-07

golang控制并发数量的方法是什么

在golang中,可以使用goroutine和channel来控制并发数量。以下是一些常用的方法:使用goroutine和WaitGroup:可以使用sync包中的WaitGroup来实现控制并发数量。创建一个WaitGroup对象,然后在
2023-10-21

Golang函数库的测试和质量控制方法

在 golang 中确保代码质量的工具包括:单元测试(testing 包):测试单个函数或方法。基准测试(testing 包):测量函数性能。集成测试(testmain 函数):测试多个组件交互。代码覆盖率(cover 包):度量测试覆盖代
Golang函数库的测试和质量控制方法
2024-04-21

Windows Server AD 访问数量控制配置方法

1.在“开始”——>“运行”—&mdasjsh;>输入“ ntdsutil”——>回车; 2.输入:&ldq
2023-06-02

MySQL与PHP的数据控制方法

本篇内容介绍了“MySQL与PHP的数据控制方法”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!数据控制语言数据控制语言 (Data Cont
2023-06-29

dedecms内容页分页及分页显示数量控制的方法

本文实例讲述了dedecms内容页分页及分页显示数量控制的方法。分享给大家供大家参考。Ecuao具体实现方法如下: {dede:pagebreak/}这个标签,毫无疑问这是个文章内容分页的标签,但是有一个缺点,就是不管分多少页都分页都显示出
2022-06-12

JavaScript中实现并发控制的方法

这篇文章将为大家详细讲解有关JavaScript中实现并发控制的方法,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。一、并发控制简介在日常开发过程中,你可能会遇到并发控制的场景,比如控制请求并发数。那么在
2023-06-15

golang控制并发数的方法是什么

在Golang中,可以使用goroutine和channel来控制并发数。以下是几种常见的方法:通过控制goroutine的数量:可以使用sync.WaitGroup来等待一组goroutine的完成。在每个goroutine启动之前,可以
2023-10-27

Java高并发下的流量控制方法是什么

今天小编给大家分享一下Java高并发下的流量控制方法是什么的相关知识点,内容详细,逻辑清晰,相信大部分人都还太了解这方面的知识,所以分享这篇文章给大家参考一下,希望大家阅读完这篇文章后有所收获,下面我们一起来了解一下吧。这个时候如果不做任何
2023-06-16

JavaScript中的程序控制流和函数方法是什么

本篇内容主要讲解“JavaScript中的程序控制流和函数方法是什么”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“JavaScript中的程序控制流和函数方法是什么”吧!程序控制流程序的运行可以
2023-07-04

阿里云轻量型服务器控制台的使用方法

阿里云轻量型服务器控制台是一种用于管理和配置阿里云轻量型服务器的工具。本文将详细介绍如何使用阿里云轻量型服务器控制台来管理您的服务器,包括创建、启动、停止和重启服务器等操作。正文:1.创建服务器在阿里云轻量型服务器控制台中,您可以轻松创建新的服务器实例。首先,登录阿里云轻量型服务器控制台,然后点击“创建实例”按钮
阿里云轻量型服务器控制台的使用方法
2024-01-18

使用Win8中自带的语音控制的方法

设置Windows语音识别  首先我们需要找到Windows 8中的“Windows语音识别”,你可以选择通过搜索,也可以在“所有应用”的“Windows轻松使用”中找
2022-06-04

js控制台输出数组的方法是什么

在 JavaScript 中,可以使用 `console.log()` 方法来在控制台输出数组。例如:```javascriptlet arr = [1, 2, 3, 4, 5];console.log(arr);```输出结果:```[1
2023-08-08

编程热搜

  • Python 学习之路 - Python
    一、安装Python34Windows在Python官网(https://www.python.org/downloads/)下载安装包并安装。Python的默认安装路径是:C:\Python34配置环境变量:【右键计算机】--》【属性】-
    Python 学习之路 - Python
  • chatgpt的中文全称是什么
    chatgpt的中文全称是生成型预训练变换模型。ChatGPT是什么ChatGPT是美国人工智能研究实验室OpenAI开发的一种全新聊天机器人模型,它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,并协助人类完成一系列
    chatgpt的中文全称是什么
  • C/C++中extern函数使用详解
  • C/C++可变参数的使用
    可变参数的使用方法远远不止以下几种,不过在C,C++中使用可变参数时要小心,在使用printf()等函数时传入的参数个数一定不能比前面的格式化字符串中的’%’符号个数少,否则会产生访问越界,运气不好的话还会导致程序崩溃
    C/C++可变参数的使用
  • css样式文件该放在哪里
  • php中数组下标必须是连续的吗
  • Python 3 教程
    Python 3 教程 Python 的 3.0 版本,常被称为 Python 3000,或简称 Py3k。相对于 Python 的早期版本,这是一个较大的升级。为了不带入过多的累赘,Python 3.0 在设计的时候没有考虑向下兼容。 Python
    Python 3 教程
  • Python pip包管理
    一、前言    在Python中, 安装第三方模块是通过 setuptools 这个工具完成的。 Python有两个封装了 setuptools的包管理工具: easy_install  和  pip , 目前官方推荐使用 pip。    
    Python pip包管理
  • ubuntu如何重新编译内核
  • 改善Java代码之慎用java动态编译

目录