色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
电子发烧友
开通电子发烧友VIP会员 尊享10大特权
海量资料免费下载
精品直播免费看
优质内容免费畅学
课程9折专享价
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

README不同庫的分布式訓練方式

深度學習自然語言處理 ? 來源:深度學習自然語言處理 ? 作者:深度學習自然語言 ? 2022-08-22 10:54 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

1. Take-Away

筆者使用 PyTorch 編寫了不同加速庫在 ImageNet 上的使用示例(單機多卡)。需要的同學可以當作 quickstart 將所需要的部分 copy 到自己的項目中(Github 請點擊下面鏈接):

nn.DataParallel[1] 簡單方便的 nn.DataParallel

torch.distributed[2] 使用 torch.distributed 加速并行訓練

torch.multiprocessing[3] 使用 torch.multiprocessing 取代啟動器

apex[4] 使用 apex 再加速

horovod[5] horovod 的優雅實現

注:分布式 evaluation[6]

這里,筆者記錄了使用 4 塊 Tesla V100-PICE 在 ImageNet 進行了運行時間的測試。

測試結果發現 Apex 的加速效果最好,但與 Horovod/Distributed 差別不大,平時可以直接使用內置的 Distributed。Dataparallel 較慢,不推薦使用。

(后續會補上 V100/K80 上的測試結果,穿插了一些試驗所以中斷了。)

fc715016-205d-11ed-ba43-dac502259ad0.png

簡要記錄一下不同庫的分布式訓練方式,當作代碼的 README(我真是個小機靈鬼)~

2. 簡單方便的 nn.DataParallel

DataParallel 可以幫助我們(使用單進程控)將模型和數據加載到多個 GPU 中,控制數據在 GPU 之間的流動,協同不同 GPU 上的模型進行并行訓練(細粒度的方法有 scatter,gather 等等)。

DataParallel 使用起來非常方便,我們只需要用 DataParallel 包裝模型,再設置一些參數即可。

需要定義的參數包括:

參與訓練的 GPU 有哪些,device_ids=gpus;

用于匯總梯度的 GPU 是哪個,output_device=gpus[0] 。

DataParallel 會自動幫我們將數據切分 load 到相應 GPU,將模型復制到相應 GPU,進行正向傳播計算梯度并匯總:

model = nn.DataParallel(model.cuda(), device_ids=gpus, output_device=gpus[0])

值得注意的是,模型和數據都需要先 load 進 GPU 中,DataParallel 的 module 才能對其進行處理,否則會報錯:

# 這里要 model.cuda()
model = nn.DataParallel(model.cuda(), device_ids=gpus, output_device=gpus[0])

for epoch in range(100):
   for batch_idx, (data, target) in enumerate(train_loader):
      # 這里要 images/target.cuda()
      images = images.cuda(non_blocking=True)
      target = target.cuda(non_blocking=True)
      ...
      output = model(images)
      loss = criterion(output, target)
      ...
      optimizer.zero_grad()
      loss.backward()
      optimizer.step()

匯總一下,DataParallel 并行訓練部分主要與如下代碼段有關:

# main.py
import torch
import torch.distributed as dist

gpus = [0, 1, 2, 3]
torch.cuda.set_device('cuda:{}'.format(gpus[0]))

train_dataset = ...

train_loader = torch.utils.data.DataLoader(train_dataset, batch_size=...)

model = ...
model = nn.DataParallel(model.to(device), device_ids=gpus, output_device=gpus[0])

optimizer = optim.SGD(model.parameters())

for epoch in range(100):
   for batch_idx, (data, target) in enumerate(train_loader):
      images = images.cuda(non_blocking=True)
      target = target.cuda(non_blocking=True)
      ...
      output = model(images)
      loss = criterion(output, target)
      ...
      optimizer.zero_grad()
      loss.backward()
      optimizer.step()

在使用時,使用 python 執行即可:

python main.py

在 ImageNet 上的完整訓練代碼,請點擊Github[7]。

3. 使用 torch.distributed 加速并行訓練

在 pytorch 1.0 之后,官方終于對分布式的常用方法進行了封裝,支持 all-reduce,broadcast,send 和 receive 等等。通過 MPI 實現 CPU 通信,通過 NCCL 實現 GPU 通信。官方也曾經提到用 DistributedDataParallel 解決 DataParallel 速度慢,GPU 負載不均衡的問題,目前已經很成熟了~

與 DataParallel 的單進程控制多 GPU 不同,在 distributed 的幫助下,我們只需要編寫一份代碼,torch 就會自動將其分配給 n 個進程,分別在 n 個 GPU 上運行。

在 API 層面,pytorch 為我們提供了 torch.distributed.launch 啟動器,用于在命令行分布式地執行 python 文件。在執行過程中,啟動器會將當前進程的(其實就是 GPU的)index 通過參數傳遞給 python,我們可以這樣獲得當前進程的 index:

parser = argparse.ArgumentParser()
parser.add_argument('--local_rank', default=-1, type=int, help='node rank for distributed training')
args = parser.parse_args()
print(args.local_rank)

接著,使用 init_process_group 設置GPU 之間通信使用的后端和端口

dist.init_process_group(backend='nccl')

之后,使用 DistributedSampler 對數據集進行劃分。如此前我們介紹的那樣,它能幫助我們將每個 batch 劃分成幾個 partition,在當前進程中只需要獲取和 rank 對應的那個 partition 進行訓練:

train_sampler = torch.utils.data.distributed.DistributedSampler(train_dataset)

train_loader = torch.utils.data.DataLoader(train_dataset, batch_size=..., sampler=train_sampler)

然后,使用 DistributedDataParallel 包裝模型,它能幫助我們為不同 GPU 上求得的梯度進行 all reduce(即匯總不同 GPU 計算所得的梯度,并同步計算結果)。all reduce 后不同 GPU 中模型的梯度均為 all reduce 之前各 GPU 梯度的均值:

model = torch.nn.parallel.DistributedDataParallel(model, device_ids=[args.local_rank])

最后,把數據和模型加載到當前進程使用的 GPU 中,正常進行正反向傳播:

torch.cuda.set_device(args.local_rank)

model.cuda()

for epoch in range(100):
   for batch_idx, (data, target) in enumerate(train_loader):
      images = images.cuda(non_blocking=True)
      target = target.cuda(non_blocking=True)
      ...
      output = model(images)
      loss = criterion(output, target)
      ...
      optimizer.zero_grad()
      loss.backward()
      optimizer.step()

匯總一下,torch.distributed 并行訓練部分主要與如下代碼段有關:

# main.py
import torch
import argparse
import torch.distributed as dist

parser = argparse.ArgumentParser()
parser.add_argument('--local_rank', default=-1, type=int,
                    help='node rank for distributed training')
args = parser.parse_args()

dist.init_process_group(backend='nccl')
torch.cuda.set_device(args.local_rank)

train_dataset = ...
train_sampler = torch.utils.data.distributed.DistributedSampler(train_dataset)

train_loader = torch.utils.data.DataLoader(train_dataset, batch_size=..., sampler=train_sampler)

model = ...
model = torch.nn.parallel.DistributedDataParallel(model, device_ids=[args.local_rank])

optimizer = optim.SGD(model.parameters())

for epoch in range(100):
   for batch_idx, (data, target) in enumerate(train_loader):
      images = images.cuda(non_blocking=True)
      target = target.cuda(non_blocking=True)
      ...
      output = model(images)
      loss = criterion(output, target)
      ...
      optimizer.zero_grad()
      loss.backward()
      optimizer.step()

在使用時,調用 torch.distributed.launch 啟動器啟動:

CUDA_VISIBLE_DEVICES=0,1,2,3 python -m torch.distributed.launch --nproc_per_node=4 main.py

在 ImageNet 上的完整訓練代碼,請點擊Github[8]。

4. 使用 torch.multiprocessing 取代啟動器

有的同學可能比較熟悉 torch.multiprocessing,也可以手動使用 torch.multiprocessing 進行多進程控制。繞開 torch.distributed.launch 自動控制開啟和退出進程的一些小毛病~

使用時,只需要調用 torch.multiprocessing.spawn,torch.multiprocessing 就會幫助我們自動創建進程。

如下面的代碼所示,spawn 開啟了 nprocs=4 個進程,每個進程執行 main_worker 并向其中傳入 local_rank(當前進程 index)和 args(即 4 和 myargs)作為參數:

import torch.multiprocessing as mp

mp.spawn(main_worker, nprocs=4, args=(4, myargs))

這里,我們直接將原本需要 torch.distributed.launch 管理的執行內容,封裝進 main_worker 函數中,其中 proc 對應 local_rank(當前進程 index),進程數 nprocs 對應 4, args 對應 myargs:

def main_worker(proc, nprocs, args):

   dist.init_process_group(backend='nccl', init_method='tcp://127.0.0.1:23456', world_size=4, rank=gpu)
   torch.cuda.set_device(args.local_rank)

   train_dataset = ...
   train_sampler = torch.utils.data.distributed.DistributedSampler(train_dataset)

   train_loader = torch.utils.data.DataLoader(train_dataset, batch_size=..., sampler=train_sampler)

   model = ...
   model = torch.nn.parallel.DistributedDataParallel(model, device_ids=[args.local_rank])

   optimizer = optim.SGD(model.parameters())

   for epoch in range(100):
      for batch_idx, (data, target) in enumerate(train_loader):
          images = images.cuda(non_blocking=True)
          target = target.cuda(non_blocking=True)
          ...
          output = model(images)
          loss = criterion(output, target)
          ...
          optimizer.zero_grad()
          loss.backward()
          optimizer.step()

在上面的代碼中值得注意的是,由于沒有 torch.distributed.launch 讀取的默認環境變量作為配置,我們需要手動為 init_process_group 指定參數:

dist.init_process_group(backend='nccl', init_method='tcp://127.0.0.1:23456', world_size=4, rank=gpu)

匯總一下,添加 multiprocessing 后并行訓練部分主要與如下代碼段有關:

# main.py
import torch
import torch.distributed as dist
import torch.multiprocessing as mp

mp.spawn(main_worker, nprocs=4, args=(4, myargs))

def main_worker(proc, nprocs, args):

   dist.init_process_group(backend='nccl', init_method='tcp://127.0.0.1:23456', world_size=4, rank=gpu)
   torch.cuda.set_device(args.local_rank)

   train_dataset = ...
   train_sampler = torch.utils.data.distributed.DistributedSampler(train_dataset)

   train_loader = torch.utils.data.DataLoader(train_dataset, batch_size=..., sampler=train_sampler)

   model = ...
   model = torch.nn.parallel.DistributedDataParallel(model, device_ids=[args.local_rank])

   optimizer = optim.SGD(model.parameters())

   for epoch in range(100):
      for batch_idx, (data, target) in enumerate(train_loader):
          images = images.cuda(non_blocking=True)
          target = target.cuda(non_blocking=True)
          ...
          output = model(images)
          loss = criterion(output, target)
          ...
          optimizer.zero_grad()
          loss.backward()
          optimizer.step()

在使用時,直接使用 python 運行就可以了:

python main.py

在 ImageNet 上的完整訓練代碼,請點擊Github[9]。

5.使用 Apex 再加速

Apex 是 NVIDIA 開源的用于混合精度訓練和分布式訓練庫。Apex 對混合精度訓練的過程進行了封裝,改兩三行配置就可以進行混合精度的訓練,從而大幅度降低顯存占用,節約運算時間。此外,Apex 也提供了對分布式訓練的封裝,針對 NVIDIA 的 NCCL 通信庫進行了優化。

在混合精度訓練上,Apex 的封裝十分優雅。直接使用 amp.initialize 包裝模型和優化器,apex 就會自動幫助我們管理模型參數和優化器的精度了,根據精度需求不同可以傳入其他配置參數。

from apex import amp

model, optimizer = amp.initialize(model, optimizer)

在分布式訓練的封裝上,Apex 在膠水層的改動并不大,主要是優化了 NCCL 的通信。因此,大部分代碼仍與 torch.distributed 保持一致。使用的時候只需要將 torch.nn.parallel.DistributedDataParallel 替換為 apex.parallel.DistributedDataParallel 用于包裝模型。在 API 層面,相對于 torch.distributed ,它可以自動管理一些參數(可以少傳一點):

from apex.parallel import DistributedDataParallel

model = DistributedDataParallel(model)
# # torch.distributed
# model = torch.nn.parallel.DistributedDataParallel(model, device_ids=[args.local_rank])
# model = torch.nn.parallel.DistributedDataParallel(model, device_ids=[args.local_rank], output_device=args.local_rank)

在正向傳播計算 loss 時,Apex 需要使用 amp.scale_loss 包裝,用于根據 loss 值自動對精度進行縮放:

with amp.scale_loss(loss, optimizer) as scaled_loss:
   scaled_loss.backward()

匯總一下,Apex 的并行訓練部分主要與如下代碼段有關:

# main.py
import torch
import argparse
import torch.distributed as dist

from apex.parallel import DistributedDataParallel

parser = argparse.ArgumentParser()
parser.add_argument('--local_rank', default=-1, type=int,
                    help='node rank for distributed training')
args = parser.parse_args()

dist.init_process_group(backend='nccl')
torch.cuda.set_device(args.local_rank)

train_dataset = ...
train_sampler = torch.utils.data.distributed.DistributedSampler(train_dataset)

train_loader = torch.utils.data.DataLoader(train_dataset, batch_size=..., sampler=train_sampler)

model = ...
model, optimizer = amp.initialize(model, optimizer)
model = DistributedDataParallel(model, device_ids=[args.local_rank])

optimizer = optim.SGD(model.parameters())

for epoch in range(100):
   for batch_idx, (data, target) in enumerate(train_loader):
      images = images.cuda(non_blocking=True)
      target = target.cuda(non_blocking=True)
      ...
      output = model(images)
      loss = criterion(output, target)
      optimizer.zero_grad()
      with amp.scale_loss(loss, optimizer) as scaled_loss:
         scaled_loss.backward()
      optimizer.step()

在使用時,調用 torch.distributed.launch 啟動器啟動:

UDA_VISIBLE_DEVICES=0,1,2,3 python -m torch.distributed.launch --nproc_per_node=4 main.py

在 ImageNet 上的完整訓練代碼,請點擊Github[10]。

6.Horovod 的優雅實現

Horovod 是 Uber 開源的深度學習工具,它的發展吸取了 Facebook "Training ImageNet In 1 Hour" 與百度 "Ring Allreduce" 的優點,可以無痛與 PyTorch/Tensorflow 等深度學習框架結合,實現并行訓練。

在 API 層面,Horovod 和 torch.distributed 十分相似。在 mpirun 的基礎上,Horovod 提供了自己封裝的 horovodrun 作為啟動器。

與 torch.distributed.launch 相似,我們只需要編寫一份代碼,horovodrun 啟動器就會自動將其分配給 n 個進程,分別在 n 個 GPU 上運行。在執行過程中,啟動器會將當前進程的(其實就是 GPU的)index 注入 hvd,我們可以這樣獲得當前進程的 index:

import horovod.torch as hvd

hvd.local_rank()

與 init_process_group 相似,Horovod 使用 init 設置GPU 之間通信使用的后端和端口:

hvd.init()

接著,使用 DistributedSampler 對數據集進行劃分。如此前我們介紹的那樣,它能幫助我們將每個 batch 劃分成幾個 partition,在當前進程中只需要獲取和 rank 對應的那個 partition 進行訓練:

train_sampler = torch.utils.data.distributed.DistributedSampler(train_dataset)

train_loader = torch.utils.data.DataLoader(train_dataset, batch_size=..., sampler=train_sampler)

之后,使用 broadcast_parameters 包裝模型參數,將模型參數從編號為 root_rank 的 GPU 復制到所有其他 GPU 中:

hvd.broadcast_parameters(model.state_dict(), root_rank=0)

然后,使用 DistributedOptimizer 包裝優化器。它能幫助我們為不同 GPU 上求得的梯度進行 all reduce(即匯總不同 GPU 計算所得的梯度,并同步計算結果)。all reduce 后不同 GPU 中模型的梯度均為 all reduce 之前各 GPU 梯度的均值:

hvd.DistributedOptimizer(optimizer, named_parameters=model.named_parameters(), compression=hvd.Compression.fp16)

最后,把數據加載到當前 GPU 中。在編寫代碼時,我們只需要關注正常進行正向傳播和反向傳播:

torch.cuda.set_device(args.local_rank)

for epoch in range(100):
   for batch_idx, (data, target) in enumerate(train_loader):
      images = images.cuda(non_blocking=True)
      target = target.cuda(non_blocking=True)
      ...
      output = model(images)
      loss = criterion(output, target)
      ...
      optimizer.zero_grad()
      loss.backward()
      optimizer.step()

匯總一下,Horovod 的并行訓練部分主要與如下代碼段有關:

# main.py
import torch
import horovod.torch as hvd

hvd.init()
torch.cuda.set_device(hvd.local_rank())

train_dataset = ...
train_sampler = torch.utils.data.distributed.DistributedSampler(
    train_dataset, num_replicas=hvd.size(), rank=hvd.rank())

train_loader = torch.utils.data.DataLoader(train_dataset, batch_size=..., sampler=train_sampler)

model = ...
model.cuda()

optimizer = optim.SGD(model.parameters())

optimizer = hvd.DistributedOptimizer(optimizer, named_parameters=model.named_parameters())
hvd.broadcast_parameters(model.state_dict(), root_rank=0)

for epoch in range(100):
   for batch_idx, (data, target) in enumerate(train_loader):
       images = images.cuda(non_blocking=True)
       target = target.cuda(non_blocking=True)
       ...
       output = model(images)
       loss = criterion(output, target)
       ...
       optimizer.zero_grad()
       loss.backward()
       optimizer.step()

在使用時,調用 horovodrun 啟動器啟動:

CUDA_VISIBLE_DEVICES=0,1,2,3 horovodrun -np 4 -H localhost:4 --verbose python main.py

在 ImageNet 上的完整訓練代碼,請點擊Github[11]。

7.分布式 evaluation

all_reduce, barrier 等 API 是 distributed 中更為基礎和底層的 API。這些 API 可以幫助我們控制進程之間的交互,控制 GPU 數據的傳輸。在自定義 GPU 協作邏輯,匯總 GPU 間少量的統計信息時,大有用處。熟練掌握這些 API 也可以幫助我們自己設計、優化分布式訓練、測試流程。

最近,不少同學私信了我這樣的問題,

訓練樣本被切分成了若干個部分,被若干個進程分別控制運行在若干個 GPU 上,如何在進程間進行通信匯總這些(GPU 上的)信息?

使用一張卡進行推理、測試太慢了,如何使用 Distributed 進行分布式地推理和測試,并將結果匯總在一起?

......

要解決這些問題,我們需要一個更為基礎的 API,匯總記錄不同 GPU 上生成的準確率、損失函數等指標信息。這個 API 就是 torch.distributed.all_reduce。

fc878fa2-205d-11ed-ba43-dac502259ad0.jpg

圖2:all_reduce 示意圖

如上圖所示,它的工作過程包含以下三步:

在調用 all_reduce(tensor, op=...)后,當前進程會向其他進程發送 tensor(例如 rank 0 會發送 rank 0 的 tensor 到 rank 1、2、3)

同時,當前進程接受其他進程發來的 tensor(例如 rank 0 會接收 rank 1 的 tensor、rank 2 的 tensor、rank 3 的 tensor)。

在全部接收完成后,當前進程(例如rank 0)會對當前進程的和接收到的 tensor (例如 rank 0 的 tensor、rank 1 的 tensor、rank 2 的 tensor、rank 3 的 tensor)進行 op (例如求和)操作。

使用 torch.distributed.all_reduce(loss, op=torch.distributed.reduce_op.SUM),我們就能夠對不同數據切片(不同 GPU 上的訓練數據)的損失函數進行求和了。接著,我們只要再將其除以進程(GPU)數量 world_size就可以得到損失函數的平均值。正確率也能夠通過同樣方法進行計算:

# 原始代碼
output = model(images)
loss = criterion(output, target)
        
acc1, acc5 = accuracy(output, target, topk=(1, 5))
losses.update(loss.item(), images.size(0))
top1.update(acc1.item(), images.size(0))
top5.update(acc5.item(), images.size(0))

# 修改后,同步各 GPU 中數據切片的統計信息,用于分布式的 evaluation
def reduce_tensor(tensor):
    rt = tensor.clone()
    dist.all_reduce(rt, op=dist.reduce_op.SUM)
    rt /= args.world_size
    return rt

output = model(images)
loss = criterion(output, target)
acc1, acc5 = accuracy(output, target, topk=(1, 5))

torch.distributed.barrier()

reduced_loss = reduce_tensor(loss.data)
reduced_acc1 = reduce_tensor(acc1)
reduced_acc5 = reduce_tensor(acc5)

losses.update(loss.item(), images.size(0))
top1.update(acc1.item(), images.size(0))
top5.update(acc5.item(), images.size(0))

值得注意的是,為了同步各進程的計算進度,我們在 reduce 之前插入了一個同步 API torch.distributed.barrier()。在所有進程運行到這一步之前,先完成此前代碼的進程會等待其他進程。這使得我們能夠得到準確、有序的輸出。在 Horovod 中,我們無法使用 torch.distributed.barrier(),取而代之的是,我們可以在 allreduce 過程中指明:

def reduce_mean(tensor, world_size):
    rt = tensor.clone()
    hvd.allreduce(rt, name='barrier')
    rt /= world_size
    return rt
    
output = model(images)
loss = criterion(output, target)
acc1, acc5 = accuracy(output, target, topk=(1, 5))

reduced_loss = reduce_tensor(loss.data)
reduced_acc1 = reduce_tensor(acc1)
reduced_acc5 = reduce_tensor(acc5)

losses.update(loss.item(), images.size(0))
top1.update(acc1.item(), images.size(0))
top5.update(acc5.item(), images.size(0))

在 ImageNet 上的完整訓練代碼,請點擊Github[12]。

8.尾注:

本文中使用的 V100-PICE (前 4 個 GPU)的配置:

fca22c04-205d-11ed-ba43-dac502259ad0.jpg

圖 3:配置詳情

本文中使用的 V100 (前 4 個 GPU)的配置:

fcc26b90-205d-11ed-ba43-dac502259ad0.jpg

圖 4:配置詳情

本文中使用的 K80 (前 4 個 GPU)的配置:

fcd1e85e-205d-11ed-ba43-dac502259ad0.jpg

圖 5:配置詳情

筆者本身是 CV 研究生,今天摸魚的時候一時興起研究了一下,后面再慢慢完善~

審核編輯:彭靜
聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 數據
    +關注

    關注

    8

    文章

    7264

    瀏覽量

    92364
  • gpu
    gpu
    +關注

    關注

    28

    文章

    4976

    瀏覽量

    132025
  • 模型
    +關注

    關注

    1

    文章

    3546

    瀏覽量

    50710

原文標題:8.尾注:

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

收藏 0人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    分布式軟件系統

    三個特點:分布性、通信性和穩健性。 分布式文件系統具有執行遠程文件存取的能力,并以透明方式分布在網絡上的文件進行管理和存取。 分布式數據庫
    發表于 07-22 14:53

    分布式數據庫有什么優缺點?

    分布式數據庫系統(DDBS)是數據技術和網絡技術兩者相互滲透和有機結合的結果。涉及數據基本理論和網絡通信理論。分布式數據庫由一組數據組成,這些數據在物理上
    發表于 09-24 09:13

    HarmonyOS應用開發-分布式設計

    設計理念HarmonyOS 是面向未來全場景智慧生活方式分布式操作系統。對消費者而言,HarmonyOS 將生活場景中的各類終端進行能力整合,形成“One Super Device”,以實現
    發表于 09-22 17:11

    HarmonyOS分布式數據庫,為啥這么牛?

    間數據同步、跨設備查找和訪問的很多關鍵技術問題。 HarmonyOS 分布式數據管理對開發者提供分布式數據庫、分布式文件系統和分布式檢索能力,開發者在多設備上開發應用時,對數據的操作
    發表于 11-19 15:38

    【木棉花】分布式數據庫

    前言繼上一篇輕量級偏好數據的學習,為了讓大伙更好的了解學習數據的類型,我今天就推出分布式數據庫的學習,如果還不清楚輕量級偏好數據的童鞋,建議查看我的上一篇學習筆記:【木棉花】:輕
    發表于 09-05 10:43

    分布式數據庫,什么是分布式數據庫

    分布式數據庫,什么是分布式數據庫 分布式數據庫系統是在集中式數據系統成熟技術的基礎上發展起來的,但不是簡單地把集中式數
    發表于 03-18 15:25 ?4004次閱讀

    Redis 分布式鎖的正確實現方式

    分布式鎖一般有三種實現方式:1. 數據樂觀鎖;2. 基于Redis的分布式鎖;3. 基于ZooKeeper的分布式鎖。
    的頭像 發表于 05-31 14:19 ?3881次閱讀

    為什么我們需要分布式數據庫

    to be database systems.)” 數據系統經過幾十年演進后,分布式數據庫在近幾年發展如火如荼,國內外出現了很多分布式數據庫創業公司,為什么分布式數據庫開始流行?在
    的頭像 發表于 09-06 10:37 ?2833次閱讀

    數據如何走向分布式

    to be database systems.)” 數據系統經過幾十年演進后,分布式數據庫在近幾年發展如火如荼,國內外出現了很多分布式數據庫創業公司,為什么分布式數據庫開始流行?在
    的頭像 發表于 09-24 14:25 ?4236次閱讀
    數據<b class='flag-5'>庫</b>如何走向<b class='flag-5'>分布式</b>

    探究超大Transformer語言模型的分布式訓練框架

    。 優化的分布式集群架構:NVIDIA DGX SuperPOD 有了高效的分布式訓練框架,自然也需要優化的分布式訓練集群。 NVIDIA
    的頭像 發表于 10-20 09:25 ?2962次閱讀

    **分布式數據庫|數據數據類型**

    分布式數據庫是一種存儲在不同物理位置的數據。與單個數據系統的并行系統不同,分布式數據庫系統由不共享物理組件的松耦合站組成。分布式數據庫
    的頭像 發表于 07-17 13:33 ?899次閱讀

    基于PyTorch的模型并行分布式訓練Megatron解析

    NVIDIA Megatron 是一個基于 PyTorch 的分布式訓練框架,用來訓練超大Transformer語言模型,其通過綜合應用了數據并行,Tensor并行和Pipeline并行來復現 GPT3,值得我們深入分析其背后機
    的頭像 發表于 10-23 11:01 ?4269次閱讀
    基于PyTorch的模型并行<b class='flag-5'>分布式</b><b class='flag-5'>訓練</b>Megatron解析

    分布式鎖的三種實現方式

    ,下面將分別介紹三種常見的實現方式。 一、基于數據實現的分布式鎖 在分布式系統中,數據是最常用的共享資源之一。因此,可以通過數據
    的頭像 發表于 12-28 10:01 ?1313次閱讀

    分布式通信的原理和實現高效分布式通信背后的技術NVLink的演進

    大型模型的大小已經超出了單個 GPU 的范圍。所以就需要實現跨多個 GPU 的模型訓練,這種訓練方式就涉及到了分布式通信和 NVLink。 當談及
    的頭像 發表于 11-18 09:39 ?1433次閱讀
    <b class='flag-5'>分布式</b>通信的原理和實現高效<b class='flag-5'>分布式</b>通信背后的技術NVLink的演進

    分布式云化數據有哪些類型

    分布式云化數據有哪些類型?分布式云化數據主要類型包括:關系型分布式數據庫、非關系型分布式數據庫
    的頭像 發表于 01-15 09:43 ?553次閱讀
    主站蜘蛛池模板: 无码日韩精品一区二区免费暖暖 | 午夜无码一区二区三区在线观看 | 91精品网| 少妇高清精品毛片在线视频 | 夜夜爽夜夜叫夜夜高潮漏水 | 躁躁日日躁 | 国产五月婷婷 | a男人天堂 | 国产成人无码a区在线观看视频 | 亚洲午夜精品久久久久久人妖 | 欧美日韩精品一区二区在线播放 | 筱田优全部av免费观看 | 激情内射亚洲一区二区三区爱妻 | 亚洲电影在线观看 | 国产jizzz | 亚洲肥老太bbw中国熟女 | 漂亮人妻被中出中文字幕久久 | 精品在线观看免费 | 变态另类先锋影音 | 亚洲人成人伊人成综合网无码 | 成人做爰69片免费看网站 | 女仆裸体打屁屁羞羞免费 | 国产精品久久久久久久小唯西川 | 日本黄色一极片 | 国产欧美视频在线播放 | 久久国产成人午夜av影院武则天 | 色婷婷综合久久久久中文 | 午夜精品在线免费观看 | 亚洲国产福利一区二区三区 | 亚洲一区二区三区四区五区中文 | 春色影视| 午夜精品久久久久久久99水蜜桃 | 亚洲国产精品ⅴa在线观看 天堂中文在线资源 | 午夜精品久久久久久久99热额 | 天堂资源地址在线 | 国产性猛交××××乱七区 | 一级片在线视频 | 亚洲图片欧美 | 久久精彩免费视频 | 亚洲最大毛片 | 真人与拘做受免费视频一 | 午夜爽爽影院 | 国产精品久久婷婷六月丁香 | 伊人影院视频 | 午夜影院免费体验区 | 雨宫琴音av一区在线播放 | av无限看 | 国产成人精品日本亚洲77上位 | 在线观看免费av网 | 国产又色又爽又刺激在线观看 | 久久大奶| 日韩熟女精品一区二区三区 | 国产一区二区三区观看 | 午夜性刺激在线观看 | jizzjizz黄大片| 国产精品人人 | 亚洲天堂视频网 | 九九久久免费视频 | 久久天天躁狠狠躁夜夜av不卡 | 成人做爰高潮片免费视频九九九 | 国产精品久久久久久久久免费樱桃 | 在线看毛片网站 | 午夜在线播放 | 男人天堂你懂的 | 日日天干夜夜狠狠爱 | 日韩精品无码一本二本三本色 | 影音先锋亚洲资源 | 国产一国产二国产三 | 欧美乱人伦 | 欧美丰满熟妇bbb久久久 | 性感美女一区二区三区 | 日韩女优在线视频 | 一色桃子av一区二区 | 在线观看日韩中文字幕 | 一区二区三区亚洲欧美 | 一区二区三区无码视频免费福利 | 人人澡人人透人人爽 | 精品国产乱码久久久久久移动网络 | 国产免费看av | 色狠狠色噜噜av天堂一区 | 亚洲在线精品视频 | 日韩视频一区二区在线观看 | 久久人人爽人人爽人人 | 国产丝袜在线播放 | www国产亚洲精品久久麻豆 | 日本真人做爰免费视频120秒 | 香蕉在线播放 | 伊人性视频 | 男人的又粗又长又硬 | 日韩在线永久免费播放 | 性——交——性——乱免费的 | 麻豆精品一区二区 | 天天干天天射综合网 | 国产成人综合色在线观看网站 | 亚洲国产精品久久久久制服 | 9l视频自拍蝌蚪9l视频成人 | 中文字幕免费高清网站 | 91视频三区| 中国极品少妇videossexhd 久久久久成人精品 | 精品久久久久久无码国产 | 99精品视频在线观看 | 无套中出极品少妇白浆 | 草比网站| 日本人操比 | 欧美日韩爱爱 | 国产精品福利视频一区 | 中文av一区 | 天天躁狠狠躁狠狠躁夜夜躁68 | 色哟哟网站在线观看 | 中文在线第一页 | 久久综合久久自在自线精品自 | 色偷偷av亚洲男人的天堂 | 久久精品成人免费国产片桃视频 | 国产最爽的乱淫视频媛 | 久久精品—区二区三区 | 古代黄色一级片 | 亚洲色大成网站www永久在线观看 | 国产成a人亚洲精品无码久久网 | 日本午夜在线 | 六月天婷婷 | 国产精品第1页 | aaa级片| 亚洲一区二区观看 | 在线观看黄网址 | 国产精品岛国久久久久 | 国产日本一区二区三区 | 永久黄网站色视频免费观看w | 日韩怡红院 | 亚洲熟妇av午夜无码不卡 | 国产成人av免费 | 国产精品久久高潮呻吟粉嫩av | 中文字幕人成乱码在线观看 | 亚洲精品久久久蜜桃 | 色婷av| 欧美日韩综合一区二区 | 91丨九色丨刺激 | 在线看无码的免费网站 | 亚洲免费网址 | 毛片最新网址 | 色窝窝无码一区二区三区 | 午夜视频在线播放一三 | 羞羞视频靠逼视频大全 | 阿v天堂网 | 国产女人18毛片水18精品 | 中文字幕在线不卡 | √新版天堂资源在线资源 | hs视频在线观看 | 国产精品国产三级国产有见不卡 | 玉米地疯狂的吸允她的奶视频 | 荫道bbwbbb高潮潮喷 | 日日噜噜噜夜夜爽爽狠狠视频寻花 | 嫩草国产福利视频一区二区 | 国产美a三级三级看三级 | 日韩av无码中文无码电影 | 黑人巨大跨种族video | 78成人天堂久久成人 | 日韩在观看线 | 中文字幕在线日亚洲9 | 午夜久久久久久 | 国产一级做a爰片毛片 | 午夜爽爽爽| 日韩精品欧美 | 免费看欧美中韩毛片影院 | 丁香婷婷激情五月 | 青娱乐在线视频免费观看 | 韩国中文三级hd字幕 | 天天干免费视频 | 国产午夜无码精品免费看 | 欧美乱论 | 国产精品无码一区二区在线 | 性——交——性——乱免费的 | 日本xxxx高清| 国产自偷自拍 | 欧美伦理片| 国产伦精品一区二区三区88av | 日韩毛片子 | 天堂а√中文在线官网 | 九九少妇 | 欧美一级性生活视频 | 亚洲综合天堂av网站在线观看 | 永久免费不卡在线观看黄网站 | 日韩久久高清 | 国产理论视频在线观看 | 欧美又黄又粗暴免费观看 | 国产精品第12页 | 久久久久在线视频 | 国产视频97 | 18videosex性欧美麻豆 | 国产av一区二区三区最新精品 | 搡老女人老妇女老熟妇 | 美女露出给别人摸图片 | 亚洲高清在线播放 | 亚洲免费视频观看 | 午夜免费在线观看 | 国产做爰全免费的视频黑人 | 黄色一级大片在线观看 | 日本精品一区二区三区在线播放视频 | 欧美色一区二区三区在线观看 | 精品国精品自拍自在线 | 狠狠入| 日韩精品久久久久久免费 | 精品蜜臀久久久久99网站 | 欧美午夜性春猛交xxxx明星 | 国产999精品久久久久久绿帽 | 亚洲天堂自拍偷拍 | 曰批免费视频播放免费 | 日韩欧美国产成人 | 久久亚洲人成网站 | 91啪国产在线 | 超碰在线免费看 | 国色天香乱码 | 日韩视频在线视频 | 成av人片在线观看www | 精品无码人妻一区二区三区不卡 | 影音先锋在线中文字幕 | 99精品国产兔费观看久久 | 激情综合小说 | 国产特级黄色录像 | 国产大学生情侣呻吟视频 | 国产精品久久久久无码人妻 | 国产毛片久久久久久美女视频 | 日本成人午夜 | 亚洲一级二级视频 | 国产亚洲成av片在线观看 | 日韩一区二区三区在线视频 | 国产麻豆9l精品三级站 | 日本va欧美va欧美va精品 | 成人精品国产 | 136fldh导航福利视频 | 国产精品一级 | 国产精品一区二区久久乐下载 | 精品女同一区二区三区在线 | 白嫩大乳丰满美女白嫩白嫩 | 成年人福利视频 | 一道本在线视频 | 国产亚洲精品美女久久久 | 中文字幕在线观看91 | 国产亚洲欧美精品永久 | 在线中文字幕乱码英文字幕正常 | 91色在线| 国产伦久视频免费观看 视频 | 国产精品一区二区三 | 亚洲大色堂人在线无码 | 熟妇人妻av无码一区二区三区 | 黄色影院久久 | 国内最真实的xxxx人伦 | 国产精品久久久不卡 | 一本之道ay免费 | 偷偷操网站 | 国产极品美女高潮无套浪潮av | 91精品打屁股sm调教 | 天干天干天啪啪夜爽爽av小说 | 国产69精品久久久久9999 | 熟妇人妻va精品中文字幕 | 久久草草亚洲蜜桃臀 | 最新亚洲人成网站在线观看 | 午夜成人无码福利免费视频 | 四虎永久在线精品免费一区二区 | 色黄大色黄女片免费中国 | 午夜一二区 | 开心色站| 精品国产自在久久现线拍 | 国产精品不卡av | 欧美成人69 | 欧美中文字幕无线码视频 | 日本网站在线看 | 青久草视频| 在线观看91精品国产入口 | 国产av无码专区亚洲a√ | 男女三级视频 | 91精品国产高清一区二区三密臀 | 日本一区二区三区中文字幕 | 久久久久久国产精品高清 | 国产精品沙发午睡系列 | 中文字幕天堂av | 69av视频在线 | 操碰视频| 国四虎影2020| 男人的天堂av网站 | 久久久久久久久91 | 国产精品99久久久久久久vr | 美日韩中文字幕 | 丰满人妻熟妇乱又伦精品视 | 国产极品91 | 在线精品免费视频 | 亚洲品牌自拍一品区9999 | 在线观看av毛片 | 插插插网站| 99热这里只有精品99 | 日日干夜夜干 | 精品美女一区二区 | 黄色成人毛片 | 婷婷激情五月综合 | 久久久国产精品亚洲一区 | 91精品久久久久久久蜜月 | 免费的很黄很污的视频 | 成人欧美一区二区三区黑人冫 | 波多野结衣影院 | 无遮无挡爽爽免费毛片 | 中文字幕一区二区三区乱码 | 亚洲资源在线观看 | 500篇短篇超级乱淫的小说 | 娇小性色伦xxxxx中国av | 国产精品国产三级国产aⅴ9色 | 国产农村妇女毛片精品久久麻豆 | 欧美不卡视频 | 手机看片1024在线 | 欧美、另类亚洲日本一区二区 | 丁香花完整视频小说 | 在线色网址 | 美女的屁股眼网站 | 亚洲黄色免费观看 | 国产成人精品久久久 | 国产精品a成v人在线播放 | 欧美三日本三级三级在线播放 | videosex抽搐痉挛高潮 | 丰满少妇一级片 | 国产性受xxxx白人性爽 | 日日夜夜狠狠爱 | 涩av| 精品亚洲成av人在线观看 | 国产成人久久av977小说 | 中文字幕在线视频免费视频 | 茄子av在线 | 成人区人妻精品一熟女 | 在线天堂资源www在线污 | 潘金莲三级野外 | 亚洲国产精华液网站w | 久久亚洲一区二区三区成人国产 | 精品人伦一区二区三区潘金莲 | 欧美做受高潮中文字幕 | 污网站在线看 | 国产69精品久久久久久久久久 | 国产色综合天天综合网 | 午夜婷婷 | 成年男人裸j网站 | 正在播放重口老熟女露脸 | 欧美性一区二区 | 在线亚洲免费 | 农村少妇无套内谢粗又长 | 日日噜噜夜夜狠狠久久波多野 | 亚洲视频在线免费看 | 澳门三级 黄色在线看! | 国产福利99 | 黄色一级视屏 | 国产男女裸体做爰爽爽 | 刺激性视频黄页 | 印度女人狂野牲交 | 久久久久国产精品熟女影院 | 性一交一乱一透一a级 | 成人免费区一区二区三区 | www.成人免费视频 | 欧美另类天堂 | 国产精品久久视频 | 97国产精品视频 | 亚洲天堂777| 国产真实交换配乱淫视频 | 男女黄色毛片 | 欧美xxxx中国 | 国产一二三区精品 | 超碰人人干人人 | 亚洲色欲一区二区三区在线观看 | 依人在线| 日99久9在线 | 免费 | 一级做a视频 | japanese一本色道久久 | 国产精品亚洲综合一区二区三区 | 日韩免费一区二区 | 中国猛少妇色xxxxx | 加勒比久久综合 | 天天插天天搞 | 91超碰在线 | a级黄片毛片| 国产精品久久久久久久久久久久久久久久久久 | 午夜国产一级片 | 免费观看全黄做爰的视在线观看 | 香港三日本三级少妇66 | 六月激情婷婷 | 成人乱码一区二区三区av | 久久午夜鲁丝片 | 精品一区二区三区四区五区六区 | 大乳丰满人妻中文字幕日本 | 欧洲美熟女乱又伦av影片 | 公妇乱淫太舒服了 | h网站免费在线观看 | 好吊妞精品视频 | 最新国产在线视频 | 成av人片一区二区三区久久 | 91网站在线观看视频 | 亚洲成av人片在线观看无码 | 国产极品jk白丝喷白浆图片 | 浪潮av激情高潮国产精品香港 | 国产产无码乱码精品久久鸭 | 性色av无码免费一区二区三区 | 欧美 日韩 国产 成人 在线 | 成人深夜小视频 | 超碰在线人人干 | 欧美成人精品a∨在线观看 香蕉av福利精品导航 | av黄色av| 另类一区二区三区 | 非洲黑妞xxxxhd精品 | 超碰啪啪| 国产丝袜网站 | 少妇bbbb做爰 | 亚洲看片lutube在线观看 | 日韩视频一区二区在线观看 | 午夜偷拍福利视频 | 一性一交一伦一色一按—摩 | 熟妇人妻午夜寂寞影院 | 熟女精品视频一区二区三区 | 精品无人码麻豆乱码1区2区 | 99热久久免费频精品18 | 成人做爰69片免费看网站色戒 | 永久免费不卡在线观看黄网站 | 91成人福利视频 | 亚洲国产成人一区二区在线 | 国产精品一区二区三区久久久 | 一本之道新久 | 亚洲资源在线播放 | 国产精品入| 国产在线一卡二卡 | 四虎网站在线 | 国产美女引诱水电工 | 天天国产视频 | 午夜不卡av | 国产精品人人爽人人爽 | 久久亚洲精品中文字幕 | 欧美成人精品a∨在线观看 香蕉av福利精品导航 | 黄色a级在线观看 | 国产黄a三级三级三级av在线看 | 天美麻花果冻视频大全英文版 | 国产夫妻在线观看 | 日本一区二区三区在线播放 | 精品无码国产一区二区三区麻豆 | 伊人99在线| 日韩视频中文字幕 | 精品久久久久久久久久国产潘金莲 | 久草久草久草 | av鲁丝一区鲁丝二区鲁丝三区 | 国产精品免费vv欧美成人a | 国产精品嫩草影院8vv8 | 中文字幕精品一区二区三区在线 | 91中文字幕在线观看 | 天天摸久久精品av | 久久无码人妻一区二区三区午夜 | 最新日韩精品 | 每日av更新| 无码乱人伦一区二区亚洲一 | 欧美麻豆久久久久久中文 | 国产高清一区二区三区四区 | 亚洲视频欧美视频 | avtt在线观看 | 国产毛片毛片毛片毛片 | 国产精品久久久久久 | 91精品国产影片一区二区三区 | 久久天天躁狠狠躁夜夜av | 天天综合性 | 日韩欧美一区二区三区, | 中文字幕人妻伦伦 | 亚洲大逼 | 欧美一级乱黄 | 少妇思春三a级 | 成人性色生活片 | 少妇粉嫩小泬喷水视频www | 成人午夜片av在线看 | 美女隐私视频黄www曰本 | 亚洲老女人视频 | 国产又粗又大又黄 | 亚洲国产精品久久久久制服 | 国产精品国产亚洲精品看不卡15 | 国产内射在线激情一区 | 中文毛片 | 欧美性折磨bdsm激情另类视频 | 特黄特色大片免费播放器图片 | 97久久精品一区二区三区观看 | 91蜜桃婷婷狠狠久久综合9色 | www.av小四郎.com| 国产成人涩涩涩视频在线观看 | 国产精品21区 | 麻豆疯狂做受xxxx高潮视频 | 成人国产精品视频国产 | 成人免费视频在线观看 | 黑人性较视频免费视频 | 日韩欧美精品在线 | 天堂av资源在线观看 | 欧美午夜一区二区福利视频 | 免费av在线播放 | 精品国产自在精品国产浪潮 | 一区二区美女 | 久久精品人人做人人妻人人玩 | 少妇哺乳期在线喷奶 | 国产精品一线 | 69xx国产| 韩国乱码片免费看 | 欧美交换配乱吟粗大在线观看 | 麻豆蜜桃九色在线视频 | 福利视频免费 | 日本精品777777免费视频 | 成人午夜在线 | 中文字幕在线第一页 | 中文字幕在线观看英文怎么写 | kk视频在线视频 | 香港黄色网 | 亚洲 欧美 日韩系列 | 国精品无码一区二区三区在线蜜臀 | 永久免费看毛片 | 天天做爰裸体免费视频 | 亚洲精品中文字幕乱码无线 | 精品无码人妻一区二区免费蜜桃 | 国产亚洲综合av | 亚洲美女一区 | 亚洲成a人片777777张柏芝 | 在线天堂视频 | 另类一区二区 | 成人免费网站视频 | 亚洲最大成人综合网 | 69国产精品视频 | 日本欧美一区 | 久久婷婷影视 | 国产精品一区二区在线播放 | 国产精品成人免费 | 日韩中文字幕免费视频 | 日本中文在线播放 | 精品黄色在线观看 | 一品二品三品中文字幕 | 91桃色网站| 欧美一二区 | 精品久久国产字幕高潮 | 一级做受大片免费视频 | 又紧又大又爽精品一区二区 | aaa一区二区| 色激情网| 亚洲色一区二区三区四区 | 动漫av网| 999在线视频| 深夜视频在线免费观看 | 免费观看国产黄色片 | 亚洲无人区一线二线三线 | 3atv精品不卡视频 | 人妻少妇乱子伦精品无码专区电影 | 99国产精品99久久久久久 | 精品第一页 | 午夜精品久久 | 欧美日激情日韩精品嗯 | 一杯热奶茶的等待 | 国产精品亚洲成在人线 | 欧美人与禽猛交乱配 | 国产午夜精品视频 | 国产精品高清一区二区 | 国产va亚洲va在线va | 欧美精品一区二区三区在线四季 | 日韩av激情 | 国产精品久久久久久白浆 | 2023av在线| 欧美影片网站推荐 | 伦人伦xxx国产对白 亚洲国产精品一区二区成人片国内 | 国产一区二区三区中文字幕 | 不卡的日韩av | 亚洲黄色在线视频 | 日韩精品一区二区三区中文无码 | 亚洲射情 | 欧美极品少妇xxxxⅹ裸体艺术 | 嫩草国产| 超碰免费看 | 欧美干干 | 国产又色又爽又黄的 | 直接在线观看的三级网址 | 亚洲图片欧美在线看 | 九九热九九热 | 山林妇女勾搭老头av | 亚洲一区二区日本 | 捆绑凌虐一区二区三区 | 男女啪啪永久免费观看网站 | 色欲精品国产一区二区三区av | 免费观看日韩av | 久久99视频 | 99国产精品国产免费观看 | 深夜福利网址 | 久久免费看少妇高清激情 | 俺来俺也去www色在线观看 | 亚洲免费中文 | 亚洲免费一级视频 | 极品少妇hdxx麻豆hdxx | 中国肥老太婆高清video | 天天拍夜夜添久久精品大 | 潮喷失禁大喷水无码 | 国产日本欧美在线观看 | av在线地址 | 性色av极品无码专区亚洲 | 91精品啪 | 男人天堂va | 欧美 日韩 人妻 高清 中文 | 紧身裙女教师三上悠亚红杏 | 国产一区二区日本 | 91久久久久久久国产欧美日韩- | 亚洲成a人片77777kkkk1在线观看 | 精品福利一区二区 | 亚洲亚洲人成综合网络 | 麻豆三级视频 | 久草精品国产 | 新香蕉视频 | 无码乱人伦一区二区亚洲一 | 欧美综合自拍亚洲综合图 | 女裸全身无奶罩内裤内衣内裤 | 久久久一区二区三区四区 | 天堂草在线观看 | 一级女人裸体舞毛片 | 肉色超薄丝袜脚交一区二区 | 中国黄色a级 | 真实国产乱子伦对白视频 | 操比视频网站 | 91精品国产日韩91久久久久久 | 麻豆传媒网站在线观看 | 女娃videosex娇小 | 亚洲国产一二三精品无码 |

    電子發燒友

    中國電子工程師最喜歡的網站

    • 2931785位工程師會員交流學習
    • 獲取您個性化的科技前沿技術信息
    • 參加活動獲取豐厚的禮品