No primeiro ano do surto abrangente da IA, um grande número de aplicações da indústria de IA desembarcou gradualmente, trazendo uma melhoria substancial na eficiência da produção e na qualidade de vida e gerando um valor comercial mais diversificado.Com o desenvolvimento da IA na área de águas profundas, a quantidade de dados não é precedente para processar dados, e a complexidade do algoritmo mostra o crescimento do nível do índice. Desenvolvimento de alta velocidade.
Enfrentando as necessidades crescentes de computação dos usuários para a construção de aplicativos de IA mais inteligentes, fornece um desempenho mais poderoso, elasticidade e expansão fácil e recursos de computação em nuvem eficazes, que se tornaram o objetivo comum do setor.O Jinshan Cloud lançou recentemente um servidor de nuvem GPU com base no NVIDIA Tesla V100 com base no controle profundo das necessidades do usuário. quina 5827 resultado
O poder de computação mais forte de 21 bilhões de tubos de cristal
Como o primeiro servidor da GPU Cloud baseado no Tesla V100, que foi vendido oficialmente na China, usou um mecanismo de núcleo de tensor inovador para aumentar a capacidade de computação de precisão mista e ponto de flutuação em mais de 10 vezes. Aplicativos, com três vezes a melhoria do desempenho na plataforma Pascal da geração anterior, ele pode facilmente lidar com muitos cenários de aplicativos, como aprendizado profundo, operações científicas, renderização de imagens gráficas etc., reduzindo efetivamente a previsão on -line e a duração do treinamento offline.
Atualmente, o Serviço de Computação de Aceleração de GPU baseado em V100 tem sido totalmente comercial, fornecendo suporte de computação de alto desempenho para muitos clientes, incluindo a Xiaomi.O mais recente telefone celular anual da Xiaomi, Xiaomi 8, o sistema de tela completa MIUI 10, a câmera da AI, a assistente de voz da AI "Xiao Ai Classmate" abençoada por bênçãos da IA etc., existem serviços de computação fornecidos pela Jinshan Genting GPU Recursos por trás da pesquisa de produtos e da pesquisa de produtos e eficiência e experiência do desenvolvimento.
No nível da infraestrutura, o Tesla V100 contém um total de 21 bilhões de transistores, equipados com 84 unidades SM (Flow Multi Processor), das quais 80 são unidades eficazes. Core de tensor de computação da matriz de precisão mista, um total de 5.120 núcleo de CUDA e 640 núcleo tensor, equipado com memória de vídeo HBM 2 de 16 GB, a largura de banda pode ser tão alta no protocolo da linha principal.
Novo diagrama esquemático de arquitetura Volta
No nível da implantação do encadeamento, o V100 é a primeira GPU que suporta ajuste de encadeamento independente, permitindo que a GPU execute qualquer encadeamento, para que os threads paralelos no programa possam obter mais sincronização e colaboração fine. Aplicações em aplicações mais complexas e diversas funcionando com eficiência.O núcleo do tensor original quebra o registro de velocidade de processamento mais rápido de um único processador, que pode proporcionar um desempenho mais alto do que o ASICS com uma única função e ainda possui programabilidade sob diferentes cargas de trabalho.
O Tensor Core crie uma unidade de computação de aprendizado profundo mais profissional quina 5827 resultado
O Tensor Core é o recurso mais pesado da arquitetura Volta.(O cálculo da multiplicação da matriz está no algoritmo de camada de rede de aprendizado profundo, como camadas convolucionais, camadas de conexão completas etc. são a parte mais importante e que consome tempo).O núcleo do tensor pode executar operações de multiplicação híbrida de 64 pontos flutuantes (FMA) por ciclo do relógio, proporcionando desempenho de computação de até 125 TFLOPS para aplicações de treinamento e raciocínio.
Recursos de computação mais poderosos significam que os desenvolvedores podem usar a precisão híbrida (FP16 para calcular o uso da acumulação de FP32) para realizar treinamento de aprendizado profundo, para obter um desempenho 3X mais rápido que a geração anterior. , Pytorch, Theano, Tensorf Low, etc. quina 5827 resultado
Além disso, a versão nvliink do Tesla V100 suporta o protocolo de barramento de interconexão de alta velocidade NVLink2.0, o Tesla P100 suporta o protocolo NVLink 1.0, cada GPU pode conectar 4 barramentos, a transmissão de uma largura de transmissão de cada caminho de cada barramento pode alcançar 20 GB/s , Quatro quatro raízes O ônibus pode atingir uma largura de banda de IO de um de 80 GB/s, dois caminhos 160 GB/s.O Tesla V100 suporta o mais recente protocolo NVLink2.0. quina 5827 resultado
Alta precisão mista O poder de computação torna os cálculos mais eficientes quina 5827 resultado
O Tesla V100 possui duas versões de NVLink e PCIE. Power de computação de ponto flutuante duplo, 14TFLOPS Power de ponto de computação de ponto flutuante único de precisão e 112 Recursos de computação de precisão híbrida TfLOPS. quina 5827 resultado
Ao treinar Resnet-50, a velocidade de processamento de uma única GPU do núcleo do tensor V100 pode atingir 1075 imagens/segundos, que é 4 vezes maior que a GPU Pascal da geração anterior.De acordo com as estimativas, se 1 milhão de fotos precisarem ser aprendidas, teoricamente, apenas cerca de 15 minutos podem ser treinados.
Comparação NVLink e PCIE Tesla V100
A Jinshan Cloud, como o primeiro fabricante oficial de serviços comerciais da Tesla V100 Cloud na China, está atualmente vendendo servidores baseados em V100 com servidor em nuvem GPU (série P4V) e servidor físico da GPU (série P4E).Excelente desempenho de computação profunda permite que os usuários criem negócios de IA com mais rapidez e eficiência. competitividade.
Fale conosco. Envie dúvidas, críticas ou sugestões para a nossa equipe através dos contatos abaixo:
Telefone: 0086-10-8805-0795
Email: portuguese@9099.com