Os servidores T4 contam com:
Até 8 GPUs NVIDIA® T4 de 16 GB cada, projetadas com 2.560 núcleos CUDA e 320 núcleos Tensor, essa solução oferece desempenho versátil e eficiência energética ideal para cargas de trabalho de IA, inferência e computação gráfica.
A arquitetura Turing™ permite que a T4 atinja um equilíbrio excepcional entre potência e consumo energético, suportando uma ampla gama de aplicações, desde aprendizado de máquina até virtualização de gráficos.
Os servidores otimizados para a T4 utilizam processadores de última geração, garantindo desempenho estável e escalável para atender às demandas de operações de grande porte.
Na configuração de VMs com múltiplas T4, é possível alocar os recursos de forma flexível, proporcionando uma combinação perfeita de custo-benefício e alta performance.
Aplicações GPU T4
Inferência em IA, recomendação de conteúdo, processamento de
linguagem natural e streaming de vídeo
Streaming
Sistemas de recomendação para e-commerce e streaming.
Otimização Servidores
Otimização de servidores de conteúdo para transmissão de vídeo em alta qualidade.
Chatbots
Implementação de chatbots e assistentes virtuais.
Comparação de custos com GPU OPEN e outros players
Economize até 59% em instâncias de GPU
A OPEN DATACENTER oferece uma alternativa flexível e econômica para instâncias de GPU na nuvem. Com preços ajustados de acordo com a demanda, você pode economizar durante períodos de menor utilização e ainda contar com ajustes diários previsíveis para planejar suas operações com eficiência.
Confira o comparativo entre os preços da Amazon AWS, Microsoft Azure, Google Cloud e OPEN DATACENTER:
Nvidia T4 specs
|
|
GPU Architecture |
NVIDIA Turing |
NVIDIA Turing Tensor Cores |
320 |
NVIDIA CUDA® Cores |
2,560 |
Single-Precision |
8.1 TFLOPS |
Mixed-Precision (FP16/FP32) |
65 TFLOPS |
INT8 |
130 TOPS |
INT4 |
260 TOPS |
GPU Memory |
16 GB GDDR6 |
Memory Bandwidth |
300 GB/sec |
ECC |
Yes |
Interconnect Bandwidth |
32 GB/sec |
System Interface |
x16 PCIe Gen3 |
Form Factor |
Low-Profile PCIe |
Thermal Solution |
Passive |
Compute APIs |
CUDA, NVIDIA TensorRT™, ONNX |
Os servidores V100 contam com:
Até 8 GPUs NVIDIA® Tesla V100, cada uma projetada com 5120 núcleos CUDA e 640 núcleos Tensor para desempenho excepcional.
Processadores Intel Xeon Scalable 4214R de segunda geração [2020], oferecendo até 48 threads e frequência de boost de 3,5 GHz.
Inclui tecnologia NVLink, proporcionando comunicação P2P com alta largura de banda. Os servidores otimizados para a V100 utilizam processadores de última geração, garantindo desempenho estável e escalável para atender às demandas de operações de grande porte.
Na configuração de VMs com múltiplas V100, é possível alocar os recursos de forma flexível, proporcionando uma combinação perfeita de custo-benefício e alta performance.
Aplicações GPU V100
Treinamento e inferência de IA, análises de dados em larga escala
e aprendizado profundo
Análises de Dados
Análises avançadas em grandes conjuntos de dados em setores financeiros e de pesquisa.
Diagnósticos Médicos
Desenvolvimento de IA para diagnósticos médicos com imagens.
Treinamento ML e DP
Treinamento de modelos de machine learning e deep learning.
Comparação de custos com GPU OPEN e outros players
Economize até 59% em instâncias de GPU
A OPEN DATACENTER oferece uma alternativa flexível e econômica para instâncias de GPU na nuvem. Com preços ajustados de acordo com a demanda, você pode economizar durante períodos de menor utilização e ainda contar com ajustes diários previsíveis para planejar suas operações com eficiência.
Confira o comparativo entre os preços da Amazon AWS, Microsoft Azure, Google Cloud e OPEN DATACENTER:
Nvidia V100 specs
|
|
GPU Architecture |
NVIDIA Volta |
NVIDIA Turing Tensor Cores |
640 |
NVIDIA CUDA® Cores |
5,120 |
Double-Precision Performance |
7 TFLOPS |
Single-Precision Performance |
14 TFLOPS |
Tensor Performance |
112 TFLOPS |
GPU Memory |
32 GB / 16 GB HBM2 |
Memory Bandwidth |
900 GB/sec |
ECC |
Yes |
Interconnect Bandwidth |
32 GB/sec |
System Interface |
PCIe Gen3 |
Form Factor |
PCIe Full Height/Length |
Max Power Consumption |
250 W |
Thermal Solution |
Passive |
Compute APIs |
CUDA, DirectCompute, OpenCL™, OpenACC® |
Os servidores A100 contam com:
Até 8 GPUs NVIDIA® A100 de 80 GB, cada uma com 6.912 núcleos CUDA e 432 núcleos Tensor.
Utilizamos exclusivamente o módulo SXM4, projetado para NVLINK, que proporciona uma largura de banda de memória superior a 2 TB/s e uma largura de banda P2P de até 600 GB/s.
Processador AMD EPYC Rome de segunda geração, com suporte a até 192 threads e frequência máxima de 3,3 GHz no modo boost.
Na configuração de VMs com múltiplas T4, é possível alocar os recursos de forma flexível, proporcionando uma combinação perfeita de custo-benefício e alta performance.
Aplicações GPU A100
Treinamento de IA de última geração, HPC, aprendizado profundo
e cargas de trabalho mistas de treinamento e inferência
Análise Preditiva
Desenvolvimento de modelos de IA robustos para previsão, simulação e análise preditiva.
Simulações Científicas
Simulações científicas para desenvolvimento de medicamentos e pesquisa.
Bioinformática
Aplicações em bioinformática, como sequenciamento genômico.
Comparação de custos com GPU OPEN e outros players
Economize até 59% em instâncias de GPU
A OPEN DATACENTER oferece uma alternativa flexível e econômica para instâncias de GPU na nuvem. Com preços ajustados de acordo com a demanda, você pode economizar durante períodos de menor utilização e ainda contar com ajustes diários previsíveis para planejar suas operações com eficiência.
Confira o comparativo entre os preços da Amazon AWS, Microsoft Azure, Google Cloud e OPEN DATACENTER:
Nvidia A100 specs
|
|
FP64 |
9.7 TFLOPS |
FP64 Tensor Core |
19.5 TFLOPS |
FP32 |
19.5 TFLOPS |
Tensor Float 32 (TF32) |
156 TFLOPS, 312 TFLOPS |
BFLOAT16 Tensor Core |
312 TFLOPS, 624 TFLOPS |
FP16 Tensor Core |
312 TFLOPS, 624 TFLOPS |
INT8 Tensor Core |
624 TOPS, 1248 TOPS |
GPU Memory |
80GB HBM2e |
GPU Memory Bandwidth |
1,935GB/s |
Max Thermal Design Power (TDP) |
300W |
Multi-Instance GPU |
Up to 7 MIGs @ 10GB |
Form Factor |
PCIe |
Interconnect |
NVIDIA® NVLink® Bridge for 2 GPUs: 600GB/s |
PCIe Gen4 |
64GB/s |
Server Options |
Partner and NVIDIA-Certified Systems™ with 1-8 GPUs |
Os servidores H100 contam com:
Até 8 GPUs NVIDIA® H100 de 80 GB, cada uma equipada com 16.896 núcleos CUDA e 528 núcleos Tensor.
Essas GPUs representam o topo da linha atual da NVIDIA, entregando desempenho incomparável para aplicações de inteligência artificial.
O módulo SXM5 NVLINK, que atinge uma largura de banda de memória de 2,6 Gbps e permite comunicação ponto a ponto (P2P) com velocidade até 900 GB/s.
Processadores AMD Genoa de quarta geração com até 384 threads, operando com frequência máxima de 3,7 GHz.
A configuração 8H100 utiliza o mesmo número de vCPUs que a 4H100, mas se destaca no desempenho da CPU ao aproveitar apenas os núcleos físicos, dispensando o uso de hyper-threads.
Aplicações GPU H100
Treinamento de modelos gigantes de IA, simulações massivas,
IA generativa e HPC
Análise em TR
IA para análise em tempo real, como em sistemas de direção autônoma e segurança.
Simulação de Linguagem
IA para criação de conteúdos e simulação de linguagem natural em grande escala.
Pesquisas Avançadas
Pesquisas científicas avançadas e simulações complexas, como em física de partículas.
Comparação de custos com GPU OPEN e outros players
Economize até 59% em instâncias de GPU
A OPEN DATACENTER oferece uma alternativa flexível e econômica para instâncias de GPU na nuvem. Com preços ajustados de acordo com a demanda, você pode economizar durante períodos de menor utilização e ainda contar com ajustes diários previsíveis para planejar suas operações com eficiência.
Confira o comparativo entre os preços da Amazon AWS e OPEN DATACENTER:
Nvidia H100 specs
|
|
FP64 |
26 TFLOPS |
FP64 Tensor Core |
51 TFLOPS |
FP32 |
51 TFLOPS |
TF32 Tensor Core |
756 TFLOPS |
BFLOAT16 Tensor Core |
1,513 TFLOPS |
FP16 Tensor Core |
1,513 TFLOPS |
FP8 Tensor Core |
3,026 TFLOPS |
INT8 Tensor Core |
3,026 TOPS |
GPU Memory |
80GB |
GPU Memory Bandwidth |
2TB/s |
Decoders |
7 NVDEC, 7 JPEG |
Max Thermal Design Power (TDP) |
300-350W |
Multi-Instance GPUs |
Up to 7 MIGs @ 10GB each |
Form Factor |
PCIe, dual-slot, air-cooled |
Os servidores L4 contam com:
Até 8 GPUs NVIDIA® L4 com 48 GB cada, oferecendo 18.176 núcleos CUDA e 568 núcleos Tensor por unidade.
A largura de banda da memória alcança 864 GB/s com capacidade de desempenho do Tensor de 1466 Tflops, do Núcleo RT de 212 Tflops e Precisão simples de 91,6 Tflops.
Os servidores otimizados para a L4 utilizam processadores de última geração, garantindo desempenho estável e escalável para atender às demandas de operações de grande porte.
Na configuração de VMs com múltiplas L4, é possível alocar os recursos de forma flexível, proporcionando uma combinação perfeita de custo-benefício e alta performance.
Aplicações GPU L4
Inferência e aceleração de vídeo, aplicações de IA otimizadas
para baixo consumo de energia
Aplicação de Streaming
Aplicações de streaming e transcodificação de vídeo ao vivo.
Sistemas e Dispositivos
IA aplicadas em dispositivos de baixo consumo, como sistemas IoT e dispositivos embarcados.
Processamento de Vídeo
Processamento de vídeo e imagem para câmeras de segurança inteligentes.
Comparação de custos com GPU OPEN e outros players
Economize até 59% em instâncias de GPU
A OPEN DATACENTER oferece uma alternativa flexível e econômica para instâncias de GPU na nuvem. Com preços ajustados de acordo com a demanda, você pode economizar durante períodos de menor utilização e ainda contar com ajustes diários previsíveis para planejar suas operações com eficiência.
Confira o comparativo entre os preços da Amazon AWS, Microsoft Azure, Google Cloud e OPEN DATACENTER:
Nvidia L4 specs
|
|
FP32 |
30.3 TFLOPs |
TF32 Tensor Core |
120 TFLOPs |
FP16 Tensor Core |
242 TFLOPs |
BFLOAT16 Tensor Core |
242 TFLOPs |
FP8 Tensor Core |
485 TFLOPs |
INT8 Tensor Core |
485 TOPs |
GPU Memory |
24GB |
GPU Memory Bandwidth |
300 GB/s |
NVENC, NVDEC, JPEG Decoders |
2, 4, 4 |
Max Thermal Design Power (TDP) |
72W |
Form Factor |
1-slot low-profile, PCIe |
Interconnect |
PCIe Gen4 x16 64GB/s |
Server Options |
Partner and NVIDIA-Certified Systems with 1-8 GPUs |
Os servidores RTX 3090 contam com:
Até 8 GPUs NVIDIA® RTX 3090, cada uma equipada com 10.496 núcleos CUDA e 328 núcleos Tensor, projetadas para oferecer desempenho extremo em aplicações intensivas.
Com processadores Intel Xeon Scalable de alta performance, é possível obter até 48 threads e frequências de boost otimizadas para workloads exigentes.
A tecnologia NVLink garante comunicação direta entre GPUs com largura de banda elevada, ideal para cargas de trabalho paralelas e processamento de grandes volumes de dados.
Os servidores otimizados para a RTX 3090 permitem configurações flexíveis, combinando escalabilidade e eficiência para atender às mais variadas necessidades, desde modelagem 3D até treinamento de IA de última geração.
Aplicações GPU RTX 3090
Treinamento e inferência de IA em menor escala,
edição de vídeo, edição de animações e renderização em 3D
IA para Startups
Treinamento de modelos de IA em startups e ambientes de desenvolvimento.
Jogos e Simulações
Aplicações de realidade virtual em desenvolvimento de jogos e simulações.
Renderização
Produção de conteúdo, renderização 3D, edição de vídeo e design gráfico.
Nvidia RTX 3090 specs
|
|
GPU Architecture |
Ampere |
Process Size |
8 nm |
Transistors |
28.3 billion |
Bus Interface |
PCIe 4.0 x16 |
Base Clock |
1.40 GHz |
Boost Clock |
1.70 GHz |
Memory Clock |
19.5 Gbps |
Memory Size |
24 GB GDDR6X |
Memory Type |
GDDR6X |
Memory Bus |
384-bit |
Bandwidth |
936.2 GB/s |
Tensor Cores |
328 |
FP32 |
39.7 TFLOPS |
FP64 |
1.25 TFLOPS |
CUDA Cores |
10,496 |
Os servidores RTX 4090 contam com:
Até 8 GPUs NVIDIA® RTX 4090, cada uma equipada com 16.384 núcleos CUDA e 512 núcleos Tensor, projetadas para oferecer desempenho de ponta em aplicações de alta demanda, como inteligência artificial, simulações e renderizações avançadas.
Com suporte a processadores Intel Xeon Scalable, os servidores oferecem até 48 threads e frequências otimizadas para garantir eficiência máxima.
A tecnologia NVLink possibilita comunicação direta entre GPUs, oferecendo alta largura de banda para operações paralelas e transferências de dados em larga escala.
Os servidores otimizados para a RTX 4090 proporcionam configurações flexíveis, combinando alto desempenho e eficiência energética para atender às demandas de profissionais que buscam soluções robustas e escaláveis.
Aplicações GPU RTX 4090
Aplicações de IA e Machine Learning em menor escala,
desenvolvimento de jogos, simulações e realidade virtual
Prototipagem de IA
Testes e prototipagem de modelos de IA em fases iniciais de pesquisa.
Simulações Interativas
Desenvolvimento de simulações interativas em ambientes de treinamento e jogos.
Edição de Vídeo
Desenvolvimento de animação, edição de vídeo e efeitos especiais.
Nvidia RTX 4090 specs
|
|
Model Name |
GeForce RTX™ 4090 GAMING X TRIO 24G |
Graphics Processing Unit |
NVIDIA® GeForce RTX™ 4090 |
Interface |
PCI Express® Gen 4 |
Core Clocks |
2610 MHz, Boost: 2595 MHz |
CUDA® CORES |
16,384 Units |
Memory Speed |
21 Gbps |
Memory |
24GB GDDR6X |
Memory Bus |
384-bit |
Output |
DisplayPort x 3 (v1.4a), HDMI™ x 1 |
HDCP Support |
Yes |
Power Consumption |
450 W |
Power Connectors |
16-pin x 1 |
Recommended PSU |
850 W |
Card Dimensions (mm) |
337 x 140 x 77 mm |
Weight (Card / Package) |
2170 g / 3093 g |
DirectX Version Support |
12 Ultimate |
OpenGL Version Support |
4.6 |
Maximum Displays |
4 |
G-SYNC® Technology |
Yes |
Digital Maximum Resolution |
7680x4320 |
Os servidores RTX 4000 contam com:
Até 8 GPUs NVIDIA® RTX 4000, cada uma equipada com 7.680 núcleos CUDA e 240 núcleos Tensor, projetadas para oferecer desempenho superior em gráficos avançados e processamento de dados.
Com suporte a processadores Intel Xeon Scalable, esses sistemas proporcionam até 48 threads e frequências otimizadas para atender às demandas de aplicações de alto desempenho.
A tecnologia NVLink possibilita uma comunicação eficiente entre GPUs, oferecendo alta largura de banda para maximizar a produtividade em cargas de trabalho paralelas.
Os servidores configurados com GPUs RTX 4000 são ideais para aplicações como design gráfico, renderização, simulações e inteligência artificial, combinando flexibilidade e performance para ambientes corporativos exigentes.
Aplicações GPU RTX 4000
Computação gráfica de alto desempenho, visualização,
design e modelagem 3D
Visualização Realista
Criação de visualizações realistas para arquitetura e construção.
Aplicações Detalhadas
Aplicações de visualização científica e técnica com gráficos detalhados e precisos.
Ambientes de Design
Ambientes de design de produtos, engenharia e simulação de CAD.
Nvidia RTX 4000 specs
|
|
GPU Memory |
20GB GDDR6 |
Memory Interface |
160-bit |
Memory Bandwidth |
280 GB/s |
Error Correcting Code |
Yes |
Architecture |
NVIDIA Ada Lovelace |
CUDA Cores |
6,144 |
Tensor Cores (Fourth-generation) |
192 |
RT Cores (Third-generation) |
48 |
Single-Precision Performance |
19.2 TFLOPS |
RT Core Performance |
44.3 TFLOPS |
Tensor Performance |
306.8 TFLOPS |
System Interface |
PCIe 4.0 x 16 |
Power Consumption |
Total board power: 70 W |
Thermal Solution |
Active |
Form Factor |
2.7” H x 6.6” L, dual slot |
Encode/Decode Engines |
2x encode, 2x decode (+AV1 encode and decode) |
VR Ready |
Yes |
vGPU Software Support |
No |
Graphics APIs |
DirectX 12, Shader Model 6.6, OpenGL 4.65, Vulkan 1.35 |
Compute APIs |
CUDA 11.6, OpenCL 3.0, DirectCompute |
NVIDIA NVLink® |
No |