top of page

Atendimento
Fone: (43) 3367-8100 comercial@trinotecnologia.com.br
Infraestrutura e Licenciamento de Software
Servidores HPE com GPU Dedicado


A HPE possui um portfólio amplo de Servidores equipados com unidades de processamento gráfico (GPU) da Nvidia, equipamentos desenvolvidos para implementar rapidamente grandes modelos de aprendizado de máquina. Servidores de aplicativos de alto desempenho feito para inteligência artificial (IA), aprendizado de máquina e aprendizagem profunda..
.
Atuando como um processador complementar às CPUs, as GPUs aumentam exponencialmente a velocidade e as capacidades de processamento de um sistema. As GPUs executam aplicações de computação relacionadas a dados técnicos e científicos de forma acelerada, adicionando eficiência quando são integradas junto às CPUs.
Os Servidores HPE acelerados com GPUs, fornecem aos seus clientes um impulso para
A adoção contínua de cargas de trabalho de IA generativa, Machine Learning/Deep Learning e HPC.
A Trino Tecnologia é Revendedor Autorizado HPE. Servidores de alto desempenho desenvolvidos para suportar cargas de trabalho para aplicativos tradicionais e missão critica, ERP, CRM, SAP HANA, Banco de Dados, Virtualização, Inteligência Artificial, Big Data, HPC e Computação Gráfica.
Pagina
Processador
Suporte a Processadores
Geração Processador
Supore a Discos NVMe
Fator Foma/Chassi
Supore a Discos EDSFF
Suporte a GPUs
Rack 5U

Servidor
HPE Compute XD680
Carga de Trabalho:
O HPE ProLiant Compute XD680 é um servidor de alto desempenho projetado para atender a cargas de trabalho intensivas em Inteligência Artificial (IA), incluindo treinamento, ajuste e inferência de modelos complexos.
GPU:
Até 8x INTEL GAUDI 3 OAM
Armazenamento:
[2,5"/8 Baias SFF NVME]
Processador:
Até 2 x Intel® Xeon® Platinum de 5a Ger Processador, até 64C por CPU
Memória:
64GB/Max3TB
GPUs Suportadas:
8 X INTEL GAUDI OAM GPUs 128GB each
Rack 5U

Servidor
HPE Cray XD670
Carga de Trabalho:
Desenvolva e treine modelos maiores de IA com mais rapidez e acelere o tempo de obtenção de resultados com eficiência, precisão e insights detalhados sem precedentes.
GPU:
Até 8x NVIDIA H200 / H100
Armazenamento:
[2,5"/8 Baias SFF NVME]
Processador:
Até 2 x Intel® Xeon® Platinum de 4ª ou 5a Ger Processador, até 64C por CPU
Memória:
64GB/Max4TB
GPUs Suportadas:
8 x NVIDIA H200 SXM 700W TDP GPUs 141GB HBM each
8x NVIDIA H100 SXM 700W TDP GPUs with 80 GB HBM each
Rack 8U

Servidor
HPE Cray XD675
Carga de Trabalho:
O HPE Cray XD675 é um servidor de alto desempenho projetado para acelerar cargas de trabalho intensivas em Inteligência Artificial (IA) e Computação de Alto Desempenho (HPC)
GPU:
Até 8x AMD MI300X OAM
Armazenamento:
[2,5"/16 Baias SFF NVME]
Processador:
Até 4 x AMD® EPYC® Scalable Processors: “Genoa” de 4th Geração
Memória:
64GB/Max3TB
GPUs Suportadas:
8 X AMD MI300X OAM GPUs 192GB each
Rack 2U

Servidor
Proliant DL380a GEN11
Carga de Trabalho:
Servidor com capacidade de expansão avançada para GPUs que possa melhorar o desempenho de suas cargas de trabalho de inferência de IA
GPU:
Até 8x GPUs largura simples ou 4x largura dupla
Armazenamento:
[2,5"/8 Baias]
Processador:
Até 2 x Intel® Xeon® Platinum de 4ª Ger ou 5ª Ger Processador, até 64C por CPU
Memória:
32GB/Max3TB
GPUs Suportadas:
NVIDIA H100 NVL 94GB PCIe Accelerator
NVIDIA A100 80GB PCIe Accelerator
NVIDIA L40 48GB PCIe Accelerator
NVIDIA L40S 48GB PCIe Accelerator
NVIDIA L4 24GB PCIe Accelerator
Intel Data Center GPU Max 1100 48GB Accelerator
Rack 4U

Servidor
Proliant DL380a GEN12
Carga de Trabalho:
Servidor com capacidade de expansão avançada para GPUs com alto desempenho de suas cargas de trabalho de inferência de IA
GPU:
Até 8x GPUs largura dupla
Armazenamento:
[2,5"/8 Baias E3.S/SFF NVME]
Processador:
Até 2 x Intel® Xeon® Platinum de 6ª Geração Processador, até 144C por CPU
Memória:
64GB/Max4TB
GPUs Suportadas:
NVIDIA H200 NVL 141GB PCIe Accelerator
NVIDIA H100 NVL 94GB PCIe Accelerator
NVIDIA L40S 48GB PCIe Accelerator
NVIDIA L20 48GB PCIe GPU Accelerator
Rack 2U

Servidor
Proliant DL384 GEN12
Carga de Trabalho:
Otimizado para inferência de IA para grandes modelos de linguagem que exigem grande capacidade de memória e/ou cargas de trabalho não relacionadas a IA, como simulação em larga escala, EDA, previsão do tempo, etc.
GPU:
Até 2 x GPUs GH200 Grace Hopper™ Superchip
Armazenamento:
[08 Baias EDSFF NVME]
Processador:
Até NVIDIA GH200 Grace Hopper™ Superchip
Memória:
Até 1.2TB
GPUs Suportadas:
NVIDIA GH200 Grace Hopper™ Superchip
Rack 2U

Servidor
Proliant DL385 GEN11
Carga de Trabalho:
Solução de desempenho otimizada para aceleradores para executar suas cargas de trabalho de análise de IA, ML ou Big Data
GPU:
Até 8x GPUs largura simples e 4x de largura dupla
Armazenamento:
[3,5"/12 Baias]-[2,5"/24 Baias]-[EDSFF/36 Baias]
Processador:
Até 2 x Processadores AMD EPYC™ de 4ª geração, até 128C por CPU
Memória:
32GB/Max6TB
GPUs Suportadas:
NVIDIA H100 NVL 94GB PCIe Accelerator
NVIDIA H100 80GB PCIe Accelerator
NVIDIA L40 48GB PCIe Accelerator
NVIDIA L40S 48GB PCIe Accelerator
NVIDIA L4 24GB PCIe Accelerator
NVIDIA A16 64GB PCIe Non-CEC Accelerator
bottom of page