대화형 AI 등 다음 단계의 도전 과제에 대해 AI 모델을 트레이닝하는 데는 엄청난 컴퓨팅 성능과 확장성이 필요합니다.
Tensor Float(TF32)를 갖춘 NVIDIA A30 Tensor 코어 는 코드를 변경할 필요 없이 NVIDIA Volta보다 최대 10배 높은 성능과 더불어 자동 혼합 정밀도 및 FP16으로 추가적인 2배의 성능 향상을 보여주며 합쳐 20배 높은 처리량 향상을 제공합니다. NVIDIA® NVLink, PCIe Gen4, NVIDIA 네트워킹 및 NVIDIA Magnum IO™ SDK와 결합할 때 수천 개의 GPU로 확장 가능합니다.
Tensor 코어와 MIG를 통해 A30을 하루 내내 워크로드에 동적으로 사용할 수 있습니다. 수요가 피크일 때 프로덕션 추론에 사용할 수 있으며, GPU의 일부는 목적을 변경하여 피크 시간이 아닐 때 같은 모델을 재트레이닝할 수 있습니다.
NVIDIA는 AI 트레이닝에 대한 업계 전반의 벤치마크인 MLPerf, 에서 여러 성능 기록을 세웠습니다.
트레이닝을 위한 NVIDIA Ampere 아키텍처에 대해 자세히 알아보기 ›