AMD는 M1300X를 발표했습니다. 큰 언어 모델의 큰 메모리 요구를 해결하기 위해 추가로 64 기가바이트의 HBM3 메모리를 탑재했습니다. M1300X는 생성 AI를 위해 설계된 제품으로, 192 기가바이트의 HBM3와 5.2 테라바이트/초의 메모리 대역폭을 제공합니다. 12nm과 6nm 칩렛에 1530억 개의 트랜지스터가 있습니다. M1300X는 경쟁 제품과 비교했을 때 2.4배 더 많은 메모리와 1.6배 더 많은 메모리 대역폭을 제공합니다. 이러한 추가 메모리 용량으로 인해 대형 언어 모델을 직접 메모리에서 실행할 수 있어 GPU 수를 줄이고 성능을 크게 향상시킬 수 있으며 인프라 비용을 줄일 수 있습니다. 또한, AMD Instinct 플랫폼도 발표되었습니다. M1300X를 기존 인프라에 손쉽게 배포할 수 있는 플랫폼으로, 클라우드 제공업체와 엔터프라이즈 사용자에게 저렴한 비용으로 다양한 AI 작업을 실행할 수 있는 기회를 제공합니다. M1300a는 이미 샘플링이 시작되었으며, M1300X와 8개의 GPU Instinct 플랫폼은 3분기에 샘플링이 시작되고, 올해 4분기에 제품 런칭을 예정하고 있습니다.