Amazon Web Services hat auf der Konferenz re:Invent 2025 eine neue Generation eigener KI-Beschleuniger präsentiert. Kernstück ist der Trainium3-Chip, gefertigt in einem 3-Nanometer-Prozess und eingebettet in eine überarbeitete AWS-Netzwerkarchitektur. Die Kombination soll deutlich höhere Rechen- und Speicherleistung liefern als bisherige Modelle.
Das dazugehörige UltraServer-System ist für große Trainingscluster ausgelegt und kann pro Einheit 144 Trainium3-Chips aufnehmen. Nach Unternehmensangaben lassen sich mehrere Tausend dieser Server zusammenschalten, womit sich Installationen mit bis zu einer Million Chips realisieren lassen. Damit erweitert AWS den möglichen Ausbauumfang gegenüber der vorherigen Generation erheblich.
Ein weiterer Schwerpunkt liegt auf dem Energiebedarf: AWS beziffert die Effizienzsteigerung im Vergleich zum Vorgänger auf rund 40 Prozent. Angesichts wachsender Lasten in globalen Rechenzentren stellt das Unternehmen die verbesserte Energiebilanz als zentralen Entwicklungsschritt heraus.
Mehrere Unternehmen setzen Trainium3 bereits produktiv ein, um die Kosten für KI-Inferenz zu senken. Parallel arbeitet AWS an einem Nachfolgemodell. Der geplante Trainium4 soll mit Nvidias NVLink-Fusion-Technik kompatibel sein, wodurch sich die AWS-Chips enger mit Nvidia-GPUs kombinieren lassen. Ziel ist es, die Systeme in bestehende CUDA-basierte Entwicklungsumgebungen einzubinden und zugleich die kosteneffiziente Serverarchitektur beizubehalten.