Nel settore dei chip per intelligenza artificiale, Amazon Trainium3 segna la nuova mossa di Amazon Web Services per competere con i colossi dei semiconduttori.
Amazon accelera sul chip AI di nuova generazione
La divisione cloud di Amazon.com Inc. ha accelerato il lancio della più recente versione del proprio chip dedicato all’intelligenza artificiale, con l’obiettivo di avvicinarsi alle soluzioni di Nvidia e Google.
Il nuovo acceleratore, denominato Trainium3, rappresenta l’ultima evoluzione dell’offerta hardware proprietaria di Amazon per il calcolo ad alte prestazioni nei data center.
Prime installazioni nei data center AWS
Secondo quanto dichiarato da Dave Brown, vicepresidente di Amazon Web Services, il chip è stato installato di recente in alcuni data center dell’azienda e integrato nell’infrastruttura cloud.
Inoltre, Brown ha precisato che la nuova soluzione sarà resa disponibile ai clienti a partire da martedì, aprendo l’accesso alle capacità di elaborazione avanzata per modelli di AI sempre più complessi.
Tecnologia a 3nm e posizionamento competitivo
Il processore Amazon Trainium3 è costruito su tecnologia a 3nm, un nodo produttivo di ultima generazione che consente maggiore densità di transistor e migliori prestazioni energetiche rispetto alle generazioni precedenti.
Tuttavia, il lancio avviene in un contesto in cui Nvidia e Google hanno già consolidato la propria presenza nel mercato dei chip AI, ponendo un’asticella elevata in termini di potenza di calcolo e adozione.
Strategia AWS nel mercato dei chip AI
Detto ciò, l’arrivo di Trainium3 conferma la strategia di AWS di sviluppare componenti personalizzati per ottimizzare costi e prestazioni delle proprie istanze cloud dedicate all’intelligenza artificiale.
Nel complesso, la scelta di anticipare il rilascio del chip e di distribuirlo rapidamente in più data center suggerisce la volontà di Amazon di rafforzare il proprio ruolo competitivo nel 2024 nel settore dei servizi AI gestiti.
