Amazon Web Services ha annunciato oggi Amazon Elastic Inference, un nuovo servizio che consente ai clienti di collegare l'accelerazione di inferenza basata su GPU a qualsiasi istanza Amazon EC2 e riduce i costi di apprendimento in profondità fino al 75%.
"Quello che vediamo in genere è che l'utilizzo medio di queste GPU di istanze P3 è compreso tra il 10 e il 30 percento, il che è piuttosto dispendioso con l'inferenza elastica. Non devi sprecare tutti quei costi e tutte quelle GPU ", ha detto Andy Jassy, amministratore delegato di AWS, sul palco della conferenza AWS re: Invent, che si tiene oggi. "[Amazon Elastic Inference] è un punto di svolta molto significativo nel riuscire a eseguire l'inferenza in modo molto più economico."Amazon Elastic Inference sarà disponibile anche per le istanze e gli endpoint di notebook Amazon SageMaker, "portando l'accelerazione agli algoritmi incorporati e agli ambienti di deep learning", ha scritto l'azienda in un post sul blog. Supporterà i framework di apprendimento automatico TensorFlow, Apache MXNet e ONNX.
We want our customers to have the right tools for the right job. We are pleased to announce Amazon Elastic Inference to allow customers to add elastic GPU support for scalable inference on any EC2 instance, to get great cost savings. #reInvent pic.twitter.com/7rbaM5O5QF
— AWS re:Invent (@AWSreInvent) November 28, 2018
È disponibile in tre dimensioni:
eia1.medium: 8 TeraFLOP di prestazioni a precisione mista.
eia1.large: 16 TeraFLOP di prestazioni a precisione mista.
eia1.xlarge: 32 TeraFLOP di prestazioni a precisione mista.
Immergiti nel nuovo servizio qui.
loading...