AWS ने अपने कस्टम इनफेरेंटिया अवरिंग चिप्स को लॉन्च किया

इसके पुन: आविष्कार सम्मेलन में, AWS ने आज अपने Inferentia चिप्स को लॉन्च करने की घोषणा की, जिसकी शुरुआत उसने पिछले साल की थी। ये नए चीप अवर बनाने का वादा करते हैं, अर्थात, पहले से प्रशिक्षित मशीन लर्निंग मॉडल का उपयोग करके, काफी तेज और प्रभावी लागत।

जैसा कि एडब्ल्यूएस के सीईओ एंडी जेसी ने उल्लेख किया है, बहुत सारी कंपनियां कस्टम चिप्स पर ध्यान केंद्रित कर रही हैं जो आपको मॉडल को प्रशिक्षित करते हैं (हालांकि Google और अन्य निश्चित रूप से वहां असहमत होंगे)। नियमित सीपीयू पर अच्छी तरह से काम करने के लिए इंफ्रारेडिंग का काम चलता है, लेकिन कस्टम चिप्स स्पष्ट रूप से तेज होने जा रहे हैं। Inferentia के साथ, AWS EC4 पर नियमित G4 उदाहरण की तुलना में 40% कम लागत पर प्रति विलंबता और तीन गुना थ्रूपुट प्रदान करता है।

नए Inf1 उदाहरणों में 2,000 TOPS का वादा किया गया है और TensorFlow, PyTorch और MXNet के साथ एकीकरण की सुविधा है, साथ ही चौखटे के बीच चलने वाले मॉडल के लिए ONNX प्रारूप भी है। अभी के लिए, यह केवल EC2 कंप्यूट सेवा में उपलब्ध है, लेकिन यह जल्द ही AWS की कंटेनर सेवाओं और अपनी SageMaker मशीन सीखने की सेवा में भी आ जाएगा।