Hirdetés

AI-ra tervezett termékcsaláddal készül a szerverpiacra a Qualcomm

A Cloud AI 100 sorozat dedukcióra kigyúrt megoldás lesz, és a cég nagy ígérete, hogy tízszer jobb az aktuális megoldásoknál.

A Qualcomm bejelentette, hogy belépnek a szerverpiacra egy AI-ra tervezett termékcsaláddal, amely a Cloud AI 100 nevet viseli. A vállalat ezeket a gépi tanulás dedukció szakaszához szánja, ráadásul nem kevesebbet ígérnek, mint azt, hogy tízszer jobb lesz az aktuális legjobb megoldásoknál. Az előbbi állítás persze lóg a levegőben, hiszen nagy kérdés, hogy mit tart a cég a jelenlegi legjobbnak. Ez közel sem egyértelmű manapság, pláne akkor, ha a dedukcióhoz kialakított gyorsítókat nézzük. Annyit tudni, hogy a viszonyítás a GPU-kra és az FPGA-kra vonatkozik, ami azért csalóka megint, mert ezek teljesítménye eleve eléggé különböző az érintett feladatokban.



[+]

Sajnos magáról az architektúráról nem sokat tudni, ezeket a részleteket titkolja a vállalat. Annyi ismert, hogy ASIC-ról, vagyis az alkalmazásspecifikus integrált áramkörről van szó, és a fejlesztés a TSMC valamelyik 7 nm-es node-ján fog készülni. Az még nem világos, hogy hány lapkáról lesz szó. Lehet ugye egy chipet is tervezni, és arra kiadni számos különböző terméket.



[+]

Némileg kézzel foghatóbb adat, hogy a Cloud AI 100 elméletben minimum 50x gyorsabb lehet a Snadragon 820 AI tempójánál. Eközben a fogyasztás 20 és 75 watt között lesz, valószínűleg a teljesítménytől függően, továbbá a vállalat elárulta, hogy támogatni fogják a népszerű keretrendszereket (például PyTorch, Glow, TensorFlow, Keras és ONNX).

A Qualcomm szerint a Cloud AI 100 termékcsalád első mintáit még idén elkezdik szállítani, a megjelenés azonban csak jövőre esedékes, várhatóan ekkor azért már sokkal többet árulnak el a fejlesztésről.

Azóta történt

Előzmények

Hirdetés