AI-terhelése a felhőben: A Google végül kiadja a TPU béta verzióját

Videó: A Google arról, hogy a TensorFlow Lite hogyan segíti az intelligens telefonok jobb intelligenciájának kiépítését. Pete Warden, a TensorFlow mobil / beágyazott csapata vezetõje a Google-nak a gépi tanulás elõmozdításában a telefonokhoz és az egyablakos számítógépekhez.
Csúszdalap, hangmagasság vagy prezentáció építése? Itt vannak a nagy elvihetők:
  • A Google kiadta Cloud TPU gépi tanulási gyorsítóját bétaverzióban, amely elősegítheti a gépi tanulási modellek képzését.
  • Azoknak a vállalkozásoknak, amelyek fokozott figyelmet fordítanak a gépi tanulásra és az AI-re, a Google Cloud Platformot munkaterhelésük szempontjából megvalósítható lehetőségnek kell tekinteni.

A Google hétfőn engedte a béta-tenzoreket feldolgozó egységeit (TPU) a Google Cloud Platformon, ezáltal nagy lehetőséget kínálva a vállalkozások számára, hogy fokozzák erőfeszítéseiket a mesterséges intelligencia (AI) és a gépi tanulás területén.

A blogbejegyzés útján bejelentett TPU-k nagy előrelépést tesznek a gépi tanulási modellek képzésének felgyorsítása felé - olyan modelleket hoznak létre, amelyeket napról-hétre, vagy akár több napról a másikra lehet kiképzni. A Google először néhány évvel ezelőtt jelentette be a TPU-kkal folytatott munkáját, de most engedi őket felhőalapú ügyfeleik számára.

A TPU-k kiadása növeli a számítási lehetőségek számát azon vállalkozások számára, amelyek komoly gépi tanulást és AI-t szeretnének végezni a felhőben. 2017 októberében az Amazon Web Services (AWS) az NVIDIA Tesla V100 GPU-kat elérhetővé tette az EC2-ben számos más gépi tanulási eszköz között, és a Microsoft ugyanezeket a GPU-kat is elérhetővé tette 2017 végén a HPC és AI munkaterhelésekhez.

Tekintettel az AI és a gépi tanulás egyre növekvő jelentőségére, a munkaterhelések feldolgozásának és ezeknek a modelleknek a képessége a legfontosabb felhő-szolgáltatók között asztali tétekké válik. A Google elnevezte magát, mint az egyik legfontosabb nevet a gépi tanulásban és a mélyreható tanulásban, és a TPU-k rendelkezésre állásának komoly szempontot kell figyelembe venniük azon felhőalapú ügyfelek számára, akik helyet keresnek az AI és a gépi tanulás terhelésének futtatására.

A blogbejegyzésében a Google a Cloud TPU-kat „a Google által tervezett hardveres gyorsítók családjává írja le, amelyeket úgy optimalizáltak, hogy felgyorsítsák és növeljék a TensorFlow-nal programozott ML-terheléseket”. Ezek a gyorsítók 2015 óta erőt jelentenek a Google adatközpontok mögött, amint azt testvérhelyünk, a ZDNet megállapítja, és 180 teraflops lebegőpontos teljesítményt kínálnak egyetlen táblán - mondta a levél. A Google I / O nemrégiben megrendezett eseményén, Sundar Pichai vezérigazgató elmondta, hogy a Google átgondolja számítási architektúráját az "első AI-adatközpontok" felépítésére.

Ahelyett, hogy fürtöt kellene megosztaniuk, az adattudósok hozzáférést kapnak a hálózathoz csatlakoztatott Cloud TPU-hoz egy Google Compute Engine virtuális gépen keresztül - mondta a post. Vezérelhetik és testreszabhatják azokat, hogy megfeleljenek munkaterhelésüknek.

A TPU-k kínálatán kívül a Google Cloud Platform hozzáférést biztosít a CPU-khoz, például az Intel Skylake sorozathoz, és a GPU-khoz, mint például a fent említett NVIDIA Tesla V100. A felhő-TPU számlázását a második számítja a Cloud TPU-nkénti, óránként 6, 50 USD áron, mondja a post.

Egy külön bejegyzésben a Google azt is bejelentette, hogy a Kubernetes Engine GPU-ja bétaverziós. Ezek lendületet adhatnak a gépi tanulás és a képfeldolgozás hasonló erőfeszítéseinek.

Felhő és minden, mint szolgáltatási hírlevél

Ez a forrás az AWS, a Microsoft Azure, a Google Cloud Platform, az XaaS, a felhőbiztonság és még sok más legfrissebb verziójáról. Hétfőn

Regisztrálj még ma

© Copyright 2021 | mobilegn.com