Google wprowadza nowy hosting TPU w chmurze dla sztucznej inteligencji i uczenia maszynowego

Jednostki przetwarzające tensor drugiej generacji (TPU) ogłoszone w 2017 roku we / wy Google

Google jako firma nieustannie wprowadza nowe technologie, które mogą radykalnie zmienić całe branże i zmienić cywilizację ludzką, a jedne z najlepszych ogłoszeń prasowych są zarezerwowane do publikacji na dorocznej konwencji I / O. W tym roku Sundar Pichai (CEO), Jeff Dean (Research) i Urs Hölzle (Google Cloud) ogłosili równocześnie ogłoszenia o czasie, które skutecznie uruchomiły całkowicie nową formę hostingu w chmurze opartą na uczeniu maszynowym i sztucznej inteligencji. Google opracował nowy typ serwera komputerowego z zaawansowanymi jednostkami przetwarzania Tensor lub TPU, które działają w celu optymalizacji procesów uczenia maszynowego dla AI w sposób podobny do sposobu, w jaki GPU działają w zaawansowanym matematycznym renderowaniu szybkiej grafiki komputerowej lub w przyspieszaniu Bitcoin górnictwo. Google zamierza udostępnić serwery uczenia maszynowego do badań i rozwoju standardów Open Source poprzez plany przetwarzania w chmurze, które można zaprogramować za pomocą TensorFlow, "biblioteka oprogramowania typu open source dla Machine Intelligence." Uruchomienie hostingu w chmurze TPU jest jedną z głównych zalet zmiany Google od "najpierw mobilny" do "Najpierw AI" firma i symbol jej celu rozwoju "Najpierw AI" centra danych we wszystkich bieżących operacjach biznesowych.

Jednostki przetwarzające tensor drugiej generacji (TPU) ogłoszone w 2017 roku we / wy Google

TensorFlow – biblioteka oprogramowania Open Source do analizy maszyn

Ogłoszenie hostingu w chmurze TPU stanowi potencjalnie ważny moment dla gier internetowych, zarządzania centrum danych i rozwoju aplikacji. Wiele osób zaczęło przyjmować ogłoszenia Google I / O z mniejszym entuzjazmem po ogromnym szumie wokół Google Wave i Google Glass nie udało się rozwinąć w realne nowe produkty. Jednak platforma Android ogłoszona podczas Google I / O 2008 skalowała się, aby przekroczyć 2 miliardy instalacji urządzeń w mniej niż 10 lat. Filozoficzne przejście Google z "najpierw mobilny" do "Najpierw AI" firma została już wdrożona wewnętrznie, a zmiany znajdują się w wielu istniejących aplikacjach wyszukiwania, zdjęciach, wiadomościach e-mail, mapach i aplikacjach językowych. Wprowadzając usługi hostingowe Cloud TPU oparte na platformie TensorFlow oraz całkowicie nowy typ komputera w chmurze opracowanego pod kątem unikalnych wymagań uczenia maszynowego i sztucznej inteligencji, Google jako firma udowadnia, że ​​wciąż jest o stosunkowo lata świetlne przed konkurencją..

Analitycy branżowi pospieszyli, aby obliczyć szacunkowy wpływ platformy hostingowej Cloud TPU na Intel, AMD, & Nvidia po ogłoszeniu We / Wy, ponieważ główni producenci układów i firmy projektujące układy GPU zareagowały na najnowszą premierę produktów Google. Wyraźnie sztuczna inteligencja i uczenie maszynowe mają niemal nieograniczony potencjał jako sektory nowego sprzętu & tworzenie oprogramowania w IT. Według komunikatu prasowego pojedyncze serwery TPU Google dostarczają "do 180 teraflopów wydajności zmiennoprzecinkowej … kapsułka TPU zawiera 64 TPU drugiej generacji i zapewnia do 11,5 petaflopów w celu przyspieszenia szkolenia pojedynczego dużego modelu uczenia maszynowego." Zoptymalizowane pod kątem sztucznej inteligencji serwery w chmurze mogą być wykorzystywane do tworzenia nowych aplikacji do zaawansowanego rozpoznawania mowy, tłumaczenia głosu, wyszukiwania obrazów i wielu innych celów w badaniach, przemyśle, nauce i projektowaniu. Google promuje korzystanie z AI & uczenie maszynowe w celu ponownego przemyślenia tradycyjnych problemów we wszystkich głównych sektorach przemysłu w celu opracowania nowych innowacyjnych produktów na rynek.

Jednym z powodów, dla których nowe serwery TPU zostały opracowane przez Google, jest optymalizacja ewolucji AI poprzez wykorzystanie sieci neuronowych w uczeniu maszynowym. Obejmuje to rozwijanie zdolności komputerów do "widzieć" i "Rozumiesz" co jest na obrazie, a także prowadzi do nowego potencjału w komputerze "przesłuchanie" poprzez rozpoznawanie głosu i "czytanie" poprzez optyczne rozpoznawanie tekstu. Opieka zdrowotna, badania biotechnologiczne, medycyna, sekwencjonowanie genetyczne, astrofizyka, fizyka kwantowa, biologia, chemia, architektura, & inżynieria – Google szuka sposobu na skalowanie z obecnego środowiska, w którym badania nad sztuczną inteligencją i uczenie maszynowe w sieciach neuronowych są przede wszystkim domeną doktorantów informatyki do zastosowania innowacji w różnych sektorach społeczeństwa i przemysłu. Będzie to wymagało setek tysięcy profesjonalnych programistów i programistów AI / ML, dzięki czemu TensorFlow jest potencjalnie cenną platformą do udostępniania kodu open source podczas tworzenia nowych aplikacji. Google.ai to kolejny projekt, który reprezentuje zbiór ekspertów z różnych działów Google, którzy pracują nad tym, aby wszystkim zapewnić korzyści płynące z AI poprzez badania stosowane i rozwój nowych produktów konsumenckich w oparciu o głębokie uczenie & sieci neuronowe.

Film wprowadzający: TensorFlow (2017)

TensorFlow: Uczenie maszynowe Open Source – "TensorFlow to biblioteka oprogramowania typu open source do obliczeń numerycznych z wykorzystaniem wykresów przepływu danych. Opracowany pierwotnie przez naukowców i inżynierów pracujących w zespole Google Brain w organizacji badawczej Google Intelligence w celu prowadzenia uczenia maszynowego i badań głębokich sieci neuronowych." Śledź TensorFlow na Twitterze.

Platforma Google Cloud TPU – Przyspieszone uczenie maszynowe dla nowej generacji aplikacji

Platforma chmurowa Google obejmuje obecnie procesory Skylake firmy Intel, procesory graficzne Nvidia oraz nowe serwery TPU uruchomione przez wewnętrzne zespoły badawczo-rozwojowe w firmie. Tensor Processing Unit (TPU) to układ ASIC (układ scalony specyficzny dla aplikacji), który ma wiele wątpliwości, czy najnowsze badania Google doprowadziły go do rozwoju, który przewyższy Intel, AMD, & Nvidia w projektowaniu układów sztucznej inteligencji i uczenia maszynowego. Najbliższe produkty branżowe, które konkurują z TensorFlow, to Nervana Engine i Nervana Cloud opracowywane przez Intela za pomocą platformy do głębokiego uczenia opartej na Pythonie. Nvidia wypuściła układ uczenia maszynowego Volta (seria V100) wraz z zastrzeżonym akceleratorem uczenia głębokiego (DLA). Przetwarzanie falowe’s Architektura przepływu danych to kolejny ekosystem produktów rozpoczynających działalność w tym sektorze. Google opublikowało obszerne wyniki testów ze swoich centrów danych, które porównują wydajność Tensor Processing Unit (TPU) z procesorem Intel Haswell i kartą graficzną Nvidia K80. Ogólnie badania Google wykazały, że "w naszych obciążeniach AI związanych z produkcją, które wykorzystują wnioskowanie z sieci neuronowej, TPU jest od 15 do 30 razy szybsze niż współczesne procesory graficzne i procesory." Chociaż niektórzy kwestionują fakt, że serwerów TPU można używać tylko z platformą TensorFlow do programowania nowych aplikacji, jasne jest, że opracowywanie nowych produktów przy użyciu sprzętu Google TPU dopiero się zaczyna.

Jednostki przetwarzające tensor drugiej generacji (TPU) ogłoszone w 2017 roku we / wy Google

Google Cloud TPU Hosting – "Po wygaśnięciu prawa Moore’a wielu architektów komputerowych uważa, że ​​znaczne ulepszenia w zakresie efektywności energetycznej i kosztów muszą teraz pochodzić ze sprzętu specyficznego dla domeny. Tensor Processing Unit (TPU), wdrażany w centrach danych Google od 2015 r., To niestandardowy układ, który przyspiesza głębokie sieci neuronowe (DNN)." Dowiedz się więcej o Google Cloud TPU Hosting.

2017 TensorFlow Dev Summit: Machine Learning, AI, & Chmura obliczeniowa

TensorFlow to jedna z najbardziej zaawansowanych platform dostępnych obecnie na świecie do opracowywania Al & Aplikacje ML na fundamentach open source. Zapowiedzi badawcze przedstawione przez techników Google podczas szczytu programistów TensorFlow w 2017 r. Podkreśliły różnorodność i nieoczekiwany charakter oprogramowania zbudowanego przez programistów wykorzystujących sieci neuronowe na arenie międzynarodowej. Niezależnie od tego, czy medycyna, rolnictwo, nauka, przemysł, sztuka, muzyka, finanse, biznes, lotnictwo czy inżynieria, niezależni programiści, informatycy, badacze akademiccy, twórcy i hobbystycy, wszyscy wykorzystali narzędzia dostępne w kodzie TensorFlow w tworzeniu nowych aplikacji do produktywnego użytku w ich lokalnych środowiskach. To, co pozostaje do zobaczenia, to sposób, w jaki te nowe osiągnięcia w dziedzinie przetwarzania w chmurze i Internetu "Internet przedmiotów" przejdzie do aplikacji internetowych poprzez rozpoznawanie tekstu, eksplorację danych, generowanie memów, obraz & wyszukiwanie wideo itp. w nowej generacji stron internetowych opartych na sztucznej inteligencji i aplikacji mobilnych na poziomie ML na popularnym poziomie. TensorFlow jest już używany przez AirBNB, ARM, DeepMind, DropBox, eBay, Google, IBM, Intel, Qualcom, SAP, Snapchat, Twitter, Uber i inne główne firmy w codziennych operacjach biznesowych. To, co nastąpi później, będzie prawdopodobnie jeszcze bardziej transformujące niż zmiany wprowadzone przez postęp w dziedzinie przetwarzania w chmurze i technologii mobilnych. Platforma TensorFlow buduje także ścieżkę do szerszej transformacyjnej społecznie wizji sztucznej inteligencji i uczenia maszynowego, promowanej przez starszego badacza Google’a Ray Kurzweil w jego serii książek na temat "osobliwość". Konkurencyjne standardy handlowe opracowane przez Google, Intel, Nvidia, IBM, Microsoft, & inne firmy na tym etapie zbiorowego rozwoju AI / ML wskazują również na ogromny potencjał zysków ekonomicznych z początkowych inwestycji finansowych w tym sektorze komercyjnym.

Najważniejsze wideo: Google I / O 2017

Keynote Google I / O – "Organizowanie informacji o świecie … poprzez zastosowanie głębokiej informatyki i wiedzy technologicznej w celu rozwiązywania problemów na dużą skalę." Śledź CEO Google Sundar Pichai na Twitterze.

TensorFlow R&D – Zasoby platformy dla programistów ML & Programiści AI

Podczas gdy uczenie maszynowe, sieci neuronowe i programowanie sztucznej inteligencji były od pokoleń materiałem badawczym dla specjalistów z dziedziny informatyki, uruchomienie platformy Google TensorFlow i ogłoszenie hostingu Cloud TPU z nowym sprzętem dowodzi, że innowacje z tego sektora wreszcie docierają do głównego nurtu. Jednak nie wszystkie badania i rozwój TensorFlow ograniczają się do naukowców lub działów IT z listy Fortune 500. Na platformie TensorFlow rośnie liczba zasobów internetowych, takich jak:

  • Społeczność TensorFlow
  • Kod TensorFlow na GitHub
  • Biblioteka wektoryzacji operatora
  • Samouczki TensorFlow
  • Uczenie maszynowe za pomocą TensorFlow
  • Kanał programisty Google

Rozwój branży w zakresie przetwarzania w chmurze, aplikacji do dużych zbiorów danych, uczenia maszynowego, sztucznej inteligencji, Internetu rzeczy i drukowania trójwymiarowego wydaje się być gotowy do integracji na kolejnym poziomie technologii centrum danych, czego przykładem jest uruchomienie sieci pod Google Cloud TPU.

Jednostki przetwarzające tensor drugiej generacji (TPU) ogłoszone w 2017 roku we / wy Google

Przyspieszone uczenie maszynowe – "Uczenie maszynowe (ML) może znacznie uprościć nasze życie. Ulepszenia rozpoznawania mowy i rozumienia języka pomagają nam wszystkim w bardziej naturalny sposób współdziałać z technologią. Firmy polegają na ML w celu zwiększenia bezpieczeństwa sieci i ograniczenia oszustw. Postępy w obrazowaniu medycznym możliwe dzięki ML mogą zwiększyć dokładność diagnoz medycznych i poszerzyć dostęp do opieki, ostatecznie ratując życie." Dowiedz się więcej o chmurze TPU Hosting z TensorFlow.

Deep Neural Networks (DNN): Deep Learning & Aplikacje do autonomicznej jazdy

Google nadal pozostaje tajemnicą własnych badań korporacyjnych nad autonomicznymi platformami komputerowymi do prowadzenia pojazdów oraz tego, w jaki sposób odnosi się to do nowych osiągnięć branży w dziedzinie obliczeń TPU, sztucznej inteligencji, uczenia maszynowego i robotyki. Nie jest to zaskakujące, ponieważ branża motoryzacyjna stoi u progu dużego wprowadzenia na rynek rewolucyjnej nowej technologii prowadzenia pojazdów w wielu firmach, modelach transportu konsumenckiego i konkurencyjnych platformach OS. Prawie wszystkie największe firmy motoryzacyjne i korporacje IT na arenie międzynarodowej, a także niezliczone małe firmy zajmujące się tworzeniem oprogramowania dla start-upów, pracują nad przełomowym wprowadzeniem autonomicznych pojazdów do prowadzenia pojazdów w ciągu najbliższych kilku lat. Procesor Navidii Xavier jest ściśle związany z układem Volta, który jest wykorzystywany w jego platformie do głębokiego uczenia się, ale procesor graficzny Xavier wykorzystuje matematykę tensorową do zasilania Nvidii "Drive PX" oprogramowanie do autonomicznej jazdy z zaawansowanym AI. Prawdopodobnie kierownictwo Google postrzega badania sprzętu TPU jako istotną część rozwoju przyszłości autonomicznych pojazdów napędzanych przez Google Maps, AI, & oprogramowanie do uczenia maszynowego, takie jak TensorFlow, na wyższym poziomie. Poszukaj w przyszłości kolejnych ogłoszeń od Google na temat rozwoju technologii autonomicznej jazdy w połączeniu ze sprzętem serwerowym TPU nowej generacji do nauki głębokiej.

Keynote Video – TensorFlow Dev Summit 2017

Google Developers – "Jeff Dean, Rajat Monga i Megan Kacholia wygłaszają przemówienie na inauguracyjnym szczycie deweloperów TensorFlow. Dyskutują: Początki TensorFlow; Postęp od czasu TensorFlow’uruchomienie open source; TensorFlow’prężnie rozwijająca się społeczność typu open source; Wydajność i skalowalność TensorFlow; Aplikacje TensorFlow na całym świecie … i dzielą się ekscytującymi ogłoszeniami!" Dowiedz się więcej o TensorFlow Dev Summit 2017.

Jeffrey Wilson Administrator
Sorry! The Author has not filled his profile.
follow me