Zaznacz stronę

AI – Inteligentne przetwarzanie wspomaga sztuczną inteligencję

AI

Inteligentne przetwarzanie wspomaga sztuczną inteligencję.
Przyspiesz swoje aplikacje AI dzięki najnowocześniejszym rozwiązaniom wiodącego na świecie innowatora technologii komputerowych.

Główny dostawca kompleksowych rozwiązań AI

Inspur dostarcza wiodące na świecie rozwiązania w zakresie sztucznej inteligencji (AI), najnowocześniejszy sprzęt, kompleksowe oprogramowanie dla systemów sztucznej inteligencji oraz funkcje optymalizacji dla aplikacji AI.

SR-AI Rack

Najnowocześniejszy produkt sprzętowy

AIStation

Kompleksowy pakiet zarządzania

Caffe-MPI

Zoptymalizowana struktura

Rozwiązania

Inspur dostarcza docenianą na świecie platformę obliczeniową (GPU / MIC / FPGA), kompleksowe oprogramowanie systemu, optymalizację aplikacji i rozwiązania pionowe dla środowiska AI.

Co nowego

Innowacje w rozwiązaniach dla sprzętu komputerowego dały silny bodziec do rozwoju sztucznej inteligencji. Firma Inspur dokłada wszelkich starań, by dostarczyć swoim użytkownikom wyjątkowe platformy komputerowe AI. Jesteśmy jedynym producentem, który ma możliwość dostarczenia kompletnego zestawu gotowych rozwiązań dla sztucznej inteligencji. Inspur jest ważnym partnerem i dostawcą dla światowych dostawców CSP, takich jak Baidu, Tencent i Alibaba. Platformy AI marki Inspur są szeroko stosowane w autonomicznej technologii samochodowej, rozpoznawaniu obrazu i głosu.

Najważniejsze informacje

Oprócz próbek danych z dużą liczbą tagów, modeli tzw. głębokiego uczenia się (ang. Deep learning) oraz algorytmów, kluczową kwestią jest wysoka wydajność platformy systemowej. Deep learning obejmuje szkolenie w trybie offline i identyfikację online.
W przypadku tego pierwszego można zastosować architekturę systemu klastrowego o wysokiej wydajności, która wykorzystuje połączenie szybkiej sieci GPU/KNM+IB/10GE/25GE i rozproszony, równoległy system przechowywania danych.

Szkolenia i testowanie są coraz częściej niezbędne ze względu na stale rosnące próbki plików obrazów o wielkości 100 milionów pikseli i głosu 100 000 godzin. Skutkuje to również wzrostem wymagań dotyczącym wydajności równoległego przechowywania z dużą pojemnością oraz dużą przepustowością z woluminami danych na poziomie PB.
Długi okres procesu szkolenia i testów wymaga nie tylko przyspieszenia GPU, ale także równoległego przetwarzania systemów klastrowych dużej skali.

W przypadku niektórych modeli parametry osiągną poziom równy miliardowi, a zatem potrzebują szybkiej sieci o dużej przepustowości i małym opóźnieniu, w celu zapewnienia szybkiej aktualizacji parametrów pomiędzy węzłami oraz konwergencję modeli.
Jeśli chodzi o identyfikację online, potrzeba tysięcy węzłów do zapewnienia usług zewnętrznych, co jest poważnym wyzwaniem dla obniżenia zużycia energii. Rozwiązaniem tego problemu może być wykorzystanie struktury FPGA o niskim poziomie poboru mocy.

Architektura systemu platformy Inspur Deep Learning

Inspur stworzył holistyczne rozwiązanie systemowe, uwzględniające tzw. głębokie uczenie się, łączące rozwiązania przeznaczone do równoległego przechowywania danych z akceleracją węzłów obliczeniowych, poprzez szybkie sieci i zagwarantowanie usług transmisji danych. Odpowiednim rozwiązaniem do szkoleń i testów offline są przyspieszone węzły obliczeniowe, które przyjmują układy GPU o dużej mocy z dużą wydajnością obliczeniową, zmiennoprzecinkową z pojedynczą precyzją lub wykorzystują karty przyspieszenia KNM, jeśli jest to tylko możliwe.

Z drugiej strony, przyspieszone węzły obliczeniowe używane do identyfikacji online przyjmują układy GPU o małej mocy z potężną mocą obliczeniową INT8 lub układami FPGA o niskiej mocy, dostosowane do programów rozpoznawania.
Platforma Inspur AIStation umożliwia zarządzanie zadaniami, interfejs logowania, dostosowywanie parametrów i innych usług. Platform do głębokiego uczenia się, obsługuje poprzez węzły obliczeniowe TensorFlow, Caffe i CNTK.

AIStation umożliwia również monitoring stanu oraz tworzenie harmonogramów dla węzłów i innych komponentów przyspieszenia obliczeniowego. Cały zestaw platform zapewni wsparcie dla aplikacji opartych na sztucznej inteligencji najwyższego poziomu.

W przyszłości nastąpi integracja szkoleń i testów w trybie offline z identyfikacją online. Dzięki temu dane offline zostaną przetestowane a następnie uwzględnione w tworzeniu nowych modeli, które zostaną wykorzystane do aktualizacji danych online.

Jednym z możliwych trendów do realizacji unifikacji online-offline dla głębokiego uczenia się, może być wysoce wydajna struktura systemu o niskim poborze mocy, która łączy szybką sieć GPU + FPGA + IB oraz rozproszone, równoległe przechowywanie.

Enkapsulacja (hermetyzacja) zasobów Deep Learning

Obecne struktury głębokiego uczenia się typu open source, uzależnione są od bibliotek różnych podmiotów (stron trzecich), a w zależności od wykorzystywanej wersji struktury znacząco różnią się między sobą. Takie rozwiązania uznawane są za nieprzyjazne rozwojowi sztucznej inteligencji.

Problemy pojawiają się m.in. w chwili, gdy konieczna jest szybka iteracja wersji (wielokrotne zmiany). Częste aktualizacje systemów operacyjnych i bibliotek stron trzecich powodują wiele niepotrzebnych dodatkowych nakładów pracy dla programistów.

Rozwiązania Inspur ujednolicają szyfrowanie zasobów szkieletów głębokiego uczenia i bibliotek zależnych od jednego schematu. Dzięki temu schemat ten można załadować w dowolnym momencie na dowolnej platformie Inspur.

Użytkownicy mogą natychmiast rozpocząć pracę i skutecznie poprawić swoją produktywność, ponieważ ich nowe środowisko pracy jest całkowicie zgodne z oryginalnymi, macierzystymi warunkami pracy. Rozwiązania Inspur wspierają rozproszone mapowanie pamięci, przechowywanie, planowanie, zarządzanie i monitorowanie serwerów lustrzanych. Systemy Deep Learning firmy Inspur wykorzystują technologię enkapsulacji (hermetyzacji) zasobów w celu poprawy wydajności wdrażania głębokiego uczenia się i produktywności tworzenia aplikacji. Jednocześnie oferują zoptymalizowaną integrację technologii enkapsulacji zasobów i rozwiązań systemowych.

Dostarczenie kompleksowego systemu

System Deep Learning marki Inspur dostarcza nie tylko kompleksowy zestaw sprzętu, ale także kompleksowe usługi rozwiązań systemowych.

  • Konsultacje dotyczące scenariuszy aplikacji i projektowanie rozwiązań systemowychW celu zaprojektowania rozwiązań systemowych odpowiednich do scenariuszy aplikacji, eksperci Inspur ds. rozwiązań AI wraz z użytkownikami końcowymi wspólnie omawiają scenariusze aplikacji Deep learning, analizują tzw. gorące punkty i wąskie gardła obliczeniowe.
  • Transfer i optymalizacja kodów aplikacjiW celu poprawy wydajności obliczeniowej aplikacji i skrócenia czasu, eksperci Inspur ds. aplikacji heterogenicznych pomagają i wspierają klientów w analizie cechy kodów CPU. Taki sposób działania pozwala określić, czy migracja do heterogenicznych komponentów przyspieszenia jest odpowiednia, a transfer optymalny.
  • Holistyczne rozwiązania integrujące oprogramowanie i sprzętInspur posiada nie tylko obszerną linię produktów serwerowych, szybką sieć i produkty do równoległego przechowywania danych typu „Deep learning”, ale także platformę do zarządzania oprogramowaniem AIStation oraz narzędzia Teye do analizy funkcji głębokiego uczenia się. Kompleksowe rozwiązania, które integrują oprogramowanie i sprzęt, mogą zapewnić pełną funkcjonalność schematów pracy do głębokiego uczenia się.
  • Horyzontalna ocena wydajności elementów przyspieszenia obliczeniowegoNiezależna, pozytywna ocena firmy Inspur w zakresie układów GPU / FPGA / KNM i innych heterogenicznych komponentów przyspieszenia sprawia, że rozwiązania marki Inspur to najlepszy wybór.
  • Wdrożenie i rozlokowanie głównych schematów Deep learningRozwiązania Inspur dostosowane zostały do najpopularniejszych schematów i struktur deep learning, takich jak Caffe, TensorFlow i CNTK. Systemy Inspur wykorzystują enkapsulację kodów zasobów i plików pochodzących z bibliotek stron trzecich oraz tworzą obrazy, które można szybko wdrożyć na platformach. Takie rozwiązanie sprawia, że propozycje marki Inspur dotyczące Deep learning są łatwe do wdrożenia, proste w obsłudze i nie wymagają opanowania złożonych procedur wdrażania.