JM Logo
Wróć

Kompletne rozwiązania sprzętowe dla AI – sprawdź ofertę

2021-02-26

Sprawdź naszą ofertę AI z Portalu B2B >>

Kim jesteśmy i dlaczego zajmujemy się sprzętem dla AI >>

Poznaj obopólne korzyści współpracy z naszymi Dostawcami >>

 

Sztuczna Inteligencja – Artifictial Intelligence (AI) – to wśród tych dostawców wyróżnia się firma IEI Integration Corp. W Polsce wiodącym partnerem IEI Integration Corporation jest firma JM elektronik, a historia wzajemnej współpracy obejmuje już okres ponad 15 lat. Rozwiązania łączące zróżnicowane dziedziny wiedzy: logikę, probablistykę, zbiory rozmyte, metody numeryczne, sieci neuronowe, techniki obróbki cyfrowej obrazów i szereg innych, które w wyniku powstawania coraz to nowych rozwiązań stają się coraz bardziej zalgorytmizowane.

Praktyczne zastosowania AI obejmują dzisiaj:

  • Automatyczne rozpoznawanie obrazów;
  • Klasyfikację obiektów;
  • Systemy kontroli jakości;
  • Systemy eksperckie;
  • Systemy diagnostyczne;
  • Systemy nadzoru bezpieczeństwa;
  • Kontrolę ruchu;

i wiele innych.

Sztuczna Inteligencja kojarzy się co prawda nieco na wyrost z cyfrowym bytem obdarzonym samoświadomością, w praktyce aplikacje AI maja wybitnie użytkowy charakter a liczba komercyjnych rozwiązań rośnie z postępem wykładniczym.

 

GRAND-C422

W tym miejscu warto przypomnieć artykuł o zastosowaniu Sztucznej Inteligencji w medycynie w szeregu procesów diagnostycznych. W związku z pandemią COVID-19 AI jest wykorzystywana skutecznie do rozpoznania infekcji na podstawie MRI, ale znane jest wykorzystanie sztucznej inteligencji także w rozpoznawaniu skoliozy, nowotworów jelita grubego, zmętnienia siatkówki i szeregu innych. W pierwszej fazie powstawania AI w zasobach platformy sprzętowej gromadzone są dane referencyjne.

 

Sztuczna inteligencja staje się coraz popularniejsza ponieważ dostępne są ustandaryzowane narzędzia wspierające twórców aplikacji.

Naszym zdaniem bez wkładu firmy Intel nie byłoby dziś tak dynamicznego rozwoju AI.

Firma Intel opracowała środowisko OpenVINO wraz z udostępnieniem transferu wiedzy w ogólnodostępnych kanałach Social Media. Intel opracował także szereg dedykowanych mikroprocesorów dla akceleratorów sprzętowych stosowanych w komputerach dla przyspieszenia działania AI.

Intel wspiera rozwój ekosystemu zbudowanego wokół OpenVINO, w skutek czego istnieje szereg rozwiązań współpracujących w dziedzinie uczenia maszynowego, sieci neuronowej i budowy modeli, rozpoznawania obrazu, a z pośród najpopularniejszych wymienić należy takie rozwiązania jak GitHub, Model Zoo, Caffe, mxnet, TensorFlow i wiele innych.

OpenVINO jak działa

Wiodący na świecie dostawcy komputerów współpracują z firmą Intel w opracowaniu sprzętu komputerowego wspierającego Sztuczną Inteligencję

Logo IEI

Wśród tych dostawców wyróżnia się firma IEI Integration Corp. W Polsce wiodącym partnerem IEI Integration Corporation jest firma JM elektronik, a historia wzajemnej współpracy obejmuje już okres ponad 15 lat.  

W praktyce logo IEI jest synonimem niezawodności.

 

Firma IEI specjalizuje się w projektowaniu i produkcji sprzętu komputerowego dedykowanego zastosowaniom przemysłowym. W praktyce oznacza to tyle, że komputery dostarczane przez IEI są dostosowane do pracy w trudnych warunkach, jak wibracje, wstrząsy, wysoka lub niska temperatura i do pracy ciągłej 7dni/24h. Często rozwiązania bezwentylatorowe, z wysokim stopniem szczelności IP, z preferencją wykorzystania dysków SSD o podwyższonej żywotności itp.

Popularność komputerów produkcji IEI wynika także z dobrego stosunku jakości do ceny. Aspiracją IEI od początku swojej działalności jest dostarczanie Klientom sprzętu wysokiej jakości w cenie nie stanowiącej bariery wejścia w nowe technologie.

 

Podstawowe założenia dla infrastruktury sprzętowej AI

 

Sztuczna Inteligencja zależnie od fazy projektu i rodzaju aplikacji wymaga innego wsparcia sprzętowego.

Na początku Sztuczna Inteligencja wymaga dużych zasobów na których opracowywany jest właściwy wyjściowy model. Wydajne serwery treningowe o hiperkonwergentnej architekturze (HCI) skalowalna w poziomie i wyposażone w akceleratory wspierają opracowanie wynikowego modelu AI.

Hiperkonwegwentna architektura

Wykonawcza warstwa aplikacji AIInference – to miejsce gdzie wpływające dane są interpretowane przez wytrenowany model, sieć neuronową – i w tej warstwie sprzętowej potrzeby Sztucznej Inteligencji są niższe, jak w serwerze treningowym.

Popularnym pojęciem spotykanym w projektach AI jest akcelerator, czyli przyspieszacz sprzętowy, zwiększający wielokrotnie wydajność podstawową komputera, na którym pracuje Sztuczna Inteligencja. Akceleratory wykorzystywane są zarówno w serwerze treningowym jak i w komputerach warstwy Inference.

Trzy warstwy

W sprzęcie dla sztucznej inteligencji opartej na OpenVINO spotykamy akceleratory oparte na procesorach Movidius Myriad i Arria opracowanych przez firmę Intel.

Serwer treningowy – training server

 

GRAND-C422

W pierwszej fazie powstawania AI w zasobach platformy sprzętowej gromadzone są dane referencyjne.

Dane te mogą znajdować się w chmurze, mogą mieć wielkie rozmiary, jednak podczas przygotowań do budowy modelu, nawet przy przetwarzaniu brzegowym, sprzęt powinien zapewnić duży rozmiar dostępnej pamięci dyskowej. Warto tutaj wskazać jako referencyjny serwer GRAND–C422 wyposażony aż w 20 slotów przeznaczonych na dyski. W serwerze GRAND firma IEI zapewniła także magistralę o większej prędkości transmisji danych.

Przetwarzanie danych wymaga wydajnego procesora, a w serwerze GRAND-C422 zastosowano procesory Intel Xeon 14nm w maksymalnej 18 rdzeniowej wersji z systemem chłodzenia wykorzystującym ciecz. Chłodzenie cieczą pozwoliło na zamknięcie mocy obliczeniowej w relatywnie niewielkich rozmiarów obudowie.

Schemat konstrukcyjny GRAND-C422 Budowa wewnętrzna GRAND-C422

 

Na zgromadzonych w serwerze treningowym danych wykonywany jest proces budowy właściwej AI. 

GRAND-C422 pełni rolę pełnowymiarowego serwera treningowego dla sztucznej inteligencji, umożliwiającego efektywna budowę mechanizmu wnioskującego w oparciu o zgromadzoną w zasobach dyskowych i/lub w chmurze bazę. GRAND-C422 zapewnia inżynierom wyspecjalizowanym w Sztucznej Inteligencji możliwość zainstalowania aż 4 akceleratorów. W maksymalnej konfiguracji może to być nawet 32 dodatkowych procesorów Movidius Myriad. Taka moc wymaga adekwatnego zasilania, które w przypadku serwera GRAND-C422 zamyka się w redundantym zasilaczu o mocy 1,6 kW.

GRAND-C422 kompatybilność

 

Akceleratory MUSTANG

 

IEI jest producentem całej rodziny akceleratorów MUSTANG opartych na mikroprocesorach Movidius Myriad i Arria produkcji Intel.

Akceleratory MUSTANG

Akceleratory z rodziny MUSTANG produkcji IEI są zróżnicowane pod względem liczby procesorów Movidius Myriad i zawierają ich od 1 do nawet 8 takich procesorów, zabudowanych na płytach ze złączami PCIe lub M.2.

Procesory Movidius Myriad wyróżnia przy ich wydajności niezwykła energooszczędność, co w rezultacie powoduje, że akcelerator MUSTANG zużywa wielokrotnie mniej energii jak porównywalna pod względem wydajności karta grafiki pochodząca z komercyjnego rynku.

Najmniejsze akceleratory Mustang zużywają zaledwie 5W mocy zasilania, a największe, 8 procesorowe, zaledwie 45W. Niskie zużycie energii ułatwia implementację akceleratorów w komputerach wykorzystywanych w warstwie wykonawczej Sztucznej Inteligencji – Inference.

 

Minimalne zużycie energii akceleratorów MUSTANG

Akcelerator z procesorem Myriad i złączem M.2

Niewielkie zużycie energii sprzyja mobilności (komputery montowane na wózkach, pojazdach, elementach ruchomych w razie potrzeby zasilane bateryjnie) oraz niezawodności (możliwość zamknięcia akceleratora wraz z komputerem w obudowie niewielkich rozmiarów z wysokim stopniem szczelności, bez ryzyka przegrzania elementów elektronicznych).

Złącze M.2 umożliwia uruchomienie akceleratora w komputerach przemysłowych, jednopłytkowych (singleboard), a niewielkie rozmiary płyty umożliwiają zamknięcie akceleratora wewnątrz niewielkiej obudowy Box komputera Embedded. 

 

Akcelerator z procesorem Myriad

Zastosowanie akceleratora w aplikacji AI w warstwie Inference powoduje np. dziesięciokrotny wzrost prędkości rozpoznawania twarzy, co w praktyce przekłada się na możliwość rozpoznawania kilkudziesięciu osób w zasięgu pojedynczej kamery w czasie krótszym niż jedna sekunda. To właśnie zastosowanie akceleratora pozwala na wdrożenie systemów kontroli temperatury na lotniskach, gdzie pomiar dokonywany jest w oparciu o odczyt z kamery termowizyjnej z rozpoznaniem twarzy w tym samym czasie dla kilkudziesięciu osób, z rozpoznaniem osób, którym pomiar już został dokonany w innej części lotniska.

 

Akcelerator z procesorem Arria

Akceleratorem wymagającym oddzielnej uwagi jest MUSTANG oparty na procesorze Arria. Jednostką centralna tego akceleratora to zaawansowany mikroprocesor FPGA, czyli układ, którego logikę można zaprogramować. Co prawda zastosowanie mikroprocesora FPGA wymaga specjalistycznej wiedzy od inżynierów projektujących sieć neuronową, to korzyści biegnące ze sprzętowej budowy układów logiki w aplikacjach, gdzie czas reakcji odgrywa kluczową rolę, są trudne do przecenienia, szczególnie w aplikacjach odpowiedzialnych za obronność czy bezpieczeństwo.

 

Akceleratory Innodisk

 

akceleratory Innodisk

Wśród rozwiązań z oferty JM elektronik znajdują się akceleratory Innodisk oparte na procesorach Movidus Myriad. Firma Innodisk jest zuannym producentem dysków SSD, pamięci RAM, szeregu rozwiązań embedded a także dostawcą autorskiego oprogramowania wspierającego zarządzanie sprzętem komputerowym, w szczególności w rozproszonej strukturze.
Akceleratory Innodisk przewidziane są do współpracy z wykorzystaniem złącza M.2 i PCIe, a niewielki rozmiar, pasywne chłodzenie, wytrzymałość na pracę w trudnych warunkach i niewielkie zużycie energii predystynuje te akceleratory do pracy w komputerach zabudowanych, typu Box.

 

 

Komputery warstwy wykonawczej - Inference

 

W warstwie wykonawczej Sztucznej Inteligencji – Inference -  wykonywany jest kod wynikowy, powstały na serwerze treningowym. Nasza firma wraz z IEI stawia do dyspozycji projektantów AI cały szereg komputerów spełniających zróżnicowane wymogi wynikowej warstwy Sztucznej Inteligencji, począwszy od mocnych jednostek, które w miarę potrzeby są nawet w stanie pełnić rolę serwerów treningowych, skończywszy na energooszczędnych, niewielkich gabarytowo, bardzo wytrzymałych mechanicznie komputerach do pracy na kodzie wynikowym w skrajnie trudnych warunkach.

 

RACK-500AI

 

Rack-500AI

RACK-500 AI to jednostka, która może z powodzeniem pełnić nawet rolę wydajnego serwera treningowego. Komputer wyróżnia się trwałą budową dostosowaną do montażu w systemie RACK. Jednostka jest wyposażona w procesor Intel Xeon E-2176G i do 64GB RAM DDR4, i co się rzadko zdarza przy tym procesorze, zakres temperaturowy w tym przypadku obejmuje temperatury ujemne, od -20 st C. wraz z możliwością instalacji wewnątrz obudowy dwóch akceleratorów.

Komputer został wyposażony w dużą liczbę portów I/O 2 porty USB 3.0, 6 portów USB 2.0, 2 x RJ-45, 3x RS-232, 1x RS-422/485. 

 

Komunikacja z kartami rozszerzeń odbywa się z wykorzystaniem pełnowymiarowego złącza PICMG w najnowszym, najszybszym standardzie PCIe Express Gen. 3.0 Komputer RACK-500 AI sprawdzi się doskonale jako wysokowydajny komputer warstwy wykonawczej z interfejsem graficznym wysokiej rozdzielczości – aż dwa wyjścia jakości 4K.

Stosunek jakości do ceny wydaje się szczególnie atrakcyjny w przypadku komputera RACK-500, tym bardziej, jeśli ma pełnić rolę zarówno serwera treningowego sztucznej inteligencji jak i Inference dla AI.

 

PAC-400AI-C236 

 

WYSIWYG - PAC-400AI-C236.jpg

PAC-400AI-C236 to komputer dedykowany dla AI posiadający chipset Intel Skylake C236 z procesorem Intel Xeon E3-1275 v5 (3,60 GHz, czterordzeniowy, TDP 80 W). Jest to mniejsza, desktopowa wersja podobna do wcześniej omawianego- RACK-500AI.

Posiada jedną wnękę na napęd 3,5” z możliwością zamontowania opcjonalnego dysku wymiennego jak i również zintegrowane jedno gniazdo rozszerzeń PCIe x16 i jedno PCIe x4 Gen3. Istnieje możliwość obsługi dodatkowych kart PCIe o maksymalnej długości 169 mm.

 

Warto podkreślić, iż cechuje go duża elastyczność rozbudowy sprzętu.

 

Tank-870 AI

 

Rack-500AI

TANK-870 AI to kolejna propozycja, która może pełnić zarówno rolę wysoce wydajnego komputera warstwy wykonawczej Inference Sztucznej Inteligencji, a w razie potrzeby także serwera treningowego. Developer Kit w nazwie związany jest z faktem, że wraz z komputerem dostarczany jest preinstalowany system Ubuntu 16.04 LTS oraz Intel Distribution of Open Visual Inference & Neural Network Optimization (OpenVINO) toolkit, oraz Intel Media SDK, Intel System Studio and Arduino Creator.Sztuczna inteligencja będzie Ci wdzięczna za wybór tego właśnie komputera dla postawienia Twoich pierwszych profesjonalnych projektów w AI.


Rodzina TANK jest popularnym rozwiązaniem w ofercie firmy IEI . Marka komputera TANK jest także dobrze znana w Polsce, gdzie komputery z tej rodziny znalazły wielu nabywców.

Ten konkretny komputer dla AI bazuje na wydajnym procesorze Xeon E3-1268LV5, i5 lub i7, z przestrzenią pamięci do 32GB RAM DDR4 (a więc mniej jak w RACK-500). 

Komputer został wyposażony w dużą liczbę portów I/O przeznaczonych do komunikacji z otaczającymi go urządzeniami automatyki przemysłowej. Posiada m.in. 4 porty USB 3.0, 4 porty USB 2.0, 2 x RJ-45, 2x RS-232/422/485 (DB9), 4x RS-232 (2x Rj-45, 2x DB-9 z ochroną izolacji do 2,5 KV), VGA, HDMI, wyjście liniowe i mikrofonowe oraz 2 porty LAN (Ethernet przemysłowy) a także we/wy cyfrowe 8 i 4-bitowe. 

Dwa sloty na magistrali PCIe przeznaczone są do podłączenia akceleratorów Mustang.

Zwarta i trwała konstrukcja umożliwia pracę przy wstrząsach i wibracjach, zgodnie z MIL-STD, a zakres temperaturowy pracy zaczyna się już od -20 st C.

W stosunku do komputera RACK-500 AI TANK jest konstrukcją o wiele bardziej zwartą. W miejsce obudowy dostosowanej do szafy Rack19” zastosowano stalowo-aluminiową konstrukcję o zewnętrznych wymiarach 121.5 x 255.2 x 205 mm co predysponuje ten komputer do zastosowania w aplikacjach działających w ograniczonej przestrzeni.

 

FLEX-BX200

 

FLEX-BX200

Komputery z rodziny FLEX to bardzo ciekawa konstrukcja dedykowana warstwie wykonawczej Inference Sztucznej Inteligencji, lecz także w roli serwera treningowego. Komputer dla sztucznej Inteligencji FLEX-BX200 może zostać wyposażony w procesor i3/i5/i7/Xeon E-2176G i aż 64GB pamięci RAM DDR4. 

Modułowa budowa umożliwia zainstalowanie w specjalnie do tego celu przeznaczonych przestrzeniach dwóch akceleratorów MUSTANG na magistrali PCIe oraz szeregu dysków.

 

Komputer FLEX-BX200 dedykowany sztucznej inteligencji posiada modułową i zwartą obudowę 357 x 230 x 88 mm (2U) umożliwiającą integrację z wyświetlaczem przemysłowym produkcji IEI, uzyskując w ten sposób zwartą konstrukcję komputera All-In-One. 

FLEX-BX200 posiada 6 portów USB 3.2 i dwa porty LAN GbE (RJ45) Komputer dla AI jakim jest FLEX-BX200 wyposażono wyłącznie w jedno wyjście HDMI.

Trudno tutaj mówić o tak wytrzymałej konstrukcji jak TANK czy RACK, nie mniej komputer zapewnia większą od przeciętnej wytrzymałość na wstrząsy i wibracje, a temperatura operacyjna zaczyna się już od -20 st.C Przemysłowy rodowód komputera można rozpoznać także po dostępności dwóch portów RS232 (DB-9).

Całość wyróżnia bardzo dobry stosunek jakości do ceny, gdyż FLEX-BX200 w sprzyjającej konfiguracji można nabyć za cenę niemal dwukrotnie niższą, jak podobnie skonfigurowany komputer TANK.

 

DRPC-230

 

DRPC-230

Komputer dla sztucznej inteligencji DRPC-230 wyróżnia się jeszcze bardziej zwartą budową jak seria TANK.

Ten komputer powstał z myślą o jego umieszczeniu w szafach zawierających automatykę przemysłową z montażem na szynie DIN. Rozmiary zaledwie 190 x 150 x 81/127 mm mieszą procesor Intel i5 i dwa sloty dla pamięci RAM DDR4 (max 32GB).

Komputer może zostać wyposażony w jeden akcelerator MUSTANG (w specjalnej kieszeni), do wyboru Mustang-V100-MX8, Mustang-V100-MX4, z 8 lub 4 procesorami Movidus Myriad co predysponuje ten komputer do zastosowania w warstwie wykonawczej Inference sztucznej Inteligencji.

 

Komputer da AI DRPC-230 to w pełni komputer przemysłowy, odporny na wstrząsy i wibracje zgodnie z MIL-STD i zakresem temperaturowym pracy od -20 stC.

Unikalną cechą tego komputera jest – oprócz wielu portów - 7 portów USB (w tym 6 USB 3.2) , 3 porty do Ethernetu przemysłowego, 4x RS-232/422/485 (DB9), 2x RS-232 (RJ/45),– możliwość zamontowania karty Ethernet PoE z 4 wyjściami RJ45. Komputer został wyposażony w jedno wyjście HDMI.

Komputer DRPC może więc zasilać 4 urządzenia IP poprzez kabel Ethernet i można sobie wyobrazić aplikację do wizualnej kontroli jakości czy automatycznej identyfikacji osób wykorzystującej sztuczną inteligencję, z zastosowaniem 4 kamer IP wysokiej rozdzielczości, zasilanej z wykorzystaniem PoE.

Cena zakupu komputera DRPC-230 jest wyższa, jak w przypadku podobnie skonfigurowanego komputera FLEX, lecz niższa w porównaniu adekwatnie wyposażonym komputerem TANK.

 

ITG-100 AI

 

ITG-100 AI

Komputer ITG-100 AI jest dedykowany aplikacjom mobilnym wyposażonym w sztuczną inteligencję. Przy rozmiarach porównywalnych z większą mydelniczką 137 x 103 x 49mm komputer oferuje wydajność procesora Intel ATOM X5 wspartego akceleratorem MUSTANG na złączu M.2 z dwoma procesorami Movidius Myriad i 8GB pamięci RAM DDR3.

Ten komputer, o wiele mniejszy gabarytowo jak DRPC, nie jest proporcjonalnie tańszy, gdyż jest to komputer niezwykle wytrzymały mechanicznie (MIL-STD) operujący od -20StC i pozbawiony wszelkich ruchowych elementów wpływających na bezawaryjność. Komputer w całości bazuje na pasywnym chłodzeniu – bezwentylatorowa konstrukcja. 

 

W warstwie wykonawczej Inferencje sztucznej inteligencji komputer ITG-100 AI doskonale sprawdzi się we wszelkiego rodzaju aplikacjach mobilnych, umieszczanych w pojazdach, wózkach widłowych i wszędzie tam, gdzie zasilanie jest istotnie ograniczone, a przestrzeń do zabudowy wręcz mikroskopijna. Maksymalna moc pobierana przez ten komputer to zaledwie niecałe 15W.

Komputer posiada 2 wyjścia USB 3.0, 2x GbE LAN, 2x RS-232/422/485, 1x VGA.

 

Przydatny osprzęt

W ofercie firmy JM elektronik znajduje się pozycji przydatnych w opracowaniu i eksploatacji rozwiązań Sztucznej Inteligencji. Spośród propozycji JM elektronik znajda Państwo urządzenia komunikacyjne - jak karty Ethernet ze złączami RJ45 i możliwością zasilania PoE.

 

GPOE-6P-R10

 

iEi GPOE-6P-R10

Karta iEi GPOE-6P-R10 posiada aż 6 portów RJ45 które można wykorzystać w aplikacjach takie jak podłączenia kamer IP, telefonów VoIP, gateways, wyświetlaczy czy panelowych komputerów przemysłowych komunikujących się poprzez Ethernet a zasilanych z wykorzystaniem PoE. 

 

Firma iEi zapewnia narzędzia programistyczne do GPOE do zarządzania i sterowania każdym portem PoE. Narzędzia mogą kontrolować moc, monitorować prędkość i przetwarzać transfery danych przez sieć Ethernet LAN. Karta działa pod kontrolą systemu Windows i Linux.

 

GPOE-4P-R20

 

iEi GPOE-4P-R20

GPOE-4P-R20 to karta procesorowa autorstwa iEi. Zasilana z wykorzystaniem PoE. Posiada 4 porty 1000 Base(T). Przy pełnym obciążeniu obsługuje do 90W. Do jej cech należy również obsługa agregacji łączy i ramek jumbo (9 Kb).

 

GPOE-2P-R20

 

WYSIWYG - GPOE-2P-R20.jpg

GPOE-2P-R20 to karta PCI Express obsługująca standard IEEE 802.3at dla PoE (Power over Ethernet)- 30W na port. Posiada 2-porty 1000 Base(T). Również obsługuje agregację łączy oraz ramek jumbo (9 Kb) jak i zasilanie wejściowe 12V~24V DC.

 

 

Jetson autorstwa NVIDIA i komputery ARM

 

Nie można w rozważaniach o platformie sprzętowej dla AI pominąć środowisko Jetson promowane przez NVIDIA i komputery ARM, bazujące na systemie operacyjnym Android/Linux. 

NVIDIA buduje ekosystem firm wokół sztucznej inteligencji Jetson i skłania swoich Partnerów do dzielenia się wiedzą na Portalu NVIDIA Developer.

NVIDIA DEVELOPER

Na portalu tym oraz w kanałach Social Media, w szczególności na niezwykle popularnym kanale Youtube  można znaleźć wielogodzinne prelekcje, prezentacje, case-studies, poradniki i video-kursy.

Środowisko programistyczne Jetson SDK jest wspierane przez takich dostawców frameworków do uczenia maszynowego jak: TensorFlow, PyTorch, Caffe2, Keras, MXNet, Theano.

NVIDIA oparła swoją ofertę Jetson na szeregu akceleratorów, certyfikując ich producentów oraz platformy, w ramach kanału partnerskiego.

 

Logo Aetina

Z dumą prezentujemy markę Aetina, naszego Partnera Biznesowego i Preferowanego Partnera NVIDIA, producenta zarówno akceleratorów, komputerów ARM i kompletnych rozwiązań, zawierających zarówno akcelerator jak i dedykowaną mu platformę komputerową. 

W ofercie JM elektronik znajdą Państwo rozwiązania sprzętowe dedykowane do współpracy dla wszystkich akceleratorów z rodziny Jestson: NANO, TX2, Xavier NX i AGX.

 

Komputery Aetina dedykowane poszczególnym akceleratorom z rodziny Jetson

 

 

AN110-NAO dla akceleratora NANO

Aetina Jestson AN110-NAO

 

Akcelerator NANO oparty jest na czterordzeniowym procesorze A57 MPCore zbudowanym w architekturze ARM, z procesorem graficznym NVIDIA Maxwell z 4 GB pamięci i 128 rdzeniami NVIDIA CUDA 0,5 TFLOP (FP16). 

 

 

Aetina Jestson AN110-NAO

Komputer jednopłytkowy AN110-NAO jest dedykowany akceleratorowi Jetson Nano, który działa pod kontrolą procesora Cortex A57 Quad-Core. AN110-NAO został zaprojektowany z myślą o niewielkiej powierzchni przeznaczonej dla urządzenia. Ponadto może pracować w szerokim zakresie temperatur -20 ° C do 55 ° C. To sprawia, że idealnie nadaje się do aplikacji wbudowanych o ograniczonej przestrzeni w wymagających środowiskach. 


Prezentowana platforma znajdzie zastosowanie m.in. w dronach, obrazowaniu medycznym, modelowaniu 3D, automatycznej kontroli optycznej i bramach AI.

AN310/AN510/AN622-TX2 dla akceleratora TX2

 

Aetina dla Jetson TX-2

Dzięki akceleratorowi Jetson TX2 można uruchamiać rozległe, głębokie sieci neuronowe. Jetson TX2 posiada procesor graficzny z rodziny NVIDIA Pascal z 256 rdzeniami CUDA i wyposażono go w 8 GB pamięci o przepustowości 59,7 GB/s a także 32 GB eMMC 5.1.  

Akcelerator Jetson TX2, oprócz procesora Pascal, posiada także 64-bitowy, dwurdzeniowy procesor Denver 2 i czterordzeniowy procesor ARM A57. 

 

Dzięki temu bardzo dobrze sprawdza się w przetwarzaniu danych w czasie rzeczywistym, szczególnie w rozwiązaniach, w których opóźnienia w przetwarzaniu danych mogą stanowić problem, jak roboty, samojezdne wózki magazynowe, komercyjne drony czy inteligentne kamery dla Smart City. 

Aetina dla Jetson TX-2

 

AN310-TX2 to komputer obsługujący moduł kamery Multi MIPI CSI-II. Dzięki elastycznej konfiguracji do 12 ścieżek złącza CSI za pośrednictwem modułu rozszerzeń CSI-II lub FPD-LINK III można zainstalować 6 kamer 2-torowych 2M lub 3 kamery 4K 4-torowe.  

 

 

AN310-TX2 może pracować w temperaturach od -25 ° C do 80 ° C. Jego niewielkie rozmiary pomagają opracować aplikację do obserwacji 360 ° w pojazdach, dronach, robotach, monitoringu i automatyzacji. 

 

Aetina dla Jetson TX-2

AN510-TX2 to jedna z najmniejszych platform Aetiny. Powstał dla wymagających obliczeniowo wbudowanych aplikacji AI wymagających niewielkich rozmiarów platformy sprzętowej.  

AN510-TX2 posiada takie same wymiary co akcelerator Jetson TX2 (87mm x 50mm). Został wykonany z wykorzystaniem solidnych komponentów, zapewniając wysokiej jakości transfer danych nawet w temperaturze od -20 ° C do 70 ° C. 

 

AN510-TX2 idealnie nadaje się do wykorzystania w aplikacjach pracujących w wymagających środowiskach i o ograniczonej przestrzeni, np. w przenośnych urządzeniach medycznych czy robotach.  

Aetina dla Jetson TX-2

AN622-TX2 to platforma zaprojektowana w celu udostępnienia Sztucznej Inteligencji szeregu interfejsów z myślą o wsparciu aplikacji wymagających szybkiego i łatwego przetwarzania grafiki i sztucznej inteligencji. Lista portów jest długa, a wśród nich znajdują się także porty RS obsługujące CANbus.

AN622-TX2 jest idealny do wykorzystania w monitoringu, dronach, autonomicznej robotyce, inteligentnej automatyzacji, AOI i wdrożeniach głębokiego uczenia o wysokiej wydajności. 

 

AN622-TX2 został zaprojektowany w obudowie Nano-ITX (120mm x 120mm). Zapewnia wysokiej jakości przesyłanie danych nawet w temperaturze od -20 ° C do 70 ° C. Dzięki temu AN622-TX2 może pracować w aplikacjach działających w wymagających środowiskach. 

 

AN110-XNX-EN70 dla akceleratora Xavier NX

 

Aetina Jestson Xavier NX

Jetson Xavier NX zapewnia urządzeniom brzegowym wydajność superkomputera, zawartą w niewielkim formacie typu system-on-module (SOM). Posiada wydajność obliczeń dochodzącą do 21 TOPS i może równolegle uruchamiać nowoczesne sieci neuronowe i przetwarzać dane z wielu czujników o wysokiej rozdzielczości. 

Aetina Jetson Xavier NX posiada 8GB pamięci 128-bitowej LPDDR4x o przepustowości wynoszącej ponad 51 GB/s. 

 

Jetson Xavier NX posiada wiele trybów poboru mocy. Jednym z nich jest tryb niskiego poboru mocy dedykowany dla systemów zasilanych bateryjnie, zapewniając zarówno moc obliczeniową aplikacjom AI  (10W przy 14 TOPS) jak i czujnikom i urządzeniom peryferyjnym. 

 


Aetina Jestson Xavier NX

AN110-XNX-EN70 posiada wymiary 120 x 100 x 72,7 mm. Oferuje prace w szerokim zakresie temperaturowym wynoszącym - 20 ° C do 55 ° C.

AN110-XNX-EN70 znajduje zastosowanie w urządzeniach medycznych, inteligentnych kamerach, czujnikach o wysokiej rozdzielczości, AOI. 

 

AX710-X32 dla akceleratorów Xavier AGX

 

Aetina Jestson Xavier AGX

Jetson AGX Xavier, to najbardziej wydajny akcelerator z serii NVIDIA Jetson. 

Jetson AGX Xavier posiada procesor graficzny z rodziny NVIDIA Volta z 512 rdzeniami CUDA i 64 rdzeniami Tensor, 32 GB pamięci a także 32 GB eMMC 5.1. Akcelerator Jetson AGX Xavier, oprócz procesora Volta, posiada także 64-bitowy, ośmiordzeniowy procesor ARM v8.2. 

 

 

Aetina Jestson AN110-NAO

AX710-X32 dzięki rozszerzeniu karty LAN 10G i kamerze 4K może przechwytywać obraz o wysokiej rozdzielczości i przesyłać wyniki wnioskowania do serwera lub chmury. 

AX710-X32 posiada wymiary 112 mm x 107 mm i może pracować w szerokim zakresie temperaturowym pracy wynoszącym od -25 ° C do 80 ° C. 

 

AX710-X32 oparty na akceleratorze Jetson AGX pomaga w opracowywaniu aplikacji VID (Video-Image-Detection) o wysokiej rozdzielczości, w robotyce, AOI, logistyce magazynowej, inspekcji, służbie zdrowia czy handlu detalicznym. 

Jeśli chcesz razem z nami zgłębiać tajniki AI skontaktuj się pod adresem iit[at]jm.pl

Chętnie odpowiemy na zapytania techniczne i cenowe.

Sprawdź naszą ofertę AI z Portalu B2B >>

Kim jesteśmy i dlaczego zajmujemy się sprzętem dla AI >>

Poznaj obopólne korzyści współpracy z naszymi Dostawcami >>

 

Polecane produkty

article-image
Baterie i superkondensatory dla IoT, czujników i opomiarowania mediów
article-image
Urządzenia Adeunis dla rozwiązań IoT z LoRaWAN - sprawdź ofertę
Ozdobna grafika stopki
System B2B by

Używamy informacji zapisanych za pomocą cookies i podobnych technologii m.in. w celach statystycznych oraz w celu dostosowania naszego sklepu do indywidualnych potrzeb klientów. W programie służącym do obsługi internetu można zmienić ustawienia dotyczące cookies. Korzystanie z naszego sklepu internetowego bez zmiany ustawień dotyczących cookies oznacza, że bedą one zapisane w pamięci urządzenia. Więcej informacji można znaleźć w naszej polityce prywatności