Ożyw swoje produkty nowej generacji dzięki najpotężniejszym na świecie komputerom AI do energooszczędnych maszyn autonomicznych. Dzięki generatywnej AI na urządzeniach brzegowych, platformom NVIDIA Metropolis i Isaacrozwiązanie Jetson oferuje na wyciągnięcie ręki skalowalne oprogramowanie, nowoczesny stos AI, elastyczne mikrousługi i interfejsy API, gotowe do produkcji pakiety ROS oraz charakterystyczne dla aplikacji procesy AI. Moduły NVIDIA® Jetson Orin™ zapewniają wydajność rzędu nawet 275 TOPS (bilionów operacji na sekundę), ośmiokrotnie wyższą w porównaniu z poprzednią generacją w zakresie uruchamiania wielu jednoczesnych potoków wnioskowania AI oraz obsługę szybkich interfejsów dla wielu czujników. Jest to rodzina, która idealnie sprawdzi się w nowej erze robotyki, obejmująca siedem różnych modułów opartych na tej samej architekturze – od podstawowego Jetson Orin Nano™ do najbardziej wydajnego Jetson AGX Orin™.
Zestawy programistyczne NVIDIA Jetson Orin umożliwiają opracowywanie w pełni funkcjonalnych aplikacji AI do produktów opartych na modułach Jetson Orin.
Moduły NVIDIA Jetson Orin oferują przyspieszoną moc obliczeniową na różnych poziomach wydajności i w różnych cenach oraz nadają się do różnych zastosowań autonomicznych.
Jetson z serii AGX Orin | Jetson z serii Orin NX | Jetson z serii Orin Nano | |||||||
Zestaw programistyczny Jetson AGX Orin | Jetson AGX Orin 64 GB | Jetson AGX Orin Industrial | Jetson AGX Orin 32 GB | Jetson Orin NX 16 GB | Jetson Orin NX 8 GB | Zestaw programistyczny Jetson Orin Nano | Jetson Orin Nano 8 GB | Jetson Orin Nano 4 GB | |
Wydajność AI | 275 TOPS | 248 TOPS | 200 TOPS | 100 TOPS | 70 TOPS | 40 TOPS | 20 TOPS | ||
GPU | Układ GPU NVIDIA – architektura Ampere – wyposażony w 2048 rdzeni oraz 64 rdzenie Tensor | Układ GPU NVIDIA – architektura Ampere – wyposażony w 1792 rdzenie oraz 56 rdzeni Tensor | Układ GPU NVIDIA – architektura Ampere – wyposażony w 1024 rdzenie oraz 32 rdzenie Tensor | Układ GPU NVIDIA – architektura Ampere – wyposażony w 1024 rdzenie oraz 32 rdzenie Tensor | Układ GPU NVIDIA – architektura Ampere – wyposażony w 512 rdzeni oraz 16 rdzeni Tensor | ||||
Maksymalne taktowanie GPU | 1,3 GHz | 1,2 GHz | 930 MHz | 918 MHz | 765 MHz | 625 MHz | |||
CPU | Dwunastordzeniowy, 64-bitowy procesor Arm® Cortex®-A78AE v8.2 3 MB L2 + 6 MB L3 |
Ośmiordzeniowy, 64-bitowy procesor Arm® Cortex®-A78AE v8.2 z 2 MB pamięci podręcznej L2 i 4 MB L3 | Ośmiordzeniowy, 64-bitowy procesor Arm® Cortex®-A78AE v8.2 2 MB L2 + 4 MB L3 |
Sześciordzeniowy, 64-bitowy procesor Arm® Cortex®-A78AE v8.2 1,5 MB L2 + 4 MB L3 |
Sześciordzeniowy, 64-bitowy procesor Arm® Cortex®-A78AE v8.2 1,5 MB L2 + 4 MB L3 |
||||
Maksymalne taktowanie CPU | 2,2 GHz | 2,0 GHz | 2,2 GHz | 2 GHz | 1,5 GHz | ||||
Akcelerator DL | 2 × NVDLA v2 | 1 × NVDLA v2 | - | ||||||
Maksymalne taktowanie DLA | 1,6 GHz | 1,4 GHz | 614 MHz | - | |||||
Akcelerator wizyjny | 1 × PVA v2 | - | |||||||
Silnik klastra bezpieczeństwa | - | - | - | ||||||
Pamięć | 64 GB 256-bitowej pamięci LPDDR5 204,8 GB/s |
64 GB 256-bitowej pamięci LPDDR5 (+ ECC) 204,8 GB/s |
32 GB 256-bitowej pamięci LPDDR5 204,8 GB/s |
16 GB 128-bitowej pamięci LPDDR5 102,4 GB/s |
8 GB 128-bitowej pamięci LPDDR5 102,4 GB/s |
8 GB 128-bitowej pamięci LPDDR5 68 GB/s |
4 GB 64-bitowej pamięci LPDDR5 34 GB/s |
||
Pamięć masowa | 64 GB, eMMC 5.1 | - (Obsługa zewnętrznych dysków NVMe) |
- (gniazdo kart SD i zewnętrzny interfejs NVMe za pośrednictwem złącza M w dysku M.2) |
- (Obsługa zewnętrznych dysków NVMe) |
|||||
Enkodowanie wideo | 2 × 4K60 (H.265) 4 × 4K30 (H.265) 8 × 1080p60 (H.265) 16 × 1080p30 (H.265) |
1 × 4K60 (H.265) 3 × 4K30 (H.265) 7 × 1080p60 (H.265) 15 × 1080p30 (H.265) |
1 × 4K60 (H.265) 3 × 4K30 (H.265) 6 × 1080p60 (H.265) 12 × 1080p30 (H.265) |
Rozdzielczość 1080p30 obsługiwana przez 1–2 rdzenie CPU | |||||
Dekodowanie wideo | 1 × 8K30 (H.265) 3 × 4K60 (H.265) 7 × 4K30 (H.265) 11 × 1080p60 (H.265) 22 × 1080p30 (H.265) |
1 × 8K30 (H.265) 3 × 4K60 (H.265) 7 × 4K30 (H.265) 11 × 1080p60 (H.265) 23 × 1080p30 (H.265) |
1 × 8K30 (H.265) 2 × 4K60 (H.265) 4 × 4K30 (H.265) 9 × 1080p60 (H.265) 18 × 1080p30 (H.265) |
1 × 4K60 (H.265) 2 × 4K30 (H.265) 5 × 1080p60 (H.265) 11 × 1080p30 (H.265) |
|||||
Kamera CSI | 16-torowe złącze MIPI CSI-2 | Do 6 kamer (16 za pośrednictwem kanałów wirtualnych) 16 torów MIPI CSI-2 D-PHY 2.1 (do 40 Gb/s) | C-PHY 2.0 (do 164 Gb/s) |
Do 4 kamer (8 za pośrednictwem kanałów wirtualnych***) 8 torów MIPI CSI-2 D-PHY 2.1 (do 20 Gb/s) |
2 × 22-pinowe złącza kamery MIPI CSI-2 | Do 4 kamer (8 za pośrednictwem kanałów wirtualnych***) 8 torów MIPI CSI-2 D-PHY 2.1 (do 20 Gb/s) |
||||
PCIe* | 16 × gniazdo PCIe obsługujące x8 PCIe Gen4 Gniazdo M.2 klucz M z x4 PCIe Gen4 Gniazdo M.2 klucz E z x1 PCIe Gen4 |
Do 2 x8 + 1 x4 + 2 x1 (PCIe Gen4, port główny i końcowy) |
1 x4 + 3 x1 (PCIe Gen4, port główny i końcowy) |
Gniazdo Key M dysku M.2 z x4 PCIe Gen3 Gniazdo Key M dysku M.2 z x2 PCIe Gen3 Złącze M.2 klucz E |
1 x4 + 3 x1 (PCIe Gen3, port główny i końcowy) |
||||
USB* | Złącze USB Type-C: 2 × USB 3.2 Gen2 Złącze USB Type-A: 2 × USB 3.2 Gen2, 2 × USB 3.2 Gen1 Złącze USB Micro-B: USB 2.0 |
3 × USB 3.2 Gen2 (10 Gb/s) 4 × USB 2.0 |
3 × USB 3.2 Gen2 (10 Gb/s) 3 × USB 2.0 |
Złącze USB Type-A: 4 × USB 3.2 Gen2 Złącze USB Type-C dla UFP |
3 × USB 3.2 Gen2 (10 Gb/s) 3 × USB 2.0 |
||||
Rozwiązania sieciowe* | Złącze RJ45 (do 10 GbE) | 1 × GbE 1 × 10 GbE |
1 × GbE | 1 × złącze GbE | 1 × GbE | ||||
Wyświetlanie | 1 × złącze DisplayPort 1.4a (+ MST) | 1 × 8K60 multi-mode DP 1.4a (+ MST) / eDP 1.4a / HDMI 2.1 | 1 × 8K30 multi-mode DP 1.4a (+ MST) / eDP 1.4a / HDMI 2.1 | 1 × złącze DisplayPort 1.2 (+ MST) | 1 × 4K30 multi-mode DP 1.2 (+ MST) / eDP 1.4 / HDMI 1.4** | ||||
Inne porty I/O | 40-pinowe złącze (UART, SPI, I2S, I2C, CAN, PWM, DMIC, interfejsy GPIO) 12-pinowe złącze automatyzacji 10-pinowe złącze panelu audio 10-pinowe złącze JTAG 4-pinowe złącze wentylatora 2-pinowe złącze zapasowej baterii RTC Slot na kartę microSD Gniazdo zasilania prądem stałym Przyciski zasilania, wymuszenia odzyskiwania i resetowania |
4 × UART, 3 × SPI, 4 × I2S, 8 × I2C, 2 × CAN, PWM, DMIC i DSPK, interfejsy GPIO | 3 × UART, 2 × SPI, 2 × I2S, 4 × I2C, 1 × CAN, DMIC i DSPK, PWM, interfejsy GPIO | 40-pinowe złącze grzebieniowe (UART, SPI, I2S, I2C, GPIO) 12-pinowe złącze przyciskowe 4-pinowe złącze wentylatora Slot na kartę microSD Gniazdo zasilania prądem stałym |
3 × UART, 2 × SPI, 2 × I2S, 4 × I2C, 1 × CAN, DMIC i DSPK, PWM, interfejsy GPIO | ||||
Pobór mocy | 15–60 W | 15–75 W | 15–40 W | 10–25 W | 10–20 W | 7–15 W | 7–10 W | ||
Dane mechaniczne | 110 × 110 × 71,65 mm (wysokość obejmuje stopki, płytę bazową, moduł i układ chłodzenia) |
100 × 87 mm 699-pinowe złącze Molex Mirror Mezz Zintegrowana płytka termoprzewodząca |
69,6 × 45 mm 260-pinowe złącze SO-DIMM |
100 × 79 × 21 mm (wysokość obejmuje stopki, płytę bazową, moduł i układ chłodzenia) |
69,6 × 45 mm 260-pinowe złącze SO-DIMM |
Zobacz zestawienie wydajności obliczeniowej modułów Jetson Orin.
Dowiedz się więcej o Jetson Orin i o tym, jak partnerzy i klienci ekosystemu wdrażają platformę Jetson, aby wprowadzać na rynek zaawansowane rozwiązania AI.
Ekosystem partnerów Jetson oferuje szeroką gamę oprogramowania AI i systemowego, narzędzi deweloperskich i do tworzenia oprogramowania na zamówienie. Dostępna jest szeroka gama układów, płyt bazowych Jetson Orin i urządzeń peryferyjnych, takich jak czujniki, kamery, moduły łączności (5G, 4G, Wi-Fi) i inne.
Robotyka i automatyzacja są coraz częściej wykorzystywane w przemyśle wytwórczym, rolnictwie, budownictwie, energetyce, sektorze państwowym i innych. Te zastosowania muszą często spełniać rygorystyczne wymagania dotyczące temperatury, wstrząsów i wibracji pozwalających na pracę w trudnych warunkach. Platforma NVIDIA Jetson oferuje wiele rozwiązań do pracy w trudnych warunkach.
U partnerów detalicznych na całym świecie dostępna jest już cała rodzina komercyjnych modułów NVIDIA Jetson Orin.
Zdemokratyzuj rozwój AI i robotyki na urządzeniach brzegowych dzięki najbardziej wszechstronnemu na świecie stosowi oprogramowania i ekosystemowi AI, opartemu na generatywnej AI na urządzeniach brzegowych oraz platformom NVIDIA Metropolis i Isaac. NVIDIA JetPack, Metropolis, Isaac ROS i przepływy pracy AI umożliwiają płynną integrację najnowocześniejszych technologii z Twoimi produktami, eliminując potrzebę stosowania kosztownych wewnętrznych zasobów AI. Doświadcz kompleksowej akceleracji aplikacji AI i skróć czas wprowadzania produktów na rynek, korzystając z tych samych potężnych technologii, które są stosowane w centrach danych i chmurach obliczeniowych.
Laboratorium generatywnej AI Jetson to przepustka do udostępniania jej światu. Zapoznaj się z poradnikami na temat generowania tekstu, modeli łączących tekst z wizją, generowania obrazów czy technik destylacji. Uzyskaj dostęp do zasobów uruchamiających te modele na platformie NVIDIA Jetson Orin. Zyskasz wydajność w czasie rzeczywistym dzięki wizualnym modułom LLM i najnowszym jednorazowym transformerom wizualnym (ViT). Wdrażaj przełomowe rozwiązania lokalnie. Już dziś dołącz do rewolucji generatywnej AI.
Aplikacje AI mają wiele takich samych potrzeb: klasyfikowanie, wykrywanie obiektów, tłumaczenie języków, zamiana tekstu na mowę, silniki rekomendacyjne, analiza wydźwięku itp. Wstępnie wytrenowane modele z katalogu NVIDIA NGC™ są zoptymalizowane pod kątem wydajności i przygotowane do precyzyjnego dopasowywania za pomocą zestawu narzędzi NVIDIA TAO i zestawów danych klienta, co skraca czas i obniża koszty produkcji oprogramowania AI.
Dostępne są platformy programowe NVIDIA przyspieszające działanie aplikacji charakterystycznych dla danej branży – takie jak NVIDIA Isaac™ do robotyki, Riva do mowy opartej na AI i Metropolis do analizy wideo.