MX3-2280-M-4-C

MemryX
89-MX3-2280-M-4-C
MX3-2280-M-4-C

Tillverk:

Beskrivning:
Acceleratorer för systemminne The M.2 Module enables high performance, yet power-efficient AI inference for edgedevices and edge servers.

Livscykel:
Nytt hos Mouser

Tillgänglighet

Lager:
0

Du kan fortfarande köpa produkten som en restnoterad beställning.

På beställningen:
2
Förväntad 2026-02-19
Fabrikens ledtid:
15
Veckor Uppskattad tillverkningstid i fabriken för kvantiteter som är större än vad som visas.
Minst: 1   Flera: 1
Enhetspris:
-,-- kr
Ext. pris:
-,-- kr
Est. Pris:
Denna produkt levereras UTAN KOSTNAD

Prissättning (SEK)

Antal Enhetspris
Ext. pris
2.673,88 kr 2.673,88 kr
2.460,35 kr 24.603,50 kr
2.378,27 kr 59.456,75 kr

Produktattribut Attributvärde Välj attribut
MemryX
Produktkategori: Acceleratorer för systemminne
M.2 AI Acceleration Modules
M.2 2280-M
0 C
+ 70 C
80 mm
22 mm
3.3 V
Märke: MemryX
Mått: 80 mm x 22 mm
Fuktkänsliga: Yes
Produkttyp: System Memory Accelerators
Fabriksförpackningskvantitet: 1
Underkategori: Memory & Data Storage
Enhetens vikt: 720 g
Hittade produkter:
Markera minst en kryssruta för att visa liknande produkter
Markera minst en kryssruta ovan för att visa liknande produkter i denna kategori.
Attribut som valts: 0

TARIC:
8471800000
CAHTS:
8471809900
USHTS:
8471809000
JPHTS:
847180000
BRHTS:
84718000
ECCN:
EAR99

M.2 AI Acceleration Module

MemryX M.2 AI Acceleration Module is a cutting-edge solution that brings advanced Artificial Intelligence (AI) processing to edge devices and systems. Powered by four MX-3™ "digital at-memory compute" AI ASICs, this module delivers unparalleled efficiency and performance by processing AI workloads directly within memory, minimizing data movement and latency. This innovative architecture enables real-time inference for complex deep learning models while maintaining low power consumption, making it ideal for applications in industrial automation, smart surveillance, healthcare, and automotive systems. The module's compact M.2 form factor ensures seamless integration into space-constrained devices, providing scalable AI acceleration for various edge computing needs.