Le schede Inferx X1M promettono una elevata efficienza ed un consumo particolarmente basso con un fattore di forma M.2, decisamente sottile.
Flex Logix è un’azienda informatica riconfigurabile che fornisce soluzioni di inferenza AI e eFPGA basate su software, sistemi e silicio. Il suo InferX X1 è l’acceleratore di inferenza edge AI più efficiente del settore che porterà l’IA alle masse nelle applicazioni ad alto volume fornendo un throughput di inferenza molto più elevato per dollaro e per watt. La piattaforma eFPGA di Flex Logix consente ai chip di gestire in modo flessibile protocolli, standard, algoritmi e esigenze dei clienti in evoluzione e di implementare acceleratori riconfigurabili che velocizzano i carichi di lavoro chiave di 30-100 volte rispetto ai processori. Flex Logix ha sede a Mountain View, in California, e ha uffici anche ad Austin, in Texas.
Fornitore dell’acceleratore di inferenza all’edge più efficiente e fornitore leader di eFPGA IP, ha annunciato oggi la disponibilità di produzione delle sue schede InferX X1M.
All’incirca delle dimensioni di una vecchia gomma per cancellare, le nuove schede InferX X1M racchiudono capacità di inferenza ad alte prestazioni in un fattore di forma M.2 a bassa potenza per applicazioni con limitazioni di spazio e alimentazione come la visione robotica, l’analisi industriale, della sicurezza e della vendita al dettaglio.
X1M ti consente di inserire l’inferenza AI ad alte prestazioni ovunque: grazie al Il fattore di forma M.2 porta l’inferenza ad applicazioni meccaniche e con limitazioni di potenza. Fornisce un percorso più rapido verso la rampa di produzione rispetto alla progettazione di schede personalizzate.
Informazioni sulla scheda InferX X1M
Dotata dell’acceleratore di inferenza edge InferX X1 di Flex Logix, la scheda InferX X1M offre l’accelerazione di inferenza AI più efficiente per carichi di lavoro avanzati di edge AI come Yolov5. Le schede sono ottimizzate per modelli di grandi dimensioni e immagini megapixel a batch=1. Ciò fornisce ai clienti il rilevamento di oggetti a bassa potenza e prestazioni elevate e altre capacità di elaborazione delle immagini ad alta risoluzione necessarie per i server edge e i sistemi di visione industriale.
La scheda InferX X1M M.2 si adatta ai requisiti di bassa potenza della specifica M.2. Per aiutare i propri clienti a commercializzare rapidamente, Flex Logix fornisce anche una suite di strumenti software per accompagnare le schede. Ciò include strumenti per il porting di modelli ONNX addestrati per l’esecuzione su X1M e un semplice framework di runtime per supportare l’elaborazione delle inferenze sia all’interno di Linux che di Windows.
Negli strumenti software è incluso anche un driver InferX X1 con API esterne progettate per applicazioni per configurare e distribuire facilmente modelli, nonché API interne per la gestione di funzioni di basso livello progettate per controllare e monitorare la scheda X1M.
Specifiche del modulo InferX X1M
La pagina di progetto attuale non offre molte informazioni, ma è possibile fare riferimento ad una presentazione dell’oggetto risalente allo scorso anno.
- InferX X1 Edge Inference Accelerator con 4K MAC con 8 MB di SRAM distribuita e un eFPGA con 4 MB di RAM DDR3
- Memoria di sistema – LPDDR4X (capacità non rivelata)
- Interfaccia – Connettore Key Edge M.2 B+M con x4 PCIe GEN3/4
- Dimensioni: 22 mm x 80 mm
- Potenza di funzionamento: da 6 a 8,2 W TDP
Secondo la presentazione, le schede possono raggiungere 30 inferenze al secondo (IPS) a 6 W su YOLOv3 con un’immagine 416 × 416 e un TPD da 6 W, e il numero sale a poco più di 50 IPS a 8,2 W TDP. Già nel 2020, la società prevedeva di eseguire l’X1 con un budget di potenza di 19 W sulla scheda M.2, ma ciò chiaramente non sarebbe stato possibile a causa delle limitazioni termiche del fattore di forma M.2 che può gestire fino a circa 8 W.
Distribuzione e prezzo
Al momento non ci è dato sapere se l’azienda preveda il rilascio e la distribuzione al minuto dell’acceleratore. Le informazioni in nostro possesso parlano di circa 339 dolari al pezzo per ordini di 1000 almeno pezzi.
Join our groups on Telegram…