LUVINER
Demo Live Benchmark Docs Edge AI Chi siamo Blog EN Accedi
Risultati Riproducibili

Testato su dati reali, non slide di marketing.

Ogni numero in questa pagina viene da benchmark riproducibili su dataset pubblici. Testato su benchmark di livello industriale: MNIST, MIT-BIH ECG e Speech Commands.

Analisi Competitiva

Luviner V3 vs ML Tradizionale

Testato su 4 dataset scientifici standard (Iris, Wine, Breast Cancer, Digits) con split 70/30 train/test. Tutti i modelli addestrati da zero, nessun pre-training.

Dataset Luviner V3 MLP float64 Decision Tree Random Forest
Iris (150 / 4 feat / 3 cls) 100.0% 73.3% 100.0% 100.0%
Wine (178 / 13 feat / 3 cls) 98.2% 92.6% 96.3% 100.0%
Breast Cancer (569 / 30 feat / 2 cls) 97.7% 91.8% 94.2% 97.1%
Digits (1797 / 64 feat / 10 cls) 97.0% 95.6% 85.7% 97.4%
Media 98.2% 88.3% 94.0% 98.6%
Dataset Luviner V3 MLP float64 Decision Tree Random Forest
Dimensione Flash ~14 KB ~82 KB ~2.4 KB ~175 KB
Pronto MCU Si No Si No
V3 eguaglia l'accuratezza di Random Forest (98,2% vs 98,6%) usando 6x meno memoria e gira direttamente su MCU senza dipendenze runtime.
Vantaggio Temporale

Perché l'Inferenza in Streaming Vince sui Dati Temporali

Rilevamento stato macchina industriale: 6 sensori di vibrazione, 4 stati (Normale, Riscaldamento, Stressato, Guasto). La sfida: Riscaldamento e Normale sono identici in una singola lettura — solo il contesto temporale rivela la differenza.

Streaming
88.5%
Windowed
83.8%
Stateless
83.7%
Metodo Accuratezza RAM Feature Eng.
Luviner Streaming 88.5% 102 float Nessuna
Windowed Features 83.8% 60 float Manuale (4 stat)
Stateless 83.7% 6 float Nessuna
L'inferenza in streaming batte entrambe le alternative senza buffer né feature engineering manuale. Lo stato persistente del modello agisce naturalmente come memoria temporale.
Benchmark su Dati Reali

UCI HAR — Benchmark Standard (split ufficiale)

Benchmark di riferimento del settore: 7.352 campioni training + 2.947 test da 30 volontari, 561 feature pre-calcolate, 6 attività. Split ufficiale train/test usato da tutti i paper pubblicati per confronto diretto.

Luviner V3
95.0%
SVM
96.0%
CNN 1D
~94-95%
LSTM
~93-95%
Random Forest
~91-93%
Metodo Accuratezza Flash (MCU) Pronto MCU
Luviner EdgeV3 95.0% 137 KB Si
SVM (Anguita 2013) 96.0% ~500 KB+ No
CNN 1D + TFLite ~94-95% ~300 KB+ Parziale
LSTM ~93-95% ~1 MB+ No
Fonte: Anguita et al., 2013 — UCI Machine Learning Repository
Luviner raggiunge il 95,0% sul benchmark standard UCI HAR — competitivo con modelli CNN e LSTM, ma in soli 137 KB di C puro senza dipendenze. Deployabile su qualsiasi microcontrollore da un chip da 2 EUR.
Monitoraggio Continuo

UCI HAR — Monitoraggio Continuo Attività (streaming)

Uno scenario più difficile: sequenze multi-attività con transizioni, classificando ogni singolo timestep in un flusso continuo. Dati raw 9 canali accelerometro/giroscopio, nessuna feature pre-calcolata. Lo scenario reale dello smartwatch.

Full-Sequence
79.6%
Streaming
75.5%
Stateless
68.6%
Windowed
30.6%
Metodo Accuratezza RAM Feature Eng.
Full-Sequence 79.6% 105 float Nessuna
Luviner Streaming 75.5% 105 float Nessuna
Stateless 68.6% 9 float Nessuna
Windowed Features 30.6% 324 float Manuale (4 stat)
Fonte: Anguita et al., 2013 — UCI Machine Learning Repository
Nel monitoraggio continuo con transizioni di attività, il training full-sequence raggiunge il 79,6% — superando lo stateless di +11 punti e il windowed di +49 punti, usando 12x meno RAM e zero feature engineering.
Apprendimento On-Device

Si Adatta Dopo il Deployment

I modelli migliorano direttamente sul dispositivo senza connettività cloud. L'adattamento few-shot e la compressione del modello abilitano deployment dove le condizioni cambiano.

Adattamento Few-Shot

Il modello si adatta a nuove condizioni con ~50 campioni, direttamente sul MCU. Nessun retraining da zero, nessun cloud necessario.

Dopo
64%
Prima
38%
50 campioni +0.13 KB RAM On-device

Compressione Modello

Trasferisce la conoscenza da un modello grande a uno piccolo. Il modello compresso raggiunge accuratezze impossibili col solo training diretto.

Compresso
62%
Diretto
28%
+34% miglioramento Grande → Piccolo
L'adattamento few-shot aggiunge solo 0,13 KB di RAM. La compressione modello ottiene +34% di accuratezza rispetto al training diretto. Entrambe le capacità funzionano su MCU senza dipendenze cloud.
Task IoT Edge

4 Scenari Reali di Edge AI

Benchmark su task rilevanti per il deployment embedded: comandi vocali, monitoraggio industriale, riconoscimento gesti e monitoraggio cardiaco.

Keyword Spotting

Rilevamento comandi vocali always-on da feature MFCC

99.3%
28 feat · 4 cls · < 1 mW

Anomaly Detection

Manutenzione predittiva su sensori industriali di vibrazione

100.0%
32 feat · 4 cls · < 0.5 mW

Gesture Recognition

Classificazione gesti da IMU per wearable

100.0%
36 feat · 5 cls · < 2 mW

ECG Monitoring

Classificazione ritmo cardiaco per dispositivi medicali

93.3%
8 feat · 4 cls · < 0.05 mW
Footprint Modello

Sta Dove Gli Altri Non Entrano

Quantizzazione a interi con zero dipendenze runtime. L'intero modello sta in pochi KB di flash — nessun framework, nessun runtime, nessuna allocazione.

Luviner V3
14 KB
Decision Tree
2.4 KB
MLP float64
82 KB
Random Forest
175 KB
Benchmark di Livello Industriale

Testato su Dataset di Scala Reale

Oltre i dataset giocattolo. Luviner è testato su dataset standard del settore con decine di migliaia di campioni — gli stessi benchmark usati per valutare sistemi ML in produzione.

MNIST

Il benchmark universale del ML. 70.000 cifre scritte a mano, 784 feature. Lo standard per qualsiasi sistema di classificazione.

70,000 campioni 784 feature 10 classi

MIT-BIH ECG

Rilevamento aritmie cardiache reali. 109.000 battiti da PhysioNet, 5 classi cliniche. Direttamente nel nostro use case medicale.

109,000 campioni 187 feature 5 classi

Speech Commands

Keyword spotting con feature MFCC. 10 parole chiave, rilevamento always-on. Direttamente nel nostro use case comandi vocali.

10,000 campioni 637 feature 10 classi
Ottimizzazione Automatica

Dicci il tuo chip. Troviamo noi il modello migliore.

AutoML per MCU: specifica i vincoli hardware (Flash, RAM, modello di chip) e Luviner cerca automaticamente l'architettura neurale che massimizza l'accuratezza rispettando il budget di memoria. Nessuna competenza ML richiesta.

Come Funziona

1 Seleziona il tuo MCU target o specifica i limiti Flash/RAM
2 Luviner valuta molteplici architetture compatibili con il tuo hardware
3 Il modello migliore viene addestrato completamente ed esportato in C

Famiglie MCU Supportate

ARM ARM Cortex-M0, M0+, M3, M4, M7
ESP ESP32, ESP32-S3, ESP32-C3
RISC-V RISC-V (CH32V003, GD32VF103)
BLE Nordic nRF52832, nRF52840
12+ profili hardware preconfigurati Target Flash/RAM custom supportati
Nessun competitor offre ricerca automatica dell'architettura per reti neurali. Tu specifichi il chip — Luviner consegna il modello ottimale, pronto da flashare.
Rilevamento Anomalie One-Class

Rileva guasti senza dati di guasto

Addestra il modello solo sul funzionamento normale — nessun dato di guasto necessario. Il modello impara cos'è "normale" e segnala qualsiasi deviazione. Perfetto per manutenzione predittiva dove i guasti sono rari e costosi.

Tasso di rilevamento

Score anomalia
1.10
Score normale
0.04
100% 27x Separazione score

Rilevamento Anomalie One-Class

Dati di addestramento Solo campioni normali
Vantaggio Temporale Tempo reale su MCU
Export C Si
Pronto MCU Si
27x di separazione tra score normali e anomali. 100% tasso di rilevamento. Funziona in modalità streaming su MCU — il tuo sensore monitora continuamente le anomalie in tempo reale, senza alcuna dipendenza cloud.
Rilevamento Drift On-Device

Il tuo dispositivo sa quando riaddestrarsi

Il modello monitora la distribuzione dei dati in arrivo e segnala quando non corrisponde piu' ai dati di addestramento. Nessuna connessione cloud, nessun forward pass — opera direttamente sugli input raw con soli 24 bytes di RAM extra.

Come funziona

1 Dopo il training, calibra la distribuzione di riferimento dai tuoi dati
2 Sul dispositivo, un tracker EWMA monitora le letture dei sensori
3 Quando la distribuzione diverge oltre soglia, il dispositivo segnala drift

Costo su MCU

RAM 24 bytes RAM extra
Compute Nessun forward pass necessario
Flash Overhead flash minimo
Export C Si
Nessun competitor offre rilevamento drift on-device. Il tuo sensore monitora autonomamente la qualita' dei dati e segnala quando serve riaddestramento — zero dipendenza cloud, zero costo di inferenza.
Mesh Intelligence

Sistema Nervoso Distribuito

Piu' nodi sensore condividono stati neuronali tramite un protocollo mesh leggero. Ogni nodo ha il proprio cervello — insieme classificano cio' che nessun nodo singolo puo'. Nessun cloud, nessun server centrale, nessun single point of failure.

Mesh (2 nodi)
100.0%
Oracle (tutti i dati)
100.0%
Nodo B solo
81.7%
Nodo A solo
78.3%
Configurazione Accuratezza vs Singolo Dim. Messaggio
2 nodi (3+3 feature) 100.0% +20.0% 24 bytes
3 nodi (3+3+2 feature) 100.0% +18.9% 24 bytes
4 nodi (2+2+2+2 feature) 97.5% +25.2% 24 bytes

Come Funziona

1 Ogni nodo sensore esegue la propria rete neurale localmente
2 I nodi scambiano un sottoinsieme compatto dei loro stati neuronali (8 valori, 24 bytes)
3 Gli stati condivisi influenzano l'elaborazione di ogni nodo — l'intelligenza emerge dalla rete

Specifiche Protocollo

Dimensione messaggio 24 bytes
Trasporto ESP-NOW / BLE / UART
Dipendenza cloud Nessuna
Topologie Anello / Stella / Full / Dinamica
Gateway cloud Opzionale (MQTT/HTTP)
La mesh intelligence raggiunge la stessa accuratezza di un modello centralizzato pur essendo completamente distribuita. Ogni nodo costa appena 2 EUR e comunica con soli 24 bytes per tick. Nessun competitor offre nulla di lontanamente paragonabile su microcontrollori commodity.
Capacita' Avanzate

Mesh Intelligence Enterprise-Grade

Sei capacita' che rendono la mesh pronta per deployment industriali. Ogni funzione compila in firmware C puro per gli stessi microcontrollori da 2 EUR — nessun hardware aggiuntivo, nessuna dipendenza cloud, nessun floating point.

🛡 Decisioni Anti-Manomissione

I nodi votano su ogni decisione. Un nodo compromesso o guasto viene rilevato ed escluso automaticamente — la rete non si fida ciecamente di nessun singolo nodo. Serve il consenso della maggioranza per ogni classificazione.

♻ Rete Auto-Riparante

Quando un nodo cade o uno nuovo si aggiunge, la rete si riconfigura automaticamente. Nessun intervento manuale, nessun downtime. Il monitoraggio heartbeat rileva i guasti in secondi.

📡 Portata Multi-Hop

L'informazione si propaga oltre i vicini diretti — attraverso nodi relay, il sistema nervoso della rete si estende su un intero impianto. Routing automatico, prioritizzazione basata sulla distanza.

🧠 Selezione Intelligente degli Stati

Ogni nodo impara automaticamente quali dei propri stati interni portano l'informazione piu' utile per i vicini. Solo i dati piu' rilevanti vengono condivisi — riducendo la banda e migliorando l'accuratezza.

🎓 Apprendimento Distribuito sul Campo

I nodi si adattano alle condizioni locali e condividono i miglioramenti con i vicini. L'intero sciame diventa piu' intelligente nel tempo senza riaddestramento centralizzato — ogni nodo contribuisce con cio' che impara.

Specifiche Protocollo

Metodo decisionale Consenso / Maggioranza / Media
Topologia Dinamica (auto-riparazione)
Portata rete Multi-hop (N salti)
Selezione stati Appresa (per-nodo)
Apprendimento sul campo Federato (peer-to-peer)
Generazione firmware C puro (tutte le funzioni)
Selezione funzioni Includi solo cio' che serve
Test suite 199 test superati
Nessun prodotto esistente o ricerca pubblicata combina resistenza alla manomissione, topologia auto-riparante, propagazione multi-hop, selezione intelligente degli stati e apprendimento distribuito su microcontrollori commodity — il tutto deployabile come firmware C puro. Questo e' un primato mondiale.
Metodologia

Trasparente e riproducibile.

Tutti i benchmark usano split train/test standard su dataset pubblici. Nessun cherry-picking, nessuna configurazione nascosta. I risultati sono verificabili indipendentemente.

Pronto a deployare edge AI?

Da CSV a C compilato in minuti. Inizia gratis.

Inizia Ora → Demo Live →
Prezzi Contatti Termini di Servizio Informativa sulla Privacy Contratto di Licenza d'Uso

© 2026 Luviner. AI on-device per ogni chip.

P.IVA / VAT ID: IT02880910340