, /PRNewswire/ — In occasione dello Huawei AI DC Innovation Forum all’MWC Barcelona 2026, Huawei ha presentato la sua piattaforma dati AI, progettata per affrontare le principali sfide nell’adozione di agenti AI e rafforzare la base dati per la trasformazione digitale e intelligente delle aziende.
Oggi gli agenti di intelligenza artificiale sono al centro della trasformazione. Tuttavia, nonostante dispongano di enormi quantità di dati, le aziende hanno ancora difficoltà a implementare agenti di intelligenza artificiale su larga scala a causa di molteplici difficoltà, tra cui l’acquisizione ritardata delle conoscenze e la bassa accuratezza del recupero delle stesse, l’inferenza inefficiente in scenari di interazione a lunga sequenza e multi-turn e la mancanza di memoria delle attività e di accumulo di esperienza. Queste lacune fanno sì che la maggior parte degli agenti di intelligenza artificiale resti confinata alla fase dimostrativa, ben lungi dall’essere pronti per applicazioni enterprise di livello produttivo.
In risposta diretta a queste sfide comuni, Xie Liming, Presidente del Flash Storage Domain della linea di prodotti Huawei Data Storage, ha presentato la piattaforma dati AI, che integra la knowledge base, la cache KV e la banca di memoria ed è coordinata dall’UCM. Questa piattaforma consente agli agenti di intelligenza artificiale enterprise di andare oltre le dimostrazioni e diventare veri e propri strumenti di produzione.
- Generazione e recupero di conoscenze con recupero di conoscenze multimodale in tempo reale e ad alta precisione per gli agenti
Questa tecnologia utilizza knowledge base per rilevare continuamente le modifiche dei dati sorgente e convertire i dati grezzi in conoscenza quasi in tempo reale. Converte i dati multimodali in conoscenze ad alta accuratezza tramite analisi multimodale senza perdita di dati e codifica a livello di token, con una precisione di recupero superiore al 95%. - Cache KV per l’accelerazione dell’inferenza, utilizzando dati di memoria storici per migliorare l’efficienza dell’inferenza degli agenti
La suddivisione in livelli e la gestione intelligenti della cache KV riducono notevolmente l’elaborazione ripetuta durante l’inferenza per una latenza di inferenza inferiore, migliorano la produttività dell’inferenza e l’esperienza utente e forniscono un solido supporto delle prestazioni per l’inferenza di agenti complessi e a lunga sequenza. - Estrazione e richiamo della memoria con memoria personalizzata e continuamente riepilogata per gli agenti
Questa tecnologia utilizza banche di memoria per accumulare memoria di lavoro e memoria esperienziale durante l’interazione con l’agente AI. Supporta il backtracking della memoria e l’apprendimento collaborativo multi-agente per ottimizzare costantemente l’accuratezza e l’efficienza dell’inferenza, rendendo i modelli più intelligenti con l’uso.
Guardando al futuro, Huawei rafforzerà i suoi investimenti nell’infrastruttura dati AI, promuoverà la trasformazione del settore attraverso l’innovazione continua e collaborerà con clienti e partner globali per promuovere una più ampia adozione dell’AI in più settori, liberando il pieno potenziale dei dati.

