, /PRNewswire/ — Lors du Huawei AI DC Innovation Forum au MWC Barcelona 2026, Huawei a dévoilé sa plateforme de données d’IA, conçue pour relever les principaux défis liés à l’adoption d’agents d’IA et renforcer la base de données pour la transformation numérique et intelligente de l’entreprise.
Les agents d’IA sont désormais au cœur de la transformation. Pourtant, bien qu’elles disposent de quantités massives de données, les entreprises ont encore du mal à déployer des agents d’IA à grande échelle en raison de multiples difficultés, notamment l’acquisition tardive des connaissances et la faible précision de la récupération, l’inférence inefficace dans les scénarios d’interaction à longue séquence et à tours multiples, ainsi que le manque de mémoire des tâches et d’accumulation d’expérience. En raison de ces lacunes, la plupart des agents d’intelligence artificielle restent confinés au stade de la démonstration et sont loin d’être prêts pour des applications d’entreprise au niveau de la production.
En réponse directe à ces défis communs, Xie Liming, président du domaine du stockage flash de la gamme de produits de stockage de données de Huawei, a présenté la plateforme de données IA. Elle intègre la base de connaissances, le cache KV et la banque de mémoire, et est coordonné par l’UCM. Cette plateforme permet aux agents d’IA d’entreprise d’aller au-delà des démonstrations et de devenir de véritables outils de production.
- Génération et extraction de connaissances en temps réel et avec une grande précision extraction multimodale de connaissances pour les agents
Cette technologie utilise des bases de connaissances pour détecter en permanence les modifications des données sources et convertir les données brutes en connaissances en temps quasi réel. Il convertit les données multimodales en connaissances de haute précision grâce à l’analyse multimodale sans perte et à l’encodage au niveau du jeton, avec une précision d’extraction de plus de 95 %.
- Cache KV pour l’accélération de l’inférence, utilisant les données de la mémoire historique pour améliorer l’efficacité de l’inférence des agents
L’étagement et la gestion intelligents du cache KV réduisent considérablement les calculs répétés pendant l’inférence pour diminuer la latence de l’inférence, améliorer le débit de l’inférence et l’expérience de l’utilisateur, et fournir un support de performance solide pour l’inférence d’agents complexes et à longue séquence.
- Extraction et rappel de la mémoire avec une mémoire personnalisée et continuellement résumée pour les agents
Cette technologie utilise des banques de mémoire pour accumuler la mémoire de travail et la mémoire expérientielle pendant l’interaction avec l’agent d’IA. Il prend en charge le retour en arrière de la mémoire et l’apprentissage collaboratif multi-agents afin d’optimiser en permanence la précision et l’efficacité de l’inférence, rendant ainsi les modèles plus intelligents à l’usage.
À l’avenir, Huawei renforcera ses investissements dans l’infrastructure de données d’IA, favorisera la transformation de l’industrie grâce à l’innovation continue, et travaillera avec des clients et partenaires mondiaux pour favoriser une adoption plus large de l’IA dans davantage de domaines, en libérant tout le potentiel des données.

