L’intelligence artificielle (IA) est un sujet brûlant depuis longtemps, mais son impact sur notre société et dans l’entreprise commence à peine à se faire sentir. L’IA et d’autres formes d’apprentissage automatique et d’apprentissage en profondeur vont révolutionner l’entreprise, en automatisant les tâches répétitives et en accélérant les résultats, le tout basé sur d’énormes ensembles de données.
Le développement d’applications d’apprentissage en profondeur suit généralement un processus en trois étapes :
Préparation des données, où d’énormes quantités de”matières premières”sont transformées en données utilisablesFormation du modèle, où les programmes logiciels sont formés pour apprendre une nouvelle capacité à partir des données Inférence, où (comme implicite) le programme applique ce nouvel apprentissage à de nouvelles données
Tout cela s’ajoute à une croissance massive des données. Les analystes du secteur prévoient que les données non structurées (fichiers et objets) doubleront, voire tripleront, leur capacité au cours des prochaines années. L’un des principaux moteurs de cette croissance est l’IA, l’apprentissage automatique et les cas d’utilisation de l’apprentissage en profondeur.
Cette”prochaine L’ère des données crée des défis distincts pour les responsables de l’infrastructure informatique. Premièrement, les ensembles de données sont à une échelle et un volume exponentiellement plus grands que tout ce qui se passait auparavant. Certains de nos clients développant une technologie d’assistance à la conduite-essentiellement une forme d’apprentissage automatique, en particulier la vision artificielle-ont généré plus d’un exaoctet de données en quelques années seulement. L’échelle est donc énorme.
En outre, les applications d’apprentissage en profondeur imposent d’énormes exigences aux performances de l’infrastructure de stockage. Le traitement de ces ensembles de données massifs non structurés nécessite des latences extrêmement faibles et, surtout, les performances doivent être constantes à grande échelle. Les systèmes de stockage sur disque, qui reposent sur des disques durs série, ne peuvent tout simplement pas répondre à ces exigences. Cela a conduit à la croissance du stockage de fichiers et d’objets 100 % flash, et cette croissance s’accélérera au cours des cinq prochaines années à mesure que le prix du flash diminuera et que de nouvelles architectures utiliseront des technologies de mémoire telles que Non-Volatile Memory Express (NVMe) et Accès direct à la mémoire à distance (RDMA) qui permet des architectures de stockage distribué à très faible latence. Les performances du système de stockage doivent donc s’améliorer par ordre de grandeur.
Enfin, les données ne résident pas au même endroit. Il est généré en dehors du centre de données, il est déplacé quelque part pour être traité. Cela peut être dans le cloud public, dans un centre de données ou, plus probablement, des parties du pipeline de données se produisent aux deux endroits. Le mouvement et la gestion de ces données tout au long de leur cycle de vie sont donc une considération majeure. Et de plus en plus, ces ensembles de données seront conservés pendant des décennies, et non cinq ans ou sept ans. Plus précisément, les grands ensembles de données utilisés pour la préparation des données, ainsi que les modèles eux-mêmes, peuvent être stockés pendant des décennies ou plus au cas où les modèles devraient être recyclés.
Tous ces facteurs ont déjà exercé une pression sur les architectures de stockage héritées. La plupart des données non structurées du monde sont stockées sur des systèmes conçus il y a plus de 20 ans. Ces systèmes ont été conçus à une époque où la plupart des fichiers créés étaient créés par des personnes, et non par des appareils, et la notion de billions de fichiers et d’objets et d’exaoctets de données à stocker pendant des décennies n’était pas à l’horizon.
Pour les décideurs en matière d’infrastructure informatique, si votre entreprise a des initiatives de transformation numérique ou de nouvelles initiatives commerciales basées sur l’intelligence artificielle, l’apprentissage automatique ou l’apprentissage en profondeur, votre infrastructure de stockage de données peut freiner votre entreprise. Cela peut affecter la productivité des scientifiques des données, des créateurs de contenu et des analystes qui s’appuient chaque jour sur ces données pour produire un résultat. Et cela vous amène certainement à faire des compromis injustes pour essayer de le faire fonctionner. Passez maintenant aux étapes suivantes pour évaluer à quoi devrait ressembler une architecture de nouvelle génération, afin d’alimenter la prochaine génération d’applications d’IA et d’apprentissage en profondeur.
Crédit photo : Photon photo/Shutterstock
Eric Bassier est directeur principal des produits chez Quantum.