Les charges de travail d'IA nécessitent une infrastructure spécialement conçue

Les recherches montrent que l’insuffisance ou le manque de capacités d’infrastructure spécialement conçues sont souvent la cause de l’échec des projets d’IA.

Alors que l’utilisation de l’intelligence artificielle (IA) devient plus populaire et utilisée dans de plus en plus d’aspects des opérations quotidiennes, les entreprises commencent à s’appuyer sur les infrastructures informatiques traditionnellement utilisées pour le HPC. Bien que cette approche offre une certaine aide, ce que les entreprises constatent de plus en plus, c’est qu’elles ont besoin d’une infrastructure adaptée à leurs charges de travail d’IA. Telles sont les conclusions d’une nouvelle étude d’IDC.

Plus précisément, IDC a récemment lancé l’AI Infrastructure Showcase, une étude de référence approfondie sur les tendances d’adoption de l’infrastructure et de l’infrastructure en tant que service pour les cas d’utilisation de l’intelligence artificielle et de l’apprentissage automatique (IA/ML). L’enquête mondiale sera menée chaque année et comprendra 2 000 décideurs informatiques, un éventail de dirigeants d’entreprise et de professionnels de l’informatique, dont la plupart influencent l’achat d’infrastructures, de services, de systèmes, de plates-formes et de technologies d’IA.

Les résultats de l’enquête montrent que si les initiatives d’IA/ML prennent de l’ampleur, avec 31 % des personnes interrogées déclarant avoir désormais des charges de travail d’IA en production, la plupart des entreprises sont encore en phase de pilotage, d’évaluation/test ou de prototypage. Sur les 31 % d’IA en production, seul un tiers déclare avoir atteint un stade d’adoption mature où l’ensemble de l’organisation bénéficie d’une stratégie d’IA à l’échelle de l’entreprise. Pour les organisations qui investissent dans l’IA, l’amélioration de la satisfaction client, l’automatisation de la prise de décision et l’automatisation des tâches répétitives sont les trois principaux avantages cités au niveau de l’entreprise.

Télécharger maintenant : créer des applications de localisation en temps réel sur d'énormes ensembles de données

“Les recherches d’IDC montrent systématiquement que l’insuffisance ou le manque de capacités d’infrastructure spécialement conçues sont souvent la cause de l’échec des projets d’IA”, a déclaré Peter Rutten, vice-président de la recherche et responsable mondial de la recherche sur les solutions informatiques à haute performance.

Voir également: Comment les plateformes d’API peuvent conduire les transformations numériques

Les charges de travail d’IA ont besoin d’amour

Plusieurs conclusions clés ont émergé de l’enquête.

L’infrastructure d’IA reste l’une des décisions d’infrastructure les plus critiques mais les moins matures que les organisations prennent dans le cadre de leur futur projet. Les organisations n’ont pas encore atteint un niveau de maturité dans leur infrastructure d’IA – cela comprend les investissements initiaux, la réalisation des avantages et le retour sur investissement, et la garantie que l’infrastructure évolue pour répondre aux besoins de l’entreprise. Les coûts élevés restent le principal obstacle aux investissements, incitant de nombreuses personnes à exécuter leurs projets d’IA dans des environnements de cloud public partagés. Les coûts initiaux sont élevés, ce qui conduit de nombreuses personnes à prendre des raccourcis et exacerbe ainsi le problème. Les personnes, les opérations et la technologie restent les trois domaines clés où les défis résident et où les organisations doivent concentrer leurs investissements pour saisir de plus grandes opportunités.

La gestion des données est le plus grand obstacle pour les organisations qui investissent dans l’infrastructure d’IA. Les entreprises manquent de temps pour créer, former et déployer des modèles d’IA. Ils disent qu’une grande partie du temps de développement de l’IA est consacrée à la préparation des données. Beaucoup n’ont pas non plus l’expérience ou la capacité de préparer des déclarations. Cela conduit à un nouveau marché pour les modèles d’IA pré-entraînés. Cependant, comme tout ce qui est prêt à l’emploi, les modèles pré-formés ont leurs limites, notamment la disponibilité et l’adaptabilité du modèle, les limites de l’infrastructure pour exécuter le modèle et une expertise interne insuffisante. La taille des modèles augmente également, ce qui rend difficile leur exécution sur une infrastructure à usage général. Les organisations s’attendent à ce qu’une fois cet obstacle franchi, elles réorientent leurs efforts vers l’inférence de l’IA.

Les investissements dans l’infrastructure d’IA suivent des schémas familiers dans les technologies de calcul et de stockage sur site, dans le cloud public et à la périphérie. Les entreprises augmentent leurs investissements dans les services d’infrastructure de cloud public, mais pour beaucoup, sur site sont, et seront toujours, l’emplacement préféré. Aujourd’hui, pour la formation et l’inférence de l’IA, il est également réparti entre le cloud, sur site et en périphérie. Cependant, de nombreuses entreprises se tournent vers des lignes de données d’IA qui relient le centre de données, le cloud et/ou la périphérie. Edge fournit une continuité opérationnelle là où il n’y a pas ou peu de connectivité réseau.

La sécurité/conformité et le coût jouent également un rôle. L’informatique accélérée par GPU, les processeurs hôtes avec logiciel d’augmentation de l’IA et les clusters à haute densité sont les exigences les plus importantes pour l’infrastructure informatique locale/de pointe et basée sur le cloud pour la formation et l’inférence de l’IA. L’informatique accélérée par FPGA, les processeurs hôtes avec un logiciel d’amplification de l’IA ou des GPU internes et les systèmes de mise à l’échelle de type HPC sont les 3 principales priorités de l’infrastructure informatique locale/basée sur la périphérie pour l’inférence de l’IA. Dans le cloud, les priorités les plus importantes sont l’accélération du GPU et du processeur hôte avec boost de l’IA, suivies des clusters à haute densité. Plus de charges de travail AI utilisent plus de blocs et/ou de fichiers que l’objet à ce stade.

“Ce qui devient de plus en plus évident, c’est que l’acquisition d’informations cohérentes, fiables et compactes sur la disponibilité et les résultats commerciaux nécessite des investissements dans une infrastructure spécialement conçue à cet effet et à la bonne échelle”, a déclaré Eric Burgener, vice-président de la recherche, du stockage et de l’infrastructure des systèmes convergents chez IDC.

Enregistrer un commentaire

Plus récente Plus ancienne

نموذج الاتصال