Cinq mythes des MLOps | Blog d’algorithmie

Actualités de de l'Intelligence Artificielle - Machine Learning - Objets connectés

Cinq mythes des MLOps | Blog d’algorithmie


Peut-être que si vous êtes Chuck Norris. Pour le reste des simples mortels parmi nous, MLOps est incroyablement difficile à construire par vous-même. De nombreuses organisations souhaitent adopter une approche autonome des MLOps, mais cela peut entraîner de nombreux coûts, risques et frais généraux imprévus. L’une des questions fréquemment posées est la suivante: « Le déploiement ne signifie-t-il pas simplement utiliser un conteneur? » En réalité, cela implique bien plus que cela – et MLOps est bien plus qu’un simple déploiement.

Pourquoi les MLOps sont-ils si compliqués? En termes simples, MLOps semble simple car il est relativement facile à déployer un modèle unique, mais il y a plus de facteurs à la réussite d’un projet de ML qu’un simple déploiement. En réalité, il existe plusieurs composants des MLOps que les organisations ne prennent souvent pas en compte dès le départ. Lorsqu’ils sont pris ensemble, ils peuvent rapidement devenir trop compliqués pour que la plupart des équipes se débrouillent seules. Et même s’ils le pouvaient, cela ne vaudrait pas le coût d’opportunité de le faire.

Pour vous donner un avant-goût de quelques-uns des facteurs en jeu, un pipeline MLOps complet comprendra plusieurs étapes, notamment l’orchestration matérielle, l’intégration des SDK de langage et de framework, la gestion des conteneurs, la gestion des versions de modèle, l’incorporation de matériel avancé tel que les processeurs et GPU multithreads gestion des API d’inférence, équilibrage de charge et Sécurité et la gouvernance d’utilisateurs, de modèles, de données et d’opérations. Et dans chacun de ces domaines se trouvent des couches de considérations supplémentaires et complexes.

Par exemple, une fois que vous avez sélectionné une plate-forme de cloud computing pour héberger et servir votre modèle, une tâche complexe en soi, vous devez ensuite conteneuriser tous vos modèles et gérer leur mise à l’échelle à l’aide de Kubernetes ou d’un service similaire. Cela nécessite généralement une équipe entière, ou au moins quelques développeurs dédiés. En plus de cela, vous devez superposer les nombreux processus d’interfaçage qui sont essentiels pour gérer les minuties nécessaires associées au déploiement du modèle. Cela inclut de nombreuses tâches importantes telles que les modèles de version, la mise à niveau des bibliothèques et la surveillance des ressources. Plus important encore, la sécurité du système doit être gérée activement.

La ligne du bas? Ce qui peut sembler une tâche simple implique en fait de nombreux facteurs complexes et interactifs qui doivent fonctionner de manière simultanée pour réussir, tout en étant constamment entretenus. Les organisations qui adoptent une approche DIY se retrouvent finalement avec:

  • Longs délais de livraison
  • Talent coûteux
  • Coût total de possession élevé
  • Langage de programmation Polyglot et intégration de framework qui prennent du temps à construire, à ajouter et à mettre à jour au fil du temps
  • Authentification et sécurité difficiles, coûteuses et longues à créer et à entretenir
  • Gouvernance de modèle limitée avec uniquement le modèle de base et la gestion des versions d’API et aucune intégration avec les outils DevOps

Pour de nombreuses organisations auto-efficaces, l’idée d’externaliser les MLOps vers une plate-forme tierce peut être considérée comme un anathème. Après tout, c’est cet engagement résilient envers un esprit d’entreprise de bricolage qui propulse souvent une entreprise dans les strates initiales du succès. Cependant, ce sont ces mêmes organisations qui sous-traitent leurs MLOps qui voient les meilleurs résultats; notre rapport 2021 a révélé que les entreprises utilisant des solutions MLOps tierces dépensent moins en infrastructure, prennent moins de temps pour déployer des modèles et consacrent un plus petit pourcentage du temps de leurs data scientists au déploiement de modèles par rapport à ceux qui construisent et maintiennent leurs propres systèmes MLOps à partir de zéro.