[ad_1]

Note de l’éditeur: TLe message d’oday est un article invité par Adam Wenchel, PDG d’Arthur. Il a été initialement publié sur le blog Arthur.

Chez Arthur, nous sommes obsédés par nous assurer que nos clients disposent d’une observabilité complète de l’IA pour tous leurs modèles d’apprentissage automatique, quel que soit l’endroit où ils sont déployés. Mais nous savons que les systèmes d’IA de production nécessitent plus qu’une simple surveillance – et c’est pourquoi aujourd’hui, nous sommes ravis d’annoncer notre partenariat avec Algorithmie, le leader de l’industrie opérations d’apprentissage automatique (MLOps) et la gestion des modèles.

Algorithmie plateforme MLOps d’entreprise gère toutes les étapes du cycle de vie du machine learning au sein des processus opérationnels existants, ce qui vous permet de mettre en production des modèles rapidement, en toute sécurité et à moindre coût. Contrairement aux solutions de gestion MLOps à faire soi-même inefficaces et coûteuses qui enferment les utilisateurs dans des piles technologiques spécifiques, Algorithmia automatise le déploiement de ML, optimise la collaboration entre les opérations et le développement, exploite les systèmes SDLC et CI / CD existants, et fournit une sécurité et une gouvernance de niveau entreprise à travers le cycle de vie.

Arthur est la plate-forme de surveillance proactive des modèles qui donne aux entreprises la confiance et la tranquillité d’esprit que leurs déploiements d’intelligence artificielle fonctionnent au maximum. Arthur fournit une couche de surveillance des performances, de détection des biais algorithmiques et d’explicabilité, même pour les modèles de boîte noire, afin que les équipes de science des données puissent détecter, diagnostiquer et résoudre tous les problèmes de production.

Nous travaillons avec l’équipe d’Algorithmia pour rendre plus facile que jamais l’utilisation de leurs outils de déploiement, de service et de gestion de premier ordre et de nos principales capacités de surveillance. Ensemble, Arthur et Algorithmia fournissent un ensemble d’outils puissants qui vous donnent un contrôle complet sur votre IA de production. Cet article de blog démontrera à quel point il est facile de démarrer avec l’intégration d’Arthur et d’Algorithmia, afin que vous puissiez compléter votre pile d’IA.

Arthur et Algorithmia: vous aider à atteindre la maturité de l’IA plus rapidement

Algorithmie Tendances des entreprises en 2021 dans l’apprentissage automatique rapport a révélé que 56% des organisations sont aux prises avec des problèmes de gouvernance, de sécurité et d’auditabilité, ce qui en fait le défi n ° 1 pour le déploiement et la gestion des modèles. Arthur étend les capacités de surveillance d’Algorithmia pour vous donner des informations détaillées sur les performances des modèles, l’intégrité des données et l’équité de l’IA, vous aidant à gérer plus complètement la gouvernance de l’IA. Si vous utilisez déjà Algorithmia pour MLOps, cela ne prend que quelques minutes pour ajouter la surveillance Arthur. Grâce à notre intégration, les clients d’Algorithmia peuvent tirer pleinement parti des flux de travail avancés de gestion du cycle de vie du ML activés par les capacités de surveillance d’exécution d’Arthur – pensez aux refit automatisés basés sur la dérive des données, les courses de chevaux (tests A / B), les différentes versions d’un modèle, etc.

Voyons à quoi cela ressemble d’utiliser Arthur et Algorithmia ensemble pour surveiller et maintenir l’IA à grande échelle.

Déployez votre modèle derrière un point de terminaison avec Algorithmia

Nous utiliserons Algorithmia pour servir notre modèle entraîné derrière un point de terminaison Algorithmia. Voici un exemple de projet Algorithmia où nous faisons exactement cela: Nous avons un modèle enregistré (fichier pkl), et nous chargeons ce modèle en mémoire. Notre implémentation d’Algorithmia apply() function is to invoke the predict_proba() method for any new inputs to the endpoint.

This model is now deployed behind an endpoint that we can hit with REST, or with any of Algorithmia’s supported SDKs in several languages.

Log your model inputs and outputs with ArthurAI

Next, let’s integrate this project with Arthur so we can monitor this model. Let’s assume we’ve already registered a model with Arthur, and will fetch this object by its model ID. We’ll import the ArthurAI Python library and set up a connection with the platform. We will use that connection to fetch our model by its ID.

The last step here is that we’ll want to wrap our model’s predict_proba() method using the log_inferences décorateur fourni dans le Arthurai bibliothèque. Pour ce faire, nous allons définir une fonction simple appelée model_predict () pour cet emballage, et nous décorerons cette méthode comme indiqué ci-dessous.

Enfin, notre implémentation d'Algorithmia appliquer() la fonction est simplement d'appeler notre model_predict () wrapper pour toutes les entrées du point de terminaison. Chaque fois que le point de terminaison est appelé, l'entrée et la sortie du modèle sont enregistrées avec ArthurAI pour des analyses et des alertes automatisées.

Avec quelques lignes supplémentaires de Python, nous pouvons facilement ajouter les outils de surveillance d'Arthur à tous les modèles que nous avons déployés avec Algorithmia.

Débloquez l'optimisation, la gestion des versions et l'équité des modèles avec ArthurAI et Algorithmia

L'intégration Arthur-Algorithmia vous permet de déployer, servir, gérer et maintenir votre IA à grande échelle avec une surveillance et une gouvernance avancées. Prêt à commencer aujourd'hui?

Si vous utilisez déjà Algorithmia et Arthur, la mise en œuvre de l'intégration comme démontré ci-dessus prend quelques minutes. Si vous n'utilisez pas déjà Algorithmia, inscrivez-vous pour regarder une démo aujourd'hui et découvrez comment les MLOps d'entreprise peuvent accélérer votre retour sur investissement pour le ML.

Et si vous n'utilisez pas déjà Arthur, contactez-nous pour planifier une démo et découvrez comment nous pouvons vous aider à démarrer avec la surveillance proactive des modèles.