Comment Uber s'organise autour de l'apprentissage automatique

09 juillet 2019

Cet article explique comment Uber construit, adapte et organise sa plateforme AI / ML à l'aide de l'article d'Uber intitulé «Scaling Machine Learning at Uber with Michelangelo» de novembre 2018 (lien). Je vais couvrir le sujet à un niveau élevé, donc si vous êtes un de ces types pHD-y, concentrez-vous déjà sur des réseaux hybrides pointeur-générateur, des réseaux de neurones à convolution sphériques ou des auto-encodeurs de Wasserstein, ce n’est peut-être pas pour vous.

Contexte

Un cabinet de conseil m'a récemment demandé conseil pour la création et la mise à l'échelle de plates-formes d'intelligence artificielle (AI) et d'apprentissage automatique (ML) pour leurs clients. J'ai une certaine expérience dans ce domaine au niveau de l'infrastructure, en travaillant avec Intel et NVIDIA, et au niveau des logiciels et des services, en travaillant avec Amazon, IBM et quelques autres, alors j'ai décidé de les aider. Cet article traite de certains domaines d’intervention clés en matière de dimensionnement des plates-formes AI / ML pour leurs clients. Je pense qu'il est préférable d'aborder ce sujet avec des noms bien connus, avec des produits et des services bien compris et utilisés au quotidien, j'ai donc choisi Facebook et Uber.

Pour Uber, je vais me concentrer sur leur plate-forme ML, les cas d’utilisation et les changements organisationnels nécessaires pour faire évoluer l’infrastructure AI / ML. J’ai retenu quelques remarques de l’article perspicace d’Uber sur «Le redimensionnement automatique de l’apprentissage machine chez Uber avec Michelangelo», interview du chef de produit de Michelangelo, Mike De Balso, et d’autres entreprises du secteur AI / ML avec lesquelles j’ai travaillé. Si vous souhaitez savoir comment Facebook adapte son infrastructure matérielle et logicielle Facebook à Yangqing Jia, directeur de l'infrastructure d'IA de Facebook, cliquez ici pour continuer les efforts d'Uber / AI en cours de lecture. Une dernière remarque, si vous êtes novice dans cet espace et avez besoin de comprendre des termes tels que fonctionnalités, formation, évaluation et inférence à un haut niveau, alors il est probablement préférable pour vous de lire l'article de Facebook d'abord car je les détaillerai avant d'entrer dans les détails.

Produits et services utilisant l'apprentissage automatique chez Uber

Uber s’est fixé pour objectif de «démocratiser le ML à travers Uber». Nous le voyons bien lorsque nous examinons les produits et services créés par diverses équipes Uber avec la plate-forme Machine Learning (ML) d’Uber. Avant d’entrer dans cette plate-forme et de voir comment ils structurent leur organisation pour permettre une mise en œuvre réussie de ML, jetons un coup d’œil à quelques exemples de ML en action sur les produits et services d’Uber.

Uber Eats

Pour ceux qui n'ont jamais passé une nuit tranquille ni utilisé le service auparavant, Uber Eats est une plateforme de commande et de livraison de produits alimentaires lancée par Uber en 2014. Elle permet aux utilisateurs de commander des aliments dans des restaurants locaux et de les faire livrer chez vous par un pilote Uber. Le service Uber Eats utilise des modèles ML pour effectuer des centaines de prévisions afin d'optimiser l'expérience des consommateurs, et ce, chaque fois que l'application est ouverte. Ces modèles ML suggèrent des restaurants et des plats et estiment les heures d'arrivée des repas.

Prévision

Uber’s exploite diverses prévisions pour prendre des décisions fondées sur des données à grande échelle:

  • Prévisions de marché. Prédit l’offre et la demande des utilisateurs en dirigeant les partenaires chauffeurs vers les zones à forte demande avant qu’elles ne surviennent, augmentant ainsi le nombre de leurs déplacements et leurs revenus.
  • Planification de la capacité matérielle. Prévoit les besoins en capacité matérielle pour éviter le sous-provisionnement qui pourrait conduire à des pannes de service ou à un surapprovisionnement qui pourrait coûter cher à payer pour une infrastructure sous-utilisée coûteuse.
  • Commercialisation. Établit des estimations de l'efficacité marginale de différents médias, tout en contrôlant les tendances, la saisonnalité et d'autres dynamiques (par exemple, la concurrence ou la tarification).
  • Fixer des objectifs financiers. Prédit les valeurs futures des données dépendantes du temps telles que les ventes, le nombre de trajets hebdomadaires, les niveaux de conducteur disponibles, le trafic des applications, les conditions économiques, etc.

Service client

Uber dispose d’une équipe d’assistance clientèle qui répond à des milliers de tickets (c’est-à-dire laissant un portefeuille / un téléphone dans la voiture) sur les 15 millions de voyages effectués chaque jour. Ils utilisent des modèles ML pour accélérer le traitement et résoudre les tickets de support. La première itération des modèles a permis un gain de temps de 10% sur le temps de traitement des tickets, avec des niveaux de satisfaction similaires à meilleurs. La deuxième version a entraîné une accélération supplémentaire de 6%.

R ead soigneusement car cela peut être l'une des notes les plus importantes de cet article. Accélérer la résolution des tickets de 15% (temps de résolution moyen des tickets de 20 minutes 10% plus rapide correspond à une résolution moyenne de 18 minutes, puis une accélération de 6% signifie un temps de résolution de 16 minutes à 55 secondes, soit environ 15% plus rapide que le temps de résolution moyen initial de 20 minutes) représente la valeur de ML que la plupart des entreprises peuvent réaliser. L'IA / ML et même l'apprentissage en profondeur sont généralement annoncés d'une manière qui «révolutionnera» et «changera fondamentalement» les affaires. Dans certains cas, cela peut être vrai, mais dans la plupart des cas, les entreprises réaliseront des gains marginaux mais significatifs. Affecter un personnel à la résolution de 2 000 tickets par jour, puis réduire de 15% le temps de résolution signifie soit [1] que vous avez besoin de moins de personnel pour traiter le même nombre de tickets, soit [2] vous disposez de 15% de plus de temps pour résoudre un nombre de tickets supérieur à 2 000. moyenne quotidienne. En supposant que vos représentants de l'assistance clientèle résolvent 24 tickets par jour à raison de 20 minutes en moyenne par ticket sur 8 heures, ils sont payés 70 000 $ par an et vous suivez l'approche [1]. Avec une réduction de 15% du temps de résolution des tickets, vous pouvez supprimer 12 personnes tout en résolvant 2 000 tickets par jour, ce qui vous permet d'économiser 875 000 USD de salaire par an (ne leur dites pas de les renvoyer, mais de les réaffecter à autre chose). 875 000 USD économisés avec «seulement» une amélioration de 15% du processus métier dans ce cas d'utilisation. C'est le vrai pouvoir de l'IA / ML. Tangent over.

Estimation du temps d'arrivée

Le système d’heure estimée d’arrivée (ETA) d’Uber, probablement l’un des indicateurs les plus importants et les plus visibles de l’application, fournit des ETA sur les enlèvements et les arrivées. Si vous avez déjà fait un covoiturage sans savoir que les ETA sont indispensables à une expérience utilisateur positive. Pour Uber, des ETA correctes sont également importantes car les métriques ETA sont intégrées dans d'autres systèmes internes pour aider à déterminer les prix et le routage. L’équipe Uber’s Map Services utilise des modèles ML pour prédire les erreurs avec son système d’estimation ETA existant et apporte des corrections en fonction de la prévision des erreurs. L'ajout du modèle ML pour prévoir les ETA a considérablement augmenté la précision des prévisions, réduisant parfois le taux d'erreur de plus de 50%.

Voitures autonomes

Les systèmes de voiture autonome d’Uber utilisent ML pour des fonctions telles que la détection d’objets, la planification du mouvement et la formation distribuée efficace de grands modèles sur un grand nombre de machines GPU.

Transformer numériquement votre entreprise avec l'apprentissage automatique

Quiconque a déjà participé à la transformation numérique dans une grande entreprise comprend comment la structure organisationnelle peut faire ou défaire le succès de l'adoption d'une nouvelle technologie. Gartner’s a identifié au moins six obstacles à la transformation numérique autres que la technologie. Uber n'est pas différent et pour réussir, ML chez Uber nécessite davantage que la technologie.

Pour que ML réussisse sur Uber, ils ont pris en compte les facteurs de succès critiques dans trois domaines: utilisation de la technologie, processus en place pour activer ou gérer la transformation numérique et la structure organisationnelle. La suite de cet article couvre ces trois domaines, en fournissant ce que Uber a appris au cours des trois dernières années et les considérations à prendre en compte par les entreprises soumises au même processus de passage à l'échelle supérieure dans des cas d'utilisation importants pour le succès de l'entreprise.

Tirer parti de la technologie d'apprentissage automatique chez Uber

Uber, comme Facebook, nous a donné un aperçu intime de leur parcours avec le déploiement et la mise à l'échelle de l'infrastructure AI / ML dans les unités commerciales. Ils ont vu leurs déploiements ML augmenter à des centaines de cas d’utilisation avec des milliers de modèles déployés en production et des millions de prévisions faites chaque seconde. En trois ans à peine, ils ont également recruté des centaines de scientifiques, d’ingénieurs, de chefs de produit et de chercheurs.

Présentation de Michelangelo

Ils l'ont fait par le biais de leur plate-forme ML avancée, Michelangelo.

Michelangelo consiste en une combinaison de systèmes open source et de composants construits en interne lorsque les solutions open source n'étaient pas idéales pour leur cas d'utilisation. Les principaux composants open source utilisés sont HDFS, Spark, Samza, Cassandra, MLLib, XGBoost et TensorFlow. La préférence d’Uber est, dans la mesure du possible, de choisir des options Open Source matures, qui apportent ou contribuent aux bibliothèques Open Source selon les besoins. Pour interfacer avec Michelangelo, une interface utilisateur Web et des API (via les blocs-notes Jupyter) sont fournies. De nombreuses équipes utilisent l'interface API pour interagir avec Michelangelo pendant le flux de travaux ML (c'est-à-dire former, évaluer, déployer, prévoir).

Le fait de rassembler ces technologies à source ouverte et de les combiner avec des outils internes personnalisés ne vous donne pas, de manière inhérente, une plate-forme ML pouvant s’adapter à 40 millions de coureurs actifs par mois. Uber veille également à ce que les principales considérations techniques, à savoir le flux de travail ML de bout en bout, soient correctement corrigées. Il considère la ML comme une ingénierie logicielle, la vitesse de développement du modèle et le maintien d'une architecture modulaire et hiérarchisée.

Processus d’apprentissage automatique de bout en bout de Michelangelo

L’équipe d’Uber a découvert que le même flux de travail général existait dans la plupart des cas d’utilisation de ML, quel que soit leur type (classification, régression, prévision chronologique). Ils ont également conçu leur flux de travail standard de manière à être indépendant de la mise en œuvre et des modes afin de permettre une prise en charge étendue de la prise en charge de nouveaux algorithmes et structures avec la possibilité de le faire en mode hors connexion ou en ligne.

Le flux de travail standard utilisé dans Michelangelo comprend les six étapes suivantes:

  • Gérer les données. Fournit des outils standard pour la construction de pipelines de données afin de générer des ensembles de données de caractéristiques et d'étiquettes pour la formation et les prévisions. Ces outils ont une intégration profonde avec les Data Lake, les entrepôts de données et les systèmes de service de données en ligne de la société Uber. L’équipe de ML a constaté que la recherche de bonnes fonctionnalités était souvent la partie la plus difficile de la gestion de la configuration et que la création et la gestion de pipelines de données pouvaient être l’une des pièces les plus coûteuses d’une solution de gestion de la copie complète.
  • Modèles de train. Un système de formation à modèle distribué, avec une API front-end, capable de passer de petits jeux de données à de grands ensembles de données contenant des milliards d'échantillons. Pour chaque modèle formé, Michelangelo a un magasin de modèles qui conserve les attributs suivants: qui a formé le modèle, heure de début / fin de la formation, référence aux jeux de données de formation, métriques de précision du modèle, paramètres appris du modèle et statistiques de visualisation du modèle .. L'ingénierie de Michelangelo team ajoute régulièrement de nouveaux algorithmes en réponse aux besoins des clients (unités commerciales Uber internes) et permet aux équipes clients d’ajouter leurs propres modèles et codes pour plus de flexibilité.
  • Évaluer les modèles. Des rapports sur la précision des modèles et les fonctionnalités, ainsi que des visualisations, sont disponibles via une interface utilisateur Web et une API, qui aident les scientifiques des données à inspecter les détails d'un modèle individuel et à comparer un ou plusieurs modèles les uns par rapport aux autres.
  • Déployer des modèles. Michelangelo prend en charge de bout en bout la gestion du déploiement de modèles via l'interface utilisateur ou l'API, ainsi que trois modes de déploiement: déployé dans un conteneur serveur intégré en tant que bibliothèque dans un autre service).
  • Faire des prédictions. Divers services effectuent des déductions basées sur des API par rapport aux modèles hors ligne ou en ligne pour obtenir des prédictions basées sur des données d'entités chargées à partir d'un pipeline de données ou directement à partir d'un service client.
  • Surveiller les prévisions. Utilise des mesures en direct continues de la précision du modèle lors du suivi des prévisions. Cela garantit que les pipelines de données d’Uber continuent d’envoyer des données précises et que les environnements de production n’ont pas été modifiés au point que leurs modèles ne le sont plus.

ML en génie logiciel

L’équipe de Michelangelo a adopté comme principe important de considérer l’apprentissage automatique comme une ingénierie logicielle. Cela signifie que vous devez exécuter une plate-forme ML avec les mêmes processus itératifs, rigoureux, testés et méthodologiques utilisés en génie logiciel. Un exemple de cette philosophie d'exécution consiste à considérer un modèle ML comme une bibliothèque logicielle compilée. Si vous considérez le modèle comme une bibliothèque de logiciels, vous souhaiterez généralement suivre la configuration de la formation du modèle dans un système de contrôle de version rigoureux. Comme avec les logiciels, en l'absence de contrôles et de suivi corrects, Uber a constaté des cas de modèles construits et déployés en production, mais impossibles à reproduire car la configuration des données et / ou de la formation avait été perdue. Pour vous assurer que le logiciel fonctionne correctement, il est important d'effectuer des tests complets avant de déployer le logiciel et de surveiller le logiciel en production pour vous assurer qu'il fonctionne comme prévu. Uber adopte cette approche avec ML et évalue toujours les modèles par rapport aux ensembles existants avant le déploiement et surveille les modèles en production pour s’assurer qu’ils ne se comportent pas différemment de ceux qu’ils utilisaient dans l’évaluation hors ligne.

Développeur de modèles Velocity

La construction de systèmes ML nécessite de nombreuses itérations pour réussir. Cela est indépendant de ML, car la vitesse des itérations affecte la rapidité avec laquelle l'innovation évolue d'une organisation à l'autre et la productivité des équipes utilisant cette innovation, quelle que soit la technologie. L’équipe ML d’Uber a donné la priorité aux équipes de science des données d’aller plus vite au fur et à mesure que plus d’expériences sont menées, plus le nombre d’hypothèses testées est élevé et meilleurs sont les résultats.

Uber a partagé son flux de travail de projet d'apprentissage machine, en détaillant également différentes boucles de rétroaction au sein de ce flux. Le cœur du processus consiste en (1) la définition d'un problème, (2) le prototypage d'une solution, (3) la production de la solution et (4) la mesure de l'impact de la solution. Les autres boucles du flux de travail représentent des zones dans lesquelles de nombreuses itérations de collecte de commentaires sont nécessaires pour perfectionner la solution et mener à bien le projet.

La «vitesse zéro-à-un» ou «vitesse de mise en valeur» de Michelangelo est également essentielle à la propagation de ML sur Uber. Quelques principes se sont révélés très utiles pour permettre aux équipes de se développer rapidement:

  • Résolvez le problème de données (accès, intégration, gestion des fonctionnalités, etc.) de sorte que les informaticiens ne perdent pas leur temps à le faire.
  • Automatiser ou fournir des outils pour accélérer les flux de travail courants / récurrents.
  • Rendez le processus de déploiement rapide et magique en masquant les détails inutiles dans l'interface utilisateur et en proposant des déploiements en un seul clic.
  • Laissez les utilisateurs finaux utiliser les outils qu’ils aiment avec un minimum de dureté.
  • Permettez à la plate-forme de permettre la collaboration et la réutilisation avec des magasins de fonctionnalités, tels que les magasins de fonctionnalités, qui permettent aux modélisateurs de partager facilement des fonctionnalités et des métriques de haute qualité permettant à ces modèles d'être reproduits et utilisés par d'autres.
  • Guidez l'utilisateur à travers un flux de travail structuré en fournissant suffisamment de détails, le cas échéant, et automatisez-le dans la mesure du possible avec le système de gestion du flux de travail Michelangelo.

Nous allons maintenant passer à l’un des aspects les plus importants de l’adoption réussie du BC dans toute entreprise, à savoir la structure organisationnelle que vous avez mise en place.

Structurer votre organisation pour une adoption réussie du BC

Les exigences très diverses en ce qui concerne les problèmes de BC et les ressources limitées d'experts rendent la conception de l'organisation difficile et qu'il est important de bien faire les choses. La mise en place de la structure a permis aux projets Uber ML d’appartenir à des équipes composées de plusieurs scientifiques, mais également à des équipes disposant de peu, voire d'aucune expertise technique.

Équipes d'apprentissage automatique

Il est essentiel que les bonnes personnes travaillent sur les bons problèmes pour concevoir et adapter des solutions ML de haute qualité. Cela devient plus difficile avec la pénurie de talents en IA. Forbes a déclaré: «Il existe environ 300 000 professionnels de l'IA dans le monde, mais des millions de rôles sont disponibles. Bien que ces chiffres soient spéculatifs, les salaires et les avantages sociaux concurrentiels ainsi que les tactiques de recrutement agressives employées par les entreprises pour recruter des talents en intelligence artificielle suggéreraient que l'offre de talents en intelligence artificielle est loin de correspondre à la demande.

Face à cette pénurie, Uber a dû réfléchir intelligemment à l'affectation de ressources d'experts rares et à l'amplification de leur impact sur de nombreux problèmes de BC. Examinons quelques-unes des équipes clés et la manière dont elles travaillent ensemble pour concevoir, construire et déployer de nouveaux systèmes ML en production.

Équipes de produits

Chaque équipe d’ingénierie produit chez Uber est propriétaire des modèles qu’elle construit et déploie en production. Par exemple, l’équipe Map Services est propriétaire des modèles qui prédisent les ETA d’Uber et l’équipe Uber Eats possède ses modèles de classement des restaurants. Ces équipes disposent généralement de l’ensemble des compétences dont elles ont besoin, telles que des modules informels d’ingénieurs et d’informaticiens spécialistes du ML, pour la création et le déploiement de modèles à l’aide des plates-formes Uber de ML. En fonction du produit et de la complexité de la solution ML, les équipes produit peuvent parfois avoir une équipe de spécialistes qui comble les lacunes sur les offres de la plate-forme par rapport aux besoins spécifiques de cette équipe produit.

Equipes Spécialistes

Lorsque les équipes de produits ont besoin de compétences supplémentaires, qu’elles ne peuvent pas gérer avec leurs talents existants, elles font appel à des équipes spécialisées. Les équipes de spécialistes d'Uber structurent leurs équipes de spécialistes de manière à disposer d'une expertise approfondie dans différents domaines tels que le traitement du langage naturel, la vision par ordinateur, les systèmes de recommandation, les prévisions, etc. On peut voir un exemple d’équipes de produits collaborant avec des équipes de spécialistes du ML avec l’amélioration de la relation client avec NLP et ML. Les projets impliquant des équipes de spécialistes et de produits durent généralement de quelques semaines à plusieurs trimestres. Uber élimine judicieusement les projets à l'approche du lancement en ajoutant des experts à temps plein à l'équipe produit afin de combler le manque d'expertise. Cela permet à cette équipe produit de maintenir leurs propres systèmes en production et a également pour effet positif de libérer des ressources spécialisées.

Équipes de la plate-forme d'apprentissage automatique

L’équipe de la plate-forme Michelangelo crée et exploite un flux de travaux et des outils ML de grande envergure, utilisés directement par les équipes d’ingénierie des produits pour concevoir, déployer et exploiter des solutions d’apprentissage automatique. À mesure que les cas d'utilisation ML chez Uber deviennent plus sophistiqués, l'équipe Michelangelo met également au point des plates-formes spécifiques à un domaine afin de traiter des cas d'utilisation spécialisés qui ne sont pas aussi bien servis par les outils de flux de travail de Michelangelo. Les exemples de cas d’utilisation qui ne s’intègrent pas bien dans le système ML standard sont les plates-formes PNL et spécifiques à la vision par ordinateur construites avec des outils de visualisation spéciaux, des modèles pré-formés, le suivi des métadonnées et d’autres composants. Pour construire rapidement ces systèmes ML personnalisés, tout en minimisant les frais d'ingénierie, l'équipe de la plate-forme réutilise le plus possible la plate-forme Michelangelo existante.

Recherche

Uber maintient une équipe de recherche qui mène des recherches sur l'IA / ML et connecte des avancées de pointe dans le monde des affaires au travers d'équipes de produits. La charte de l’équipe de recherche est la poursuite des avancées fondamentales chez Uber avec AI / ML et un engagement vigoureux avec la communauté plus large du ML pour apprendre et proposer des innovations.

Maintenant que nous avons couvert les structures d’équipes qu’Uber utilise pour réussir l’adaptation et l’adoption de ML, examinons maintenant les processus utilisés pour augmenter l’impact que ces équipes peuvent avoir sur la société.

Processus visant à accroître la productivité et l'efficacité des équipes de blanchiment

Lorsque vous élargissez la portée du blanchiment de capitaux dans diverses organisations ayant différents cas d'utilisation, il est important de mettre en place les processus appropriés pour normaliser la productivité et l'efficacité des technologies adoptées par le blanchiment de capitaux. Au fur et à mesure de la maturation des opérations ML d’Uber, ils ont mis au point un certain nombre de processus pour guider les équipes et éviter les erreurs répétitives. Ces efforts de renforcement de la communauté centrés en interne et les processus de planification transparents aident à engager et à aligner les équipes de lutte contre le blanchiment d’enfants sur des objectifs communs. Permet de revoir quelques-uns.

Processus de lancement

La conception de processus fiables et reproductibles qui évitent les pièges de développement courants et vérifient le comportement du modèle souhaité est essentielle pour faire évoluer en toute sécurité la ML dans toutes les organisations chez Uber. Uber a également reconnu que les profils de risque différaient considérablement selon les cas d'utilisation et nécessitaient une approbation et des processus de lancement adaptés, car certains cas d'utilisation sont plus vulnérables aux comportements non intentionnels, aux cas délicats et aux problèmes juridiques / éthiques / de confidentialité complexes. Par exemple, le lancement d'un nouveau modèle de tarification nécessitera plus d'attention et de confidentialité que le lancement d'une mise à jour automatisée d'un modèle de prédiction ETA.

Pour ces raisons, comme mentionné précédemment, les organisations de produits possèdent les processus de lancement autour de leurs modèles ML. Ils disposent d'un manuel de lancement centralisé qui aborde les sujets généraux relatifs aux produits, à la confidentialité, aux lois et à l'éthique autour de l'expérimentation et du lancement de modèles ML, tout en leur permettant d'adapter ces processus à leur domaine de produits spécifique. Cela rend le processus plus efficace car les équipes de produits comprennent elles-mêmes les implications de différents comportements de modèle sur le produit et sont mieux à même de consulter des experts compétents pour évaluer et éliminer les risques.

Planification

Nous nous sommes tous retrouvés dans des situations où nos outils et plates-formes disponibles ne correspondaient pas parfaitement aux besoins de la business unit. C’est généralement là que nous nous diversifions et construisons nos propres systèmes adaptés à nos besoins. Uber tente de trouver le juste équilibre entre assurer aux équipes de produits le pouvoir de résoudre leurs propres problèmes, tout en faisant de bons compromis en matière d'ingénierie pour éviter la fragmentation et l'endettement technique. Pour gérer cela, Uber dispose d'un groupe interne de cadres supérieurs qui supervise l'évolution de l'outillage de blanchiment de capitaux au sein de l'entreprise pour s'assurer qu'ils font des compromis intelligents et maintiennent un alignement à long terme de l'architecture. Cette équipe est expérimentée, sensible aux compromis mentionnés plus haut et se positionne comme une aide plutôt que comme un organisme faisant autorité dans le seul but de réglementer ses citoyens.

Communauté

La mise à l'échelle de ML dans n'importe quelle grande entreprise nécessite une organisation connectée et collaborative. Pour construire cette communauté ML interne, Uber organise une conférence annuelle annuelle appelée UberML, qui a récemment accueilli environ 500 employés de plus de 50 groupes présentant des exposés ou des posters sur leur travail. J'ai vécu quelque chose de similaire avec Amazon. Je travaillais comme chef de file mondial dans le domaine de l'intelligence artificielle et j'ai été invité dans une grande salle de conférence pouvant accueillir entre un et deux cents personnes. En arrivant à l'événement interne, j'ai découvert un petit stade rempli de milliers de personnes travaillant sur l'IA / ML dans l'ensemble d'Amazon. Il y avait même des conférenciers invités de diverses autres sociétés du Fortune 500 travaillant sur AI / ML, l'un des conférenciers étant le CSO d'une société évaluée à plus de 70 milliards de dollars. Semblable à Uber, l'événement a permis aux équipes d'évangéliser leurs efforts en matière d'IA / ML et m'a permis de rencontrer d'autres personnes en rapport avec le travail que je faisais chez Amazon. Uber organise également des événements de renforcement de la communauté, notamment des groupes de lecture de ML, des séries de discussions et des déjeuners-causeries classiques pour les passionnés d’UM de Uber afin de se familiariser avec les projets internes de ML avec les personnes qui les ont construits. Intelligemment, ils s’engagent également avec la communauté externe du blanchiment de capitaux par le biais de conférences, de publications, de contributions à des projets open source, de collaborations sur des projets de blanchiment de capitaux et de recherches avec d’autres entreprises et universités. Ce processus d'engagement de la communauté externe s'est transformé en un effort mondial visant à partager les meilleures pratiques, à collaborer sur des projets de pointe et à améliorer de manière générale l'état de l'IA / ML.

Éducation

Tout comme il est courant pour les commerciaux de toujours être proche, il est important que les équipes de ML soient toujours en apprentissage. Ces ressources doivent rester au fait des développements de la théorie du BC, suivre et apprendre des projets internes de BC et maîtriser l’utilisation de nouveaux outils de BC, rendant indispensables le partage des informations et l’éducation sur des sujets liés au BC. Uber commence son éducation sur le ML pendant la première semaine de ses employés en organisant des sessions spéciales pour les camps d’entraînement de ML et de Michel-Ange pour tous les employés techniques. Ils communiquent d'importantes nouvelles fonctionnalités de Michelangelo par le biais de sessions de formation spéciales organisées à l'intention des employés qui utilisent fréquemment la plate-forme. Une documentation complète et efficace des outils clés (développeurs de logiciels not note) et des workflows utilisateur contribue également à encourager le partage des connaissances et l'adoption à grande échelle des outils de la plate-forme. Les heures de bureau sont également organisées par différents groupes de l'entreprise axés sur le blanchiment de capitaux pour offrir un soutien lorsque des questions se posent.

Conclusion

Entre la manière dont Facebook adapte son infrastructure AI / ML pour desservir plus de 2 milliards de personnes ou la manière dont Uber utilise sa plate-forme ML, Michelangelo, pour permettre l’innovation sur de nombreux produits et services, l’installation de ML dans une grande entreprise est un processus non trivial. Uber a beaucoup appris de ses succès et de ses échecs au cours des trois dernières années, où il a tout de suite bien fonctionné, mais plus souvent, il a fallu plusieurs itérations pour découvrir ce qui lui convenait le mieux. Les principales leçons apprises sont les suivantes:

  • Laissez les développeurs utiliser les outils qu’ils souhaitent.
  • Les données constituent la partie la plus difficile de ML et la pièce la plus importante à maîtriser.
  • Il faut parfois déployer des efforts considérables pour que les composants open source et commerciaux fonctionnent bien à grande échelle.
  • Développez de manière itérative en fonction des commentaires des utilisateurs, en gardant à l’esprit la vision à long terme.
  • Structurez vos équipes ML de manière à répondre au mieux aux exigences des cas d'utilisation métier que vous utilisez pour résoudre
  • Pensez intelligemment à tous les domaines nécessaires à l’adoption du BC dans votre entreprise (capacité de lancer rapidement des produits / services, planification de projet, éducation et création de communautés, etc.) et mettez en place des processus pour garantir le succès dans ces domaines.
  • Avoir un dirigeant de niveau assez compétent sur le plan technique pour comprendre le Machine Learning et plaider en faveur des équipes ayant besoin de concevoir des solutions ou d’adopter la technologie. À tout le moins, assurez-vous qu'un dirigeant de haut niveau a une relation de confiance avec votre responsable technique. Ainsi, lorsque ce responsable technique a une personne à défendre en son nom avec le leadership de la direction.

Enfin, le ML en temps réel est un défi pour réussir. Alors, prenez-vous au dépourvu si vous ne réussissez pas du tout au tout début, lorsque votre entreprise apprend, itère et élargit le champ d’application de ML pour favoriser l’innovation.