Uber et Amazon AWS : un partenariat stratégique pour révolutionner la mobilité en temps réel

Le géant mondial du VTC et de la livraison à la demande vient de franchir un nouveau cap technologique. Uber a officiellement étendu son contrat cloud avec Amazon Web Services (AWS), en intégrant massivement deux puces de pointe : Graviton4 pour son infrastructure de calcul en temps réel, et Trainium3 pour l’entraînement de ses modèles d’intelligence artificielle. Une décision stratégique qui illustre la montée en puissance du matériel personnalisé dans la compétition IA mondiale.

Des millions de courses traitées en quelques millisecondes

Chaque fois qu’un utilisateur ouvre l’application Uber, une mécanique invisible se met en marche. Les Trip Serving Zones, dont l’infrastructure est associée à un ou plusieurs data centers, constituent le cœur opérationnel de la plateforme : elles traitent chaque opération en temps réel, depuis la recherche d’un chauffeur à proximité jusqu’au calcul du temps de trajet, en passant par la vérification de sa disponibilité. 

La volumétrie est vertigineuse. Ce système doit gérer des millions de prédictions et le traitement de données de localisation en quelques millisecondes seulement. Pour tenir cette cadence sans faillir, Uber a fait le choix de migrer une part croissante de ses opérations vers les puces Graviton4 d’Amazon.

Graviton4 : la puce ARM qui change la donne

Présentés fin 2023 et disponibles depuis l’été 2024, les processeurs Graviton4 basés sur l’architecture ARM offrent des performances de calcul 30 % supérieures à leur prédécesseur, le Graviton3.

Pour Uber, les bénéfices sont immédiats et mesurables. Le recours aux instances tournant sur Graviton4 lui permet de réduire sa consommation d’énergie de 60 % par rapport à d’autres instances similaires. Un chiffre significatif pour une entreprise dont l’infrastructure tourne 24h/24, 7j/7, dans des dizaines de pays simultanément.

Les hautes performances de Graviton permettent d’effectuer certains calculs en temps réel qui contribuent à une mise en relation plus rapide des passagers et des chauffeurs, sans compromettre la fiabilité, la disponibilité ni la sécurité. Résultat : moins d’attente pour l’utilisateur, moins de charge pour les serveurs, et une gestion optimisée des pics d’activité aux heures de forte demande.

Trainium3 : entraîner l’IA à une tout autre échelle

Si Graviton4 assure la puissance de calcul au quotidien, Trainium3 joue un rôle différent mais tout aussi crucial. Il s’agit d’une puce dédiée à l’entraînement de modèles d’intelligence artificielle à partir de volumes massifs de données. 

Uber utilise les puces Trainium3 pour entraîner les modèles d’IA destinés à ses applications, dans le but d’améliorer la précision de ses algorithmes de prédiction : estimation du temps d’arrivée, tarification dynamique, détection des comportements suspects ou encore optimisation des itinéraires.

La puce est optimisée pour les nouvelles classes d’applications d’IA telles que les agents autonomes, les modèles de type mixture of experts, l’apprentissage par renforcement à grande échelle et les architectures à contexte long.  Autant de capacités dont Uber entend tirer parti pour continuer à affiner son expérience utilisateur.

Un mouvement qui redistribue les cartes du cloud IA

Au-delà d’Uber, ce partenariat s’inscrit dans une tendance de fond. Plusieurs entreprises majeures ont déjà choisi d’adopter ou d’intensifier l’usage des puces développées par Amazon, confortant la position d’AWS comme acteur clé dans l’innovation matérielle appliquée à l’IA. 

Ce choix stratégique présente plusieurs avantages : une meilleure maîtrise des coûts à long terme, une optimisation des performances pour des usages spécifiques, et une indépendance accrue vis-à-vis des fournisseurs traditionnels. En clair, Amazon ne se contente plus de louer de la puissance de calcul générique : il construit des puces taillées sur mesure pour les besoins précis de ses clients enterprise.

Lien vers l’article complet