En tant que développeur en intelligence d’affaires chez Uzinakod, j’ai récemment assisté virtuellement au Sommet Données + AI de Databricks, un événement incontournable pour tous les professionnels qui œuvrent à la croisée de la donnée, de l’intelligence artificielle et du développement logiciel.
Chaque année, ce rendez-vous réunit des milliers de spécialistes, ingénieurs, analystes et décideurs venus découvrir les dernières innovations sur la plateforme Databricks, un outil que nous utilisons au quotidien chez Uzinakod pour concevoir des solutions adaptées aux besoins de nos clients.
L’intelligence d’affaires joue un rôle clé dans nos projets. Elle permet de structurer, d’exploiter et de valoriser les données pour améliorer la compréhension des opérations, soutenir la prise de décision et générer des gains d’efficacité. Comme les outils et les méthodes évoluent rapidement, il est essentiel pour mes collègues et moi de se former régulièrement, de tester de nouvelles approches et de rester à jour sur les capacités offertes par les technologies que nous intégrons dans nos solutions.
C’est dans cette optique que j’ai ressorti le top 5 des fonctionnalités les plus prometteuses selon mon expérience et les projets sur lesquels nous travaillons.

1. Lakeflow & Lakeflow Design
Lakeflow propose une approche centralisée pour la gestion des pipelines de données dans Databricks, en unifiant l’ingestion (Lakeflow Connect), la transformation (Declarative Pipelines) et l’orchestration (Lakeflow Jobs) au sein d’une interface native unique. Là où plusieurs outils distincts étaient auparavant nécessaires, cette solution simplifie considérablement les architectures de traitement.
Déjà disponible en version preview, Lakeflow est devenu généralement disponible (GA) lors du Sommet, marquant une étape importante dans sa maturité. Avec l’ajout de Lakeflow Designer, un éditeur visuel no-code alimenté par le langage naturel, la plateforme s’ouvre désormais à un public plus large, incluant les analystes et les utilisateurs non techniques.
Ensemble, ces outils réduisent la complexité technique, améliorent la gouvernance via Unity Catalog et favorisent une meilleure collaboration entre profils variés. Leur combinaison rend la création de pipelines plus rapide, plus accessible, et surtout plus alignée avec les besoins opérationnels actuels, c’est précisément ce qui m’a convaincu de leur potentiel.
2. Unity Catalog Metrics
Parmi les améliorations apportées à Unity Catalog, l’introduction des Metrics marque une avancée notable pour la gouvernance des indicateurs dans Databricks. Cette fonctionnalité permet de définir des métriques et KPI centralisés, auditables et gouvernés, qui peuvent ensuite être réutilisés dans l’ensemble du catalogue de données. Chaque métrique est associée à un lineage complet, ce qui facilite la compréhension de ses origines, de ses transformations et de ses usages en aval.
En pratique, cela permet de réduire les risques d’incohérence entre équipes, d’assurer un alignement sur les définitions d’indicateurs critiques et de renforcer la fiabilité des analyses produites à l’échelle de l’organisation. Les équipes peuvent ainsi certifier qu’elles utilisent toutes les mêmes métriques, dans un cadre sécurisé et contrôlé.
C’est le type de fonctionnalité qui, sans faire de bruit, résout un vrai problème de fond en BI: garantir que tout le monde parle la même langue lorsqu’il est question de performance, de qualité ou de pilotage.
3. Databricks One
Databricks One propose un nouvel espace de travail conçu pour les utilisateurs non techniques qui souhaitent explorer ou consommer de la donnée. L’interface donne accès à des tableaux de bord, à des applications internes, ainsi qu’à des assistants intelligents comme Genie, le tout sans exposer les utilisateurs à l’environnement de développement.
Ce découplage entre les environnements techniques et opérationnels améliore la sécurité, réduit les risques de mauvaise manipulation et encourage l’adoption de la plateforme à l’échelle organisationnelle. Il devient possible de livrer des données exploitables à des parties prenantes variées, tout en conservant un contrôle strict sur les accès et les permissions.
Cette séparation claire entre les rôles me semble essentielle pour encourager l’adoption sans sacrifier la stabilité ou la gouvernance.
4. Genie
Genie est une interface d’intelligence artificielle qui permet d’explorer les données hébergées dans Databricks via le langage naturel. L’utilisateur pose une question, l’outil génère automatiquement une requête SQL adaptée, puis affiche les résultats. Il est également possible d’extraire la requête pour la réutiliser ou l’ajuster.
Cette capacité transforme la manière d’interagir avec les données. Elle diminue la barrière technique pour les utilisateurs moins familiers avec le SQL, tout en offrant un gain de temps pour ceux qui souhaitent générer des analyses exploratoires rapidement. En automatisant la création de requêtes, Genie favorise la curiosité analytique et l’autonomie, tout en s’appuyant sur les fondations solides de la plateforme (catalogue, permissions, gouvernance).
Ce type d’outil ouvre la porte à une exploration de données plus libre, plus rapide et plus inclusive, ce qui me semble une direction très prometteuse.
5. Vector Search
Databricks a introduit une nouvelle version de son moteur de vector search, optimisée pour le stockage à grande échelle. Ce moteur sépare désormais le traitement du stockage, permettant de gérer des milliards de vecteurs tout en réduisant significativement les coûts d’indexation et d’inférence.
Cette optimisation est particulièrement pertinente dans le contexte des cas d’usage LLM (ex : recherche sémantique, assistants virtuels, recommandations, etc.), où le volume de données vectorisées peut devenir un frein économique. En rendant la recherche vectorielle plus accessible et évolutive, Databricks facilite le passage du prototype à la production pour les entreprises qui souhaitent intégrer des fonctionnalités IA avancées dans leurs systèmes existants.
C’est justement cette capacité à rendre viable, à grande échelle, ce qui relevait encore récemment du prototypage, qui justifie pleinement sa place dans ce top 5.
Conclusion
Le Sommet Données + AI 2025 de Databricks a présenté un éventail impressionnant de nouveautés, avec plus d’une vingtaine d’annonces couvrant des sujets aussi variés que la gouvernance, l’IA générative, la performance des workloads, ou encore les outils de migration.
Par contre, nous avons choisi de nous concentrer sur 5 fonctionnalités clés qui se démarquent par leur potentiel d’impact concret dans les projets. Ce sont des solutions qui répondent à des besoins réels rencontrés sur le terrain : simplifier les architectures, élargir l’accès aux données, accélérer la livraison de valeur ou encore rendre des approches IA plus accessibles et plus scalables.
Bien d’autres annonces méritent d’être explorées, mais ce top 5 offre un excellent aperçu des orientations stratégiques de Databricks et de la manière dont elles pourraient enrichir notre pratique de l’intelligence d’affaires.
Projet de données en vue? Contactez notre équipe d’experts.