La référence des équipes data qui exploitent Databricks à grande échelle
Connexion en quelques minutes
Un token. Une visibilité totale sur Databricks.
Connectez chaque workspace Databricks via un service principal ou un access token, puis pointez DoiT vers vos system tables. Nous ingérons automatiquement la consommation de DBU, les exécutions de jobs et les métadonnées des clusters, puis les rapprochons de votre facture cloud AWS ou Azure — sans exporters ni pipelines warehouse à maintenir.

Ce que vous obtenez
Conçu pour la réalité d'une exploitation sur Databricks
Les fonctionnalités que les responsables data et FinOps nous demandent réellement lorsqu'ils connectent leurs workspaces Databricks.

Reporting unifié DBU et cloud
Segmentez la dépense par workspace, cluster, job ou tag et visualisez les DBU ainsi que le compute et le stockage sous-jacents dans un seul rapport.

Anomalies en temps réel
Soyez alerté en quelques minutes — et non plus en quelques heures — en cas de pic de DBU ou de job qui s'emballe.

Right-sizing des clusters
Repérez les clusters all-purpose et job surdimensionnés grâce à des recommandations concrètes d'instances et d'autoscaling.

Attribution par job et notebook
Rattachez chaque DBU au job, pipeline ou utilisateur précis qui l'a déclenché.

TCO serverless vs classique
Comparez côte à côte le SQL serverless, les DLT et le compute classique pour identifier où chaque workload a réellement sa place.

Gouvernance et budgets
Définissez des budgets DBU par équipe ou par workspace et repérez les dérives avant la finance.
Les system tables disent ce qui s'est exécuté. Cloud Intelligence™ vous permet d'agir.
Bien plus que les system tables de Databricks
Consolidation multi-workspace
Vues consolidées sur l'ensemble de vos workspaces et comptes Databricks, avec drilldown jusqu'au cluster ou au job de votre choix.
Alertes d'anomalies en temps réel
Détection par machine learning sur les dimensions workspace, cluster et job, avec notifications Slack ou e-mail.
Planification des commitments DBU
Modélisez les paliers de commit Databricks et les Savings Plans cloud au regard de l'usage réel, avant de signer un contrat.
Hygiène des tags et de l'allocation
Identifiez les clusters sans tag, appliquez vos règles d'allocation et répartissez les DBU partagés comme la finance l'attend.
Allocation des coûts au niveau du job
Ventilez la dépense DBU par pipeline, notebook et utilisateur sans avoir à construire votre propre lineage.
Forward Deployed Engineers
Des architectes cloud d'exception qui agissent comme le prolongement de votre équipe pour déployer les optimisations.
Les entreprises en forte croissance s'appuient sur DoiT Cloud Intelligence™
D'économies moyennes pour nos clients durant les 90 premiers jours
De délai moyen de mise en œuvre
“La fiabilité de DoiT, associée à la flexibilité de la plateforme, nous permet d'optimiser nos workloads Amazon EKS en toute sécurité, sans aucune intervention de nos Engineers.”
Oren Ashkenazy
Director of DevOps and Cloud, Fiverr
Prêt à connecter vos workspaces Databricks ?
Réunissez DBU et dépense cloud sur une seule interface.
Frequently asked
questions
Comment obtenir une visibilité sur les coûts Databricks à travers plusieurs workspaces ?
Connectez chaque workspace une seule fois via un service principal. Cloud Intelligence™ ingère l'usage depuis les system tables Databricks et le rapproche de votre facture cloud : vous segmentez DBU, jobs et clusters par workspace, équipe ou tag depuis une vue unique.
Quelle est la meilleure façon d'intégrer les données de facturation Databricks à Cloud Intelligence™ ?
Accordez un accès en lecture seule à votre schéma system.billing et connectez votre compte AWS ou Azure sous-jacent. DoiT prend en charge l'ingestion, la normalisation et le reporting horaire. La plupart des équipes sont opérationnelles en une journée.
Puis-je identifier les jobs, notebooks ou utilisateurs qui génèrent l'essentiel de ma dépense DBU ?
Oui. Vous pouvez descendre des totaux d'un workspace jusqu'à une exécution de job, un pipeline DLT, un SQL Warehouse ou un utilisateur précis. Filtrez par tags de cluster, par workspace ou par type de compute, sans écrire une ligne de SQL sur les system tables.
Comment surveiller les anomalies de coût Databricks en temps réel ?
La détection d'anomalies s'exécute en continu sur les dimensions workspace, cluster et job. Dès qu'un pic de consommation de DBU survient, vous recevez une alerte Slack ou e-mail avec la cause probable, avant que le dépassement n'apparaisse sur votre facture.
Comment cela se compare-t-il aux dashboards d'usage et aux system tables natifs de Databricks ?
Les system tables fournissent des données d'usage brutes. Cloud Intelligence™ les transforme en véritable plateforme : reporting unifié DBU et infrastructure cloud, right-sizing proactif, détection d'anomalies en temps réel, budgets et logique d'allocation sur laquelle la finance comme l'engineering peuvent s'appuyer.
Puis-je comparer les coûts de compute serverless et classique ?
Oui. Les rapports détaillent côte à côte le SQL serverless, les DLT, le model serving ainsi que les clusters classiques all-purpose et job, coût de l'instance cloud sous-jacente inclus, pour déterminer où chaque workload doit s'exécuter.
Est-ce compatible avec Databricks sur AWS, Azure et GCP ?
Oui. Cloud Intelligence™ prend en charge Databricks chez les trois hyperscalers et corrèle l'usage des DBU avec la facture AWS, Azure ou Google Cloud correspondante, pour un coût total de possession fidèle à la réalité.
Mes données sont-elles sécurisées lorsque je connecte Databricks ?
Cloud Intelligence™ utilise des identifiants en lecture seule avec des permissions au plus juste sur vos workspaces et system tables. Nous ne modifions jamais vos jobs, clusters ou données, et la plateforme est certifiée SOC 2 Type II.
