Skip to main content

Starburst LinkedIn

Grâce à son architecture ouverte, hybride et fédérée basée sur Trino, Starburst supprime ces limites et optimise l’accès aux infrastructures d’inférence les plus avancées. « Notre collaboration avec Starburst, pour optimiser leur plateforme basée sur Trino pour le CPU NVIDIA Vera, fournira une solution fondamentale pour le traitement de données fédérées en temps réel. starburst « L’avenir de l’IA d’entreprise repose sur la capacité à obtenir instantanément des insights à partir de données souvent réparties dans des environnements hybrides complexes », a déclaré Dion Harris, Senior Director HPC, Cloud et AI Infrastructure chez NVIDIA. » Les bénéfices pour les clients Starburst Les premiers tests de benchmarking montrent que Starburst sur CPU NVIDIA Vera offre des performances de requête nettement supérieures et une efficacité CPU bien plus élevée que les configurations traditionnelles basées sur des processeurs x86. Starburst, leader des plateformes de données et d’intelligence artificielle, annonce des optimisations pour le CPU NVIDIA Vera, dévoilé lors de la conférence NVIDIA GTC. Jitender Aswani, SVP Engineering chez Starburst, explique ainsi que « Avec Trino sur NVIDIA Vera, nous débloquons un nouveau niveau de performance pour l’accès fédéré aux données.

Le Lakehouse bénéficie des performances du CPU NVIDIA Vera

Portée par ses nouvelles capacités IA, la société a signé plusieurs contrats à huit chiffres et doublé son activité hors des États-Unis. En février 2026, l’entreprise a franchi le cap symbolique des 100 millions de dollars d’ARR, avec une croissance annuelle de près de 40 % et un run rate IA déjà estimé à 20 millions de dollars. L’approche a séduit plus de 60 pays et des poids lourds comme Comcast, Citigroup ou quatre des cinq premières banques mondiales. Dans le monde des lakehouses, il y a les deux mastodontes Databricks et Snowflake qui vous demandent de centraliser vos données chez eux avant de faire quoi que ce soit (bon okay, on carricature là). Vera n’est pas encore sorti, que déjà Starburst y voit une opportunité de grignoter de nouvelles parts de marché. « Notre feuille de route est axée sur la suppression des silos de données et la fourniture de l’infrastructure nécessaire pour alimenter ces agents avec des informations contextuelles et gouvernées, de leur ingestion à leur analyse », avance Matt Fuller.

  • Combinant trois activités complémentaires – accélérateurs, conseils et entreprises – l’entreprise aide les acteurs de l’aérospatiale et de la défense à innover, à naviguer et à investir dans l’écosystème dynamique.
  • Starburst est le principal accélérateur de startups et cabinet de conseil stratégique dans le domaine de l’aérospatiale et de la défense (A&D).
  • Il y a inclus un catalogue de données pour favoriser la découverte des données, une couche de gouvernance, des capacités de transformation et de gestion de flux de données, et même des outils d’analytique en libre-service.
  • Type Société civile/Société commerciale/Autres types de sociétés
  • Collectivement, les nouvelles capacités poursuivent l’objectif de Starburst de fournir aux clients un accès rapide et gouverné aux données distribuées, selon Matt Fuller.

Pour les entreprises qui déploient Vera dans ces configurations, c’est une pile complète prête pour l’inférence, de l’infrastructure jusqu’à l’exploitation des insights. Avec NVIDIA Vera, Starburst entend apporter l’analytique temps réel et l’inférence directement là où résident ces données. Annoncée lors du GTC 2026, l’optimisation de la plateforme Trino pour le nouveau CPU datacenter Vera de NVIDIA positionne Starburst comme le premier lakehouse ouvert et hybride taillé pour l’inférence IA fédérée en production. « Pour soutenir cette intégration, Starburst ferait bien de s’associer à davantage de plateformes de modèles d’IA/ML et de framework de développement d’applications ». « L’innovation en matière d’IA est centrée sur l’intégration des données, des modèles et des applications », note-t-il. Starburst vise à s’assurer que les clients disposent d’une base de données capable de prendre en charge ce type d’applications.

L’éditeur a déjà lancé des fonctionnalités de traitement du langage naturel qui permettent aux utilisateurs d’analyser des données sans écrire de code. Au-delà des AI Workflows, Starburst ajoute de nouvelles capacités d’IA avec AI Agent. La suite comprend AI Search pour transformer les données non structurées en embeddings vectoriels dans Apache Iceberg. Dans les faits, elle permet la fédération de données entre différents entrepôts, lacs et bases de données. Basée sur le moteur de requête Trino, la plateforme de Starburst (Galaxy en mode SaaS et Enterprise pour les déploiements self-managed/sur site) est souvent présentée comme le moyen de rendre tangible l’approche Data Mesh.

Nouvelles

Merci de noter également que les commentaires ne sont pas automatiquement envoyés aux rédacteurs de chaque article. Disponibilité Starburst étudie comment l’architecture CPU NVIDIA Vera peut améliorer les charges analytiques et d’IA propulsées par Trino. À l’inverse, les écosystèmes Hadoop et Spark traditionnels ne prennent pas nativement en charge l’inférence.

Services et conseil aux entreprises

Starburst est devenu une équipe mondiale de 70 membres dévoués, avec un portefeuille de plus de 150 startups, 27 programmes d’accélération et 1 fonds de capital-risque actifs. Domaines Corporate Scouting, Startup Business Development, Venture Investing, Matchmaking, aerospace, defense, space tech, accelerators, consulting, innovation et corporate strategy Type Société civile/Société commerciale/Autres types de sociétés

Différenciation concurrentielle Starburst adopte une approche que ni les data warehouses cloud propriétaires ni les plateformes historiques ne peuvent reproduire. « Avec NVIDIA Vera, Starburst vise à apporter l’analytique et l’inférence en temps réel directement là où se trouvent ces données. « L’avenir de l’IA d’entreprise dépend d’un accès rapide à des données gouvernées », a déclaré Justin Borgman, fondateur et CEO de Starburst. Les analyses et l’inférence peuvent ainsi être exécutées directement là où résident les données, dans les data lakes, les data warehouses et les systèmes opérationnels, sans déplacement ni duplication.