
Si le marché des puces d’intelligence artificielle a actuellement du mal à trouver des investisseurs, la startup D-Matrix vient de redonner espoir à ce domaine de la tech. En effet, la start-up vient de boucler une levée de fonds de 110 millions de dollars pour ses puces dédiées à l’inférence des modèles d’IA. Ce tour de table vient s’ajouter aux 44 millions de dollars déjà levés par la startup depuis sa création. Voyons donc ce qu’il en est.
Une levée de fonds en série B
Au début de ce mois, la startup D-Matrix, basée à Santa Clara en Californie, annonce une levée de fonds en série B. Ce tour de table mené par Temasek est alors bouclé à 110 millions de dollars auprès d’investisseurs de renom tels que Microsoft Corp MSFT.O et Playgroung Global. Selon un communiqué de presse de la société basée dans la Silicon Valley, « l’objectif de cette levée de fonds est de permettre à d-Matrix de commencer à commercialiser Corsair, la première plateforme de calcul d’inférence basée sur les petites puces DIMC (Digital-In Memory Compute) au monde ». En tant qu’investisseur, ce sera alors à Microsoft de tester les puces de D-Matrix dès 2024 selon Sid Sheth, cofondateur et CEO de la startup.
Après avoir levé 40 millions de dollars depuis son lancement en 2019, la startup D-Matrix réussit ainsi une nouvelle levée de fonds importante qui va lui permettre de faire face à l’essor de l’intelligence artificielle générative. D’ailleurs, sur X (Twitter), D-Matrix a annoncé avoir « des plans d’expansion rapide », notamment face au succès grandissant des semi-conducteurs d’IA Nvidia. La startup annonce de ce fait être « prête à répondre à la demande croissante de calcul rentable et efficace pour l’inférence générative de l’IA ».
D-Matrix : spécialiste des puces d’intelligence artificielle
Selon Reuters, la startup D-Matrix est spécialisée dans l’intelligence artificielle, plus précisément dans la conception de puces optimisées pour faire fonctionner les applications d’intelligence artificielle générative telles que ChatGPT. Ces puces peu énergivores sont dotées d’un « calcul en mémoire » numérique permettant au code informatique de l’IA de s’exécuter de manière plus efficace et traitent ainsi les données nécessaires à la production de réponses d’IA générative.
C’est d’ailleurs là où la startup diffère de Nvidia puisque la technologie de D-Matrix vise la partie « inférence » du traitement de l’Intelligence Artificielle. D’ailleurs, selon Sasha Ostojic, partenaire de Playground : « Nous avons résolu la question de l’architecture informatique et les exigences en matière de faible consommation d’énergie et les besoins d’un centre de données – (nous) avons construit une pile logicielle pour offrir la latence la plus faible de l’industrie par ordre de grandeur. »