Bassem Asseh (Hugging Face) "L'objectif d'Hugging Face est de fournir à la communauté les modèles les mieux adaptés à leurs cas d'usage"

Bassem Asseh est head of sales chez Hugging Face. Il nous partage le modèle économique, les ambitions, et la vision générale d'Hugging Face.

JDN. Vous hébergez plusieurs centaines de milliers de modèles de ML et d'IA générative, ce qui doit représenter un coût conséquent. Quel est votre business model et quelles sont vos différentes sources de revenus ?

Bassem Asseh est Head of Sales (directeur des ventes) chez Hugging Face. © Hugging Face

Bassem Asseh. Notre business model et nos sources de revenus s'articulent autour de quatre éléments principaux. Tout d'abord, nous proposons un hub public gratuit qui permet aux utilisateurs d'accéder à nos modèles. La seule fonctionnalité payante est l'accès à des espaces de démonstration plus performants utilisant des GPU plus puissants. Ensuite, nous offrons une version similaire du hub public mais dédiée aux entreprises, accessible via un système de single sign-on.

Les fonctionnalités sont identiques à celles du hub public avec quelques options supplémentaires. Le modèle économique repose sur un abonnement par utilisateur et une facturation en fonction de la capacité de calcul utilisée. Enfin, afin de favoriser l'adoption des IA open source par les entreprises, nous créons des intégrations entre notre plateforme et divers fournisseurs de services et solutions. Cela permet de rendre nos modèles directement disponibles et utilisables dans les outils que les entreprises emploient déjà. L'objectif est de faciliter au maximum la diffusion et l'utilisation de nos technologies d'IA.

En seulement quelques années, vous êtes devenus la plateforme de collaboration sur l'IA numéro une. Quel est la recette qui fait aujourd'hui le succès d'Hugging Face ?

Nous sommes considérés comme la maison de la communauté open source de machine learning et d'intelligence artificielle. C'est l'endroit où les gens viennent naturellement pour rechercher et trouver des modèles, des jeux de données (datasets) ou des articles de recherche. Une fois qu'ils les ont trouvés, ils peuvent également publier leurs propres jeux de données, articles de recherche ou modèles sur lesquels ils ont travaillé, dans un format le plus ouvert possible. Quand je parle de communauté, cela peut être des ingénieurs individuels mais aussi des groupes d'ingénieurs travaillant ensemble, des équipes de recherche ou des entreprises souhaitant partager un modèle ou des jeux de données. Tous peuvent le faire sur le hub public de Hugging Face. D'autre part, on y trouve des fonctionnalités utiles, spécifiquement dans le monde de l'IA. Il est très bien d'avoir un modèle, mais c'est encore mieux lorsqu'il est présenté avec toutes les métadonnées qui le décrivent et la possibilité de voir les résultats qu'il peut produire.

"Notre objectif principal est de fournir à l'ensemble de la communauté, y compris aux entreprises, les modèles les mieux adaptés à leurs cas d'usage."

Ces derniers mois, vous avez multiplié les partenariats avec Google Cloud, Nvidia, AWS, etc. Prévoyez-vous de maintenir cette cadence ?

Bien que certains partenariats soient plus visibles, comme ceux avec les fournisseurs de cloud AWS et Google, qui permettent de mettre à disposition les modèles de notre hub dans les espaces privés des entreprises, il existe également des collaborations tout aussi importantes mais moins médiatisées. C'est notamment le cas avec des fabricants de matériel comme Nvidia, Dell et d'autres producteurs de puces et de serveurs. Nous nous efforçons de maintenir ce rythme de partenariats tant que nous en avons la capacité, ce que nous parvenons à faire sans trop de difficultés pour le moment. Notre objectif principal est de fournir à l'ensemble de la communauté, y compris aux entreprises, les modèles les mieux adaptés à leurs cas d'usage.

Non seulement vous soutenez des solutions d'IA libres, mais vous éditez ou co-éditez également des modèles d'IA génératifs de très bonne facture. Pourquoi avez-vous fait ce choix ?

Bien que notre cœur de métier ne soit pas principalement le développement de modèles, il nous arrive d'y contribuer aux côtés d'autres acteurs de la communauté. Cette démarche s'inscrit dans le principe de l'open science, qui vise à rendre l'intelligence artificielle et le machine learning aussi ouverts que possible. Lorsque nos experts internes, extrêmement pointus dans certains domaines, souhaitent apporter leur contribution, ils sont encouragés à le faire. Nous cultivons une culture d'entreprise fondée sur la science ouverte, aussi ouverte que possible. Conscients que le monde de l'IA repose en grande partie sur la recherche scientifique, nous considérons cette contribution comme une façon supplémentaire de nous impliquer dans cet écosystème.

Vous venez de lancer un projet de robotique ouverte avec Remi Cadene, ancien scientifique de Tesla. Quel est son but ?

C'est encore très récent. Notre démarche s'inscrit dans la continuité de notre philosophie d'open science, y compris dans la robotique qui englobe une partie d'IA, mais qui va aussi au-delà de l'IA au sens numérique du terme. Nos choix d'investissement sont guidés à la fois par ce principe général de sciences ouvertes, mais aussi par les rencontres et les échanges qui peuvent avoir lieu au sein de la communauté. Il n'est pas rare qu'un membre de la communauté devienne salarié de Hugging Face, dès lors que cela contribue à notre objectif de diffuser et de démocratiser l'intelligence artificielle open source et le machine learning open source.

Quelle est votre stratégie pour attirer et retenir les talents dans un domaine aussi compétitif que l'IA à Paris ?

Premièrement, la marque Hugging Face jouit d'une grande notoriété dans le monde de l'IA. Sans prétendre être l'employeur le plus attrayant, force est de constater que toute personne familière avec l'univers de l'IA connaît Hugging Face et peut être tentée d'y travailler. Dès lors que les compétences d'un candidat correspondent aux besoins de l'entreprise et de la communauté, le recrutement peut se concrétiser sans réelle difficulté.

Deuxièmement, notre organisation très décentralisée facilite le processus de recrutement. Lorsqu'une équipe travaillant sur un projet spécifique a besoin de ressources supplémentaires, l'analyse de la rentabilité d'un recrutement se fait rapidement. Si la personne qui rejoint l'équipe a un impact positif sur l'open source, elle est généralement recrutée sans obstacle, avec le soutien de la communauté. Par ailleurs, notre approche décentralisée nous permet non seulement d'identifier rapidement les profils adéquats, mais aussi de recruter les personnes là où elles se trouvent, sans contrainte géographique. Nous n'imposons pas à nos collaborateurs de travailler à Paris ou dans une autre ville en particulier. Cette flexibilité s'applique à l'ensemble de nos équipes, qu'il s'agisse des départements de recherche, d'ingénierie ou de la plateforme.

Qu'est-ce qui fait de Paris (et de la France) un véritable hub mondial de l'IA ?

"Paris offre un cadre de travail attractif, propice à l'épanouissement des talents"

L'école française a historiquement mis l'accent sur les mathématiques, une discipline qui, avec les statistiques, constitue un socle de compétences essentielles dans le domaine de l'IA. Cette culture se prolonge dans l'enseignement supérieur, avec des écoles d'ingénieurs réputées qui forment des profils hautement qualifiés. En outre, Paris offre un cadre de travail attractif, propice à l'épanouissement des talents. La capitale française séduit notamment les entreprises américaines qui cherchent à recruter des compétences à l'étranger. Elles y trouvent un environnement socio-économique et culturel favorable, tant pour leurs cadres chargés de lancer des filiales que pour leurs équipes locales.