sdecoret - stock.adobe.com

IA : après son succès communautaire, Hugging Face vise les entreprises

Hugging Face entend convaincre les entités « data/IA » des entreprises attachées aux modèles ouverts d’adopter son Hub. La jeune pousse ne manque pas d’arguments.

Portée par l’IA générative, la startup franco-américaine a franchi la barre du million de modèles de machine learning et d’IA hébergé sur sa plateforme. À 15 h 37, ce 31 octobre 2024, le compteur affichait 1 080 488 modèles publics et plus de 230 000 jeux de données d’entraînement. Elle revendique 5 millions d’utilisateurs.

Hugging Face s’impose comme « La plateforme des bâtisseurs de l’IA »

« Nous avons découvert il y a quelques semaines cette statistique folle : un nouveau dépôt est créé toutes les 15 secondes [sur Hugging Face] », s’étonne Clément Delangue, cofondateur et CEO de Hugging Face, lors d’un atelier en ligne organisé le 30 octobre 2024 et diffusé sur X (Twitter), YouTube et LinkedIn. L’événement a réuni près de 4 500 personnes en simultané.

« Nous avons découvert il y a quelques semaines cette statistique folle : un nouveau dépôt est créé toutes les 15 secondes [sur Hugging Face] ».
Clément DelangueCofondateur et CEO, Hugging Face

Dans son pur esprit communautaire, le site Web permet de compter plus de 164 000 organisations, c’est-à-dire des groupes d’utilisateurs, qu’ils soient des entreprises, des instituts de recherche ou des collectifs de contributeurs.

La transparence va si loin qu’il est possible de compter les organisations Enterprise, celles payant au moins un abonnement à l’offre commerciale Enterprise Hub. Ce matin, LeMagIT a énuméré 995 organisations ayant souscrit à cette édition. Cela ne donne pas le nombre de sièges payants, car une organisation portant ce fameux sigle peut accueillir un seul membre (c’est le cas pour beaucoup d’entre elles) ou plusieurs centaines, comme Meta dont l’équipe réunit 424 membres. Pour des raisons évidentes de confidentialité, certaines ne révèlent pas le nombre de collaborateurs, à l’instar de Sanofi.

Selon les propos de Clément Delangue, à retrouver dans le podcast Generation Do It Yourself, 1 % des 5 millions d’usagers ont adopté la version payante disponible à travers deux forfaits : Pro (9 dollars par mois par siège) et Enterprise (20 dollars par mois par siège, une réduction s’applique une fois un certain volume dépassé). Malgré tout, la jeune pousse, valorisée à 4,5 milliards de dollars, serait déjà rentable.

Enterprise Hub : Hugging Face veut égaler le niveau de service de GitHub et GitLab

Et c’est justement pour convaincre ses usagers d’adopter Enterprise Hub qu’Hugging Face organisait son webinaire. Le nom l’indique, la solution inclut les fonctions de sécurité, de conformité et de contrôle des coûts qu’est en droit d’attendre une entreprise. « Les principaux éléments utiles pour les entreprises sont liés à la sécurité et au contrôle d’accès. L’authentification unique est donc l’un des éléments les plus importants mentionnés par les utilisateurs lorsqu’ils s’inscrivent à Enterprise Hub », déclare Nicholas Broad, ingénieur machine learning chez Hugging Face.

La compatibilité d’Enterprise Hub avec OpenID et SAML n’est donc pas surprenante. Outre les tokens d’accès pour les utilisateurs, l’authentification multifacteur, la signature des commits et les contrôles d’administration (lecture/écriture, accès aux jeux de données et aux ressources de calcul), Hugging Face conduit divers types de scan à la recherche de malwares, de secrets et de tentatives d’attaque d’exécution. Un audit log permet de tracer la majorité sinon toutes les activités concernant un Hub.

Par ailleurs, les administrateurs peuvent choisir d’héberger leurs modèles et jeux de données depuis des régions cloud américaines et européennes. Ce choix sera prochainement disponible pour les entreprises localisées en Asie pacifique, selon la documentation de l’éditeur. Si ce processus est conforme au RGPD, Hugging Face ne précise pas dans sa documentation chez quel fournisseur cloud il héberge les données.

Toutefois, dans sa politique de confidentialité, il indique qu’il exploite les services de différents fournisseurs tiers, dont AWS, GCP… et OVHcloud. Reste à savoir si les entreprises peuvent exiger d’utiliser un service de stockage cloud spécifique. En tout cas, l’acteur franco-américain recommande d’activer cette option : les gains de performances résultant de cette localisation sont conséquents. À titre d’information, GitHub a annoncé la disponibilité générale d’une fonctionnalité similaire… le 29 octobre dernier. Pour rappel, GitHub, GitLab et Hugging Face ont pour point commun de s’appuyer sur la même technologie : Git.

HUGS : un équivalent de NIM compatible avec les autres GPU du marché

Enterprise Hub peut également servir de control plane afin de déployer des modèles sur l’infrastructure de choix des usagers pour de l’inférence. Hugging Face propose également l’accès à des « capacités de calcul avancées » pour entraîner et inférer des modèles d’IA. Il y a la possibilité d’accéder à des instances Nvidia DGX Cloud propulsées par des GPU L40S (48 Go de VRAM ; 2,75 dollars par heure) et des H100 (80 Go de VRAM ; 8,25 dollars par heure). Les H100 propulsent également l’usage des API Nvidia NIM, consommable en mode serverless. Afin de tester ou de déployer des applications d’IA depuis ses Spaces, l’éditeur fournit l’option ZeroGPU, un système d’allocation dynamique d’instances GPU basé sur son SDK Gradio qui s’exécute sur des Nvidia A100 (40 Go de VRAM). ZeroGPU, une solution multitenant donc, est gratuite pour tous les utilisateurs, mais Hugging Face donnent des accès privilégiés à ses clients Pro et Enterprise.  

Le 23 octobre, l’entreprise a lancé, en accès anticipé, Hugging Face Generative AI Services, ou HUGS. HUGS est un service d’inférence « sans configuration » sous forme de microservices. Sur le papier, c’est un concurrent de NIM. Il doit permettre d’exécuter un certain nombre de LLM « open weight » compatibles sur les infrastructures d’AWS, de Google Cloud, de DigitalOcean et plus tard celles de Microsoft Azure. Les microservices HUGS prennent en charge les GPU Nvidia (A10G, L4, L40S, A100, H100), AMD (MI300X), et bientôt les puces dédiées à l’IA d’AWS (Inferentia et Trainium) et les TPU de GCP. La tarification est simple : 1 dollar par heure par conteneur. Hypothétiquement, les entreprises pourront déployer leurs conteneurs HUGS où ils le souhaitent tant qu’ils utilisent Kubernetes ou Docker et les équipements compatibles.

Les HUGS sont disponibles depuis les marketplaces d’AWS, de GCP et plus tard d’Azure. Les abonnés Enterprise Hub auront le choix de l’infrastructure.

« HUGS permet de gagner énormément de temps pour déployer localement des modèles prêts à l’emploi avec de bonnes performances – avant HUGS, cela nous prenait une semaine, maintenant nous pouvons le faire en moins d’une heure », confirme Henri Jouhaud, directeur technique chez Polyconseil, dans un billet de blog/communiqué diffusé par Hugging Face. « Pour les clients ayant des besoins souverains en matière d’IA, cela change la donne ».

Pour approfondir sur Data Sciences, Machine Learning, Deep Learning, LLM

Close