in ,

Mistral AI lève 385 millions d’euros en Série A et lance le ChatGPT français

Mistral AI nouveau modèle d'IA générative

La startup française Mistral AI vient de conclure avec succès sa très attendue de série A, récoltant 385 millions d'euros, soit environ 415 millions de dollars au taux de change actuel. Cette opération, dirigée par Andreessen Horowitz (a16z), valorise Mistral AI à environ 2 milliards de dollars, selon les informations de Bloomberg. Simultanément, la société annonce le lancement de sa plateforme commerciale.

Fondée en mai 2023, Mistral AI avait déjà levé 112 millions de dollars pour créer un concurrent européen à . Comptant parmi ses cofondateurs d'anciens membres de DeepMind et Meta de Google, Mistral AI se focalise sur le développement de modèles fondamentaux avec une approche technologique ouverte. Outre Andreessen Horowitz, Lightspeed Venture Partners réinvestit également dans cette startup d'. Le tour de table voit également la participation de Salesforce, BNP Paribas, CMA-CGM, General Catalyst, Elad Gil et Conviction, parmi d'autres investisseurs.

Une approche plus ouverte et plus responsable

Depuis sa création il y a 7 mois, Mistral AI s'est engagé à devenir un acteur mondial dans le domaine de l' générative, avec une approche technologique ouverte, responsable et décentralisée. Du moins, c'est ce qu'a déclaré le fondateur et PDG Arthur Mensch.

En septembre dernier, Mistral AI a lancé son premier modèle appelé Mistral 7B. Conçu pour ne pas concurrencer directement des modèles tels que ou Claude 2, le Mistral 7B a été formé sur un ensemble de données relativement restreint d'environ 7 milliards de jetons.

Plutôt que d'offrir l'accès à ce modèle via des API, Mistral AI a choisi de le rendre disponible en téléchargement gratuit. Cette approche permet aux développeurs de l'exécuter sur leurs appareils et serveurs. Le modèle est publié sous licence Apache 2.0, offrant une utilisation sans restrictions au-delà de l'attribution.

Le modèle en question a été rendu public sous la licence Apache 2.0. C'est -à -dire une licence open source qui offre une liberté d'utilisation et de reproduction sans restrictions. Mais cela à condition de fournir une attribution appropriée. Cependant, bien que le modèle puisse être utilisé par n'importe qui, son développement s'est déroulé à huis clos. Ils ont cependant utilisé un ensemble de données exclusives et confidentielles.

L'influence de Mistral AI sur la réglementation de l'IA en Europe

Mistral AI a joué un rôle crucial dans l'orientation des débats autour de la nouvelle loi européenne sur l'IA. La position défendue par cette est en faveur d'une exemption totale des modèles fondamentaux. Selon la firme, la réglementation devrait se concentrer sur les cas d'utilisation spécifiques. Mais aussi sur les entreprises travaillant sur des produits directement utilisés par les utilisateurs finaux.

Récemment, les législateurs européens ont abouti à un accord politique qui soulève des implications importantes. Les entreprises qui travaillent sur des modèles fondamentaux seront alors soumises à des exigences spécifiques en matière de transparence. Elles devront partager une documentation technique détaillée ainsi que des résumés du contenu de leurs ensembles de données.

Quant à Mistral AI, elle a pris une décision stratégique en ne rendant désormais accessible son meilleur modèle que via une interface de programmation d'application (API). Bien que l'entreprise continue de chercher des moyens de monétiser ses modèles fondamentaux, elle annonce aujourd'hui le lancement de sa plateforme de développement en version bêta. Cette plateforme permettra à d'autres entreprises d'accéder et d'utiliser les modèles de Mistral AI moyennant des frais via des API.

Mistral 8x7B et Mistral 7B : les deux nouveaux modèles génératifs lancés par Mistral AI

Parmi les modèles disponibles, les développeurs auront accès au nouveau Mistral 8x7B. Celui-ci est également connu sous le nom de « Mistral-small ». Mais aussi du modèle Mistral 7B, baptisé « Mistral-tiny ». Ce dernier utilise un « de routeurs » pour traiter les jetons d'entrée.

L'article de blog de la start-up explique que la technique employée permet d'augmenter le nombre de paramètres d'un modèle tout en maîtrisant les coûts et la latence. En effet, le modèle n'utilise qu'une fraction de l'ensemble total de paramètres par jeton. Concrètement, Mistral 8x7B dispose de 45 milliards de paramètres au total, mais n'utilise que 12 milliards de paramètres par jeton. Ainsi, il traite les entrées et génère des sorties à la même vitesse et pour le même coût qu'un modèle 12B.

Notons tout de même que Mistral 8x7B est publié sous la licence Apache 2.0 et est disponible en téléchargement gratuit. En parallèle, un troisième modèle, Mistral-medium, est proposé sur la plateforme de développement de Mistral. Cependant, il se distingue en étant exclusivement accessible via la plateforme API payante, sans lien de téléchargement disponible.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *


The reCAPTCHA verification period has expired. Please reload the page.