Fine-Tuning : Vous ne devriez pas
Vous voulez entraîner vos propres modèles ? Ne le faites pas. Voici pourquoi...
Bon matin à tous !
Vous vous demandez peut-être quel est ce email. Eh bien, c’est notre toute nouvelle newsletter du blog de Louis-François Bouchard auquel vous êtes abonnés, qui est écrite par moi-même et deux collègues.
Nous allons désormais nous vous envoyer des solutions et informations pertinentes autour de l’IA afin de résoudre des problèmes/questions concrets du monde réel et expliquer comment nous les avons résolus (ou comment nous les résoudrions).
Plongeons dans cette première itération!
La demande la plus courante de nos clients concerne le dilemme de l'entraînement des modèles : Devriez-vous utiliser votre propre modèle ? Devriez-vous l'entraîner ? Devriez-vous faire du fine-tuning ? Devriez-vous l'héberger ?
De nombreux clients viennent nous voir avec l'idée de fine-tuning de LLM open sources, tel que LLama3 8B, en pensant qu'il atteindra le même niveau de performance que GPT-4 sur des tâches spécifiques. Bien qu'il soit vrai que vous pouvez obtenir de bonnes performances grâce à l'ajustement fin, nous ne recommandons généralement pas de commencer avec cette approche pour un MVP ou une version initiale. L'ajustement fin n'est pas une tâche triviale et implique des investissements importants en temps et en coûts.
Voici pourquoi :
Coût et temps : La vérité est que le fine-tuning est coûteux et prend du temps. Nous recommandons plutôt de construire un prototype à faible coût avec le GPT-4o d'OpenAI ou même le modèle Claude Sonnet de Anthropic.
Efficacité : D'après nos expériences personnelles, l'utilisation d'un modèle propriétaire via une API l'emporte presque toujours. Cela est particulièrement vrai si votre budget est limité ou si vous n'êtes pas sûr qu'un LLM puisse faire ce que vous voulez.
Configuration facile : L'utilisation de LlamaIndex pour combiner le prompting avec la génération augmentée par récupération (RAG) est beaucoup plus rapide et plus facile. Ovadia et al. ont démontré que RAG surpasse systématiquement l'ajustement fin pour les connaissances rencontrées pendant l'entraînement et les connaissances entièrement nouvelles.
Mises à jour : Le fine-tuning c’est continu. Vous devrez réentraîner à mesure que les informations changent et avec de nouveaux modèles meilleurs. OpenAI ou Claude le fait pour vous, et une base de données RAG est facile à mettre à jour et à maintenir.
Le fine-tuning ne vaudrait la peine d'être envisagé que si :
GPT-4 + RAG ne peuvent pas répondre à vos attentes de performance pour vos tâches.
Vous avez déjà un MVP fonctionnel utilisant des API payantes et souhaitez un modèle moins cher/plus rapide.
Vous avez un membre de l'équipe possédant les compétences nécessaires, par exemple un ingénieur en ML, car l'ajustement fin est complexe et prend du temps, ou vous avez les moyens de payer le salaire de ce dernier.