Entraînement
Cette page couvre tout ce que vous devez savoir sur la Boîte d'Entraînement et les nœuds que vous pouvez utiliser à l'intérieur.
Maintenant que vous avez initialisé les composants principaux de votre expérience, il est temps de définir le processus d'entraînement pour votre expérience. À l'intérieur, vous pouvez utiliser deux nœuds essentiels :
nœud Train Model: Définissez le processus d'apprentissage de votre pipeline.
Combiner des modèles: Combiner des modèles provenant de différents pipelines.

Entraîner le modèle : Nœud d'entraînement et d'optimisation du modèle
Ce nœud offre un contrôle complet sur le développement du modèle via quatre fonctions clés :
Entraînement du modèle de base
Ajustement des hyperparamètres
Assemblage de modèles
Étalonnage des probabilités
Les options de configuration correspondent aux options dans fonction paramètres (à l'exclusion des paramètre paramètres, qui sont définis dans le Nœud Modèle).

Dans le flux de travail d'apprentissage automatique, le nœud Entraîner le modèle est utilisé dans la section montrée ci-dessous :

Options de configuration :
1. Ajustement des hyperparamètres (Facultatif) : Activez cette fonctionnalité pour optimiser les performances de votre modèle. Cette fonctionnalité implémente directement options tune_model() fonction. Les paramètres de la fonction peuvent être définis dans le nœud.
Options d'ajustement :
Grille d'ajustement PyCaret par défaut: Le système va automatiquement :
Tester les plages de paramètres optimales
Appliquer la validation croisée
Retourner la configuration la plus performante
Grille d'ajustement personnalisée : Pour un contrôle avancé :
Sélectionnez les paramètres à ajuster parmi les options de votre modèle
Spécifiez soit :
Des valeurs exactes à tester (discrètes)
Des plages de recherche (continues)

2. Assemblage de modèles (Facultatif) : Activez pour assembler votre modèle entraîné. Cette fonctionnalité implémente directement options ensemble_model() fonction.
Configuration :
Sélectionnez la méthode d'ensemble (
méthode):Bagging : Entraînement parallèle avec échantillons bootstrap
Boosting : Entraînement séquentiel avec correction d'erreur
Sélectionnez le nombre d'estimateurs
n_estimators: Nombre de modèles à assembler (par défaut : 10)
3. Étalonnage des probabilités (Facultatif)
Améliorez la fiabilité des probabilités de classification. Cette fonctionnalité implémente directement options calibrate_model() fonction.
Pour configurer, choisissez la méthode d'étalonnage :
Régression logistique : Mieux pour les petits jeux de données (< 1 000 échantillons)
Régression isotone : Plus flexible pour des distributions complexes

Combiner des modèles : Combiner des modèles entraînés
Ce nœud permet des techniques de combinaison de modèles pour améliorer les performances prédictives. Connectez des modèles entraînés depuis les nœud Train Model nœuds pour créer soit des assemblages empilés soit des prédictions mélangées. Il représente la section de combinaison du flux de travail d'apprentissage automatique, comme montré ci-dessous :

Méthodes de combinaison
Empilement de modèles : Implémente options
stack_models()fonction pour entraîner un méta-modèle sur les sorties des modèles de base :Nécessite au moins 2 modèles
Le méta-modèle (par défaut : régression logistique) apprend les poids de combinaison optimaux
Mélange de modèles : Exécute options
blend_models()fonction pour faire la moyenne des prédictions :Pas d'entraînement de méta-modèle (exécution plus rapide)
Idéal pour les modèles ayant des profils de performance similaires
Notez que le modèle combiné final peut être étalonné à l'aide de options calibrate_model() fonction en activant simplement l'interrupteur Calibrer dans le nœud.

Ceci résume tout ce que vous devez savoir sur la Boîte d'entraînement. Bien qu'elle n'utilise qu'un ou deux nœuds, elle est essentielle pour votre expérience ML. À la page suivante, vous apprendrez à propos de la Boîte d'analyse ainsi que du Mode d'analyse, qui sont essentiels pour analyser les résultats de votre expérience.
Mis à jour