Random Forest© est une implémentation avancée d'un algorithme de bagging qui utilise un modèle d'arbre comme modèle de base.
Dans les forêts aléatoires, chaque arbre dans l'ensemble est construit à partir d'un échantillon tiré avec un remplacement (par exemple, un échantillon d'amorce) provenant de l'ensemble d’apprentissage. Lors du fractionnement d'un noeud pendant la construction de l'arbre, le fractionnement sélectionné n'est plus le meilleur fractionnement parmi toutes les fonctions. Au lieu de cela, le fractionnement sélectionné est le meilleur fractionnement choisi dans un sous-ensemble aléatoire des fonctions. En raison de ce caractère aléatoire, le biais de la forêt augmente en général légèrement (par rapport au biais d'un seul arbre non aléatoire) mais, en raison de l’application d'une moyenne, sa variance diminue également. Elle compense en général plus que largement l’augmentation du biais, ce qui permet par conséquent d’obtenir un modèle globalement meilleur. 1
Le noeud Random Forest de watsonx.ai est implémenté dans Python. La palette de noeuds contient ce noeud et d'autres noeuds Python.
Pour plus d'informations sur les algorithmes de forêt aléatoire, voir Forêts d'arbres aléatoires.
1L. Breiman, "Random Forests," Machine Learning, 45(1), 5-32, 2001.