شاید من بد توضیح دادم، بحث baggin با بحث suffle کردن دیتاست متفاوته از جهاتی
توی suffle ما فقط ترتیب داده ها رو عوض می کنیم که بحثهای تئوری پشتش هست و مربوط میشه به خواص الگوریتم sgd
اما توی bagging ما n تا دیتاست تولید می کنیم که همیشون از یه دیتاست به وجود اومدن. حالا وقتی می خوایم روی هر کدوم از این دیتاست ها train کنیم شبکه رو ، از shuffling هم استفاده می کنیم.
اتفاقا استفاده از bagging یا کلا ایده ها boosting می تونه وقتی داده ها کمه خیلی مفید باشه.
استفاده از random forest برای داده های زیاد هم کاربرد داره. اما اینکه ایا برای یه مساله بهتر از شبکه دیپ جواب می ده یا نه، بحث دیگس. خوبیشون اینه که خیلی سریع آموزش داده میشن و می تونید ببینید چطوری برای مساله شما کار می دن
در مورد نتیجه نهایی واقعیتش اینه که نمی شه از اول نظر داد، در اکثر مواقع استفاده از این تکنیک ها اوضاع رو بهتر می کنه، اما هیچ ضمانت تئوری به این قضیه نیست که همیشه حتما باید اتفاق بیوفته