سلام
یادگیری عمیق یه مفهوم کلی هست، چیزی مثل هر فیلد دیگهای مثل ریاضی یا فیزیک و در دل خودش کلی زیرمجموعه و شاخههای مختلف داره
و نکته مهمتر اینکه شرایط مساله شما بحث با ناظر بودن یا بدون ناظر بودن رو دیکته می کنه، نه مدلی که استفاده می کنید
برای مثال اگه نیاز باشه image classification انجام بدید و یه دیتاست دارید همه تصاویر label خورده، مساله با ناظره اما اگه مثلا قرار بود همین کار رو انجام بدید اما 1 میلیون تصویر داشتید که هیچ کدوم label نداشت، مساله بدون ناظر میشد
خلاصه حتی قبل از رسیدن به مدل و یادگیری عمیق و ....، تقریبا کامل معلومه مساله توی چه دسته ای قرار داره (ذات مساله، دیتاست شما و ....)
اما وقتی به مدل هم برسیم، مثلا بعضی مدلها داریم که مخصوص کارهای بدون نطارت طراحی شدن و بعضی هم برای کارهای بانظارت
در مورد RTE (لطفا چیزهایی که احتمالا برای دوستان ناآشنا هست رو فقط مخفف نگید، اینجا هم من فرض می کنم منظورتون text entailment بوده)، باید گفت خیلی کارهای متنوعی میشه کرد
برای نمونه یه مبحث شاید یکم ساده تر رو در نظر بگیریم که sentiment detection باشه. در نگاه اول شاید حتی باور کردنش هم سخت باشه که بدون نظارت و به عنوان یه محصول جانبی از text generation به وجود بیاد
Learning to Generate Reviews and Discovering Sentiment
https://arxiv.org/abs/1704.01444
ولی به هر حال به یه دلیلی اتفاق افتاده. برای text entailment هم میشه تصور کرد که بشه به صورت unsupervised یا weakly supervised حداقل انجام بشه (چون تهش اگه text generation به خوبی حل بشه، میشه فرض کرد که این مسائل هم به عنوان زیرمجموعه اش حل شده)
ولی فعلا بهترین جواب ها بیشتر از طریق روش های supervised بدست اومده (چون مدلهایی که براشون داریم بهترن!)
در مورد تعداد هم همینطوری نمیشه چیزی گفت ولی اگه قرار دیپ لرنینگ استفاده کنید، یه جواب کلی اینه که هرچی بهتر بیشتر، اما چون احتمالا از dataset های موجود استفاده می کنید، دیگه باید ببینید مقالات جدید از چه مدلهایی استفاده کردن و با اون حجم از داده چه جوابهایی گرفتن