به بخش پرسش و پاسخ یادگیری عمیق خوش آمدید,
این نسخه آزمایشی سایت است.
لطفا به نکات زیر توجه کنید:
  • برای ارتباط با مدیران میتوانید از صفحه مدیران اقدام کنید.
  • سوال و جواب ها باید به زبان فارسی باشند. استفاده از زبان انگلیسی یا فینگلیش برای پاسخ دادن مجاز نیست.
  • لطفا بعد از پرسش سوال لینک سوال خود را در گرو تلگرام (Iran Deep Learning Group) معرفی کنید تا سریعتر به جواب برسید. برای دسترسی به آخرین لینک از منابع یادگیری استفاده کنید
  • لطفا بجای عکس از متن استفاده کنید. اگر متون طولانی هستند از سایت pastebin.com برای اپلود استفاده کرده و لینک حاصل را در سوال خود قرار دهید. برای قرار دادن تصویر ، از بخش ارسال تصویر ادیتور سایت استفاده کنید.
  • بعد از دریافت پاسخ، بهترین پاسخ را از طریق کلیک بر روی علامت تیک انتخاب کنید
  • اگر با خطا و یا مشکلی مواجه شدید از بخش تماس با ما در انتهای صفحه و یا ایمیل Coderx7@gmail.com موضوع را اطلاع دهید.

با تشکر

دسته بندی ها

0 امتیاز

همان طور که می دونید چالش اصلی در مسایلی با تعداد ابعاد بالا یا تعدا کلاسهای زیاد مثلا بیش از ۴۰۰۰ کلاس افزایش دقت است
ایا شما یک نمونه تجاری از این دست مسایل را حل کرده اید؟
دیپ در حل مسایلی با ابعاد بالا فیچر های خوبی را استخراج کرده حالا اگر معضل ما تنها تعداد کلاس های زیاد باشه ایااموزش این ساختار چند لایه با تعداد وزن های زیاد میتونه کمک کنه؟
یک نوع ترجمه از این سوال پاسخ به این پرسش هست :
ایا کسی تونسته OCRفارسی را با دقت بالای ۹۰ درصد تجاری کنه؟ اگر جواب مثبته با چه تغیراتی در دیپ

پ.ن:
گوگلی شده مقالات پ‍ژوهشی مشاهده شده

توسط (136 امتیاز)
برچسب گذاری دوباره توسط

2 پاسخ

+3 امتیاز
 
بهترین پاسخ

نمونه ها که خیلی زیاد هستن از تجاری سازی.
اما برای این مقیاس شما نیازمند سخت افزار بسیار قدرتمند هم هستید. در ایران یک همچین چیزی حتی در دانشگاه های تاپ کشور هم دیده نشده تا الان .
سخت افزار مناسب رو تهیه کنید مابقیش دیگه چندان مشکل نیست.
در مورد OCR فارسی فک کنم قبلا چند کار در این زمینه با شبکه کانولوشن انجام شده باشه . البته قبل از 2012 بود بنظرم و مدل هم مدل عمیقی نبود(با توجه به زمان حال وگرنه در اون زمان به اون مدل مدل عمیق میگفتن). دقت این جور کارها معمولا بالا 99 درصد هست نه 90 درصد. اون پروژه هم فک میکنم 99 و خورده ای دقتش بود.
حالا اندازه دیتاست و نوع داده ها جای بحث هست که رو این بخشش میتونید کار کنید.

در مورد نمونه های تجاری هم شرکتهای مختلفی تو این حوزه وارد شدن که میشه
به DeepMind،MetaMind،Nervana و خیلی های دیگه اشاره کرد.
GENERAL / INFRASTRUCTURE

  • DeepMind
  • MetaMind
  • Nervana
  • Skymind
  • Ersatz Labs

COMPUTER VISION

  • Madbits
  • Perceptio
  • Lookflow
  • HyperVerge
  • Deepomatic
  • Descartes Labs
  • Clarifai
  • Tractable
  • Affectiva
  • Alpaca
  • Orbital Insight

NATURAL LANGUAGE

  • AlchemyAPI
  • VocalIQ
  • Idibon
  • Semantria
  • ParallelDots
  • Xyggy

میتونید به این لیست مراجعه کنید

توسط (4.3k امتیاز)
انتخاب شده توسط

سید حسین حسن پور
در مورد OCR فارسی فک کنم قبلا چند کار در این زمینه با شبکه کانولوشن انجام شده باشه . البته قبل از 2012 بود بنظرم و مدل هم مدل عمیقی نبود(با توجه به زمان حال وگرنه در اون زمان به اون مدل مدل عمیق میگفتن). دقت این جور کارها معمولا بالا 99 درصد هست نه 90 درصد. اون پروژه هم فک میکنم 99 و خورده ای دقتش بود.


من تقریبا همه نمونه های بازاری را چک کردم همی دقتی پایین تر از ۹۰ داشتن ..نمونه های پژوهشی بعله بحث روی صدم درصده اما وقتی دیتا ساز اون دیتا ست نرمال نشده برای شبکه مورد نظر باشه اوضاع فرق میکنه. الان میتونید چند مساله غیر از اوسی ار با تعداد کلاس بالا نام ببرید که تجاری اند و از دیپ استفاده میکنند؟

یکی از نمونه های اولیه Clarifi هست که سال 2013 تو حوزه دسته بندی اشیاء و... شروع به کار کرد.
نمونه تجاری بعدی در فیس بوک داره استفاده میشه به Deepface معروفه و مقاله اش یکی دو سال پیش اومد.
در تویتر در لینکداین و همینطور اینستاگرام و یوتیوب و... همه از این روشها داره استفاده میشه.
نمونه های عملی جدید رو هم میتونید تو رقابتهای کاگل پیدا کنید که هر ماه برگزار میشه. از پیدا کردن کهکشانهای مختلف تا پیدا کردن یک نوع وال خاص و... همه در اینجا انجام میشه.
لطفا برای ادامه بحث در مورد هر پاسخ از بخش دیدگاه استفاده کنید.
+3 امتیاز

سلام
راستش اصلا یادگیری عمیق به دیتای large scale نیازه داره
چون پارامتراتون زیاده با دیتای کم جواب نمیگیرید و overfit میشید البته راه حل های مثل knowledge transfer میتونه کمک کننده باشه

بارزترین نمونه هم برای یادگیری عمیق همون مدل معروف Krizhevsky که روی یه دیتاست large scale (یک میلیون تصویر) train شده با 1000 تا کلاس
در مورد کلاس های زیاد هم اگه مدل های که روی face identification نگاه کنید میبینید تعداد کلاس ها زیاد بوده مثلا نزدیک 5000 تا کلاس هم دقت هایی خیلی خوبی رو گرفتن
به نظرم اون چیزی که مهمه اینه که توی هر کلاسی دیتای زیادی برای train داشته باشید

من روی یه مسئله تشخیص عدد (ocr عدد فارسی برای یه مسئله تجاری هم بوده) یه مدل دیپ زدم و دقت نود و خورده ای گرفتم (البته دیتا خیلی چالشی بوده)که از مدل های قبلی که قبلا روی این دیتا تست شده بود بهتر جواب داده (یه شبکه 5 لایه با 60 هزار دیتا)

توسط (145 امتیاز)

ابالفضل

من روی یه مسئله تشخیص عدد (ocr عدد فارسی برای یه مسئله تجاری هم بوده) یه مدل دیپ زدم و دقت نود و خورده ای گرفتم (البته دیتا خیلی چالشی بوده)که از مدل های قبلی که قبلا روی این دیتا تست شده بود بهتر جواب داده (یه شبکه 5 لایه با 60 هزار دیتا)

کیورد هایی خوبی دستم دادید ممنونم
من منظورم از لارج اسیکل بیشتر بعد و تعداد کلاس بوده و در اینجا تمرکزم روی تعداد کلاسه ocrعدد یک مساله ۱۰ کلاسه است شما برای بیش از ۱۰ کلاس ترین کردین؟
نمونه های تجاری از مسالهface identification را با چه نام هایی دیدین .. الان توی ایران جاهایی هست که فراتر از مقالات پزوهشی عملا یک محصول با دیپ داده باشه بیرون ؟
اینی که همه دارند از کانلوشن استفاده میکنند برای تصویر و صدا بیشتر بر میگرده به داشتن مفهوم فیلتر توی هر لایه یا نه اساسا دیپ اگر بخواد کار امد باشه می بایست بتونه نو اوری بیش از شیوه اموزش متفاوت داشته باشه و این تنها توی کانلوشن ها است

شما برای بیش از ۱۰ کلاس ترین کردین؟
خیلی وقت پیش برای یه مسئله دسته بندی تصویر با 50 کلاس ترین کردم فقط در حد اینکه ببینیم چطور جواب میده که خوب بود البته قرار بود به یه محصول تبدیل بشه اما نرسیدم روش وقت بزاریم

 الان توی ایران جاهایی هست که فراتر از مقالات پزوهشی عملا یک محصول با دیپ داده باشه بیرون ؟
تو ایران شاید خیلی از شرکت ها دانش کافی رو نداشته باشن اما هستن شرکت های که اومدن  به سمت دیپ لرنینگ
مثلا شرکتی که باهشون همکاری میکنم یه ocr عدد براشون با دیپ انجام دادم که الان داره به عنوان یه محصول استفاده میشه و جدیداً هم روی مسئله face قراره براشون کار کنم که از مدل های دیپ قراره استفاده شه اما هنوز تو مراحل اولیم

اینی که همه دارند از کانلوشن استفاده میکنند برای تصویر و صدا بیشتر بر میگرده به داشتن مفهوم فیلتر توی هر لایه یا نه؟
هم به عمل کانلوشون بر میگرده (که وقتی دقیق بهش نگاه میکنی میبینی چه prior های مفید رو به شبکتون وارد میکنه) هم به دیپ بودن و البته موارد دیگه هم میتونه موثر باشه مثل پولینگ

 اساسا دیپ اگر بخواد کار امد باشه می بایست بتونه نو اوری بیش از شیوه اموزش متفاوت داشته باشه و این تنها توی کانلوشن ها است؟ سوالتون رو متوجه نشدم
...