به بخش پرسش و پاسخ یادگیری عمیق خوش آمدید,
این نسخه آزمایشی سایت است.
لطفا به نکات زیر توجه کنید:
  • برای ارتباط با مدیران میتوانید از صفحه مدیران اقدام کنید.
  • سوال و جواب ها باید به زبان فارسی باشند. استفاده از زبان انگلیسی یا فینگلیش برای پاسخ دادن مجاز نیست.
  • لطفا بعد از پرسش سوال لینک سوال خود را در گرو تلگرام (Iran Deep Learning Group) معرفی کنید تا سریعتر به جواب برسید. برای دسترسی به آخرین لینک از منابع یادگیری استفاده کنید
  • لطفا بجای عکس از متن استفاده کنید. اگر متون طولانی هستند از سایت pastebin.com برای اپلود استفاده کرده و لینک حاصل را در سوال خود قرار دهید. برای قرار دادن تصویر ، از بخش ارسال تصویر ادیتور سایت استفاده کنید.
  • بعد از دریافت پاسخ، بهترین پاسخ را از طریق کلیک بر روی علامت تیک انتخاب کنید
  • اگر با خطا و یا مشکلی مواجه شدید از بخش تماس با ما در انتهای صفحه و یا ایمیل Coderx7@gmail.com موضوع را اطلاع دهید.

با تشکر

دسته بندی ها

0 امتیاز

با عرض سلام وخسته نباشید خدمت سروران گرامی . ممنون میشم به سوالاتم پاسخ بدین
من کفه رو نصب و کامپایل کردم روی اوبونتو و وزن های آماده ی imagenet و دانلود کردم و داده هام و توسط اسکریپت create_imagenet که در داخل ترمینال ران کردم ،به فایل lmdb در آوردم.
اما از اینجا به بعد میخواستم ببینم واسه train و test باید دقیقا چه فایلی رو از ترمینال ران کنم ؟؟ لازمه حتما اینترفیسهای پایتون یا متلب باشه یا بدون اونها هم میشه train کرد ؟ اگه میشه چطور باید اینکار و کنم و بعد از اجرای تست خروجیشبه چه فرمتی هست و چجوری میتونیم از خروجیش توی متلب استفاده کنیم ؟این کدهایی ک شما داخل آموزش سایتتون نوشتید واسه ترمینال هس یا نه ؟

سوال آخرم اینه اگه از matcaffe استفاده کنیم بازم مراحل تبدیل دیتاست به فرمت lmdb همینا هس یا کلا روشش فرق داره ؟ سایتی سراغ ندارین که کار با matcaffe رو یاد بگیرم؟؟

توسط (111 امتیاز)
برچسب گذاری دوباره توسط

1 پاسخ

0 امتیاز

سلام
در بخش نحوه اجرا کاملا توضیح داده شده که آموزش و تست شبکه به چه صورت قابل انجام هست.
هم از طریق command prompt یا terminal میتونید انجام بدید هم از طریق API ها به سی++ و پایتون و متلب.
برای اجرای آموزش باید از سویچ train مثل مثال زیر استفاده کنید(در روت کفی باید فراخونی بشه) :

  ./build/tools/caffe train --solver=examples/imagenet/solver.prototxt 

دقت کنید که اگه میخوایید از وزنهای الکس نت استفاده کنید باید فاین تون رو انجام بدید . توضیحات فاین تون رو در سایت دادم و میتونید مطالعه کنید.

در مورد استفاده از matcaffe منوال به همین شکل هست که اگر بخوایید باز میتونید حالا خودتون کد هم بزنید و همین مراحلی که با فراخونی چند تا اسکریپت و برنامه انجام دادید خودتون با برنامه نویسی انجام بدید. متلب کلا زیاد کار نمیشه. تنها جایی که من دیدم زیاد ازش استفاده میشه مربوط به Rcnn و faster-rcnn هست که چون اینا هم مبتنی بر کفی هستن رپر متلبیشون از رپر متلب خود کفی قوی تر کار شده. ولی من چون کار نکردم خبر ازمستنداتش ندارم که چطوریه.

توسط (4.3k امتیاز)
سلام آقای حسن پور دستتون دردنکنه . فقط این فایل هایی که شما آدرس دادین توی پوشه ی build پیدا نمیکنم . فایلی که باید شبکه train بشه فرمتش prototxt هست ؟؟ همین فایل و از داخل ترمینال اجرا کنم آموزش داده میشه؟
""رابط خط فرمان cmdcaffe ,یکی از ابزارهای caffe است که برای آموزش مدل, امتیاز دهی و عیب یابی آن استفاده میشود. برای مشاهده اطلاعات بیشتر کافیست caffe را بدون هیچ آرگومانی اجرا کنید. این ابزار به اضافه ابزارهای دیگر را میتوانید در پوشه caffe/build/tools در لینوکس و...""
این فایلی که میگین هم اصلا داخل پوشه ی tools نیست . به نظرتون باید چی کار کنم ؟؟
و این دستوری که گفتید ::"برای اجرای آموزش باید از سویچ train مثل مثال زیر استفاده کنید(در روت کفی باید فراخونی بشه) :

  ./build/tools/caffe train --solver=examples/imagenet/solver.prototxt
""
این کجا باید تایپ بشه ؟؟ داخل ترمینال ؟؟
عذر میخوام که من رشتم مخابراته و با برنامه نویسی و مخصوصا لینوکس آشنایی خیلی کمی داشتم واسه همین شاید سوالاتم خیلی ابتدایی باشه .ممنون
تو پوشه build/tools فایلی بنام caffe.bin شما ندارید؟! مطمعن هستید که درست کامپایل کردید؟‌
اون train هم سویچ هست. برنامه نیست. اگر هم منظورتون فایل solver هست. و سالور مربوط به الکس نت رو میخوایید میتونید از پوشه models که در روت کفی هست وارد پوشه bvlc_alexnet بشید و از سالور اون استفاده کنید.
شما با ترمینال وارد روت کفی میشید. یعنی پوشه caffe که توش بقیه پوشه ها مثل build examples, models, scripts و ... هست . بعد از اونجا این دستور رو فراخونی میکنید.
دستتون دردنکنه خدا خیرتون بده . خیلی خیلی ممنونم
...