به بخش پرسش و پاسخ یادگیری عمیق خوش آمدید,
این نسخه آزمایشی سایت است.
لطفا به نکات زیر توجه کنید:
  • برای ارتباط با مدیران میتوانید از صفحه مدیران اقدام کنید.
  • سوال و جواب ها باید به زبان فارسی باشند. استفاده از زبان انگلیسی یا فینگلیش برای پاسخ دادن مجاز نیست.
  • لطفا بعد از پرسش سوال لینک سوال خود را در گرو تلگرام (Iran Deep Learning Group) معرفی کنید تا سریعتر به جواب برسید. برای دسترسی به آخرین لینک از منابع یادگیری استفاده کنید
  • لطفا بجای عکس از متن استفاده کنید. اگر متون طولانی هستند از سایت pastebin.com برای اپلود استفاده کرده و لینک حاصل را در سوال خود قرار دهید. برای قرار دادن تصویر ، از بخش ارسال تصویر ادیتور سایت استفاده کنید.
  • بعد از دریافت پاسخ، بهترین پاسخ را از طریق کلیک بر روی علامت تیک انتخاب کنید
  • اگر با خطا و یا مشکلی مواجه شدید از بخش تماس با ما در انتهای صفحه و یا ایمیل Coderx7@gmail.com موضوع را اطلاع دهید.

با تشکر

دسته بندی ها

0 امتیاز

با درود و احترام؛
در لینک زیر:

https://github.com/Hvass-Labs/TensorFlow-Tutorials/blob/master/02_Convolutional_Neural_Network.ipynb

وقتی من برنامه برای پایگاه داده تصاویر خودم مشابه بالا اجرا میکنم در هنگام اجرای (دستور 47)

optimize(num_iterations=1)

با خطای زیر مواجه میشم:

'numpy.ndarray' object has no attribute 'next_batch'

من باید برای پایگاه داده خودم batch رو تعریف کنم چون در mnist تعریف شده هست.....چطور میتونم یک برنامه batch بهینه که بامحاسباتی کمی داره تعریف کنیم؟
درصورت امکان نمونه کدی معرفی بفرمایید،چون با وجود اینکه نمونه next_batch در mnist رو من در برنامم تعریف کردم بازهم همون خطا رو میده...

و اینکه باید قبل قسمت optimize برنامه اصلی تعریف بشه؟

سپاسگزارم

توسط (145 امتیاز)
ویرایش شده توسط

1 پاسخ

+1 امتیاز

سلام
شما میتونید دیتای خودتونو با فرمت npz ذخیره کنید و با کد زیر بچ بچ بخونی. این کدو خودم نوشتم ببین به دردت می خوره

https://github.com/m-nasiri/mnist/blob/master/read_dataset.py

اینجوری ازش استفاده کن

import read_dataset

dataset = read_dataset.load('file.npz', batch_size=4)

batch_x, batch_y = dataset.next_batch()

توسط (830 امتیاز)
Sepas az pasokhe jenabali....
bebakhshid man chetor mitunam database khodam ro zakhire konam?

hatman bayad structure tarif konam?
data ye man besurate train_image
train_label
test_image
va test _label
hast....

sepas
در کل روشهای زیادی برای خوندن دیتا از حافظه هستش که تنسورفلو بیشتر به tfrecord  تمایل داره که در حالتی که دیتاستتون بزرگه حافظه رو خوب مدیریت میکنه.

اگه می خواید mnist کار کنید که خود تنسور فلو داره یا شما میتونید از
https://s3.amazonaws.com/img-datasets/mnist.npz
فایل mnist.npz رو دانلود کنید که کلید های ['x_test', 'x_train', 'y_train', 'y_test']  رو داره
و یه تابعی مشابه تابع من براش بنویسید و ازش بخونید.
اگه فایل های دیتاست از خودتونه اونوقت باید با کتابخونه numpy.savez  فایل npz خودتون رو بسازید.
...