آیا معیار می تواند 1000 هسته اجرای آنها را همزمان فراخوانی کند (به خوبی در یک حلقه) و سپس ما شروع به دریافت می کنیم زمان کامل شدن یک کرنل طول می کشد؟ بنظر معقولانه میاد . بنابراین برای آزمایش open cl یک cl باز می سازیم. یک CL باز کوچک 😂
خوب بیایید آن را بنویسیم و همچنین اولین آزمایشی را انجام دهیم که 5 هسته را به طور همزمان و با داده های مختلف اجرا می کند!
عالی، حالا 50 هسته را با بار مرده (بدون کش) انجام دهید
بار کار را به دو گروه تقسیم کرد!
مقدار هسته ها را به خارج از بلوک های if منتقل می کنیم، 2 تایمر را در شروع و پایان ضربه می زنیم و تفاوت را چاپ می کنیم:
و اگر این درست است، در مورد این مقدار در اینجا چطور؟
هومممم یه مشکل دیگه هم هست ما میخواهیم «گلوگاه» GPU (یا دستگاه) را پیدا کنیم، اما OpenCL به ما اجازه نمیدهد این کار را انجام دهیم، زیرا خودش بار را کنترل میکند و ما چیزی نمیبینیم، بنابراین، چند هسته میتوانیم ایجاد کنیم؟
بنابراین، چگونه می توانیم بگوییم که f* در حال وقوع است؟
2023.05.0220:15:35.724 blog_kernel_times_benchmark (USDJPY,H1) Deployed all kernels!
2023.05.0220:15:35.746 blog_kernel_times_benchmark (USDJPY,H1) Time to load and unload 5000 kernels = 94ms
و ما مانده ایم که نارنجک را در دست گرفته ایم تا بفهمیم خوشه انگور است یا نه.
این هسته است، فراخوانی های شاخص دارای بعد مشخص شده در پرانتز هستند
(هر چند ممکن است تاخیر چاپی وجود داشته باشد:D پس فقط مواردی را که مستقر نشده اند چاپ کنید! و وضعیت)
بیایید تا 50 هسته را جک کنیم و زمان بین شروع و پایان تایمر را اندازه گیری کنیم. بدون انجام کار دیگری فقط 50 هسته را روی OpenCL نصب کنید.
حتی اگر 1 واحد محاسباتی را گزارش می دهد (این دستورات اطلاعاتی را نیز به آن اضافه می کنم تا بتوانید مقایسه کنید) و حتی اگر کیت ابزار cuda 192 هسته مختلف و 32 تاب را گزارش می دهد.
کاری که این کار انجام می دهد این است که 3 آرایه حافظه جهانی عدد صحیح global_id , local_id , group_id را دریافت می کند و آنها را با شاخص مربوطه در موقعیت جهانی پر می کند. به عنوان مثال اگر 10 پرتقال در 2 کیسه داشته باشیم، شاخص کیسه را به شاخص آرایه خطی پرتقال ها اختصاص می دهیم. ما می گوییم، نارنجی[0] در Bag0 و نارنجی است[9] در Bag1 است، ما از شاخص پرتقال در کیسه استفاده نمی کنیم (نارنجی[0] در Bag0 و نارنجی است[4] در Bag1 است) که چیزی در مورد نحوه چیدمان پرتقال ها به ما نمی گوید!
CLSetKernelArgMem(ker,3,tangents_handle);
258 چطور؟ ما اولین تقسیم خود را دریافت می کنیم!
بنابراین میتوانیم از این شاخصها استفاده کنیم و اگر تعدادی از کارها را روی GPU بریزیم، ببینیم که گروهها چگونه مرتب شدهاند.
اما ما نصف چیزهایی را دوست نداریم که یک** یا بدون** انجام می دهیم!
درست ؟ من ممکن است اشتباه کنم
هنوز شکافی وجود ندارد.
اگر 10 هسته را به طور همزمان برای اجرا ارسال کنم، به طور کلی 150 میلی ثانیه زمان اجرا دریافت می کنم، به این معنی که حداقل زمان ثبت شده من در آیتم های اطلاعات هسته که از حداکثر زمان ثبت شده کم می شود، 150 میلی ثانیه خواهد بود.
خوب، حالا بیایید تکرارها را به 1000 برگردانیم و آزمایش را با مقادیر مختلف شروع کنیم.
خوب البته ما می توانیم این همان چیزی است که برای آن است 😅
OpenCL دارای اندیس های داخلی است که می توان آنها را از هسته فراخوانی کرد و آنها را ارائه می کند
شناسه جهانی مورد کار، برای یک بعد
شناسه محلی مورد کار، برای یک بعد
شناسه گروه مورد کار، برای یک بعد
آیا ما به این موضوع اشتباه نزدیک شده ایم؟ آیا لازم نیست 1025 گروه کاری به صورت موازی اجرا شوند درست است؟
همچنین باید همیشه و در هر لحظه به خاطر داشته باشید که این ممکن است یک واکنش خاص این سخت افزار باشد، بنابراین باید انعطاف پذیری برای دیگران (شما) وجود داشته باشد تا خودتان آن را آزمایش کنید.
میلیثانیهای که برای اجرای یک واحد کاری طول میکشد باید قدر معینی بزرگتر از فاصله تایمر باشد تا بتوانیم آن را اندازهگیری کنیم!
اگر بخواهیم 1025 گروه کاری (برای این دستگاه) بگیریم، به 1025*256 آیتم نیاز داریم، یعنی 262400 مورد.
ابتدا بیایید یک آزمایش ساده ایجاد کنیم و امتحان کنیم و بسنجیم که GPU چه کاری انجام می دهد، یا اگر بخواهید، چگونه GPU حجم کار را بدون هیچ دستورالعملی تقسیم می کند.
حالا شما به چیزی که من فکر می کنم فکر می کنید: “چرا این را در سطوح پایین تر، nvidia یا amd حل نکنیم”؟ و احتمالاً پاسخ این است که “ما این همه پول R+D را خرج نکردیم تا Khronos بیرون بیاید و از آن سود ببریم”، یا، برای ساده کردن آن، احتمالا “از Cuda استفاده کنید، یا، از Hpi استفاده کنید”.
ساده است و بیایید تکرارهای اولیه را روی 100 تنظیم کنیم و دوباره کد را اجرا کنیم تا ببینیم آیا هنوز 1 گروه تولید می شود یا خیر. (و همچنین نتیجه حاصل را برای اشکال زدایی چاپ کنیم)
خروجی فایل به این شکل است (در بالا) و می بینید که به هیچ وجه بار کار را تقسیم نکرده است.
اکنون باید محاسبات را در هسته به این صورت تبدیل کنیم: مقدار را دریافت کنید، مقدار دیوانهواری را روی آن محاسبه کنید، ارزش بدهید.
به ما اطلاع دهید از حداکثر موارد کاری که یک گروه کاری می تواند داشته باشد، زیرا، این همان کاری است که gpu زمانی که هیچ دستورالعملی ندارد، به تنهایی انجام می دهد؟
عالی بدون تاخیر وجود دارد. بیایید عملیات انبوه 5000 هسته را انجام دهیم. اگر 78 میلیثانیه دریافت کنیم، چراغ سبز برای معیار دریافت میکنیم.
(منطقی است که بیشتر به گروه ها تقسیم نشوید زیرا حلقه تکرارها انبوهی از محاسبات است که نیازی به حافظه ندارد، بنابراین برای اجرای در یک عنصر پردازشی بهینه است، اما همچنین فکر نمی کنم بتواند در داخل تقسیم شود. اگر اشتباه نکنم، آیتم کار و هسته یک نمونه کار هستند. ادامه می دهیم.)
بنابراین ما یک نشانگر شناور جهانی به آرگومان های هسته اضافه می کنیم
این آزمایش یک فضای “کار” یک بعدی را با دستورات اصلی mql5 OpenCL در دسترس استقرار می دهد.
چی ؟
همچنین این کد 3 مقدار را چاپ می کند:
اندازه حافظه محلی هسته (من 1 میگیرم)
اندازه حافظه خصوصی هسته (0 می گیرم)
اندازه گروه کاری هسته (من 256 می گیرم)
هنوز یک گروه
اجازه دهید توضیح دهم که فکر می کنم چه چیزی می تواند در اینجا اتفاق بیفتد:
نه، هنوز یک گروه است، اگرچه gpu کمی تاخیر داشت.
int kernel_work_group_size=CLGetInfoInteger(ker,CL_KERNEL_WORK_GROUP_SIZE);
512: دوباره به دو گروه تقسیم می شود:
سپس یک آرایه دوتایی در برنامه خود ایجاد می کنیم و آن را با مقادیر تصادفی در محدوده -2.6 تا 2.6 پر می کنیم.
CL_DEVICE_MAX_WORK_GROUP_SIZE
خوب، معیار این خواهد بود:
یک هسته “سنگین” calcs را بارگذاری کنید
یک آزمون بزرگ ایجاد کنید
موارد را یکی یکی به صورت ناهمزمان بفرستید ???….
بنابراین اگر “معیار” خود تکرارهای بهینه را پیدا کند، تا زمانی که تکرارهایی که ارسال میکند در “زمانهایی” بزرگتر از بازه زمانی باشد، وارد یک حلقه میشود.
وظیفه کشف نحوه نگاشت حافظه محلی به گروه های کاری است.
long timer_ended=GetTickCount();
long diff=timer_ended-timer_started;
if(timer_ended<timer_started){diff=UINT_MAX-timer_started+timer_ended;}
Print("Time to load and unload "+IntegerToString(kernels_to_deploy)+" kernels = "+IntegerToString(diff)+"ms");
ExpertRemove();
2023.05.0220:12:15.704 blog_kernel_times_benchmark (USDJPY,H1) Time to load and unload 50 kernels = 78ms
این احساس می شود:
انویدیا نصف ** آن را ویرایش کرد
OpenCL را نصف ** آن را ویرایش کنید
Mql5 نصف آن را انجام داد
ما باید بریدگی قابل توجهی را در زمان اجرا کشف کنیم که نشان میدهد هستهها در حال تعویض گروهها هستند، و برای پیچیدهتر کردن کارها، این باید همهکاره باشد، بنابراین اگر آن را اجرا کنید باید نشانهای دریافت کنید که در مقایسه با نشانههای من میتوانیم نتیجهگیری کنیم یا به آن نزدیک شویم. فعالیت در دستگاه نه دستگاه من یا دستگاه شما، بلکه به طور کلی. (در صورت امکان)
tanh “از” منهای مجموع تا کنون تقسیم بر تکرارها را جمع کنید.
آرایه مماس را پر کنید
بنابراین ما برای معیار به چه چیزی نیاز خواهیم داشت؟
آرایه هسته
زمان شروع کرنل ها
زمان پایان کرنل ها
بیایید 10 میلیون تکرار 100 مورد، که ممکن است برای دقت شناور مشکل ساز باشد؟ اجازه بدید ببینم
همچنین توجه داشته باشید که شناسه محلی چقدر راحت است و ایندکس را در هر گروه به ما می گوید!
بنابراین از get_global_id(0) برای ذخیره همه شناسه ها استفاده می شود.
این فایل صادر شده است:
در واقع اجازه دهید آن را در کد اضافه کنم و ببینم چه چیزی را برمی گرداند:
aaand (من 2 ساعت را در اینجا تلف کردم زیرا فراموش کردم بافر را دوباره بخوانم 🤣) بنابراین، فراموش نکنید که وقتی دادهها را میخواهید، بافر خواندن را فراخوانی کنید.
سپس یک دسته بافر برای openCL ایجاد کنید، در این حالت حافظه خواندن نوشتن است نه فقط نوشتن. (خواندن نوشتن برای دستگاه نه میزبان (ما))
بسیار خوب، پس ما باید معیار تقسیم را پیدا کنیم، بیایید تعدادی اعدادی را که 512، 1024، 2048 و غیره دوست دارد بریزیم و نتایج را ثبت کنیم.
بیایید 200 مورد را به آن بریزیم
جالب است، اکنون باید با ارائه یک عدد تکرار به عنوان آرگومان، کار را کمی دشوارتر کنیم. این محاسبه tanh را حلقه می کند و برای هر نتیجه ما tanh شناور / تکرار مماس را جمع می کنیم. مرتب
خیر , مشکلی وجود ندارد 3 گروه 256 موردی هر کدام . باشه
MQ یک بار که فکر می کنم راهی برای اجرای یک هسته ارائه کرده است. بیایید سریع تأیید کنیم.
2023.05.0220:11:41.352 blog_kernel_times_benchmark (USDJPY,H1) Time to load and unload 5 kernels = 94ms
بیایید به آن مقدار 768 بدهیم، آیا مقادیر حتی گروهی را دوست دارد؟ (به خاطر تعداد هسته هایش؟)
در این مورد باید یک آرگومان در هسته اضافه کنیم، آرگومان را به هسته پیوند داده و مقدار را تنظیم کنیم:
ما همه کارهای آماده سازی کسل کننده و آزاردهنده OpenCl را انجام می دهیم، نحوه اجرای برنامه، زمانی که فراخوانی می شود، زمینه های هسته را بافر می کند و یک پارامتر برای تعداد آیتم ها یا پرتقال هایی که باید برای آزمایش پرتاب شوند، ارائه می دهیم.
اجازه دهید کاری را که در اینجا انجام میدهیم تکرار کنم: میخواهیم تغییر «تغییر» را در عناصر پردازش «تصور کنیم»، یعنی لحظهای که واحدهای شلوغ تخلیه میشوند و دادههای جدید را به طور مؤثر دریافت میکنند، یا من فکر میکنم که تعداد پردازشها را به ما میدهد. عناصر (من حدس می زنم برابر باشد
اینجا اولین چیزی است که کد می کنیم، آیا می توانیم چندین نمونه از یک هسته را اجرا کنیم؟ …
int device_max_work_group_size=CLGetInfoInteger(ctx,CL_DEVICE_MAX_WORK_GROUP_SIZE);
1024 می گوید . 1024 گروه کاری یا 1024 مورد در گروه های کاری در مجموع؟
سپس زمان ها را خروجی می گیریم و تصمیم می گیریم که چگونه از آنجا ادامه دهیم
خوب حالا باید یک پرانتز غول پیکر باز کنیم و متأسفانه کار دیگری انجام دهیم. معیار کنونی از این نظر مشکل دارد که از حافظه زیاد استفاده می کند. اگر میخواهیم «قطع» هستهها ظاهر شود، باید از «محاسبات» بیشتر از «واکشی» استفاده کنیم. این تست همچنین زمانی اجرا میشود که بخواهیم دائماً اجرا شود، مشکل دوم ما اگر قطع باشد نزدیک به راه اندازی مجدد حلقه ما متوجه آن نخواهیم شد!
اگرچه من کمی تاخیر را تشخیص می دهم.
پارامتر آیتم ها و صادرات شاخص هایی که دریافت کرده ایم به یک فایل برجسته شده است.
aa و در انتها بافر رایگان اضافه کنید در غیر این صورت به نظر می رسد که در حال ذخیره (هوشمندانه) مقادیر است
اولین چیزی که به ذهن می رسد این است که “آیا مکانیزم تصمیم گیری داخلی دارد؟” برای هر دو دستور wrapper و mql5 بومی زمانی که دستورات OpenCL را فراخوانی می کنند. چگونه خواهیم دانست؟ بیایید هسته را کمی «سنگینتر» کنیم و همچنین یک مقدار شناور استخراج کنیم.
2023.05.0220:13:16.359 blog_kernel_times_benchmark (USDJPY,H1) Time to load and unload 50 kernels = 94ms
بیایید همچنین توجه داشته باشیم که اگر یک سازنده به طور کامل همکاری نمی کند، نتیجه دیگری جز 1/2*a**-کردن آن وجود ندارد. پس انصافا اینجا mq و chronos تقصیری نداره . بنابراین از این نظر باید آن را نیز به 0.5*a** آماده کنم. 😂
ما یک واحد محاسباتی با 10 هسته فرعی پردازشی داریم (عناصر پردازش)