کانال سافت گذر در ایتا خبرهای جذاب سافت گذر را در ایتا دنبال کنید
جستجو در سافت گذر سافت گذر
جستجو در سایت در حال جستجو ...
کاربر عزیز ! اگر میخواهید به طور لحظه ای از بروز رسانی نرم افزار مورد نظر خود آگاه شوید و ایمیل بروز رسانی برنامه مورد نظر خود را در لحظه دریافت نمایید و فهرست برنامه های منتخب خود را در محیط کاربری خود ذخیره کنید همچنین دسترسی به تمامی برنامه های مخصوص اعضای ویژه(VIP) داشته باشید، با پرداخت ماهی فقط 5700 تومان تا یکسال از این امکان بهره مند شوید عضویــــــت
x
X لایسنس آنتی ویروس نود 32
بستن
 
آپدیت نود 32
تعداد برنامه ها: 9150 | مشاهده و دانلود: 734093481 | آخرین بروزرسانی: 1403/01/31 | اعضاء: 316139 | نظرات: 37879
اطلاعیه های مهم سایت اطلاعیه های مهم سایت
💐 میلاد امام حسن مجتبی علیه السلام مبارک باد 💐
 شهادت امیرالمومنین علی ابن ابی طالب علیه السلام تسلیت باد

🔰 لایسنس نود 32 آخرین نسخه با تخفیف باورنکردنی با پشتیبانی سافت گذر را از اینجا تهیه کنید.

جهت رفع مشکل باز شدن سایت به دلیل بلاک توسط  نود 32 این ویدیو یا این ویدیو(ورژن 9 به بالا) یا راهنمای تصویری را مشاهده کنید

اکانت های بروزرسانی نود32 با قیمت های مناسب به صورت یک ، سه ، شش و دوازده ماهه از اینجا قابل خرید می باشد.

محصولات ESET نسخه 9 و 10 و 11 و 12 و 13  را با سریال های ارائه شده در اینجا فعال کنید. در صورتمی از کارافتادن جایگزین می شود.

افراک

سافت گذر دانشنامه نرم افزار - دانلود رایگان نرم افزار

سرور آپدیت نود 32
پیشنهاد سافت گذر
نظر سنجی
[مشاهده نتایج]

IBM‌ تراشه‌ای ۱۰۰ برابر سریع تر برای آموزش هوش مصنوعی معرفی کرد

محققان IBM، موفق به طراحی تراشه‌ی جدیدی با سرعت بالا و مصرف بهینه‌ انرژی برای آموزش هوش مصنوعی شدند.   

IBM‌ تراشه‌ای ۱۰۰ برابر سریع تر برای آموزش هوش مصنوعی معرفی کرد

به لطف تراشه‌های قدرتمند گرافیکی و پیشرفت‌های صورت گرفته در حوزه‌ی محاسبات توزیع شده، بهینه‌سازی الگوریتم‌ها به عنوان هسته‌ی اصلی هوش مصنوعی آسان‌‌تر از همیشه شده است. اما حتی در تراشه‌های گرافیکی قدرتمند هم، ممکن است روزها یا هفته‌ها طول بکشد تا شبکه‌ی عصبی را آموزش بدهند و به همین دلیل این تراشه‌های قدرتمند در سخت افزارهای فعلی عملا کارایی چندانی ندارند و استفاده از آنها بهینه نیست.

محققان شرکت IBM موفق به طراحی تراشه‌‌‌ی جدیدی برای آموزش هوش مصنوعی شدند که فرآیند آموزش، در آن تسریع شده است. تیتر مقاله‌ی اخیر نشریه‌ی Nature درباره‌ی تراشه‌ی جدید گویای این موضوع است؛ افزایش سرعت آموزش شبکه‌ی عصبی با استفاده از حافظه‌ی آنالوگ. تیتر مقاله نشان می‌دهد طراحی جدید سیستم ترانزیستورها و خازن‌ها، باعث بالارفتن سرعت آموزش شبکه‌های عصبی و مصرف بهینه‌ انرژی می‌شود. 

IBM
افزایش کارایی هوش مصنوعی با سیناپس مصنوعی جدید آی بی ام
شبکه‌های عصبی شامل واحدهای به هم پیوسته‌ای به نام نورون‌ها یا گره‌ها هستند. مجموعه‌ای از گره‌ها، لایه نامیده می‌شود. شبکه‌های عصبی ورودی‌های عددی را دریافت می‌کنند. در یک شبکه‌ی پایه، نورون‌های منفرد، مقادیر عددی ورودی‌ را در مقدار یا وزنی ضرب می‌کنند و مقدار نهایی به تابع فعال‌سازی که خروجی گره را تعیین می‌کند، منتقل می‌شود. با استفاده از استراتژی به نام Back Propagation، این مقادیر وزنی در طول زمان تعدیل و تنظیم می‌شوند و باعث افزایش دقت در محاسبات خروجی‌ها خواهد شد. 

برخلاف پردازنده‌‌های سنتی که اعداد به صورت پیوسته به محاسبات وارد می‌شوند؛ GPU‌ها، به صورت موازی محاسبات را انجام می‌دهند و برای فرآیندهایی سریع بسیار مناسب هستند و مصرف انرژی کمتری دارند. به دلیل اینکه پردازنده و حافظه در تراشه‌های گرافیکی فاصله زیادی از یکدیگر روی مادربرد دارند، تاخیرهایی برای رفت و برگشت داده‌ها بین آنها دیده‌ می‌شود. استافانو آمبرگیو، یکی از محققان IBM که نقش برجسته‌ای در پروژه‌ی‌ طراحی تراشه‌ی جدید دارد، اعلام کرد:

رایانه های معمولی که برای مصرف عادی مورد استفاده قرار می‌گیرند، علاوه بر مصرف بالای انرژی، مدت زمان انتظار و تاخیر زیادی هم دارند.

IBM

راهکار پیشنهادی محققان برای حل این مساله، استفاده از حافظه‌ی آنالوگ و قطعات الکترونیکی سنتی است. هر سلول مجزا و منفرد از یک جفت واحد  حافظه‌ی تغییر فاز (PCM)، و ترکیبی از یک خازن و سه ترانزیستور تشکیل شده است که به نورون‌های منفرد و مجزای شبکه‌ی عصبی پاسخ می‌دهد. PCM‌ها، داده‌های وزنی را که در ترانزیستورها و خازن‌ها به صورت بار الکتریکی نشان داده شد‌ه‌اند، در حافظه ذخیره می‌کنند. 

وقتی شبکه در حال یادگیری است، خازن مقدار وزن را آپدیت می‌کند و بعد از هزاران سیکل، آن را به PCM انتقال می‌دهد. خازن نمی‌تواند مقادیر را بیش از چند میلی ثانیه در خود حفظ کند، اما قادر است آن مقادیر را به سرعت برنامه‌ریزی کند. PCM، که نوعی حافظه‌ی غیرفرار است، برای ذخیره داده‌ها به منبع قدرت بیرونی نیازی ندارد.

محققان برای رسیدن به هدف، ترکیبی از PCM‌های سخت‌افزاری و قطعات شبیه‌سازی شده نرم‌افزاری را برای ارزیابی طراحی مورد استفاده قرار دادند که در نهایت نتایج امیدوار کننده بود. تراشه‌ی جدید توانست محاسبات را در هر میلی‌متر‌ مربع، ۱۰۰ برابر سریع‌تر از GPU به انجام برساند و مصرف انرژی ۲۸۰ برابر کمتری را مصرف کرد. آنچه بیش از همه جلب توجه می‌کند این است که این میزان سرعت و دقت با چارچوب یادگیری ماشین TensorFlow گوگل برای انواع وظایف مربوط به بینایی کامپیوتر مطابقت داشت.

آمبرگیو در ادامه‌ی صحبت‌های خود اضافه کرد:

می‌توانیم محاسبات را به صورت دقیق‌تر و با دقتی در حد دقت نرم‌افزاری به انجام برسانیم.

تراشه‌ی جدید طراحی شده، مسایل خاص خودش را دارد و برای شبکه‌های عصبی که کاملا به هم پیوسته نیستند، مانند شبکه‌های LSTM‌ به کار برده شده در اپلیکیشن‌های تشخیص گفتار پیشرفته، مناسب نیستند و منجر به مصرف بهینه‌ی انرژی نخواهند شد. اما محققان در صدد هستند در ادامه‌ی کار مسایل موجود را برطرف کرده و اقدامات لازم را به انجام برسانند.

آمبرگیو اطمینان دارد که تیم تحقیقاتی IBM‌ می‌تواند در آینده‌ی نزدیک، تراشه‌های فیزیکی در مقیاس مناسب بسازد. تراشه‌های جدید برای آموزش شبکه‌های عصبی در گوشی‌های هوشمند و سایر سیستم‌هایی که در حال حاضر فاقد منابع محاسباتی لازم هستند، کاربرد خواهد داشت.

آمبرگیو در ادامه‌ی صحبت‌های خود گفت:

موجب مسرت و خوشحالی است که وقتی نیاز هست، می‌توانیم به صورت مستقیم، پردازش‌های مبتنی بر هوش مصنوعی را به انجام برسانیم. وقتی شما قادر به آموزش دادن به یک مدل باشید، دیگر نیازی به ارسال اطلاعات به فضای ابری یا سیستم ارتباطی برای برقرار کردن ارتباط با چیزی نخواهید داشت و این سیستم می‌تواند فورا به هر شرایطی واکنش نشان دهد.
نظرتان را ثبت کنید کد خبر: 42021 گروه خبری: اخبار سخت افزار منبع خبر: زومیت تاریخ خبر: 1397/04/11 تعداد مشاهده: 1565
اخبار مرتبط
سافت گذر