کانال سافت گذر در ایتا خبرهای جذاب سافت گذر را در ایتا دنبال کنید
جستجو در سافت گذر سافت گذر
جستجو در سایت در حال جستجو ...
کاربر عزیز ! اگر میخواهید به طور لحظه ای از بروز رسانی نرم افزار مورد نظر خود آگاه شوید و ایمیل بروز رسانی برنامه مورد نظر خود را در لحظه دریافت نمایید و فهرست برنامه های منتخب خود را در محیط کاربری خود ذخیره کنید همچنین دسترسی به تمامی برنامه های مخصوص اعضای ویژه(VIP) داشته باشید، با پرداخت ماهی فقط 5700 تومان تا یکسال از این امکان بهره مند شوید عضویــــــت
x
X لایسنس آنتی ویروس نود 32
بستن
 
آپدیت نود 32
تعداد برنامه ها: 9161 | مشاهده و دانلود: 735293501 | آخرین بروزرسانی: 1403/02/06 | اعضاء: 316265 | نظرات: 37883
اطلاعیه های مهم سایت اطلاعیه های مهم سایت
💐 میلاد امام حسن مجتبی علیه السلام مبارک باد 💐
 شهادت حضرت حمزه سیدالشهدا و وفات حضرت عبدالعظیم حسنی علیهما السلام تسلیت باد

🔰 لایسنس نود 32 آخرین نسخه با تخفیف باورنکردنی با پشتیبانی سافت گذر را از اینجا تهیه کنید.

جهت رفع مشکل باز شدن سایت به دلیل بلاک توسط  نود 32 این ویدیو یا این ویدیو(ورژن 9 به بالا) یا راهنمای تصویری را مشاهده کنید

اکانت های بروزرسانی نود32 با قیمت های مناسب به صورت یک ، سه ، شش و دوازده ماهه از اینجا قابل خرید می باشد.

محصولات ESET نسخه 9 و 10 و 11 و 12 و 13  را با سریال های ارائه شده در اینجا فعال کنید. در صورتمی از کارافتادن جایگزین می شود.

افراک

سافت گذر دانشنامه نرم افزار - دانلود رایگان نرم افزار

سرور آپدیت نود 32
پیشنهاد سافت گذر
نظر سنجی
[مشاهده نتایج]

پروژه جدید دارپا تصاویر و ویدئوهای تحریف شده را شناسایی می کند

آژانس پروژه‌های تحقیقاتی پیشرفتهٔ دفاعی (DARPA) به منظور مقابله با اخبار و محتوای جعلی از پروژه ای مشترک با گروه تحقیقاتی استنفورد (SRI International) خبر داده است.


دارپا در قالب پروژه MediFor در حال توسعه ابزارهایی است که قابلیت شناسایی ویدئو یا تصویری که به منظور گمراه سازی مخاطب به صورت معناداری تغییر کرده، را دارد.

یکی از مشهورترین روش های تحریف محتوا «deepfake» نام دارد که در آن چهره یک شخص مشهور در قالب ویدیویی دیگر قرار داده می شود. نرم افزارهای مورد استفاده در این روش اغلب ارزان قیمت هستند، با این حال ابزارهای تجزیه و تحلیل فعلی قابلیت شناسایی بخش های تحریف شده را ندارند.

دارپا در بیانیه خود مدعی شده که MediFor با بهره گیری از محققان تراز اول، فناوری هایی را برای ارزیابی خودکار صحت تصاویر و ویدئو ها توسعه می دهد. این ابزارها جزئیات دقیقی را از چگونگی و میزان تحریف محتوا ارائه می کنند.
توسعه پروژه MediFor از 2015 شروع شده و احتمالا نهایی سازی آن تا سال 2020 طول بکشد. این گروه تحقیقاتی برای شناسایی تحریف صوتی یا تصویری ویدئوهای مشکوک روی چهار تکنیک تناقض در صحنه مثل مساحت اتاق یا اکوی صوت، عدم هماهنگی حرکات لب و صدا، شناسایی فریم های حذف شده یا تزریق محتوا استفاده می کنند.

در آزمایشی که قبلا با استفاده از این سیستم روی صدها ویدئو صورت گرفته، محتوای تحریف شده با دقت 75 درصد شناسایی شده است.

یکی از محققان موسسه استنفورد درباره خطرات ویدئوهای غیرواقعی می گوید:

در آینده نزدیک و با پیشرفت تکنیک های تحریف ویدئو و یا حتی تولید محتوای ساختگی، هکرها و کاربران عادی قادر به تولید فیلم هایی از افراد هستند که آنها را حین انجام دادن کاری نشان می دهد که روحشان هم از آن خبر ندارد.

از دیگر خطرات ویدئوهای ساختگی می توان به تاثیرگذاری روی دیدگاه های عموم مردم اشاره کرد؛ با این حال پیاده سازی پروژه هایی نظیر MediFor می تواند تا حدودی با این خرابکاری ها مقابله کند.
نظرتان را ثبت کنید کد خبر: 41349 گروه خبری: اخبار فناوری منبع خبر: دیجیاتو تاریخ خبر: 1397/02/13 تعداد مشاهده: 1777
کلید واژه ها: , , ,
سافت گذر