خطرناک‌ترین نوع جرایم در هوش مصنوعی، سلامت انتخابات پیش رو در آمریکا تحت تاثیر یادگیری عمیق

خطرناک‌ترین نوع جرایم در هوش مصنوعی، سلامت انتخابات پیش رو در آمریکا تحت تاثیر یادگیری عمیق

یک پدیده‌ خاص در دوران هوش مصنوعی که به سرعت در حال فراگیر شدن است. با این که کاربردهای جذابی در هنر و آموزش برای آن پیشبینی شده است اما جرایم سایبری بسیاری را هم به وجود آورده است و تهدیدی برای دنیای تولید محتوا، افراد مشهور و رسانه‌ها به حساب می‌آید. اما راهکارهای نوینی در حال ظهور است تا اعتبار اخبار و رسانه‌ها حفظ شود و همچنین مردم روش روبرو شدن و تشخیص آن را یاد بگیرند. در این نوشتار نگاهی خواهیم داشت به ابزار جدید مایکروسافت برای مبارزه با این تهدید در آستانه انتخابات جدید امریکا.

مایکروسافت ابزار جدیدی را برای مبارزه با Deepfakes جهت استفاه در انتخابات پیش رو در امریکا رونمایی کرده است. فیلم جعل عمیق یا همان Deepfake، فیلمی است که در آن هوش مصنوعی و یادگیری عمیق برای آموزش کامپیوترها به کار می‌رود تا شخصیتی جعلی از یک شخصیت واقعی بسازد و حرف‌هایی بزند که واقعا نزده است.

“Microsoft Video Authenticator”قادر به تحلیل یک عکس یا یک ویدئو است و به بیننده در مورد احتمال تغییر در آن هشدار می‌دهد.
برای ویدئوها، مایکروسافت می‌گوید که ابزار آن قادر به ارایه تحلیل فریم به فریم فیلم به صورت زمان حقیقی می‌باشد. تشخیص مرزهای تصویر و ترکیب تصاویر در سطح خاکستری برای چشم انسان قابل تشخیص نیست و این مورد در حال حاضر محلی است که قادر به تشخیص اصل یا جعل بودن یک محتوا خواهیم بود.

محققان می‌گویند تولیدات Deepfake در حال رشد و گسترش هستند و هرروز الگوریتم‌های آن‌ها پیچیده‌تر می‌شود. این سیستم نوین هم قابلیت یادگیری داشته و سعی میکنیم به طور کامل آماده مبارزه با جعل عمیق باشیم.
به گفته مایکروسافت: " امروزه ما باید به دنبال روش‌های قوی‌تر برای حفظ و تایید اعتبار مقالات خبری و فیلم‌ها در رسانه‌ها باشیم."

پرتره‌های ویدیویی عمیق و تصاویر جعل عمیق، چه هستند و تفاوت آن‌ها در چیست؟ حتما بخوانید: پرتره‌های ویدیویی عمیق و تصاویر جعل عمیق، چه هستند و تفاوت آن‌ها در چیست؟

مایکروسافت همچنین گفته است که فن‌آوری جدیدی را توسعه داده‌ که می‌تواند محتوای متنی ویدیویی دستکاری شده را شناسایی کرده و "به مردم اطمینان دهد که رسانه‌ها در حال مشاهده و حذف اخبار جعلی هستند و خبری که مردم شاهد آن در رسانه هستند اعتبار بالایی دارد. "
این کار از طریق Microsoft Azure قابل انجام است. خدمات سرویس محاسبات ابری شرکت که به تولید کنندگان محتوا اجازه اضافه کردن گواهی‌های دیجیتال به محتوا را می‌دهد.

این گواهی‌های دیجیتال را می‌توان به عنوان فراداده اطلاعات درباره رسانه‌ها، مانند تاریخ و مکان مورد استفاده قرار داد تا با طراحی افزونه‌هایی افراد بتوانند به راحتی متوجه تغییرات یا عدم انطباق گواهی‌ها با مواردی که مطالعه می‌کنند یا در حال دیدن هستند شده و بدین صورت محتوای جعلی و یا کپی شده با نام رسانه‌های دیگر که در آن تغییرات جعلی داده شده است آشکار خواهد شد. در ابتدا قرار است که این تایید کننده تنها از طریق  مشارکتی که مایکروسافت با بنیاد هوش مصنوعی در آمریکا ایجاد کرده‌است، در دسترس باشد.

اسپریت پورتالسمینار : توسعه پورتال های سازمانی با استفاده از هوش مصنوعی - از تئوری تا اجرا

در حال حاضر این شرکت طرحی با عنوان “Reality Defender 2020 (RD2020) initiative” را معرفی کرده است که برای سازمان‌های تبلیغاتی و خروجی‌های رسانه‌ای در دسترس خواهد بود.
تعدادی از شرکت‌های رسانه‌ای از جمله بی‌بی‌سی، رادیو - کانادا، و نیویورک‌تایمز، این فن‌آوری تایید هویت را تست خواهند کرد.
مایکروسافت می‌گوید که امیدوار است با شرکت‌های فن‌آوری، ناشران اخبار و شرکت‌های رسانه‌های اجتماعی بیشتری در چند ماه آینده هم‌کاری کند.

گزارشی از کالج دانشگاهی لندن در ماه گذشته نشان داد که  Deepfake ها خطرناک‌ترین نوع جرایم رایانه‌ای هستند.

این به این دلیل است که تشخیص آن‌ها بسیار دشوار بوده و می‌تواند برای انواعی از اهداف شنیع، مانند باج‌گیری یا کلاهبرداری مورد استفاده قرار گیرد.
 مردم اکنون بخش‌های بزرگی از زندگی خود را به صورت آنلاین انجام می‌دهند و فعالیت آنلاین آن‌ها می‌تواند باعث ایجاد شهرت شود. چنین محیط آنلاینی، که در آن داده، دارایی و اطلاعات، قدرت می‌باشد، به طور ایده‌آل برای بهره‌برداری از فعالیت‌های جنایی مبتنی بر هوش مصنوعی مناسب است.
منابع: independent ، Microsoft

: لینک کوتاه خبر
متن استاتیک شماره 3 موجود نیست