یک پدیده خاص در دوران هوش مصنوعی که به سرعت در حال فراگیر شدن است. با این که کاربردهای جذابی در هنر و آموزش برای آن پیشبینی شده است اما جرایم سایبری بسیاری را هم به وجود آورده است و تهدیدی برای دنیای تولید محتوا، افراد مشهور و رسانهها به حساب میآید. اما راهکارهای نوینی در حال ظهور است تا اعتبار اخبار و رسانهها حفظ شود و همچنین مردم روش روبرو شدن و تشخیص آن را یاد بگیرند. در این نوشتار نگاهی خواهیم داشت به ابزار جدید مایکروسافت برای مبارزه با این تهدید در آستانه انتخابات جدید امریکا.
مایکروسافت ابزار جدیدی را برای مبارزه با Deepfakes جهت استفاه در انتخابات پیش رو در امریکا رونمایی کرده است. فیلم جعل عمیق یا همان Deepfake، فیلمی است که در آن هوش مصنوعی و یادگیری عمیق برای آموزش کامپیوترها به کار میرود تا شخصیتی جعلی از یک شخصیت واقعی بسازد و حرفهایی بزند که واقعا نزده است.
“Microsoft Video Authenticator”قادر به تحلیل یک عکس یا یک ویدئو است و به بیننده در مورد احتمال تغییر در آن هشدار میدهد.
برای ویدئوها، مایکروسافت میگوید که ابزار آن قادر به ارایه تحلیل فریم به فریم فیلم به صورت زمان حقیقی میباشد. تشخیص مرزهای تصویر و ترکیب تصاویر در سطح خاکستری برای چشم انسان قابل تشخیص نیست و این مورد در حال حاضر محلی است که قادر به تشخیص اصل یا جعل بودن یک محتوا خواهیم بود.
محققان میگویند تولیدات Deepfake در حال رشد و گسترش هستند و هرروز الگوریتمهای آنها پیچیدهتر میشود. این سیستم نوین هم قابلیت یادگیری داشته و سعی میکنیم به طور کامل آماده مبارزه با جعل عمیق باشیم.
به گفته مایکروسافت: " امروزه ما باید به دنبال روشهای قویتر برای حفظ و تایید اعتبار مقالات خبری و فیلمها در رسانهها باشیم."
مایکروسافت همچنین گفته است که فنآوری جدیدی را توسعه داده که میتواند محتوای متنی ویدیویی دستکاری شده را شناسایی کرده و "به مردم اطمینان دهد که رسانهها در حال مشاهده و حذف اخبار جعلی هستند و خبری که مردم شاهد آن در رسانه هستند اعتبار بالایی دارد. "
این کار از طریق Microsoft Azure قابل انجام است. خدمات سرویس محاسبات ابری شرکت که به تولید کنندگان محتوا اجازه اضافه کردن گواهیهای دیجیتال به محتوا را میدهد.
این گواهیهای دیجیتال را میتوان به عنوان فراداده اطلاعات درباره رسانهها، مانند تاریخ و مکان مورد استفاده قرار داد تا با طراحی افزونههایی افراد بتوانند به راحتی متوجه تغییرات یا عدم انطباق گواهیها با مواردی که مطالعه میکنند یا در حال دیدن هستند شده و بدین صورت محتوای جعلی و یا کپی شده با نام رسانههای دیگر که در آن تغییرات جعلی داده شده است آشکار خواهد شد. در ابتدا قرار است که این تایید کننده تنها از طریق مشارکتی که مایکروسافت با بنیاد هوش مصنوعی در آمریکا ایجاد کردهاست، در دسترس باشد.
در حال حاضر این شرکت طرحی با عنوان “Reality Defender 2020 (RD2020) initiative” را معرفی کرده است که برای سازمانهای تبلیغاتی و خروجیهای رسانهای در دسترس خواهد بود.
تعدادی از شرکتهای رسانهای از جمله بیبیسی، رادیو - کانادا، و نیویورکتایمز، این فنآوری تایید هویت را تست خواهند کرد.
مایکروسافت میگوید که امیدوار است با شرکتهای فنآوری، ناشران اخبار و شرکتهای رسانههای اجتماعی بیشتری در چند ماه آینده همکاری کند.
گزارشی از کالج دانشگاهی لندن در ماه گذشته نشان داد که Deepfake ها خطرناکترین نوع جرایم رایانهای هستند.
این به این دلیل است که تشخیص آنها بسیار دشوار بوده و میتواند برای انواعی از اهداف شنیع، مانند باجگیری یا کلاهبرداری مورد استفاده قرار گیرد.
مردم اکنون بخشهای بزرگی از زندگی خود را به صورت آنلاین انجام میدهند و فعالیت آنلاین آنها میتواند باعث ایجاد شهرت شود. چنین محیط آنلاینی، که در آن داده، دارایی و اطلاعات، قدرت میباشد، به طور ایدهآل برای بهرهبرداری از فعالیتهای جنایی مبتنی بر هوش مصنوعی مناسب است.
منابع: independent ، Microsoft