تصویر آخرالزمانی هوش مصنوعی از دور دوم ریاست‌جمهوری بایدن!

فناوری

پریسا عباسی – دیپ‌فیک‌(Deep Fake) فناوری جدیدی است که در آن تصاویر و ویدیوهای دروغ، اما واقع گرایانه ساخته می‌شوند. امروزه‌ ویدیوهای دیپ‌فیک از بسیاری افراد مشهور ساخته شده و در فضای مجازی منتشر می‌شوند. با پیشروی بدون محدودیت این فناوری و عدم تشخیص آنها از ویدئوهای واقعی توسط کاربران، به زودی تشخیص مرز بین حقیقت و دروغ عملا غیرممکن خواهد شد.

دیپ‌فیک‌ها با فریب دادن مردم در مورد افراد مشهور و شخصیت‌های سیاسی، کارها و سخنانی را به آنها نسبت می‌دهند که واقعی نیستند. اما اشتباهاتی ساده مانند نبودن انگشت‌های دست یا کیفیت پایین برخی ویدیوها، نشانه واضحی از این است که برخی تصاویر و فیلم‌ها اصلاح شده‌اند.

دیپ‌فیک‌ها شکلی از هوش‌مصنوعی با نام «یادگیری عمیق» هستند و زمانی که در برخی داده‌های خود مشکلی پیدا می‌کنند، آن را حل کرده و برای ساخت فیلم‌ها و عکس‌های جعلی، چهره‌ها را عوض می‌کنند.

برخی از دیپ‌فیک‌ها به قصد طنز و کمدی ساخته می‌شوند، مانند مجموعه‌ای از دیپ‌فیک‌های نیکلاس کیج در فیلم‌هایی مانند «مهاجمان صندوق گمشده» و «مرد پولادین» که او در آنها بازی نکرده است.

بسیاری افراد از این قابلیت هوش مصنوعی برای انتقام جویی و عمدتا با استفاده از چهره افراد مشهور و ساخت فیلم‌های مستهجن استفاده کرده‌اند. طبق گزارش دیپ‌تریس، ۹۶ درصد از تمام ویدیوهای دیپ‌فیک که در سال ۲۰۱۹ به صورت آفلاین یافت شدند، پورنوگرافی بودند. مثلا در سال ۲۰۱۷ از چهره اشخاص معروفی مانند تیلور سوئیفت و اسکارلت جوهانسون برای اینکار استفاده شده بود.

شخصیت‌های سیاسی نیز به طور گسترده قربانی این دیپ‌فیک‌ها می‌شوند. به عنوان مثال ویدئویی جعلی از باراک اوباما در سال ۲۰۱۸ منتشر شد که در آن اوباما، دونالد ترامپ را «یک فرد احمق به تمام معنا» خطاب می‌کند.

شرکت‌های رسانه‌های اجتماعی معروفی نظیر، متا، توییتر و تیک‌تاک انتشار دیپ‌فیک و فیلم‌های فریبنده را در پلتفرم‌های خود ممنوع کرده‌اند، اگرچه تشخیص سریع آنها قبل از اینکه به سرعت منتشر شوند کار سختی است.

پس از اینکه جو بایدن در صبح روز سه‌شنبه برای کمپین انتخابات مجدد اعلام آمادگی کرد، کمیته ملی جمهوری‌خواهان ویدئویی دروغین با تصاویر تولید شده توسط هوش مصنوعی منتشر کردند که نشان می‌دهد دوره دوم بایدن-هریس به چه آخرالزمانی تبدیل خواهد شد. این ویدئو، تصاویری از تخریب، و فروریختن ساختمان‌های وال‌استریت، جنگ و انفجار در تایوان، و آمادگی پلیس با تجهیزات تاکتیکی برای دفاع از سانفرانسیسکو در برابر جرم و جنایت به نمایش می‌گذارد. سام کورنال، مدیر اجرایی کمیته ملی دموکرات‌ها در توییتی گفت که RNC از هوش مصنوعی به شکل ناامیدکننده‌ای استفاده کرده است و «چاره‌ای جز درخواست کمک از هوش مصنوعی نداشت».

پس از اینکه الیوت هیگینز، بنیانگذار گروه تحقیقاتی Bellingcat، تصاویر دیپ‌فیکی را از ترامپ که در حال فرار از دست مقامات است، در روز دوشنبه در توییتر به اشتراک گذاشت، این تصاویر غوغایی در رسانه‌های اجتماعی به پا کرد. اگرچه او در ابتدای مطلب اشاره کرده بود که این تصاویر با استفاده از ابزار هوش مصنوعی Midjourney ایجاد شده‌اند.

هیگینز به آسوشیتدپرس گفت که: «دونالد ترامپ در حین دستگیری بر روی زمین افتاد.» با این حال، در این تصاویر «افسران» با کلاه و یونیفورم پلیس با حروف درهم و برهم، و ترامپ با سه پا دیده می شود. هیگینز به آسوشیتدپرس گفت: «من تصور می‌کردم مردم متوجه می‌شوند که دونالد ترامپ دو پا دارد، نه سه پا.» ترامپ ممکن است توسط هیئت منصفه منهتن به جعل سوابق تجاری مرتبط با پرداخت‌ حق‌السکوت به استورمی دانیلز، در طول مبارزات انتخاباتی‌اش در سال ۲۰۱۶ متهم شود.

ترامپ روز پنجشنبه تصویری از خود را در پلتفرم شبکه اجتماعی Truth Social منتشر کرد که بر روی زمین زانو زده است. او در این عکس در وسط اتاقی بر روی زمین زانو زده و نورافکن مستقیماً روی او تابیده شده و دست‌هایش را به هم گره کرده و سرش را خم کرده است. یکی از نقاط ضعف تصاویر تولید شده توسط هوش مصنوعی، تصاویر مربوط به دست‌ها است. این عکس نیز شامل همین قاعده است. در این عکس به نظر می‌رسد که او انگشت حلقه دست راستش را از دست داده و انگشتان شستش منحرف شده‌اند. همچنین، با وجودی که نورافکن بر روی او تابیده شده است، اما هیچ‌کس در اتاق به رئیس‌جمهور سابق نگاه نمی‌کند.

960x0.jpg

بیشتر بخوانید:

در ویدئویی که او در ماه مه۲۰۲۰ در توییتر به اشتراک گذاشت، ترامپ به جای بیل پولمن در حال خواندن مونولوگ معروف «روز استقلال»، در فیلمی است که بیل نقش رئیس جمهور خیالی ایالات متحده را در آن بازی کرده است. این در حالی است که صدای اصلی فیلم پخش می‌شود، و صورت ترامپ روی بدن پولمن قرار دارد. در میان جمعیت، چهره ‌شخصیت‌های معروفی مانند ایوانکا ترامپ، تد کروز و شان هانیتی بر روی بدن سربازان فیلم قرار دارد که در حال آماده شدن برای نبرد نهایی با بیگانگان هستند. این باعث شد که بازیگران واکنش نشان دهند و پولمن به هالیوود ریپورتر گفت: “صدای او متعلق به کسی جز [او] نیست”. این دیپ‌فیک به اندازه بقیه واقعی نیست، زیرا به وضوح مشخص است که چهره ترامپ بر روی بدن پولمن قرار گرفته است.

چگونه یک دیپ‌فیک را تشخیص دهیم

باقیمانده‌های اضافی: این شامل موارد عجیب و غریب، یا وجود چیزهایی نامناسب در عکس یا ویدیو هستند. اشیایی نظیر کفش‌ها یا گوشواره‌های نامتناسب، بدشکل بودن فک، وجود انگشت یا پای اضافه(همانند تصویر جعلی ترامپ).

حرکات چشم: اغلب، در ویدیوهای دیپ‌فیک جعلی، افراد به شکل عجیبی پلک می‌زنند یا حرکات چشم‌شان طبیعی نیست. مطالعه‌ای که در arXiv دانشگاه کرنل منتشر شده است، از این موضوع برای تشخیص ویدئوهای جعلی، استفاده کرده است.

کیفیت صدا/فیلم: همانند ویدئوهای ترامپ و اپستین، بسیاری از ویدئوهای دیپ‌فیک، عدم تطابق صوتی و تصویری را نشان می‌دهند. به عنوان مثال، در ویدئویی از ولادیمیر پوتین، رئیس جمهور روسیه، که رویترز آن را ترجمه کرده است، ادعا می‌شود که آنها با اوکراین به صلح رسیده‌اند، اما حرکات دهان او با صدا مطابقت ندارد.

  • منابع: از آنجایی که دیپ‌فیک‌ها روز به روز بهتر و متقاعدکننده‌تر می‌شوند، یکی از بهترین راه‌ها برای تشخیص جعلی بودن آنها، بررسی منابع آنها است. اگرچه با وجود رسانه‌های اجتماعی این کار کمی سخت‌تر شده ؛ زیرا هر کسی می‌تواند ویدیوها و تصاویر را به اشتراک بگذارد. مثلا منبع اصلی ویدئوی منتشر شده از جو بایدن، باید از طرف کاخ سفید، یا یک آژانس رسمی دولتی یا یک پلتفرم خبری معتبر باشد.

تقویت مهارت‌های تشخیص: چندین وب‌سایت به افراد کمک می‌کنند تا مهارت‌هایشان را برای تشخیص دیپ‌فیک‌ها بالا ببرند. MIT’s Detect Fakes یک آزمون کوتاه است که به کاربران اجازه می‌دهد تا دو ویدیو را با هم مقایسه کنند و تصمیم بگیرند کدام یک واقعی است. مایکروسافت Spot the Deepfake یک مسابقه 10 سوالی است که از کاربران می‌خواهد به نشانه‌هایی مانند حرکت چشم‌ها و واکنش‌های احساسی توجه کنند و ویدئوهای دیپ‌فیک را تشخیص دهند.

منبع: forbes

5858

نوشتهٔ پیشین
قیمت رسمی مرغ و تخم‌مرغ اعلام شد/ توضیح وزارت جهادکشاورزی درباره قیمت‌های جدید
نوشتهٔ بعدی
ویروسی کشنده که بدن موجود مبتلا را آبی رنگ می‌کند / عکس

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

این فیلد را پر کنید
این فیلد را پر کنید
لطفاً یک نشانی ایمیل معتبر بنویسید.
شما برای ادامه باید با شرایط موافقت کنید

آخرین اخبار