دیپ فیک در واقع یک تکنیک نرمافزاری و بر پایه هوش مصنوعی است که میتواند محتوای تصویری را تغییر داده و به چیزی کاملا متفاوت تبدیل کند. دیپ فیک ، ترکیب دو مفهوم یادگیری عمیق یا Deep Learning و جعل یا Fake میباشد.
گروه دانش خبرگزاری علم و فناوری – بسیاری از دانشمندان و کارشناسان بر این باورند که توسعه هوش مصنوعی در کنار تمام فرصتهای جدیدی که در صنعت تکنولوژی به وجود میآورد، تهدید بزرگی برای بشریت و جهان به شمار میرود چرا که با رشد روزافزون خود ، در آینده نه چندان دور، شاید پایه گذار بسیاری از جنگ ها به شمار رود. “دیپ فیک” نیز یکی از تکنولوژی های جدید هوش مصنوعی است که طی سال های اخیر استفاده از آن به صورت فزاینده ای در حال افزایش است و برای مقابله با آن بسیاری از کمپانی ها با صرف میلیون ها دلار به دنبال جلوگیری از انتشار فیلم های است که توسط این ابزار ساخته می شود. اگر این سئوال برای شما پیش آمده که “دیپ فیک” چیست و چگونه کار می کند ؟ به شما پیشنهاد می کنیم این گزارش را تا انتها مطالعه نماید چرا که در خبرگزاری علم و فناوری تلاش کرده ایم به بررسی و معرفی این فناوری نوین بپردازیم .
دیپ فیک چیست؟
دیپ فیک در واقع یک تکنیک نرمافزاری و بر پایه هوش مصنوعی است که میتواند محتوای تصویری را تغییر داده و به چیزی کاملا متفاوت تبدیل کند. دیپ فیک ““Deep Fake ترکیب دو مفهوم یادگیری عمیق یا Deep Learning و جعل یا Fake میباشد. جالب است بدانید که این تکنولوژی چیز جدیدی نیست و قبلا نیز در فیلمهای سینمایی بسیار زیادی استفاده شده و بسیاری از صحنههای عجیب فیلمهای مختلف و بخصوص صحنههایی که به افراد مربوط است با این تکنولوژی درست شده است.
به هر حال برخی Deepfake ها آنقدر هوشمند شده اند که کیفیت و کمیت مورد نظر تصاویر را می توانند بدست آوردند. به خصوص اگر زوایای صورت و چهره ها با ویدیو مقصد مورد نظر هماهنگ شود و اگر هم نباشد ممکن است ویدئو و تصاویر مقصد را با مبدا هماهنگ کنند.
دیپ فیک چگونه متولد شد؟
سال ۲۰۱۴ یان گودفلو، یکی از پژوهشگران نامدار عرصه یادگیری ژرف و هوش مصنوعی در آمریکا، سیستم شبکههای رقابتی مولد را که به اختصار GAN نام دارند، به دنیای تکنولوژی معرفی کرد؛ GANها از جمله میتوانستند به عنوان ابزاری مفید در سیستمهای هوش مصنوعی برای تولید عکسها و ویدیوهایی که حالا آنها را دیپ فیک مینامیم، به کار روند.
سه سال بعد از این ماجرا و در سال ۲۰۱۷ برای اولین بار این تکنولوژی توسط یک کاربر ناشناس در سایت «Reddit» مورد استفاده قرار گرفت که در آن تعدادی از هنرپیشه های مشهور هالیوود را در حال اعمال مبتذل جنسی نشان می داد. البته در آن زمان به فاصله اندکی جعلی بودن این ویدیوها مشخص شد منتهی مشکل اینجاست که با گذشت زمان و پیشرفت این فناوری، تشخیص صحت و سقم ویدیوهای واقعی از جعلی به شدت دشوارتر از قبل شده است.
دیپ فیک Deepfake جهت جعل تصویر چگونه کار می کند؟
از آنجاییکه Deepfake با روش یادگیری ماشین کار میکند، جهت جعل چهره، Deepfake به داشتن چند صد تصویر از حالات مختلف چهره هدف نیاز دارد. به منظور جابجایی چهره؛ مجموعه دادههای چهره هدف و ویدئو مقصد مورد نیاز است و این یکی از دلایلی است که اشخاص معروف و سیاستمداران بیشتر در خطر هستند و با سادگی با جستجویی سریع در اینترنت میتوان تمام دادههای مورد نیاز را بدست آورد.
جالب است بدانید ویدیو جعل عمیق در Deepfake توسط دو سیستم هوش مصنوعی رقیب ایجاد میشود که یکی تولیدکننده و دیگری تفکیک کننده نام دارد. اساساً، تولید کننده، ویدیویی جعلی میسازد و از تفکیک کننده میپرسد که آیا ویدیو واقعی است یا نه. هربار که تفکیک کننده، ویدیویی را به درستی جعلی تشخیص دهد، به تولید کننده سرنخی میدهد درباره کاری که تولید کننده نباید هنگام ساخت ویدیو بعدی انجام دهد. تولید کننده و تفکیک کننده باهم، یک شبکه تخاصمی تولیدی (Generative Adversaridf al Network) یا GAN تشکیل میدهند. اولین گام در تشکیل یک GAN، شناسایی خروجی مطلوب و ساخت یک مجموعه داده تمرینی برای تولید کننده است. هنگامی که تولید کننده شروع به تولید خروجی هایی قابل قبول کند، کلیپ های ویدیویی را می توان وارد تفکیک کننده نمود.
هزینه چند میلیون دلاری برای مقابله با انتشار دیپ فیک ها
نگرانی سیاستمداران در مورد این هوش مصنوعی بسیار جدی است، تا آنجا که دست به کار شدهاند و آژانس پروژههای پیشرفته دفاعی وزارت دفاع آمریکا (Darpa) میلیونها دلار بودجه برای پژوهش در مورد راههای تشخیص دیپ فیک اختصاص داده است. این مرکز تحقیقاتی تنها نیست؛ فیس بوک و گوگل هم برای رسیدن به متدهایی که چنین محتوایی را از اصل تشخیص و تمییز دهد، هزینه میکنند.
آژانسهای خبری مانند رویترز از همین حالا برای مبارزه و تشخیص دیپفیکها خودشان را مجهز میکنند. رویترز با تنظیم “فکتنچکر” سعی میکند خود را مجهز کند. اما مسئول بخش یوجی سی و راستآزمایی یوجی سی رویترز میگوید، دیپ فیکهای بسیار خوب حتی حرفهای ها را هم به اشتباه میاندازند.
هشدار کارشناسان انگلیسی در مورد دیپ فیک با ساختن فیلمی از ملکه بریتانیا
چند روز پیش، شبکه چهار تلویزیون انگلیس یک پیام کریسمس از الیزابت دوم، ملکه بریتانیا، که با استفاده از فناوری «جعل عمیق» ساخته شده بود در تلویزیون این کشور پخش نمود. در این ویدئوی پنج دقیقهای، که همزمان با ارسال پیام سالانه ملکه الیزابت دوم به مناسبت روز کریسمس منتشر شد، وی در حال رقص و بیان اظهاراتی درباره شاهزاده هری و مگان مارکل زوج سلطنتی دیده میشود. کانال چهار تلویزیون انگلیس گفته هدف از پخش این ویدئو ارسال «هشدار جدی» درباره تهدید خبر جعلی در عصر دیجیتال است. یک مقام ارشد این تلویزیون گفت:
منتقدان در سوی مقابل گفتهاند اقدام این رسانه ممکن است باعث شود مردم تصور کنند از فناوری جعل عمیق بیش از آنچه واقعا رواج دارد، استفاده میشود. سام گرگوری، کارشناس فناوری در حوزه حقوق بشر، میگوید:
«ما هنوز ندیدهایم که از جعل عمیق به طور گسترده استفاده شود مگر در حمله به زنان. ما باید واقعا مراقب باشیم که مردم فکر نکنند آنچه میبینند قابل باور نیست. اگر کسی با این فناوری آشنا نباشند ممکن است باور کند که جعل عمیق مشکلی گسترده است.»
دستکاری در ویدئوهای ۵ دقیقه ای چنان حرفه ای انجام شده بود که تشخیص واقعی بودن ویدئو را برای بینندگان بینهایت دشوار ساخته بود. از این جهت ناظران از مدتها پیش نسبت به فراگیر شدن این فناوری و تبعات مخدوش شدن واقعیت و جعل هشدار دادهاند.
کلام آخر؛ آیا دیپ فیک می تواند برای انسان ها خطرناک باشد ؟
ساخت و ارائه هر تکنولوژی علاوه بر فوایدی که دارد می تواند زیان هایی را نیز به دنبال داشته باشد. در مورد دیپ فیک نیز این موضوع صادق است و متأسفانه خطرات این ابزار هوش مصنوعی از فواید آن بیشتر است؛ به عبارت دیگر این برنامه هوشمند به نوعی تهدیدی جدی برای اشخاص مشهور ، سیاستمداران و یا حتی مردم عادی به شمار می آید. ولی این فقط Deepfakes نیست که باید از آن ترسید ، تهدیدهای بزرگتر دیگری هستند که اکثریت مردم عادی را نیز هدف قرار داده اند . همین دو سال اخیر بود که موضوع حفظ حریم شخصی توسط فیسبوک و گوگل به شدت زیر سوال رفت و به دنبال آن باگ امنیتی فیستایم اپل و برنامه هایی که بر روی موبایل ها خواسته و ناخواسته نصب می شوند و تمام اطلاعات و فعالیت های کاربران را با اهداف تجاری یا سوء استفاده های دیگر رصد میکنند. فن آوری ها به سرعت پیشرفت می کنند و به راحتی میان مردم منتشر می گردند؛ اما هنوز قوانین جامع و کاملی برای نحوه استفاده از آن ها وجود ندارد ، هنوز حتی قانونگذاران هم اطلاعات جامعی در خصوص دستگاه هایی که میان مردم عرضه می شود ندارند. پس deepfake تنها دغدغه نخواهد بود .
اشخاصی که واکنش خشمگینانه ای در قبال موضوع دیپ فیک Deepfake از خود نشان دادند بدین خاطر بود که چهره خود را در فیلم های غیر اخلاقی دیدند؛ اما سوال این است چرا جوامع غربی که خودشان هم از این مسائل ضربه می خورند باز هم باید به ساختن اینچنین محتوایی ادامه دهند و اینجاست که بحث اصلی مطرح می شود ، تکنولوژی فقط ابزار است این انسان ها هستند که چگونگی استفاده از آن ها را تعیین می کنند.تهدید ها همیشه وجود داشته اند اما با پیدایش فناوری شکل آن ها تغییر کرده و سرعت و وسعت بیشتری پیدا کرده اند. در هر صورت قطع به یقین نمی توان با تمام تهدیدها مقابله کرد ولی می توان حداقل آگاهی در مورد فن آوری هایی که استفاده میکنیم کسب کرده و در حفاظت از اطلاعات شخصی خود و افراد خانواده مان دقیق تر عمل کنیم.
انتهای پیام /
خبرنگار : سجاد عبدلی