آخرین خبر :

دیپ فیک چیست؟ و چگونه کار می کند ؟/ آیا هوش مصنوعی می تواند عقل و چشم انسان را فریب دهد ؟

دیپ فیک در واقع یک تکنیک نرم‌افزاری و بر پایه هوش مصنوعی است که می‌تواند محتوای تصویری را تغییر داده و به چیزی کاملا متفاوت تبدیل کند. دیپ فیک ، ترکیب دو مفهوم یادگیری عمیق یا Deep Learning و جعل یا Fake می‌باشد.

گروه دانش خبرگزاری علم و فناوری – بسیاری از دانشمندان و کارشناسان بر این باورند که توسعه هوش مصنوعی در کنار تمام فرصت‌های جدیدی که در صنعت تکنولوژی به وجود می‌آورد، تهدید بزرگی برای بشریت و جهان به شمار می‌رود چرا که با رشد روزافزون خود ، در آینده نه چندان دور، شاید پایه گذار بسیاری از جنگ ها به شمار رود. “دیپ فیک” نیز یکی از تکنولوژی های جدید هوش مصنوعی است که طی سال های اخیر استفاده از آن به صورت فزاینده ای در حال افزایش است و برای مقابله با آن بسیاری از کمپانی ها با صرف میلیون ها دلار به دنبال جلوگیری از انتشار فیلم های است که توسط این ابزار ساخته می شود. اگر این سئوال برای شما پیش آمده که “دیپ فیک” چیست و چگونه کار می کند ؟ به شما پیشنهاد می کنیم این گزارش را تا انتها مطالعه نماید چرا که در خبرگزاری علم و فناوری تلاش کرده ایم به بررسی و معرفی این فناوری نوین بپردازیم .

دیپ فیک چیست؟

دیپ فیک در واقع یک تکنیک نرم‌افزاری و بر پایه هوش مصنوعی است که می‌تواند محتوای تصویری را تغییر داده و به چیزی کاملا متفاوت تبدیل کند. دیپ فیک ““Deep Fake ترکیب دو مفهوم یادگیری عمیق یا Deep Learning و جعل یا Fake می‌باشد. جالب است بدانید که این تکنولوژی چیز جدیدی نیست و قبلا نیز در فیلم‌های سینمایی بسیار زیادی استفاده شده‌ و بسیاری از صحنه‌های عجیب فیلم‌های مختلف و بخصوص صحنه‌هایی که به افراد مربوط است با این تکنولوژی درست شده است.

به هر حال برخی Deepfake ها آنقدر هوشمند شده اند که کیفیت و کمیت مورد نظر تصاویر را می توانند بدست آوردند. به خصوص اگر زوایای صورت و چهره ها با ویدیو مقصد مورد نظر هماهنگ شود و اگر هم نباشد ممکن است ویدئو و تصاویر مقصد را با مبدا هماهنگ کنند.

دیپ فیک چگونه متولد شد؟

سال ۲۰۱۴ یان گودفلو، یکی از پژوهشگران نامدار عرصه یادگیری ژرف و هوش مصنوعی در آمریکا، سیستم شبکه‌های رقابتی مولد را که به اختصار GAN نام دارند، به دنیای تکنولوژی معرفی کرد؛ GANها از جمله می‌توانستند به عنوان ابزاری مفید در سیستم‌های هوش مصنوعی برای تولید عکس‌ها و ویدیوهایی که حالا آنها را دیپ فیک می‌نامیم، به کار روند.

سه سال بعد از این ماجرا و در سال ۲۰۱۷ برای اولین بار این تکنولوژی توسط یک کاربر ناشناس در سایت «Reddit» مورد استفاده قرار گرفت که در آن تعدادی از هنرپیشه های مشهور هالیوود را در حال اعمال مبتذل جنسی نشان می داد. البته در آن زمان به فاصله اندکی جعلی بودن این ویدیوها مشخص شد منتهی مشکل اینجاست که با گذشت زمان و پیشرفت این فناوری، تشخیص صحت و سقم ویدیوهای واقعی از جعلی به شدت دشوارتر از قبل شده است.

دیپ فیک Deepfake جهت جعل تصویر چگونه کار می کند؟

از آنجاییکه Deepfake با روش یادگیری ماشین کار میکند، جهت جعل چهره، Deepfake به داشتن چند صد تصویر از حالات مختلف چهره هدف نیاز دارد. به منظور جابجایی چهره؛ مجموعه داده‌های چهره هدف و ویدئو مقصد مورد نیاز است و این یکی از دلایلی است که اشخاص معروف و سیاستمداران بیشتر در خطر هستند و با سادگی با جستجویی سریع در اینترنت می‌توان تمام داده‌های مورد نیاز را بدست آورد.

جالب است بدانید ویدیو جعل عمیق در Deepfake  توسط دو سیستم هوش مصنوعی رقیب ایجاد میشود که یکی تولیدکننده و دیگری تفکیک کننده نام دارد. اساساً، تولید کننده، ویدیویی جعلی میسازد و از تفکیک کننده میپرسد که آیا ویدیو واقعی است یا نه. هربار که تفکیک کننده، ویدیویی را به درستی جعلی تشخیص دهد، به تولید کننده سرنخی میدهد درباره کاری که تولید کننده نباید هنگام ساخت ویدیو بعدی انجام دهد. تولید کننده و تفکیک کننده باهم، یک شبکه تخاصمی تولیدی (Generative Adversaridf al Network) یا GAN تشکیل میدهند. اولین گام در تشکیل یک GAN، شناسایی خروجی مطلوب و ساخت یک مجموعه داده تمرینی برای تولید کننده است. هنگامی که تولید کننده شروع به تولید خروجی هایی قابل قبول کند، کلیپ های ویدیویی را می توان وارد تفکیک کننده نمود.

هزینه چند میلیون دلاری برای مقابله با انتشار دیپ فیک ها

نگرانی سیاستمداران در مورد این هوش مصنوعی بسیار جدی است، تا آنجا که دست به کار شده‌اند و آژانس پروژه‌های پیشرفته دفاعی وزارت دفاع آمریکا (Darpa) میلیون‌ها دلار بودجه برای پژوهش در مورد راه‌های تشخیص دیپ فیک اختصاص داده است. این مرکز تحقیقاتی تنها نیست؛ فیس بوک و گوگل هم برای رسیدن به متدهایی که چنین محتوایی را از اصل تشخیص و تمییز دهد، هزینه می‌کنند.

آژانس‌های خبری مانند رویترز از همین حالا برای مبارزه و تشخیص دیپ‌فیک‌ها خودشان را مجهز می‌کنند. رویترز با تنظیم “فکتن‌چکر” سعی می‌کند خود را مجهز کند. اما مسئول بخش یوجی سی و راست‌آزمایی یوجی سی رویترز می‌گوید، دیپ فیک‌های بسیار خوب حتی حرفه‌ای ها را هم به اشتباه می‌اندازند.

هشدار کارشناسان انگلیسی در مورد دیپ فیک با ساختن فیلمی از ملکه بریتانیا

چند روز پیش، شبکه چهار تلویزیون انگلیس یک پیام کریسمس از الیزابت دوم، ملکه بریتانیا، که با استفاده از فناوری «جعل عمیق» ساخته شده بود در تلویزیون این کشور پخش نمود. در این ویدئوی پنج‌ دقیقه‌ای، که همزمان با ارسال پیام سالانه ملکه الیزابت دوم به مناسبت روز کریسمس منتشر شد، وی در حال رقص و بیان اظهاراتی درباره شاهزاده هری و مگان مارکل زوج سلطنتی دیده می‌شود. کانال چهار تلویزیون انگلیس گفته هدف از پخش این ویدئو ارسال «هشدار جدی» درباره تهدید خبر جعلی در عصر دیجیتال است. یک مقام ارشد این تلویزیون گفت:

منتقدان در سوی مقابل گفته‌اند اقدام این رسانه ممکن است باعث شود مردم تصور کنند از فناوری جعل عمیق بیش از آنچه واقعا رواج دارد، استفاده می‌شود. سام گرگوری، کارشناس فناوری در حوزه حقوق بشر، می‌گوید:

«ما هنوز ندیده‌ایم که از جعل عمیق به طور گسترده استفاده شود مگر در حمله به زنان. ما باید واقعا مراقب باشیم که مردم فکر نکنند آنچه می‌بینند قابل باور نیست. اگر کسی با این فناوری آشنا نباشند ممکن است باور کند که جعل عمیق مشکلی گسترده است.»

دستکاری در ویدئوهای ۵ دقیقه ای چنان حرفه ای انجام شده بود که تشخیص واقعی بودن ویدئو را برای بینندگان بی‌نهایت دشوار ساخته بود. از این جهت ناظران از مدت‌ها پیش نسبت به فراگیر شدن این فناوری و تبعات مخدوش شدن واقعیت و جعل هشدار داده‌اند.

کلام آخر؛ آیا دیپ فیک می تواند برای انسان ها خطرناک باشد ؟

ساخت و ارائه هر تکنولوژی علاوه بر فوایدی که دارد می تواند زیان هایی را نیز به دنبال داشته باشد. در مورد دیپ فیک نیز این موضوع صادق است و متأسفانه خطرات این ابزار هوش مصنوعی از فواید آن بیشتر است؛ به عبارت دیگر این برنامه هوشمند به نوعی تهدیدی جدی برای اشخاص مشهور ، سیاستمداران و یا حتی مردم عادی به شمار می آید. ولی این فقط Deepfakes نیست که باید از آن ترسید ، تهدیدهای بزرگتر دیگری هستند که اکثریت مردم عادی را نیز هدف قرار داده اند . همین دو سال اخیر بود که موضوع حفظ حریم شخصی توسط فیسبوک و گوگل به شدت زیر سوال رفت و به دنبال آن باگ امنیتی فیستایم اپل و برنامه هایی که بر روی موبایل ها خواسته و ناخواسته نصب می شوند و تمام اطلاعات و فعالیت های کاربران را با اهداف تجاری یا سوء استفاده های دیگر رصد میکنند. فن آوری ها به سرعت پیشرفت می کنند و به راحتی میان مردم منتشر می گردند؛ اما هنوز قوانین جامع و کاملی برای نحوه استفاده از آن ها وجود ندارد ، هنوز حتی قانونگذاران هم اطلاعات جامعی در خصوص دستگاه هایی که میان مردم عرضه می شود ندارند. پس deepfake تنها دغدغه نخواهد بود .

اشخاصی که واکنش خشمگینانه ای در قبال موضوع دیپ فیک Deepfake از خود نشان دادند بدین خاطر بود که چهره خود را در فیلم های غیر اخلاقی دیدند؛ اما سوال این است چرا جوامع غربی که خودشان هم از این مسائل ضربه می خورند باز هم باید به ساختن اینچنین محتوایی ادامه دهند و اینجاست که بحث اصلی مطرح می شود ، تکنولوژی فقط ابزار است این انسان ها هستند که چگونگی استفاده از آن ها را تعیین می کنند.تهدید ها همیشه وجود داشته اند اما با پیدایش فناوری شکل آن ها تغییر کرده و سرعت و وسعت بیشتری پیدا کرده اند. در هر صورت قطع به یقین نمی توان با تمام تهدیدها مقابله کرد ولی می توان حداقل آگاهی در مورد فن آوری هایی که استفاده میکنیم کسب کرده و در حفاظت از اطلاعات شخصی خود و افراد خانواده مان دقیق تر عمل کنیم.

انتهای پیام /

خبرنگار : سجاد عبدلی

دیدگاهتان را ثبت کنید

آدرس ایمیل شما منتشر نخواهد شدعلامتدارها لازمند *

*