جعل عمیق
دیپ فیک یا جعل عمیق، ترکیبی از کلمههای «یادگیری عمیق» و «جعلی»،[1] یک تکنیک برای ترکیب تصویر انسان مبتنی بر هوش مصنوعی است. جعل عمیق تصاویر و فیلمهای موجود را بر روی تصاویر یا فیلمهای منبع قرار میدهد و از یک تکنیک یادگیری ماشین به نام «شبکه مولد تخاصمی» (GAN) استفاده میکند.[2] ویدیوی جعلی، ترکیب فیلمهای موجود و منبع است که فرد یا افرادی را درحال انجام یک کار در موقعیتی نشان میدهد که هرگز در واقعیت اتفاق نیفتاده است.
برای مثال چنین فیلمهای تقلبیای میتواند فرد را در حال انجام اقدامات جنسی نشان دهد که هرگز در آن شرکت نکردهاست یا میتواند برای تغییر کلمات یا حرکات یک سیاستمدار مورد استفاده قرار گیرد تا به نظر برسد آن فرد چیزی را گفته که هرگز به زبان نیاوردهاست. به دلیل این قابلیتها، جعل عمیق میتواند برای ایجاد فیلمهای پورن افراد مشهور، پورن انتقامی، اخبار جعلی و کلاهبرداریهای مخرب استفاده شود.[3][4]
پورنوگرافی
در سال ۲۰۱۷ پورنوگرافی توسط جعل عمیق در اینترنت و به ویژه در ردیت، نمایان شد و سپس سایتهایی مثل ردیت، توئیتر و پورنهاب آن را ممنوع کردند.[5][6][7] در پاییز ۲۰۱۷ یک کاربر ناشناس ردیت تحت نام مستعار "Deepfakes" چندین فیلم پورن را در اینترنت منتشر کرد. اولین فیلمی که جلب توجه کرد، جعل عمیقی برای دیزی ریدلی بود. این فیلم یکی از شناخته شدهترین فیلمهای جعل عمیق و بخش اصلی چندین مقاله بود. جعل عمیق همچنین بازیگر فیلم زن شگفتانگیز، گل گدوت، را در حال داشتن رابطه جنسی با برادر نانتی اش، به جای اما واتسون، کیتی پری، تیلور سوئیفت یا اسکارلت جوهانسون شبیهسازی کرد. مدتی بعد نادرستی این صحنههای غیر واقعی -که توسط هوش مصنوعی ایجاد شده بودند- افشا شد.
با گذشت زمان، انجمن Reddit بسیاری از اشکالات را در فیلمهای جعلی برطرف کرد و این موضوع باعث شد که تشخیص محتوای تقلبی از اصلی سخت شود. عکسها و فیلمهای غیر پورنوگرافیک بازیگران، که به صورت آنلاین به راحتی در دسترس هستند، به عنوان دادههای آموزشی در نرمافزار استفاده شد. پدیده جعل عمیق برای اولین بار در دسامبر ۲۰۱۷ در بخش فنی و علمی مجله Vice گزارش و در نهایت به صورت گسترده در سایر رسانهها نیز منتشر شد.[8][9]
در دسامبر ۲۰۱۸، اسکارلت جوهانسون، به عنوان شخص تکرار شونده در جعل عمیق، بهطور عمومی در مورد موضوعی در روزنامه The Washington Post صحبت کرد. او در یک بیانیه آماده، در مورد این پدیده ابراز نگرانی کرد و گفت اینترنت، کرمچاله ای عظیم از تاریکی است که خودش را میخورد. با این حال، او اظهار کرد که برای حذف هیچیک از جعل عمیقهایش تلاشی نمیکند چون معتقد است که آنها بر روی تصویر عمومی او تأثیری نمیگذارند و هم چنین وجود قوانین مختلف در کشورهای مختلف و ماهیت فرهنگ اینترنت هر گونه تلاش برای حذف جعل عمیق را تبدیل به حرکتی شکست خورده میکند؛ او معتقد است که تا زمانی که افراد مشهور مانند خودش توسط شهرتشان محافظت میشوند، جعل عمیق تهدیدی جدی برای زنان برجسته است زیرا ممکن است آنها با فریب خوردن در پورنوگرافی ناخواسته یا پورن انتقامی به شهرت خود صدمه بزنند.[10]
در انگلستان تولیدکنندگان مواد جعل عمیق ممکن است برای آزار و شکنجه تحت پیگرد قانونی قرار گیرند اما درخواستهایی برای تبدیل جعل عمیق به یک جرم ویژه وجود دارد؛[11] در ایالات متحده، جایی که اتهاماتی مانند سرقت هویت، کمین اینترنتی و پورن انتقامی مورد انتقاد قرار گرفته شدهاست، مفهوم یک قانون جامع تر نیز مورد استفاده قرار گرفتهاست.[12] افراد مشهور هدف اصلی چنین فیلمهای جعلی جنسی هستند، اما برخی دیگر نیز تحت تأثیر قرار میگیرند.[13][14][15]
سیاست
جعل عمیق برای بد جلوه دادن سیاستمداران مشهور در پورتالهای ویدیویی یا چت رومها استفاده میشود. برای مثال، چهرهٔ رئیسجمهور آرژانتین مائوریسیو ماکری با چهرهٔ آدولف هیتلر و چهرهٔ آنجلا مرکل با دونالد ترامپ جایگزین شد.[16][17] در آوریل ۲۰۱۸، جردن پیل و جونا پرتی جعل عمیقی درست کردند که در آن از باراک اوباما به عنوان یک آگهی خدمات عمومی دربارهٔ خطر جعل عمیق استفاده شده بود.[18] در ماه ژانویه سال ۲۰۱۹، KCPQ جعل عمیقی از ترامپ، در طول سخنرانی اش منتشر کرد که در حال تمسخر ظاهر و رنگ پوستش بود.[19]
نرمافزار جعل عمیق
در ژانویه ۲۰۱۸ یک برنامه دسکتاپ به نام FakeApp راه اندازی شد. این برنامه به کاربران اجازه میدهد تا به آسانی فیلمها را با چهرههایی مختلف ایجاد کرده و به اشتراک بگذارند. این برنامه از یک شبکه عصبی مصنوعی، قدرت پردازنده گرافیکی و سه تا چهار گیگابایت فضای ذخیرهسازی برای تولید ویدیو جعلی استفاده میکند. برای اطلاعات دقیق، برنامه نیاز به مقدار زیادی مواد بصری از فرد نیاز دارد تا بفهمد که کدام جنبههای تصویر، با استفاده از الگوریتم یادگیری عمیق و توالی ویدئوها و عکسها، باید تغییر کند.
این نرمافزار از فریم ورک تنسورفلو گوگل استفاده میکند که برای برنامه DeepDream هم مورد استفاده قرار گرفته بود. در اوت ۲۰۱۸، محققان دانشگاه کالیفرنیا برکلی مقاله ای را برای معرفی یک برنامه رقص جعلی منتشر کردند که میتواند با استفاده از هوش مصنوعی یک کودک را با یک رقصنده متخصص جایگزین کند.[20][21]
جعل عمیق در داستان
پدیده جعل عمیق و پورنوگرافی افراد مشهور در رمان Epiphany Jones توسط مایکل گروثوس مورد بررسی قرار گرفتهاست.[22] این رمان یک تریلر ادبی، طنز اجتماعی و کمدی تاریک دربارهٔ عقدههای روحی همراه با رابطه جنسی، شهرت و اینترنت است. این رمان به بررسی موارد زیر میپردازد: رابطه ناخواسته معتاد پورنوگرافی با یک زن را که فکر میکند میتواند با خدا صحبت کند و درگیر شدن با کاسبان جنسی که به نخبگان هالیوود خدمت میکنند. شخصیت اصلی داستان، جری درزن، از اعتیاد به پورنوگرافی جعلی افراد مشهور رنج میبرد. جعلهای افراد مشهور خاص در این رمان ذکر شده که عبارتند از ناتالی پورتمن، اسکارلت جوهانسون، هالی بری، آنجلینا جولی، کیت بکینزیل و عروسکهای Pussycat. علاوه بر این، جعل افراد مشهور فوت شده از جمله جودی گارلند و آدری هپبورن نیز در رمان ذکر شدهاست.
انتقادات
سوءاستفاده
Aargauer Zeitung میگوید که دستکاری تصاویر و فیلمها با استفاده از هوش مصنوعی میتواند تبدیل به یک پدیدهٔ توده ای خطرناک شود. با این حال، جعل تصاویر و فیلمها حتی از ظهور نرمافزار ویرایش ویدئو و برنامههای ویرایش عکس، قدیمی تر است. در این مورد، واقع گرایی یک جنبه جدید است.[16]
همچنین ممکن است از جعل عمیق برای کلاهبرداریهای هدفمند و پورن انتقامی استفاده شود.[23][24]
اثرات بر روی صحت و اعتبار
اثر دیگری از جعل عمیق این است که دیگر مشخص نمیشود که محتوا هدفمند است (مانند طنز) یا واقعی است. الکس شامپاندارد، پژوهشگر AI، گفتهاست که همه باید بدانند که امروزه، با چه سرعتی همه چیز با این تکنولوژی خراب میشود و اینکه مشکل، فنی نیست بلکه یک مورد است که با اعتماد به اطلاعات و روزنامهنگاری حل میشود. مشکل اصلی این است که بشریت میتواند به دورانی برسد که دیگر نمیتوان تعیین کرد که آیا رسانههای تصویری مطابق با حقیقت هستند یا خیر.[16]
واکنش اینترنتی
برخی از وبسایتها، مانند Twitter و Gfycat، اعلام کردند که محتوای جعل عمیق را حذف و ناشران آن را مسدود خواهند کرد. قبلاً، پلتفرم چت Discord، یک کانال چت با فیلمهای پورن جعلی فرد مشهوری را مسدود کرده بود. وب سایت پورنوگرافی، Pornhub، همچنین قصد دارد تا چنین محتوایی را مسدود کند. با این حال، گزارش شدهاست که این سایت ممنوعیت آن را اعمال نکردهاست.[25][26] در Reddit، این وضعیت در ابتدا ناواضح باقی ماند تا زمانی که زیرمجموعه آن در ۷ فوریه ۲۰۱۸ به علت نقض غیرقانونی پورنوگرافی غیرداوطلبانه، به حالت تعلیق درآمد.[9][27][28][29] در سپتامبر سال ۲۰۱۸، گوگل تصاویری از پورنوگرافی مصنوعی ناخواسته را به فهرست ممنوعیتش اضافه کرد و به همه اجازه داد تا ممنوعیت نتایج واقعی یا برهنگیهای جعلی را درخواست کنند.[30]
منابع
- Brandon, John (2018-02-16). "Terrifying high-tech porn: Creepy 'deepfake' videos are on the rise". Fox News. Retrieved 2018-02-20.
- Schwartz, Oscar (12 November 2018). "You thought fake news was bad? Deep fakes are where truth goes to die". The Guardian. Retrieved 14 November 2018.
- "Experts fear face swapping tech could start an international showdown". The Outline. Retrieved 2018-02-28.
- Roose, Kevin (2018-03-04). "Here Come the Fake Videos, Too". The New York Times. ISSN 0362-4331. Retrieved 2018-03-24.
- "It took us less than 30 seconds to find banned 'deepfake' AI smut on the internet". Retrieved 2018-02-20.
- Kharpal, Arjun (2018-02-08). "Reddit, Pornhub ban videos that use A.I. to superimpose a person's face over an X-rated actor". CNBC. Retrieved 2018-02-20.
- "PornHub, Twitter Ban 'Deepfake' AI-Modified Porn". PCMAG. Retrieved 2018-02-20.
- AI-Assisted Fake Porn Is Here and We’re All Fucked, Motherboard, 2017-12-11
- Markus Böhm (2018-02-07), "Deepfakes": Firmen gehen gegen gefälschte Promi-Pornos vor, Spiegel Online
- Harwell، Drew. «Scarlett Johansson on fake AI-generated sex videos: 'Nothing can stop someone from cutting and pasting my image'» (به انگلیسی). Washington Post. شاپا 0190-8286. دریافتشده در ۲۰۲۰-۱۲-۲۴.
- Sabbagh، Dan؛ Ankel، Sophia (۲۰۱۸-۰۶-۲۱). «Call for upskirting bill to include 'deepfake' pornography ban» (به انگلیسی). The Guardian. شاپا 0261-3077. دریافتشده در ۲۰۲۰-۱۲-۲۴.
- https://www.washingtonpost.com/technology/2018/12/30/fake-porn-videos-are-being-weaponized-harass-humiliate-women-everybody-is-potential-target, Drew. "Fake-porn videos are being weaponized to harass and humiliate women: 'Everybody is a potential target'". The Washington Post. Missing or empty
|url=
(help);|access-date=
requires|url=
(help) - Britta Bauchmüller, "Fake-App": Mit diesem Programm kann jeder im Porno landen – ob er will oder nicht!, Berliner-Kurier.de, archived from the original on 28 August 2019, retrieved 23 January 2019
- Eike Kühl (2018-01-26), Künstliche Intelligenz: Auf Fake News folgt Fake Porn, Die Zeit, ISSN 0044-2070
- heise online, Deepfakes: Neuronale Netzwerke erschaffen Fake-Porn und Hitler-Parodien
- "Wenn Merkel plötzlich Trumps Gesicht trägt: die gefährliche Manipulation von Bildern und Videos". az Aargauer Zeitung. 2018-02-03.
- Patrick Gensing. "Deepfakes: Auf dem Weg in eine alternative Realität?". Archived from the original on 2018-10-11. Retrieved 2020-12-24.
- Romano, Aja (April 18, 2018). "Jordan Peele's simulated Obama PSA is a double-edged warning against fake news". Vox. Retrieved September 10, 2018.
- Swenson, Kyle (January 11, 2019). "A Seattle TV station aired doctored footage of Trump's Oval Office speech. The employee has been fired". The Washington Post. Retrieved January 11, 2019.
- Farquhar, Peter (2018-08-27). "An AI program will soon be here to help your deepfake dancing – just don't call it deepfake". Business Insider Australia. Retrieved 2018-08-27.
- "Deepfakes for dancing: you can now use AI to fake those dance moves you always wanted". The Verge. Retrieved 2018-08-27.
- Chopin, Allison. "'Epiphany Jones' book review: Sex crimes and psychosis in darkly funny thriller - NY Daily News". nydailynews.com. Retrieved 2018-12-31.
- Künstliche Intelligenz: Selfies sind eine gute Quelle, Die Zeit, 2018-01-26, ISSN 0044-2070
- „Deepfake“ – FakeApp kann Personen in Pornos austauschen – Welche Rechte haben Geschädigte?, WILDE BEUGER SOLMECKE Rechtsanwälte, 2018-02-02
- "Pornhub hasn't been actively enforcing its deepfake ban". Engadget. Retrieved 2018-04-21.
- "Pornhub Banned Deepfake Celebrity Sex Videos, But The Site Is Still Full Of Them". BuzzFeed. Retrieved 2018-04-21.
- barbara.wimmer, Deepfakes: Reddit löscht Forum für künstlich generierte Fake-Pornos
- heise online. "Deepfakes: Auch Reddit verbannt Fake-Porn".
- "Reddit verbannt Deepfake-Pornos".
- Washington Post. "Fake-porn videos are being weaponized to harass and humiliate women: 'Everybody is a potential target'".