ویدیوهای پورنوگرافیکی که با استفاده از یک نرمافزار جدید چهره فرد را با چهره یک فرد سرشناس عوض میکرد در حال حذف از اینترنت هستند.
Gfycat که میزبان بخش اعظمی از این ویدیوها بوده، این ویدیوهای پورنوگرافیک را "زننده و ناخوشایند" دانسته است.
ایجاد چنین ویدیوهایی پس از آن که اوائل ماه جاری ابزاری رایگان برای تغییر آسان چهرهها ارائه شد، شدت یافته است.
تا کنون کاربران، اپلیکیشن "فیکاپ" را بیش از یکصد هزار بار دانلود کردهاند.
این اپلیکیشن با استفاده از یک الگوریتم یادگیری ماشینی، نسخه کامپیوتری چهره افراد را بازتولید می کند.
برای چنین کاری، اپلیکیشن نیازمند صدها تصویر و یک ویدیو است.
نتایج این کار به دیپفیک (deepfake) مشهور شده است.
سازنده اپلیکیشن فیکاپ میگوید هنگامی که محتوای کافی موجود باشد با فشار یک دکمه میتوان ویدیو را تولید کرد در برخی موارد موقعی که از دو چهره برای ساختن ویدیو استفاده شده، نتیجه، بیشتر قابل قبول بوده است.
شماری از افراد از این اپلیکیشن برای ساخت محتوای غیر پورنوگرافیک استفاده کردهاند.
به عنوان مثال، در یک مورد صورت دونالد ترامپ روی صورت آنگلا مرکل گذاشته شده است.
اما بیشترین استفاده از این اپلیکیشن برای تغییر فیلمهای موجود پورنو بوده و چهره هنرپیشه فیلم با چهره هنرپیشهها و خوانندههای معروف عوض شده است. بسیاری از این فیلمها بارها در اینترنت به اشتراک گذاشته شده و این کار با انتقادهایی همراه بوده است.
بسیاری از افرادی که دست به تولید چنین ویدیوهایی زدند آن را در سایت Gfycat به اشتراک گذاشتند. از این سایت معمولا برای میزبانی ویدیوهای کوتاه استفاده میشود.
Gfycat اجازه محتوی ۱۸ سال به بالا را میدهد اما این هفته شروع به حذف این مطالب کرده است.
این شرکت در بیانیهای گفته است محتواهایی را که ناخوشایند بداند حذف میکند. این شرکت تاکید کرده، ویدیوهایی از این دست را حذف خواهد کرد.
از عکسهای آریانا گرانده هم برای تولید محتوای پورنوگرافیک استفاده شده است