راستیآزمایی؛ تحریف جنگ ایران با تصاویر ماهوارهای جعلی
+8
رأی دهید
-0
این یک تصویر واقعی ماهوارهای از خلیج فارس نیستدویچه وله: همزمان با جنگ آمریکا و اسرائیل علیه ایران، تصاویر ماهوارهای به یکی از میدانهای اصلی نبرد در جنگ اطلاعاتی تبدیل شدهاند. تصاویر هوایی دستکاریشده یا تولیدشده با هوش مصنوعی تفاوت میان واقعیت و خیال را محو میکنند.
کاربران شبکههای اجتماعی حالا در تشخیص نشانههای واضح دستکاری با هوش مصنوعی در عکسهای سلبریتیها یا مناظر شهری دچار خطای کمتری میشوند. اما در جنگ آمریکا و اسرائیل با ایران، نوع جدیدی از فریب وارد صحنه شده است: تصاویر ماهوارهای جعلی.
سایمون پاپادوپولوس، پژوهشگر هوش مصنوعی در حوزه راستیآزمایی رسانه در مؤسسه CERTH یونان، به دویچه وله میگوید: «مردم عموماً آشنایی بسیار محدودی با تصاویر ماهوارهای دارند و همین موضوع باعث میشود بهراحتی مورد سوءاستفاده قرار گیرند، چرا که اگر جزئیات کوچکی در آنها تغییر کند، احتمالاً کسی متوجه نخواهد شد.»
دستکاری تصاویر ماهوارهای پدیده جدیدی نیست. روسیه در سال ۲۰۱۴ به شکل رسواگونهای تصاویر جعلی از سقوط هواپیمای مالزیایی را منتشر کرد. نمونههای مشابهی نیز در دیگر درگیریهای منطقهای، از جمله تنشهای هند و پاکستان در سال گذشته، دیده شد. اما کارشناسان میگویند این روش در جریان جنگ اخیر اسرائیل و آمریکا علیه جمهوری اسلامی بسیار گستردهتر شده است.
بردی آفریک، تحلیلگر اطلاعات منبعباز (OSINT)، میگوید مشکل در حال بدتر شدن است. یکی از دلایل آن، ابزارهای هوش مصنوعی است که اکنون بهراحتی اجازه میدهند یک تصویر واقعی از "گوگل ارث" یا "بینگ مپ" گرفته و افکتهایی به آن اضافه شود. این تصاویر دستکاریشده اغلب برای القای تخریب زیرساختها یا خسارات راهبردی بهکار میروند تا روایتهای نظامی به نفع یکی از طرفها تقویت شود.
از سوی دیگر، بسیاری از ارائهدهندگان تجاری تصاویر ماهوارهای در زمان جنگ دسترسی عمومی به تصاویر باکیفیت بالا را محدود کردهاند تا از استفاده نظامی جلوگیری کنند. اما این خلأ اطلاعاتی، فضایی ایجاد میکند؛ فضایی که بهطور فزایندهای با تصاویر ساختگی پُر میشود؛ تصاویری که از ناآشنایی عمومی با نحوه ثبت و ظاهر واقعی تصاویر ماهوارهای سوءاستفاده میکنند.
آفریک میگوید: «بسیاری تصور میکنند پیچیدگی تولید تصاویر ماهوارهای باعث میشود جعل آنها دشوار باشد، اما چنین ارتباطی وجود ندارد. این تصاویر در نهایت فقط عکس هستند و مانند هر تصویر دیگری میتوانند دستکاری شوند.»
تیم راستیآزمایی دویچه وله چندین نمونه برجسته را بررسی کرده است.
واترمارک، تصاویر تولیدشده توسط هوش مصنوعی را افشا میکند
یک کاربر در شبکه اجتماعی ایکس (توییتر سابق) تصویری منتشر کرده که بهنظر میرسد تصویر ماهوارهای از خلیج فارس است و ادعا میکند میادین نفتی قطر در حال سوختن هستند. اگرچه تأسیسات گاز مایع قطر واقعاً مورد هدف قرار گرفته بودند، اما این تصویر جعلی است. وجود واترمارک جمینی (Gemini) در گوشه تصویر نشان میدهد که با هوش مصنوعی ساخته شده است.
اسکرینشاتی از یک پست در ایکس که ادعا میکند تصویر ماهوارهای از خلیج فارس را نشان میدهد و مدعی است که در آن میادین نفتی در قطر در حال سوختن هستنداین تصویر از لحاظ بافت و رنگبندی، ظاهر عکسهای واقعی ماهوارهای را تقلید میکند؛ تصاویری با نمایش مناظر متنوع، پوشش گیاهی و پهنههای آبی؛ اما آتش و دود ادعایی در این تصویر با آنچه چنین پدیدههایی در آن مقیاس از دید ماهواره باید داشته باشند، تطابق ندارد.
یک جستوجوی معکوس تصویر نشان میدهد که این عکس اخیراً بارها بازنشر شده است؛ موضوعی که حاکی از آن است که تصویر احتمالاً بر پایه یک لایه واقعی ماهوارهای ساخته شده و بعد از آن، ستونهای دود و آتش بهوسیله هوش مصنوعی به آن اضافه شدهاند.
علاوه بر این، ابزار تشخیص هوش مصنوعی ImageWhisperer هم این تصویر را با احتمال ۷۳ درصد "تولیدشده توسط هوش مصنوعی" طبقهبندی کرده است. با این وجود، به دلیل وجود خطاهای مثبت کاذب، باید با احتیاط از چنین ابزارهایی استفاده کرد.
رسانهها در ایران تصویر "پس از" حمله پهپادی، تولیدشده توسط هوش مصنوعی را منتشر کردند
روزنامه "تهران تایمز" یک نشریه انگلیسیزبان وابسته به دولت در ایران، در شبکه اجتماعی ایکس (توییتر سابق) پستی را منتشر کرد که شامل تصاویر ماهوارهای از "یک رادار آمریکایی در قطر" بود.
این دو تصویر در ظاهر وضعیت "قبل و بعد" از نابودی این رادار در یک حمله پهپادی از سوی ایران را نشان میدهند. این پُست بیش از ۹۵۰ هزاربار دیده شده است.
اسکرینشات از پستی در شبکه اجتماعی ایکس که ظاهراً "قبل و بعد" از تخریب یک رادار آمریکایی در قطر بر اثر حمله پهپادی جمهوری اسلامی را نشان میدهداین تصاویر البته اساسا مربوط به قطر نیستند. این محل، در واقع یک پایگاه دریایی ایالات متحده آمریکا در منامه، در کشور بحرین است.
تصویر "قبل" دقیقاً با یک تصویر واقعی از Google Earth که در تاریخ ۱۰ فوریه ۲۰۲۵ ثبت شده، مطابقت دارد بهطوری که حتی موقعیت خودروها نیز کاملاً یکسان است.
اما تصویر "بعد" بهطور واضحی با هوش مصنوعی تولید شده است. ساختار ساختمانها تغییر شکل داده؛ خطوط معماری ناهماهنگ به نظر میرسند و همچنین برخی عناصر بهصورت مصنوعی به تصویر اضافه شدهاند.
برای پیچیدهتر شدن موضوع، ایران واقعاً به این پایگاه آمریکایی حمله کرده است و تصاویر ماهوارهای تأییدشده از سوی Planet Labs و Airbus (که توسط نیویورک تایمز منتشر شدهاند) آسیبهای واقعی را به طور واضحی نشان میدهند.
طبق تحلیلی از سوی ImageWhisperer، "الگوهای بقایای انفجار تکراری هستند و از پیچیدگی فیزیکی یک محل واقعی انفجار محروماند و همچنین آسیبهای سازهای با مهندسی سامانههای راداری که ادعا میشود در این عکس به تصویر کشیده شدهاند، هیچگونه همخوانی ندارد".
با اینکه روزنامه تهران تایمز موقعیت را بهاشتباه ذکر کرده بود، اما در همین حال، شباهت بصری میان تصاویر واقعی و جعلیِ "قبل و بعد" به وضوح نشان میدهد که تشخیص تصاویر ماهوارهای دستکاریشده در نگاه اول تا چه اندازه میتواند سخت و دشوار باشد.
حساب جعلی خود را بهجای یک شرکت اطلاعاتی چینی جا میزند
ادعا: یک حساب کاربری که خود را بهجای شرکت چینی MizarVision جا زده بود، در شبکه اجتماعی ایکس (توییتر سابق) تصاویری منتشر کرد که ظاهراً میدانهای نفتی در حال سوختن در قطر را نشان میدادند.
تصویر جعلی سیاه و سفید از سوی یک حساب کاربری که خود را به جای شرکت چینی MizarVision جا زده است، منتشر شدنهتنها این تصویر خاص، جعلی است و بارها در اینترنت منتشر شده بلکه، فراتر از آن، کل این حساب کاربری نیز جعلی است.
شرکت MizarVision، یک شرکت واقعی اطلاعات مکانی مستقر در شانگهای، تنها در پلتفرمهای Weibo و WeChat فعالیت میکند و دست به انتشار محتوا میزند.
یک حساب کاربری که در ماه ژانویه ایجاد شده و بهدروغ ادعا میکرد در "چایناتاون، پورتلند" مستقر است، با استفاده از لوگوهای سرقتی تصاویری با واترمارک MizarVision منتشر کرده بود، پیش از آنکه حذف شود.
این شرکت در ماه فوریه بهصورت عمومی اعلام کرد که هرگونه حساب در شبکه اجتماعی ایکس (توییتر سابق) که از نام آن استفاده میکند، جعلی است: «هر حسابی که در ایکس و سایر شبکههای اجتماعی خارج از کشور با نامهای "觅熵" یا "MizarVision" ظاهر شود، جعلی است و هیچگونه ارتباطی با شرکت ما ندارد.»
یکی از تصاویر منتشرشده توسط این حساب جعلی، نمایی "ماهوارهای"، سیاهوسفید و بهشدت فیلترشده از پالایشگاه رأسلفان قطر را نشان میداد که در آن ستونهای دود بهطور تکراری دیده میشدند. همه انفجارها تقریباً در مراحل یکسانی ظاهر شدهاند که نشان میدهد این تصاویر بهصورت مصنوعی کپی و تکرار شدهاند.
جستوجویی ساده در Google Earth نیز نشان میدهد که تصویر پایه با چیدمان واقعی مخازن نفتی مطابقت دارد اما بعدتر ستونهای دود بهشکل مصنوعی به آن اضافه شدهاند.
ضرورت احتیاط در مواجهه با تصاویر ماهوارهای
با تبدیل شدن تصاویر ماهوارهای به ابزاری هرچه قدرتمندتر در روزنامهنگاری و همچنین در زمان جنگها، افزایش تصاویر دستکاریشده با هوش مصنوعی عملا به چالشی جدی برای درک عمومی تبدیل شده است. تصاویر نادرست یا تغییریافته میتوانند بهسرعت منتشر شوند و روایتها را شکل دهند؛ حتی خیلی پیش از آنکه کارشناسان و متخصصان فرصت داشته باشند تا آنها را رد یا اصلاح کنند.
در دورانی که درگیریها بهصورت لحظهای در شبکههای اجتماعی جریان دارند، افزایش سواد دیجیتال و برخورداری از نوعی تردید سالم و مفید نسبت به "افشاگریهای" هیجانانگیز ماهوارهای، ضروری بهنظر میرسد.
دادههای واقعی ماهوارهای همچنان برای مستندسازی رویدادها موضوعی حیاتی بهشمار میروند، اما با این وجود تمایز قائلشدن بین آنها و محتوای جعلی، به طور همزمان به دقت و هوشیاری از سوی پلتفرمها، رسانهها و البته کاربران نیازمند است.
کاربران شبکههای اجتماعی حالا در تشخیص نشانههای واضح دستکاری با هوش مصنوعی در عکسهای سلبریتیها یا مناظر شهری دچار خطای کمتری میشوند. اما در جنگ آمریکا و اسرائیل با ایران، نوع جدیدی از فریب وارد صحنه شده است: تصاویر ماهوارهای جعلی.
سایمون پاپادوپولوس، پژوهشگر هوش مصنوعی در حوزه راستیآزمایی رسانه در مؤسسه CERTH یونان، به دویچه وله میگوید: «مردم عموماً آشنایی بسیار محدودی با تصاویر ماهوارهای دارند و همین موضوع باعث میشود بهراحتی مورد سوءاستفاده قرار گیرند، چرا که اگر جزئیات کوچکی در آنها تغییر کند، احتمالاً کسی متوجه نخواهد شد.»
دستکاری تصاویر ماهوارهای پدیده جدیدی نیست. روسیه در سال ۲۰۱۴ به شکل رسواگونهای تصاویر جعلی از سقوط هواپیمای مالزیایی را منتشر کرد. نمونههای مشابهی نیز در دیگر درگیریهای منطقهای، از جمله تنشهای هند و پاکستان در سال گذشته، دیده شد. اما کارشناسان میگویند این روش در جریان جنگ اخیر اسرائیل و آمریکا علیه جمهوری اسلامی بسیار گستردهتر شده است.
بردی آفریک، تحلیلگر اطلاعات منبعباز (OSINT)، میگوید مشکل در حال بدتر شدن است. یکی از دلایل آن، ابزارهای هوش مصنوعی است که اکنون بهراحتی اجازه میدهند یک تصویر واقعی از "گوگل ارث" یا "بینگ مپ" گرفته و افکتهایی به آن اضافه شود. این تصاویر دستکاریشده اغلب برای القای تخریب زیرساختها یا خسارات راهبردی بهکار میروند تا روایتهای نظامی به نفع یکی از طرفها تقویت شود.
از سوی دیگر، بسیاری از ارائهدهندگان تجاری تصاویر ماهوارهای در زمان جنگ دسترسی عمومی به تصاویر باکیفیت بالا را محدود کردهاند تا از استفاده نظامی جلوگیری کنند. اما این خلأ اطلاعاتی، فضایی ایجاد میکند؛ فضایی که بهطور فزایندهای با تصاویر ساختگی پُر میشود؛ تصاویری که از ناآشنایی عمومی با نحوه ثبت و ظاهر واقعی تصاویر ماهوارهای سوءاستفاده میکنند.
آفریک میگوید: «بسیاری تصور میکنند پیچیدگی تولید تصاویر ماهوارهای باعث میشود جعل آنها دشوار باشد، اما چنین ارتباطی وجود ندارد. این تصاویر در نهایت فقط عکس هستند و مانند هر تصویر دیگری میتوانند دستکاری شوند.»
تیم راستیآزمایی دویچه وله چندین نمونه برجسته را بررسی کرده است.
واترمارک، تصاویر تولیدشده توسط هوش مصنوعی را افشا میکند
یک کاربر در شبکه اجتماعی ایکس (توییتر سابق) تصویری منتشر کرده که بهنظر میرسد تصویر ماهوارهای از خلیج فارس است و ادعا میکند میادین نفتی قطر در حال سوختن هستند. اگرچه تأسیسات گاز مایع قطر واقعاً مورد هدف قرار گرفته بودند، اما این تصویر جعلی است. وجود واترمارک جمینی (Gemini) در گوشه تصویر نشان میدهد که با هوش مصنوعی ساخته شده است.
اسکرینشاتی از یک پست در ایکس که ادعا میکند تصویر ماهوارهای از خلیج فارس را نشان میدهد و مدعی است که در آن میادین نفتی در قطر در حال سوختن هستنداین تصویر از لحاظ بافت و رنگبندی، ظاهر عکسهای واقعی ماهوارهای را تقلید میکند؛ تصاویری با نمایش مناظر متنوع، پوشش گیاهی و پهنههای آبی؛ اما آتش و دود ادعایی در این تصویر با آنچه چنین پدیدههایی در آن مقیاس از دید ماهواره باید داشته باشند، تطابق ندارد.یک جستوجوی معکوس تصویر نشان میدهد که این عکس اخیراً بارها بازنشر شده است؛ موضوعی که حاکی از آن است که تصویر احتمالاً بر پایه یک لایه واقعی ماهوارهای ساخته شده و بعد از آن، ستونهای دود و آتش بهوسیله هوش مصنوعی به آن اضافه شدهاند.
علاوه بر این، ابزار تشخیص هوش مصنوعی ImageWhisperer هم این تصویر را با احتمال ۷۳ درصد "تولیدشده توسط هوش مصنوعی" طبقهبندی کرده است. با این وجود، به دلیل وجود خطاهای مثبت کاذب، باید با احتیاط از چنین ابزارهایی استفاده کرد.
رسانهها در ایران تصویر "پس از" حمله پهپادی، تولیدشده توسط هوش مصنوعی را منتشر کردند
روزنامه "تهران تایمز" یک نشریه انگلیسیزبان وابسته به دولت در ایران، در شبکه اجتماعی ایکس (توییتر سابق) پستی را منتشر کرد که شامل تصاویر ماهوارهای از "یک رادار آمریکایی در قطر" بود.
این دو تصویر در ظاهر وضعیت "قبل و بعد" از نابودی این رادار در یک حمله پهپادی از سوی ایران را نشان میدهند. این پُست بیش از ۹۵۰ هزاربار دیده شده است.
اسکرینشات از پستی در شبکه اجتماعی ایکس که ظاهراً "قبل و بعد" از تخریب یک رادار آمریکایی در قطر بر اثر حمله پهپادی جمهوری اسلامی را نشان میدهداین تصاویر البته اساسا مربوط به قطر نیستند. این محل، در واقع یک پایگاه دریایی ایالات متحده آمریکا در منامه، در کشور بحرین است.تصویر "قبل" دقیقاً با یک تصویر واقعی از Google Earth که در تاریخ ۱۰ فوریه ۲۰۲۵ ثبت شده، مطابقت دارد بهطوری که حتی موقعیت خودروها نیز کاملاً یکسان است.
اما تصویر "بعد" بهطور واضحی با هوش مصنوعی تولید شده است. ساختار ساختمانها تغییر شکل داده؛ خطوط معماری ناهماهنگ به نظر میرسند و همچنین برخی عناصر بهصورت مصنوعی به تصویر اضافه شدهاند.
برای پیچیدهتر شدن موضوع، ایران واقعاً به این پایگاه آمریکایی حمله کرده است و تصاویر ماهوارهای تأییدشده از سوی Planet Labs و Airbus (که توسط نیویورک تایمز منتشر شدهاند) آسیبهای واقعی را به طور واضحی نشان میدهند.
طبق تحلیلی از سوی ImageWhisperer، "الگوهای بقایای انفجار تکراری هستند و از پیچیدگی فیزیکی یک محل واقعی انفجار محروماند و همچنین آسیبهای سازهای با مهندسی سامانههای راداری که ادعا میشود در این عکس به تصویر کشیده شدهاند، هیچگونه همخوانی ندارد".
با اینکه روزنامه تهران تایمز موقعیت را بهاشتباه ذکر کرده بود، اما در همین حال، شباهت بصری میان تصاویر واقعی و جعلیِ "قبل و بعد" به وضوح نشان میدهد که تشخیص تصاویر ماهوارهای دستکاریشده در نگاه اول تا چه اندازه میتواند سخت و دشوار باشد.
حساب جعلی خود را بهجای یک شرکت اطلاعاتی چینی جا میزند
ادعا: یک حساب کاربری که خود را بهجای شرکت چینی MizarVision جا زده بود، در شبکه اجتماعی ایکس (توییتر سابق) تصاویری منتشر کرد که ظاهراً میدانهای نفتی در حال سوختن در قطر را نشان میدادند.
تصویر جعلی سیاه و سفید از سوی یک حساب کاربری که خود را به جای شرکت چینی MizarVision جا زده است، منتشر شدنهتنها این تصویر خاص، جعلی است و بارها در اینترنت منتشر شده بلکه، فراتر از آن، کل این حساب کاربری نیز جعلی است.شرکت MizarVision، یک شرکت واقعی اطلاعات مکانی مستقر در شانگهای، تنها در پلتفرمهای Weibo و WeChat فعالیت میکند و دست به انتشار محتوا میزند.
یک حساب کاربری که در ماه ژانویه ایجاد شده و بهدروغ ادعا میکرد در "چایناتاون، پورتلند" مستقر است، با استفاده از لوگوهای سرقتی تصاویری با واترمارک MizarVision منتشر کرده بود، پیش از آنکه حذف شود.
این شرکت در ماه فوریه بهصورت عمومی اعلام کرد که هرگونه حساب در شبکه اجتماعی ایکس (توییتر سابق) که از نام آن استفاده میکند، جعلی است: «هر حسابی که در ایکس و سایر شبکههای اجتماعی خارج از کشور با نامهای "觅熵" یا "MizarVision" ظاهر شود، جعلی است و هیچگونه ارتباطی با شرکت ما ندارد.»
یکی از تصاویر منتشرشده توسط این حساب جعلی، نمایی "ماهوارهای"، سیاهوسفید و بهشدت فیلترشده از پالایشگاه رأسلفان قطر را نشان میداد که در آن ستونهای دود بهطور تکراری دیده میشدند. همه انفجارها تقریباً در مراحل یکسانی ظاهر شدهاند که نشان میدهد این تصاویر بهصورت مصنوعی کپی و تکرار شدهاند.
جستوجویی ساده در Google Earth نیز نشان میدهد که تصویر پایه با چیدمان واقعی مخازن نفتی مطابقت دارد اما بعدتر ستونهای دود بهشکل مصنوعی به آن اضافه شدهاند.
ضرورت احتیاط در مواجهه با تصاویر ماهوارهای
با تبدیل شدن تصاویر ماهوارهای به ابزاری هرچه قدرتمندتر در روزنامهنگاری و همچنین در زمان جنگها، افزایش تصاویر دستکاریشده با هوش مصنوعی عملا به چالشی جدی برای درک عمومی تبدیل شده است. تصاویر نادرست یا تغییریافته میتوانند بهسرعت منتشر شوند و روایتها را شکل دهند؛ حتی خیلی پیش از آنکه کارشناسان و متخصصان فرصت داشته باشند تا آنها را رد یا اصلاح کنند.
در دورانی که درگیریها بهصورت لحظهای در شبکههای اجتماعی جریان دارند، افزایش سواد دیجیتال و برخورداری از نوعی تردید سالم و مفید نسبت به "افشاگریهای" هیجانانگیز ماهوارهای، ضروری بهنظر میرسد.
دادههای واقعی ماهوارهای همچنان برای مستندسازی رویدادها موضوعی حیاتی بهشمار میروند، اما با این وجود تمایز قائلشدن بین آنها و محتوای جعلی، به طور همزمان به دقت و هوشیاری از سوی پلتفرمها، رسانهها و البته کاربران نیازمند است.