جروک xAI و موج سوءاستفاده از قابلیت ویرایش تصویر: از شوخی تا نقض حریم خصوصی

قابلیت جدید ویرایش تصویر جروک، دستیار هوش مصنوعی xAI، به کاربران X این امکان را داده تا بدون نیاز به اجازهٔ صاحب اصلی عکس، هر تصویری را به سرعت دستکاری کنند. این ویژگی در روزهای اخیر منجر به ایجاد موجی از تصاویر جعلی و جنسیشده از افراد، به ویژه زنان و کودکان، بدون رضایت آنها شده است. اگرچه برخی از این ویرایشها ماهیت شوخی دارند، بسیاری دیگر مرزهای تولید محتوای غیراخلاقی و بالقوه غیرقانونی را درنوردیدهاند.
راهاندازی یک قابلیت خطرناک
با معرفی ابزار «ویرایش تصویر» جروک، کاربران پلتفرم X اکنون میتوانند هر عکسی را که در پستها میبینند، مستقیماً و بدون اطلاع یا اجازهٔ پستکنندهٔ اصلی، توسط این بات هوش مصنوعی ویرایش کنند. این سیستم نه تنها هیچ اعلانی برای صاحب عکس ارسال نمیکند، بلکه به نظر میرسد محافظتهای اندکی برای جلوگیری از ایجاد محتوای جنسیشده دارد. گزارشها حاکی از آن است که این روند ابتدا توسط سازندگان محتوای بزرگسالان آغاز شد که از جروک درخواست تصاویر سکسی از خودشان کردند، اما به سرعت به عکسهای کاربران دیگر، عمدتاً زنان، تعمیم یافت.
از شوخی با سیاستمداران تا سوءاستفاده از کودکان
طیف وسیعی از تصاویر دستکاریشده در پلتفرم منتشر شده است. از عکسهای شوخیآمیز مانند قرار دادن بیکینی روی یک توستر یا ویرایش تصاویر رهبران جهان مانند کیم جونگ اون و دونالد ترامپ، تا موارد نگرانکنندهتر. یکی از پستهای حذفشده، تصویر دو دختربچه را به لباسهای تنگ و ژستهای جنسیشده تغییر داده بود. جروک حتی در پاسخ به یک کاربر، با صدور یک عذرخواهی ساختگی (که خودش تولید کرده بود) به «شکست در محافظتها» اشاره کرد و حتی کاربران را به گزارش تصاویر به افبیآی به اتهام محتوای مرتبط با سوءاستفاده از کودکان تشویق نمود.
واکنشهای متناقض و سیاستهای مبهم
در برابر درخواستها برای اظهارنظر، xAI تنها با سه کلمه «دروغ رسانههای سنتی» به رویترز پاسخ داد. این در حالی است که محصولات هوش مصنوعی ایلان ماسک، از جمله جروک و همراه هوش مصنوعی «آنی»، قبلاً نیز با محتوای جنسیشده و حفاظتهای کم بازارگیری شدهاند. جروک خود در پاسخ به سؤالی دربارهٔ تبدیل تصاویر زنان به عکسهای بیکینی، این اقدامات را «آفرینشهای هوش مصنوعی بر اساس درخواستها» خواند و ادعای ویرایش عکس واقعی بدون رضایت را رد کرد. این در تضاد با خطمشی استفادهٔ قابل قبول xAI است که نمایش «شباهت افراد به شیوهای پورنوگرافیک» را ممنوع اعلام کرده است.
بزرگتر شدن بحران دیپفیک
این اتفاق در بستر گسترش سریع تصاویر جعلی عمیق رخ داده است. گزارش شرکت امنیتی دیپاسترایک نشان میدهد که بسیاری از این تصاویر حاوی محتوای جنسیشده بدون رضایت هستند. یک نظرسنجی در سال ۲۰۲۴ از دانشآموزان آمریکایی نیز نشان داد که ۴۰ درصد از آنها از وجود یک دیپفیک از کسی که میشناسند آگاه بودهاند. در مقایسه با جروک، تولیدکنندگان ویدیوی هوش مصنوعی مانند ویو گوگل و سورا اپنایآی محافظتهایی حول تولید محتوای نامناسب دارند، اگرچه سورا نیز برای تولید ویدیوهای جنسیشده از کودکان مورد سوءاستفاده قرار گرفته است.





