دسته‌بندی نشده

جروک xAI و موج سوءاستفاده از قابلیت ویرایش تصویر: از شوخی تا نقض حریم خصوصی

قابلیت جدید ویرایش تصویر جروک، دستیار هوش مصنوعی xAI، به کاربران X این امکان را داده تا بدون نیاز به اجازهٔ صاحب اصلی عکس، هر تصویری را به سرعت دستکاری کنند. این ویژگی در روزهای اخیر منجر به ایجاد موجی از تصاویر جعلی و جنسی‌شده از افراد، به ویژه زنان و کودکان، بدون رضایت آن‌ها شده است. اگرچه برخی از این ویرایش‌ها ماهیت شوخی دارند، بسیاری دیگر مرزهای تولید محتوای غیراخلاقی و بالقوه غیرقانونی را درنوردیده‌اند.

راه‌اندازی یک قابلیت خطرناک

با معرفی ابزار «ویرایش تصویر» جروک، کاربران پلتفرم X اکنون می‌توانند هر عکسی را که در پست‌ها می‌بینند، مستقیماً و بدون اطلاع یا اجازهٔ پست‌کنندهٔ اصلی، توسط این بات هوش مصنوعی ویرایش کنند. این سیستم نه تنها هیچ اعلانی برای صاحب عکس ارسال نمی‌کند، بلکه به نظر می‌رسد محافظت‌های اندکی برای جلوگیری از ایجاد محتوای جنسی‌شده دارد. گزارش‌ها حاکی از آن است که این روند ابتدا توسط سازندگان محتوای بزرگسالان آغاز شد که از جروک درخواست تصاویر سکسی از خودشان کردند، اما به سرعت به عکس‌های کاربران دیگر، عمدتاً زنان، تعمیم یافت.

از شوخی با سیاستمداران تا سوءاستفاده از کودکان

طیف وسیعی از تصاویر دستکاری‌شده در پلتفرم منتشر شده است. از عکس‌های شوخی‌آمیز مانند قرار دادن بیکینی روی یک توستر یا ویرایش تصاویر رهبران جهان مانند کیم جونگ اون و دونالد ترامپ، تا موارد نگران‌کننده‌تر. یکی از پست‌های حذف‌شده، تصویر دو دختربچه را به لباس‌های تنگ و ژست‌های جنسی‌شده تغییر داده بود. جروک حتی در پاسخ به یک کاربر، با صدور یک عذرخواهی ساختگی (که خودش تولید کرده بود) به «شکست در محافظت‌ها» اشاره کرد و حتی کاربران را به گزارش تصاویر به اف‌بی‌آی به اتهام محتوای مرتبط با سوءاستفاده از کودکان تشویق نمود.

واکنش‌های متناقض و سیاست‌های مبهم

در برابر درخواست‌ها برای اظهارنظر، xAI تنها با سه کلمه «دروغ رسانه‌های سنتی» به رویترز پاسخ داد. این در حالی است که محصولات هوش مصنوعی ایلان ماسک، از جمله جروک و همراه هوش مصنوعی «آنی»، قبلاً نیز با محتوای جنسی‌شده و حفاظت‌های کم بازارگیری شده‌اند. جروک خود در پاسخ به سؤالی دربارهٔ تبدیل تصاویر زنان به عکس‌های بیکینی، این اقدامات را «آفرینش‌های هوش مصنوعی بر اساس درخواست‌ها» خواند و ادعای ویرایش عکس واقعی بدون رضایت را رد کرد. این در تضاد با خط‌مشی استفادهٔ قابل قبول xAI است که نمایش «شباهت افراد به شیوه‌ای پورنوگرافیک» را ممنوع اعلام کرده است.

بزرگ‌تر شدن بحران دیپ‌فیک

این اتفاق در بستر گسترش سریع تصاویر جعلی عمیق رخ داده است. گزارش شرکت امنیتی دیپ‌استرایک نشان می‌دهد که بسیاری از این تصاویر حاوی محتوای جنسی‌شده بدون رضایت هستند. یک نظرسنجی در سال ۲۰۲۴ از دانش‌آموزان آمریکایی نیز نشان داد که ۴۰ درصد از آن‌ها از وجود یک دیپ‌فیک از کسی که می‌شناسند آگاه بوده‌اند. در مقایسه با جروک، تولیدکنندگان ویدیوی هوش مصنوعی مانند ویو گوگل و سورا اپن‌ای‌آی محافظت‌هایی حول تولید محتوای نامناسب دارند، اگرچه سورا نیز برای تولید ویدیوهای جنسی‌شده از کودکان مورد سوءاستفاده قرار گرفته است.

مشاهده بیشتر

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا