مرد کبکی که هرزه‌نگاری کودکان مصنوعی و مصنوعی تولید کرده بود به زندان محکوم شد


هشدار: این مقاله حاوی جزئیات سوء استفاده است.

یک مرد اهل کبک به دلیل استفاده از هوش مصنوعی برای تولید فیلم های مصنوعی از پورنوگرافی کودکان به بیش از سه سال زندان محکوم شد.

استیون لاروش، 61 ساله، از شربروک، کوئه، به ایجاد حداقل هفت ویدیو با فناوری به اصطلاح دیپ فیک، که برای قرار دادن چهره یک فرد بر روی بدن شخص دیگری استفاده می شود، اعتراف کرد.

او همچنین به داشتن صدها هزار فایل رایانه‌ای مربوط به پورنوگرافی کودکان اعتراف کرد که به خاطر آن به چهار سال و نیم دیگر محکوم شد.

قاضی دادگاه استانی، بنوا گانیون، در حکم خود که اوایل این ماه صادر شد، نوشت که او معتقد است این اولین مورد در کشور است که مربوط به استثمار جنسی از کودکان است.

او گفت که نگران است که چه اتفاقی می افتد زیرا مجرمان از این فناوری برای قرار دادن چهره کودکانی که تصاویر آنها را در رسانه های اجتماعی پیدا می کنند روی فیلم هایی از کودکان دیگر که مورد تجاوز جنسی قرار می گیرند، قرار می دهند.

گوش کن | رسوایی پورنو دیپ فیک که دنیای پلتفرم پخش زنده توییچ را تکان داد:

15:48فناوری هوش مصنوعی، پخش‌کننده‌های بازی، و پورن‌های عمیق جعلی طوفانی عالی در توییچ ایجاد می‌کنند

آلیسا برزناک و سامانتا کول، روزنامه‌نگاران فناوری، رسوایی پورنو دیپ‌فیک با پخش‌کننده بازی Atrioc را که هفته گذشته دنیای توییچ را تکان داد، و تأثیر آن بر پخش‌کننده‌های زن مانند QTCinderella بررسی می‌کنند.

گاگنون در تصمیم 14 آوریل نوشت: “استفاده از فناوری دیپ فیک در دست مجرمان وحشتناک است. نوع نرم افزار امکان ارتکاب جنایاتی را می دهد که می تواند تقریباً همه کودکان جوامع ما را درگیر کند.”

یک گزیده ویدئوی ساده از یک کودک که در رسانه های اجتماعی موجود است، یا فیلمی از کودکان که در یک مکان عمومی گرفته شده است، می تواند آنها را به قربانیان احتمالی پورنوگرافی کودکان تبدیل کند.

گانیون نوشت که ایجاد تصاویر جدید از سوء استفاده جنسی، بازار پورنوگرافی کودکان را تشویق می کند، که هوس تازگی دارد، و کودکان را با “روشن کردن خیال پردازی هایی که باعث تحریک جرایم جنسی علیه کودکان می شود” در معرض خطر قرار می دهد.

در حالی که وکلای لاروش برای مجازات سبک‌تری استدلال می‌کردند، زیرا هنگام تهیه فیلم‌ها به کودکان مورد تعرض قرار نمی‌گرفت، قاضی نوشت که کودکانی که اجسادشان در فیلم‌ها ظاهر شده بود، دوباره تمامیت جنسی آنها نقض شده است.

پیچیده شدن تحقیقات پلیس

قاضی نوشت: بسیاری از تصاویر بهره کشی جنسی از کودکان دارای اثر انگشت دیجیتالی هستند که به پلیس اجازه می دهد آنها را شناسایی کند. لاروش با ایجاد تصاویر مصنوعی، جلوگیری از انتشار مواد غیرقانونی را برای پلیس دشوارتر کرد.

لاروش همچنین اعتراف کرد که بیش از 545000 فایل کامپیوتری حاوی تصاویر یا ویدئوهایی از سوء استفاده جنسی از کودکان در اختیار دارد که برخی از آنها را در اختیار دیگران قرار داده است.

در میان این تصاویر، مجموعه‌ای از یک دختر در یک دوره هفت ساله، بین سنین 7 تا 14 سال، مورد آزار و اذیت قرار گرفت. پلیس همچنین در رایانه لاروش، عکس‌های او را از حساب‌های رسانه‌های اجتماعی و اطلاعات شخصی درباره کودک، از جمله او پیدا کرد. نام واقعی، شهر محل زندگی و نام مدرسه اش.

در مجموع گاگنون لاروش را به هشت سال زندان محکوم کرد. با اعتبار زمان خدمت، Larouche باید پنج سال و 11 ماه دیگر خدمت کند.

قانون کانادا هرگونه نمایش تصویری از فردی را که زیر 18 سال نشان داده شده و درگیر فعالیت جنسی آشکار است، ممنوع می کند.

یک جفت دست در حال تایپ کردن روی صفحه کلید سبز و مشکی.
استفان سائر، مدیر سایت Cybertip.ca گفت: «شما می توانید یک تصویر آنلاین بگیرید و این نوع تصاویر را ایجاد کنید. (RedPixel/stock.adobe.com)

ایجاد یک نمونه کانادایی

استفان سائر، مدیر سایت Cybertip.ca، گفت که در حالی که قبلاً مواردی وجود داشته است که افرادی تصاویر مصنوعی از سوء استفاده جنسی از کودکان را به روش‌های ابتدایی‌تری مانند فتوشاپ ایجاد می‌کنند، این ممکن است اولین باری باشد که فردی در کانادا به جرم محکوم می‌شود. ایجاد مواد با استفاده از فناوری دیپ فیک

او در ادامه گفت: “ما تقریباً در این زمان بی‌سابقه هستیم که ممکن است هر کودکی در نتیجه این نوع مواد آسیب ببیند. بنابراین شما می‌توانید هر تصویری را به صورت آنلاین بگیرید و این نوع تصاویر را ایجاد کنید و به هر طریقی به آنها آسیب بزنید.” مصاحبه چهارشنبه

ساوئر گفت که تصاویر مصنوعی نه تنها قربانیان را تحقیر می کند و حریم و حریم خصوصی آنها را نقض می کند، بلکه مردم می توانند به دنبال آن کودکان برای تجاوز جنسی به آنها باشند.

“این یک خطر ایمنی برای آن کودک ایجاد می کند، زیرا افرادی وجود دارند که به دنبال شناسایی افراد در تصاویر سوء استفاده جنسی هستند.”

واسیلیا کاراساووا، دانشجوی کارشناسی ارشد روان‌شناسی بالینی در دانشگاه بریتیش کلمبیا که در مقاله‌ای در سال 2021 در مورد تهدید پورنوگرافی عمیق جعلی نوشت، گفت که نوار تکنولوژیکی برای ایجاد ویدیو به این روش کم‌کم کاهش می‌یابد.

او در مصاحبه ای در روز چهارشنبه گفت که استفاده از این فناوری آسان تر می شود و تعداد تصاویر مورد نیاز برای قرار دادن چهره افراد در یک ویدیو نیز در حال کاهش است و افزود که برنامه ها می توانند برای پاک کردن تصاویر یک فرد از حساب های رسانه های اجتماعی آنها استفاده شوند.

او گفت که پورنوگرافی عمیق دو قربانی دارد: فردی که بدنش در ویدیو ظاهر می شود و همچنین شخصی که چهره او ظاهر می شود.

در حالی که تحقیقات کمی در مورد تأثیر خاص پورنوگرافی عمیق بر قربانیان وجود دارد، تحقیقات در مورد سایر اشکال خشونت جنسی آنلاین نشان می دهد که اغلب قربانیان را به روش هایی مشابه با تجاوزات جنسی حضوری تحت تأثیر قرار می دهد.

کاراساووا گفت: «این قربانی شدن همچنان ادامه دارد. “این بسیار عمومی است. اغلب، بسیار دائمی است، و قربانی در آن موقعیت احساس ناتوانی و ناتوانی می کند.”


پشتیبانی برای هر کسی که مورد تجاوز جنسی قرار گرفته است در دسترس است. از این طریق می توانید به خطوط بحران و خدمات پشتیبانی محلی دسترسی داشته باشید وب سایت دولت کانادا یا پایگاه داده پایان دادن به خشونت انجمن کانادا. اگر در خطر فوری هستید یا از امنیت خود یا دیگران در اطراف خود می ترسید، لطفا با 911 تماس بگیرید.


دیدگاهتان را بنویسید