Transnistria stiri: 1381
Eurovision stiri: 503
Preşedintele stiri: 3997

Falsurile și pornografia infantilă: cum folosesc infractorii inteligența artificială

11 oct. 2023,, 10:00 (reactualizat 11 oct. 2023,, 17:58)   Analitică
8466 0

Fără îndoială, autorii inteligenței artificiale au dorit să ușureze munca omului, prin accelerarea unor procese complexe, intensive de muncă. Dar cum se obișnuiește, primii au preluat noile elaborări științifice infractorii.

Ei au început să utilizeze IA pentru a crea imagini sexuale ale copiilor — un astfel de caz a fost fixat în Coreea de Sud. Un locuitor al țării a creat cca 360 de imagini sexuale cu ajutorul unui program special, și pentru asta a fost privat de libertate pentru 2,5 ani. De o popularitate și mai mare se bucură deerfakes-urile – falsuri video care nu pot fi deosebite de imaginea reală. Despre aceea cum transformă infractorii IA într-un instrument pentru crearea pornografiei infantile și a deepfakes-urilor, și ce pedeapsă prevede legea pentru această infracțiune, - în articolul construit pe materialele mass-mediei din străinătate.

Un precedent judiciar

Despre faptul că în Coreea de Sud un bărbat a fost condamnat pentru crearea, cu ajutorul IA, a imaginilor sexuale ale copiilor , a informat publicația Korea Herald cu trimitere la mass-media locală. Acesta a fost condamnat la 2,5 ani de pușcărie pentru încălcarea legii privind protecția copiilor și adolescenților.

Conform datelor procuraturii din Coreea de Sud, învinuitul de 40 de ani folosea un «program special de creare a imaginilor în baza IA» - cu ajutorul lui el a creat cca 360 de imagini sexuale.


Acest conținut, confiscat de poliție, nu era difuzat de autor. Pentru a crea imaginile, el folosea sugestii textuale. Asta i-a permis să crea imagini așa de realiste, că instanța a respins argumentele apărării cum că, acestea nu pot fi considerate imagini cu caracter sexual.

Decizia instanței din Coreea de Sud a arătat că în prezent imaginile false, dar realiste ale minorilor, create cu ajutorul tehnologiilor avansate, pot fi considerate conținut ofensator din punct de vedere sexual.

Un algoritm amoral?

Propriu zis, față de IA nu există pretenții - rețelele neuronale pot crea orice imagine, inclusiv cu caracter pornografic, dat fiind că acesta este doar un algoritm, un program computerizat. Orice restricții trebuie introduse manual. Asta în timp ce produsele publice bazate pe rețele neuronale încearcă să respecte cadrul legal și restricționează generarea oricărui conținut pornografic pe service-urile respective.

În fond, aceste restricții funcționează prin filtrele de generare a solicitărilor — nu poți ruga rețeaua neuronală să genereze o imagine pornografică - vei obține o eroare cum că o asemenea solicitare este inadmisibilă.

În plus, la intrarea în ChatGPT a solicitării privind plusurile și minusurile creării pornografiei cu ajutorul IA, rețeaua neuronală va răspunde că unul dintre riscurile de bază este anume posibilitatea de a genera un conținut cu participarea minorilor sau a victimelor unor victimelor violenței.

Experții dau asigurări că azi riscul apariției conținutului pornografic creat cu ajutorul IA este mai mic ca acum 2–3 ani. Dar multe algoritme, departe de a fi perfecte, uneori funcționează incorect. De aceea în cazuri aparte pot totuși apărea asemenea imagini scandaloase.

Chiar și cei care elaborează rețelele neuronale populare periodic se ciocnesc de situațiile în care capacitățile lor sunt folosite pentru a crea un conținut periculos. Spre exemplu, în a. 2021 cu ajutorul ChatGPT jucătorii puteau adăuga de sine stătător scene și acțiuni noi în jocul online AI Dungeon .

Peste un timp, în ChatGPT au observat, că unii jucători generau scene ale contactelor sexuale cu copii. În rezultat, autorii AI Dungeon au fost nevoiți să înăsprească semnificativ moderația conținutului , ceea ce a provocat o reacție negativă a utilizatorilor. Dar dacă autorii rețelelor neuronale populare urmăresc atent și combat asemenea cazuri, colegii lor mai puțin cunoscuți ar putea avea cu totul alte standarde morale.

Un nou gen de șantaj

În toată lumea există elaboratori de soluții bazate pe IA și rețelele neuronale, ale căror principii morale nu pot fi numite înalte. Ei fac accesibile modelele digitale instruite să creeze orice imagini, — iar cei pasionați de pornografie nu ocolesc această posibilitate. Riscul apariției unui conținut sexual interzis, creat cu ajutorul IA, este deosebit de mare pe dark web.

Nu-i secret, că în spațiul sumbru dark web există pornografia infantilă. Iar noile tehnologii, cum ar fi IA sau deepfakes , doar înlesnesc crearea unui asemenea conținut.

Dacă e să credem specialiștilor, monitorizarea dark web arată că acum acolo nu se observă o creștere a cererii pentru soluții gata, care generează pornografia infantilă. Dar acolo există destule instrumente, care pot fi utilizate pentru crearea unui asemenea conținut - întrebarea va fi sau nu el creat, este deschisă. Dar de o popularitate mult mai mare se bucură acolo serviciile ce creează deepfakes-uri în baza rețelelor neuronale.

Deepfakes — un conținut video generat artificial, în care protagonistul spotului video este înlocuit cu imaginea altei persoane. Sistemele IA citesc numeroase puncte faciale ale omului și creează «un mulaj digital», care ulterior este unit cu materialul video inițial.

Deseori cu ochiul liber nu poți deosebi un astfel de video de cel veridic, dat fiind că programele deepfakes pot reproduce nu numai exteriorul persoanei, ci și vocea ei. Astfel, cu ajutorul IA în spotul video gata poate fi plasată fața altei persoane, cu menținerea schimbărilor mimice faciale și chiar a vocii.

Problema creării conținutului pornografic cu ajutorul IA și a deerfakes-urilor este destul de extinsă, căci asemenea material este o metodă simplă de șantajare a victimelor. În același timp dark web și anumite abilități computerizate permit păstrarea anonimatului și complicarea semnificativă a procesului de identificare a răufăcătorilor.

Motiv să fie, că articol se găsește

Azi legislația Republicii Moldova și a multor altor țări încă nu conține noțiuni ca IA și rețele neuronale. Aceste lacune țin, în fond, de faptul că tehnologiile se dezvoltă și se extind în societate, .și se aplică în procesele cotidiene mult mai rapid ca procesul legislativ.

Dar asta nu înseamnă că infractorii locali , dacă vor pune la cale ceva asemănător, nu vor fi pedepsiți. În acest context, crearea pornografiei infantile cu ajutorul IA va fi calificată conform art. 208-1 CP RM, care explică detaliat următoarele: «Realizarea, distribuirea, importul, exportul, furnizarea, comercializarea, achiziționarea, schimbul, utilizarea sau stocarea de fotografii sau alte imagini ale unui copil sau mai multor copii implicați în activități sexuale explicite, reale sau simulate, sau fotografii sau alte imagini ale organelor genitale ale unui copil prezentată într-o manieră luxuriantă sau obscenă, inclusiv în formă electronică, se pedepsește cu închisoare de la 1 la 3 ani, iar în cazul persoanei juridice - cu amendă de la 3.000 la 5.000 unități convenționale, cu privarea de dreptul de a se angaja în anumite activități».

Însă în cazul producerii pornografiei infantile cu ajutorul IA apare o situație juridică neobișnuită.

De obicei, art. 208-1 CP RM trage la răspundere infractorii după faptul distribuirii materialelor pornografice. Dacă a fost doar producerea lor, apare obiectul și subiectul infracțiunii în persoana participantului la infracțiune. În asemenea cazuri răufăcătorul este tras la răspundere cu o calificare mai gravă - art.172 ”Faptele de violență cu caracter sexual se încadrează în Codul Penal al Republicii Moldova, potrivit căruia autorii se pedepsesc cu închisoare de la 3 la 5 ani”.

Problema e că la crearea pornografiei infantile cu aplicarea IA, formal nu există subiectul sau partea subiectivă a infracțiunii. Nu există victima și psihicul nimănui nu este afectat de acțiunile unui adult.

În rezultat, apare situația paradoxală, în care din punctul de vedere al procesului penal în producerea pornografiei infantile cu ajutorul IA nu există infracțiune , dacă nu a fost demonstrată intenția de a demonstra sau difuza rezultatele unor terți. dar în cazul difuzării, nu mai contează cum anume a fost produs conținutul – în natură sau cu ajutorul IA: responsabilitatea oricum va interveni, dacă experții vor constata conținutul lui pornografic.

La depistarea oricărui conținut pornografic cu minori (inclusiv creat cu ajutorul IA și a rețelelor neuronale), specialiștii recomandă adresarea imediată către organele de drept. Ea trebuie să conțină descrierea tuturor circumstanțelor depistării materialelor interzise, precum și anexarea materialelor în cauză.

La nivel de strategie

În Moldova, la nivel național și local, acționează documente strategice privind protejarea generația în creștere. Astfel, anul trecut guvernul a aprobat Programul național de protecție a copiilor pentru anii 2022-2026, care a înlocuit documentul analogic precedent. Da în capitală, spre exemplu, este implementată Strategia municipală de protecție a drepturilor copilului pentru anii 2020–2025 .

Printre sarcinile principale este formarea condițiilor de educare a minorilor în mediul familial, prevenirea și combaterea violenței și exploatării copiilor, problemele asigurării educației și a dezvoltării armonioase a copilului. Este prevăzut un șir de acțiuni de formare a abilităților parentale, desfășurare a campaniilor de informare a publicului în vederea asigurării securității în Internet șui prevenirii violenței, precum și alte măsuri.

De altfel, Oficiul avocatului poporului (ombudsmanul) menționează, că strategiile și programele conțin multe prevederi ambigue, foarte vagi. Cei din Oficiul avocatului poporului confirmă, că tematica protecției drepturilor și intereselor minorului, inclusiv în Internet, cu fiece an devine tot mai actuală pentru Moldova.

3
0
2
6
0

Adăuga comentariu

500

Ați găsit o eroare în text? Marcați-o și tastați Ctrl+Enter

La ce etnie vă atribuiți?