X 
Cutremure stiri: 503

Vitalie Levința: „Inteligența artificială creează o mulțime de amenințări în domeniul securității cibernetice”

4 oct. 06:30   Societate
4 ore in urma 1285 0

Inteligența artificială creează o mulțime de amenințări în domeniul securității cibernetice în ultima perioadă și este foarte important să verificați de două ori informațiile în cazul apelurilor de la persoanele din familie, prieteni sau superiori, dacă acestea conțin solicitarea de a transfera urgent bani din cauza unei situații de urgență.

Despre acest lucru a declarat expertul în securitate cibernetică, Vitalie Levința, în cadrul emisiunii „Без галстуков cu Alexandru Stahurski” la postul de televiziune N4, relatează Noi.md.

El a remarcat că multe dintre noile amenințări grave la adresa securității cibernetice create cu ajutorul inteligenței artificiale au apărut destul de recent: acum un an, un an și jumătate sau doi ani.

La început, odată cu dezvoltarea programelor de inteligență artificială, era un fel de joc, era interesant și frumos să creezi deepfakes pentru a arăta unele celebrități în situații care nu le sînt deloc caracteristice.

Potrivit expertului în securitate cibernetică, toată lumea a rîs de asta, dar apoi, încet-încet, au început să inventeze cu ajutorul inteligenței artificiale lucruri care nu mai erau atît de inofensive. De exemplu, foarte mulți băieți au început să își facă profiluri pe site-uri de întîlniri, generînd cu ajutorul inteligenței artificiale fotografii cu fete care plac majorității băieților, și lansau boți cu inteligență artificială, care țineau legătura cu acești băieți. Iar treaba acestui bot era să scoată din ei bani.


„Cînd abia au lansat acest lucru, într-o săptămână au strîns circa 20.000 de dolari. Pur și simplu pentru că un bot nu este un om. Nu obosește, el vorbea cu sute de persoane în același timp, cerîndu-le mereu 1, 2, 3, 5, 10 dolari, și într-o săptămînă au strîns 20.000 de dolari. Aceasta este una dintre, să spunem, utilizările proaste ale inteligenței artificiale. Acest lucru s-a întîmplat practic cu 2 ani în urmă”, a declarat Vitalie Levința.

El a remarcat că la etapa următoare au început să creeze deepfakes ale oamenilor obișnuiți. De exemplu, în urmă cu șase luni, într-o companie mare, directorul financiar a primit un apel video de la directorul general, care i-a cerut să transfere urgent 2 milioane de dolari în contul indicat de el, menționînd că acest lucru este foarte urgent, iar el acum zboară departe și nu va fi disponibil timp de 5-6 ore și, prin urmare, nu trebuie să-l sune, dar să transfere rapid banii.

„Directorul financiar l-a văzut pe director care l-a sunat și i-a cerut să facă transferul. El pregătește totul, transferă toți acești bani și nu-l sună înapoi, gîndindu-se că omul este în avion, că este ocupat. În acest timp în birou intră directorul general și se dovedește că nu zboară nicăieri, iar banii nu trebuiau transferați nicăieri. Aceasta este o istorie reală, acest lucru chiar s-a întîmplat, iar ei au transferat către o persoană necunoscută 2 milioane de dolari. Dar, pare-mi-se, au reușit să găsească infractorul și să recupereze banii. Dar, oricum, a fost un precedent și nu este singurul”, a declarat expertul în securitate cibernetică.

Potrivit acestuia, aceeași fraudă este folosită cu vocile false create de inteligența artificială. De exemplu, un copil adult își sună tatăl din străinătate și îi spune că telefonul său s-a descărcat, că sună de pe un alt număr și îi cere să transfere urgent 2 000 de dolari pentru a-și plăti studiile.

„Omul aude vocea copilului său, care cere să transfere urgent bani pentru a reuși să plătească studiile, pentru că termenul expiră și pe urmă nu va mai putea plăti și nu va putea studia, dictează contul. Tatăl face transferul, iar copilul apoi vine și spune că nu a sunat și totul este în regulă la el, iar telefonul este încărcat”, a spus Vitalie Levința.

El a subliniat că, prin urmare, orice solicitare de a transfera bani, de a transfera date personale, de a divulga unele parole trebuie să fie întotdeauna confirmată printr-un apel înapoi, pentru a stabili autenticitatea sau falsitatea acesteia.

0
0
0
1
0

Adăuga comentariu

500

Ați găsit o eroare în text? Marcați-o și tastați Ctrl+Enter

Pentru cine intenționați să votați la alegerile prezidențiale din data de 20 octombrie?
Caii moldovenești, în centrul unui scandalСандуляк Владислав