Mündəricat:

Dərin saxtakarlıqlar: Neuroset-ə səs və video saxtakarlıqları yaratmaq öyrədilib
Dərin saxtakarlıqlar: Neuroset-ə səs və video saxtakarlıqları yaratmaq öyrədilib

Video: Dərin saxtakarlıqlar: Neuroset-ə səs və video saxtakarlıqları yaratmaq öyrədilib

Video: Dərin saxtakarlıqlar: Neuroset-ə səs və video saxtakarlıqları yaratmaq öyrədilib
Video: Porsche Taycan Turbo və Turbo S - Dərin Texniki Məlumat Video 2024, Bilər
Anonim

Hər birimiz üçün “fərdi” xəbər mənzərəsi yaratmaq və orada seçilmiş media xəbərlərini saxtalaşdırmaq üçün bu gün bir proqramçının səyi kifayətdir. Bu barədə “İzvestiya”ya süni intellekt və kibertəhlükəsizlik üzrə mütəxəssislər bildiriblər.

Bu yaxınlarda onlar bunun çoxlu komandaların işini tələb etdiyini təxmin etdilər. Bu cür sürətlənmə neyron şəbəkələrə hücum texnologiyalarının inkişafı və “dərin saxtakarlıqlar” yaratmaq üçün proqramlardan istifadə edərək audio və video saxtakarlıqlarının yaradılması ilə mümkün olmuşdur. Bu yaxınlarda “İzvestiya” qəzeti də analoji hücuma məruz qalmışdı, belə ki, Liviyanın üç xəbər portalı eyni vaxtda nömrələrdən birində yer aldığı iddia edilən mesaj dərc etmişdi. Mütəxəssislərin fikrincə, 3-5 il ərzində biz robot-manipulyatorların işğalını gözləmək olar ki, bu da avtomatik olaraq çoxlu saxtakarlıq yarada bilər.

Cəsur yeni dünya

İnformasiya şəklini konkret istifadəçilərin qavrayışına uyğunlaşdıran daha çox layihələr var. Onların işinə misal olaraq, noyabrın 20-də “İzvestiya”nın sayında dərc edildiyi iddia edilən xəbəri dərc edən üç Liviya portalının bu yaxınlarda keçirdiyi aksiya idi. Saxtanın yaradıcıları qəzetin ön səhifəsində feldmarşal Xəlifə Haftar və Milli Razılıq Hökumətinin (PNS) baş naziri Fayez Sarrac arasında danışıqlara dair mesaj yerləşdirərək, redaktə ediblər. “İzvestiya” yazı tipində olan saxta iki liderin 2017-ci ilin mayında çəkilmiş fotoşəkili ilə müşayiət olunub. Nəşrin loqosu olan etiket 20 noyabr tarixli faktiki nəşrdən, səhifədəki bütün digər mətnlər isə 23 oktyabr sayından kəsilib.

Mütəxəssislərin nöqteyi-nəzərindən, yaxın gələcəkdə belə saxtalaşdırmalar avtomatik həyata keçirilə bilər.

Truman Şousu - 2019: Neyron Şəbəkələr Xəbər şəklini saxtalaşdırmağı necə öyrətdi
Truman Şousu - 2019: Neyron Şəbəkələr Xəbər şəklini saxtalaşdırmağı necə öyrətdi

"Süni intellekt texnologiyaları indi tamamilə açıqdır və məlumatların qəbulu və emalı üçün qurğular miniatürləşir və ucuzlaşır" Yuri Vilsiter, fizika-riyaziyyat elmləri doktoru, Rusiya Elmlər Akademiyasının professoru, FSUE "GosNIIAS" şöbəsinin müdiri, “İzvestiya”ya bildirib. - Odur ki, yaxın gələcəkdə hətta dövlət və iri korporasiyalar deyil, sadəcə olaraq, özəl şəxslər bizi dinləyib casusluq edə biləcək, reallıqla manipulyasiya edə biləcəklər. Növbəti illərdə istifadəçi seçimlərini təhlil edərək xəbər lentləri və çox ağıllı saxtakarlıqlar vasitəsilə ona təsir etmək mümkün olacaq.

Yuri Vilsiterin sözlərinə görə, psixi mühitə belə müdaxilə üçün istifadə edilə bilən texnologiyalar artıq mövcuddur. Nəzəri olaraq, robot-botların işğalını bir neçə ildən sonra gözləmək olar, deyə o bildirib. Burada məhdudlaşdırıcı məqam, uzunmüddətli nəticələrin izlənməsi ilə real insanların süni stimullara reaksiyalarının nümunələrinin böyük məlumat bazalarının toplanması ehtiyacı ola bilər. Bu cür izləmə, məqsədyönlü hücumlar ardıcıl olaraq əldə edilməzdən əvvəl çox güman ki, daha bir neçə il araşdırma tələb edəcək.

Görmə hücumu

SearchInform-un analitika şöbəsinin rəhbəri Aleksey Parfentiev də Yuri Vilsiterlə razılaşır. Onun sözlərinə görə, ekspertlər artıq neyron şəbəkələrə hücumları proqnozlaşdırırlar, baxmayaraq ki, hazırda belə nümunələr praktiki olaraq yoxdur.

- Gartner tədqiqatçıları hesab edirlər ki, 2022-ci ilə qədər bütün kiberhücumların 30%-i neyron şəbəkənin öyrədildiyi məlumatların korlanmasına və hazır maşın öyrənməsi modellərinin oğurlanmasına yönəldiləcək. O zaman, məsələn, pilotsuz nəqliyyat vasitələri birdən-birə piyadaları başqa obyektlərlə səhv salmağa başlaya bilər. Ekspert hesab edir ki, biz maliyyə və ya reputasiya riskindən deyil, sadə insanların həyatı və sağlamlığından danışacağıq.

Hazırda tədqiqatlar çərçivəsində kompüter görmə sistemlərinə hücumlar həyata keçirilir. Bu cür hücumların məqsədi neyron şəbəkənin təsvirdə olmayan bir şeyi aşkar etməsidir. Və ya əksinə, planlaşdırılanları görməmək üçün.

Truman Şousu - 2019: Neyron Şəbəkələr Xəbər şəklini saxtalaşdırmağı necə öyrətdi
Truman Şousu - 2019: Neyron Şəbəkələr Xəbər şəklini saxtalaşdırmağı necə öyrətdi

Kaspersky Laboratoriyasının veb-analitiki Vladislav Tuşkanov izah edir: “Neyron şəbəkələrin öyrədilməsi sahəsində fəal inkişaf edən mövzulardan biri düşmən hücumlarıdır (“rəqib hücumlar.”- “İzvestiya”). - Əksər hallarda onlar kompüter görmə sistemlərinə yönəldilir. Belə bir hücumu həyata keçirmək üçün əksər hallarda neyron şəbəkəyə (ağ qutu hücumları adlanır) və ya onun işinin nəticələrinə (qara qutu hücumları) tam giriş əldə etmək lazımdır. 100% hallarda hər hansı bir kompüter görmə sistemini aldada biləcək üsullar yoxdur. Bundan əlavə, neyroşəbəkələrin düşmən hücumlarına qarşı müqavimətini yoxlamağa və onların müqavimətini artırmağa imkan verən alətlər artıq yaradılmışdır.

Belə bir hücum zamanı təcavüzkar neyron şəbəkənin işləməməsi üçün tanınan təsviri bir şəkildə dəyişdirməyə çalışır. Tez-tez, zəif işıqlandırılmış bir otaqda fotoşəkil çəkərkən baş verənə bənzər səs-küy fotoşəkilə əlavə olunur. Bir insan adətən belə müdaxiləni yaxşı hiss etmir, lakin neyron şəbəkəsi nasazlaşmağa başlayır. Ancaq belə bir hücumu həyata keçirmək üçün təcavüzkarın alqoritmə çıxışı lazımdır.

“Neuroset Ashmanov” şirkətinin baş direktoru Stanislav Aşmanovun sözlərinə görə, hazırda bu problemlə mübarizə üsulları yoxdur. Bundan əlavə, bu texnologiya hər kəs üçün əlçatandır: orta səviyyəli bir proqramçı Github xidmətindən lazımi açıq mənbə proqramı yükləyərək ondan istifadə edə bilər.

Truman Şousu - 2019: Neyron Şəbəkələr Xəbər şəklini saxtalaşdırmağı necə öyrətdi
Truman Şousu - 2019: Neyron Şəbəkələr Xəbər şəklini saxtalaşdırmağı necə öyrətdi

- Neyroşəbəkəyə hücum neyron şəbəkəni aldatmaq üçün onu yalan nəticələrə gətirib çıxaran və əslində onu qapı kilidi kimi sındıran texnika və alqoritmlərdir, - Aşmanov hesab edir. - Məsələn, indi sifətin tanınması sisteminə sən deyil, onun qarşısında Arnold Şvartsenegger olduğunu düşünməyə vadar etmək kifayət qədər asandır - bu, insan gözü üçün hiss olunmayan əlavələrin neyroşəbəkəyə daxil olan məlumatlara qarışdırılması ilə həyata keçirilir. Eyni hücumlar nitqin tanınması və təhlili sistemləri üçün də mümkündür.

Mütəxəssis əmindir ki, daha da pisləşəcək - bu texnologiyalar kütlələrə gedib, fırıldaqçılar artıq onlardan istifadə edirlər və onlara qarşı heç bir müdafiə yoxdur. Video və audio saxtakarlıqlarının avtomatlaşdırılmış yaradılmasına qarşı heç bir qorunma olmadığı üçün.

Dərin saxtakarlıqlar

Deep Learning-ə əsaslanan Deepfake texnologiyaları (neyroşəbəkələrin dərindən öyrənilməsi texnologiyaları. - İzvestiya) artıq real təhlükə yaradır. Video və ya audio saxtaları guya lazımi mətni tələffüz edən və süjetdə lazımi rolu oynayan məşhur insanların üzlərinin redaktə edilməsi və ya üst-üstə qoyulması yolu ilə yaradılır.

Group-IB innovativ brendin qorunması və əqli mülkiyyət departamentinin direktoru Andrey Busargin deyir: “Deepfake sizə dodaq hərəkətlərini və insan nitqini video ilə əvəz etməyə imkan verir ki, bu da baş verənlərin reallığı hissi yaradır”. - Saxta məşhurlar sosial şəbəkələrdə istifadəçilərə qiymətli hədiyyələrin (smartfonlar, avtomobillər, pul məbləğləri) uduşunda iştirak etməyi “təklif edir”. Bu cür video nəşrlərdən olan keçidlər tez-tez saxtakarlıq və fişinq saytlarına gətirib çıxarır ki, burada istifadəçilərdən şəxsi məlumatları, o cümlədən bank kartı detallarını daxil etmək tələb olunur. Bu cür sxemlər həm sıravi istifadəçilər, həm də reklamlarda adı keçən ictimai xadimlər üçün təhlükə yaradır. Bu cür fırıldaq məşhurların şəkillərini fırıldaqlarla və ya reklam edilən mallarla əlaqələndirməyə başlayır və biz şəxsi brendə ziyan vurduğumuz yerdir, deyir.

Truman Şousu - 2019: Neyron Şəbəkələr Xəbər şəklini saxtalaşdırmağı necə öyrətdi
Truman Şousu - 2019: Neyron Şəbəkələr Xəbər şəklini saxtalaşdırmağı necə öyrətdi

Digər təhlükə telefon saxtakarlığı üçün “saxta səslərin” istifadəsi ilə bağlıdır. Məsələn, Almaniyada kibercinayətkarlar Böyük Britaniyadan olan törəmə şirkətinin rəhbərini telefon danışığında özünü şirkət meneceri kimi təqdim edərək təcili olaraq 220.000 avro köçürmək üçün səsli dərin saxtakarlıqdan istifadə ediblər. Macarıstan təchizatçısının hesabına. Britaniya firmasının rəhbəri “bossu” ikinci pul köçürməsini istəyəndə hiylədən şübhələnib, lakin zəng Avstriya nömrəsindən gəlib. Bu vaxta qədər ilk tranş artıq Macarıstandakı hesaba köçürülmüşdü, oradan pul Meksikaya çıxarılmışdı.

Belə çıxır ki, mövcud texnologiyalar saxta xəbərlərlə dolu fərdi xəbər şəkli yaratmağa imkan verir. Üstəlik, tezliklə saxtaları real video və audiodan yalnız texniki vasitələrlə ayırd etmək mümkün olacaq. Mütəxəssislərin fikrincə, neyroşəbəkələrin inkişafını qadağan edən tədbirlərin effektiv olacağı ehtimalı azdır. Buna görə də, tezliklə biz hər şeyi daim təkrar yoxlamaq lazım olan bir dünyada yaşayacağıq.

"Biz buna hazırlaşmalıyıq və bunu qəbul etmək lazımdır" dedi Yuri Vilsiter. - İnsanlıq bir reallıqdan digərinə ilk dəfə keçmir. Bizim dünyamız, həyat tərzimiz və dəyərlərimiz əcdadlarımızın 60 min, 5 min, 2 min, hətta 200-100 il əvvəl yaşadığı dünyadan köklü şəkildə fərqlənir. Yaxın gələcəkdə bir insan əsasən şəxsi həyatdan məhrum olacaq və buna görə də heç bir şeyi gizlətməyə və dürüst davranmağa məcbur olacaq. Eyni zamanda, ətrafdakı reallıqda və öz şəxsiyyətində heç bir şey imanla qəbul edilə bilməz, hər şey sorğu-sual edilməli və daima yoxlanılmalı olacaq. Bəs bu gələcək reallıq dəhşətli olacaqmı? Yox. Sadəcə olaraq tamamilə fərqli olacaq.

Tövsiyə: