Rəqəmsal dünyanın kölgəsi: süni intellekt və "deepfake" təhlükəsi - TƏHLİL

İKT
  • 28 oktyabr, 2025
  • 10:18
Rəqəmsal dünyanın kölgəsi: süni intellekt və deepfake təhlükəsi - TƏHLİL

Müasir dünyada texnoloji tərəqqini rəqəmsallaşma olmadan təsəvvür etmək mümkünsüzdür. Həyatın bütün sahələrinə sirayət edən rəqəmsal həllər istehsalatdan bank sektoruna, səhiyyədən təhsilə qədər hər yerdə prosesləri daha sürətli və səmərəli edir. Lakin hər bir yenilik kimi rəqəmsallaşma da öz kölgəsini daşıyır - təhlükəsizlik risklərini.

Texnoloji inkişaf nə qədər böyük sürətlə irəliləsə, kibertəhlükələr də bir o qədər təkmilləşir. İndi artıq kiber cinayətkarların əlində silah təkcə virus və ya zərərli proqram deyil, həm də süni intellektin özüdür. Son illərin ən təhlükəli fenomenlərindən biri isə "deepfake" texnologiyasıdır - yəni, real görünən, lakin tam saxta foto, video və audio materialların süni intellekt vasitəsilə yaradılması.

Son üç ildə bu cür hücumların sayı 20 dəfə artıb. Başlanğıcda "deepfake"lər daha çox sosial şəbəkələrdə, seçkilərdə və dövlət sektorunda ictimai rəyi manipulyasiya etmək üçün istifadə olunurdu. Lakin texnologiyanın inkişafı ilə səs və görüntülərin reallığa bu qədər yaxınlaşdırılması, kiber cinayətkarların fəaliyyət arealının genişlənməsindən xəbər verir, bu isə iqtisadi sabitlik üçün təhlükədir.

"Deepfake" - yeni nəsil iqtisadi təxribat silahı

Bir zamanlar əyləncə kimi görünən bu texnologiya indi maliyyə dünyasında ciddi təlaş yaradıb. Banklar və maliyyə xidmətləri təminatçıları üçün "deepfake" artıq potensial milyardlarla dollarlıq zərərin sinonimidir.

2024-cü ilin fevralında baş verən hadisə bunun ən dramatik nümunələrindən biri oldu. Çin maliyyə mərkəzi Honq-Konqda bir şirkət əməkdaşı, videokonfrans zamanı özünü Britaniyadakı maliyyə direktoru kimi təqdim edən "əməkdaş"dan bank hesablarına pul köçürülməsi barədə göstəriş aldı. Görüntüdə bir neçə "iş yoldaşı" da iştirak edirdi - lakin sonradan məlum oldu ki, onların hamısı süni intellektlə yaradılmış saxta fiqurlardır. Əməkdaş isə gördüklərinə inanaraq 26 milyon ABŞ dolları dəyərində 15 köçürmə həyata keçirdi.

Bu hadisə sadəcə böyük maliyyə itkiləri gətirmədi, o, fırıldaqçılığın nə qədər mürəkkəb hala gəldiyini nümayiş etdirən dönüş nöqtəsi oldu. Artıq kiber cinayətkarların sistemləri sındırmasına və ya zərərli proqram təminatı yerləşdirməsinə gərək qalmır. Onlar sadəcə açıq mənbələrdən toplanan video və səs materiallarını süni intellektə yükləyir, və nəticədə real insanla fərqləndirilməsi mümkün olmayan rəqəmsal "klon"lar yaradırlar.

"Resemble AI" platformasının hesabatına əsasən, 2025-ci ilin ilk yarısında "deepfake" dələduzluqları nəticəsində ümumi maliyyə itkisi 547,2 milyon ABŞ dolları təşkil edib. Bunun 347,2 milyon dolları isə təkcə ikinci rübün payına düşür. Bu rəqəmlər göstərir ki, süni intellekt əsaslı hücumlar artıq lokal xarakter daşımır, qlobal maliyyə sabitliyi üçün sistemli riskə çevrilib.

Təhlükə sərhəd tanımır

Süni intellektlə manipulyasiya edilmiş saxta materiallar Azərbaycandan da yan keçmir. Son illərdə sosial mediada yayılan müxtəlif "deepfake"lər fərdlər ilə yanaşı, bəzən dövlət strukturlarını da hədəfə alır. Bu isə informasiya təhlükəsizliyi məsələsini artıq milli təhlükəsizlik müstəvisinə çıxarır.

Son zamanlar Azərbaycanın yüksək vəzifəli şəxslərinin adından yayılan saxta "açıqlamalar" bu təhlükənin miqyasını göstərir. Məsələn, guya Azərbaycanın müdafiə və ya xarici işlər naziri adından Belarus təyyarəsinin Rusiyanın hava məkanında vurulmasına dair, yaxud Baş nazirin birinci müavini Yaqub Eyyubovun adından Rusiyaya qarşı "aqressiv siyasət" iddiasını əks etdirən "deepfake" materiallar informasiya mühitinə atılıb. Bu cür saxta kontentlər dezinformasiya olmaqla yanaşı, dövlətlərarası münasibətləri zədələyə biləcək təhlükəli alətə çevrilib.

Məsələni "Report"a şərh edən İKT üzrə ekspert Natiq Məmişov bildirib ki, "deepfake" texnologiyaları sosial qütbləşməni dərinləşdirir, dezinformasiyanın miqyasını böyüdür və rəqəmsal etimada ciddi zərbə vurur.

Onun sözlərinə görə, süni intellekt əsaslı təhdidlər artıq həqiqətlə yalan arasındakı incə xətti demək olar ki, tamamilə silir:

"Faktiki olaraq ictimai etimad əhəmiyyətli dərəcədə sarsılıb. İnsan gördüyünə və eşitdiyinə inanmaqda çətinlik çəkir. Bu isə şəffaflıq və sübutluluq məsələlərini həmişəkindən daha vacib edir".

Qlobal narahatlıq – rəqəmlərdə

ABŞ-nin "Gartner" şirkətinin 2025-ci ildə apardığı sorğu göstərir ki, süni intellekt əsasında yaradılan saxtakarlıqlar artıq təşkilatların gündəlik təhlükəsizlik qayğısına çevrilib. 302 kibertəhlükəsizlik rəhbərinin 43 %-i "deepfake" vasitəsilə audio zənglərlə manipulyasiyaya məruz qaldıqlarını, 37 %-i isə video konfranslar zamanı belə hallarla rastlaşdıqlarını bildiriblər.

Bununla belə, bir çox təşkilatlar rəqəmsal identifikasiya və autentifikasiya sistemlərini hələ də tam şəkildə qoruya bilmirlər. Bu isə, onların təhlükəsizlik strategiyalarında ciddi boşluqlar yaradır.

Azərbaycanda diqqət klassik təhdidlərdə qalır

Ekspertin fikrincə, Azərbaycanda hələlik diqqət əsasən ənənəvi kibertəhlükələrə – virus, fişinq və şəbəkə sındırılması hallarına yönəlib. Lakin süni intellekt vasitəsilə yaradılan audio və video klonlamalar, real insan səsini və görüntüsünü təqlid edən yeni nəsil təhdidlər çox vaxt diqqətdən kənarda qalır.

"Maliyyə və texniki imkanları məhdud olan qurumlar üçün əsas risklər klassik modellərlə məhdudlaşır. Amma biz artıq elə bir mərhələdəyik ki, səs və video manipulyasiyalar, yəni, AI klonlaması daha böyük təhlükəyə çevrilib. Kritik infrastruktur, bank və telekommunikasiya sektorlarının nisbətən irəlidə olsa da, texniki aşkarlama və media doğrulama sahəsində hələ ciddi boşluqlar qalır", - N. Məmişov deyib.

O hesab edir ki, süni intellekt əsaslı "deepfake" hücumlarından 100 % qorunmaq demək olar ki, mümkünsüzdür. Amma N.Məmişovun fikrincə, riskləri azaltmaq üçün kiberhigiyena tədbirləri həyati əhəmiyyət daşıyır. Onların sırasına təcili istəklər üçün geri zəng mexanizminin tətbiqi; paylaşılan məxfi məlumatlar üçün daxili təsdiqləmə işarələrinin istifadəsi; audio və video kontentlərdə ikikanallı təsdiq sistemlərinin qurulması; daxili kommunikasiya protokollarının gücləndirilməsi kimi tədbirlər aiddir.

"McAfee" şirkətinin sorğusuna əsasən, respondentlərin 70 %-i əsl səsi klonlanmış səsdən ayırd edə bilmədiyini etiraf edib. Daha da narahatedici məqam: iştirakçıların 40 %-i "həyat yoldaşından kömək istəyən səs mesajı alsa", düşünmədən yardım etməyə hazır olduqlarını deyiblər. Cinayətkarlar isə məhz bu insani inam hissəsindən sui-istifadə edirlər.

Cəmi bir neçə saniyəlik səs parçası süni intellekt üçün kifayətdir ki, onu klonlayaraq "təcili kömək" ssenarisi qursun. Sorğuya qatılan hər on nəfərdən biri belə saxta səs mesajı aldığını, onların isə 77 %-i pul itirdiyini bildirib.

Hüquqi çərçivə və tənzimləmə zərurəti

Süni intellekt əsrinin ən böyük paradokslarından biri budur: texnologiya sürətlə inkişaf edir, amma insanlar onun yaratdığı risklərə eyni sürətlə uyğunlaşa bilmir. "Deepfake" kimi mürəkkəb texnologiyalar artıq real və saxtanı ayırmağı çətinləşdirərkən, ictimai məlumatlılıq bu tempə çatmır.

N. Məmişov hesab edir ki, Azərbaycanda "deepfake" tipli təhdidlər barədə ictimai məlumatlılıq səviyyəsi hələ də çox aşağıdır.

Onun sözlərinə görə, süni intellektin doğurduğu yeni risklər insanların rəqəmsal mühitdə gördüklərinə və eşitdiklərinə qarşı kritik düşüncə nümayiş etdirməsini tələb edir. Lakin reallıqda əks mənzərə müşahidə olunur:

"Bizdə hələ də şübhəli videonu yoxlamadan paylaşmaq, hər linkə keçmək, təsdiqlənməmiş mənbələrə inanmaq kimi vərdişlər qalmaqdadır. Halbuki bu davranışlar artıq ciddi kiber risklər doğurur".

Ekspert bildirir ki, ictimai məlumatlılığın artırılması üçün kütləvi kommunikasiya kanalları yenilənməli, maarifləndirici yanaşma köklü şəkildə dəyişdirilməlidir. O, məktəblərdən tutmuş dövlət qurumlarınadək bütün səviyyələrdə kiber savadlılığın tədrisinə ehtiyac olduğunu vurğulayır:

"Hazırda nə məktəblərdə, nə liseylərdə, nə də ali təhsil müəssisələrində "deepfake" və rəqəmsal təhlükəsizliklə bağlı modul dərsliklər yoxdur. Halbuki bu, artıq zərurətə çevrilib. Bununla yanaşı, dövlət qulluqçuları üçün kiber təhlükəsizlik üzrə mikro təlimlər və simulyasiya testləri təşkil olunmalıdır".

Bu təlimlər texniki bacarıqların artırılması ilə yanaşı, həm də insan psixologiyasının manipulyasiyaya qarşı davamlılığının güclənməsinə xidmət etməlidir.

N. Məmişov hesab edir ki, Azərbaycanda "deepfake" texnologiyaları ilə mübarizədə dəqiq hüquqi çərçivə formalaşdırılmalıdır. O, xüsusilə süni intellekt əsaslı "chatbot"lara girişin və istifadənin məhdudlaşdırılması mexanizmlərinin tətbiqini vacib sayır:

"Bu normalar kritik dövrlərdə, məsələn, seçkilər və ya beynəlxalq gərginlik dövrlərində, sərtləşdirilməli və məhdudlaşdırılmalıdır. Eyni zamanda, istifadəçilər üçün razılıq və təsdiq mexanizmləri hüquqi əsasda tənzimlənməlidir".

Ekspertin fikrincə, bu, həm informasiya manipulyasiyasının qarşısını almağa, həm də vətəndaşların rəqəmsal hüquqlarını qorumağa xidmət edəcək.

Dünya İqtisadi Forumu xəbərdarlıq edir ki, tədqiqatçıların proqnozlarına görə, 2026-cı ilə qədər internetdəki kontentin 90 %-i süni intellekt tərəfindən generasiya ediləcək. Bu o deməkdir ki, bir neçə ildən sonra gördüyümüz və eşitdiyimiz hər materialın arxasında real insan yox, alqoritm ola bilər.

Süni intellekt əsaslı materialların hazırlanması alətlərinin artması və şəxsi məlumatlarla manipulyasiya risklərinin dərinləşməsi qlobal bazarda "deepfake"lə mübarizə texnologiyalarına tələbi kəskin artıracaq. Proqnozlara əsasən, "deepfake" texnologiyaları bazarının həcmi 2025-ci ildəki 5,82 milyard dollardan 2032-ci ildə 32,23 milyard dollara yüksələcək. Bu, illik orta artım tempinin 27,7 % olması deməkdir.

Bütün bu proqnozlar bir həqiqəti açıq göstərir, gələcəkdə ən böyük sərvət etimad olacaq. İnsanların gördüyünə inanmadığı, eşitdiyinə şübhə ilə yanaşdığı bir dövrdə reallığın dəyəri daha da yüksələcək.

Texnologiya inkişaf etdikcə insan faktoru, yəni, məlumatı düzgün anlama, təhlil etmə və paylaşma məsuliyyəti - daha böyük önəm qazanır. Çünki süni intellektin yaratdığı "alternativ reallıqlar" içərisində həqiqəti qorumağın yeganə yolu təfəkkür və savad olacaq.

Son xəbərlər

Bütün Xəbər Lenti