Kiber Müharibədə İkitərəfli Qılınc
Tarix: 11-09-2024, 10:05
Google+ Paylaş
Tumblr Paylaş

Kiber Müharibədə İkitərəfli Qılınc

11-09-2024, 10:05



Nurin Axtar
___________________________________________________

İndi texnologiya inanılmaz sürətlə inkişaf edir, süni intellekt (AI) iki ucu keskin bir qılınc kimi ortaya çıxdı. Təəssüf doğurur ki, süni intellekt demək olar ki, bütün sektorlarda heyrətamiz imkanlar panoraması açsa da, yeni, daha peşəkar, mürəkkəb və effektiv kiberhücumları gücləndirmək üçün kibercinayətkarlar aləminə də yol tapıb. Nəticə etibarilə, bütün dünyada şirkətlər daxilində artan süni intellektə əsaslanan kibertəhlükələrin kateqoriyalı təhlükəsini şişirtmək çətindir, ona görə də müdafiə strategiyası inteqrasiyalı və çoxqatlı olmalıdır.

Süni intellekt qaranlıq internetə və digər cinayət fəaliyyətlərinə nüfuz etməyə başlayandan bəri təhlükələr dəyişdi. İndiyədək bu hücumlar insan iştirakını və hücum alətlərinin işləməsini əhatə edirdi, lakin hələ də yeni başlayan AI texnologiyalarının istifadəsi bu cür hücumları daha avtomatik, daha spesifik və daha çevik edir. İnsan tərəfindən idarə olunan hücumlar hədəf haqqında məlumat əldə etmək qabiliyyətinə güvənsə də və buna görə də onların təcrübəsindən asılı olsa da, süni intellektlə idarə olunan hücumlar çox qısa müddətdə böyük məlumat dəstləri toplaya bilər, əlavə olaraq bu sistemlər öz əməliyyat parametrlərini uyğunlaşdıra bilər. məqsəd, bu halda fişinq hücumunu həyata keçirməkdir ki, bu da bu sistemləri əvvəlki cəhdlərin nəticələrini öyrənmək və onları əməliyyat sisteminə daxil etmək üçün kifayət qədər ağıllı edir.

2020-ci ilin əvvəlində başlayan COVID-19 pandemiyası uzaq işçi qüvvəsinin yeni səviyyəsini yüksəltdi və bu, biznesi kibercinayətkarların yeni risklərinə məruz qoydu. AI dəstəkli kiberhücumlar kiberhücum mesajı və onun hücumlarını hazırlamaq üçün maşın öyrənməsi və təbii dil emalından istifadə etdiyi üçün görünməyə başladı. Məsələn, 2020-ci ildə başlayan hücum “SolarWinds” [1] hücumu kimi tanınır, burada hakerlər təşkilatın sistemləri vasitəsilə həssas məlumatı aşkar edilmədən əldə edə biləcəkləri fərdiləşdirilmiş arxa qapının hazırlanmasında süni intellektdən istifadə ediblər. Bu, süni intellektdən mənfi kampaniyaların anonimliyini və imkanlarını təkmilləşdirmək üçün istifadə oluna biləcəyini sübut edən əvvəlki hack növlərindən böyük bir addım idi.

2021-ci ildə, əvvəlki ilə nisbətən zərərli proqram və fişinq sxemlərinin yaradılmasında süni intellektdən istifadə artıb. Təhdid iştirakçıları, demək olar ki, faktiki olan kimi görünən “xüsusi hazırlanmış” zərərli proqram və fişinq subyektləri yaratmaq üçün generativ modellərdən istifadə etməyə başladılar. Məsələn, 2021-ci ilin may ayında yerləşdirildiyi hesab edilən “DarkSide” [2] ransomware hücumu ransomware proqramının quraşdırılmasını təmin etmək üçün AI yaradan e-poçtlardan istifadə etdi. Bu inkişaflar, dördlü süni intellekt alətlərinin hakerlər üçün çox asanlıqla əlçatan olmasına diqqət çəkdi, çünki onlar indi əvvəllər mümkün olmayan miqyasda çoxsaylı mürəkkəb, eləcə də təkmil, fərdiləşdirilmiş hücum üsullarının istehsalını avtomatlaşdıra bilirdilər.

2022-ci ildə süni intellektin köməyi ilə sosial mühəndislikdən istifadə edən hücumlar daha mürəkkəbləşdi. Fırıldaqçılar hədəfin ünsiyyətdə olduğu insanların şəxsiyyətlərini gizlətmək üçün süni intellektin sintetik dərin saxtalarından istifadə edirlər. Məsələn, 2022-ci ilin avqustunda bir proqram şirkətinin işçisi müəyyən bir işçinin süni intellekt tərəfindən yaradılan dərin saxta səsindən istifadə edərək sosial mühəndislik şantajına məruz qalaraq itki ilə üzləşəcək. [3] Buna görə, indiki pis əməl AI-nin köhnə təhlükəsizlik sistemləri ilə insanlara təsir etmək və onları aldatmaq qabiliyyətinin dəyişməsinin bariz nümunəsi idi.

2023-cü ildə kibertəhlükəsizlik üzrə respondentlərin yarıdan çoxu generativ süni intellektin növbəti iki ildə müdafiəçilərdən fərqli olaraq kiberhücumçular üçün daha faydalı olacağını söylədi. [4] Onların ən böyük narahatlığı fişinq, xüsusi zərərli proqram təminatının hazırlanması və saxta xəbərlərin yayılması baxımından AI-nin rəqiblər üçün nə edə biləcəyi idi. Hakerlər artıq xoşagəlməz chatbotlar yaratmaq üçün böyük generativ modellərdən istifadə edirdilər və fişinq e-poçtlarının yazılmasını və xüsusi zərərli proqramların yaradılmasını xeyli sadələşdirirdilər. Təhlükəsizlik mütəxəssisləri arasında bu cür dəyişkən fikirlər təşkilatların daha mükəmməl süni intellektə əsaslanan təhlükəsizlik təhdidləri ilə mübarizə aparmaq üçün öz yanaşmalarını nəzərdən keçirmələri və təkmilləşdirmələri zərurətini ifadə etdi.

Təhlükəsizlik liderləri 2024-cü ildə kibercinayətlərin süni intellekt vasitəsilə avtomatlaşdırılmasının növbəti bir ildə günün tələbi olacağını söylədi. Netacea-nın [5] araşdırmasına görə , təhlükəsizlik liderlərinin 95%-i süni intellektdən hücumları avtomatlaşdırmaq üçün istifadə ediləcəyini, 93%-i isə süni intellektin həqiqətən etibarlı şəxsləri təqlid etmək üçün dərin saxtakarlıq yaratmaq üçün istifadə ediləcəyini düşünürdü. Atəşkəs əməliyyatlarında süni intellektdən istifadənin artmasının gələcəkdə daha geniş yayılacağı gözlənilir, burada tədqiqatçılar yaxın gələcəkdə kiberhücumların süni intellekt idarəetmə növünün ən görkəmli olacağına inanırlar. Bu, təşkilatlar üçün narahatlıq doğurur, çünki o, təşkilatların süni intellektin istifadəsini əhatə edən təhdidlər və istismarlarla mübarizə aparmaq, istifadəçi davranışını təhlil etmək, istifadəçiləri öyrətmək, insidentlərə hazırlaşmaq və məlumat paylaşmaq üçün laylı müdafiə sxemi qəbul etmələrinin vacibliyini vurğulayır.

Kiber-insidentlərin xərcləri təkcə minlərlə dollarla məhdudlaşmır, yüz minlərlə və ya milyonlarla dollara çata bilər. Cybersecurity Ventures-in hesabatında, Kibercinayətkarlığın dünya üzrə xərclərinin 10 dollara çatacağı gözlənilirdi. 2015-ci ildəki 3 trilyon dollardan 2025-ci ildə illik 5 trilyon. [6] Digər xərclər təşkilati imic, hüquqi nəticələr və biznesin pozulması ilə əlaqədardır. Bir çox sektorlar, o cümlədən tibb və maliyyə sahələri, məlumat sızması halında cərimələrə və istehlakçıların kəskin reaksiyasına xüsusilə həssasdır. Bu, sadəcə olaraq yaxşı kibertəhlükəsizlik siyasətinə və praktikasına sərmayə qoyuluşu ehtiyacını ifadə edir.

Süni intellektlə idarə olunan təhdidlər, bu cür kiber oxşarlara qarşı davamlı mübarizədə bu cür təhlükələri azaltmaq üçün AI-dən istifadə etməyi tələb edir. Süni intellektə əsaslanan təhlükəsizlik həlləri bir neçə saniyə ərzində böyük həcmdə məlumatları emal edə bilər və dərhal diqqət tələb edən hadisələri və fəaliyyətləri təyin edə bilər, bu fəaliyyətlər mümkün təhlükə ilə əlaqəli ola bilər. ML alqoritmləri təhdid nümunələrində təkamül olduğu halda yeni məlumat dəstindən təravətləndirici şəkildə öyrənə bilər. Süni neyron şəbəkələrinə əsaslanan təhdid kəşfiyyatı həlləri çox vaxt təhlükələri məhsuldar olmamışdan əvvəl aşkar edib zərərsizləşdirməyə qadirdir. Məsələn, süni intellekt şəbəkənin adi olmayan nümunələrini tuta bilər ki, bu da pozuntunu göstərə bilər. Nəticə etibarilə, bu sistemlər qabaqcıl analitika və maşın öyrənməsinin inteqrasiyası sayəsində adi üsullarla müqayisədə daha sürətli və daha dəqiq təhlükənin aşkarlanması və cavablandırılmasını təmin etmək iqtidarındadır.

Aşkar təhlükəni aşkar etməklə yanaşı, təşkilatlar davam edən hücumu nəzərdə tutan naməlum fəaliyyətlərə nəzarət etməlidir. Davranış təhlili istifadəçilərin, eləcə də sistemin müşahidəsini və anomaliyaların müəyyən edilməsini nəzərdə tutur. Məsələn, nədənsə işçinin hesabı iş saatlarından sonra təşkilatın qorunan şəbəkəsindən əhəmiyyətli miqdarda məlumat əldə etməyə başlamışsa, bu, şübhəli sayıla bilər. Süni intellektə əsaslanan kompüterləşdirilmiş davranış analizi vasitələri təşkilatın istifadəçiləri və sistemləri üçün standart davranış modellərini inkişaf etdirə bilər. Bu alətlər davranışı hər gün izləmək və təhlil etməklə işləyir; bu alətlər üçün təcavüzkarın nəticəsi ola biləcək cüzi dəyişikliyi müəyyən etmək asan olardı. Bu, təşkilatlara təhlükənin kritik təhlükəyə çevrilməsinin qarşısını almağa imkan verir, çünki bu nöqtəyə çatmazdan əvvəl onunla mübarizə aparılır.

Qeyd edək ki, insan faktorunun sızması hələ də sistemi sındırmaya məruz qoyan ən kritik aspektlərdən biri hesab olunur. Buna baxmayaraq, kibertəhlükəsizlik fasilələrində süni intellektin getdikcə artması insan amilinə, əsasən də fiş və sosial mühəndisliyə olan inamı aradan qaldırmır. Beləliklə, istifadəçilərin təhlükələr və hesablarını kibercinayətkarlardan qorumaq üçün görməli olduqları tədbirlər barədə məlumatlılığının artırılmasına ehtiyac var. Maarifləndirmə proqramları və təlim sessiyaları çox vaxt işçilərə müxtəlif risklər və onlarla necə davranmalı olduqları barədə məsləhət verməkdən ibarətdir. Məsələn, işçilərə fişinq e-poçtunun nə olduğunu başa düşmələri və yad adamların keçidlərinə klikləməmələri və həmişə belə hadisələr barədə məlumat verilməlidir. Bu o deməkdir ki, kibertəhlükəsizlik mövzusunda təlim və şüur ​​yaratmaqla təşkilatlar kiberhücumları minimuma endirəcəklər.

Bununla belə, kibercinayətlərlə mübarizə üzrə qabaqlayıcı strategiyalar güclü şəkildə həyata keçirilsə də, təşkilatlar birlikdə kibercinayətkarlığın baş verməsini istisna edə bilməzlər. Beləliklə, hadisəyə cavab planının tanınması təşkilatın insidentin baş verməsinə hazır olmasını təmin etmək üçün çox vacibdir. Bu plan təhlükənin necə aşkar ediləcəyini və təcrid olunacağını, pis aktorların şəbəkədən necə çıxarılacağını və pozulmuş şəbəkələrin/sistemlərin bərpasına necə nail olunacağını göstərməlidir. AI hadisənin, onun növünün və hadisənin qarşısının alınmasında yardım göstərməklə hadisənin idarə edilməsi prosesində tətbiqlərə malikdir. Məsələn, AI texnologiyaları hücumun haradan qaynaqlandığını, hansı sistemə nüfuz etdiyini və fiksasiya prosesinə başladığını müəyyən etməyə qadirdir. Bu cür tapşırıqlar əl ilə yerinə yetirildikdə, bu, çox vaxt aparır, beləliklə, təşkilat hadisəni minimum vaxtda idarə edə bilir və beləliklə, hücumun təsirini azaldır.

Kibertəhlükəsizlik həmişə komanda oyunudur və tez-tez təşkilatlar yeni təhdidlərdən qorunmaq üçün digər təşkilatlardakı, hökumətdəki həmkarlarından və bu sahədəki mütəxəssislərdən kömək almalıdırlar. Böyük təhlükə kəşfiyyatı icmalara çatdırıla bilər və bu yolla təşkilat üzləşdiyi təhlükələri başa düşmək və həmin anda təsirli ola biləcək müdafiə tədbirləri ilə çıxış etmək vəziyyətində olacaq. Sənaye ilə əməkdaşlıq və Kiber Təhdidlər Alyansı (CTA) və ya Məlumat Paylaşma və Təhlil Mərkəzləri (ISACs) kimi məlumat mübadiləsi proqramları əməkdaşlıq üçün yaxşı imkanlar verir. Bu cür proseslər vasitəsilə təşkilatlar təhdidlərdəki yeniliklər haqqında məlumat əldə edə və mövcud kibertəhlükəsizlik sistemlərinin təkmilləşdirilməsi üçün müxtəlif üzvlərin kollektiv təcrübələrindən istifadə edə bilərlər.

Süni intellekt, o cümlədən maşın öyrənməsi yüksəliş mərhələsindədir və eyni şey daha yaxşı, avtomatik və inandırıcı kiberhücumların inkişaf etdirilməsinə kömək edən kibercinayətkarlar tərəfindən süni intellektin istifadəsinə də aiddir. Nəticə etibarı ilə, süni intellektə əsaslanan təhdidlər davam etdikcə və yeniləri inkişaf etdikcə, təşkilatların təhlükələrə qarşı laylı müdafiə modelindən istifadə etmələri zəruri olur. Süni intellektlə idarə olunan təhdidlərin identifikasiyası, davranış monitorinqi, istifadəçi məlumatlılığı, təhlükəsizlik insidentlərinə reaksiya və əməkdaşlığın köməyi ilə müasir dünyanın tələblərinə cavab vermək üçün təşkilati kibermüdafiə yaradıla bilər. Süni intellektə əsaslanan kibercinayətlərə qarşı müharibə davam edir, lakin bu hərtərəfli və qabaqlayıcı strategiya gələcəkdə təşkilati aktivlərin qorunmasını təmin edəcək.скачать dle 12.1


Google+ Paylaş
Tumblr Paylaş

FACEBOOK ŞƏRH YAZ