Mtaalamu wa usalama wa mtandao akichanganua vitisho kwa kutumia zana genereshi za AI.

Je, AI ya Kuzalisha Inaweza Kutumikaje katika Usalama wa Mtandaoni?

Utangulizi

AI ya Kuzalisha - mifumo ya kijasusi ya bandia inayoweza kuunda maudhui mapya au utabiri - inaibuka kama nguvu ya mabadiliko katika usalama wa mtandao. Zana kama vile GPT-4 ya OpenAI imeonyesha uwezo wa kuchanganua data changamano na kutoa maandishi yanayofanana na binadamu, kuwezesha mbinu mpya za kujilinda dhidi ya vitisho vya mtandao. Wataalamu wa usalama wa mtandao na watoa maamuzi wa biashara katika sekta zote wanachunguza jinsi AI generative inaweza kuimarisha ulinzi dhidi ya mashambulizi yanayoendelea. Kuanzia fedha na huduma ya afya hadi rejareja na serikali, mashirika katika kila sekta yanakabiliwa na majaribio ya hali ya juu ya kuhadaa ili kupata maelezo ya kibinafsi, programu hasidi na vitisho vingine ambavyo AI ya uzalishaji inaweza kusaidia kukabiliana nayo. Katika karatasi hii nyeupe, tunachunguza jinsi AI generative inaweza kutumika katika usalama wa mtandao , kuangazia programu za ulimwengu halisi, uwezekano wa siku zijazo, na mambo muhimu ya kuzingatiwa kwa kupitishwa.

AI ya Kuzalisha hutofautiana na AI ya uchanganuzi wa kitamaduni kwa kugundua si mwelekeo tu bali pia kuunda maudhui - iwe ni kuiga mashambulizi ili kutoa mafunzo ya ulinzi au kutoa maelezo ya lugha asilia kwa data changamano ya usalama. Uwezo huu wa pande mbili unaifanya kuwa upanga wenye makali kuwili: inatoa zana mpya zenye nguvu za ulinzi, lakini watendaji tishio wanaweza kuitumia pia. Sehemu zifuatazo zinachunguza anuwai ya kesi za utumiaji wa AI ya uzalishaji katika usalama wa mtandao, kutoka kwa ugunduzi wa kiotomatiki wa hadaa hadi kuboresha majibu ya matukio. Pia tunajadili manufaa ambayo uvumbuzi huu wa AI huahidi, kando na hatari (kama vile AI "hallucinations" au matumizi mabaya ya adui) ambayo mashirika lazima yadhibiti. Hatimaye, tunatoa njia za kuchukua ili kusaidia biashara kutathmini na kujumuisha kwa uwajibikaji AI ya uzalishaji katika mikakati yao ya usalama wa mtandao.

AI ya Kuzalisha katika Usalama wa Mtandao: Muhtasari

Uzalishaji wa AI katika usalama wa mtandao unarejelea miundo ya AI - mara nyingi miundo mikubwa ya lugha au mitandao mingine ya neva - ambayo inaweza kutoa maarifa, mapendekezo, msimbo, au hata data sanisi kusaidia katika kazi za usalama. Tofauti na miundo ya kubashiri tu, AI generative inaweza kuiga matukio na kutoa matokeo yanayoweza kusomeka na binadamu (km ripoti, arifa, au hata sampuli za msimbo hasidi) kulingana na data yake ya mafunzo. Uwezo huu unawezeshwa kutabiri, kugundua, na kujibu vitisho kwa njia zinazobadilika zaidi kuliko hapo awali ( Je! Uzalishaji wa AI katika Usalama wa Mtandao ni Nini? - Mitandao ya Palo Alto ). Kwa mfano, miundo ya kuzalisha inaweza kuchanganua kumbukumbu kubwa au hazina za kijasusi za vitisho na kutoa muhtasari mfupi au hatua inayopendekezwa, inayofanya kazi karibu kama "msaidizi" wa AI kwa timu za usalama.

Utekelezaji wa mapema wa AI generative kwa ulinzi wa mtandao umeonyesha ahadi. Mnamo 2023, Microsoft ilianzisha Usalama Copilot , msaidizi anayeendeshwa na GPT-4 kwa wachanganuzi wa usalama, ili kusaidia kutambua uvunjaji na kuchuja mchakato wa mawimbi trilioni 65 wa Microsoft kila siku ( Microsoft Security Copilot ni msaidizi mpya wa GPT-4 AI kwa usalama wa mtandao | The Verge ). Wachanganuzi wanaweza kuuliza mfumo huu kwa lugha asilia (km "Fanya muhtasari wa matukio yote ya usalama katika saa 24 zilizopita" ), na anayetoa nakala atatoa muhtasari wa masimulizi muhimu. Vile vile, Google's Threat Intelligence AI hutumia muundo mzalishaji unaoitwa Gemini ili kuwezesha utafutaji wa mazungumzo kupitia hifadhidata kubwa ya Google ya vitisho, kuchambua kwa haraka msimbo unaotiliwa shaka na muhtasari wa matokeo ili kuwasaidia wawindaji wa programu hasidi ( Je, AI ya Kuzalisha Inawezaje Kutumika katika Usalama wa Mtandao? Mifano 10 ya Ulimwengu Halisi ). Mifano hii inaonyesha uwezekano: AI inayozalisha inaweza kuchimba data changamano, ya kiwango kikubwa cha usalama wa mtandao na kuwasilisha maarifa katika fomu inayoweza kufikiwa, kuharakisha kufanya maamuzi.

Wakati huo huo, AI inayozalisha inaweza kuunda maudhui bandia ya kweli, ambayo ni msaada kwa uigaji na mafunzo (na, kwa bahati mbaya, kwa washambuliaji wanaounda uhandisi wa kijamii). Tunapoendelea na matukio mahususi ya utumiaji, tutaona kwamba uwezo wa kuzalisha wa AI wa kuunganisha na kuchanganua taarifa unategemeza matumizi yake mengi ya usalama wa mtandao. Hapa chini, tunajikita katika matukio muhimu ya utumiaji, yanayojumuisha kila kitu kutoka kwa kuzuia hadaa hadi uundaji salama wa programu, kwa mifano ya jinsi kila moja inavyotumika katika tasnia.

Utumizi Muhimu wa AI ya Kuzalisha katika Usalama wa Mtandao

Kielelezo: Kesi kuu za utumiaji wa AI generative katika usalama wa mtandao ni pamoja na waendeshaji nakala wa AI kwa timu za usalama, uchanganuzi wa kuathirika kwa msimbo, utambuzi wa tishio unaoweza kubadilika, uigaji wa shambulio la siku sifuri, usalama ulioimarishwa wa kibayometriki, na ugunduzi wa hadaa ( 6 Tumia Kesi za AI ya Kuzalisha katika Usalama wa Mtandao [+ Mifano] ).

Utambuzi na Kuzuia Hadaa

Hadaa inasalia kuwa mojawapo ya matishio ya mtandao yaliyoenea zaidi, kuwahadaa watumiaji kubofya viungo hasidi au kufichua kitambulisho. Generative AI inatumwa ili kugundua majaribio ya kuhadaa na kuimarisha mafunzo ya watumiaji ili kuzuia mashambulizi yenye mafanikio. Kwa upande wa utetezi, miundo ya AI inaweza kuchanganua maudhui ya barua pepe na tabia za watumaji ili kuona ishara fiche za hadaa ambazo vichujio vinavyozingatia sheria vinaweza kukosa. Kwa kujifunza kutoka kwa seti kubwa za data za barua pepe halali dhidi ya ulaghai, muundo mzalishaji unaweza kuripoti hitilafu katika sauti, maneno, au muktadha unaoashiria ulaghai - hata wakati sarufi na tahajia hazitoi tena. Kwa kweli, watafiti wa Mitandao ya Palo Alto wanaona kuwa AI ya kuzalisha inaweza kutambua "ishara za hila za barua pepe za ulaghai ambazo zinaweza kutotambuliwa," kusaidia mashirika kukaa hatua moja mbele ya walaghai ( Je! Ni Nini AI ya Kuzalisha katika Cybersecurity? - Mitandao ya Palo Alto ).

Timu za usalama pia hutumia AI generative kuiga mashambulizi ya kuhadaa ili kupata mafunzo na uchanganuzi. Kwa mfano, Ironscales ilianzisha zana ya uigaji wa hadaa inayoendeshwa na GPT ambayo hutengeneza kiotomatiki barua pepe ghushi za hadaa zinazolenga wafanyikazi wa shirika ( Je, AI ya Kuzalisha Inaweza Kutumikaje katika Usalama wa Mtandao? Mifano 10 ya Ulimwengu Halisi ). Barua pepe hizi zilizoundwa na AI zinaonyesha mbinu za hivi punde za washambulizi, zinazowapa wafanyikazi mazoezi ya kweli katika kugundua maudhui ya hadaa. Mafunzo kama haya ya kibinafsi ni muhimu kwani washambuliaji wenyewe wanachukua AI ili kuunda vivutio vya kushawishi zaidi. Hasa, ingawa AI ya uzalishaji inaweza kutoa ujumbe ulioboreshwa sana wa hadaa (zimepita siku za Kiingereza kilichovunjika kwa urahisi), watetezi wamegundua kuwa AI haiwezi kushindwa. Mnamo 2024, watafiti wa Usalama wa IBM walifanya jaribio la kulinganisha barua pepe za ulaghai zilizoandikwa na binadamu na zile zinazozalishwa na AI, na "cha kushangaza, barua pepe zinazozalishwa na AI bado zilikuwa rahisi kutambua licha ya sarufi yao sahihi" ( Kesi 6 za Tumia kwa AI ya Kuzalisha katika Usalama wa Mtandao [+ Examples] ). Hili linapendekeza kwamba angavuzi la binadamu pamoja na ugunduzi unaosaidiwa na AI bado unaweza kutambua tofauti fiche au ishara za metadata katika ulaghai ulioandikwa na AI.

Uzalishaji wa AI husaidia ulinzi wa hadaa kwa njia zingine pia. Miundo inaweza kutumika kutoa majibu ya kiotomatiki au vichujio vinavyojaribu barua pepe za kutiliwa shaka. Kwa mfano, mfumo wa AI unaweza kujibu barua pepe yenye maswali fulani ili kuthibitisha uhalali wa mtumaji au kutumia LLM kuchanganua viungo na viambatisho vya barua pepe katika kisanduku cha mchanga, kisha kutoa muhtasari wa nia yoyote mbaya. Jukwaa la usalama la NVIDIA Morpheus huonyesha uwezo wa AI katika nyanja hii - hutumia miundo wasilianifu ya NLP kuchanganua na kuainisha barua pepe kwa haraka, na ilipatikana kuboresha utambuzi wa barua pepe za ulaghai kwa 21% ikilinganishwa na zana za jadi za usalama ( 6 Tumia Kesi za AI ya Kuzalisha katika Usalama wa Mtandao [+ Examples] ). Morpheus hata huonyesha mifumo ya mawasiliano ya mtumiaji ili kugundua tabia isiyo ya kawaida (kama vile mtumiaji anayetuma barua pepe kwa anwani nyingi za nje ghafla), ambayo inaweza kuashiria akaunti iliyoathiriwa kutuma barua pepe za hadaa.

Kwa mazoezi, kampuni katika tasnia zote zinaanza kuamini AI kuchuja barua pepe na trafiki ya wavuti kwa shambulio la uhandisi wa kijamii. Kampuni za kifedha, kwa mfano, hutumia AI ya uzalishaji kuchanganua mawasiliano kwa majaribio ya uigaji ambayo yanaweza kusababisha ulaghai kupitia mtandao, huku watoa huduma za afya wakitumia AI ili kulinda data ya mgonjwa dhidi ya ukiukaji unaohusiana na hadaa. Kwa kuzalisha matukio halisi ya kuhadaa ili kupata maelezo ya kibinafsi na kutambua sifa mahususi za ujumbe mbovu, AI ya uzalishaji huongeza safu ya nguvu katika mikakati ya kuzuia hadaa. Njia ya kuchukua: AI inaweza kusaidia kugundua na kupokonya silaha mashambulizi ya hadaa kwa haraka na kwa usahihi zaidi, hata kama wavamizi hutumia teknolojia hiyo hiyo kuboresha mchezo wao.

Utambuzi wa Malware na Uchambuzi wa Tishio

Programu hasidi ya kisasa inabadilika kila wakati - washambuliaji hutengeneza vibadala vipya au kubatilisha msimbo ili kukwepa saini za antivirus. AI ya Kuzalisha inatoa mbinu mpya za kugundua programu hasidi na kuelewa tabia yake. Mbinu moja ni kutumia AI kutengeneza "mapacha wabaya" wa programu hasidi : watafiti wa usalama wanaweza kulisha sampuli ya programu hasidi inayojulikana katika muundo zalisha ili kuunda anuwai nyingi zilizobadilishwa za programu hasidi. Kwa kufanya hivyo, wanatarajia vyema marekebisho ambayo mshambuliaji anaweza kufanya. Vibadala hivi vinavyotokana na AI vinaweza kutumiwa kutoa mafunzo kwa mifumo ya kingavirusi na ugunduzi wa uvamizi, ili hata matoleo yaliyobadilishwa ya programu hasidi yatambuliwe porini ( 6 Use Cases for Generative AI in Cybersecurity [+ Examples] ). Mkakati huu makini husaidia kuvunja mzunguko ambapo wavamizi hubadilisha programu hasidi kidogo ili kukwepa kutambuliwa na watetezi lazima wahangaike kuandika saini mpya kila wakati. Kama ilivyobainishwa katika podikasti moja ya tasnia, wataalam wa usalama sasa wanatumia AI ya uzalishaji ili "kuiga trafiki ya mtandao na kutoa malipo mabaya ambayo yanaiga mashambulizi ya hali ya juu," kupima ulinzi wao dhidi ya familia nzima ya vitisho badala ya tukio moja. huu wa tishio unaobadilika unamaanisha kuwa zana za usalama zitastahimili zaidi programu hasidi za polymorphic ambazo zingepita.

Zaidi ya kugunduliwa, AI inayozalisha husaidia katika uchanganuzi wa programu hasidi na uhandisi wa kubadilisha , ambayo kwa kawaida ni kazi zinazohitaji nguvu kazi kwa wachambuzi wa vitisho. Miundo mikubwa ya lugha inaweza kupewa jukumu la kuchunguza msimbo au hati zinazotiliwa shaka na kueleza kwa lugha nyepesi kile ambacho msimbo unakusudiwa kufanya. Mfano wa ulimwengu halisi ni VirusTotal Code Insight , kipengele cha VirusTotal ya Google ambacho hutumia kielelezo zalisha cha AI (Sec-PaLM ya Google) ili kutoa muhtasari wa lugha asilia wa msimbo unaoweza kuwa hasidi ( Je, AI ya Kuzalisha Inawezaje Kutumika katika Usalama wa Mtandao? Mifano 10 ya Ulimwengu Halisi ). Kimsingi ni "aina ya ChatGPT inayojitolea kwa usimbaji wa usalama," inayofanya kazi kama mchanganuzi wa programu hasidi wa AI ambaye hufanya kazi 24/7 kusaidia wachanganuzi wa kibinadamu kuelewa vitisho ( 6 Tumia Kesi za AI ya Kuzalisha katika Usalama wa Mtandao [+ Examples] ). Badala ya kuchambua hati au msimbo usiojulikana, mshiriki wa timu ya usalama anaweza kupata maelezo ya mara moja kutoka kwa AI - kwa mfano, "Hati hii inajaribu kupakua faili kutoka kwa seva ya XYZ na kisha kurekebisha mipangilio ya mfumo, ambayo ni dalili ya tabia ya programu hasidi." Hii inaharakisha sana majibu ya matukio, kwani wachambuzi wanaweza kuchunguza na kuelewa programu hasidi mpya haraka zaidi kuliko hapo awali.

AI inayozalisha pia hutumiwa kubainisha programu hasidi katika hifadhidata kubwa . Injini za kawaida za kuzuia virusi huchanganua faili ili kutafuta sahihi zinazojulikana, lakini muundo generative unaweza kutathmini sifa za faili na hata kutabiri ikiwa ni hasidi kulingana na mifumo iliyojifunza. Kwa kuchanganua sifa za mabilioni ya faili (hasidi na mbaya), AI inaweza kupata nia mbaya ambapo hakuna saini ya wazi. Kwa mfano, muundo mzalishaji unaweza kuripoti inayoweza kutekelezwa kama ya kutiliwa shaka kwa sababu wasifu wake wa tabia "unaonekana" kama mabadiliko kidogo ya programu ya uokoaji ambayo iliona wakati wa mafunzo, ingawa mfumo wa jozi ni mpya. Utambuzi huu unaozingatia tabia husaidia kukabiliana na riwaya au programu hasidi ya siku sifuri. Google's Threat Intelligence AI (sehemu ya Chronicle/Mandiant) inaripotiwa kutumia muundo wake wa uzalishaji kuchanganua misimbo hatarishi na "kwa ufanisi zaidi na kwa ufanisi zaidi kusaidia wataalamu wa usalama katika kupambana na programu hasidi na aina zingine za vitisho." ( AI ya Kuzalisha Inawezaje kutumika katika Usalama wa Mtandao? Mifano 10 ya Ulimwengu Halisi ).

Kwa upande mwingine, lazima tukubali kuwa washambuliaji wanaweza kutumia AI generative hapa pia - kuunda kiotomatiki programu hasidi ambayo inajirekebisha yenyewe. Kwa hakika, wataalamu wa usalama wanaonya kuwa AI inayozalisha inaweza kusaidia wahalifu wa mtandao kuendeleza programu hasidi ambayo ni vigumu kutambua ( Je! Ni Nini AI ya Kuzalisha katika Usalama wa Mtandao? - Mitandao ya Palo Alto ). Kielelezo cha AI kinaweza kuagizwa kurekebisha kipande cha programu hasidi mara kwa mara (kubadilisha muundo wa faili yake, mbinu za usimbaji fiche, n.k.) hadi kiepuke ukaguzi wote wa antivirus unaojulikana. Utumiaji huu wa kihasama ni wasiwasi unaoongezeka (wakati mwingine hujulikana kama "programu hasidi inayoendeshwa na AI" au programu hasidi ya polymorphic kama huduma). Tutajadili hatari kama hizi baadaye, lakini inasisitiza kwamba AI ya uzalishaji ni zana katika mchezo huu wa paka na panya unaotumiwa na mabeki na washambuliaji.

Kwa ujumla, AI generative huongeza ulinzi wa programu hasidi kwa kuwezesha timu za usalama kufikiria kama mvamizi - kutoa vitisho na suluhu mpya ndani ya nyumba. Iwe inazalisha programu hasidi sanisi ili kuboresha viwango vya ugunduzi au kutumia AI kueleza na kujumuisha programu hasidi inayopatikana kwenye mitandao, mbinu hizi hutumika katika sekta zote. Benki inaweza kutumia uchanganuzi wa programu hasidi unaoendeshwa na AI ili kuchanganua kwa haraka jumla inayotiliwa shaka katika lahajedwali, huku kampuni ya utengenezaji ikitegemea AI kugundua programu hasidi zinazolenga mifumo ya udhibiti wa viwanda. Kwa kuongeza uchanganuzi wa programu hasidi kwa kutumia AI inayozalisha, mashirika yanaweza kujibu kampeni za programu hasidi haraka na kwa umakini zaidi kuliko hapo awali.

Ujasusi wa Tishio na Uchambuzi wa Kiotomatiki

Kila siku, mashirika yanajawa na data za kijasusi za vitisho - kutoka kwa milisho ya viashiria vipya vya maelewano (IOCs) hadi ripoti za wachambuzi kuhusu mbinu za wavamizi wanaoibuka. Changamoto kwa timu za usalama ni kuchuja habari hizi nyingi na kupata maarifa yanayoweza kutekelezeka. Uzalishaji wa AI unaonekana kuwa wa thamani sana katika uchanganuzi na matumizi ya akili ya vitisho kiotomatiki . Badala ya kusoma mwenyewe ripoti kadhaa au maingizo ya hifadhidata, wachambuzi wanaweza kutumia AI kufupisha na kuweka muktadha wa tishio kwa kasi ya mashine.

Upelelezi cha Tishio cha Google , ambacho huunganisha AI generative (muundo wa Gemini) na hifadhidata za Google za data ya tishio kutoka Mandiant na VirusTotal. AI hii hutoa "utafutaji wa kimaongezi kwenye hazina kubwa ya Google ya akili tishio" , kuruhusu watumiaji kuuliza maswali ya asili kuhusu vitisho na kupata majibu yaliyopunguzwa ( Je, AI ya Kuzalisha Inawezaje Kutumika katika Usalama wa Mtandao? Mifano 10 ya Ulimwengu Halisi ). Kwa mfano, mchambuzi anaweza kuuliza, "Je, tumeona programu hasidi yoyote inayohusiana na Threat Group X inayolenga sekta yetu?" na AI itavuta akili inayofaa, labda ikibainisha “Ndiyo, Kikundi cha Tishio X kilihusishwa na kampeni ya kuhadaa ili kupata maelezo ya kibinafsi mwezi uliopita kwa kutumia programu hasidi Y” , pamoja na muhtasari wa tabia ya programu hasidi. Hii hupunguza sana muda wa kukusanya maarifa ambayo yangehitaji kuuliza zana nyingi au kusoma ripoti ndefu.

Uzalishaji wa AI pia unaweza kuoanisha na kutoa muhtasari wa mienendo ya vitisho . Inaweza kuchanganua maelfu ya machapisho ya blogu za usalama, habari za uvunjaji sheria, na gumzo la giza kwenye wavuti na kisha kutoa muhtasari mkuu wa "matishio makuu ya mtandao wiki hii" kwa muhtasari wa CISO. Kijadi, kiwango hiki cha uchambuzi na utoaji taarifa kilichukua juhudi kubwa za kibinadamu; sasa kielelezo kilichosanifiwa vizuri kinaweza kuitayarisha kwa sekunde, huku wanadamu wakiboresha matokeo pekee. Makampuni kama ZeroFox yametengeneza FoxGPT , zana ya kuzalisha ya AI iliyoundwa mahsusi "kuharakisha uchanganuzi na muhtasari wa akili katika seti kubwa za data," ikiwa ni pamoja na maudhui hasidi na data ya ulaghai ( Je, AI ya Kuzalisha Inaweza Kutumikaje Katika Usalama wa Mtandao? Mifano 10 ya Ulimwengu Halisi ). Kwa kuweka kiotomatiki unyanyuaji mzito wa data ya usomaji na marejeleo mtambuka, AI huwezesha timu tishio za intel kuzingatia kufanya maamuzi na kujibu.

Kesi nyingine ya utumiaji ni uwindaji wa vitisho kwa mazungumzo . Hebu fikiria mchambuzi wa usalama akishirikiana na msaidizi wa AI: "Nionyeshe dalili zozote za upekuzi wa data katika saa 48 zilizopita" au "Ni washambuliaji gani wapya wa hatari wanaotumia wiki hii?" AI inaweza kutafsiri swali, kutafuta kumbukumbu za ndani au vyanzo vya nje vya akili, na kujibu kwa jibu wazi au hata orodha ya matukio muhimu. Hili si jambo la kawaida - mifumo ya kisasa ya usimamizi wa taarifa za usalama na matukio (SIEM) inaanza kujumuisha maswali ya lugha asilia. Kitengo cha usalama cha QRadar cha IBM, kwa mfano, kinaongeza vipengele generative vya AI mwaka wa 2024 ili kuwaruhusu wachanganuzi "kuuliza […] maswali mahususi kuhusu muhtasari wa njia ya mashambulizi" ya tukio na kupata majibu ya kina. Inaweza pia "kutafsiri na kufupisha akili tishio muhimu" kiotomatiki ( Je, AI ya Kuzalisha Inawezaje Kutumika katika Usalama wa Mtandao? Mifano 10 ya Ulimwengu Halisi ). Kimsingi, AI ya uzalishaji hugeuza milima ya data ya kiufundi kuwa maarifa ya ukubwa wa gumzo inapohitajika.

Katika tasnia, hii ina athari kubwa. Mtoa huduma za afya anaweza kutumia AI kusasisha kuhusu vikundi vya hivi punde vya programu ya kukomboa vinavyolenga hospitali, bila kuweka wakfu mchambuzi kwa utafiti wa wakati wote. SOC ya kampuni ya rejareja inaweza kufanya muhtasari wa mbinu mpya za programu hasidi za POS kwa haraka wakati wa kutoa taarifa kwa wafanyakazi wa IT wa duka. Na serikalini, ambapo data ya vitisho kutoka kwa mashirika mbalimbali lazima iunganishwe, AI inaweza kutoa ripoti za umoja zinazoangazia maonyo muhimu. Kwa kuorodhesha mkusanyiko na tafsiri ya taarifa za vitisho , AI generative husaidia mashirika kuitikia kwa haraka vitisho vinavyojitokeza na kupunguza hatari ya kukosa maonyo muhimu yaliyofichwa kwenye kelele.

Uboreshaji wa Kituo cha Uendeshaji wa Usalama (SOC).

Vituo vya Uendeshaji wa Usalama vinajulikana kwa uchovu wa tahadhari na idadi kubwa ya data. Mchambuzi wa kawaida wa SOC anaweza kupitia maelfu ya arifa na matukio kila siku, akichunguza matukio yanayoweza kutokea. Generative AI inafanya kazi kama kizidishi cha nguvu katika SOC kwa kufanya kazi za kawaida kiotomatiki, kutoa muhtasari wa akili, na hata kupanga baadhi ya majibu. Kusudi ni kuboresha utiririshaji wa kazi wa SOC ili wachambuzi wa kibinadamu waweze kuzingatia maswala muhimu zaidi huku msaidizi wa AI akishughulikia mengine.

Programu moja kuu ni kutumia AI generative kama "Copilot's Analyst" . Copilot wa Usalama wa Microsoft, aliyetajwa awali, anatoa mfano wa hili: "imeundwa kusaidia kazi ya mchambuzi wa usalama badala ya kuibadilisha," kusaidia uchunguzi wa matukio na kuripoti ( Microsoft Security Copilot ni msaidizi mpya wa GPT-4 AI kwa usalama wa mtandao | The Verge ). Kwa mazoezi, hii inamaanisha kuwa mchambuzi anaweza kuingiza data ghafi - kumbukumbu za ngome, kalenda ya matukio, au maelezo ya tukio - na kuuliza AI kuichanganua au kuifupisha. Huenda rubani akatoa simulizi kama, "Inaonekana kuwa saa 2:35 asubuhi, kuingia kwa kutiliwa shaka kutoka kwa IP X kulifaulu kwenye Seva Y, na kufuatiwa na uhamishaji data usio wa kawaida, ikionyesha uwezekano wa ukiukaji wa seva hiyo." Aina hii ya muktadha wa papo hapo ni wa thamani sana wakati wakati ni wa asili.

Marubani wa AI pia husaidia kupunguza mzigo wa kiwango cha 1. Kulingana na data ya tasnia, timu ya usalama inaweza kutumia saa 15 kwa wiki kutafuta arifa 22,000 na chanya za uwongo ( Kesi 6 za Tumia kwa AI ya Kuzalisha katika Usalama wa Mtandao [+ Examples] ). Kwa AI ya uzalishaji, nyingi za arifa hizi zinaweza kutatuliwa kiotomatiki - AI inaweza kuondoa zile ambazo ni wazi wazi (na hoja zikitolewa) na kuangazia zile ambazo zinahitaji umakini, wakati mwingine hata kupendekeza kipaumbele. Kwa kweli, nguvu ya uzalishaji ya AI katika kuelewa muktadha inamaanisha inaweza kuhusisha arifa ambazo zinaweza kuonekana kuwa zisizo na madhara katika kutengwa lakini kwa pamoja zinaonyesha shambulio la hatua nyingi. Hii inapunguza nafasi ya kukosa shambulio kwa sababu ya "uchovu wa tahadhari."

Wachambuzi wa SOC pia wanatumia lugha asilia na AI ili kuharakisha uwindaji na uchunguzi. SentinelOne's Purple AI , linachanganya kiolesura cha msingi cha LLM na data ya usalama ya wakati halisi, ikiruhusu wachanganuzi "kuuliza maswali changamano ya kuwinda vitisho kwa Kiingereza kisicho na maana na kupata majibu ya haraka na sahihi" ( Je, AI ya Kuzalisha Inawezaje Kutumika katika Usalama wa Mtandao? Mifano 10 ya Ulimwengu Halisi ). Mchanganuzi anaweza kuandika, "Je, vidokezo vyovyote vimewasiliana na kikoa badguy123[.]com katika mwezi uliopita?" , na Purple AI itatafuta kumbukumbu ili kujibu. Hii inaokoa mchambuzi kutokana na kuandika maswali ya hifadhidata au hati - AI hufanya hivyo chini ya kofia. Pia inamaanisha kuwa wachanganuzi wachanga wanaweza kushughulikia kazi ambazo hapo awali zilihitaji mhandisi aliyebobea na mwenye ujuzi wa lugha za kuuliza maswali, na kuiboresha vyema timu kupitia usaidizi wa AI . Kwa hakika, wachambuzi wanaripoti kwamba mwongozo wa uzalishaji wa AI "huongeza ujuzi na ustadi wao" , kwani wafanyakazi wa chini sasa wanaweza kupata usaidizi wa usimbaji wanapohitaji au vidokezo vya uchanganuzi kutoka kwa AI, na hivyo kupunguza utegemezi wa kuuliza kila mara washiriki wa timu ya juu kwa usaidizi ( Kesi 6 za Tumia kwa AI ya Kuzalisha katika Usalama wa Mtandao [+ Mifano] ).

Uboreshaji mwingine wa SOC ni muhtasari wa matukio otomatiki na uwekaji kumbukumbu . Baada ya tukio kushughulikiwa, mtu lazima aandike ripoti - kazi ambayo wengi huona kuwa ya kuchosha. Uzalishaji wa AI unaweza kuchukua data ya kitaalamu (kumbukumbu za mfumo, uchanganuzi wa programu hasidi, kalenda ya matukio) na kutoa ripoti ya tukio la rasimu ya kwanza. IBM inajenga uwezo huu kuwa QRadar ili kwa "kubofyo mara moja" muhtasari wa tukio uweze kutolewa kwa wadau tofauti (wasimamizi, timu za TEHAMA, n.k.) ( Je, AI ya Kuzalisha Inawezaje Kutumika katika Usalama wa Mtandao? Mifano 10 ya Ulimwengu Halisi ). Hii sio tu kwamba inaokoa wakati lakini pia inahakikisha hakuna kitu kinachopuuzwa katika ripoti, kwani AI inaweza kujumuisha maelezo yote muhimu kila wakati. Vivyo hivyo, kwa kufuata na ukaguzi, AI inaweza kujaza fomu au meza za ushahidi kulingana na data ya tukio.

Matokeo ya ulimwengu wa kweli ni ya kulazimisha. Watumiaji wa mapema wa Swimlane's AI inayoendeshwa na SOAR (ochestration ya usalama, otomatiki, na majibu) wanaripoti faida kubwa za tija - Global Data Systems, kwa mfano, iliona timu yao ya SecOps ikisimamia mzigo mkubwa zaidi wa kesi; mkurugenzi mmoja alisema "ninachofanya leo nikiwa na wachambuzi 7 pengine kingechukua wafanyakazi 20 bila" mitambo ya kiotomatiki inayoendeshwa na AI ( Je, AI ya Kuzalisha Inawezaje Kutumika katika Usalama wa Mtandao ). Kwa maneno mengine, AI katika SOC inaweza kuzidisha uwezo . Katika tasnia nzima, iwe ni kampuni ya kiteknolojia inayoshughulika na arifa za usalama wa mtandaoni au kiwanda cha kutengeneza mifumo ya ufuatiliaji wa OT, timu za SOC zinasimama ili kupata ugunduzi na majibu haraka, matukio machache ambayo hayakukosekana, na utendakazi bora zaidi kwa kukumbatia wasaidizi wa AI wa uzalishaji. Ni kuhusu kufanya kazi kwa busara zaidi - kuruhusu mashine kushughulikia kazi zinazorudiwa na nzito za data ili wanadamu waweze kutumia angavu na utaalam wao pale ni muhimu zaidi.

Usimamizi wa Athari na Uigaji wa Tishio

Kutambua na kudhibiti udhaifu - udhaifu katika programu au mifumo ambayo washambuliaji wanaweza kutumia - ni kazi kuu ya usalama wa mtandao. AI ya Kuzalisha inaboresha udhibiti wa athari kwa kuharakisha ugunduzi, kusaidia kuweka vipaumbele, na hata kuiga mashambulizi dhidi ya udhaifu huo ili kuboresha utayari. Kimsingi, AI inasaidia mashirika kupata na kurekebisha mashimo kwenye silaha zao kwa haraka zaidi, na kwa bidii kabla ya washambuliaji halisi kufanya hivyo.

Programu moja muhimu ni kutumia AI generative kwa ukaguzi wa kiotomatiki wa msimbo na ugunduzi wa kuathirika . Misimbo mikubwa ya msimbo (hasa mifumo ya urithi) mara nyingi huwa na dosari za usalama ambazo hazitambuliki. Miundo ya Uzalishaji ya AI inaweza kufunzwa kuhusu mbinu salama za usimbaji na mifumo ya kawaida ya hitilafu, kisha kutolewa kwenye msimbo wa chanzo au jozi zilizokusanywa ili kupata udhaifu unaowezekana. Kwa mfano, watafiti wa NVIDIA walitengeneza bomba la kuzalisha la AI ambalo linaweza kuchanganua kontena za programu zilizopitwa na wakati na kutambua udhaifu "kwa usahihi wa hali ya juu - hadi 4× haraka kuliko wataalamu wa binadamu." ( Kesi 6 za Tumia kwa AI ya Kuzalisha katika Usalama wa Mtandao [+ Mifano] ). AI kimsingi ilijifunza jinsi msimbo usio salama unaonekana na iliweza kuchanganua kupitia programu ya miongo kadhaa ili kuripoti utendakazi hatari na maktaba, ikiharakisha sana mchakato wa kawaida wa polepole wa ukaguzi wa msimbo kwa mikono. Zana ya aina hii inaweza kubadilisha sana tasnia kama vile fedha au serikali inayotegemea misingi mikubwa ya zamani - AI husaidia kuboresha usalama kwa kuibua masuala ambayo huenda ikachukua miezi au miaka kupata wafanyakazi (ikiwa yatawahi kutokea).

AI ya Kuzalisha pia husaidia katika utiririshaji wa kazi wa usimamizi wa hatari kwa kuchakata matokeo ya skanning ya hatari na kuyapa kipaumbele. Zana kama vile Tenable's ExposureAI hutumia AI generative kuruhusu wachanganuzi kuuliza data ya athari katika lugha rahisi na kupata majibu ya papo hapo ( Je, AI ya Kuzalisha Inawezaje Kutumika katika Usalama wa Mtandao? Mifano 10 ya Ulimwengu Halisi ). ExposureAI inaweza "kufanya muhtasari wa njia kamili ya uvamizi katika simulizi" kwa uwezekano fulani wa hatari, ikieleza jinsi mshambulizi anavyoweza kuifungamanisha na udhaifu mwingine ili kuathiri mfumo. Hata inapendekeza hatua za kurekebisha na kujibu maswali ya ufuatiliaji kuhusu hatari. Hii inamaanisha wakati CVE mpya muhimu (Udhaifu na Ufichuaji wa Kawaida) inapotangazwa, mchambuzi anaweza kuuliza AI, "Je, seva zetu zozote zimeathiriwa na CVE hii na ni hali gani mbaya zaidi ikiwa hatutarekebisha?" na kupokea tathmini ya wazi inayotolewa kutoka kwa data ya skanisho ya shirika. Kwa kuweka udhaifu katika muktadha (kwa mfano, hii inaonyeshwa kwenye mtandao na seva ya thamani ya juu, kwa hivyo ni kipaumbele cha juu), AI ya uzalishaji husaidia timu kusawazisha kwa kutumia rasilimali chache.

Kando na kutafuta na kudhibiti udhaifu unaojulikana, AI generative huchangia katika majaribio ya kupenya na uigaji wa mashambulizi - kimsingi kugundua usiojulikana au kupima vidhibiti vya usalama. Mitandao ya adversarial generative (GANs), aina ya AI generative, imetumiwa kuunda data sanisi inayoiga trafiki halisi ya mtandao au tabia ya mtumiaji, ambayo inaweza kujumuisha mifumo fiche ya mashambulizi. Utafiti wa 2023 ulipendekeza kutumia GAN kuzalisha trafiki halisi ya mashambulizi ya siku sifuri ili kutoa mafunzo kwa mifumo ya kutambua uvamizi ( 6 Use Cases for Generative AI in Cybersecurity [+ Examples] ). Kwa kulisha IDS kwa matukio ya mashambulizi yaliyoundwa na AI (ambayo haihatarishi kutumia programu hasidi halisi kwenye mitandao ya uzalishaji), mashirika yanaweza kutoa mafunzo kwa ulinzi wao kutambua vitisho vipya bila kusubiri kupigwa navyo katika hali halisi. Vile vile, AI inaweza kuiga mvamizi anayechunguza mfumo - kwa mfano, kujaribu kiotomatiki mbinu mbalimbali za unyonyaji katika mazingira salama ili kuona kama kuna yeyote atafaulu. Wakala wa Miradi ya Utafiti wa Kina wa Ulinzi wa Marekani (DARPA) unaona ahadi hapa: AI Cyber ​​Challenge yake ya 2023 hutumia kwa uwazi AI generative (kama vile modeli kubwa za lugha) "kupata na kurekebisha kiotomatiki udhaifu katika programu huria" kama sehemu ya shindano ( DARPA Inalenga Kuendeleza AI, Maombi ya Kujiendesha ya AI > Idara ya Ulinzi ya Marekani > Wapiganaji wa Idara ya Ulinzi ya Marekani wanaweza Kuamini ). Mpango huu unasisitiza kwamba AI haisaidii tu kuweka viraka mashimo yanayojulikana; inafichua mapya na kupendekeza marekebisho, kazi ambayo kwa kawaida ni ya watafiti wa usalama wenye ujuzi (na wa gharama kubwa).

AI ya kuzalisha inaweza hata kuunda vyungu vya asali na mapacha ya kidijitali kwa ajili ya ulinzi. Waanzishaji wanaunda mifumo ya udanganyifu inayoendeshwa na AI ambayo inaiga seva au vifaa vya kweli. Kama Mkurugenzi Mtendaji mmoja alivyoeleza, AI ya uzalishaji inaweza "kuunganisha mifumo ya dijitali ili kuiga mifumo halisi na kuwarubuni wadukuzi" ( Kesi 6 za Tumia kwa AI ya Kuzalisha katika Usalama wa Mtandao [+ Examples] ). Vyungu hivi vya asali vinavyozalishwa na AI vinafanya kazi kama mazingira halisi (sema, kifaa ghushi cha IoT kinachotuma telemetry ya kawaida) lakini vinapatikana ili kuvutia wavamizi pekee. Mshambulizi anapolenga udanganyifu, AI imewalaghai kufichua mbinu zao, ambazo watetezi wanaweza kuzisoma na kuzitumia kuimarisha mifumo halisi. Dhana hii, inayoendeshwa na uundaji generative, hutoa njia ya kutazama mbele ya kuwasha meza washambuliaji , kwa kutumia udanganyifu unaoimarishwa na AI.

Katika tasnia zote, usimamizi wa hatari na wa haraka zaidi unamaanisha ukiukaji mdogo. Katika huduma ya afya ya IT, kwa mfano, AI inaweza kuona kwa haraka maktaba iliyopitwa na wakati katika kifaa cha matibabu na kuuliza kurekebisha kabla ya mvamizi yeyote kuitumia vibaya. Katika benki, AI inaweza kuiga shambulio la ndani kwa programu mpya ili kuhakikisha data ya mteja inabaki salama chini ya hali zote. Uzalishaji wa AI kwa hivyo hufanya kazi kama darubini na kipima mfadhaiko kwa mkao wa usalama wa mashirika: huangazia dosari zilizofichwa na kushinikiza mifumo katika njia za kiwazi ili kuhakikisha uthabiti.

Uzalishaji wa Msimbo salama na Ukuzaji wa Programu

Vipawa vya Generative AI havikomei katika kugundua mashambulizi - pia vinaenea hadi kuunda mifumo salama zaidi tangu mwanzo . Katika uundaji wa programu, jenereta za msimbo wa AI (kama vile GitHub Copilot, OpenAI Codex, n.k.) zinaweza kusaidia wasanidi programu kuandika msimbo haraka zaidi kwa kupendekeza vijisehemu vya msimbo au hata vitendaji vyote. Pembe ya usalama wa mtandao inahakikisha kuwa vipande hivi vya msimbo vinavyopendekezwa na AI ni salama na vinatumia AI kuboresha mbinu za usimbaji.

Kwa upande mmoja, AI ya kuzalisha inaweza kufanya kama msaidizi wa usimbaji ambao hupachika mbinu bora za usalama . Wasanidi programu wanaweza kuuliza zana ya AI, "Tengeneza utendakazi wa kuweka upya nenosiri katika Python," na kwa hakika kupata msimbo ambao haufanyi kazi tu bali pia unafuata miongozo salama (km uthibitishaji sahihi wa ingizo, ukataji miti, kushughulikia makosa bila kuvuja maelezo, n.k.). Msaidizi kama huyo, aliyefunzwa kwa mifano ya kina ya nambari salama, anaweza kusaidia kupunguza makosa ya kibinadamu ambayo husababisha udhaifu. Kwa mfano, ikiwa msanidi programu atasahau kusafisha ingizo la mtumiaji (kufungua mlango wa sindano ya SQL au masuala sawa), AI inaweza kujumuisha hiyo kwa chaguo-msingi au kuwaonya. Baadhi ya zana za usimbaji za AI sasa zinarekebishwa vyema na data inayozingatia usalama ili kutimiza lengo hili haswa - kimsingi, upangaji wa AI uliooanishwa na dhamiri ya usalama .

Hata hivyo, kuna upande mwingine: AI ya kuzalisha inaweza kutambulisha udhaifu kwa urahisi ikiwa haitatawaliwa ipasavyo. Kama mtaalam wa usalama wa Sophos Ben Verschaeren alivyobainisha, kutumia AI generative kwa usimbaji "ni sawa kwa msimbo mfupi, unaoweza kuthibitishwa, lakini ni hatari wakati msimbo ambao haujachaguliwa unaunganishwa" katika mifumo ya uzalishaji. Hatari ni kwamba AI inaweza kutoa nambari sahihi ya kimantiki ambayo haina usalama kwa njia ambazo mtu asiye mtaalam anaweza asitambue. Zaidi ya hayo, watendaji hasidi wanaweza kuathiri kimakusudi miundo ya umma ya AI kwa kuziweka katika mifumo hatarishi ya misimbo (aina ya sumu ya data) ili AI ipendekeze msimbo usio salama. Wasanidi wengi si wataalam wa usalama , kwa hivyo ikiwa AI inapendekeza suluhisho linalofaa, wanaweza kuitumia kwa upofu, bila kutambua ina dosari ( 6 Tumia Kesi za AI ya Kuzalisha katika Usalama wa Mtandao [+ Examples] ). Wasiwasi huu ni wa kweli - kwa kweli, kuna orodha 10 ya Juu ya OWASP sasa ya LLMs (mifumo ya lugha kubwa) ambayo inaangazia hatari za kawaida kama hii katika kutumia AI kwa usimbaji.

Ili kukabiliana na masuala haya, wataalam wanapendekeza "kupambana na AI generative na AI generative" katika nyanja ya usimbaji. Kwa mazoezi, hiyo inamaanisha kutumia AI kukagua na kujaribu nambari ambayo AI wengine (au wanadamu) waliandika. AI inaweza kuchanganua kupitia msimbo mpya hufanya kazi haraka zaidi kuliko mkaguzi wa kanuni za kibinadamu na kuripoti udhaifu au masuala ya mantiki. Tayari tunaona zana zikiibuka ambazo huunganishwa katika mzunguko wa maisha ya usanidi wa programu: msimbo huandikwa (labda kwa usaidizi wa AI), kisha kielelezo zalishaji kilichofunzwa kuhusu kanuni salama za msimbo huikagua na kutoa ripoti ya maswala yoyote (sema, matumizi ya vitendaji vilivyoacha kutumika, hundi zinazokosekana za uthibitishaji, n.k.). Utafiti wa NVIDIA, uliotajwa awali, uliofanikisha ugunduzi wa uwezekano wa 4× haraka zaidi katika msimbo ni mfano wa kutumia AI kwa uchanganuzi salama wa msimbo ( Kesi 6 za Tumia kwa AI ya Kuzalisha katika Usalama wa Mtandao [+ Examples] ).

Zaidi ya hayo, AI ya kuzalisha inaweza kusaidia katika kuunda usanidi salama na hati . Kwa mfano, ikiwa kampuni inahitaji kupeleka miundombinu salama ya wingu, mhandisi anaweza kuuliza AI itengeneze hati za usanidi (Miundombinu kama Kanuni) yenye vidhibiti vya usalama (kama vile ugawaji sahihi wa mtandao, majukumu ya IAM yenye upendeleo mdogo) uliowekwa. AI, ikiwa imefunzwa maelfu ya usanidi kama huo, inaweza kutoa kiboreshaji cha msingi kisha mhandisi. Hii huharakisha usanidi salama wa mifumo na hupunguza makosa ya usanidi - chanzo cha kawaida cha matukio ya usalama wa wingu.

Mashirika mengine pia yanatumia AI ya uzalishaji ili kudumisha msingi wa maarifa wa mifumo salama ya usimbaji. Ikiwa msanidi hana uhakika jinsi ya kutekeleza kipengele fulani kwa usalama, anaweza kuuliza AI ya ndani ambayo imejifunza kutoka kwa miradi na miongozo ya usalama ya awali ya kampuni. AI inaweza kurudisha mbinu inayopendekezwa au hata kijisehemu cha msimbo ambacho kinalingana na mahitaji ya utendaji kazi na viwango vya usalama vya kampuni. Mbinu hii imetumiwa na zana kama vile Hojaji ya Uendeshaji ya Secureframe , ambayo hutoa majibu kutoka kwa sera za kampuni na masuluhisho ya awali ili kuhakikisha majibu thabiti na sahihi (haswa kutoa hati salama) ( Je, AI ya Kuzalisha Inaweza Kutumikaje Katika Usalama wa Mtandao? Mifano 10 ya Ulimwengu Halisi ). Dhana hutafsiriwa kuwa usimbaji: AI ambayo "hukumbuka" jinsi ulivyotekeleza jambo kwa usalama hapo awali na kukuongoza kulifanya hivyo tena.

Kwa muhtasari, AI generative inaathiri uundaji wa programu kwa kufanya usaidizi salama wa usimbaji kufikiwa zaidi . Sekta zinazounda programu nyingi maalum - teknolojia, fedha, ulinzi, n.k. - zitanufaika kutokana na kuwa na nakala za AI ambazo sio tu zinaharakisha uwekaji usimbaji bali hufanya kama wakaguzi makini wa usalama. Zinaposimamiwa ipasavyo, zana hizi za AI zinaweza kupunguza utangulizi wa udhaifu mpya na kusaidia timu za maendeleo kuzingatia mbinu bora, hata kama timu haina mtaalamu wa usalama anayehusika katika kila hatua. Matokeo yake ni programu ambayo ni imara zaidi dhidi ya mashambulizi kutoka siku ya kwanza.

Msaada wa Majibu ya Tukio

Wakati tukio la usalama wa mtandao linapotokea - iwe mlipuko wa programu hasidi, uvunjaji wa data, au kukatika kwa mfumo kutokana na shambulio - wakati ni muhimu. Generative AI inazidi kutumiwa kusaidia timu za kukabiliana na matukio (IR) katika kujumuisha na kurekebisha matukio kwa haraka na kukiwa na taarifa zaidi. Wazo ni kwamba AI inaweza kubeba baadhi ya mzigo wa uchunguzi na hati wakati wa tukio, na hata kupendekeza au kuelekeza vitendo vingine vya majibu.

Jukumu moja kuu la AI katika IR ni uchanganuzi wa matukio ya wakati halisi na muhtasari . Katikati ya tukio, wanaojibu wanaweza kuhitaji majibu kwa maswali kama vile "Mshambulizi aliingiaje?" , "Ni mifumo gani iliyoathiriwa?" , na "Ni data gani inaweza kuathiriwa?" . Uzalishaji wa AI unaweza kuchanganua kumbukumbu, arifa na data ya kitaalamu kutoka kwa mifumo iliyoathiriwa na kutoa maarifa kwa haraka. Kwa mfano, Copilot wa Usalama wa Microsoft huruhusu jibu la tukio kulisha katika vipande mbalimbali vya ushahidi (faili, URL, kumbukumbu za matukio) na kuomba rekodi ya matukio au muhtasari ( Microsoft Security Copilot ni msaidizi mpya wa GPT-4 AI kwa usalama wa mtandao | The Verge ). AI inaweza kujibu kwa kusema: "Ukiukaji huo huenda ulianza kwa barua pepe ya kuhadaa ili kupata maelezo ya kibinafsi kwa mtumiaji JohnDoe saa 10:53 GMT iliyo na programu hasidi X. Mara tu ilipotekelezwa, programu hasidi iliunda mlango wa nyuma ambao ulitumiwa siku mbili baadaye kusogezwa kando hadi kwenye seva ya fedha, ambapo ilikusanya data." Kuwa na picha hii thabiti kwa dakika badala ya saa huwezesha timu kufanya maamuzi sahihi (kama vile mifumo ya kutenga) kwa haraka zaidi.

AI ya kuzalisha inaweza pia kupendekeza hatua za kuzuia na kurekebisha . Kwa mfano, ikiwa sehemu ya mwisho imeambukizwa na programu ya kuokoa, zana ya AI inaweza kutengeneza hati au seti ya maagizo ya kutenga mashine hiyo, kuzima akaunti fulani na kuzuia IPs hasidi zinazojulikana kwenye ngome - kimsingi utekelezaji wa kitabu cha kucheza. Palo Alto Networks inabainisha kuwa AI inayozalisha ina uwezo wa "kuzalisha vitendo au hati zinazofaa kulingana na hali ya tukio" , automatiska hatua za awali za majibu ( Je, AI ya Uzalishaji katika Cybersecurity ni nini? - Mitandao ya Palo Alto ). Katika hali ambapo timu ya usalama imezidiwa (sema shambulio lililoenea katika mamia ya vifaa), AI inaweza hata kutekeleza moja kwa moja baadhi ya vitendo hivi chini ya masharti yaliyoidhinishwa awali, ikifanya kama jibu la chini ambalo hufanya kazi bila kuchoka. Kwa mfano, wakala wa AI anaweza kuweka upya kitambulisho kiotomatiki anachoona kuwa kiliingiliwa au kuwaweka karantini waandaji ambao wanaonyesha shughuli hasidi zinazolingana na wasifu wa tukio.

Wakati wa majibu ya tukio, mawasiliano ni muhimu - ndani ya timu na kwa washikadau. Uzalishaji wa AI unaweza kusaidia kwa kuandaa ripoti za masasisho ya matukio au muhtasari wa kuruka . Badala ya mhandisi kusimamisha utatuzi wao ili kuandika sasisho la barua pepe, wanaweza kuuliza AI, "Fanya muhtasari wa kile kilichotokea katika tukio hili hadi sasa ili kuwajulisha watendaji." AI, baada ya kumeza data ya tukio, inaweza kutoa muhtasari mfupi: "Kufikia saa 3 usiku, wavamizi wamefikia akaunti 2 za watumiaji na seva 5. Data iliyoathiriwa inajumuisha rekodi za mteja katika hifadhidata X. Hatua za ujumuishaji: Ufikiaji wa VPN kwa akaunti zilizoathiriwa umebatilishwa na seva zimetengwa. Hatua zinazofuata: kuchanganua mbinu zozote za kudumu." Kisha anayejibu anaweza kuthibitisha au kurekebisha hili kwa haraka na kulituma, akihakikisha kuwa washikadau wanadumishwa na taarifa sahihi, za kila dakika.

Baada ya vumbi kutua, kwa kawaida kuna ripoti ya kina ya tukio ya kutayarishwa na mafunzo tuliyojifunza kujumuisha. Hili ni eneo lingine ambalo msaada wa AI huangaza. Inaweza kukagua data yote ya tukio na kutoa ripoti ya baada ya tukio inayojumuisha chanzo, mpangilio wa matukio, athari na mapendekezo. IBM, kwa mfano, inaunganisha AI ya uzalishaji ili kuunda "muhtasari rahisi wa kesi za usalama na matukio ambayo yanaweza kushirikiwa na wadau" kwa kubonyeza kitufe ( Je, AI ya Kuzalisha Inawezaje Kutumika katika Usalama wa Mtandao? Mifano 10 ya Ulimwengu Halisi ). Kwa kurahisisha kuripoti baada ya hatua, mashirika yanaweza kutekeleza maboresho haraka na pia kuwa na hati bora kwa madhumuni ya kufuata.

Matumizi moja ya kibunifu ya kutazamia mbele ni uigaji wa matukio yanayoendeshwa na AI . Sawa na jinsi mtu anavyoweza kuendesha zoezi la kuzima moto, baadhi ya makampuni yanatumia AI generative ili kupitia matukio ya "nini-kama". AI inaweza kuiga jinsi programu ya ukombozi inaweza kuenea kutokana na mpangilio wa mtandao, au jinsi mtu wa ndani anavyoweza kuchuja data, na kisha kupata ufanisi wa mipango ya sasa ya majibu. Hii husaidia timu kuandaa na kuboresha vitabu vya michezo kabla ya tukio la kweli kutokea. Ni kama kuwa na mshauri wa kukabiliana na matukio ambaye hujaribu kila mara utayari wako.

Katika tasnia zenye viwango vya juu kama vile fedha au huduma ya afya, ambapo muda wa chini au upotezaji wa data kutokana na matukio ni wa gharama kubwa sana, uwezo huu wa IR unaoendeshwa na AI unavutia sana. Hospitali inayokumbwa na tukio la mtandaoni haiwezi kumudu kukatika kwa mfumo kwa muda mrefu - AI ambayo husaidia haraka kuzuia inaweza kuokoa maisha. Vile vile, taasisi ya kifedha inaweza kutumia AI kushughulikia jaribio la awali la uvamizi unaoshukiwa kuwa wa ulaghai saa 3 asubuhi, ili kufikia wakati watu wanaopiga simu wako mtandaoni, mambo mengi ya msingi (kuondoa akaunti zilizoathiriwa, kuzuia miamala, n.k.) tayari yanafanywa. Kwa kuongeza timu za kukabiliana na matukio kwa kutumia AI ya kuzalisha , mashirika yanaweza kupunguza kwa kiasi kikubwa nyakati za majibu na kuboresha ushughulikiaji wao kamili, na hatimaye kupunguza uharibifu kutokana na matukio ya mtandao.

Uchanganuzi wa Tabia na Utambuzi wa Anomaly

Mashambulizi mengi ya mtandao yanaweza kupatikana kwa kutambua wakati kitu kinapokengeuka kutoka kwa tabia ya "kawaida" - iwe ni akaunti ya mtumiaji inayopakua kiasi kisicho cha kawaida cha data au kifaa cha mtandao kinachowasiliana ghafla na mwenyeji asiyemfahamu. Uzalishaji wa AI hutoa mbinu za kina za uchanganuzi wa tabia na ugunduzi wa hitilafu , kujifunza mifumo ya kawaida ya watumiaji na mifumo na kisha kuripoti kitu kinapotokea.

Ugunduzi wa kawaida wa hitilafu mara nyingi hutumia viwango vya juu vya takwimu au ujifunzaji rahisi wa mashine kwenye vipimo mahususi (mwinuko wa matumizi ya CPU, kuingia kwa saa zisizo za kawaida, n.k.). AI ya kuzalisha inaweza kuchukua hii zaidi kwa kuunda maelezo mafupi zaidi ya tabia. Kwa mfano, muundo wa AI unaweza kumeza kumbukumbu, mifumo ya ufikiaji wa faili, na tabia za barua pepe za mfanyakazi kwa muda na kuunda uelewa wa pande nyingi wa "kawaida" ya mtumiaji huyo. Ikiwa akaunti hiyo baadaye itafanya jambo lililo nje ya kawaida yake (kama vile kuingia kutoka nchi mpya na kupata faili nyingi za Utumishi usiku wa manane), AI ingegundua kupotoka sio tu kwenye kipimo kimoja lakini kama muundo mzima wa tabia ambao haulingani na wasifu wa mtumiaji. Kwa maneno ya kiufundi, miundo zalishaji (kama vile visimbaji kiotomatiki au miundo ya mfuatano) inaweza kuiga jinsi "kawaida" inavyoonekana na kisha kuzalisha aina mbalimbali za tabia zinazotarajiwa. Wakati uhalisia upo nje ya safu hiyo, hualamishwa kama hitilafu ( Je! Ni Nini AI ya Kuzalisha katika Usalama wa Mtandao? - Palo Alto Networks ).

Utekelezaji mmoja wa vitendo ni katika ufuatiliaji wa trafiki wa mtandao . Kulingana na uchunguzi wa 2024, 54% ya mashirika ya Marekani yalitaja ufuatiliaji wa trafiki ya mtandao kama kesi ya juu ya matumizi ya AI katika usalama wa mtandao ( Amerika ya Kaskazini: matukio ya juu ya matumizi ya AI katika usalama wa mtandao duniani kote 2024 ). AI ya kuzalisha inaweza kujifunza mifumo ya kawaida ya mawasiliano ya mtandao wa biashara - ambayo seva kwa kawaida huzungumza, ni kiasi gani cha data husogezwa wakati wa saa za kazi dhidi ya usiku mmoja, n.k. Mshambulizi akianza kuchuja data kutoka kwa seva, hata polepole ili kuepusha kutambuliwa, mfumo unaotegemea AI unaweza kutambua kuwa "Seva A haitumii 500MB ya data kwenye IP ya nje" na kuongeza IP ya nje ya 2 AM. Kwa sababu AI haitumii tu sheria tuli lakini muundo unaobadilika wa tabia ya mtandao, inaweza kupata hitilafu fiche ambazo sheria tuli (kama vile "tahadhari ikiwa data > MB X") zinaweza kukosa au kuripoti kimakosa. Hali hii ya kubadilika ndiyo inayofanya ugunduzi wa hitilafu unaoendeshwa na AI kuwa na nguvu katika mazingira kama vile mitandao ya miamala ya benki, miundombinu ya wingu, au makundi ya vifaa vya IoT, ambapo kufafanua sheria zisizobadilika kwa kawaida dhidi ya isiyo ya kawaida ni ngumu sana.

Generative AI pia inasaidia na uchanganuzi wa tabia ya watumiaji (UBA) , ambayo ni muhimu katika kugundua vitisho vya watu wa ndani au akaunti zilizoathiriwa. Kwa kutengeneza msingi wa kila mtumiaji au huluki, AI inaweza kugundua vitu kama vile matumizi mabaya ya kitambulisho. Kwa mfano, ikiwa Bob kutoka kwa uhasibu ataanza kuuliza ghafula hifadhidata ya wateja (jambo ambalo hajawahi kufanya hapo awali), mfano wa AI wa tabia ya Bob utaashiria hii kama isiyo ya kawaida. Huenda isiwe programu hasidi - inaweza kuwa kesi ya kitambulisho cha Bob kuibiwa na kutumiwa na mshambuliaji, au Bob akichunguza mahali ambapo hatakiwi kufanya hivyo. Vyovyote vile, timu ya usalama inapata taarifa za kuchunguza. Mifumo kama hiyo ya UBA inayoendeshwa na AI inapatikana katika bidhaa mbalimbali za usalama, na mbinu za uundaji mzalishaji zinasukuma usahihi wake juu na kupunguza kengele za uwongo kwa kuzingatia muktadha (labda Bob yuko kwenye mradi maalum, n.k., ambao AI wakati mwingine inaweza kukisia kutoka kwa data nyingine).

Katika nyanja ya utambulisho na udhibiti wa ufikiaji, ugunduzi wa uwongo wa kina ni hitaji linaloongezeka - AI ya uzalishaji inaweza kuunda sauti na video za sintetiki zinazopumbaza usalama wa kibayometriki. Jambo la kufurahisha ni kwamba, AI ya kuzalisha inaweza pia kusaidia kugundua bandia hizi za kina kwa kuchanganua vizalia vya siri katika sauti au video ambavyo ni vigumu kwa binadamu kutambua. Tuliona mfano wa Accenture, ambao ulitumia AI generative kuiga sura na hali nyingi za uso ili kutoa mafunzo kwa mifumo yao ya kibayometriki ili kutofautisha watumiaji halisi na bandia za kina zinazozalishwa na AI. Kwa zaidi ya miaka mitano, mbinu hii ilisaidia Accenture kuondoa manenosiri kwa 90% ya mifumo yake (kuhamia bayometriki na mambo mengine) na kupunguza mashambulizi kwa 60% ( Kesi 6 za Tumia kwa AI ya Kuzalisha katika Usalama wa Mtandao [+ Examples] ). Kimsingi, walitumia AI ya kuzalisha ili kuimarisha uthibitishaji wa kibayometriki, na kuifanya iwe imara dhidi ya mashambulizi ya kuzalisha (kielelezo kikubwa cha AI inayopigana na AI). Aina hii ya kielelezo cha kitabia - katika kesi hii kutambua tofauti kati ya uso wa mwanadamu hai dhidi ya ulioundwa na AI - ni muhimu kwani tunategemea zaidi AI katika uthibitishaji.

Ugunduzi wa hitilafu unaoendeshwa na AI generative unatumika katika sekta zote: katika huduma ya afya, ufuatiliaji wa tabia ya kifaa cha matibabu kwa dalili za udukuzi; katika fedha, kuangalia mifumo ya biashara kwa mifumo isiyo ya kawaida ambayo inaweza kuonyesha ulaghai au upotoshaji wa algorithmic; katika nishati/huduma, kuangalia ishara za mfumo wa udhibiti kwa ishara za kuingiliwa. Mchanganyiko wa upana (kuangalia vipengele vyote vya tabia) na kina (kuelewa mifumo changamano) ambayo AI generative hutoa huifanya chombo chenye uwezo wa kugundua viashirio vya sindano kwenye nyasi za tukio la mtandao. Vitisho vinapokuwa vya siri, vikijificha kati ya shughuli za kawaida, uwezo huu wa kubainisha kwa usahihi "kawaida" na kupiga kelele wakati kitu kinapokengeuka kuwa muhimu. Uzalishaji wa AI kwa hivyo hutumika kama mtumaji asiyechoka, anayejifunza na kusasisha kila wakati ufafanuzi wake wa hali ya kawaida ili kuendana na mabadiliko katika mazingira, na kuziarifu timu za usalama kuhusu hitilafu zinazostahili kuchunguzwa kwa karibu.

Fursa na Manufaa ya AI ya Kuzalisha katika Usalama wa Mtandao

Utumiaji wa AI ya uzalishaji katika usalama wa mtandao huleta fursa nyingi na manufaa kwa mashirika ambayo yana nia ya kukumbatia zana hizi. Hapo chini, tunatoa muhtasari wa manufaa muhimu ambayo hufanya AI ya uzalishaji kuwa nyongeza ya kulazimisha kwa programu za usalama wa mtandao:

  • Utambuzi wa Tishio na Majibu ya Haraka: Mifumo ya AI inayozalisha inaweza kuchanganua kiasi kikubwa cha data kwa wakati halisi na kutambua vitisho kwa haraka zaidi kuliko uchambuzi wa kibinadamu. Faida hii ya kasi inamaanisha ugunduzi wa mapema wa mashambulizi na kuzuia matukio ya haraka. Kwa mazoezi, ufuatiliaji wa usalama unaoendeshwa na AI unaweza kupata vitisho ambavyo vinaweza kuchukua wanadamu muda mrefu zaidi kuunganishwa. Kwa kujibu matukio mara moja (au hata kutekeleza majibu ya awali kwa uhuru), mashirika yanaweza kupunguza kwa kiasi kikubwa muda wa kukaa kwa washambuliaji kwenye mitandao yao, na kupunguza uharibifu.

  • Usahihi Ulioboreshwa na Ushughulikiaji wa Tishio: Kwa sababu wanajifunza kila mara kutoka kwa data mpya, miundo zalishaji inaweza kukabiliana na vitisho vinavyoendelea na kupata ishara fiche za shughuli hasidi. Hii husababisha kuboreshwa kwa usahihi wa ugunduzi (hasi hasi chache za uwongo na chanya za uwongo) ikilinganishwa na sheria tuli. Kwa mfano, AI ambayo imejifunza sifa kuu za barua pepe ya ulaghai au tabia ya programu hasidi inaweza kutambua vibadala ambavyo havijawahi kuonekana hapo awali. Matokeo yake ni chanjo pana zaidi ya aina za vitisho - ikiwa ni pamoja na mashambulizi mapya - kuimarisha mkao wa usalama wa jumla. Timu za usalama pia hupata maarifa ya kina kutoka kwa uchanganuzi wa AI (kwa mfano maelezo ya tabia ya programu hasidi), kuwezesha ulinzi sahihi zaidi na unaolengwa ( Je, AI ya Kuzalisha ni Nini katika Usalama wa Mtandao? - Palo Alto Networks ).

  • Uendeshaji wa Majukumu Yanayojirudia: AI ya Kuzalisha inafaulu katika utaratibu wa kiotomatiki, kazi za usalama zinazohitaji nguvu kazi kubwa - kutoka kwa kuchana magogo na kuandaa ripoti hadi kuandika hati za majibu ya matukio. Uendeshaji huu wa kiotomatiki hupunguza mzigo kwa wachambuzi wa kibinadamu , na kuwaweka huru kuzingatia mkakati wa hali ya juu na uamuzi mgumu ( Je! Uzalishaji wa AI katika Usalama wa Mtandao ni Nini? - Mitandao ya Palo Alto ). Kazi za kawaida lakini muhimu kama vile kuchanganua uwezekano wa kuathiriwa, ukaguzi wa usanidi, uchanganuzi wa shughuli za mtumiaji, na kuripoti utiifu zinaweza kushughulikiwa (au angalau kuratibiwa kwanza) na AI. Kwa kushughulikia kazi hizi kwa kasi ya mashine, AI sio tu inaboresha ufanisi lakini pia inapunguza makosa ya kibinadamu (sababu kubwa katika uvunjaji).

  • Ulinzi Endelevu na Uigaji: AI ya Kuzalisha huruhusu mashirika kuhama kutoka kwa utendakazi hadi usalama tendaji. Kupitia mbinu kama vile uigaji wa mashambulizi, uundaji wa data sintetiki, na mafunzo kulingana na hali, watetezi wanaweza kutarajia na kujiandaa kwa vitisho kabla ya kutokea katika ulimwengu halisi. Timu za usalama zinaweza kuiga mashambulizi ya mtandaoni (kampeni za kuhadaa ili kupata maelezo ya kibinafsi, milipuko ya programu hasidi, DDoS, n.k.) katika mazingira salama ili kujaribu majibu yao na kurekebisha udhaifu wowote. Mafunzo haya yanayoendelea, ambayo mara nyingi hayawezekani kufanywa kikamilifu kwa juhudi za kibinadamu, huweka ulinzi mkali na wa kisasa. Ni sawa na "kuchimba moto" mtandaoni - AI inaweza kutupa vitisho vingi vya dhahania kwenye ulinzi wako ili uweze kufanya mazoezi na kuboresha.

  • Kuongeza Utaalam wa Kibinadamu (AI kama Kizidishi cha Nguvu): Uzalishaji wa AI hufanya kazi kama mchanganuzi mdogo asiyechoka, mshauri na msaidizi aliyewekwa ndani moja. Inaweza kuwapa washiriki wa timu walio na uzoefu mdogo mwongozo na mapendekezo ambayo kwa kawaida hutarajiwa kutoka kwa wataalamu waliobobea, na kuleta utaalam kwa ufanisi katika timu nzima ( Kesi 6 za Tumia kwa AI ya Kuzalisha katika Usalama wa Mtandao [+ Examples] ). Hili ni muhimu sana kwa kuzingatia uhaba wa talanta katika usalama wa mtandao - AI husaidia timu ndogo kufanya mengi na kidogo. Wachambuzi wenye uzoefu, kwa upande mwingine, wananufaika na kazi ya AI ya kushughulikia miguno na kutoa maarifa yasiyo dhahiri, ambayo wanaweza kuyathibitisha na kuyafanyia kazi. Matokeo ya jumla ni timu ya usalama ambayo ina tija zaidi na yenye uwezo zaidi, huku AI ikikuza athari za kila mwanabinadamu ( Je, AI ya Kuzalisha Inawezaje Kutumika katika Usalama wa Mtandao ).

  • Usaidizi wa Uamuzi Ulioimarishwa na Kuripoti: Kwa kutafsiri data ya kiufundi katika maarifa ya lugha asilia, AI ya uzalishaji huboresha mawasiliano na kufanya maamuzi. Viongozi wa usalama hupata mwonekano wazi zaidi katika masuala kupitia muhtasari unaozalishwa na AI na wanaweza kufanya maamuzi ya kimkakati yenye ujuzi bila kuhitaji kuchanganua data mbichi. Vile vile, mawasiliano ya kiutendaji (kwa watendaji, maafisa wa kufuata, n.k.) huboreshwa wakati AI inapotayarisha ripoti zinazoeleweka kwa urahisi za mkao wa usalama na matukio ( AI ya Kuzalisha Inawezaje Kutumika katika Usalama wa Mtandao? Mifano 10 ya Ulimwengu Halisi ). Hii sio tu inajenga imani na upatanishi katika masuala ya usalama katika ngazi ya uongozi lakini pia husaidia kuhalalisha uwekezaji na mabadiliko kwa kueleza wazi hatari na mapengo yaliyogunduliwa na AI.

Kwa pamoja, manufaa haya yanamaanisha kuwa mashirika yanayotumia AI ya uzalishaji katika usalama wa mtandao yanaweza kufikia mkao thabiti wa usalama na uwezekano wa gharama za chini za uendeshaji. Wanaweza kujibu vitisho ambavyo hapo awali vilikuwa vingi sana, kufunika mapengo ambayo hayakufuatiliwa, na kuendelea kuboresha kupitia misururu ya maoni inayoendeshwa na AI. Hatimaye, AI generative inatoa fursa ya kuwatangulia wapinzani kwa kulinganisha kasi, ukubwa, na uchangamano wa mashambulizi ya kisasa yenye ulinzi wa hali ya juu sawa. Kama utafiti mmoja ulivyogundua, zaidi ya nusu ya viongozi wa biashara na mtandao wanatarajia ugunduzi wa haraka wa tishio na kuongezeka kwa usahihi kupitia matumizi ya AI generative ( [PDF] Global Cybersecurity Outlook 2025 | World Economic Forum ) ( AI ya Kuzalisha katika Usalama wa Mtandao: Mapitio ya Kina ya LLM ... ) - ushuhuda wa matumaini kuhusu manufaa ya teknolojia hizi.

Hatari na Changamoto za Kutumia AI ya Kuzalisha katika Usalama wa Mtandao

Ingawa fursa ni muhimu, ni muhimu kukaribia AI ya uzalishaji katika usalama wa mtandao kwa macho wazi kwa hatari na changamoto zinazohusika. Kuamini AI kwa upofu au kuitumia vibaya kunaweza kuanzisha udhaifu mpya. Hapo chini, tunaangazia maswala makuu na mitego, pamoja na muktadha wa kila moja:

  • Matumizi ya Kiadui na Wahalifu wa Mtandao: Uwezo sawa wa kuzalisha ambao husaidia watetezi unaweza kuwawezesha washambuliaji. Waigizaji wa vitisho tayari wanatumia AI kuu kuunda barua pepe za kuhadaa za kuhadaa zaidi, kuunda watu bandia na video bandia za kina za uhandisi wa kijamii, kuunda programu hasidi za aina nyingi ambazo hubadilika kila mara ili kukwepa kutambuliwa, na hata kubinafsisha vipengele vya udukuzi ( Je, AI ya Kuzalisha ni Nini katika Usalama wa Mtandao? - Mitandao ya Palo Alto ). Takriban nusu (46%) ya viongozi wa usalama wa mtandao wana wasiwasi kuwa AI generative itasababisha mashambulizi ya juu zaidi ya adui ( Usalama wa AI unaozalisha: Mielekeo, Vitisho & Mikakati ya Kupunguza ). “Mbio hizi za silaha za AI” inamaanisha kuwa watetezi wanapotumia AI, washambuliaji hawatakuwa nyuma (kwa hakika, wanaweza kuwa mbele katika baadhi ya maeneo, kwa kutumia zana zisizodhibitiwa za AI). Mashirika lazima yawe tayari kwa vitisho vilivyoimarishwa AI ambavyo ni vya mara kwa mara, vya kisasa, na vigumu kufuatilia.

  • Udanganyifu na Ukosefu wa Usahihi wa AI: Miundo ya Uzalishaji ya AI inaweza kutoa matokeo ambayo yanakubalika lakini yasiyo sahihi au ya kupotosha - jambo linalojulikana kama uvumbuzi. Katika muktadha wa usalama, AI inaweza kuchanganua tukio na kuhitimisha kimakosa kuwa sababu fulani ya hatari ndiyo iliyosababisha, au inaweza kutoa hati yenye dosari ya urekebishaji ambayo inashindwa kuwa na shambulio. Makosa haya yanaweza kuwa hatari ikiwa yatachukuliwa kwa thamani ya usoni. Kama Data ya NTT inavyoonya, "AI generative inaweza kutoa maudhui yasiyo ya kweli, na jambo hili linaitwa maonesho... kwa sasa ni vigumu kuliondoa kabisa" ( Hatari za Usalama za AI na Vipimo vya Kukabiliana na Uzalishaji, na Athari Zake kwa Usalama wa Mtandao | Kikundi cha DATA cha NTT ). Kuegemea kupita kiasi kwa AI bila uthibitishaji kunaweza kusababisha juhudi zisizoelekezwa au hisia ya uwongo ya usalama. Kwa mfano, AI inaweza kuripoti kwa uwongo mfumo muhimu kuwa salama wakati sivyo, au kinyume chake, kuzua hofu kwa "kugundua" ukiukaji ambao haujawahi kutokea. Uthibitishaji mkali wa matokeo ya AI na kuwa na wanadamu katika kitanzi kwa maamuzi muhimu ni muhimu ili kupunguza hatari hii.

  • Chanya na Hasi za Uongo: Kuhusiana na maono, ikiwa muundo wa AI haujafunzwa vyema au umesanidiwa, unaweza kuripoti zaidi shughuli mbaya kuwa mbaya (chanya zisizo za kweli) au, mbaya zaidi, kukosa vitisho halisi (hasi zisizo za kweli) ( Je! AI ya Kuzalisha Inawezaje Kutumika katika Usalama wa Mtandao ). Arifa nyingi za uwongo zinaweza kulemea timu za usalama na kusababisha uchovu wa tahadhari (kutengua manufaa ya ufanisi ambayo AI iliahidi), huku ugunduzi ambao haukufanyika huacha shirika wazi. Kurekebisha mifano ya uzalishaji kwa usawa sahihi ni changamoto. Kila mazingira ni ya kipekee, na AI inaweza isifanye vyema mara moja nje ya boksi. Kuendelea kujifunza ni upanga wenye makali kuwili pia - ikiwa AI itajifunza kutokana na maoni ambayo yamepotoshwa au kutoka kwa mazingira yanayobadilika, usahihi wake unaweza kubadilikabadilika. Timu za usalama lazima zifuatilie utendakazi wa AI na kurekebisha vizingiti au kutoa maoni ya kurekebisha kwa miundo. Katika miktadha ya hali ya juu (kama vile ugunduzi wa uvamizi wa miundombinu muhimu), inaweza kuwa busara kutekeleza mapendekezo ya AI sambamba na mifumo iliyopo kwa muda, ili kuhakikisha kuwa yanalingana na kutimiza badala ya migogoro.

  • Faragha na Uvujaji wa Data: Mifumo ya Uzalishaji ya AI mara nyingi huhitaji kiasi kikubwa cha data kwa mafunzo na uendeshaji. Iwapo miundo hii inategemea wingu au haijawekwa kwenye bonde ipasavyo, kuna hatari kwamba maelezo nyeti yanaweza kuvuja. Watumiaji wanaweza kulisha data ya umiliki au data ya kibinafsi katika huduma ya AI bila kukusudia (fikiria kuuliza ChatGPT ifanye muhtasari wa ripoti ya tukio la siri), na data hiyo inaweza kuwa sehemu ya maarifa ya modeli. Hakika, utafiti wa hivi majuzi uligundua 55% ya ingizo kwa zana genereshi za AI zilikuwa na taarifa nyeti au zinazoweza kutambulika kibinafsi , jambo lililozua wasiwasi mkubwa kuhusu kuvuja kwa data ( Usalama wa AI Unaozalisha: Mielekeo, Vitisho & Mikakati ya Kupunguza ). Zaidi ya hayo, ikiwa AI imefunzwa kuhusu data ya ndani na kuulizwa kwa njia fulani, inaweza kutoa vipande vya data hiyo nyeti kwa mtu mwingine. Ni lazima mashirika yatekeleze sera kali za kushughulikia data (km kutumia matukio ya AI ya ndani au ya faragha kwa nyenzo nyeti) na kuwaelimisha wafanyakazi kuhusu kutobandika taarifa za siri kwenye zana za umma za AI. Kanuni za faragha (GDPR, n.k.) pia zinatumika - kutumia data ya kibinafsi kutoa mafunzo kwa AI bila idhini ifaayo au ulinzi unaweza kukiuka sheria.

  • Usalama wa Mfano na Udanganyifu: Aina za AI za Kuzalisha zenyewe zinaweza kuwa shabaha. Wapinzani wanaweza kujaribu sumu ya modeli , kulisha data hasidi au potofu wakati wa mafunzo au awamu ya mafunzo upya ili AI ijifunze mifumo isiyo sahihi ( Je, AI ya Kuzalisha Inawezaje Kutumika katika Usalama wa Mtandao ). Kwa mfano, mshambulizi anaweza kutia tishio kwa data ya intel ili AI ishindwe kutambua programu hasidi ya mshambulizi kuwa ni mbaya. Mbinu nyingine ni udungaji wa haraka au upotoshaji wa matokeo , ambapo mshambulizi hutafuta njia ya kutoa maingizo kwa AI ambayo yanasababisha kutenda kwa njia zisizotarajiwa - labda kupuuza miiko yake ya usalama au kufichua maelezo ambayo hatakiwi kufanya (kama vile vidokezo vya ndani au data). Zaidi ya hayo, kuna hatari ya kukwepa mfano : washambuliaji wanaunda ingizo iliyoundwa mahsusi kudanganya AI. Tunaona hili katika mifano pinzani - data iliyochanganyikiwa kidogo ambayo mwanadamu huona kuwa ya kawaida lakini AI inaainisha vibaya. Kuhakikisha kuwa msururu wa usambazaji wa AI ni salama (uadilifu wa data, udhibiti wa ufikiaji wa kielelezo, majaribio ya uimara wa adui) ni sehemu mpya lakini muhimu ya usalama wa mtandao wakati wa kusambaza zana hizi ( Je, AI ya Kuzalisha ni Nini katika Usalama wa Mtandao? - Mitandao ya Palo Alto ).

  • Kuegemea Zaidi na Mmomonyoko wa Ustadi: Kuna hatari ndogo zaidi kwamba mashirika yanaweza kutegemea AI na kuruhusu ujuzi wa binadamu kudhoofika. Iwapo wachambuzi wadogo watakuja kuamini matokeo ya AI kwa upofu, wanaweza wasijenge fikra muhimu na angavu zinazohitajika wakati AI haipatikani au ina makosa. Hali ya kuepuka ni timu ya usalama ambayo ina zana bora lakini haijui jinsi ya kufanya kazi ikiwa zana hizo zitapungua (sawa na marubani wanaotegemea sana majaribio ya kiotomatiki). Mazoezi ya mara kwa mara ya mafunzo bila usaidizi wa AI na kukuza mawazo kwamba AI ni msaidizi, sio oracle isiyoweza kukosea, ni muhimu ili kuwaweka wachambuzi wa kibinadamu mkali. Wanadamu lazima wabaki kuwa watoa maamuzi wa mwisho, haswa kwa maamuzi yenye athari kubwa.

  • Changamoto za Kimaadili na Uzingatiaji: Matumizi ya AI katika usalama wa mtandao huibua maswali ya kimaadili na inaweza kusababisha masuala ya uzingatiaji wa udhibiti. Kwa mfano, ikiwa mfumo wa AI unahusisha mfanyakazi kimakosa kama mtu wa ndani hasidi kutokana na hitilafu, inaweza kuharibu sifa au kazi ya mtu huyo isivyo haki. Maamuzi yaliyofanywa na AI yanaweza kuwa ya wazi (tatizo la "sanduku jeusi"), na kufanya iwe vigumu kueleza wakaguzi au wasimamizi kwa nini hatua fulani zilichukuliwa. Kadiri maudhui yanayotokana na AI yanavyozidi kuenea, ni muhimu kuhakikisha uwazi na kudumisha uwajibikaji. Wadhibiti wanaanza kuchunguza AI - Sheria ya AI ya EU, kwa mfano, itaweka mahitaji kwenye mifumo ya AI "hatari kubwa", na AI ya usalama wa mtandao inaweza kuanguka katika kitengo hicho. Kampuni zitahitaji kupitia kanuni hizi na ikiwezekana zifuate viwango kama vile Mfumo wa Kudhibiti Hatari wa NIST AI ili kutumia AI generative kwa kuwajibika ( Je, AI ya Kuzalisha Inawezaje Kutumika katika Usalama wa Mtandao? Mifano 10 ya Ulimwengu Halisi ). Utiifu unaenea hadi kwenye utoaji leseni pia: kutumia vyanzo huria au miundo ya watu wengine kunaweza kuwa na masharti ambayo yanazuia matumizi fulani au kuhitaji uboreshaji wa kushiriki.

Kwa muhtasari, AI inayozalisha si risasi ya fedha - ikiwa haitatekelezwa kwa uangalifu, inaweza kuanzisha udhaifu mpya hata inapotatua wengine. Utafiti wa Jukwaa la Kiuchumi la Dunia la 2024 uliangazia kwamba ~ 47% ya mashirika yanataja maendeleo ya AI generative na wavamizi kama jambo la msingi, na kuifanya "athari inayohusu zaidi ya AI generative" katika usalama wa mtandao ( [PDF] Global Cybersecurity Outlook 2025 | World Economic Forum ) ( AI ya Kuzalisha katika Mapitio ya Mtandaoni ya LLM ). Kwa hivyo mashirika lazima yachukue mkabala uliosawazishwa: kuongeza manufaa ya AI huku yakidhibiti hatari hizi kwa njia ya utawala, majaribio, na uangalizi wa kibinadamu. Tutajadili jinsi ya kufikia usawa huo kivitendo.

Mtazamo wa Baadaye: Jukumu la Kuzalisha la AI katika Usalama wa Mtandao

Tukiangalia mbeleni, AI ya uzalishaji iko tayari kuwa sehemu muhimu ya mkakati wa usalama wa mtandao - na vile vile, zana ambayo wapinzani wa mtandao wataendelea kutumia. paka -na-panya itaongeza kasi, na AI kwenye pande zote za uzio. Hapa ni baadhi ya maarifa ya mbeleni kuhusu jinsi AI ya kuzalisha inaweza kuunda usalama wa mtandao katika miaka ijayo:

  • Ulinzi wa Mtandao Ulioboreshwa wa AI Unakuwa Kiwango: Kufikia 2025 na kuendelea, tunaweza kutarajia kwamba mashirika mengi ya kati hadi makubwa yatakuwa yamejumuisha zana zinazoendeshwa na AI katika shughuli zao za usalama. Kama vile kinga-virusi na ngome ni za kawaida leo, marubani wa AI na mifumo ya kugundua hitilafu inaweza kuwa vipengele vya msingi vya usanifu wa usalama. Zana hizi zinaweza kuwa maalum zaidi - kwa mfano, miundo mahususi ya AI iliyosanifiwa vyema kwa usalama wa wingu, kwa ufuatiliaji wa kifaa cha IoT, usalama wa msimbo wa programu, na kadhalika, zote zikifanya kazi kwa tamasha. Kama utabiri mmoja unavyobainisha, "mwaka wa 2025, AI inayozalisha itakuwa muhimu kwa usalama wa mtandao, kuwezesha mashirika kutetea dhidi ya vitisho vya kisasa na vinavyoendelea kwa vitendo" ( Je ! AI itaboresha ugunduzi wa tishio la wakati halisi, kubadilisha vitendo vingi vya majibu kiotomatiki, na kusaidia timu za usalama kudhibiti idadi kubwa zaidi ya data kuliko zingeweza wenyewe.

  • Kuendelea Kujifunza na Kujirekebisha: Mifumo ya baadaye ya AI inayozalisha katika mtandao itakuwa bora katika kujifunza kwa kuruka kutoka kwa matukio mapya na akili tishio, kusasisha msingi wao wa maarifa katika muda halisi. Hii inaweza kusababisha ulinzi unaoweza kubadilika - fikiria AI ambayo inajifunza kuhusu kampeni mpya ya kuhadaa ili kupata maelezo ya kibinafsi kugonga kampuni nyingine asubuhi na kufikia alasiri tayari imerekebisha vichujio vya barua pepe vya kampuni yako ili kujibu. Huduma za usalama za AI inayotokana na wingu zinaweza kuwezesha aina hii ya mafunzo ya pamoja, ambapo maarifa yasiyotambulisha utambulisho kutoka kwa shirika moja huwanufaisha waliojisajili (sawa na vitisho vya kushiriki katika akaunti, lakini ya kiotomatiki). Hata hivyo, hii itahitaji kushughulikia kwa uangalifu ili kuepuka kushiriki maelezo nyeti na kuzuia wavamizi wasitumie data mbaya katika miundo inayoshirikiwa.

  • Muunganiko wa AI na Talanta ya Usalama Mtandaoni: Seti ya ujuzi ya wataalamu wa usalama wa mtandao itabadilika ili kujumuisha ujuzi katika AI na sayansi ya data. Kama vile wachambuzi wa leo hujifunza lugha za maswali na uandishi, wachambuzi wa kesho wanaweza kurekebisha miundo ya AI mara kwa mara au kuandika "vitabu vya kucheza" ili AI itekeleze. Huenda tukaona majukumu mapya kama vile “Mkufunzi wa Usalama wa AI” au “Mhandisi wa Usalama wa Mtandao wa AI” - watu wanaobobea katika kurekebisha zana za AI kulingana na mahitaji ya shirika, kuthibitisha utendakazi wao na kuhakikisha zinafanya kazi kwa usalama. Kwa upande mwingine, masuala ya usalama wa mtandao yatazidi kuathiri maendeleo ya AI. Mifumo ya AI itaundwa kwa vipengele vya usalama kuanzia chini (usanifu salama, ugunduzi wa uharibifu, kumbukumbu za ukaguzi wa maamuzi ya AI, n.k.), na mifumo ya AI ya kuaminika (ya haki, inayoeleweka, thabiti na salama) itaongoza utumiaji wake katika miktadha muhimu ya usalama.

  • Mashambulizi ya Kisasa Zaidi ya AI: Kwa bahati mbaya, mazingira ya tishio pia yatabadilika na AI. Tunatarajia matumizi ya mara kwa mara ya AI kugundua udhaifu wa siku sifuri, kuunda wizi unaolengwa sana wa kutumia mikuki (km AI inafuta mitandao ya kijamii ili kuunda chambo kinachofaa kikamilifu), na kutoa sauti au video za kina za kushawishi ili kukwepa uthibitishaji wa kibayometriki au kuendeleza ulaghai. Mawakala wa udukuzi wa kiotomatiki wanaweza kuibuka ambao wanaweza kutekeleza mashambulizi ya hatua mbalimbali kwa kujitegemea (upelelezi, unyonyaji, harakati za upande, n.k.) kwa uangalizi mdogo wa binadamu. Hii itashinikiza watetezi pia kutegemea AI - kimsingi otomatiki dhidi ya otomatiki . Mashambulizi mengine yanaweza kutokea kwa kasi ya mashine, kama roboti za AI kujaribu vibali elfu vya barua pepe za kuhadaa ili kuona ni ipi inayopata vichujio vya zamani. Ulinzi wa mtandao utahitaji kufanya kazi kwa kasi sawa na kunyumbulika ili kuendelea ( Je, AI ya Kuzalisha ni Nini katika Usalama wa Mtandao? - Mitandao ya Palo Alto ).

  • Udhibiti na Maadili AI katika Usalama: AI inapojikita zaidi katika utendaji wa usalama wa mtandao, kutakuwa na uchunguzi zaidi na ikiwezekana udhibiti ili kuhakikisha mifumo hii ya AI inatumika kwa uwajibikaji. Tunaweza kutarajia mifumo na viwango maalum kwa AI katika usalama. Serikali zinaweza kuweka miongozo ya uwazi - kwa mfano, kuhitaji kwamba maamuzi muhimu ya usalama (kama vile kukomesha ufikiaji wa mfanyakazi kwa shughuli zinazoshukiwa kuwa mbaya) hayawezi kufanywa na AI pekee bila ukaguzi wa kibinadamu. Kunaweza pia kuwa na uidhinishaji wa bidhaa za usalama za AI, ili kuwahakikishia wanunuzi kwamba AI imetathminiwa kwa upendeleo, uimara na usalama. Zaidi ya hayo, ushirikiano wa kimataifa unaweza kukua karibu na vitisho vya mtandao vinavyohusiana na AI; kwa mfano, makubaliano ya kushughulikia taarifa potofu zilizoundwa na AI au kanuni dhidi ya silaha fulani za mtandao zinazoendeshwa na AI.

  • Muunganisho na Mifumo Mipana ya AI na IT: AI ya Uzalishaji katika usalama wa mtandao inaweza kuunganishwa na mifumo mingine ya AI na zana za usimamizi wa TEHAMA. Kwa mfano, AI inayodhibiti uboreshaji wa mtandao inaweza kufanya kazi na AI ya usalama ili kuhakikisha mabadiliko hayafungui mianya. Uchanganuzi wa biashara unaoendeshwa na AI unaweza kushiriki data na AI za usalama ili kuoanisha hitilafu (kama vile kushuka kwa ghafla kwa mauzo na suala linalowezekana la tovuti kutokana na shambulio). Kimsingi, AI haitaishi kwenye ghala - itakuwa sehemu ya muundo wa akili zaidi wa shughuli za shirika. Hii hufungua fursa za udhibiti kamili wa hatari ambapo data ya uendeshaji, data ya tishio, na hata data ya usalama halisi inaweza kuunganishwa na AI ili kutoa mtazamo wa digrii 360 wa mkao wa usalama wa shirika.

Kwa muda mrefu, matumaini ni kwamba AI generative itasaidia kuelekeza usawa kwa ajili ya watetezi. Kwa kushughulikia ukubwa na ugumu wa mazingira ya kisasa ya IT, AI inaweza kufanya anga ya mtandao kuwa ya kulindwa zaidi. Hata hivyo, ni safari, na kutakuwa na maumivu tunapoboresha teknolojia hizi na kujifunza kuziamini ipasavyo. Mashirika ambayo yanasalia na habari na kuwekeza katika kupitishwa kwa AI kwa usalama kuna uwezekano kuwa ndio walio katika nafasi nzuri ya kukabiliana na vitisho vya siku zijazo.

Kama ripoti ya hivi majuzi ya mwenendo wa usalama wa mtandao wa Gartner ilivyobainisha, "kuibuka kwa matukio ya matumizi ya AI ya kuzalisha (na hatari) kunaleta shinikizo la mabadiliko" ( Mielekeo ya Usalama wa Mtandao: Resilience Through Transformation - Gartner ). Wale wanaobadilika watatumia AI kama mshirika mwenye nguvu; wale wanaochelewa wanaweza kujikuta wamezidiwa nguvu na wapinzani waliowezeshwa na AI. Miaka michache ijayo itakuwa wakati muhimu katika kufafanua jinsi AI inaunda upya uwanja wa vita wa mtandao.

Njia Zinazofaa za Kupitisha AI ya Kuzalisha katika Usalama wa Mtandao

Kwa biashara zinazotathmini jinsi ya kuongeza AI ya uzalishaji katika mkakati wao wa usalama wa mtandao, hapa kuna baadhi ya vidokezo na mapendekezo ya vitendo ili kuongoza upitishwaji unaowajibika na unaofaa:

  1. Anza na Elimu na Mafunzo: Hakikisha timu yako ya usalama (na wafanyakazi wa TEHAMA) wanaelewa kile ambacho AI ya uzalishaji inaweza na haiwezi kufanya. Toa mafunzo juu ya misingi ya zana za usalama zinazoendeshwa na AI na usasishe programu zako za uhamasishaji wa usalama kwa wafanyikazi wote ili kufidia vitisho vinavyowezeshwa na AI. Kwa mfano, wafundishe wafanyakazi jinsi AI inaweza kuzalisha ulaghai wa kuhadaa na kupiga simu za kina. Sambamba na hilo, wafunze wafanyakazi juu ya matumizi salama na yaliyoidhinishwa ya zana za AI katika kazi zao. Watumiaji walio na ufahamu wa kutosha wana uwezekano mdogo wa kutumia AI vibaya au kuwa wahasiriwa wa mashambulizi yaliyoimarishwa AI ( AI ya Kuzalisha Inawezaje Kutumika katika Usalama wa Mtandao? Mifano 10 ya Ulimwengu Halisi ).

  2. Bainisha Sera za Matumizi ya AI: Tibu AI generative kama teknolojia yoyote yenye nguvu - kwa utawala. Tengeneza sera zinazobainisha ni nani anayeweza kutumia zana za AI, zana zipi zimeidhinishwa na kwa madhumuni gani. Jumuisha miongozo ya kushughulikia data nyeti (km kutowasilisha data ya siri kwenye huduma za nje za AI) ili kuzuia uvujaji. Kwa mfano, unaweza kuruhusu wanachama wa timu ya usalama pekee kutumia msaidizi wa ndani wa AI kwa majibu ya matukio, na uuzaji unaweza kutumia AI iliyohakikiwa kwa maudhui - kila mtu amewekewa vikwazo. Mashirika mengi sasa yanashughulikia kwa uwazi AI genereta katika sera zao za TEHAMA, na mashirika yanayoongoza viwango yanahimiza sera za matumizi salama badala ya kupiga marufuku moja kwa moja ( Je, AI ya Kuzalisha Inawezaje Kutumika katika Usalama wa Mtandao? Mifano 10 ya Ulimwengu Halisi ). Hakikisha kuwasiliana na sheria hizi na mantiki nyuma yao kwa wafanyakazi wote.

  3. Punguza “AI ya Kivuli” na Ufuatilie Matumizi: Sawa na kivuli cha IT, “kivuli AI” hutokea wafanyakazi wanapoanza kutumia zana au huduma za AI bila ujuzi wa IT (km msanidi akitumia msaidizi wa msimbo wa AI ambaye hajaidhinishwa). Hii inaweza kuanzisha hatari zisizoonekana. Tekeleza hatua za kugundua na kudhibiti matumizi ya AI ambayo hayajaidhinishwa . Ufuatiliaji wa mtandao unaweza kuripoti miunganisho kwa API maarufu za AI, na tafiti au ukaguzi wa zana unaweza kugundua kile ambacho wafanyikazi wanatumia. Toa njia mbadala zilizoidhinishwa ili wafanyakazi wenye nia njema wasishawishiwe kufanya uhuni (kwa mfano, toa akaunti rasmi ya ChatGPT Enterprise ikiwa watu wataona kuwa ni muhimu). Kwa kuleta matumizi ya AI kwenye mwanga, timu za usalama zinaweza kutathmini na kudhibiti hatari. Ufuatiliaji pia ni muhimu - weka kumbukumbu za shughuli za zana za AI na matokeo kadiri inavyowezekana, kwa hivyo kuna njia ya ukaguzi ya maamuzi ambayo AI iliathiriwa ( Je, AI ya Kuzalisha Inawezaje Kutumika katika Usalama wa Mtandao? Mifano 10 ya Ulimwengu Halisi ).

  4. Tumia AI kwa Kujilinda - Usirudi Nyuma: Tambua kuwa washambuliaji watatumia AI, kwa hivyo utetezi wako unapaswa pia. Tambua maeneo machache yenye athari ya juu ambapo AI generative inaweza kusaidia mara moja shughuli zako za usalama (labda utatuzi wa arifa, au uchanganuzi wa kumbukumbu otomatiki) na kuendesha miradi ya majaribio. Ongeza ulinzi wako kwa kasi na kiwango cha AI ili kukabiliana na matishio ya mwendo kasi ( Uzalishaji wa AI Inawezaje Kutumika katika Usalama wa Mtandao? Mifano 10 ya Ulimwengu Halisi ). Hata miunganisho rahisi, kama vile kutumia AI kufupisha ripoti za programu hasidi au kutoa maswali ya uwindaji wa vitisho, inaweza kuokoa saa za wachambuzi. Anza kidogo, tathmini matokeo, na urudie. Mafanikio yataunda kesi ya kupitishwa kwa AI kwa upana. Lengo ni kutumia AI kama kizidishi cha nguvu - kwa mfano, ikiwa mashambulizi ya hadaa yanajaza dawati lako la usaidizi, tuma kiainishi cha barua pepe cha AI ili kupunguza sauti hiyo kikamilifu.

  5. Wekeza katika Mazoea ya Usalama na Maadili ya AI: Wakati wa kutekeleza AI generative, fuata mazoea salama ya uendelezaji na usambazaji. Tumia miundo ya faragha au inayopangishwa binafsi kwa kazi nyeti ili kuhifadhi udhibiti wa data. Iwapo unatumia huduma za AI za watu wengine, kagua hatua zao za usalama na faragha (usimbaji fiche, sera za kuhifadhi data, n.k.). Jumuisha mifumo ya usimamizi wa hatari ya AI (kama vile Mfumo wa Usimamizi wa Hatari wa AI wa NIST au mwongozo wa ISO/IEC) ili kushughulikia kwa utaratibu mambo kama vile upendeleo, kueleweka, na uimara katika zana zako za AI ( Je, AI ya Kuzalisha Inawezaje Kutumika katika Usalama wa Mtandao? Mifano 10 ya Ulimwengu Halisi ). Pia panga masasisho au viraka kama sehemu ya urekebishaji - miundo ya AI inaweza kuwa na "udhaifu" pia (km inaweza kuhitaji kujizoeza ikiwa itaanza kuelea au ikiwa aina mpya ya mashambulizi dhidi ya muundo itagunduliwa). Kwa kuweka usalama na maadili katika matumizi yako ya AI, unajenga imani katika matokeo na kuhakikisha uzingatiaji wa kanuni zinazojitokeza.

  6. Weka Wanadamu Katika Kitanzi: Tumia AI kusaidia, sio kuchukua nafasi kabisa, uamuzi wa kibinadamu katika usalama wa mtandao. Amua sehemu za maamuzi ambapo uthibitishaji wa kibinadamu unahitajika (kwa mfano, AI inaweza kuandaa ripoti ya tukio, lakini mchambuzi huikagua kabla ya usambazaji; au AI inaweza kupendekeza kuzuia akaunti ya mtumiaji, lakini mwanadamu anaidhinisha hatua hiyo). Hii sio tu inazuia hitilafu za AI kutoka bila kuchunguzwa, lakini pia husaidia timu yako kujifunza kutoka kwa AI na kinyume chake. Himiza mtiririko wa kazi shirikishi: wachanganuzi wanapaswa kujisikia vizuri kuhoji matokeo ya AI na kufanya ukaguzi wa utimamu. Baada ya muda, mazungumzo haya yanaweza kuboresha AI (kupitia maoni) na ujuzi wa wachambuzi. Kimsingi, tengeneza michakato yako ili AI na nguvu za kibinadamu zikamilishane - AI hushughulikia sauti na kasi, wanadamu hushughulikia utata na maamuzi ya mwisho.

  7. Pima, Fuatilia, na Urekebishe: Mwishowe, chukulia zana zako genereshi za AI kama sehemu hai za mfumo wako wa ikolojia wa usalama. Endelea kupima utendakazi wao - je, wanapunguza nyakati za majibu ya matukio? Je, unapata vitisho mapema? Je, kiwango cha chanya cha uongo kinavuma vipi? Omba maoni kutoka kwa timu: je, mapendekezo ya AI yanafaa, au yanaleta kelele? Tumia vipimo hivi kuboresha miundo, kusasisha data ya mafunzo, au kurekebisha jinsi AI inavyounganishwa. Vitisho vya mtandao na mahitaji ya biashara hubadilika, na miundo yako ya AI inapaswa kusasishwa au kufunzwa upya mara kwa mara ili kufanya kazi vizuri. Kuwa na mpango wa usimamizi wa kielelezo, ikijumuisha ni nani anawajibika kuutunza na ni mara ngapi unakaguliwa. Kwa kudhibiti kikamilifu mzunguko wa maisha wa AI, unahakikisha inasalia kuwa mali, sio dhima.

Kwa kumalizia, AI ya kuzalisha inaweza kuongeza kwa kiasi kikubwa uwezo wa usalama wa mtandao, lakini kupitishwa kwa mafanikio kunahitaji mipango ya kufikiria na uangalizi unaoendelea. Biashara zinazoelimisha watu wao, kuweka miongozo iliyo wazi, na kuunganisha AI kwa usawa, njia salama zitapata thawabu za udhibiti wa vitisho haraka na nadhifu. Njia hizo za kuchukua hutoa ramani ya barabara: kuchanganya utaalam wa binadamu na otomatiki wa AI, kufunika misingi ya utawala, na kudumisha wepesi kadri teknolojia ya AI na mazingira tishio yanavyobadilika.

Kwa kuchukua hatua hizi za vitendo, mashirika yanaweza kujibu swali kwa ujasiri "Je, AI ya uzalishaji inawezaje kutumika katika usalama wa mtandao?" - si kwa nadharia tu, bali katika mazoezi ya kila siku - na hivyo kuimarisha ulinzi wao katika ulimwengu wetu unaozidi kuwa wa kidijitali na unaoendeshwa na AI. ( Jinsi gani AI ya Kuzalisha Inaweza Kutumika katika Usalama wa Mtandao )

Karatasi nyeupe ambazo unaweza kupenda kusoma baada ya hii:

🔗 Kazi Ambazo AI Haiwezi Kuchukua Nafasi na Je, AI Itachukua Nafasi ya Kazi Gani?
Gundua mtazamo wa kimataifa kuhusu majukumu ambayo ni salama kutokana na uwekaji kiotomatiki na yapi si salama.

🔗 Je, AI Inaweza Kutabiri Soko la Hisa?
Kuangalia kwa karibu mapungufu, mafanikio, na hadithi kuhusu uwezo wa AI wa kutabiri hatua za soko.

🔗 Je, AI ya Kuzalisha Inaweza Kutegemewa Kufanya Nini Bila Kuingilia kati kwa Binadamu?
Elewa ambapo AI inaweza kufanya kazi kwa kujitegemea na ambapo uangalizi wa binadamu bado ni muhimu.

Rudi kwenye blogu