Mtaalamu wa usalama wa mtandao akichambua vitisho kwa kutumia zana za AI za uzalishaji.

Je, AI ya Kuzalisha Inaweza Kutumikaje katika Usalama wa Mtandaoni?

Utangulizi

AI ya Uzazi - mifumo ya akili bandia yenye uwezo wa kuunda maudhui au utabiri mpya - inaibuka kama nguvu ya mabadiliko katika usalama wa mtandao. Zana kama vile GPT-4 ya OpenAI zimeonyesha uwezo wa kuchambua data changamano na kutoa maandishi kama ya kibinadamu, na kuwezesha mbinu mpya za kujilinda dhidi ya vitisho vya mtandao. Wataalamu wa usalama wa mtandao na watunga maamuzi wa biashara katika tasnia zote wanachunguza jinsi AI ya Uzazi inavyoweza kuimarisha ulinzi dhidi ya mashambulizi yanayobadilika. Kuanzia fedha na huduma ya afya hadi rejareja na serikali, mashirika katika kila sekta yanakabiliwa na majaribio ya ulaghai, programu hasidi, na vitisho vingine ambavyo AI ya Uzazi inaweza kusaidia kukabiliana navyo. Katika karatasi hii nyeupe, tunachunguza jinsi AI ya Uzazi inavyoweza kutumika katika usalama wa mtandao , tukiangazia matumizi halisi, uwezekano wa siku zijazo, na mambo muhimu ya kuzingatia ili kupitishwa.

AI ya kuzalisha hutofautiana na AI ya uchambuzi wa jadi kwa sio tu kugundua mifumo lakini pia kuunda maudhui - iwe ni kuiga mashambulizi ili kutoa mafunzo kwa ulinzi au kutoa maelezo ya lugha asilia kwa data changamano ya usalama. Uwezo huu wa pande mbili huifanya kuwa upanga wenye makali kuwili: hutoa zana mpya zenye nguvu za kujilinda, lakini watendaji wa vitisho wanaweza kuitumia pia. Sehemu zifuatazo zinachunguza anuwai ya matumizi ya AI ya kuzalisha katika usalama wa mtandao, kuanzia kugundua hadaa kiotomatiki hadi kuboresha mwitikio wa matukio. Pia tunajadili faida ambazo uvumbuzi huu wa AI unaahidi, pamoja na hatari (kama vile "njozi" za AI au matumizi mabaya ya wapinzani) ambazo mashirika lazima yadhibiti. Mwishowe, tunatoa vidokezo vya vitendo ili kusaidia biashara kutathmini na kuingiza AI ya kuzalisha katika mikakati yao ya usalama wa mtandao.

AI ya Kuzalisha katika Usalama wa Mtandaoni: Muhtasari

AI ya Uzalishaji katika usalama wa mtandao inarejelea mifumo ya AI - mara nyingi mifumo mikubwa ya lugha au mitandao mingine ya neva - ambayo inaweza kutoa maarifa, mapendekezo, msimbo, au hata data ya sintetiki ili kusaidia katika kazi za usalama. Tofauti na mifumo ya utabiri tu, AI ya Uzalishaji inaweza kuiga matukio na kutoa matokeo yanayoweza kusomwa na binadamu (km ripoti, arifa, au hata sampuli mbaya za msimbo) kulingana na data yake ya mafunzo. Uwezo huu unatumiwa kutabiri , kugundua, na kujibu vitisho kwa njia zenye nguvu zaidi kuliko hapo awali ( AI ya Uzalishaji ni Nini katika Usalama wa Mtandao? - Palo Alto Networks ). Kwa mfano, mifumo ya uzalishaji inaweza kuchambua kumbukumbu kubwa au hazina za ujasusi wa vitisho na kutoa muhtasari mfupi au hatua iliyopendekezwa, ikifanya kazi karibu kama "msaidizi" wa AI kwa timu za usalama.

Utekelezaji wa mapema wa AI ya kuzalisha kwa ajili ya ulinzi wa mtandao umeonyesha matumaini. Mnamo 2023, Microsoft ilianzisha Security Copilot , msaidizi anayetumia GPT-4 kwa wachambuzi wa usalama, ili kusaidia kutambua uvunjaji na kuchuja ishara trilioni 65 zinazosindikwa na Microsoft kila siku ( Microsoft Security Copilot ni msaidizi mpya wa AI ya GPT-4 kwa ajili ya usalama wa mtandao | The Verge ). Wachambuzi wanaweza kushawishi mfumo huu kwa lugha asilia (km "Fupisha matukio yote ya usalama katika saa 24 zilizopita" ), na msaidizi huyo atatoa muhtasari muhimu wa simulizi. Vile vile, AI ya Google ya Threat Intelligence hutumia mfumo wa kuzalisha unaoitwa Gemini ili kuwezesha utafutaji wa mazungumzo kupitia hifadhidata kubwa ya intel ya vitisho ya Google, ikichambua haraka msimbo unaotiliwa shaka na kufupisha matokeo ili kuwasaidia wawindaji wa programu hasidi ( AI ya Kuzalisha Inawezaje Kutumika katika Usalama wa Mtandao? Mifano 10 Halisi ya Ulimwengu ). Mifano hii inaonyesha uwezo: AI ya kuzalisha inaweza kuchambua data tata, kubwa ya usalama wa mtandao na kuwasilisha maarifa katika mfumo unaopatikana, na kuharakisha kufanya maamuzi.

Wakati huo huo, AI ya kuzalisha inaweza kuunda maudhui bandia yenye uhalisia wa hali ya juu, ambayo ni faida kwa uigaji na mafunzo (na, kwa bahati mbaya, kwa washambuliaji wanaounda uhandisi wa kijamii). Tunapoendelea na matumizi maalum, tutaona kwamba uwezo wa AI ya kuzalisha wa kuunganisha na kuchambua taarifa unaimarisha matumizi yake mengi ya usalama wa mtandao. Hapa chini, tunachunguza matumizi muhimu, kuanzia kuzuia ulaghai hadi kupata uundaji salama wa programu, pamoja na mifano ya jinsi kila moja inavyotumika katika tasnia zote.

Matumizi Muhimu ya AI ya Kuzalisha katika Usalama wa Mtandaoni

Kielelezo: Kesi muhimu za matumizi ya AI ya kuzalisha katika usalama wa mtandao ni pamoja na wapiganaji wapya wa AI kwa timu za usalama, uchanganuzi wa udhaifu wa msimbo, ugunduzi wa vitisho vinavyoweza kubadilika, simulizi ya shambulio la siku sifuri, usalama ulioboreshwa wa biometriki, na ugunduzi wa hadaa ( Kesi 6 za Matumizi kwa AI ya Kuzalisha katika Usalama wa Mtandao [+ Mifano] ).

Ugunduzi na Kinga ya Ulaghai

Ulaghai wa mtandaoni unasalia kuwa mojawapo ya vitisho vingi vya mtandao, vinavyowadanganya watumiaji kubofya viungo hasidi au kutoa vitambulisho. AI ya kuzalisha inatumika kugundua majaribio ya ulaghai na kuimarisha mafunzo ya watumiaji ili kuzuia mashambulizi yaliyofanikiwa. Kwa upande wa ulinzi, mifumo ya AI inaweza kuchambua maudhui ya barua pepe na tabia za mtumaji ili kuona dalili ndogo za ulaghai ambazo vichujio vinavyotegemea sheria vinaweza kukosa. Kwa kujifunza kutoka kwa seti kubwa za data za barua pepe halali dhidi ya ulaghai, mfumo wa kuzalisha unaweza kuashiria kasoro katika sauti, maneno, au muktadha unaoonyesha ulaghai - hata wakati sarufi na tahajia hazitoi tena. Kwa kweli, watafiti wa Palo Alto Networks wanabainisha kuwa AI ya kuzalisha inaweza kutambua "ishara ndogo za barua pepe za ulaghai ambazo vinginevyo zinaweza kutoonekana," na kusaidia mashirika kubaki hatua moja mbele ya matapeli ( AI ya Kuzalisha ni Nini katika Usalama wa Mtandao? - Palo Alto Networks ).

Timu za usalama pia zinatumia AI ya kuzalisha ili kuiga mashambulizi ya ulaghai kwa ajili ya mafunzo na uchambuzi. Kwa mfano, Ironscales ilianzisha kifaa cha kuiga ulaghai kinachotumia GPT ambacho hutoa kiotomatiki barua pepe bandia za ulaghai zilizoundwa kwa wafanyakazi wa shirika ( Je, AI ya Kuzalisha Inaweza Kutumikaje katika Usalama wa Mtandao? Mifano 10 Halisi ya Ulimwengu ). Barua pepe hizi zilizotengenezwa kwa AI zinaonyesha mbinu za hivi karibuni za washambuliaji, na kuwapa wafanyakazi mazoezi halisi ya kugundua maudhui ya ulaghai. Mafunzo kama hayo ya kibinafsi ni muhimu kwani washambuliaji wenyewe hutumia AI ili kuunda vivutio vya kushawishi zaidi. Ikumbukwe kwamba, ingawa AI ya kuzalisha inaweza kutoa jumbe za ulaghai zilizosafishwa sana (siku za Kiingereza kilichovunjika kwa urahisi zimepita), watetezi wamegundua kuwa AI haiwezi kushindwa. Mnamo 2024, watafiti wa IBM Security waliendesha jaribio kulinganisha barua pepe za ulaghai zilizoandikwa na binadamu na zile zilizotengenezwa na AI, na "cha kushangaza, barua pepe zilizotengenezwa na AI bado zilikuwa rahisi kugundua licha ya sarufi yao sahihi" ( 6 Matumizi ya Kesi za AI ya Kuzalisha katika Usalama wa Mtandao [+ Mifano] ). Hii inaonyesha kwamba hisia za kibinadamu pamoja na ugunduzi unaosaidiwa na AI bado zinaweza kutambua kutofautiana kidogo au ishara za metadata katika ulaghai ulioandikwa na AI.

AI ya Kuzalisha husaidia ulinzi wa ulaghai kwa njia zingine pia. Mifumo inaweza kutumika kutoa majibu otomatiki au vichujio vinavyojaribu barua pepe zinazotiliwa shaka. Kwa mfano, mfumo wa AI unaweza kujibu barua pepe yenye maswali fulani ili kuthibitisha uhalali wa mtumaji au kutumia LLM kuchanganua viungo na viambatisho vya barua pepe kwenye sanduku la mchanga, kisha kufupisha nia yoyote mbaya. Jukwaa la usalama la NVIDIA Morpheus linaonyesha nguvu ya AI katika uwanja huu - hutumia mifumo ya NLP ya kuzalisha kuchanganua na kuainisha barua pepe haraka, na iligundulika kuboresha ugunduzi wa barua pepe za ulaghai kwa 21% ikilinganishwa na zana za kawaida za usalama ( 6 Matumizi ya Kesi za AI ya Kuzalisha katika Usalama wa Mtandao [+ Mifano] ). Morpheus hata huelezea mifumo ya mawasiliano ya mtumiaji ili kugundua tabia isiyo ya kawaida (kama mtumiaji kutuma barua pepe ghafla anwani nyingi za nje), ambayo inaweza kuonyesha akaunti iliyoathiriwa kutuma barua pepe za ulaghai.

Kwa vitendo, makampuni katika sekta zote yanaanza kuamini AI ili kuchuja barua pepe na trafiki ya wavuti kwa mashambulizi ya uhandisi wa kijamii. Makampuni ya fedha, kwa mfano, hutumia AI ya kuzalisha ili kuchanganua mawasiliano kwa ajili ya majaribio ya uigaji ambayo yanaweza kusababisha ulaghai wa waya, huku watoa huduma za afya wakiweka AI kulinda data ya wagonjwa kutokana na uvunjaji wa sheria zinazohusiana na hadaa. Kwa kutoa matukio halisi ya hadaa na kutambua alama za ujumbe hasidi, AI ya kuzalisha inaongeza safu yenye nguvu katika mikakati ya kuzuia hadaa. Jambo la kujifunza: AI inaweza kusaidia kugundua na kuondoa silaha za mashambulizi ya hadaa haraka na kwa usahihi zaidi, hata kama washambuliaji hutumia teknolojia hiyo hiyo ili kuongeza mchezo wao.

Utambuzi wa Malware na Uchambuzi wa Tishio

Programu hasidi ya kisasa inabadilika kila mara - washambuliaji hutoa aina mpya au msimbo wa kuficha ili kuepuka sahihi za antivirus. AI ya Uzalishaji hutoa mbinu mpya za kugundua programu hasidi na kuelewa tabia yake. Mbinu moja ni kutumia AI kutengeneza "mapacha waovu" wa programu hasidi : watafiti wa usalama wanaweza kulisha sampuli ya programu hasidi inayojulikana kwenye mfumo wa kuzalisha ili kuunda aina nyingi zilizobadilishwa za programu hasidi hiyo. Kwa kufanya hivyo, wanatarajia kwa ufanisi marekebisho ambayo mshambuliaji anaweza kufanya. Aina hizi zinazozalishwa na AI zinaweza kutumika kufunza antivirus na mifumo ya kugundua uvamizi, ili hata matoleo yaliyorekebishwa ya programu hasidi yatambuliwe porini ( 6 Matumizi ya Kesi za AI ya Uzalishaji katika Usalama wa Mtandao [+ Mifano] ). Mkakati huu wa kuchukua hatua husaidia kuvunja mzunguko ambapo wadukuzi hubadilisha kidogo programu hasidi yao ili kuepuka kugunduliwa na watetezi lazima wajitahidi kuandika sahihi mpya kila wakati. Kama ilivyoelezwa katika podikasti moja ya tasnia, wataalam wa usalama sasa wanatumia AI ya Uzalishaji "kuiga trafiki ya mtandao na kutoa mizigo mibaya inayoiga mashambulizi ya kisasa," wakijaribu ulinzi wao dhidi ya familia nzima ya vitisho badala ya tukio moja. huu wa vitisho vinavyoweza kubadilika unamaanisha kuwa zana za usalama zitakuwa imara zaidi dhidi ya programu hasidi ya polimorphic ambayo vinginevyo ingeingia.

Zaidi ya kugundua, AI ya kuzalisha husaidia katika uchanganuzi wa programu hasidi na uhandisi wa kinyume , ambazo kwa kawaida huwa kazi ngumu kwa wachambuzi wa vitisho. Mifumo mikubwa ya lugha inaweza kupewa jukumu la kuchunguza msimbo au hati zinazotiliwa shaka na kuelezea kwa lugha rahisi kile msimbo huo unakusudiwa kufanya. Mfano halisi ni VirusTotal Code Insight , kipengele cha VirusTotal cha Google kinachotumia modeli ya AI ya kuzalisha (Sec-PaLM ya Google) kutoa muhtasari wa lugha asilia wa msimbo unaoweza kuwa mbaya ( AI ya Kuzalisha Inawezaje Kutumika katika Usalama wa Mtandao? Mifano 10 Halisi ya Ulimwengu ). Kimsingi ni "aina ya ChatGPT iliyojitolea kwa msimbo wa usalama," ikifanya kazi kama mchambuzi wa programu hasidi ya AI anayefanya kazi masaa 24 kwa siku, siku 7 kwa wiki ili kuwasaidia wachambuzi wa binadamu kuelewa vitisho ( 6 Tumia Kesi za AI ya Kuzalisha katika Usalama wa Mtandao [+ Mifano] ). Badala ya kuchunguza hati isiyojulikana au msimbo wa jozi, mshiriki wa timu ya usalama anaweza kupata maelezo ya haraka kutoka kwa AI - kwa mfano, "Hati hii inajaribu kupakua faili kutoka kwa seva ya XYZ na kisha kurekebisha mipangilio ya mfumo, ambayo inaonyesha tabia ya programu hasidi." Hii huharakisha sana mwitikio wa matukio, kwani wachambuzi wanaweza kuchunguza na kuelewa programu hasidi mpya haraka zaidi kuliko hapo awali.

AI ya Uzalishaji pia hutumika kubaini programu hasidi katika seti kubwa za data . Injini za antivirus za kitamaduni huchanganua faili kwa saini zinazojulikana, lakini modeli ya uzalishaji inaweza kutathmini sifa za faili na hata kutabiri ikiwa ni hasidi kulingana na mifumo iliyojifunza. Kwa kuchanganua sifa za mabilioni ya faili (hasidi na hafifu), AI ya Uzalishaji inaweza kukamata nia hasidi ambapo hakuna saini dhahiri iliyopo. Kwa mfano, modeli ya uzalishaji inaweza kuashiria kitendakazi kama cha kutiliwa shaka kwa sababu wasifu wake wa tabia "unaonekana" kama tofauti kidogo ya ransomware iliyoona wakati wa mafunzo, ingawa jozi ni mpya. Ugunduzi huu unaotegemea tabia husaidia kukabiliana na programu hasidi mpya au ya siku sifuri. AI ya Ujasusi ya Threat Intelligence ya Google (sehemu ya Chronicle/Mandiant) inaripotiwa kutumia modeli yake ya uzalishaji kuchanganua msimbo unaoweza kuwa hasidi na "kwa ufanisi zaidi na kwa ufanisi zaidi kuwasaidia wataalamu wa usalama katika kupambana na programu hasidi na aina zingine za vitisho." ( AI ya Uzalishaji Inawezaje Kutumika katika Usalama wa Mtandaoni? Mifano 10 Halisi ya Ulimwenguni ).

Kwa upande mwingine, ni lazima tukubali kwamba washambuliaji wanaweza kutumia AI ya kuzalisha hapa pia - ili kuunda kiotomatiki programu hasidi inayojirekebisha yenyewe. Kwa kweli, wataalamu wa usalama wanaonya kwamba AI ya kuzalisha inaweza kuwasaidia wahalifu wa mtandao kutengeneza programu hasidi ambayo ni vigumu kugundua ( AI ya Kuzalisha ni Nini katika Usalama wa Mtandao? - Palo Alto Networks ). Mfano wa AI unaweza kuagizwa kubadilisha kipande cha programu hasidi mara kwa mara (kubadilisha muundo wake wa faili, mbinu za usimbaji fiche, n.k.) hadi iepuke ukaguzi wote unaojulikana wa antivirus. Matumizi haya ya uhasama ni wasiwasi unaoongezeka (wakati mwingine hujulikana kama "programu hasidi inayoendeshwa na AI" au programu hasidi ya polimorphic kama huduma). Tutajadili hatari kama hizo baadaye, lakini inasisitiza kwamba AI ya kuzalisha ni zana katika mchezo huu wa paka na panya unaotumiwa na watetezi na washambuliaji.

Kwa ujumla, AI ya kuzalisha huongeza ulinzi dhidi ya programu hasidi kwa kuwezesha timu za usalama kufikiria kama mshambuliaji - ikitoa vitisho na suluhisho mpya ndani. Iwe inazalisha programu hasidi bandia ili kuboresha viwango vya kugundua au kutumia AI kuelezea na kudhibiti programu hasidi halisi inayopatikana kwenye mitandao, mbinu hizi zinatumika katika tasnia zote. Benki inaweza kutumia uchanganuzi wa programu hasidi unaoendeshwa na AI ili kuchanganua haraka makro inayotiliwa shaka katika lahajedwali, huku kampuni ya utengenezaji ikitegemea AI kugundua programu hasidi inayolenga mifumo ya udhibiti wa viwanda. Kwa kuongeza uchanganuzi wa kawaida wa programu hasidi kwa kutumia AI ya kuzalisha, mashirika yanaweza kujibu kampeni za programu hasidi haraka na kwa uangalifu zaidi kuliko hapo awali.

Uchambuzi wa Vitisho na Uchambuzi wa Kiotomatiki

Kila siku, mashirika yanarushwa na data ya ujasusi wa vitisho - kuanzia mijadala ya viashiria vipya vya maelewano (IOCs) hadi ripoti za wachambuzi kuhusu mbinu mpya za wadukuzi. Changamoto kwa timu za usalama ni kupitia wimbi hili la taarifa na kupata maarifa yanayoweza kutekelezwa. AI ya kuzalisha inathibitika kuwa muhimu sana katika kufanya uchanganuzi na matumizi ya ajenti ya vitisho kiotomatiki . Badala ya kusoma ripoti nyingi au maingizo ya hifadhidata kwa mikono, wachambuzi wanaweza kutumia AI kufupisha na kuainisha muktadha wa intel ya vitisho kwa kasi ya mashine.

Mfano mmoja halisi ni kitengo cha Google cha Threat Intelligence , ambacho huunganisha AI ya kuzalisha (modeli ya Gemini) na data nyingi za vitisho za Google kutoka Mandiant na VirusTotal. AI hii hutoa "utafutaji wa mazungumzo katika hazina kubwa ya Google ya akili ya vitisho" , ikiruhusu watumiaji kuuliza maswali ya asili kuhusu vitisho na kupata majibu yaliyochanganuliwa ( AI ya Kuzalisha Inawezaje Kutumika katika Usalama wa Mtandao? Mifano 10 Halisi ya Ulimwengu ). Kwa mfano, mchambuzi anaweza kuuliza, "Je, tumeona programu hasidi yoyote inayohusiana na Threat Group X inayolenga tasnia yetu?" na AI itavuta akili husika, labda ikibainisha "Ndiyo, Threat Group X iliunganishwa na kampeni ya ulaghai mwezi uliopita kwa kutumia programu hasidi Y" , pamoja na muhtasari wa tabia ya programu hasidi hiyo. Hii hupunguza sana muda wa kukusanya maarifa ambayo yangehitaji kuuliza zana nyingi au kusoma ripoti ndefu.

AI ya Kuzalisha inaweza pia kuoanisha na kufupisha mitindo ya vitisho . Inaweza kuchanganua maelfu ya machapisho ya blogu za usalama, habari za uvujaji, na gumzo la wavuti nyeusi na kisha kutoa muhtasari mkuu wa "vitisho vikuu vya mtandao wiki hii" kwa ajili ya mkutano wa CISO. Kijadi, kiwango hiki cha uchambuzi na kuripoti kilichukua juhudi kubwa za kibinadamu; sasa modeli iliyorekebishwa vizuri inaweza kuiandika kwa sekunde chache, huku wanadamu wakiboresha matokeo tu. Makampuni kama ZeroFox yameunda FoxGPT , kifaa cha AI ya Kuzalisha iliyoundwa mahsusi ili "kuharakisha uchambuzi na muhtasari wa akili katika seti kubwa za data," ikiwa ni pamoja na maudhui hasidi na data ya ulaghai ( AI ya Kuzalisha Inawezaje Kutumika katika Usalama wa Mtandao? Mifano 10 Halisi ya Ulimwengu ). Kwa kuiga kiotomatiki usomaji mzito na data ya marejeleo mtambuka, AI inawezesha timu za intel za vitisho kuzingatia kufanya maamuzi na majibu.

Mfano mwingine wa matumizi ni uwindaji wa vitisho vya mazungumzo . Hebu fikiria mchambuzi wa usalama akiingiliana na msaidizi wa AI: "Nionyeshe dalili zozote za uondoaji wa data katika saa 48 zilizopita" au "Ni washambuliaji wapya wa udhaifu gani wanaotumia wiki hii?" AI inaweza kutafsiri swali, kutafuta kumbukumbu za ndani au vyanzo vya nje vya intel, na kujibu kwa jibu wazi au hata orodha ya matukio husika. Hii si jambo la kushangaza - mifumo ya kisasa ya habari na usimamizi wa matukio ya usalama (SIEM) inaanza kuingiza maswali ya lugha asilia. Kwa mfano, kitengo cha usalama cha QRadar cha IBM kinaongeza vipengele vya AI vya kuzalisha mnamo 2024 ili kuwaruhusu wachambuzi "kuuliza […] maswali maalum kuhusu njia ya shambulio iliyofupishwa" ya tukio na kupata majibu ya kina. Inaweza pia "kutafsiri na kufupisha akili ya vitisho muhimu sana" kiotomatiki ( AI ya Kuzalisha Inawezaje Kutumika katika Usalama wa Mtandao? Mifano 10 Halisi ya Ulimwengu ). Kimsingi, AI ya kuzalisha hubadilisha milima ya data ya kiufundi kuwa maarifa ya ukubwa wa gumzo kuhusu mahitaji.

Katika sekta mbalimbali, hii ina athari kubwa. Mtoa huduma za afya anaweza kutumia akili bandia (AI) ili kupata taarifa mpya kuhusu vikundi vya hivi karibuni vya ransomware vinavyolenga hospitali, bila kumtoa mchambuzi kwa utafiti wa muda wote. SOC ya kampuni ya rejareja inaweza kutoa muhtasari wa haraka mbinu mpya za programu hasidi za POS wakati wa kuwafahamisha wafanyakazi wa IT wa duka. Na serikalini, ambapo data ya vitisho kutoka kwa mashirika mbalimbali lazima itengenezwe, akili bandia (AI) inaweza kutoa ripoti za pamoja zinazoangazia maonyo muhimu. Kwa kufanya ukusanyaji na tafsiri ya akili bandia ya vitisho kiotomatiki , akili bandia inayozalishwa husaidia mashirika kuguswa haraka na vitisho vinavyoibuka na kupunguza hatari ya kukosa maonyo muhimu yaliyofichwa kwenye kelele.

Uboreshaji wa Kituo cha Uendeshaji wa Usalama (SOC)

Vituo vya Uendeshaji wa Usalama vina sifa mbaya kwa uchovu wa tahadhari na kiasi kikubwa cha data. Mchambuzi wa kawaida wa SOC anaweza kupitia maelfu ya arifa na matukio kila siku, akichunguza matukio yanayoweza kutokea. AI ya kuzalisha inafanya kazi kama kizidishi nguvu katika SOC kwa kuendesha kazi za kawaida kiotomatiki, kutoa muhtasari wa busara, na hata kupanga baadhi ya majibu. Lengo ni kuboresha mtiririko wa kazi wa SOC ili wachambuzi wa kibinadamu waweze kuzingatia masuala muhimu zaidi huku rubani msaidizi wa AI akishughulikia mengine.

Programu moja kubwa ni kutumia AI ya kuzalisha kama "Msaidizi wa Mchambuzi" . Msaidizi wa Usalama wa Microsoft, aliyetajwa hapo awali, anaonyesha hili: "imeundwa kusaidia kazi ya mchambuzi wa usalama badala ya kuibadilisha," ikisaidia katika uchunguzi wa matukio na kuripoti ( Microsoft Security Copilot ni msaidizi mpya wa AI wa GPT-4 kwa usalama wa mtandao | The Verge ). Kwa vitendo, hii ina maana kwamba mchambuzi anaweza kuingiza data ghafi - kumbukumbu za ngome, ratiba ya tukio, au maelezo ya tukio - na kumuuliza AI kuichambua au kuifupisha. Msaidizi anaweza kutoa simulizi kama, "Inaonekana kwamba saa 2:35 AM, kuingia kwa kutiliwa shaka kutoka kwa IP X kulifanikiwa kwenye Seva Y, ikifuatiwa na uhamishaji wa data usio wa kawaida, unaoonyesha uvunjifu unaowezekana wa seva hiyo." Aina hii ya uainishaji wa haraka ni muhimu sana wakati wakati ni muhimu.

Waendeshaji wa majaribio wa AI pia husaidia kupunguza mzigo wa triage ya kiwango cha 1. Kulingana na data ya tasnia, timu ya usalama inaweza kutumia saa 15 kwa wiki ikipitia arifa zipatazo 22,000 na chanya za uongo ( Tumia Kesi 6 za AI ya Kuzalisha katika Usalama wa Mtandao [+ Mifano] ). Kwa AI ya Kuzalisha, arifa nyingi hizi zinaweza kugawanywa kiotomatiki - AI inaweza kupuuza zile ambazo ni wazi hazina madhara (kwa sababu iliyotolewa) na kuangazia zile ambazo zinahitaji umakini wa kweli, wakati mwingine hata kupendekeza kipaumbele. Kwa kweli, nguvu ya AI ya kuzalisha katika kuelewa muktadha inamaanisha inaweza kuunganisha arifa ambazo zinaweza kuonekana zisizo na madhara zikiwa pekee lakini pamoja zinaonyesha shambulio la hatua nyingi. Hii inapunguza nafasi ya kukosa shambulio kutokana na "uchovu wa tahadhari."

Wachambuzi wa SOC pia wanatumia lugha asilia na AI ili kuharakisha uwindaji na uchunguzi. AI la Purple , kwa mfano, linachanganya kiolesura kinachotegemea LLM na data ya usalama ya wakati halisi, na kuwaruhusu wachambuzi "kuuliza maswali magumu ya uwindaji wa vitisho kwa Kiingereza rahisi na kupata majibu ya haraka na sahihi" ( Je, AI ya Kuzalisha Inaweza Kutumikaje katika Usalama wa Mtandao? Mifano 10 Halisi ya Ulimwengu ). Mchambuzi anaweza kuandika, "Je, kuna sehemu zozote za mwisho zilizowasiliana na kikoa badguy123[.]com mwezi uliopita?" , na AI ya Purple itatafuta kupitia kumbukumbu ili kujibu. Hii inamwokoa mchambuzi kutokana na kuandika maswali au hati za hifadhidata - AI hufanya hivyo chini ya kofia. Pia inamaanisha wachambuzi wadogo wanaweza kushughulikia kazi ambazo hapo awali zilihitaji mhandisi mwenye uzoefu katika lugha za maswali, na kuiboresha timu kwa ufanisi kupitia usaidizi wa AI . Hakika, wachambuzi wanaripoti kwamba mwongozo wa AI ya uzalishaji "huongeza ujuzi na ustadi wao" , kwani wafanyakazi wa kiwango cha chini sasa wanaweza kupata usaidizi wa msimbo au vidokezo vya uchambuzi kutoka kwa AI ya Uhandisi wa Kielektroniki wanapohitaji, na hivyo kupunguza utegemezi wa kuwaomba wanachama wa timu ya juu msaada kila wakati ( 6 Matumizi ya Kesi za AI ya Uzalishaji katika Usalama wa Mtandao [+ Mifano] ).

Uboreshaji mwingine wa SOC ni muhtasari wa kiotomatiki wa matukio na uwekaji nyaraka . Baada ya tukio kushughulikiwa, mtu lazima aandike ripoti - kazi ambayo wengi huona kuwa ya kuchosha. AI ya kuzalisha inaweza kuchukua data ya uchunguzi wa kisayansi (kumbukumbu za mfumo, uchambuzi wa programu hasidi, ratiba ya vitendo) na kutoa ripoti ya tukio la rasimu ya kwanza. IBM inajenga uwezo huu katika QRadar ili kwa "mbofyo mmoja" muhtasari wa tukio uweze kutolewa kwa wadau tofauti (watendaji, timu za TEHAMA, n.k.) ( AI ya Kuzalisha Inaweza Kutumikaje katika Usalama wa Mtandao? Mifano 10 Halisi ya Ulimwengu ). Hii sio tu kwamba inaokoa muda lakini pia inahakikisha hakuna kinachopuuzwa katika ripoti, kwani AI inaweza kujumuisha maelezo yote muhimu mara kwa mara. Vile vile, kwa kufuata sheria na ukaguzi, AI inaweza kujaza fomu au jedwali za ushahidi kulingana na data ya tukio.

Matokeo halisi yanavutia. Watumiaji wa mapema wa Swimlane's AI SOAR (upangaji wa usalama, otomatiki, na mwitikio) wanaripoti faida kubwa ya uzalishaji - Global Data Systems, kwa mfano, waliona timu yao ya SecOps ikisimamia mzigo mkubwa zaidi wa kesi; mkurugenzi mmoja alisema "ninachofanya leo na wachambuzi 7 labda kingechukua wafanyakazi 20 bila" otomatiki inayotumia AI ( Jinsi AI ya Kuzalisha Inaweza Kutumika katika Usalama wa Mtandao ). Kwa maneno mengine, AI katika SOC inaweza kuzidisha uwezo . Katika tasnia zote, iwe ni kampuni ya teknolojia inayoshughulika na arifa za usalama wa wingu au mifumo ya ufuatiliaji wa kiwanda cha utengenezaji, timu za SOC zinaweza kupata ugunduzi na mwitikio wa haraka, matukio machache yaliyokosekana, na shughuli zenye ufanisi zaidi kwa kukumbatia wasaidizi wa AI ya kuzalisha. Ni kuhusu kufanya kazi kwa busara zaidi - kuruhusu mashine kushughulikia kazi zinazojirudia na nzito za data ili wanadamu waweze kutumia intuition na utaalamu wao pale inapohitajika zaidi.

Usimamizi wa Udhaifu na Uigaji wa Vitisho

Kutambua na kudhibiti udhaifu - udhaifu katika programu au mifumo ambayo washambuliaji wanaweza kutumia - ni kazi kuu ya usalama wa mtandao. AI ya kuzalisha inaimarisha usimamizi wa udhaifu kwa kuharakisha ugunduzi, kusaidia katika kuweka vipaumbele vya kiraka, na hata kuiga mashambulizi dhidi ya udhaifu huo ili kuboresha utayari. Kimsingi, AI inasaidia mashirika kupata na kurekebisha mashimo kwenye silaha zao haraka zaidi, na kwa uangalifu kabla ya washambuliaji halisi kufanya hivyo.

Programu moja muhimu ni kutumia AI ya kuzalisha kwa ajili ya ukaguzi wa kiotomatiki wa msimbo na ugunduzi wa udhaifu . Misimbo mikubwa (hasa mifumo ya zamani) mara nyingi huhifadhi dosari za usalama ambazo hazionekani. Mifumo ya AI ya kuzalisha inaweza kufunzwa kuhusu mbinu salama za usimbaji na mifumo ya kawaida ya hitilafu, kisha kutolewa kwenye msimbo chanzo au jozi zilizokusanywa ili kupata udhaifu unaowezekana. Kwa mfano, watafiti wa NVIDIA walitengeneza bomba la AI ya kuzalisha ambalo lingeweza kuchambua vyombo vya programu vya zamani na kutambua udhaifu "kwa usahihi wa hali ya juu - hadi 4× haraka kuliko wataalamu wa binadamu." ( 6 Tumia Kesi za AI ya Kuzalisha katika Usalama wa Mtandao [+ Mifano] ). AI kimsingi ilijifunza jinsi msimbo usio salama unavyoonekana na iliweza kuchanganua kupitia programu ya miongo kadhaa ili kuashiria kazi na maktaba hatari, na kuharakisha sana mchakato wa ukaguzi wa msimbo wa mwongozo ambao kwa kawaida huwa polepole. Aina hii ya zana inaweza kubadilisha mchezo kwa tasnia kama fedha au serikali ambazo hutegemea misimbo mikubwa, ya zamani - AI husaidia kuboresha usalama kwa kuchunguza masuala ambayo wafanyakazi wanaweza kuchukua miezi au miaka kupata (ikiwa yametokea).

AI ya Kuzalisha pia husaidia katika mtiririko wa kazi wa usimamizi wa udhaifu kwa kuchakata matokeo ya uchanganuzi wa udhaifu na kuyapa kipaumbele. Zana kama ExposureAI hutumia AI ya kuzalisha ili kuwaruhusu wachambuzi kuuliza data ya udhaifu kwa lugha rahisi na kupata majibu ya papo hapo ( AI ya Kuzalisha Inaweza Kutumikaje katika Usalama wa Mtandao? Mifano 10 Halisi ya Ulimwengu ). ExposureAI inaweza "kufupisha njia kamili ya mashambulizi katika simulizi" kwa udhaifu fulani muhimu, ikielezea jinsi mshambuliaji anavyoweza kuiunganisha na udhaifu mwingine ili kuathiri mfumo. Inapendekeza hata hatua za kurekebisha na kujibu maswali ya ufuatiliaji kuhusu hatari. Hii ina maana kwamba wakati CVE mpya muhimu (Udhaifu wa Kawaida na Mifiduo) inatangazwa, mchambuzi anaweza kuuliza AI, "Je, kuna seva zetu zozote zilizoathiriwa na CVE hii na ni hali gani mbaya zaidi ikiwa hatutarekebisha?" na kupokea tathmini iliyo wazi inayotokana na data ya uchanganuzi ya shirika. Kwa kuweka udhaifu katika muktadha (km huu unapatikana kwenye mtandao na kwenye seva yenye thamani kubwa, kwa hivyo ni kipaumbele cha juu), AI ya kuzalisha husaidia timu kurekebisha kwa busara na rasilimali chache.

Mbali na kutafuta na kudhibiti udhaifu unaojulikana, AI ya kuzalisha huchangia katika upimaji wa kupenya na uigaji wa mashambulizi - kimsingi kugundua usiojulikana au kupima vidhibiti vya usalama. Mitandao ya upinzani ya kuzalisha (GANs), aina ya AI ya kuzalisha, imetumika kuunda data ya sintetiki inayoiga trafiki halisi ya mtandao au tabia ya mtumiaji, ambayo inaweza kujumuisha mifumo iliyofichwa ya mashambulizi. Utafiti wa 2023 ulipendekeza kutumia GANs kutoa trafiki halisi ya mashambulizi ya siku sifuri ili kufunza mifumo ya kugundua uvamizi ( Vipimo 6 vya Matumizi kwa AI ya Kuzalisha katika Usalama wa Mtandao [+ Mifano] ). Kwa kulisha IDS na matukio ya mashambulizi yaliyotengenezwa na AI (ambayo hayahatarishi kutumia programu hasidi halisi kwenye mitandao ya uzalishaji), mashirika yanaweza kufunza ulinzi wao kutambua vitisho vipya bila kusubiri kugongwa navyo katika uhalisia. Vile vile, AI inaweza kuiga mshambuliaji anayechunguza mfumo - kwa mfano, akijaribu kiotomatiki mbinu mbalimbali za kutumia katika mazingira salama ili kuona kama yoyote itafanikiwa. Wakala wa Miradi ya Utafiti wa Kina wa Ulinzi wa Marekani (DARPA) unaona ahadi hapa: Changamoto yake ya Mtandaoni ya AI ya 2023 inatumia waziwazi AI ya uzalishaji (kama mifumo mikubwa ya lugha) "kupata na kurekebisha udhaifu kiotomatiki katika programu huria" kama sehemu ya shindano ( DARPA Inalenga Kuendeleza AI, Maombi ya Kujitegemea Afighters Wanaweza Kuamini > Idara ya Ulinzi ya Marekani > Habari za Idara ya Ulinzi ). Mpango huu unasisitiza kwamba AI haisaidii tu kurekebisha mashimo yanayojulikana; inafichua kikamilifu mapya na kupendekeza marekebisho, kazi ambayo kwa kawaida hupunguzwa kwa watafiti wa usalama wenye ujuzi (na wa gharama kubwa).

AI ya Kuzalisha inaweza hata kuunda visanduku vya asali na mapacha wa kidijitali kwa ajili ya ulinzi. Makampuni mapya yanaunda mifumo ya udanganyifu inayoendeshwa na AI ambayo inaiga seva au vifaa halisi kwa njia ya kushawishi. Kama Mkurugenzi Mtendaji mmoja alivyoelezea, AI ya kuzalisha inaweza "kuiga mifumo ya kidijitali ili kuiga seva halisi na kuwavutia wadukuzi" ( 6 Matumizi ya Kesi za AI ya Kuzalisha katika Usalama wa Mtandao [+ Mifano] ). Visanduku hivi vya asali vinavyotokana na AI hutenda kama mazingira halisi (tuseme, kifaa bandia cha IoT kinachotuma telemetri ya kawaida) lakini vipo tu ili kuvutia washambuliaji. Mshambuliaji anapolenga udanganyifu, AI kimsingi imewadanganya kufichua mbinu zao, ambazo watetezi wanaweza kisha kusoma na kutumia kuimarisha mifumo halisi. Wazo hili, linaloendeshwa na uundaji wa modeli, hutoa njia ya kuangalia mbele ya kugeuza meza kwa washambuliaji , kwa kutumia udanganyifu ulioboreshwa na AI.

Katika sekta zote, usimamizi wa udhaifu wa haraka na nadhifu unamaanisha uvunjaji mdogo wa sheria. Katika huduma ya afya, kwa mfano, AI inaweza kugundua haraka maktaba iliyopitwa na wakati katika kifaa cha matibabu na kuchochea marekebisho ya programu dhibiti kabla ya mshambuliaji yeyote kuitumia vibaya. Katika benki, AI inaweza kuiga shambulio la ndani kwenye programu mpya ili kuhakikisha data ya wateja inabaki salama chini ya hali zote. AI ya kuzalisha kwa hivyo hufanya kazi kama darubini na kipima msongo wa mawazo kwa mkao wa usalama wa mashirika: inaangazia kasoro zilizofichwa na mifumo ya shinikizo kwa njia za ubunifu ili kuhakikisha ustahimilivu.

Uundaji Salama wa Misimbo na Uundaji wa Programu

Vipaji vya AI ya Uzalishaji havizuiliwi tu katika kugundua mashambulizi - pia vinapanuka hadi kuunda mifumo salama zaidi tangu mwanzo . Katika uundaji wa programu, jenereta za misimbo ya AI (kama GitHub Copilot, OpenAI Codex, n.k.) zinaweza kuwasaidia watengenezaji kuandika misimbo haraka kwa kupendekeza vipande vya misimbo au hata kazi nzima. Pembe ya usalama wa mtandao ni kuhakikisha kwamba vipande hivi vya misimbo vilivyopendekezwa na AI viko salama na vinatumia AI kuboresha desturi za usimbaji.

Kwa upande mmoja, AI ya kuzalisha inaweza kufanya kazi kama msaidizi wa msimbo unaopachika mbinu bora za usalama . Wasanidi programu wanaweza kuuliza zana ya AI, "Tengeneza kitendakazi cha kuweka upya nenosiri katika Python," na ikiwezekana kupata msimbo ambao sio tu unafanya kazi lakini pia unafuata miongozo salama (km uthibitishaji sahihi wa ingizo, kumbukumbu, utunzaji wa makosa bila taarifa zinazovuja, n.k.). Msaidizi kama huyo, aliyefunzwa mifano mingi ya msimbo salama, anaweza kusaidia kupunguza makosa ya kibinadamu ambayo husababisha udhaifu. Kwa mfano, ikiwa msanidi programu atasahau kusafisha ingizo la mtumiaji (kufungua mlango wa kuingiza SQL au masuala kama hayo), AI inaweza kujumuisha hilo kwa chaguo-msingi au kuwaonya. Baadhi ya zana za msimbo wa AI sasa zinarekebishwa na data inayolenga usalama ili kutimiza kusudi hili halisi - kimsingi, kuunganisha programu ya AI na dhamiri ya usalama .

Hata hivyo, kuna upande mwingine: AI ya kuzalisha inaweza pia kuleta udhaifu ikiwa haitadhibitiwa ipasavyo. Kama mtaalamu wa usalama wa Sophos Ben Verschaeren alivyobainisha, kutumia AI ya kuzalisha kwa ajili ya uandishi wa msimbo ni "sawa kwa msimbo mfupi na unaoweza kuthibitishwa, lakini ni hatari wakati msimbo ambao haujachunguzwa unapounganishwa" katika mifumo ya uzalishaji. Hatari ni kwamba AI inaweza kutoa msimbo sahihi kimantiki ambao si salama kwa njia ambazo mtu ambaye si mtaalamu anaweza asigundue. Zaidi ya hayo, watendaji hasidi wanaweza kushawishi kwa makusudi mifumo ya AI ya umma kwa kuipandikiza mifumo ya msimbo dhaifu (aina ya sumu ya data) ili AI ipendekeze msimbo usio salama. Wasanidi programu wengi si wataalamu wa usalama , kwa hivyo ikiwa AI inapendekeza suluhisho rahisi, wanaweza kuitumia bila kujua, bila kutambua kuwa ina kasoro ( 6 Matumizi ya Kesi za AI ya Kuzalisha katika Usalama wa Mtandao [+ Mifano] ). Wasiwasi huu ni halisi - kwa kweli, kuna orodha ya OWASP Top 10 sasa kwa LLM (mifumo mikubwa ya lugha) ambayo inaelezea hatari za kawaida kama hii katika kutumia AI kwa uandishi wa msimbo.

Ili kukabiliana na masuala haya, wataalamu wanapendekeza "kupambana na AI ya kuzalisha kwa kutumia AI ya kuzalisha" katika ulimwengu wa usimbaji. Kwa vitendo, hiyo ina maana ya kutumia AI kukagua na kujaribu msimbo ambao AI nyingine (au wanadamu) iliandika. AI inaweza kuchanganua kupitia msimbo mpya inafanya kazi haraka zaidi kuliko mkaguzi wa msimbo wa binadamu na kuashiria udhaifu unaowezekana au masuala ya mantiki. Tayari tunaona zana zinazojitokeza ambazo zinajumuishwa katika mzunguko wa maisha wa ukuzaji wa programu: msimbo umeandikwa (labda kwa usaidizi wa AI), kisha modeli ya kuzalisha iliyofunzwa kanuni za msimbo salama huipitia na kutoa ripoti ya wasiwasi wowote (tuseme, matumizi ya vitendaji vilivyoachwa, ukaguzi wa uthibitishaji unaokosekana, n.k.). Utafiti wa NVIDIA, uliotajwa hapo awali, ambao ulifikia ugunduzi wa udhaifu wa 4× haraka katika msimbo ni mfano wa kutumia AI kwa uchambuzi salama wa msimbo ( 6 Matumizi ya AI ya Kuzalisha katika Usalama wa Mtandao [+ Mifano] ).

Zaidi ya hayo, AI ya kuzalisha inaweza kusaidia katika kuunda usanidi na hati salama . Kwa mfano, ikiwa kampuni inahitaji kupeleka miundombinu salama ya wingu, mhandisi anaweza kuiomba AI kutoa hati za usanidi (Miundombinu kama Msimbo) zenye vidhibiti vya usalama (kama vile mgawanyiko sahihi wa mtandao, majukumu ya IAM yenye upendeleo mdogo) yaliyojumuishwa. AI, baada ya kufunzwa kuhusu maelfu ya usanidi kama huo, inaweza kutoa msingi ambao mhandisi kisha hurekebisha. Hii huharakisha usanidi salama wa mifumo na hupunguza makosa ya usanidi usiofaa - chanzo cha kawaida cha matukio ya usalama wa wingu.

Baadhi ya mashirika pia yanatumia AI ya kuzalisha ili kudumisha msingi wa maarifa ya mifumo salama ya usimbaji. Ikiwa msanidi programu hana uhakika wa jinsi ya kutekeleza kipengele fulani kwa usalama, anaweza kuuliza AI ya ndani ambayo imejifunza kutoka kwa miradi ya zamani ya kampuni na miongozo ya usalama. AI inaweza kurudisha mbinu iliyopendekezwa au hata kipande cha msimbo kinacholingana na mahitaji ya utendaji na viwango vya usalama vya kampuni. Mbinu hii imetumiwa na zana kama vile Secureframe's Questionnaire Automation , ambayo hutoa majibu kutoka kwa sera za kampuni na suluhisho za zamani ili kuhakikisha majibu thabiti na sahihi (kimsingi hutoa nyaraka salama) ( AI ya Kuzalisha Inawezaje Kutumika katika Usalama wa Mtandao? Mifano 10 Halisi ya Ulimwengu ). Wazo hilo linamaanisha usimbaji: AI ambayo "inakumbuka" jinsi ulivyotekeleza kitu kwa usalama hapo awali na kukuongoza kuifanya kwa njia hiyo tena.

Kwa muhtasari, AI ya uzalishaji inaathiri ukuzaji wa programu kwa kufanya usaidizi salama wa usimbaji upatikane zaidi . Viwanda vinavyounda programu nyingi maalum - teknolojia, fedha, ulinzi, n.k. - vinaweza kufaidika kwa kuwa na marubani wasaidizi wa AI ambao sio tu wanaharakisha usimbaji lakini pia hufanya kazi kama mkaguzi wa usalama makini kila wakati. Zikisimamiwa ipasavyo, zana hizi za AI zinaweza kupunguza kuanzishwa kwa udhaifu mpya na kusaidia timu za maendeleo kuzingatia mbinu bora, hata kama timu haina mtaalamu wa usalama anayehusika katika kila hatua. Matokeo yake ni programu ambayo ni imara zaidi dhidi ya mashambulizi kuanzia siku ya kwanza.

Usaidizi wa Kukabiliana na Matukio

Wakati tukio la usalama wa mtandao linapotokea - iwe ni mlipuko wa programu hasidi, uvujaji wa data, au kukatika kwa mfumo kutokana na shambulio - wakati ni muhimu. AI ya kuzalisha inazidi kutumika kusaidia timu za kukabiliana na matukio (IR) katika kudhibiti na kurekebisha matukio haraka na kwa taarifa zaidi. Wazo ni kwamba AI inaweza kubeba baadhi ya mzigo wa uchunguzi na nyaraka wakati wa tukio, na hata kupendekeza au kuelekeza vitendo vya majibu kiotomatiki.

Jukumu moja muhimu la AI katika IR ni uchambuzi wa matukio ya wakati halisi na muhtasari . Katikati ya tukio, wajibuji wanaweza kuhitaji majibu ya maswali kama "Mshambuliaji aliingiaje?" , "Ni mifumo gani imeathiriwa?" , na "Ni data gani inaweza kuathiriwa?" . AI ya kuzalisha inaweza kuchambua kumbukumbu, arifa, na data ya uchunguzi wa kimatibabu kutoka kwa mifumo iliyoathiriwa na kutoa maarifa haraka. Kwa mfano, Microsoft Security Copilot inaruhusu mjibuji wa tukio kulisha vipande mbalimbali vya ushahidi (faili, URL, kumbukumbu za matukio) na kuomba ratiba au muhtasari ( Microsoft Security Copilot ni msaidizi mpya wa AI wa GPT-4 kwa usalama wa mtandao | The Verge ). AI inaweza kujibu kwa: "Uvunjaji huo huenda ulianza na barua pepe ya ulaghai kwa mtumiaji JohnDoe saa 10:53 GMT iliyo na programu hasidi X. Mara tu baada ya kutekelezwa, programu hasidi iliunda mlango wa nyuma ambao ulitumika siku mbili baadaye kuhamia upande wa seva ya fedha, ambapo ilikusanya data." Kuwa na picha hii thabiti kwa dakika badala ya saa huwezesha timu kufanya maamuzi sahihi (kama vile ni mifumo gani ya kutenganisha) haraka zaidi.

AI ya Kuzalisha inaweza pia kupendekeza vitendo vya kuzuia na kurekebisha . Kwa mfano, ikiwa sehemu ya mwisho imeambukizwa na ransomware, kifaa cha AI kinaweza kutoa hati au seti ya maagizo ya kutenganisha mashine hiyo, kuzima akaunti fulani, na kuzuia IP hasidi zinazojulikana kwenye ngome - kimsingi utekelezaji wa kitabu cha michezo. Palo Alto Networks inabainisha kuwa AI ya Kuzalisha ina uwezo wa "kuzalisha vitendo au hati zinazofaa kulingana na asili ya tukio" , ikiendesha kiotomatiki hatua za awali za majibu ( AI ya Kuzalisha ni Nini katika Usalama wa Mtandao? - Palo Alto Networks ). Katika hali ambapo timu ya usalama imezidiwa (tuseme shambulio lililoenea katika mamia ya vifaa), AI inaweza hata kutekeleza moja kwa moja baadhi ya vitendo hivi chini ya masharti yaliyoidhinishwa awali, ikifanya kama mwitikio mdogo anayefanya kazi bila kuchoka. Kwa mfano, wakala wa AI anaweza kuweka upya kiotomatiki sifa anazoona kuwa zimeathiriwa au kuweka karantini wenyeji wanaoonyesha shughuli hasidi zinazolingana na wasifu wa tukio.

Wakati wa kukabiliana na matukio, mawasiliano ni muhimu - ndani ya timu na kwa wadau. AI ya kuzalisha inaweza kusaidia kwa kuandika ripoti za sasisho za matukio au muhtasari haraka iwezekanavyo . Badala ya mhandisi kuacha utatuzi wao wa matatizo ili kuandika sasisho la barua pepe, wanaweza kumuuliza AI, "Fupisha kilichotokea katika tukio hili hadi sasa ili kuwafahamisha watendaji." AI, baada ya kumeza data ya tukio, inaweza kutoa muhtasari mfupi: "Kufikia saa 9 mchana, washambuliaji wamefikia akaunti 2 za watumiaji na seva 5. Data iliyoathiriwa inajumuisha rekodi za wateja katika hifadhidata X. Hatua za kuzuia: Ufikiaji wa VPN kwa akaunti zilizoathiriwa umefutwa na seva zimetengwa. Hatua zinazofuata: kuchanganua mifumo yoyote ya kuendelea." Mjibuji anaweza kisha kuthibitisha au kurekebisha hili haraka na kulituma, akihakikisha wadau wanafuatiliwa na taarifa sahihi na za kisasa.

Baada ya vumbi kutulia, kwa kawaida huwa na ripoti ya kina ya matukio ya kutayarisha na masomo ya kujifunza kukusanya. Hili ni eneo lingine ambapo usaidizi wa AI hung'aa. Inaweza kukagua data yote ya tukio na kutoa ripoti ya baada ya tukio inayohusu chanzo kikuu, mpangilio wa matukio, athari, na mapendekezo. Kwa mfano, IBM inaunganisha AI ya kuzalisha ili kuunda "muhtasari rahisi wa kesi za usalama na matukio ambayo yanaweza kushirikiwa na wadau" kwa kubonyeza kitufe ( AI ya Kuzalisha Inawezaje Kutumika katika Usalama wa Mtandao? Mifano 10 Halisi ya Ulimwengu ). Kwa kurahisisha kuripoti baada ya hatua, mashirika yanaweza kutekeleza maboresho haraka na pia kuwa na nyaraka bora kwa madhumuni ya kufuata sheria.

Matumizi moja bunifu ya kuangalia mbele ni uigaji wa matukio unaoendeshwa na AI . Sawa na jinsi mtu anavyoweza kuendesha zoezi la kuzima moto, baadhi ya makampuni yanatumia AI ya kuzalisha ili kupitia matukio ya "vipi kama". AI inaweza kuiga jinsi programu ya ukombozi inavyoweza kuenea kutokana na mpangilio wa mtandao, au jinsi mtu wa ndani anavyoweza kutoa data, na kisha kupata alama ya ufanisi wa mipango ya sasa ya majibu. Hii husaidia timu kuandaa na kuboresha vitabu vya michezo kabla ya tukio halisi kutokea. Ni kama kuwa na mshauri wa majibu ya matukio anayeendelea kuboresha ambaye hujaribu utayari wako kila mara.

Katika tasnia zenye hatari kubwa kama vile fedha au huduma ya afya, ambapo muda wa mapumziko au upotevu wa data kutokana na matukio ni ghali sana, uwezo huu wa IR unaoendeshwa na AI unavutia sana. Hospitali inayopitia tukio la mtandaoni haiwezi kumudu kukatika kwa muda mrefu kwa mfumo - AI ambayo husaidia haraka katika udhibiti inaweza kuokoa maisha. Vile vile, taasisi ya fedha inaweza kutumia AI kushughulikia upimaji wa awali wa uingiliaji unaoshukiwa wa ulaghai saa 3 asubuhi, ili kufikia wakati watu wanaopiga simu wanapokuwa mtandaoni, kazi nyingi za msingi (kuondoa akaunti zilizoathiriwa, kuzuia miamala, n.k.) ziwe tayari zimekamilika. Kwa kuongeza timu za kukabiliana na matukio zenye AI ya uzalishaji , mashirika yanaweza kupunguza kwa kiasi kikubwa muda wa majibu na kuboresha ukamilifu wa utunzaji wao, hatimaye kupunguza uharibifu kutokana na matukio ya mtandaoni.

Uchanganuzi wa Tabia na Ugunduzi wa Anomaly

Mashambulizi mengi ya mtandaoni yanaweza kugunduliwa kwa kugundua wakati kitu kinapotoka kutoka kwa tabia ya "kawaida" - iwe ni akaunti ya mtumiaji inayopakua kiasi kisicho cha kawaida cha data au kifaa cha mtandao kinachowasiliana ghafla na mwenyeji asiyemjua. AI ya Uzazi hutoa mbinu za hali ya juu za uchambuzi wa tabia na kugundua kasoro , kujifunza mifumo ya kawaida ya watumiaji na mifumo na kisha kuashiria wakati kitu kinaonekana kuwa kibaya.

Ugunduzi wa kawaida wa anomali mara nyingi hutumia vizingiti vya takwimu au ujifunzaji rahisi wa mashine kwenye vipimo maalum (kuongezeka kwa matumizi ya CPU, kuingia kwa saa zisizo za kawaida, n.k.). AI ya Kuzalisha inaweza kuendelea zaidi kwa kuunda wasifu wa tabia zenye umbo tofauti zaidi. Kwa mfano, modeli ya AI inaweza kumeza kuingia, mifumo ya ufikiaji wa faili, na tabia za barua pepe za mfanyakazi baada ya muda na kuunda uelewa wa pande nyingi wa "kawaida" ya mtumiaji huyo. Ikiwa akaunti hiyo baadaye itafanya kitu nje ya kawaida yake (kama vile kuingia kutoka nchi mpya na kufikia rundo la faili za HR usiku wa manane), AI ingegundua kupotoka sio tu kwenye kipimo kimoja lakini kama muundo mzima wa tabia ambao hauendani na wasifu wa mtumiaji. Kwa maneno ya kiufundi, modeli za kuzalisha (kama vile visimbaji otomatiki au modeli za mfuatano) zinaweza kuiga jinsi "kawaida" inavyoonekana na kisha kutoa aina inayotarajiwa ya tabia. Wakati ukweli unapoanguka nje ya safu hiyo, inaangaziwa kama anomali ( AI ya Kuzalisha ni Nini katika Usalama wa Mtandao? - Palo Alto Networks ).

Utekelezaji mmoja wa vitendo ni katika ufuatiliaji wa trafiki ya mtandao . Kulingana na utafiti wa 2024, 54% ya mashirika ya Marekani yalitaja ufuatiliaji wa trafiki ya mtandao kama mfano bora wa matumizi ya AI katika usalama wa mtandao ( Amerika Kaskazini: visa bora vya matumizi ya AI katika usalama wa mtandao duniani kote 2024 ). AI ya kuzalisha inaweza kujifunza mifumo ya kawaida ya mawasiliano ya mtandao wa biashara - ambayo seva kwa kawaida huzungumza, ni kiasi gani cha data kinachosogea wakati wa saa za kazi dhidi ya usiku mmoja, n.k. Ikiwa mshambuliaji ataanza kutoa data kutoka kwa seva, hata polepole ili kuepuka kugunduliwa, mfumo unaotegemea AI unaweza kugundua kuwa "Seva A haitumii tu 500MB ya data saa 8 asubuhi kwa IP ya nje" na kutoa tahadhari. Kwa sababu AI haitumii tu sheria tuli bali ni mfumo unaobadilika wa tabia ya mtandao, inaweza kukamata kasoro ndogo ambazo sheria tuli (kama vile "tahadhari ikiwa data > X MB") zinaweza kukosa au kuahirisha kimakosa. Hali hii inayobadilika ndiyo inayofanya ugunduzi wa kasoro unaoendeshwa na AI kuwa na nguvu katika mazingira kama mitandao ya miamala ya benki, miundombinu ya wingu, au meli za vifaa vya IoT, ambapo kufafanua sheria zisizobadilika za kawaida dhidi ya zisizo za kawaida ni ngumu sana.

AI ya Kuzalisha pia inasaidia na uchanganuzi wa tabia za watumiaji (UBA) , ambayo ni muhimu katika kugundua vitisho vya ndani au akaunti zilizoathiriwa. Kwa kutoa msingi wa kila mtumiaji au chombo, AI inaweza kugundua mambo kama matumizi mabaya ya sifa. Kwa mfano, ikiwa Bob kutoka kwa uhasibu ataanza kuuliza hifadhidata ya wateja ghafla (jambo ambalo hajawahi kufanya hapo awali), modeli ya AI ya tabia ya Bob itaashiria hili kama jambo lisilo la kawaida. Huenda isiwe programu hasidi - inaweza kuwa kesi ya sifa za Bob kuibiwa na kutumiwa na mshambuliaji, au Bob kuchunguza mahali ambapo hapaswi. Vyovyote vile, timu ya usalama hupata taarifa za kuchunguza. Mifumo kama hiyo ya UBA inayoendeshwa na AI ipo katika bidhaa mbalimbali za usalama, na mbinu za uundaji wa modeli za uzalishaji zinasukuma usahihi wao juu na kupunguza kengele za uwongo kwa kuzingatia muktadha (labda Bob yuko kwenye mradi maalum, nk, ambao AI wakati mwingine inaweza kuhitimisha kutoka kwa data nyingine).

Katika ulimwengu wa utambulisho na usimamizi wa ufikiaji, ugunduzi wa kina-bandia ni hitaji linaloongezeka - AI ya kuzalisha inaweza kuunda sauti na video za bandia zinazopumbaza usalama wa kibiometriki. Cha kufurahisha ni kwamba, AI ya kuzalisha inaweza pia kusaidia kugundua kina-bandia hizi kwa kuchanganua mabaki madogo katika sauti au video ambayo ni vigumu kwa wanadamu kuyaona. Tuliona mfano na Accenture, ambayo ilitumia AI ya kuzalisha kuiga sura na hali nyingi za uso ili kufunza mifumo yao ya kibiometriki kutofautisha watumiaji halisi kutoka kwa kina-bandia zinazozalishwa na AI. Kwa zaidi ya miaka mitano, mbinu hii ilisaidia Accenture kuondoa nywila kwa 90% ya mifumo yake (kuhamia kwenye biometriki na mambo mengine) na kupunguza mashambulizi kwa 60% ( 6 Matumizi ya Kesi za AI ya Kuzalisha katika Usalama wa Mtandao [+ Mifano] ). Kimsingi, walitumia AI ya kuzalisha ili kuimarisha uthibitishaji wa kibiometriki, na kuifanya iwe imara dhidi ya mashambulizi ya kuzalisha (mfano mzuri wa AI ya kupambana na AI). Aina hii ya uundaji wa tabia - katika kesi hii kutambua tofauti kati ya uso wa mwanadamu aliye hai dhidi ya uso uliotengenezwa na AI - ni muhimu tunapotegemea zaidi AI katika uthibitishaji.

Ugunduzi wa Anomali unaoendeshwa na AI ya kuzalisha unatumika katika tasnia zote: katika huduma ya afya, kufuatilia tabia ya vifaa vya matibabu kwa dalili za udukuzi; katika fedha, kuangalia mifumo ya biashara kwa mifumo isiyo ya kawaida ambayo inaweza kuonyesha ulaghai au udanganyifu wa algoriti; katika nishati/huduma, kuchunguza ishara za mfumo wa udhibiti kwa dalili za uvamizi. Mchanganyiko wa upana (kuangalia vipengele vyote vya tabia) na kina (kuelewa mifumo tata) ambayo AI ya kuzalisha hutoa huifanya kuwa kifaa chenye nguvu cha kutambua viashiria vya sindano-ndani-ya-nyasi vya tukio la mtandao. Vitisho vinapozidi kuwa siri, kujificha kati ya shughuli za kawaida, uwezo huu wa kuainisha kwa usahihi "kawaida" na kupiga kelele wakati kitu kinapotoka unakuwa muhimu. AI ya kuzalisha kwa hivyo hutumika kama mlinzi asiyechoka, kila wakati akijifunza na kusasisha ufafanuzi wake wa hali ya kawaida ili kuendana na mabadiliko katika mazingira, na kuwaarifu timu za usalama kuhusu hali zisizo za kawaida zinazostahili ukaguzi wa karibu.

Fursa na Faida za AI ya Kuzalisha katika Usalama wa Mtandaoni

fursa na faida nyingi kwa mashirika yaliyo tayari kukumbatia zana hizi. Hapa chini, tunafupisha faida muhimu zinazofanya AI ya kuzalisha kuwa nyongeza ya kuvutia kwa programu za usalama wa mtandao:

  • Ugunduzi na Mwitikio wa Haraka wa Vitisho: Mifumo ya AI inayozalisha inaweza kuchambua kiasi kikubwa cha data kwa wakati halisi na kutambua vitisho haraka zaidi kuliko uchambuzi wa kibinadamu wa mikono. Faida hii ya kasi inamaanisha kugundua mapema mashambulizi na udhibiti wa haraka wa matukio. Kwa vitendo, ufuatiliaji wa usalama unaoendeshwa na AI unaweza kukamata vitisho ambavyo vingechukua wanadamu muda mrefu zaidi kuviunganisha. Kwa kujibu matukio haraka (au hata kutekeleza majibu ya awali kwa uhuru), mashirika yanaweza kupunguza kwa kiasi kikubwa muda wa washambuliaji kukaa kwenye mitandao yao, na kupunguza uharibifu.

  • Usahihi Ulioboreshwa na Ufikiaji wa Vitisho: Kwa sababu hujifunza kila mara kutoka kwa data mpya, mifumo ya kuzalisha inaweza kuzoea vitisho vinavyobadilika na kukamata dalili ndogo za shughuli hasidi. Hii husababisha usahihi ulioboreshwa wa kugundua (hasi hasi chache za uwongo na chanya za uwongo) ikilinganishwa na sheria tuli. Kwa mfano, AI ambayo imejifunza sifa za barua pepe ya ulaghai au tabia ya programu hasidi inaweza kutambua aina ambazo hazijawahi kuonekana hapo awali. Matokeo yake ni ufunikaji mpana wa aina za vitisho - ikiwa ni pamoja na mashambulizi mapya - kuimarisha mkao wa jumla wa usalama. Timu za usalama pia hupata maarifa ya kina kutoka kwa uchambuzi wa AI (km maelezo ya tabia ya programu hasidi), kuwezesha ulinzi sahihi zaidi na unaolengwa ( AI ya Kuzalisha ni Nini katika Usalama wa Mtandao? - Mitandao ya Palo Alto ).

  • Uendeshaji otomatiki wa Kazi Zinazorudiwa: AI ya Kuzalisha hustawi katika kuendesha otomatiki kazi za usalama za kawaida na zinazohitaji nguvu nyingi - kuanzia kuchanganua kumbukumbu na kukusanya ripoti hadi kuandika hati za majibu ya matukio. Otomatiki hii hupunguza mzigo kwa wachambuzi wa binadamu , na kuwaweka huru kuzingatia mkakati wa kiwango cha juu na kufanya maamuzi magumu ( AI ya Kuzalisha ni Nini katika Usalama wa Mtandao? - Palo Alto Networks ). Kazi muhimu za kawaida kama vile uchanganuzi wa udhaifu, ukaguzi wa usanidi, uchambuzi wa shughuli za watumiaji, na kuripoti kufuata sheria zinaweza kushughulikiwa (au angalau kuandikwa kwanza) na AI. Kwa kushughulikia kazi hizi kwa kasi ya mashine, AI sio tu inaboresha ufanisi lakini pia hupunguza makosa ya binadamu (jambo muhimu katika ukiukaji).

  • Ulinzi na Uigaji wa Kinachofanya Kazi: AI ya Kuzalisha inaruhusu mashirika kuhama kutoka kwa usalama wa tendaji hadi usalama wa tendaji. Kupitia mbinu kama vile uigaji wa mashambulizi, uzalishaji wa data bandia, na mafunzo yanayotegemea hali halisi, watetezi wanaweza kutarajia na kujiandaa kwa vitisho kabla havijatokea katika ulimwengu halisi. Timu za usalama zinaweza kuiga mashambulizi ya mtandaoni (kampeni za ulaghai, milipuko ya programu hasidi, DDoS, n.k.) katika mazingira salama ili kujaribu majibu yao na kudhibiti udhaifu wowote. Mafunzo haya endelevu, ambayo mara nyingi hayawezekani kufanywa kikamilifu kwa juhudi za kibinadamu tu, huweka ulinzi mkali na wa kisasa. Ni sawa na "mchezo wa moto" wa mtandaoni - AI inaweza kutupa vitisho vingi vya kinadharia kwenye ulinzi wako ili uweze kufanya mazoezi na kuboresha.

  • Kuongeza Utaalamu wa Kibinadamu (AI kama Kizidishi cha Nguvu): AI ya Kuzalisha hufanya kazi kama mchambuzi mdogo asiyechoka, mshauri, na msaidizi aliyejumuishwa katika kundi moja. Inaweza kuwapa wanachama wa timu wasio na uzoefu mwingi mwongozo na mapendekezo ambayo kwa kawaida yanatarajiwa kutoka kwa wataalamu wenye uzoefu, na hivyo kuiwezesha demokrasia kwa ufanisi katika timu nzima ( 6 Matumizi ya Kesi za AI ya Kuzalisha katika Usalama wa Mtandao [+ Mifano] ). Hii ni muhimu sana kutokana na uhaba wa vipaji katika usalama wa mtandao - AI husaidia timu ndogo kufanya zaidi kwa kidogo. Wachambuzi wenye uzoefu, kwa upande mwingine, hufaidika na AI kushughulikia kazi ya kunung'unika na kuibua maarifa yasiyo dhahiri, ambayo wanaweza kuyathibitisha na kuyafanyia kazi. Matokeo ya jumla ni timu ya usalama ambayo ina tija na uwezo zaidi, huku AI ikiongeza athari za kila mwanachama wa binadamu ( Jinsi AI ya Kuzalisha Inaweza Kutumika katika Usalama wa Mtandao ).

  • Usaidizi na Ripoti za Uamuzi Ulioboreshwa: Kwa kutafsiri data ya kiufundi katika maarifa ya lugha asilia, AI ya uzalishaji huboresha mawasiliano na kufanya maamuzi. Viongozi wa usalama hupata mwonekano wazi zaidi wa masuala kupitia muhtasari unaotokana na AI na wanaweza kufanya maamuzi ya kimkakati bila kuhitaji kuchanganua data ghafi. Vile vile, mawasiliano ya utendaji kazi mtambuka (kwa watendaji, maafisa wa uzingatiaji, n.k.) huboreshwa wakati AI inapoandaa ripoti rahisi kueleweka za mkao wa usalama na matukio ( AI ya Uzalishaji Inawezaje Kutumika katika Usalama wa Mtandao? Mifano 10 Halisi ya Ulimwengu ). Hii sio tu kwamba hujenga kujiamini na upatanifu katika masuala ya usalama katika ngazi ya uongozi lakini pia husaidia kuhalalisha uwekezaji na mabadiliko kwa kuelezea wazi hatari na mapengo yaliyogunduliwa na AI.

Kwa pamoja, faida hizi zinamaanisha kwamba mashirika yanayotumia AI ya uzalishaji katika usalama wa mtandao yanaweza kufikia mkao imara wa usalama na gharama za uendeshaji zinazoweza kuwa chini. Yanaweza kujibu vitisho ambavyo hapo awali vilikuwa vingi, kufunika mapengo ambayo hayakufuatiliwa, na kuendelea kuboreka kupitia mizunguko ya maoni inayoendeshwa na AI. Hatimaye, AI ya uzalishaji hutoa nafasi ya kuwatangulia wapinzani kwa kulinganisha kasi , ukubwa, na ustaarabu wa mashambulizi ya kisasa na ulinzi wa kisasa sawa. Kama utafiti mmoja ulivyogundua, zaidi ya nusu ya viongozi wa biashara na mtandao wanatarajia kugundua vitisho haraka na usahihi ulioongezeka kupitia matumizi ya AI ya uzalishaji ( [PDF] Mtazamo wa Usalama wa Mtandaoni wa Kimataifa 2025 | Jukwaa la Uchumi Duniani ) ( AI ya Uzalishaji katika Usalama wa Mtandaoni: Mapitio Kamili ya LLM ... ) - ushuhuda wa matumaini kuhusu faida za teknolojia hizi.

Hatari na Changamoto za Kutumia AI ya Kuzalisha katika Usalama wa Mtandaoni

Ingawa fursa ni muhimu, ni muhimu kukabiliana na AI ya uzalishaji katika usalama wa mtandao huku macho yakiwa wazi kwa hatari na changamoto zinazohusika. Kuamini AI bila kufikiri au kuitumia vibaya kunaweza kusababisha udhaifu mpya. Hapa chini, tunaelezea wasiwasi na mitego mikubwa, pamoja na muktadha wa kila moja:

  • Matumizi ya Upinzani na Wahalifu wa Mtandaoni: Uwezo uleule wa uzalishaji unaowasaidia watetezi unaweza kuwawezesha washambuliaji. Watendaji wa vitisho tayari wanatumia AI ya uzalishaji ili kutengeneza barua pepe za ulaghai zenye kushawishi zaidi, kuunda watu bandia na video bandia za kina kwa ajili ya uhandisi wa kijamii, kutengeneza programu hasidi ya polimofi ambayo hubadilika kila mara ili kuepuka kugunduliwa, na hata kujiendesha kiotomatiki vipengele vya udukuzi ( AI ya Uzalishaji ni Nini katika Usalama wa Mtandaoni? - Palo Alto Networks ). Karibu nusu (46%) ya viongozi wa usalama wa mtandao wana wasiwasi kwamba AI ya uzalishaji itasababisha mashambulizi ya hali ya juu zaidi ya upinzani ( Usalama wa AI ya Uzalishaji: Mitindo, Vitisho na Mikakati ya Kupunguza ). "Mbio hizi za silaha za AI" zinamaanisha kwamba watetezi wanapotumia AI, washambuliaji hawatakuwa nyuma sana (kwa kweli, wanaweza kuwa mbele katika baadhi ya maeneo, kwa kutumia zana za AI zisizodhibitiwa). Mashirika lazima yawe tayari kwa vitisho vilivyoimarishwa na AI ambavyo ni vya mara kwa mara, vya kisasa, na vigumu kufuatilia.

  • Ndoto na Ubaya wa AI: Mifumo ya AI ya kuzalisha inaweza kutoa matokeo ambayo yanawezekana lakini si sahihi au yanapotosha - jambo linalojulikana kama ndoto. Katika muktadha wa usalama, AI inaweza kuchambua tukio na kuhitimisha kimakosa kwamba udhaifu fulani ndio uliosababisha, au inaweza kutoa hati ya kurekebisha yenye kasoro ambayo inashindwa kudhibiti shambulio. Makosa haya yanaweza kuwa hatari ikiwa yatachukuliwa kwa thamani ya juu. Kama NTT Data inavyoonya, "AI ya kuzalisha inaweza kutoa maudhui yasiyo ya kweli, na jambo hili linaitwa ndoto ... kwa sasa ni vigumu kuyaondoa kabisa" ( Hatari za Usalama za AI ya Kuzalisha na Vipimo vya Kukabiliana, na Athari Zake kwenye Usalama wa Mtandao | NTT DATA Group ). Kutegemea AI kupita kiasi bila uthibitisho kunaweza kusababisha juhudi zisizoelekezwa au hisia potofu ya usalama. Kwa mfano, AI inaweza kuashiria kwa uwongo mfumo muhimu kama salama wakati si, au kinyume chake, kusababisha hofu kwa "kugundua" uvunjaji ambao haujawahi kutokea. Uthibitisho mkali wa matokeo ya AI na kuwa na wanadamu katika kitanzi cha maamuzi muhimu ni muhimu ili kupunguza hatari hii.

  • Chanya na Hasi za Uongo: Zinazohusiana na ndoto za kuota ndoto, ikiwa modeli ya AI haijafunzwa vizuri au haijasanidiwa vizuri, inaweza kuripoti shughuli zisizo na madhara kama hatarishi (chanya za uongo) au, mbaya zaidi, kukosa vitisho halisi (hasi za uongo) ( Je, AI ya Kuzalisha Inaweza Kutumikaje katika Usalama wa Mtandaoni ). Arifa nyingi za uongo zinaweza kuzishinda timu za usalama na kusababisha uchovu wa tahadhari (kuondoa faida za ufanisi AI zilizoahidiwa), huku ugunduzi uliokosekana ukiacha shirika wazi. Kurekebisha mifumo ya uzalishaji kwa usawa sahihi ni changamoto. Kila mazingira ni ya kipekee, na AI inaweza isifanye kazi vizuri mara moja. Kujifunza endelevu ni upanga wenye makali kuwili pia - ikiwa AI itajifunza kutokana na maoni yaliyopotoka au kutoka kwa mazingira yanayobadilika, usahihi wake unaweza kubadilika. Timu za usalama lazima zifuatilie utendaji wa AI na kurekebisha vizingiti au kutoa maoni ya kurekebisha kwa mifumo. Katika miktadha yenye umuhimu mkubwa (kama vile kugundua uvamizi wa miundombinu muhimu), inaweza kuwa busara kuendesha mapendekezo ya AI sambamba na mifumo iliyopo kwa muda, ili kuhakikisha inalingana na kukamilishana badala ya migogoro.

  • Faragha na Uvujaji wa Data: Mifumo ya AI ya kuzalisha mara nyingi huhitaji kiasi kikubwa cha data kwa ajili ya mafunzo na uendeshaji. Ikiwa mifumo hii inategemea wingu au haijatengwa vizuri, kuna hatari kwamba taarifa nyeti zinaweza kuvuja. Watumiaji wanaweza kusambaza data ya wamiliki au data ya kibinafsi kwa bahati mbaya katika huduma ya AI (fikiria kuuliza ChatGPT kufupisha ripoti ya siri ya tukio), na kwamba data inaweza kuwa sehemu ya maarifa ya mfumo. Hakika, utafiti wa hivi karibuni uligundua kuwa 55% ya pembejeo za zana za AI za kuzalisha zilikuwa na taarifa nyeti au zinazotambulika kibinafsi , na kuzua wasiwasi mkubwa kuhusu uvujaji wa data ( Usalama wa AI wa Kuzalisha: Mitindo, Vitisho na Mikakati ya Kupunguza ). Zaidi ya hayo, ikiwa AI imefunzwa kuhusu data ya ndani na ikaulizwa kwa njia fulani, inaweza kutoa vipande vya data hiyo nyeti kwa mtu mwingine. Mashirika lazima yatekeleze sera kali za utunzaji wa data (km kutumia mifano ya AI ya ndani au ya kibinafsi kwa nyenzo nyeti) na kuwaelimisha wafanyakazi kuhusu kutobandika taarifa za siri kwenye zana za AI za umma. Kanuni za faragha (GDPR, n.k.) pia zinahusika - kutumia data ya kibinafsi kufunza AI bila idhini au ulinzi unaofaa kunaweza kukiuka sheria.

  • Usalama na Udanganyifu wa Kielelezo: Mifumo ya AI ya Kuzalisha yenyewe inaweza kuwa shabaha. Wapinzani wanaweza kujaribu sumu ya kielelezo , kulisha data hasidi au ya kupotosha wakati wa mafunzo au awamu ya mafunzo upya ili AI ijifunze mifumo isiyo sahihi ( Je, AI ya Kuzalisha Inaweza Kutumikaje katika Usalama wa Mtandaoni ). Kwa mfano, mshambuliaji anaweza kudhuru kwa hila data ya intel ya vitisho ili AI ishindwe kutambua programu hasidi ya mshambuliaji kama hasidi. Mbinu nyingine ni ulaghai wa haraka wa kuingiza au kutoa , ambapo mshambuliaji hupata njia ya kutoa pembejeo kwa AI inayosababisha itende kwa njia zisizokusudiwa - labda kupuuza ulinzi wake wa usalama au kufichua taarifa ambayo haipaswi (kama vile vidokezo vya ndani au data). Zaidi ya hayo, kuna hatari ya ukwepaji wa kielelezo : washambuliaji wakitengeneza pembejeo iliyoundwa mahsusi ili kudanganya AI. Tunaona hili katika mifano ya wapinzani - data iliyochanganyikiwa kidogo ambayo mwanadamu anaona kama ya kawaida lakini AI inaiainisha vibaya. Kuhakikisha mnyororo wa ugavi wa AI uko salama (uadilifu wa data, udhibiti wa ufikiaji wa modeli, upimaji wa uthabiti wa wapinzani) ni sehemu mpya lakini muhimu ya usalama wa mtandao wakati wa kutumia zana hizi ( AI ya Kuzalisha ni Nini katika Usalama wa Mtandao? - Palo Alto Networks ).

  • Kujitegemea Kupita Kiasi na Mmomonyoko wa Ujuzi: Kuna hatari ndogo zaidi kwamba mashirika yanaweza kutegemea sana AI na kuruhusu ujuzi wa binadamu kudhoofika. Ikiwa wachambuzi wadogo wataanza kuamini matokeo ya AI bila kufikiri, wanaweza wasijenge mawazo muhimu na hisia zinazohitajika wakati AI haipatikani au si sahihi. Hali ya kuepuka ni timu ya usalama ambayo ina zana nzuri lakini haijui jinsi ya kufanya kazi ikiwa zana hizo zitaharibika (sawa na marubani kutegemea sana autopilot). Mazoezi ya kawaida ya mafunzo bila usaidizi wa AI na kukuza mtazamo kwamba AI ni msaidizi, si mtabiri asiye na dosari, ni muhimu ili kuwaweka wachambuzi wa binadamu wakiwa wakali. Binadamu lazima wabaki kuwa watunga maamuzi wa mwisho, hasa kwa hukumu zenye athari kubwa.

  • Changamoto za Maadili na Uzingatiaji: Matumizi ya AI katika usalama wa mtandao huibua maswali ya kimaadili na yanaweza kusababisha masuala ya uzingatiaji wa sheria. Kwa mfano, ikiwa mfumo wa AI unamhusisha mfanyakazi kimakosa kama mtu wa ndani mwenye nia mbaya kutokana na jambo lisilo la kawaida, inaweza kuharibu sifa au kazi ya mtu huyo isivyo haki. Maamuzi yaliyofanywa na AI yanaweza kuwa yasiyoeleweka (tatizo la "kisanduku cheusi"), na kufanya iwe vigumu kuwaelezea wakaguzi au wadhibiti kwa nini hatua fulani zilichukuliwa. Kadri maudhui yanayozalishwa na AI yanavyozidi kuenea, kuhakikisha uwazi na kudumisha uwajibikaji ni muhimu. Wadhibiti wanaanza kuchunguza AI - kwa mfano, Sheria ya AI ya EU, itaweka mahitaji kwenye mifumo ya AI "yenye hatari kubwa", na AI ya usalama wa mtandao inaweza kuanguka katika kundi hilo. Makampuni yatahitaji kupitia kanuni hizi na pengine kuzingatia viwango kama Mfumo wa Usimamizi wa Hatari wa AI wa NIST ili kutumia AI ya uzalishaji kwa uwajibikaji ( AI ya Uzalishaji Inawezaje Kutumika katika Usalama wa Mtandao? Mifano 10 Halisi ya Ulimwengu ). Uzingatiaji unaenea hadi kwenye leseni pia: kutumia mifumo ya chanzo huria au ya mtu wa tatu kunaweza kuwa na masharti ambayo yanazuia matumizi fulani au kuhitaji maboresho ya kushiriki.

Kwa muhtasari, AI ya kuzalisha si risasi ya fedha - ikiwa haitatekelezwa kwa uangalifu, inaweza kuleta udhaifu mpya hata kama inatatua mengine. Utafiti wa Jukwaa la Uchumi Duniani la 2024 ulionyesha kwamba ~47% ya mashirika yanataja maendeleo katika AI ya kuzalisha na washambuliaji kama wasiwasi mkuu, na kuifanya "athari inayohusu zaidi ya AI ya kuzalisha" katika usalama wa mtandao ( [PDF] Mtazamo wa Usalama wa Mtandaoni wa Kimataifa 2025 | Jukwaa la Uchumi Duniani ) ( AI ya Kuzalisha katika Usalama wa Mtandaoni: Mapitio Kamili ya LLM ... ). Kwa hivyo mashirika lazima yapitishe mbinu iliyosawazishwa: kutumia faida za AI huku yakidhibiti hatari hizi kwa ukali kupitia utawala, upimaji, na usimamizi wa binadamu. Tutajadili jinsi ya kufikia usawa huo kivitendo.

Mtazamo wa Wakati Ujao: Jukumu Linalobadilika la AI ya Uzazi katika Usalama wa Mtandaoni

Tukiangalia mbele, AI ya kuzalisha iko tayari kuwa sehemu muhimu ya mkakati wa usalama wa mtandao - na vivyo hivyo, chombo ambacho wapinzani wa mtandao wataendelea kutumia. Mabadiliko ya kasi ya kasi yataongezeka, huku AI ikiwa pande zote mbili za uzio. Hapa kuna baadhi ya maarifa ya kuangalia mbele kuhusu jinsi AI ya kuzalisha inaweza kuathiri usalama wa mtandao katika miaka ijayo:

  • Ulinzi wa Mtandaoni Ulioboreshwa na AI Unakuwa Kiwango: Kufikia 2025 na kuendelea, tunaweza kutarajia kwamba mashirika mengi ya kati hadi makubwa yatakuwa yamejumuisha zana zinazoendeshwa na AI katika shughuli zao za usalama. Kama vile antivirus na ngome zilivyo kiwango leo, wapiganaji wa AI na mifumo ya kugundua makosa inaweza kuwa vipengele vya msingi vya usanifu wa usalama. Zana hizi huenda zikawa maalum zaidi - kwa mfano, mifumo tofauti ya AI iliyorekebishwa kwa usalama wa wingu, kwa ufuatiliaji wa vifaa vya IoT, kwa usalama wa msimbo wa programu, na kadhalika, zote zikifanya kazi kwa pamoja. Kama utabiri mmoja unavyosema, "mnamo 2025, AI ya uzalishaji itakuwa muhimu kwa usalama wa mtandao, ikiwezesha mashirika kujilinda dhidi ya vitisho vya kisasa na vinavyobadilika kwa vitendo" ( Jinsi AI ya Uzalishaji Inaweza Kutumika katika Usalama wa Mtandao ). AI itaboresha ugunduzi wa vitisho kwa wakati halisi, itaendesha vitendo vingi vya majibu kiotomatiki, na kusaidia timu za usalama kudhibiti kiasi kikubwa cha data kuliko wangeweza kufanya kwa mikono.

  • Kujifunza na Kubadilika Endelevu: Mifumo ya AI ya baadaye inayozalishwa katika mtandao itapata matokeo bora katika kujifunza haraka kutoka kwa matukio mapya na akili ya vitisho, ikisasisha msingi wao wa maarifa karibu na wakati halisi. Hii inaweza kusababisha ulinzi unaobadilika kweli - fikiria AI inayojifunza kuhusu kampeni mpya ya ulaghai inayoikumba kampuni nyingine asubuhi na ifikapo alasiri tayari imerekebisha vichujio vya barua pepe vya kampuni yako kujibu. Huduma za usalama za AI zinazotegemea wingu zinaweza kuwezesha aina hii ya ujifunzaji wa pamoja, ambapo maarifa yasiyojulikana kutoka kwa shirika moja yanawanufaisha waliojisajili wote (kama vile kushiriki vitisho vya intel, lakini kiotomatiki). Hata hivyo, hii itahitaji utunzaji makini ili kuepuka kushiriki taarifa nyeti na kuzuia washambuliaji kusambaza data mbaya kwenye mifumo iliyoshirikiwa.

  • Muunganiko wa AI na Kipaji cha Usalama wa Mtandaoni: Seti ya ujuzi ya wataalamu wa usalama wa mtandao itabadilika na kujumuisha ustadi katika AI na sayansi ya data. Kama vile wachambuzi wa leo wanavyojifunza lugha za maswali na hati, wachambuzi wa kesho wanaweza kurekebisha mara kwa mara mifumo ya AI au kuandika "vitabu vya kuchezea" kwa AI kutekeleza. Tunaweza kuona majukumu mapya kama "Mkufunzi wa Usalama wa AI" au "Mhandisi wa AI wa Usalama wa Mtandaoni" - watu ambao ni wataalamu katika kurekebisha zana za AI kulingana na mahitaji ya shirika, kuthibitisha utendaji wao, na kuhakikisha zinafanya kazi kwa usalama. Kwa upande mwingine, mambo ya kuzingatia kuhusu usalama wa mtandao yataathiri zaidi maendeleo ya AI. Mifumo ya AI itajengwa kwa vipengele vya usalama kuanzia chini (usanifu salama, kugundua vizuizi, kumbukumbu za ukaguzi kwa maamuzi ya AI, n.k.), na mifumo ya AI inayoaminika (haki, inayoeleweka, imara, na salama) itaongoza uwasilishaji wao katika miktadha muhimu ya usalama.

  • Mashambulizi ya Kisasa Zaidi Yanayoendeshwa na AI: Kwa bahati mbaya, mazingira ya vitisho pia yatabadilika na AI. Tunatarajia matumizi ya mara kwa mara ya AI ili kugundua udhaifu wa siku sifuri, kutengeneza hadaa ya mtandaoni inayolenga sana (km AI kukwaruza mitandao ya kijamii ili kuunda chambo kilichoundwa kikamilifu), na kutoa sauti au video bandia zenye kushawishi ili kuepuka uthibitishaji wa kibiometriki au kufanya ulaghai. Mawakala wa udukuzi kiotomatiki wanaweza kuibuka ambao wanaweza kufanya mashambulizi ya hatua nyingi kwa kujitegemea (upelelezi, unyonyaji, harakati za pembeni, n.k.) bila usimamizi wa kibinadamu. Hii itawashinikiza watetezi pia kutegemea AI - kimsingi otomatiki dhidi ya otomatiki . Mashambulizi mengine yanaweza kutokea kwa kasi ya mashine, kama vile roboti za AI zinazojaribu mabadiliko elfu ya barua pepe za ulaghai ili kuona ni ipi inayopita vichujio. Ulinzi wa mtandao utahitaji kufanya kazi kwa kasi sawa na kubadilika ili kuendelea ( AI ya Kuzalisha ni Nini katika Usalama wa Mtandao? - Mitandao ya Palo Alto ).

  • Kanuni na AI ya Maadili katika Usalama: Kadri AI inavyozidi kuingizwa ndani ya kazi za usalama wa mtandao, kutakuwa na uchunguzi mkubwa na pengine kanuni ili kuhakikisha mifumo hii ya AI inatumika kwa uwajibikaji. Tunaweza kutarajia mifumo na viwango maalum vya AI katika usalama. Serikali zinaweza kuweka miongozo ya uwazi - k.m., kuhitaji kwamba maamuzi muhimu ya usalama (kama vile kukomesha ufikiaji wa mfanyakazi kwa shughuli mbaya inayoshukiwa) hayawezi kufanywa na AI pekee bila ukaguzi wa kibinadamu. Kunaweza pia kuwa na vyeti vya bidhaa za usalama za AI, ili kuwahakikishia wanunuzi kwamba AI imetathminiwa kwa upendeleo, uimara, na usalama. Zaidi ya hayo, ushirikiano wa kimataifa unaweza kukua karibu na vitisho vya mtandao vinavyohusiana na AI; kwa mfano, makubaliano ya kushughulikia taarifa potofu au kanuni zinazotokana na AI dhidi ya silaha fulani za mtandao zinazoendeshwa na AI.

  • Ujumuishaji na AI pana na Mifumo ya ikolojia ya TEHAMA: AI inayozalisha katika usalama wa mtandao huenda ikaunganishwa na mifumo mingine ya AI na zana za usimamizi wa TEHAMA. Kwa mfano, AI inayosimamia uboreshaji wa mtandao inaweza kufanya kazi na AI ya usalama ili kuhakikisha mabadiliko hayafungui mianya. Uchanganuzi wa biashara unaoendeshwa na AI unaweza kushiriki data na AI za usalama ili kuoanisha kasoro (kama vile kushuka ghafla kwa mauzo na tatizo linalowezekana la tovuti kutokana na shambulio). Kimsingi, AI haitaishi katika silo - itakuwa sehemu ya mfumo mkubwa wa akili wa shughuli za shirika. Hii inafungua fursa za usimamizi kamili wa hatari ambapo data ya uendeshaji, data ya vitisho, na hata data ya usalama halisi inaweza kuunganishwa na AI ili kutoa mtazamo wa digrii 360 wa mkao wa usalama wa shirika.

Kwa muda mrefu, matumaini ni kwamba AI ya kuzalisha itasaidia kupunguza usawa kwa niaba ya watetezi. Kwa kushughulikia ukubwa na ugumu wa mazingira ya kisasa ya TEHAMA, AI inaweza kufanya mtandao uweze kutetewa zaidi. Hata hivyo, ni safari, na kutakuwa na ugumu unaoongezeka tunapoboresha teknolojia hizi na kujifunza kuziamini ipasavyo. Mashirika ambayo yanaendelea kupata taarifa na kuwekeza katika utumiaji wa AI kwa uwajibikaji kwa usalama huenda ndiyo yatakuwa katika nafasi nzuri zaidi ya kukabiliana na vitisho vya siku zijazo.

Kama ripoti ya hivi karibuni ya mwenendo wa usalama wa mtandao ya Gartner ilivyobainisha, "kuibuka kwa visa vya matumizi ya AI ya kuzalisha (na hatari) kunaleta shinikizo la mabadiliko" ( Mitindo ya Usalama wa Mtandao: Ustahimilivu Kupitia Mabadiliko - Gartner ). Wale wanaobadilika watatumia AI kama mshirika mwenye nguvu; wale wanaochelewa wanaweza kujikuta wakizidiwa na wapinzani waliowezeshwa na AI. Miaka michache ijayo itakuwa wakati muhimu katika kufafanua jinsi AI inavyobadilisha uwanja wa mapambano wa mtandao.

Mambo ya Kuzingatia kwa Utekelezaji wa AI ya Kuzalisha katika Usalama wa Mtandaoni

Kwa biashara zinazotathmini jinsi ya kutumia AI ya uzalishaji katika mkakati wao wa usalama wa mtandao, hapa kuna vidokezo na mapendekezo ya vitendo ili kuongoza utumiaji unaowajibika na mzuri:

  1. Anza na Elimu na Mafunzo: Hakikisha timu yako ya usalama (na wafanyakazi wa IT kwa ujumla) wanaelewa kile ambacho AI ya uzalishaji inaweza na haiwezi kufanya. Toa mafunzo kuhusu misingi ya zana za usalama zinazoendeshwa na AI na usasishe programu zako za uhamasishaji wa usalama kwa wafanyakazi wote ili kufidia vitisho vinavyowezeshwa na AI. Kwa mfano, wafundishe wafanyakazi jinsi AI inaweza kutoa ulaghai wa ulaghai wa kibinafsi unaoshawishi sana na simu bandia. Wakati huo huo, wafundishe wafanyakazi kuhusu matumizi salama na yaliyoidhinishwa ya zana za AI katika kazi zao. Watumiaji walio na taarifa sahihi wana uwezekano mdogo wa kushughulikia vibaya AI au kuwa waathiriwa wa mashambulizi yaliyoimarishwa na AI ( AI ya Uzalishaji Inawezaje Kutumika katika Usalama wa Mtandao? Mifano 10 Halisi ya Ulimwengu ).

  2. Fafanua Sera za Matumizi ya AI Wazi: Tibu AI ya Uzalishaji kama teknolojia yoyote yenye nguvu - pamoja na utawala. Tengeneza sera zinazobainisha ni nani anayeweza kutumia zana za AI, ni zana gani zimeidhinishwa, na kwa madhumuni gani. Jumuisha miongozo ya kushughulikia data nyeti (km kutoingiza data ya siri katika huduma za AI za nje) ili kuzuia uvujaji. Kwa mfano, unaweza kuruhusu wanachama wa timu ya usalama pekee kutumia msaidizi wa AI wa ndani kwa ajili ya kukabiliana na matukio, na uuzaji unaweza kutumia AI iliyokaguliwa kwa maudhui - kila mtu mwingine amezuiliwa. Mashirika mengi sasa yanashughulikia waziwazi AI ya Uzalishaji katika sera zao za TEHAMA, na mashirika yanayoongoza ya viwango yanahimiza sera za matumizi salama badala ya marufuku ya moja kwa moja ( AI ya Uzalishaji Inawezaje Kutumika katika Usalama wa Mtandao? Mifano 10 Halisi ya Ulimwengu ). Hakikisha unawasilisha sheria hizi na sababu zilizo nyuma yake kwa wafanyakazi wote.

  3. Punguza Matumizi ya "Kivuli AI" na Ufuatiliaji: Sawa na kivuli cha IT, "kivuli AI" hutokea wafanyakazi wanapoanza kutumia zana au huduma za AI bila ujuzi wa TEHAMA (km msanidi programu anayetumia msaidizi wa msimbo wa AI asiyeidhinishwa). Hii inaweza kuleta hatari zisizoonekana. Tekeleza hatua za kugundua na kudhibiti matumizi ya AI yasiyoidhinishwa . Ufuatiliaji wa mtandao unaweza kuashiria miunganisho na API maarufu za AI, na tafiti au ukaguzi wa zana unaweza kufichua kile wafanyakazi wanatumia. Toa njia mbadala zilizoidhinishwa ili wafanyakazi wenye nia njema wasijaribiwe kuwa wahalifu (kwa mfano, toa akaunti rasmi ya ChatGPT Enterprise ikiwa watu wanaona inafaa). Kwa kuangazia matumizi ya AI, timu za usalama zinaweza kutathmini na kudhibiti hatari. Ufuatiliaji pia ni muhimu - andika shughuli na matokeo ya zana za AI kadri inavyowezekana, ili kuwe na njia ya ukaguzi kwa maamuzi ambayo AI imeathiri ( AI ya Kuzalisha Inawezaje Kutumika katika Usalama wa Mtandao? Mifano 10 Halisi ya Ulimwengu ).

  4. Tumia AI kwa Kujilinda – Usianguke Nyuma: Tambua kwamba washambuliaji watatumia AI, kwa hivyo ulinzi wako unapaswa pia. Tambua maeneo machache yenye athari kubwa ambapo AI ya kuzalisha inaweza kusaidia mara moja shughuli zako za usalama (labda tahadhari ya triage, au uchambuzi wa kumbukumbu otomatiki) na uendesha miradi ya majaribio. Ongeza ulinzi wako kwa kasi na kiwango cha AI ili kukabiliana na vitisho vinavyosonga haraka ( AI ya Kuzalisha Inaweza Kutumikaje katika Usalama wa Mtandao? Mifano 10 Halisi ya Ulimwengu ). Hata ujumuishaji rahisi, kama vile kutumia AI kufupisha ripoti hasidi au kutoa maswali ya uwindaji wa vitisho, unaweza kuokoa saa za wachambuzi. Anza ndogo, tathmini matokeo, na urudie. Mafanikio yataunda kesi ya kupitishwa kwa AI pana. Lengo ni kutumia AI kama kizidishi cha nguvu - kwa mfano, ikiwa mashambulizi ya ulaghai yanazidi dawati lako la usaidizi, tumia kiainisha barua pepe cha AI ili kupunguza kiasi hicho kwa haraka.

  5. Wekeza katika Mazoea ya AI Salama na ya Maadili: Unapotekeleza AI ya kuzalisha, fuata mazoea salama ya ukuzaji na uenezaji. Tumia mifumo ya kibinafsi au inayojiendesha yenyewe kwa kazi nyeti ili kudumisha udhibiti wa data. Ukitumia huduma za AI za watu wengine, kagua hatua zao za usalama na faragha (usimbaji fiche, sera za uhifadhi wa data, n.k.). Jumuisha mifumo ya usimamizi wa hatari ya AI (kama vile Mfumo wa Usimamizi wa Hatari wa AI wa NIST au mwongozo wa ISO/IEC) ili kushughulikia mambo kama upendeleo, uelezevu, na uthabiti katika zana zako za AI ( AI ya Kuzalisha Inaweza Kutumikaje katika Usalama wa Mtandao? Mifano 10 Halisi ya Ulimwengu ). Pia panga masasisho/viraka vya mifumo kama sehemu ya matengenezo - mifumo ya AI inaweza kuwa na "udhaifu" pia (km inaweza kuhitaji mafunzo upya ikiwa itaanza kuteleza au ikiwa aina mpya ya shambulio la uhasama kwenye mfumo itagunduliwa). Kwa kuongeza usalama na maadili katika matumizi yako ya AI, unajenga imani katika matokeo na kuhakikisha kufuata kanuni zinazoibuka.

  6. Waweke Wanadamu Katika Kizingiti: Tumia AI kusaidia, si kuchukua nafasi kabisa, hukumu ya kibinadamu katika usalama wa mtandao. Amua sehemu za kufanya maamuzi ambapo uthibitisho wa kibinadamu unahitajika (kwa mfano, AI inaweza kuandika ripoti ya tukio, lakini mchambuzi anaipitia kabla ya usambazaji; au AI inaweza kupendekeza kuzuia akaunti ya mtumiaji, lakini mwanadamu anaidhinisha hatua hiyo). Hii sio tu kwamba inazuia makosa ya AI kutozingatiwa, lakini pia husaidia timu yako kujifunza kutoka kwa AI na kinyume chake. Himiza mtiririko wa kazi wa ushirikiano: wachambuzi wanapaswa kujisikia vizuri kuhoji matokeo ya AI na kufanya ukaguzi wa akili timamu. Baada ya muda, mazungumzo haya yanaweza kuboresha AI (kupitia maoni) na ujuzi wa wachambuzi. Kimsingi, buni michakato yako ili AI na nguvu za binadamu zisaidiane - AI hushughulikia ujazo na kasi, wanadamu hushughulikia utata na maamuzi ya mwisho.

  7. Pima, Fuatilia, na Urekebishe: Hatimaye, chukulia zana zako za kuzalisha AI kama vipengele hai vya mfumo wako wa usalama. Pima utendaji wao - je, zinapunguza muda wa kukabiliana na matukio? Kukamata vitisho mapema? Je, kiwango cha chanya cha uwongo kina mwelekeo gani? Omba maoni kutoka kwa timu: je, mapendekezo ya AI yanafaa, au yanaleta kelele? Tumia vipimo hivi kuboresha mifumo, kusasisha data ya mafunzo, au kurekebisha jinsi AI inavyounganishwa. Vitisho vya mtandao na mahitaji ya biashara yanabadilika, na mifumo yako ya AI inapaswa kusasishwa au kufunzwa upya mara kwa mara ili kuendelea kuwa na ufanisi. Kuwa na mpango wa utawala wa mifumo, ikiwa ni pamoja na nani anayehusika na matengenezo yake na mara ngapi inakaguliwa. Kwa kusimamia kikamilifu mzunguko wa maisha wa AI, unahakikisha inabaki kuwa mali, si dhima.

Kwa kumalizia, AI ya kuzalisha inaweza kuongeza kwa kiasi kikubwa uwezo wa usalama wa mtandao, lakini kupitishwa kwa mafanikio kunahitaji mipango makini na usimamizi unaoendelea. Biashara zinazoelimisha watu wao, kuweka miongozo iliyo wazi, na kuunganisha AI kwa njia iliyosawazishwa na salama zitavuna faida za usimamizi wa vitisho wa haraka na nadhifu. Mambo hayo ya kuzingatia hutoa ramani ya barabara: kuchanganya utaalamu wa binadamu na otomatiki AI, kufunika misingi ya utawala, na kudumisha wepesi kadri teknolojia AI na mazingira ya vitisho yanavyobadilika bila kuepukika.

Kwa kuchukua hatua hizi za vitendo, mashirika yanaweza kujibu swali kwa ujasiri "Je, AI ya kuzalisha inaweza kutumikaje katika usalama wa mtandao?" - si kwa nadharia tu, bali katika mazoezi ya kila siku - na hivyo kuimarisha ulinzi wao katika ulimwengu wetu unaozidi kuwa wa kidijitali na unaoendeshwa na AI. ( AI ya Kuzalisha Inaweza Kutumikaje katika Usalama wa Mtandao )

Karatasi nyeupe unazoweza kupenda kusoma baada ya hii:

🔗 Kazi Ambazo Akili bandia Haiwezi Kubadilisha na Ni Kazi Zipi Akili bandia Itachukua Nafasi?
Chunguza mtazamo wa kimataifa kuhusu ni majukumu gani yaliyo salama kutokana na otomatiki na yapi yasiyo salama.

🔗 Je, AI inaweza Kutabiri Soko la Hisa?
Kuangalia kwa karibu mapungufu, mafanikio, na hadithi potofu kuhusu uwezo wa AI kutabiri hatua za soko.

🔗 Akili bandia ya Kuzalisha Inaweza Kutegemewa Kufanya Nini Bila Kuingilia Kati kwa Binadamu?
Elewa mahali ambapo Akili bandia inaweza kufanya kazi kwa kujitegemea na mahali ambapo usimamizi wa binadamu bado ni muhimu.

Rudi kwenye blogu