More

    Istraživači koriste ChatGPT za poboljšano otkrivanje zloupotrebe kriptografije

    Istraživači sa Technische Universität Clausthal u Njemačkoj i CUBE Global u Australiji istražili su potencijal ChatGPT, velikog jezičkog modela koji je razvio OpenAI, za otkrivanje kriptografske zloupotrebe.

    Ovo istraživanje naglašava kako se vještačka inteligencija može iskoristiti za poboljšanje sigurnosti softvera identifikovanjem ranjivosti u kriptografskim implementacijama, koje su ključne za zaštitu povjerljivosti podataka.

    Kriptografija je neophodna za osiguranje podataka u softverskim aplikacijama. Međutim, programeri često zloupotrebljavaju kriptografske API-je, što može dovesti do značajnih sigurnosnih propusta.

    Tradicionalni alati za statičku analizu dizajnirani za otkrivanje takvih zloupotreba pokazali su nedosljedne performanse i nisu lako dostupni svim programerima.

    Ovo je podstaklo istraživače da istraže alternativna rješenja poput ChatGPT-a , koja potencijalno mogu demokratizirati pristup efikasnim sigurnosnim alatima.

    ChatGPT naspram tradicionalnih alata

    Studija je sprovela komparativnu analizu koristeći CryptoAPI-Bench benchmark, koji je posebno dizajniran za procjenu alata za otkrivanje zloupotrebe Java kriptografije.

    Rezultati su bili obećavajući: ChatGPT je pokazao prosječnu F-mjeru od 86% u 12 kategorija kriptografskih zloupotreba.

    Značajno je da je nadmašio CryptoGuard, vodeći alat za statičku analizu, u nekoliko kategorija. Na primjer, ChatGPT je postigao F-mjeru od 92,43% u otkrivanju predvidljivih ključeva u poređenju sa CryptoGuard-ovim 76,92%.

    ChatGPT protiv ostalih

    Jedna od ključnih inovacija u ovom istraživanju bila je upotreba brzog inženjeringa za poboljšanje performansi ChatGPT-a.

    Rafiniranjem upita koji se koriste za upite u ChatGPT-u, istraživači su uspjeli povećati njegovu prosječnu F-mjeru na 94,6%.

    Ovo poboljšanje je omogućilo ChatGPT-u da nadmaši najsavremenije alate u 10 od 12 kategorija i postigne skoro identične rezultate u preostale dvije.

    Implikacije ovog istraživanja sežu dalje od otkrivanja zloupotrebe kriptografije. Prikazuje kako se AI modeli poput ChatGPT-a mogu prilagoditi za različite zadatke vezane za sigurnost, potencijalno transformirajući krajolik testiranja sigurnosti softvera.

    Integracija AI u sigurnosno testiranje može pružiti detaljniji uvid u ranjivosti i poboljšati efikasnost i efektivnost ovih procesa.

    Međutim, korištenje AI u sigurnosti također predstavlja izazove. Zabrinutost u vezi sa privatnošću podataka i etičkim pitanjima mora se riješiti kako AI postaje sve više integrisan u sigurnosne prakse.

    Štaviše, postoji potreba za kontinuiranom evaluacijom i poboljšanjem AI modela kako bi se osiguralo da oni ostanu efikasni protiv prijetnji koje se razvijaju.

    Istraživači planiraju dalje istraživati ​​mogućnosti novijih modela kao što je GPT-4o i proširiti svoja testiranja kako bi uključili slučajeve upotrebe API-ja za kriptografiju u stvarnom svijetu.

    Ovo istraživanje koje je u toku pomoći će da se poboljšaju pristupi zasnovani na vještačkoj inteligenciji i osiguraju da su dovoljno robusni da se nose sa složenim sigurnosnim izazovima.

    Izvor: CyberSecurityNews

    Recent Articles

    spot_img

    Related Stories