More

    Prave pretnje i mogućnosti ChatGPT-a

    Nedavno sam eksperimentisao sa ChatGPT-om i koristio ga za pisanje koda na koji sam prethodno proveo mesece da bih radio i dao podatke sa web lokacije. Napisao ga je za tri sekunde, a zatim mi je rekao o biblioteci koju poziva, što mi je omogućilo da naučim više u tom procesu. Dakle, ne samo da ChatGPT može pisati kod mnogo brže od čovjeka, već može djelovati i kao obrazovni alat, poboljšavajući naše sposobnosti. ChatGPT piše siguran kod, a može čak i da otkloni greške u Vašem trenutnom kodu. Osim toga, možete razgovarati s njim, objašnjavajući šta pokušavate postići, što se zatim pretvara u kod, čineći ga vrlo interaktivnim.  

    Do sada je sigurnosna zajednica bila prvenstveno fokusirana na to kako bi hakeri mogli iskoristiti ChatGPT. Vidjeli smo kako istraživači zaobilaze ograničenja upotrebe ChatGPT-a kako bi pisali phishing email-ove i maliciozni softver ili poboljšali postojeće vrste, kreirali backdoor i automatizovali pokretanje skripti. U izvještaju New Scientist-a procjenjuje se da bi to moglo smanjiti troškove malicioznih kampanja za 96%. Strah, neizvjesnost i sumnju (FUD) na stranu, realnost je da će ubrzati i mehanizme napada i odbrane, efektivno izjednačavajući teren.  

    Trebamo li nastojati da ukinemo ta ograničenja? Ne, jer se to protivi načelima i slobodi interneta. Zaista će biti trenutaka kada želimo znati kako izgleda polimorfni maliciozni softver ili želimo da AI simulira napad, a takođe nam može reći kako pobijediti taj specifičan napad. 

    Sigurnosne supermoći 

    Iz sigurnosne perspektive, nije bilo puno pažnje na zapanjujuće stvari koje ChatGPT može učiniti. Za početak, čini kod sigurnim prema zadanim postavkama jer kada traži kod od krajnjeg korisnika, na primjer, zna da se problemi kao što je SQL injekcija neće tolerisati, pa automatski čisti te podatke dok predlaže biblioteke i sigurnosne postavke. To znači da će ga programeri koristiti za ispitivanje svog koda i predlaganje poboljšanja, označavajući ogroman korak naprijed za poslovanje u smislu higijene kibernetičke bezbjednosti.

    Uzmite API-e, na primjer. Stavljanje koda aplikacije u ChatGPT može omogućiti njegovo otklanjanje grešaka, ali AI takođe može analizirati API za operativne probleme, tražeći sve sigurnosne propuste u kodu. Programeri će često koristiti biblioteke trećih strana u kombinaciji, ali postoje milioni loših biblioteka. Analiza tih zavisnosti može pomoći da se kod učini sigurnim. Ili zašto jednostavno ne koristite ChatGPT za pisanje API-a? Kreiranje sigurnosnih alata aplikacije za različite faze izrade ili iskorenjivanje sati potrošenih pokušavajući da se utvrdi zašto određeni alat treće strane neće raditi omogućit će ogromnu efikasnost. Oba scenarija će rezultovati sigurnijom proizvodnjom i testiranjem. 

    Tek smo na početku onoga što modeli učenja jezika (LLM) mogu učiniti. ChatGPT je od tada pokrenuo GPT-4, a takođe ima konkurenciju u vidu Google Bard-a, Microsoft Bing-a i GitHub CoPilot-a. Ali postoji zabrinutost da tehnologija nadmašuje našu sposobnost da je integrišemo sa načinom na koji upravljamo i štitimo svoje podatke. 

    Ko čuva čuvare? 

    AI trenutno ima samoupravu i ne postoje nikakvi propisi, što dovodi do poziva da se koči. Italija ga je čak potpuno zabranila s obrazloženjem da je u suprotnosti sa GDPR-om. Osim toga, Microsoft-ov GitHub Pilot optužen je za softversku pirateriju u neviđenim razmjerima jer ova umjetna inteligencija uči tako što izvlači javne repozitorijume koda, od kojih su mnogi zaštićeni autorskim pravima. Protuargument je da korištenje ovih informacija u svrhu obuke predstavlja poštenu upotrebu, ali ostaje da se vidi hoće li se sudovi složiti.  

    Problem iz komercijalne perspektive je kako kompanije mogu koristiti ChatGPT bez ugrožavanja svojih informacija. Nakon što zalijepite svoje podatke u sučelje, oni će biti indeksirani i korišteni, što znači da ako su ti podaci intelektualno vlasništvo, postaju javno dostupni. Da bi se riješio ovaj problem, morat će postojati neki način kreiranja zaštićene verzije za vlasničke svrhe, možda on-premise. 

    Ali postoji i rizik od prevelikog povjerenja u njegove sposobnosti. Kao što smo vidjeli iz Google Bard-a, koji je vidio da je pogrešno navedeno da je svemirski teleskop James Webb snimio prvu fotografiju egzoplanete u promotivnom videu, AI nije uvijek tačna. Stoga, moramo postati ne samo sufleri i urednici, već i provjeravati rezultate ovih sistema. 

    Od autorskih prava preko zaštite podataka do lažnih informacija, postoje stvarni problemi koje treba riješiti kada su u pitanju LLM, ali ne možete zaustaviti napredak i zašto bismo to željeli? Živimo u uzbudljivim vremenima u kojima čovjek postaje sve snažniji od strane mašina i, po prvi put, obrnuto. Gdje će nas ovo odvesti ostaje da se vidi, ali ova tehnologija će nesumnjivo promijeniti način na koji radimo i pristupamo sigurnosti.

    Izvor: Infosecurity Magazine

      

    Recent Articles

    spot_img

    Related Stories