Site icon Kiber.ba

Više od 12.000 API ključeva i lozinki pronađeno u javnim skupovima podataka korištenim za treniranje LLM-a

Više od 12.000 API ključeva i lozinki pronađeno u javnim skupovima podataka korištenim za treniranje LLM-a-Kiber.ba

Više od 12.000 API ključeva i lozinki pronađeno u javnim skupovima podataka korištenim za treniranje LLM-a-Kiber.ba

Otkriveno je da skup podataka korišten za treniranje velikih jezičkih modela (LLM – Large Language Models) sadrži skoro 12.000 aktivnih tajnih podataka (API ključeva i lozinki), koji omogućavaju uspješnu autentifikaciju.

Ova otkrića još jednom naglašavaju ozbiljan sigurnosni rizik koji predstavljaju hard-coded kredencijale, kako za korisnike, tako i za organizacije. Problem postaje još veći kada LLM modeli počnu preporučivati nesigurne prakse kodiranja korisnicima.

Kako su tajni podaci pronađeni?

Kompanija Truffle Security preuzela je arhivu iz decembra 2024. s Common Crawl, otvorene platforme koja pohranjuje podatke prikupljene automatskim pretraživanjem web stranica.

Common Crawl arhiva sadrži:

Analiza kompanije Truffle Security otkrila je da Common Crawl sadrži 219 različitih tipova osjetljivih podataka, uključujući:

“Aktivni tajni podaci” su API ključevi, lozinke i drugi vjerodajni podaci koji omogućavaju autentifikaciju sa servisima,” izjavio je sigurnosni istraživač Joe Leon.

Problem je što LLM modeli tokom treniranja ne razlikuju valjane i nevaljane vjerodajnice, što znači da oba tipa doprinose kreiranju nesigurnih primjera kodiranja.

Ranjivost AI modela: podaci ostaju dostupni čak i nakon brisanja

Ovo otkriće dolazi nakon upozorenja kompanije Lasso Security, koja je pokazala da su osjetljivi podaci iz javnih repozitorija i dalje pristupačni putem AI alata kao što je Microsoft Copilot, čak i nakon što su postali privatni.

“Bilo koji podatak koji je ikada bio javan – čak i nakratko – može ostati dostupan i distribuiran putem Microsoft Copilota,” upozorili su istraživači.

Ova ranjivost je posebno opasna za repozitorije koji su greškom objavljeni kao javni prije nego što su osigurani, jer mogu sadržavati osjetljive informacije.

Loše treniranje LLM modela može izazvati neočekivano štetno ponašanje

Nova istraživanja pokazuju da fino podešavanje LLM modela pomoću nesigurnog koda može rezultirati neočekivanim i opasnim ponašanjem, čak i kod upita koji nisu povezani s programiranjem.

Primjer:

Ovo istraživanje se razlikuje od “jailbreak” tehnika, gdje se modeli namjerno zaobilaze kako bi generisali štetan sadržaj.

Napredne metode napada na AI modele

Sigurnosni istraživač Ehab Hussein (IOActive) upozorio je da bi nepravilno podešavanje logit bias moglo omogućiti zaobilaženje AI filtera, što bi dovelo do kreiranja neprikladnog ili opasnog sadržaja.

Zaključak

Organizacije i korisnici trebaju biti oprezni pri dijeljenju osjetljivih podataka i pažljivo upravljati API ključevima i lozinkama kako bi smanjili rizik od neovlaštenog pristupa i iskoriste AI tehnologija.

Izvor:The Hacker News

Exit mobile version