OpenAI lançoi një program shpërblimi duke inkurajuar ekspertët e sigurisë kibernetike dhe anëtarë të komunitetit të zbulojnë probleme në shërbimet AI të kompanisë përfshirë ChatGPT.
Nga programi i shpërblimit përjashtohen tentativat për ti bërë jailbreak ChatGPT ose përdorur për të gjeneruar kod ose tekst të dëmshëm.
Me jailbreak OpenAI nënkupton skenarë ku sistemi inkurajohet të kapërcejë filtrat e tij të sigurisë duke e bëtë ChatGPT të shndërrohet në keqbërës.
OpenAI thotë se probleme të tilla nuk përfshihen në programin e shpërblimit sepse nuk janë gjëra që mund të rregullohen në mënyrë të drejtpërdrejtë.
Edhe pse jailbreak demonstron problemet e mëdha të sistemeve AI, ato janë më pak problem i OpenAI krahasuar me dështimet e zakonshme të sigurisë. Për shembull muajin e kaluar një haker njohur si rez0 arriti të zbulonte 80 shtojca sekrete për API e ChatGPT të cilët ende janë eksperimentale dhe të pa lançuara.
Kompania thotë se adresimi i problemeve të tilla kërkon qasje të gjerë dhe kërkime substanciale. /PCWorld Albanian/