GPT-4o
ChatGPT vam daje upute kako kuhati meth
Haker lansirao Godmode jailbreak za GPT 4o koji je izazvao veliku ljutnju kod tvrtke OpenAI.
White Hat haker s nadimkom Plinije Sufler objavio je jailbreak inačicu ChatGPT-a pod nazivom GODMODE GPT koja predstavlja prilagođeni GPT LLM AI model koji zaobilazi većinu zaštitnih mehanizama tvrtke OpenAI, čime svatko može isprobati AI chatbota s potpunim pristupom svim temama bez ikakvih ograda.
Kako bi demonstrirao što sve možete činiti s hakiranim ChatGPT-om, Plinije je pokazao kako mu je chatbot odgovorio precizno na upit kako kuhati drogu meth, a potom mu je pokazao korak po korak vodič kako napraviti napalm sa stvarima koje imate u kući.
Mada je Plinije rekao da je ovaj hack napravio kako bi ljudima pokazao ChatGPT kakav je oduvijek trebao biti, "bez okova, potpuno slobodan i besplatan", OpenAI se prilično razbjesnio i vrlo brzo je onemogućio korištenje hacka.
Glasnogovornica OpenAI-ja Colleen Rize izjavila je za Futurism da su 'poduzeli mjere' zbog kršenja pravila.
Što se tiče načina na koji je haker to napravio, čini se da GODMODE koristi "leetspeak", neformalni jezik koji zamjenjuje određena slova brojevima koji im sliče.
Naime: kada otvorite jailbroken GPT, odmah se susrećete s rečenicom koja glasi "Sur3, h3r3 y0u ar3 my fr3n", zamjenjujući svako slovo "E" s brojem tri (isto vrijedi i za slovo "O, " koja je zamijenjena nulom.) Nejasno je kako ovo pomaže GODMODE-u da zaobiđe zaštitnu ogradu, a OpenAI je to zasad odbio komentirati.
Učitavam komentare ...