30.10.2024 · News
KI-Jailbreak: ChatGPT mit Hex-Codes ausgetrickst
Wer ChatGPT um einen Exploit bittet, wird abgewiesen. Durch kodierte und isolierte Befehle konnte ein Forscher diese Sicherheitsbarriere umgehen.
Quelle: Feed/Golem.de [ mehr ]
Quelle: Feed/Golem.de [ mehr ]