![](https://dailyai.com/wp-content/uploads/2023/10/jailbreak-GPT-4-with-low-resource-languages-300x200.jpg)
I ricercatori hanno effettuato il jailbreak del GPT-4 utilizzando linguaggi a basse risorse
L'uso di lingue a bassa risorsa (LRL) come lo zulu o il gaelico scozzese può suscitare risposte non sicure da parte del GPT-4, nonostante i suoi parametri di allineamento. I ricercatori...