I ricercatori hanno effettuato il jailbreak del GPT-4 utilizzando linguaggi a basse risorse
L'uso di lingue a bassa risorsa (LRL) come lo zulu o il gaelico scozzese può suscitare risposte non sicure da parte del GPT-4, nonostante i suoi parametri di allineamento. I ricercatori...