![](https://dailyai.com/wp-content/uploads/2024/07/Jailbreak-AI-model-with-past-tense-300x171.webp)
La formazione al rifiuto LLM è facilmente aggirabile con i prompt al passato
I ricercatori del Politecnico federale di Losanna (EPFL) hanno scoperto che la scrittura di richieste pericolose al passato aggira...
Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".
*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni