![](https://dailyai.com/wp-content/uploads/2024/07/Jailbreak-AI-model-with-past-tense-300x171.webp)
Обучение отказу от LLM легко обойти с помощью подсказок в прошедшем времени
Исследователи из Швейцарского федерального технологического института Лозанны (EPFL) обнаружили, что написание опасных подсказок в прошедшем времени позволяет обойти...