Чуваки с Reddit довели JailBreak (промт, который снимает ограничения) для ChatGPT до идеала
Теперь ИИ с охотой делится пошаговыми инструкциями по взлому автомобиля и создания вредоносного ПО.
Промт можно найти тут, замените текст…
1 минута на чтение