Многие компании открыто публикуют свои системные промпты, например,
Claude, но некоторые, например, OpenAI скрывают их.
Иногда энтузиасты вытаскивают системные промпты через разные трюки. Это называется prompt injection (промпт инъекции) — попытка подсунуть модели скрытые инструкции, чтобы обойти системные правила.
Это не про «навсегда поменять» системный промпт, а про временное влияние на поведение, если защита слабая. Платформы над этим постоянно работают, добавляют фильтры и обучают модели игнорировать промпт инъекции.
Например, на GitHub есть
целая база системных промптов для ChatGPT, Gemini, Claude, DeepSeek.
Переведите и почитайте, это очень интересно, особенно если вы создаете своих AI агентов, как
это делаю я на заказ.
Еще больше о том, как работают нейросети, лайфхаки и гайды читайте в моем телеграм канале «
AI на практике».