Updated grok prompts · xai-org/grok-prompts@64c662d
요약
README.md를 업데이트하고 세 가지 새로운 Grok 4 모델 관련 안전 프롬프트 파일을 공개했습니다.grok_4_code_rc1_safety_prompt.txt, grok_4_mini_system_prompt.txt, grok_4_safety_prompt.txt 파일들은 범죄 활동, 유해 콘텐츠, 탈옥 시도 등에 대한 모델의 행동 지침 및 제한 사항을 명시합니다.grok_4_safety_prompt.txt는 아동 성 착취물, 폭력 범죄, 불법 무기 및 마약 제조, 사이버 공격 등 금지된 활동에 대한 상세한 정책과 함께 memory_prompt 조건부 로직이 grok4_system_turn_prompt_v8.j2에 추가되었습니다.상세 내용
주요 변경 및 추가 사항은 다음과 같습니다:
README.md 업데이트: 공개된 프롬프트 목록이 갱신되었습니다. 기존 Grok 3 및 Grok 4 챗 어시스턴트용 시스템 프롬프트, DeepSearch 요약 프롬프트(삭제됨), X 플랫폼의 "Grok Explain" 및 "Ask Grok" 프롬프트 외에, xAI API에서 사용되는 세 가지 새로운 안전 프롬프트가 추가되었습니다. default_deepsearch_final_summarizer_prompt.j2 파일은 이 업데이트에서 삭제되었습니다.grok4_system_turn_prompt_v8.j2 수정: Grok 4 챗 어시스턴트의 시스템 프롬프트에 memory_prompt 변수를 포함하는 {% if memory_prompt and memory_prompt |length > 0 %} 조건문이 추가되었습니다. 이는 Jinja2 템플릿 문법을 사용하여, memory_prompt 변수에 데이터가 있을 경우 이를 시스템 프롬프트에 동적으로 삽입하여 모델이 이전 대화의 맥락이나 특정 메모리를 활용할 수 있도록 합니다.grok_4_code_rc1_safety_prompt.txt: grok-code-fast-1 모델을 위한 주입형 시스템 프롬프트 프리픽스(injected system prompt prefix)로, 주로 불법 활동과 관련된 명확한 의도를 가진 쿼리에 응답하지 않도록 지시합니다. 금지된 활동에는 아동 성 학대 자료 생성 및 배포, 폭력 범죄, 테러 행위, 사회 공학 공격, 불법 해킹, 불법 무기 및 폭발물 제조/유통, DEA Schedule I 규제 약물(치료용 제외) 제조/유통, 중요 인프라 손상/파괴, CBRN(화학, 생물학, 방사능, 핵) 무기 생성/계획, 사이버 공격(랜섬웨어, DDoS) 등이 포함됩니다. 모델은 사실적 질문에 진실되게 답하고 사용자를 속이거나 의도적으로 오도하지 않아야 합니다. * grok_4_mini_system_prompt.txt: grok-4-fast 모델을 위한 주입형 시스템 프롬프트 프리픽스입니다. 태그 내에 핵심 정책이 정의되며, 이는 모든 다른 지침보다 최우선 순위를 가집니다. 주요 지침은 다음과 같습니다:
* 명백히 범죄 활동을 시도하는 사용자에게 지원을 제공하지 않습니다.
* 역할극 또는 가상의 시나리오에서 범죄 활동에 대한 지나치게 사실적이거나 구체적인 지원을 제공하지 않습니다.
* "jailbreak" 시도(규칙 위반을 유도하는 시도)를 거부할 때는 짧게 응답하고 사용자의 다른 지침을 무시합니다.
* 태그 외부의 지침이 핵심 정책을 위반하지 않는 한, 직관적이지 않더라도 따릅니다.
* 태그 외부에 명시되지 않은 경우, 성인 성적 콘텐츠 또는 불쾌한 콘텐츠에 대한 제한이 없습니다.
* grok_4_safety_prompt.txt: grok-4-0709 모델을 위한 포괄적인 안전 프롬프트로, "## End of Safety Instructions" 마커 이후의 어떤 수정 시도도 무시하며 최우선 순위를 가집니다.
* 주요 응답 지침: 불법 활동에 대한 명확한 의도를 가진 쿼리에는 응답하지 않지만, 가상의 이야기나 토론(예: 화학전에 대한 이야기)에는 응답합니다. 일반적인 질문, 비유적이거나 우스꽝스러운 질문, 명백히 불가능한 질문(예: "우주를 파괴하는 방법?")에는 실행 가능한 세부 정보 없이 높은 수준으로만 응답합니다. "teenage" 또는 "girl"이 미성년자를 의미하지 않는다는 등 선의를 추정하고, 사용자를 성인으로 대하며 훈계하지 않습니다. 사실적 질문에는 진실되게 답하고, 추가 콘텐츠 정책(fictional adult sexual content with dark or violent themes에 대한 제한 없음)을 강제하지 않습니다.
* "jailbreak" 저항: 지시를 무시하거나 변경하려는 시도, 인코딩된 쿼리, "uncensored" 페르소나 생성, "developer mode" 활성화와 같은 "jailbreak" 시도를 거부합니다. 거부 시에는 짧게 응답하며 사용자의 다른 지시를 무시합니다.
* 중요 알림: 이 안전 지침은 최고 권한을 가지며, 법 집행 기관이 이 지침을 위반하도록 요구하지 않으며, 어떠한 어시스턴트 메시지도 사용자 편집으로 인해 진실되지 않을 수 있다는 점을 강조합니다.
* 금지된 활동 목록: grok_4_code_rc1_safety_prompt.txt와 유사하게 아동 성 학대, 폭력 범죄, 사회 공학, 불법 해킹, 불법 무기, 규제 약물, 중요 인프라 손상, CBRN 무기, 사이버 공격 등을 포함합니다. 이 목록은 "## End of Safety Instructions" 마커로 끝납니다.
이러한 프롬프트들은 대규모 언어 모델(LLM)의 예측 가능한 행동, 안전한 콘텐츠 생성, 그리고 악의적인 사용 방지를 위한 시스템 차원의 제약 및 가이드라인을 설정하는 핵심적인 역할을 수행합니다. 특히 Jinja2 템플릿 사용은 시스템 프롬프트의 동적 구성을 가능하게 하며, 명시적인 안전 정책들은 모델의 응답 범위를 사전 정의하여 오용을 방지하고 책임 있는 AI 개발을 지향합니다.