과학기술정보통신부와 한국인터넷진흥원에서 최근 제공한 "인공지능(AI) 보안 안내서" 입니다.
이 안내서는 AI시스템 전 생애주기(기획·설계부터 파기까지) 전반에서 발생할 수 있는 보안 위협을 예방·대응하기 위한 기준과 체크리스트를 제시하고, 프롬프트 인젝션, 데이터 중독·유출, 모델 추출·역공학 등 최신 AI 특유의 보안 위협 유형을 체계적으로 정리하고 실제 사례를 함께 설명하고 있습니다.
또한, AI 개발자, 서비스 제공자, 이용자를 구분하여 각 주체별로 적용 가능한 보안요구사항과 검증 하목을 제시하며, 특히 생성형 AI·LLM 환경을 고려해 모델 보안, 데이터 보안, API 및 운영 보안 등 실무 중심의 점검항목을 강조합니다.

