AI Security Research

Securing
Intelligent Systems

LLM 취약점 분석, 인과추론 기반 보안, AI 시스템의 견고성 연구. 데이터에서 인과관계를 읽어, 공격보다 한 발 앞선 방어를 설계합니다.

Training Solutions
ai-sec ~ threat-model
scan --target llm-system --mode adversarial
[*] Initializing adversarial probe suite...
[*] Testing prompt injection vectors: 47 patterns
[*] Causal graph analysis: backdoor paths identified
[!] Confounding detected in training distribution
[*] Generating counterfactual robustness report...
report --format structured
[✓] Report ready · sec/reports/2026-Q2
// training
교육
↗ 열기

// resources
자료
↗ 열기
↗ 열기

// solutions
솔루션
↗ 열기

// about
About

AI 시스템의 보안과 안전성을 인과추론의 관점에서 연구합니다. 단순한 취약점 발견을 넘어, 왜 취약한가를 인과적으로 설명하고 구조적 해결책을 설계하는 것을 목표로 합니다.