대한민국 수학능력시험(KSAT)으로 AI 모델의 실력을 측정합니다
🌐 리더보드 바로가기: https://roboco.io/KSAT-AI-Benchmark/
📅 2026학년도 수능 예정: 2025년 11월 13일(목) 시행 예정 - 시험 후 빠른 벤치마크 결과 업데이트
KSAT AI Benchmark는 대한민국 수학능력시험 문제를 활용하여 다양한 AI 모델의 문제 해결 능력을 평가하고, 그 결과를 공개적으로 공유하는 오픈소스 프로젝트입니다.
인간 중심의 AI 평가 (Human-Centered AI Evaluation)
기존의 AI 벤치마크들은 대부분 AI를 위해 설계된 합성 데이터셋이나 특정 태스크에 최적화된 문제들을 사용합니다. 하지만 우리는 다른 접근을 택했습니다:
- 진짜 인간이 보는 시험으로 평가: 대한민국 고등학생들이 실제로 치르는 수능 문제로 AI를 평가합니다
- 표준화된 측정: 매년 동일한 난이도와 형식으로 출제되는 수능은 AI 능력의 일관된 비교 기준을 제공합니다
- 종합적 사고력 요구: 단순 암기가 아닌 독해력, 추론력, 문제해결력을 종합적으로 평가합니다
- 투명한 벤치마킹: 모든 문제, 답변, 채점 과정이 공개되어 누구나 검증 가능합니다
Vibe Coding: 자연스러운 개발 경험
이 프로젝트는 "Vibe Coding" 철학으로 구축되었습니다:
- 자연스러운 워크플로우:
make korean,make gpt-5 2025 korean같은 직관적인 명령어 - 지능형 자동화: Vision API로 PDF를 파싱하고, GitHub Actions로 평가를 자동화
- 즉각적인 피드백: 평가 후 바로 리더보드와 상세 분석 결과 제공
- 확장 가능한 설계: 새 모델, 새 시험을 쉽게 추가할 수 있는 구조
지속적인 AI 발전 추적
- 엄선된 최신 모델 6종으로 집중 벤치마킹 (Gemini 2.5 Pro는 안전 필터 이슈로 제외)
- OpenAI: GPT-5, GPT-4o
- Anthropic: Claude Opus 4.1, Claude Sonnet 4.5 (via Perplexity)
- Upstage: Solar Pro (한국어 특화)
- Perplexity: Sonar Pro
- 동일한 시험으로 시간에 따른 AI 발전을 객관적으로 비교
- 과목별(국어, 수학, 영어), 영역별(언어이해, 수리추론, 문제해결) 강점과 약점 파악
⚠️ Google Gemini 2.5 Pro 제외 사유 Google의 안전 필터가 한국어 수능 문제 콘텐츠를 유해 콘텐츠로 오인하여 대부분의 문제에서 SAFETY 응답(finish_reason=2)을 반환합니다. BLOCK_NONE 설정에도 불구하고 정상적인 평가가 불가능하여 벤치마크에서 제외하였습니다.
- 🤖 Vision API 기반 지능형 파싱: GPT-4o Vision으로 복잡한 수식, 그래프, 2단 레이아웃 완벽 처리
- 🎯 엄선된 최신 AI 모델: GPT-5, GPT-4o, Claude Opus 4.1, Claude Sonnet 4.5, Solar Pro, Sonar Pro
- 📊 상세한 결과 분석: 정답률, 답변 선택 이유, 풀이 시간, 과목별 등수까지 모두 기록
- ⚡ 완전 자동화 파이프라인: PDF → Vision 파싱 → 평가 → 웹 배포까지 GitHub Actions로 자동화
- 🌐 현대적인 웹 UI: Next.js + Mantine UI로 구현된 인터랙티브 리더보드
- 🔄 지속적인 업데이트: 새로운 시험이나 모델이 추가되면 자동으로 평가하고 배포
각 AI 모델은 다음 기준으로 평가됩니다:
- 정답률 & 점수: 정답을 맞힌 문제의 비율과 획득 점수
- 답변 선택 이유: 해당 답을 선택한 상세한 논리와 설명
- 풀이 시간: 각 문제를 푸는데 소요된 시간 (초 단위)
- 과목별 성적: 국어, 수학, 영어, 탐구 영역별 점수
# 도움말
make help
# 국어 파싱 + 정답 입력
make korean
# 수학 파싱 + 정답 입력 (Vision API)
make math
# 모든 과목 처리
make all
# 커스텀 PDF 파싱
make parse PDF=exams/pdf/2025/국어영역_문제지_홀수형.pdf
make parse-vision PDF=exams/pdf/2025/수학영역_문제지_홀수형.pdf
# YAML 검증
make validate
# 정리
make cleangraph LR
A[평가 실행] --> B[results/ 저장]
B --> C[Git Push]
C --> D[GitHub Actions]
D --> E[자동 배포]
자동화 단계:
- 로컬 평가:
make gpt-5 2025 korean실행 →results/디렉토리에 YAML 저장 - Git 커밋/푸시:
results/변경사항을 main 브랜치에 푸시 - GitHub Actions 자동 실행 (
.github/workflows/deploy-pages.yml):- Python으로 YAML → JSON 변환 (
scripts/export_data.py) - Next.js 웹사이트 빌드
- GitHub Pages 자동 배포
- Python으로 YAML → JSON 변환 (
- 웹사이트 자동 업데이트: https://roboco.io/KSAT-AI-Benchmark/
graph TD
A[PDF 업로드<br/>exams/pdf/] --> B[Vision API 파싱<br/>GPT-4o Vision]
B --> C[YAML 생성<br/>exams/parsed/]
C --> D[모델 평가<br/>AI 모델 실행]
D --> E[결과 저장<br/>results/]
E --> F[Git Commit & Push]
F --> G[GitHub Actions 트리거]
G --> H[웹 배포<br/>GitHub Pages]
B1[수식 → LaTeX] -.-> B
B2[그래프 인식] -.-> B
B3[2단 레이아웃 처리] -.-> B
D1[문제 읽기] -.-> D
D2[사고 & 추론] -.-> D
D3[답변 선택] -.-> D
D4[이유 설명] -.-> D
sequenceDiagram
participant User as 👤 사용자
participant Make as 🔧 Makefile
participant Parser as 📄 Parser
participant Eval as 🤖 Evaluator
participant Git as 📦 Git
participant GHA as ⚙️ GitHub Actions
participant Web as 🌐 Website
User->>Make: make korean
Make->>Parser: PDF 파싱 (Vision API)
Parser->>Parser: YAML 생성
Parser-->>User: ✅ YAML 파일 생성 완료
User->>Make: make gpt-5 2025 korean
Make->>Eval: 모델 평가 실행
Eval->>Eval: AI 모델로 문제 풀이
Eval->>Eval: results/ 저장
Eval-->>User: ✅ 평가 완료
User->>Git: git push
Git->>GHA: 트리거
GHA->>GHA: YAML → JSON 변환
GHA->>GHA: Next.js 빌드
GHA->>Web: GitHub Pages 배포
Web-->>User: 🎉 리더보드 업데이트 완료
GitHub Actions 워크플로우가 작동하려면 GitHub Pages 설정이 필요합니다:
- GitHub 저장소 → Settings → Pages
- Source: "GitHub Actions" 선택
- 저장 후 자동으로 워크플로우 실행
수동 트리거 방법:
- GitHub 저장소 → Actions 탭 → "Deploy to GitHub Pages" → "Run workflow"
배포 상태 확인:
- Actions 탭에서 워크플로우 실행 상태 확인
- 배포 완료 후 https://roboco.io/KSAT-AI-Benchmark/ 접속
이 프로젝트의 전체 워크플로우를 단계별로 살펴봅니다:
1. PDF 업로드: exams/pdf/에 시험지 PDF 추가
- 수능 문제지를 그대로 업로드 (OCR 불필요)
2. Vision API 파싱: GPT-4o Vision으로 지능형 추출
- 복잡한 수학 수식 → LaTeX로 정확하게 변환
- 그래프, 도표 → 시각적 요소 인식 및 설명
- 2단 레이아웃 → 구조 파악 및 논리적 순서로 재배열
- 한 번의 명령:
make korean또는make math
3. YAML 생성: exams/parsed/에 구조화된 데이터 저장
- 사람이 읽기 쉬운 포맷
- 버전 관리 가능
- 재사용 및 검증 용이
4. 모델 평가: 각 AI 모델이 실제 시험 응시
- 문제 읽기 → 사고 → 답변 선택 → 이유 설명
- 실시간 소요 시간 측정
- 유연한 평가:
make gpt-5 2025 korean,math
5. 결과 저장: results/에 YAML 형식으로 저장
- 모델별, 시험별 결과 분리
- 답변 이유와 시간 모두 기록
- 언제든 재분석 가능
6. 웹 배포: GitHub Actions로 자동 배포
- 결과 커밋 → 자동 빌드 → GitHub Pages 배포
- 실시간 리더보드 업데이트
- 과목별 등수, 상세 통계 자동 생성
- Python 3.10 이상
- Node.js 18 이상
- AI 모델 API 키:
- OpenAI (GPT-4, GPT-3.5)
- Anthropic (Claude)
- Google (Gemini)
- Upstage (Solar)
- Perplexity (Sonar)
# 저장소 클론
git clone https://github.com/roboco-io/KSAT-AI-Benchmark.git
cd KSAT-AI-Benchmark
# Python 의존성 설치
pip install -r requirements.txt
# 환경 변수 설정
cp .env.example .env
# .env 파일에 API 키 입력# 국어 파싱 + 정답 입력 (한 번에)
make korean
# 수학 파싱 + 정답 입력 (한 번에)
make math
# 영어 파싱 + 정답 입력 (한 번에)
make english
# 모든 과목 처리
make all
# 도움말 보기
make help# 1. PDF 파싱 (로컬에서)
# 텍스트 기반 (국어, 사회 등)
python src/parser/parse_exam.py exams/pdf/2025/국어영역_문제지_홀수형.pdf
# Vision API (수학, 과학 등) - 수식과 그래프 완벽 인식
python src/parser/parse_exam.py exams/pdf/2025/수학영역_문제지_홀수형.pdf --vision
# 2. 정답표 파싱 및 자동 입력
python src/parser/parse_answer_key.py \
exams/pdf/2025/수학영역_정답표.pdf \
exams/parsed/2025-math-sat.yaml
# 3. Git에 추가 및 커밋
git add exams/parsed/2025-math-sat.yaml
git commit -m "feat: 2025 수학 시험 추가"
git push
# 4. GitHub Actions가 자동으로:
# - 모든 AI 모델로 평가 실행
# - 결과를 results/에 저장
# - 웹사이트 업데이트파싱 가이드: 상세한 파싱 방법은 docs/PARSER_GUIDE.md를 참고하세요.
exams/parsed/ 폴더에 YAML 파일을 직접 작성할 수도 있습니다.
국어 시험 (Optimized Schema - 지문 중복 제거):
exam_id: 2024-korean-sat
title: 2024학년도 수능 국어영역
subject: korean
year: 2024
# 지문 중앙 관리 (같은 지문을 공유하는 문제 그룹)
passages:
- passage_id: p1
passage_text: "긴 지문 내용..."
question_numbers: [1, 2, 3]
# 문제들은 passage_id로 지문 참조
questions:
- question_id: q1
question_number: 1
question_text: "윗글의 내용과 일치하는 것은?"
passage_id: p1 # 지문 참조
choices: ["선택지1", "선택지2", ...]
correct_answer: 3
points: 2수학 시험 (Legacy Schema - 기존 방식):
exam_id: 2024-math-sat
title: 2024학년도 수능 수학영역
subject: math
year: 2024
questions:
- question_id: q1
question_number: 1
question_text: "다음 중 옳은 것은?"
passage: "지문 내용 (선택적)" # 직접 포함
choices: ["1", "2", "3", "4", "5"]
correct_answer: "3"
points: 2models/models.json 파일에 모델 정보를 추가합니다:
{
"models": [
{
"name": "gpt-4-turbo",
"provider": "openai",
"version": "2024-01",
"api_key_env": "OPENAI_API_KEY",
"max_tokens": 2000,
"timeout": 60
}
]
}# PDF 파싱
python -m src.parser.main --input exams/pdf/2024-ksat-math.pdf
# 모든 모델로 모든 시험 평가
python -m src.evaluator.main
# 특정 모델로 특정 시험 평가
python -m src.evaluator.main --model gpt-4-turbo --exam 2024-ksat-mathcd web
npm install
npm run dev
# http://localhost:3000 접속KSAT-AI-Benchmark/
├── .github/
│ └── workflows/ # GitHub Actions 워크플로우
│ ├── parse-and-evaluate.yml
│ └── deploy-pages.yml
├── exams/
│ ├── pdf/ # 원본 PDF 시험지
│ └── parsed/ # 파싱된 YAML 파일
├── models/ # AI 모델 설정
├── src/
│ ├── parser/ # PDF 파싱 시스템
│ ├── evaluator/ # 평가 시스템
│ └── models/ # 모델 인터페이스
├── results/ # 평가 결과 YAML
├── web/ # Next.js 프론트엔드
│ ├── app/ # App Router 페이지
│ ├── components/ # React 컴포넌트
│ └── lib/ # YAML 로더 등
├── docs/ # 프로젝트 문서
└── tests/ # 테스트 코드
트리거:
exams/pdf/에 새 PDF 추가models/models.json수정- 수동 실행
프로세스:
graph TD
subgraph "Job 1: PDF 파싱"
A1[PDF 텍스트/이미지 추출] --> A2[YAML 생성]
A2 --> A3[exams/parsed/ 커밋]
end
subgraph "Job 2: 모델 평가"
B1[YAML 로드] --> B2[각 모델로 문제 풀이]
B2 --> B3[결과 YAML 저장]
B3 --> B4[results/ 커밋]
end
A3 --> B1
트리거:
results/폴더 변경exams/parsed/폴더 변경web/폴더 변경
프로세스:
graph TD
C1[YAML → JSON 변환] --> C2[Next.js 빌드]
C2 --> C3[정적 HTML 생성]
C3 --> C4[GitHub Pages 배포]
graph TD
subgraph "트리거"
T1[exams/pdf/ 변경]
T2[models/models.json 변경]
T3[results/ 변경]
T4[web/ 변경]
end
subgraph "워크플로우"
W1[parse-and-evaluate.yml]
W2[deploy-pages.yml]
end
T1 --> W1
T2 --> W1
T3 --> W2
T4 --> W2
W1 --> R1[PDF 파싱 & 평가]
W2 --> R2[웹사이트 배포]
평가 결과는 다음 링크에서 확인할 수 있습니다:
👉 https://roboco.io/KSAT-AI-Benchmark/
- 모델별 전체 순위 테이블
- 과목별 점수 필터링
- 정답률과 평균 풀이 시간
- 시험의 모든 문제 표시
- 각 문제별로 모든 모델의 답안 그리드
- 정답(초록) / 오답(빨강) 색상 구분
- 답안 클릭 → 상세 모달 팝업
- 선택한 답안
- 답변 선택 이유 (전체 설명)
- 풀이 소요 시간
- 획득 점수
- 해당 모델의 전체 성적
- 과목별 탭
- 문제별 정답/오답 상세
- 차트 및 통계
🌟 이 프로젝트는 개발 초기 단계입니다!
여러분의 기여를 환영합니다. 함께 AI 벤치마킹의 새로운 표준을 만들어가요!
1. 이슈 확인 또는 생성
- 이슈 트래커에서 기존 이슈 확인
- 새로운 아이디어가 있다면 이슈 생성 후 토론
good first issue라벨로 초보자 친화적인 태스크 찾기
2. Fork & Clone
# Repository fork 후
git clone https://github.com/YOUR_USERNAME/KSAT-AI-Benchmark.git
cd KSAT-AI-Benchmark3. 개발 환경 설정
# Python 의존성 설치
make install
# .env 파일 생성 및 API 키 설정
make env
code .env # API 키 입력
# 개발 도구 설치
make dev-install4. Feature Branch 생성
git checkout -b feature/amazing-feature
# 또는
git checkout -b fix/bug-description5. 개발 및 테스트
# 코드 작성
# 테스트 실행
make test
# 코드 포맷팅
make format
# Linting
make lint6. 커밋 & 푸시
git add .
git commit -m "feat: 멋진 기능 추가"
git push origin feature/amazing-feature7. Pull Request 생성
- GitHub에서 PR 생성
- 제목: 명확하고 간결하게 (예:
feat: 과목별 리더보드 탭 추가) - 설명: 변경 사항, 테스트 방법, 스크린샷(UI 변경 시) 포함
- ✅ 공개 가능한 시험 문제만 추가 (저작권 확인 필수)
- ✅ Vision API 파싱 후 반드시 수동 검증
- ✅ 정답표 파싱 후 샘플 평가로 검증
- 📁 위치:
exams/pdf/YYYY/과목영역_문제지_홀수형.pdf
- ✅
models/models.json에 설정 추가 - ✅
src/evaluator/models/에 provider 구현 (새 provider인 경우) - ✅ 최소 1개 시험으로 테스트 후 PR
- 📝 README.md의 모델 목록 업데이트
- ✅ PEP 8 스타일 가이드 준수
- ✅ 새 기능은 테스트 코드 함께 작성
- ✅
CLAUDE.md업데이트 (중요한 변경사항의 경우) - ✅ Vibe Coding 철학 유지:
- 직관적인 명령어와 API
- 지능형 자동화
- 투명한 프로세스
- 📖 README.md: 사용자 관점의 가이드
- 🔧 CLAUDE.md: 개발자 관점의 가이드
- 💬 코드 주석: 복잡한 로직은 설명 추가
- 🌐 한국어 우선: 문서는 한국어로 작성
- ✅ Next.js 15 + App Router 사용
- ✅ Mantine UI v7 컴포넌트 활용
- ✅ 반응형 디자인 (모바일 지원)
- ✅ 접근성(a11y) 고려
- GitHub Actions 워크플로우 구현 - 자동 배포 파이프라인
- 웹사이트 UI/UX 개선 - 과목별 탭, 차트, 필터
- 모델 추가 - 최신 AI 모델 벤치마킹
- PDF 파싱 개선 - 정확도 향상, 오류 처리
- 테스트 커버리지 - 단위 테스트, 통합 테스트 추가
- 성능 최적화 - 평가 속도, 웹 로딩 시간
- 다국어 시험 지원 - SAT, 가오카오 등
- API 서비스 - 평가 결과 조회 API
- 차트 & 시각화 - 성능 추이, 비교 그래프
버그를 발견하셨나요? 이슈를 생성해주세요!
포함할 내용:
- 🔍 재현 방법: 단계별 설명
- 🎯 예상 동작: 어떻게 작동해야 하는지
- 💥 실제 동작: 실제로 어떻게 작동하는지
- 🖼️ 스크린샷: 가능하면 첨부
- 🔧 환경: OS, Python 버전, Node.js 버전
- 💡 아이디어 제안: Discussions
- 🐛 버그 리포트: Issues
- 📧 직접 연락: 이메일
- 🤝 존중: 모든 기여자를 존중합니다
- 🌈 포용: 다양한 배경과 관점을 환영합니다
- 🎯 건설적: 피드백은 건설적이고 구체적으로
- 🚀 협력: 함께 성장하는 커뮤니티
함께 만들어가요! 작은 기여도 큰 영향을 만듭니다. 💪
현재 활성화된 모델 (6종):
| 제공사 | 모델 | 버전 | 특징 |
|---|---|---|---|
| OpenAI | GPT-5 | 2025 | 수학/과학 능력 대폭 향상 |
| OpenAI | GPT-4o | 2024-08 | 최신 멀티모달 모델 |
| Anthropic | Claude Opus 4.1 | 2025-08 | 에이전트, 코딩, 추론 강화 |
| Anthropic | Claude Sonnet 4.5 | 2025 | Perplexity API로 제공 |
| Upstage | Solar Pro | 2024 | 한국어 특화 모델 |
| Perplexity | Sonar Pro | 2024-11 | 최신 추론 모델 |
비활성화된 모델: GPT-4 Turbo, GPT-4, GPT-3.5-turbo, Claude 3.5 Sonnet, Claude 3 시리즈, Gemini 2.0/1.5 시리즈, Solar Mini, Sonar 온라인 시리즈
💡 모델 선정 기준: 각 제공사의 최신/최강 모델 중심으로 엄선하여 벤치마크 효율성 극대화
새로운 모델 추가 요청은 이슈로 남겨주세요.
- 국어
- 수학
- 영어
- 한국사
- 사회탐구
- 과학탐구
.env 파일에 다음 환경 변수를 설정해주세요:
# AI Model API Keys
OPENAI_API_KEY=your_openai_api_key
ANTHROPIC_API_KEY=your_anthropic_api_key
GOOGLE_API_KEY=your_google_api_key
UPSTAGE_API_KEY=your_upstage_api_key
PERPLEXITY_API_KEY=your_perplexity_api_key
# Evaluation Settings
MAX_RETRIES=3
TIMEOUT=60
API_CALL_DELAY=1# 전체 테스트 실행
pytest
# 특정 테스트 실행
pytest tests/test_evaluator.py
# 커버리지 리포트
pytest --cov=src tests/이 프로젝트는 CC BY-NC 4.0 (Creative Commons Attribution-NonCommercial 4.0 International) 라이선스를 따릅니다.
- ✅ 비상업적 사용: 교육 및 연구 목적으로 자유롭게 사용 가능
- 📝 출처 표기 필수: 사용 시 반드시 원본 출처를 명시해야 합니다
- 🚫 상업적 사용 금지: 상업적 목적으로는 사용할 수 없습니다 (별도 문의 필요)
자세한 내용은 LICENSE 파일을 참고하세요.
KSAT AI Benchmark by roboco-io
Licensed under CC BY-NC 4.0
Source: https://github.com/roboco-io/KSAT-AI-Benchmark
- 📦 프로젝트 저장소: https://github.com/roboco-io/KSAT-AI-Benchmark
- 💬 이슈 트래커: https://github.com/roboco-io/KSAT-AI-Benchmark/issues
- 🌐 리더보드 웹사이트: https://roboco.io/KSAT-AI-Benchmark/
- 한국교육과정평가원 - 표준화된 고품질 평가 도구(수능) 제공
- OpenAI, Anthropic, Google, Upstage, Perplexity - 강력한 AI 모델과 API 제공
- 오픈소스 커뮤니티 - 이 프로젝트의 기반이 되는 수많은 도구와 라이브러리
- 모든 기여자들 - 코드, 문서, 피드백으로 프로젝트를 발전시켜주신 분들
이 프로젝트는 다음과 같은 질문에서 시작되었습니다:
"AI가 얼마나 똑똑한지 어떻게 측정할까?"
합성 벤치마크는 AI를 위해 만들어진 것이고, 인간이 실제로 얼마나 어려운지 체감하기 어렵습니다. 그래서 우리는 인간이 실제로 보는 시험을 선택했습니다.
수능은 대한민국에서 가장 표준화되고, 공정하며, 종합적인 사고력을 평가하는 시험입니다. 매년 50만 명의 학생이 동일한 조건에서 응시하고, 문제의 질과 난이도가 철저히 검증됩니다.
Vibe Coding으로 이 벤치마크를 구축하면서, 단순히 점수를 매기는 것을 넘어 AI가 어떻게 생각하는지를 들여다볼 수 있게 되었습니다. 각 문제마다 AI의 답변 이유를 보면서, 인간과 AI의 사고 방식 차이를 발견하고, 앞으로 AI가 어떻게 발전해야 할지 힌트를 얻을 수 있습니다.
이 프로젝트가 AI 발전을 추적하고, AI 능력을 이해하며, 더 나은 AI를 만드는 데 작은 기여가 되길 바랍니다.
- 프로젝트 초기 설정 및 아키텍처 설계
- PDF 파싱 시스템 구현 (Vision API 기반)
- YAML 데이터 형식 정의 및 검증
- AI 모델 평가 시스템 구현
- GitHub Actions 자동화 파이프라인
- Next.js + Mantine UI 웹 인터페이스
- 리더보드 및 문제 목록 페이지
- 답안 상세 모달 및 인터랙션
- 2025 수능 3개 과목 파싱 완료 (국어, 수학, 영어)
- 6개 최신 AI 모델 벤치마킹
- 2026학년도 수능 벤치마크 (2025년 11월 13일 시행 예정)
- 과거 수능 문제 데이터베이스 확장 (2024, 2023...)
- 과목별 상세 분석 페이지 구현
- 차트 및 시각화 고도화 (성능 추이 그래프)
- 모델별 강점/약점 분석 리포트
- 연도별 성능 비교 분석
- 성능 최적화 (평가 속도, 웹 로딩)
- 테스트 커버리지 확대
- 다국어 시험 지원 (SAT, 일본 센터시험 등)
- RESTful API 서비스 제공
- 실시간 모델 비교 기능
- 커뮤니티 기여 모델 추가 지원
- 모바일 앱 검토
본 프로젝트에서 사용하는 대한민국 수학능력시험(KSAT) 문제의 모든 저작권은 한국교육과정평가원에 있습니다.
- 출처: 한국교육과정평가원 수능 자료실
- 저작권자: 한국교육과정평가원 (Korea Institute for Curriculum and Evaluation)
- 사용 목적: 본 프로젝트는 AI 모델의 성능을 평가하기 위한 비영리 연구 및 교육 목적으로만 시험 문제를 활용합니다.
시험 문제와 관련한 모든 권리는 한국교육과정평가원에 있으며, 본 프로젝트는 공개된 자료를 연구 목적으로 활용하고 있습니다.
본 프로젝트의 소스 코드 및 평가 결과는 CC BY-NC 4.0 라이선스를 따릅니다.
- ✅ 출처를 표시하면 자유롭게 공유 및 변경 가능
- ❌ 상업적 이용 불가
- ℹ️ 시험 문제 원본은 한국교육과정평가원의 저작권 정책을 따릅니다
이 프로젝트가 유용하다면 ⭐️를 눌러주세요!
Made with ❤️ by the KSAT AI Benchmark Team