Datasets:
Tasks:
Text Classification
Modalities:
Text
Sub-tasks:
topic-classification
Languages:
Korean
Size:
1K - 10K
License:
metadata
language:
- ko
license: cc-by-4.0
size_categories:
- 1K<n<10K
task_categories:
- text-classification
task_ids:
- topic-classification
tags:
- korean
- news
- synthetic
- topic-classification
- education
pretty_name: Korean News Topic Classification (Synthetic)
dataset_info:
features:
- name: text
dtype: string
- name: label
dtype:
class_label:
names:
'0': 경제
'1': 사회
'2': 생활문화
'3': IT과학
- name: label_name
dtype: string
splits:
- name: train
num_bytes: 450000
num_examples: 5000
- name: validation
num_bytes: 45000
num_examples: 500
- name: test
num_bytes: 45000
num_examples: 500
download_size: 540000
dataset_size: 540000
Korean News Topic Classification Dataset (Synthetic)
한국어 뉴스 토픽 분류를 위한 합성 데이터셋입니다.
Dataset Description
이 데이터셋은 자연어처리 실습을 위해 제작된 교육용 합성 데이터셋입니다.
Dataset Summary
- 언어: 한국어 (Korean)
- 도메인: 뉴스 헤드라인 스타일
- 태스크: 4-class 텍스트 분류 (Topic Classification)
- 생성 방식: 템플릿 기반 합성 데이터 (Synthetic)
Supported Tasks
- Text Classification: 주어진 문장을 4개 카테고리 중 하나로 분류
- N-to-1 Task: 입력 시퀀스 -> 단일 클래스 레이블
Languages
한국어 (Korean, ko)
Dataset Structure
Data Instances
{
"text": "코스피 지수가 급등했다",
"label": 0,
"label_name": "경제"
}
Data Fields
| Field | Type | Description |
|---|---|---|
text |
string | 뉴스 스타일의 한국어 문장 |
label |
int | 카테고리 레이블 (0-3) |
label_name |
string | 카테고리 이름 |
Label Mapping
| Label | Label Name | Description |
|---|---|---|
| 0 | 경제 | 주식, 금융, 부동산, 무역 등 경제 관련 |
| 1 | 사회 | 사건, 사고, 복지, 환경 등 사회 이슈 |
| 2 | 생활문화 | 연예, 스포츠, 여행, 음식 등 문화 콘텐츠 |
| 3 | IT과학 | 기술, 과학, 인공지능, 우주 등 |
Data Splits
| Split | Examples | Description |
|---|---|---|
| train | 5,000 | 학습용 데이터 |
| validation | 500 | 검증용 데이터 |
| test | 500 | 테스트용 데이터 |
각 카테고리별로 균등하게 분포되어 있습니다 (25%씩).
Dataset Creation
Curation Rationale
이 데이터셋은 다음 목적으로 제작되었습니다:
- 교육용: 딥러닝/NLP 입문자를 위한 실습 데이터
- 한국어 NLP: 한국어 텍스트 분류 모델 학습 및 평가
- BERT Fine-tuning: 사전학습 모델의 미세조정 실습
Source Data
Initial Data Collection and Normalization
- 생성 방식: 템플릿 기반 합성 (Template-based Synthetic Generation)
- 템플릿 수: 카테고리당 약 20개
- 키워드 풀: 카테고리당 수십~수백 개의 도메인 특화 키워드
Who are the source language producers?
합성 데이터로, 실제 뉴스 기사나 사용자 생성 콘텐츠가 아닙니다.
Annotations
Annotation process
템플릿 기반 자동 생성으로, 문장 생성 시 레이블이 함께 결정됩니다.
Who are the annotators?
자동 생성된 레이블 (템플릿 카테고리에 따라 결정)
Personal and Sensitive Information
이 데이터셋은 합성 데이터로, 개인정보나 민감 정보를 포함하지 않습니다.
Considerations for Using the Data
Social Impact of Dataset
교육 목적으로 제작된 데이터셋으로, 실제 뉴스 기사와 다를 수 있습니다.
Discussion of Biases
- 템플릿 기반 생성으로 문장 패턴이 제한적일 수 있습니다
- 실제 뉴스 데이터의 복잡성과 다양성을 완전히 반영하지 못합니다
- 교육 및 실습 목적에 적합하며, 실제 서비스 적용에는 추가 검증이 필요합니다
Other Known Limitations
- 합성 데이터의 한계: 실제 뉴스의 문체나 표현 다양성 부족
- 도메인 특수성: 특정 키워드에 의존적인 분류 패턴
- 시의성: 최신 트렌드나 이슈 반영 제한
Additional Information
Dataset Curators
정상근 (hugmanskj@gmail.com)
Licensing Information
CC BY 4.0 (Creative Commons Attribution 4.0 International)
이 데이터셋은 교육 목적으로 자유롭게 사용할 수 있습니다.
Citation Information
@dataset{korean_topic_classification_synthetic,
author = {정상근},
title = {Korean News Topic Classification Dataset (Synthetic)},
year = {2024},
publisher = {Hugging Face},
note = {Educational dataset for deep learning textbook}
}
Contributions
이 데이터셋은 교육용 목적을 위해 제작되었습니다.
How to Use
Loading the Dataset
from datasets import load_dataset
# Hugging Face Hub에서 로드
dataset = load_dataset("YOUR_USERNAME/korean-news-topic-classification")
# 또는 로컬 파일에서 로드
dataset = load_dataset("json", data_files={
"train": "train.json",
"validation": "valid.json",
"test": "test.json"
})
Example Usage
from transformers import AutoTokenizer, AutoModelForSequenceClassification
# 모델 및 토크나이저 로드
model_name = "klue/bert-base"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForSequenceClassification.from_pretrained(model_name, num_labels=4)
# 데이터 전처리
def preprocess(examples):
return tokenizer(examples["text"], truncation=True, padding="max_length", max_length=128)
tokenized_dataset = dataset.map(preprocess, batched=True)
# 학습
from transformers import Trainer, TrainingArguments
training_args = TrainingArguments(
output_dir="./results",
num_train_epochs=3,
per_device_train_batch_size=16,
per_device_eval_batch_size=16,
evaluation_strategy="epoch",
)
trainer = Trainer(
model=model,
args=training_args,
train_dataset=tokenized_dataset["train"],
eval_dataset=tokenized_dataset["validation"],
)
trainer.train()
Sample Data
경제 (Economy)
- "코스피 지수가 상승했다"
- "한국은행이 기준금리 인상을 발표했다"
- "원달러 환율이 전월 대비 하락했다"
사회 (Society)
- "서울에서 교통사고가 발생했다"
- "정부가 재난 대응 매뉴얼을 시행한다"
- "저출산 문제가 심각해지고 있다"
생활문화 (Culture & Lifestyle)
- "BTS가 신곡을 발표했다"
- "새 드라마가 넷플릭스에서 1위를 기록했다"
- "힐링 여행이 MZ세대 사이에서 인기를 끌고 있다"
IT과학 (Technology & Science)
- "인공지능이 의료에 적용되고 있다"
- "삼성전자가 새로운 스마트폰을 출시했다"
- "화성 탐사가 순조롭게 진행하고 있다"