File size: 6,155 Bytes
bcb9613
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
31d5593
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
---
dataset_info:
  features:
  - name: audio
    dtype:
      audio:
        sampling_rate: 16000
  - name: labels
    dtype: string
  - name: input_features
    sequence:
      sequence: float32
  splits:
  - name: train
    num_bytes: 53401463125.774376
    num_examples: 46693
  - name: test
    num_bytes: 6675611767.612812
    num_examples: 5837
  - name: valid
    num_bytes: 6675611767.612812
    num_examples: 5837
  download_size: 22350702315
  dataset_size: 66752686661.0
configs:
- config_name: default
  data_files:
  - split: train
    path: data/train-*
  - split: test
    path: data/test-*
  - split: valid
    path: data/valid-*
---
### 여기서부턴 원본 라벨이 올라가요.
- 파인튜닝 시 라벨 전처리를 진행하는 것이 확장성이 높다고 판단했어요.

### 다음 코드를 통해 만들었어요.
```
# !pip install -U accelerate
# !pip install -U transformers
# !pip install datasets
# !pip install evaluate
# !pip install mlflow
# !pip install transformers[torch]
# !pip install jiwer
# !pip install nlptutti
# !huggingface-cli login --token token

import os
import json
from pydub import AudioSegment
from tqdm import tqdm
import re
from datasets import Audio, Dataset, DatasetDict, load_from_disk, concatenate_datasets
from transformers import WhisperFeatureExtractor, WhisperTokenizer
import pandas as pd
import shutil

# 사용자 지정 변수를 설정해요.

set_num = 12                                                                       # 데이터셋 번호
token = "hf_"                                   # 허깅페이스 토큰
CACHE_DIR = '/mnt/a/maxseats/.cache_' + str(set_num)                              # 허깅페이스 캐시 저장소 지정
dataset_name = "maxseats/aihub-464-preprocessed-680GB-set-" + str(set_num)        # 허깅페이스에 올라갈 데이터셋 이름
model_name = "SungBeom/whisper-small-ko"                                          # 대상 모델 / "openai/whisper-base"
batch_size = 1000                                                                 # 배치사이즈 지정, 8000이면 에러 발생

json_path = '/mnt/a/maxseats/mp3_dataset.json'                                    # 생성한 json 데이터셋 위치

print('현재 데이터셋 : ', 'set_', set_num)

def prepare_dataset(batch):
    # 오디오 파일을 16kHz로 로드
    audio = batch["audio"]

    # input audio array로부터 log-Mel spectrogram 변환
    batch["input_features"] = feature_extractor(audio["array"], sampling_rate=audio["sampling_rate"]).input_features[0]

    # 'input_features'와 'labels'만 포함한 새로운 딕셔너리 생성
    return {"input_features": batch["input_features"], "labels": batch["labels"]}


# JSON 파일에서 데이터 로드
def load_dataset(json_file):
    with open(json_file, 'r', encoding='utf-8') as file:
        return json.load(file)

# 파일 경로 참조해서 오디오, set_num 데이터 정답 라벨 불러오기
def getLabels(json_path, set_num):
    
    # JSON 파일 로드
    json_dataset = load_dataset(json_path)
    
    set_identifier = 'set_' + str(set_num) + '/'
    
    # "audio" 경로에 set_identifier가 포함된 데이터만 필터링
    filtered_data = [item for item in json_dataset if set_identifier in item['audio']]

    return pd.DataFrame(filtered_data)


# Sampling rate 16,000khz 전처리 + 라벨 전처리를 통해 데이터셋 생성
def df_transform(batch_size, prepare_dataset):
    # 오디오 파일 경로를 dict의 "audio" 키의 value로 넣고 이를 데이터셋으로 변환
    batches = []
    for i in tqdm(range(0, len(df), batch_size), desc="Processing batches"):
        batch_df = df.iloc[i:i+batch_size]
        ds = Dataset.from_dict(
            {"audio": [path for path in batch_df["audio"]],
             "labels": [transcript for transcript in batch_df["transcripts"]]}
        ).cast_column("audio", Audio(sampling_rate=16000))

        batch_datasets = DatasetDict({"batch": ds})
        batch_datasets = batch_datasets.map(prepare_dataset, num_proc=1)
        batch_datasets.save_to_disk(os.path.join(CACHE_DIR, f'batch_{i//batch_size}'))
        batches.append(os.path.join(CACHE_DIR, f'batch_{i//batch_size}'))
        print(f"Processed and saved batch {i//batch_size}")

    # 모든 배치 데이터셋 로드, 병합
    loaded_batches = [load_from_disk(path) for path in batches]
    full_dataset = concatenate_datasets([batch['batch'] for batch in loaded_batches])

    return full_dataset

# 데이터셋을 훈련 데이터와 테스트 데이터, 밸리데이션 데이터로 분할
def make_dataset(full_dataset):
    train_testvalid = full_dataset.train_test_split(test_size=0.2)
    test_valid = train_testvalid["test"].train_test_split(test_size=0.5)
    datasets = DatasetDict(
        {"train": train_testvalid["train"],
         "test": test_valid["test"],
         "valid": test_valid["train"]}
    )
    return datasets

# 허깅페이스 로그인 후, 최종 데이터셋을 업로드
def upload_huggingface(dataset_name, datasets, token):
    
    while True:
        
        if token =="exit":
            break
        
        try:
            datasets.push_to_hub(dataset_name, token=token)
            print(f"Dataset {dataset_name} pushed to hub successfully. 넘나 축하.")
            break
        except Exception as e:
            print(f"Failed to push dataset: {e}")
            token = input("Please enter your Hugging Face API token: ")


# 캐시 디렉토리 설정
os.environ['HF_HOME'] = CACHE_DIR
os.environ["HF_DATASETS_CACHE"] = CACHE_DIR
feature_extractor = WhisperFeatureExtractor.from_pretrained(model_name, cache_dir=CACHE_DIR)
tokenizer = WhisperTokenizer.from_pretrained(model_name, language="Korean", task="transcribe", cache_dir=CACHE_DIR)


df = getLabels(json_path, set_num)
print("len(df) : ", len(df))

full_dataset = df_transform(batch_size, prepare_dataset)
datasets = make_dataset(full_dataset)



upload_huggingface(dataset_name, datasets, token)

# 캐시 디렉토리 삭제
shutil.rmtree(CACHE_DIR)
print("len(df) : ", len(df))
print(f"Deleted cache directory: {CACHE_DIR}")
```