maxseats commited on
Commit
31d5593
·
verified ·
1 Parent(s): bcb9613

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +141 -0
README.md CHANGED
@@ -32,3 +32,144 @@ configs:
32
  - split: valid
33
  path: data/valid-*
34
  ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
32
  - split: valid
33
  path: data/valid-*
34
  ---
35
+ ### 여기서부턴 원본 라벨이 올라가요.
36
+ - 파인튜닝 시 라벨 전처리를 진행하는 것이 확장성이 높다고 판단했어요.
37
+
38
+ ### 다음 코드를 통해 만들었어요.
39
+ ```
40
+ # !pip install -U accelerate
41
+ # !pip install -U transformers
42
+ # !pip install datasets
43
+ # !pip install evaluate
44
+ # !pip install mlflow
45
+ # !pip install transformers[torch]
46
+ # !pip install jiwer
47
+ # !pip install nlptutti
48
+ # !huggingface-cli login --token token
49
+
50
+ import os
51
+ import json
52
+ from pydub import AudioSegment
53
+ from tqdm import tqdm
54
+ import re
55
+ from datasets import Audio, Dataset, DatasetDict, load_from_disk, concatenate_datasets
56
+ from transformers import WhisperFeatureExtractor, WhisperTokenizer
57
+ import pandas as pd
58
+ import shutil
59
+
60
+ # 사용자 지정 변수를 설정해요.
61
+
62
+ set_num = 12 # 데이터셋 번호
63
+ token = "hf_" # 허깅페이스 토큰
64
+ CACHE_DIR = '/mnt/a/maxseats/.cache_' + str(set_num) # 허깅페이스 캐시 저장소 지정
65
+ dataset_name = "maxseats/aihub-464-preprocessed-680GB-set-" + str(set_num) # 허깅페이스에 올라갈 데이터셋 이름
66
+ model_name = "SungBeom/whisper-small-ko" # 대상 모델 / "openai/whisper-base"
67
+ batch_size = 1000 # 배치사이즈 지정, 8000이면 에러 발생
68
+
69
+ json_path = '/mnt/a/maxseats/mp3_dataset.json' # 생성한 json 데이터셋 위치
70
+
71
+ print('현재 데이터셋 : ', 'set_', set_num)
72
+
73
+ def prepare_dataset(batch):
74
+ # 오디오 파일을 16kHz로 로드
75
+ audio = batch["audio"]
76
+
77
+ # input audio array로부터 log-Mel spectrogram 변환
78
+ batch["input_features"] = feature_extractor(audio["array"], sampling_rate=audio["sampling_rate"]).input_features[0]
79
+
80
+ # 'input_features'와 'labels'만 포함한 새로운 딕셔너리 생성
81
+ return {"input_features": batch["input_features"], "labels": batch["labels"]}
82
+
83
+
84
+ # JSON 파일에서 데이터 로드
85
+ def load_dataset(json_file):
86
+ with open(json_file, 'r', encoding='utf-8') as file:
87
+ return json.load(file)
88
+
89
+ # 파일 경로 참조해서 오디오, set_num 데이터 정답 라벨 불러오기
90
+ def getLabels(json_path, set_num):
91
+
92
+ # JSON 파일 로드
93
+ json_dataset = load_dataset(json_path)
94
+
95
+ set_identifier = 'set_' + str(set_num) + '/'
96
+
97
+ # "audio" 경로에 set_identifier가 포함된 데이터만 필터링
98
+ filtered_data = [item for item in json_dataset if set_identifier in item['audio']]
99
+
100
+ return pd.DataFrame(filtered_data)
101
+
102
+
103
+ # Sampling rate 16,000khz 전처리 + 라벨 전처리를 통해 데이터셋 생성
104
+ def df_transform(batch_size, prepare_dataset):
105
+ # 오디오 파일 경로를 dict의 "audio" 키의 value로 넣고 이를 데이터셋으로 변환
106
+ batches = []
107
+ for i in tqdm(range(0, len(df), batch_size), desc="Processing batches"):
108
+ batch_df = df.iloc[i:i+batch_size]
109
+ ds = Dataset.from_dict(
110
+ {"audio": [path for path in batch_df["audio"]],
111
+ "labels": [transcript for transcript in batch_df["transcripts"]]}
112
+ ).cast_column("audio", Audio(sampling_rate=16000))
113
+
114
+ batch_datasets = DatasetDict({"batch": ds})
115
+ batch_datasets = batch_datasets.map(prepare_dataset, num_proc=1)
116
+ batch_datasets.save_to_disk(os.path.join(CACHE_DIR, f'batch_{i//batch_size}'))
117
+ batches.append(os.path.join(CACHE_DIR, f'batch_{i//batch_size}'))
118
+ print(f"Processed and saved batch {i//batch_size}")
119
+
120
+ # 모든 배치 데이터셋 로드, 병합
121
+ loaded_batches = [load_from_disk(path) for path in batches]
122
+ full_dataset = concatenate_datasets([batch['batch'] for batch in loaded_batches])
123
+
124
+ return full_dataset
125
+
126
+ # 데이터셋을 훈련 데이터와 테스트 데이터, 밸리데이션 데이터로 분할
127
+ def make_dataset(full_dataset):
128
+ train_testvalid = full_dataset.train_test_split(test_size=0.2)
129
+ test_valid = train_testvalid["test"].train_test_split(test_size=0.5)
130
+ datasets = DatasetDict(
131
+ {"train": train_testvalid["train"],
132
+ "test": test_valid["test"],
133
+ "valid": test_valid["train"]}
134
+ )
135
+ return datasets
136
+
137
+ # 허깅페이스 로그인 후, 최종 데이터셋을 업로드
138
+ def upload_huggingface(dataset_name, datasets, token):
139
+
140
+ while True:
141
+
142
+ if token =="exit":
143
+ break
144
+
145
+ try:
146
+ datasets.push_to_hub(dataset_name, token=token)
147
+ print(f"Dataset {dataset_name} pushed to hub successfully. 넘나 축하.")
148
+ break
149
+ except Exception as e:
150
+ print(f"Failed to push dataset: {e}")
151
+ token = input("Please enter your Hugging Face API token: ")
152
+
153
+
154
+ # 캐시 디렉토리 설정
155
+ os.environ['HF_HOME'] = CACHE_DIR
156
+ os.environ["HF_DATASETS_CACHE"] = CACHE_DIR
157
+ feature_extractor = WhisperFeatureExtractor.from_pretrained(model_name, cache_dir=CACHE_DIR)
158
+ tokenizer = WhisperTokenizer.from_pretrained(model_name, language="Korean", task="transcribe", cache_dir=CACHE_DIR)
159
+
160
+
161
+ df = getLabels(json_path, set_num)
162
+ print("len(df) : ", len(df))
163
+
164
+ full_dataset = df_transform(batch_size, prepare_dataset)
165
+ datasets = make_dataset(full_dataset)
166
+
167
+
168
+
169
+ upload_huggingface(dataset_name, datasets, token)
170
+
171
+ # 캐시 디렉토리 삭제
172
+ shutil.rmtree(CACHE_DIR)
173
+ print("len(df) : ", len(df))
174
+ print(f"Deleted cache directory: {CACHE_DIR}")
175
+ ```