File size: 6,155 Bytes
bcb9613 31d5593 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 |
---
dataset_info:
features:
- name: audio
dtype:
audio:
sampling_rate: 16000
- name: labels
dtype: string
- name: input_features
sequence:
sequence: float32
splits:
- name: train
num_bytes: 53401463125.774376
num_examples: 46693
- name: test
num_bytes: 6675611767.612812
num_examples: 5837
- name: valid
num_bytes: 6675611767.612812
num_examples: 5837
download_size: 22350702315
dataset_size: 66752686661.0
configs:
- config_name: default
data_files:
- split: train
path: data/train-*
- split: test
path: data/test-*
- split: valid
path: data/valid-*
---
### 여기서부턴 원본 라벨이 올라가요.
- 파인튜닝 시 라벨 전처리를 진행하는 것이 확장성이 높다고 판단했어요.
### 다음 코드를 통해 만들었어요.
```
# !pip install -U accelerate
# !pip install -U transformers
# !pip install datasets
# !pip install evaluate
# !pip install mlflow
# !pip install transformers[torch]
# !pip install jiwer
# !pip install nlptutti
# !huggingface-cli login --token token
import os
import json
from pydub import AudioSegment
from tqdm import tqdm
import re
from datasets import Audio, Dataset, DatasetDict, load_from_disk, concatenate_datasets
from transformers import WhisperFeatureExtractor, WhisperTokenizer
import pandas as pd
import shutil
# 사용자 지정 변수를 설정해요.
set_num = 12 # 데이터셋 번호
token = "hf_" # 허깅페이스 토큰
CACHE_DIR = '/mnt/a/maxseats/.cache_' + str(set_num) # 허깅페이스 캐시 저장소 지정
dataset_name = "maxseats/aihub-464-preprocessed-680GB-set-" + str(set_num) # 허깅페이스에 올라갈 데이터셋 이름
model_name = "SungBeom/whisper-small-ko" # 대상 모델 / "openai/whisper-base"
batch_size = 1000 # 배치사이즈 지정, 8000이면 에러 발생
json_path = '/mnt/a/maxseats/mp3_dataset.json' # 생성한 json 데이터셋 위치
print('현재 데이터셋 : ', 'set_', set_num)
def prepare_dataset(batch):
# 오디오 파일을 16kHz로 로드
audio = batch["audio"]
# input audio array로부터 log-Mel spectrogram 변환
batch["input_features"] = feature_extractor(audio["array"], sampling_rate=audio["sampling_rate"]).input_features[0]
# 'input_features'와 'labels'만 포함한 새로운 딕셔너리 생성
return {"input_features": batch["input_features"], "labels": batch["labels"]}
# JSON 파일에서 데이터 로드
def load_dataset(json_file):
with open(json_file, 'r', encoding='utf-8') as file:
return json.load(file)
# 파일 경로 참조해서 오디오, set_num 데이터 정답 라벨 불러오기
def getLabels(json_path, set_num):
# JSON 파일 로드
json_dataset = load_dataset(json_path)
set_identifier = 'set_' + str(set_num) + '/'
# "audio" 경로에 set_identifier가 포함된 데이터만 필터링
filtered_data = [item for item in json_dataset if set_identifier in item['audio']]
return pd.DataFrame(filtered_data)
# Sampling rate 16,000khz 전처리 + 라벨 전처리를 통해 데이터셋 생성
def df_transform(batch_size, prepare_dataset):
# 오디오 파일 경로를 dict의 "audio" 키의 value로 넣고 이를 데이터셋으로 변환
batches = []
for i in tqdm(range(0, len(df), batch_size), desc="Processing batches"):
batch_df = df.iloc[i:i+batch_size]
ds = Dataset.from_dict(
{"audio": [path for path in batch_df["audio"]],
"labels": [transcript for transcript in batch_df["transcripts"]]}
).cast_column("audio", Audio(sampling_rate=16000))
batch_datasets = DatasetDict({"batch": ds})
batch_datasets = batch_datasets.map(prepare_dataset, num_proc=1)
batch_datasets.save_to_disk(os.path.join(CACHE_DIR, f'batch_{i//batch_size}'))
batches.append(os.path.join(CACHE_DIR, f'batch_{i//batch_size}'))
print(f"Processed and saved batch {i//batch_size}")
# 모든 배치 데이터셋 로드, 병합
loaded_batches = [load_from_disk(path) for path in batches]
full_dataset = concatenate_datasets([batch['batch'] for batch in loaded_batches])
return full_dataset
# 데이터셋을 훈련 데이터와 테스트 데이터, 밸리데이션 데이터로 분할
def make_dataset(full_dataset):
train_testvalid = full_dataset.train_test_split(test_size=0.2)
test_valid = train_testvalid["test"].train_test_split(test_size=0.5)
datasets = DatasetDict(
{"train": train_testvalid["train"],
"test": test_valid["test"],
"valid": test_valid["train"]}
)
return datasets
# 허깅페이스 로그인 후, 최종 데이터셋을 업로드
def upload_huggingface(dataset_name, datasets, token):
while True:
if token =="exit":
break
try:
datasets.push_to_hub(dataset_name, token=token)
print(f"Dataset {dataset_name} pushed to hub successfully. 넘나 축하.")
break
except Exception as e:
print(f"Failed to push dataset: {e}")
token = input("Please enter your Hugging Face API token: ")
# 캐시 디렉토리 설정
os.environ['HF_HOME'] = CACHE_DIR
os.environ["HF_DATASETS_CACHE"] = CACHE_DIR
feature_extractor = WhisperFeatureExtractor.from_pretrained(model_name, cache_dir=CACHE_DIR)
tokenizer = WhisperTokenizer.from_pretrained(model_name, language="Korean", task="transcribe", cache_dir=CACHE_DIR)
df = getLabels(json_path, set_num)
print("len(df) : ", len(df))
full_dataset = df_transform(batch_size, prepare_dataset)
datasets = make_dataset(full_dataset)
upload_huggingface(dataset_name, datasets, token)
# 캐시 디렉토리 삭제
shutil.rmtree(CACHE_DIR)
print("len(df) : ", len(df))
print(f"Deleted cache directory: {CACHE_DIR}")
```
|