kaz
stringlengths 0
4.83k
| eng
stringlengths 0
4.53k
|
---|---|
1) қораптағы ең маңызды сөйлемдерді табу үшін TF-IDF немесе центроидтық сөйлемдердің мәні бойынша ұсыныстарды саралау; | 1) Ranking sentences by the value of TF-IDF or sentence centroids to find the most important sentences in the corpus; |
2) семантикалық жақындық туралы ең ұқсас сөйлемдерді табу; | 2) search for the most similar sentences by semantic proximity; |
3) TF-IDF немесе центроид мәндері бойынша ұсыныстарды кластерлеу [25]. | 3) clustering of sentences by the values of TF-IDF or centroids [25]. |
Біздің жұмысымызда біз центроидты саралау және кластерлеу әдісін қолданамыз. | In our work, we use the centroid ranking method and clustering. |
Төменде қадамдық іске асыру алгоритмі берілген: | Below is a step-by-step implementation algorithm: |
1) біз алдын-ала өңдеуді жүзеге асырамыз, ол тыныс белгілерін, апострофтарды, сызықшаларды және басқа да ақпараттық емес элементтерді алып тастауды, sent_tokenize функциясымен мәтінді таңбалауды, әр элемент жеке сөйлем болатын мәтін массивін алуды қамтиды. | 1) We perform preprocessing, which includes removing punctuation marks, apostrophes, dashes and other uninformative elements, tokenizing the text using the sent_tokenize function in order to get an array of text, where each element is a separate sentence. |
2) біз терминдердің жиілігін аламыз - бұл әр ерекше сөздің сөйлемде кездесетін рет санының сөйлемдегі сөздер санына қатынасы ретінде анықталады. | 2) We get term frequency - it is defined as the ratio of the number of times each unique word appears in the sentence to the number of words in the sentence. |
3) біз құжаттың кері жиілігін аламыз - сөйлемдегі сөздің маңыздылығын немесе ақпараттылығын көрсететін мағына, предлогтар сияқты көптеген сөйлемдерде кездесетін сөздерді елемеуге мүмкіндік береді. | 3) We get inverse document frequency - a value that shows the significance or informativeness of a word in a sentence, allowing you to ignore words that appear in most sentences, such as prepositions. |
Бұл сөйлемдер санының сөз оқиғаларының санына қатынасының логарифмі. | It is the logarithm of the ratio of the number of sentences to the number of occurrences of a word. |
4) әрбір сөйлемнің Центроиді TF-IDF мәндерінің қосындысының сөйлемдегі бірегей сөздердің жалпы санына қатынасы ретінде есептеледі. | 4) The centroid of each sentence is calculated as the ratio of the sum of TF-IDF values to the total number of unique words in the sentence. |
5) біз барлық сөйлем центроидтарын сөйлем нөмірі мен центроид мәні бар бір массивке біріктіреміз. | 5) We combine all the centroids of the sentences into one array, which contains the sentence number and the centroid value. |
Содан кейін біз ең үлкен центроид мәндері бар бірнеше сөйлемді таңдаймыз. | Then we select several sentences with the largest centroid values. |
- Сур.1 мәтінді жеңілдету нәтижесінде алынған қазақ тіліндегі мәтін үшін центроид мәндерін бөлу графигін көрсетеді. | In Fig.1 shows a graph of the distribution of centroid values for a text in the Kazakh language, which was obtained as a result of text simplification. |
Диаграммада X осі-сөйлемнің реттік нөмірі, Y осі - тиісті сөйлемнің центроидтарының мәні. | On the chart, the X-axis is the ordinal number of the sentence, the Y-axis is the values of the centroids of the corresponding sentence. |
Центроид-нөлден 1-ге дейінгі мән. | Centroid - a value from zero to 1. |
Диаграммада біз центроидтардың мәндерінің корпуста қалай бөлінгенін және дененің қай бөлігінде центроидтардың ең үлкен мәндері орналасқанын көреміз. | On the diagram, we see how the centroid values of sentences are distributed in the corpus and in which part of the corpus the largest centroid values are. |
Сур. 1. Қазақ корпусының ұсыныстары бойынша центроид мәндерін бөлу. | Fig. 1. Distribution of Centroid Values by Sentences of the Kazakh Corpus. |
Келесі қадам-тақырыптық талдау үшін сөздерді кластерлерге бөлу арқылы алынған жеңілдетілген корпусты талдау. | The next step is to analyze the resulting simplified corpus by distributing words into clusters for topic analysis. |
I кестеде корпусты 6 кластерге бөлу нәтижесі көрсетілген. | Table I shows the result of the distribution of the corpus into 6 clusters. |
Кластерлеу үшін біз k-орта алгоритмін қолданамыз [26]. | For clustering, we use the k-means algorithm [26]. |
Бұл алгоритм векторлар жиынтығын ұқсастық дәрежесі бойынша топтастыруға мүмкіндік береді. | This algorithm allows you to group a set of vectors according to the degree of similarity. |
Бұл жағдайда біз центроидтарды сөздердің ұқсастығының өлшемі ретінде қолданамыз. | In this case, we use centroids as a criterion for the similarity of words. |
Қарапайым болу үшін кластерлер саны ерікті түрде таңдалды. | For simplicity, the number of clusters was chosen arbitrarily. |
Көріп отырғанымыздай, әр кластерде мағынасына жақын сөздер жиынтығы бар. | As we can see, each cluster contains a set of words that are close in meaning. |
Кесте I. сөздерді кластерлеу | TABLE I. WORD CLUSTERING |
B. алынған ұсыныстарды жеңілдету | B. Simplification of Extracted Sentences |
Бұл бөлімде біз аударманы оқытуға қатысты әдісті қолдана отырып, қазақ мәтінінің жеңілдетілген моделін құру алгоритмін сипаттаймыз. | In this subsection, we will describe the algorithm for creating a simplification model of the Kazakh text using a method that relates to the transfer learning. |
Қазақ тілі-бұл параллель корпустары аз тіл, бұл нейрондық модельді үйренуді қиындатады. | The Kazakh language is a language with a small number of parallel corpuses, which makes learning a neural model very difficult. |
Қазақ тілімен жұмыс істеуге арналған үлгі қазақ мәтінінің параллель корпусында оқытылуы тиіс. | A model for working with the Kazakh language should be trained on a parallel corpus of the Kazakh text. |
Қазақ тіліндегі мәтіндерді жеңілдету үшін қазіргі уақытта дайын жеңілдетілген параллель корпус жоқ. | For the simplification of texts in the Kazakh language, there are currently no ready-made simplification parallel corpus. |
Сондықтан, осындай корпусты алу үшін ағылшын параллельді жеңілдетілген корпусты қазақ параллельді жеңілдетілген корпусқа аудару үшін қолмен өңделген Google translate қосымшасын қолданамыз. | Therefore, to obtain such a corpus, we use the Google translate application with manually edition to translate English parallel simplification corpus to Kazakh parallel simplification corpus. |
Қазақ мәтінін жеңілдетудің ұсынылған әдістемесі екі кезеңнен тұрады (сурет.2). | The proposed methodology of simplification of Kazakh text includes two stages (Fig.2). |
Бірінші кезеңде ата-ана моделі оқытылады: | At the first stage, the parent model is trained: |
1) алдымен ата-ана моделінің архитектурасын анықтаймыз. | 1) First, we define the architecture of the parent model. |
Модельді жасамас бұрын, ағылшын тілінің бастапқы корпусындағы ең жоғары нүктелерді көрсететін нейрондық желі моделінің архитектурасын таңдау керек болды. | Before creating the model, it was necessary to choose the architecture of the neural network model that would show the highest score values in the original English corpus. |
Мұны істеу үшін біз seq2seq және transformer моделін жалпы корпуста оқытамыз (қарапайым ағылшын Википедиясы) және қандай архитектураның үлкен BLEU бар екенін қарастырамыз. | To do this, we train seq2seq and a transformer model on a general corpus (Simple English Wikipedia) and see which architecture has bigger BLEU. |
2) Kaz-eng корпусының ағылшын бөлігі [27] оқытылған үлгімен аударылады. | 2) The English part of the kaz-eng corpus [27] is translated by the trained model. |
Нәтижесінде біз Kaz-eng корпусының ағылшын бөлігінің жеңілдетілген мәтінін алдық. | As a result, we got a simplified text of the English part of the kaz-eng corpus. |
Трансферттік оқытудың екінші кезеңі-еншілес модельді оқыту: | Second stage of transfer learning is the training of the child model: |
1) Алынған Kaz-eng корпусының жеңілдетілген бөлігі нәтижесін мәтіндік файлға жаза отырып, машиналық аударманың жалпыға қолжетімді веб-сервисін пайдалана отырып, қазақ тіліне аударылды. | 1) The resulting simplified part of the kaz-eng corpus was translated into the Kazakh language, using the public web service of machine translation with the recording of the result in a text file. |
2) нәтижесінде синтетикалық қазақ параллельді жеңілдетілген корпус алынды. | 2) As a result, a synthetic Kazakh parallel simplification corpus is obtained. |
Қазақ параллель оңайлатылған корпусының бастапқы бөлігі бастапқы қаз-ағылшын тілді корпусының қазақ бөлігі болып табылады, ал нысаналы бөлігі қазақ тіліне аударылған бастапқы ағылшын бөлігінің жеңілдетілген мәтіні болып табылады. | The source part of Kazakh parallel simplification corpus is the Kazakh part of the source kaz-eng corpus and the target part is the simplified text of the source English part translated on Kazakh. |
3) осыдан кейін жаңа нейрондық модель қазақ параллельді оңайлатылған корпусында оқытылады. | 3) After that, the training a new neural model on the Kazakh parallel simplification corpus is made. |
Інжір. 2. Қазақ ұсыныстарын жеңілдету үшін оқыту технологиясын беру. | Fig. 2. Transfer Learning Technology for the Simplification of Kazakh Sentences. |
Корпустың жеңілдетілген бөлігін құру үшін модельді аудару нәтижелерін пайдаланудың қарастырылған әдісі трансферттік оқыту әдістеріне жатады. | The considered method of using the results of model translation to create a simplified part of the corpus belongs to transfer learning methods. |
Бұл жұмыс уақытында жасалған синтетикалық деректерді қолданатын оқыту әдістері [28]. | These are learning transfer methods that use the generated synthetic data at runtime [28]. |
Модель жасаған мәліметтер негізінде жасалған Корпус синтетикалық деп аталады. | A corpus that was created based on the data generated by the model is called synthetic. |
Сонымен қатар, синтетикалық корпусты құру кері аударма әдісінің негізінде жатыр [29]. | Also, the creation of a synthetic corpus underlies the method of back-translation [29]. |
Сонымен, [30] - де автор оқу корпусының көлемін ұлғайту үшін кері аударманы қолданады. | So, in [30] the author uses back-translation to increase the size of the training corpus. |
Біздің жұмысымызда пойыздардың санын көбейту үшін осы әдісті қолдануға болады. | In our work, it is possible to use this method to increase the train corpus. |
Алайда, синтетикалық деректер нақты деректерден гөрі нашар, ал жаттығу корпусының едәуір бөлігі синтетикалық деректер болған кезде, модель әдетте BLEU-дің нақты деректермен салыстырғанда нашар нәтижелерін көрсетеді [31]. | Nevertheless, synthetic data is worse than real data, and when a significant part of the train corpus is synthetic data, the model usually shows worse BLEU results compared to real data [31]. |
Әрі қарай, қазақ тіліндегі жеңілдетілген мәтін мәтіннің мәнін жеткізетін сөйлемдерді анықтауға мүмкіндік береді. | Further, the simplified text in the Kazakh language, allows to define the sentences that convey the essence of the text. |
IV. NMT ЭКСПЕРИМЕНТІ ЖӘНЕ НӘТИЖЕСІ | IV. NMT EXPERIMENT AND RESULT |
Бұл бөлімде модельді оқыту, нәтиже алу және жалпылау сапасын бағалау талқыланады. | This section discusses training the model, obtaining results, and assessing the quality of summarization. |
Модельдің қаншалықты жақсы жұмыс істейтінін, соның ішінде оқу корпусынан мүлдем өзгеше мәтінді анықтау үшін сапаны бағалау қажет. | Quality assessment is needed to determine how well the model performs, including with text that is very different from the training corpus. |
Модельдің сапасын бағалау үшін біз Bleu және SARI көрсеткіштерін қолданамыз. | To assess the quality of the model, we use the BLEU and SARI metrics. |
Bleu көрсеткіші (екі тілді бағалау дублері) - бұл бір тілден екінші тілге машиналық аударма сапасын бағалау. | The BLEU (Bilingual Evaluation Understudy) metric is an assessment of the quality of machine translation from one language to another. |
BLEU алгоритмі болжамды сөйлемдердегі жалпы сөздер мен сөз тіркестерінің санын анықтамалық сөйлемдермен салыстырады. | The BLEU algorithm compares the number of common words or phrases in predicted sentences with reference sentences. |
Салыстыру N-грамм сәйкестіктерін санау арқылы жасалады. | Comparison is performed by counting N-gram matches. |
Корпус үшін қорытынды балл-бұл корпустағы барлық ұсыныстар үшін орташа сапа балы [32]. | The final score for a corpus is the average quality score for all sentences in the corpus [32]. |
Метрика мәтінді жеңілдету жағдайында белгілі бір кемшіліктерге ие, өйткені ол бастапқыда мәтінді жеңілдету үшін емес, машиналық аударма үшін жасалған [33]. | The metric has certain drawbacks in the case of text simplification, since was originally developed for machine translation rather than text simplification [33]. |
[34] - те SARI метрикасы ұсынылды (жүйенің сілтемелер мен кіріс ұсыныстары бойынша шығуы). | In [34], the SARI (System Output Against References and Input Sentences) metric was presented. |
Бұл көрсеткіш сөйлемді өзгерту операцияларын дұрыс ескере отырып, бастапқы, болжамды және анықтамалық мәліметтер негізінде мәтінді жеңілдету сапасын бағалай алады. | This metric can assesses the quality of text simplification based on source, predictions and reference data, correctly taking into account the operations to change the sentence. |
Модельді оқыту кезінде ең маңызды параметрлердің бірі-оқу және тастау кезеңдерінің саны. | When training a model, one of the most important parameters is the number of training epochs and dropout. |
Дәуір-оқу кезінде корпустың толық өту циклі, модельді оқыту үшін бірнеше дәуір қажет. | The Epoch - full cycle through the hull during training, it takes more than one epoch to train the model. |
Түсіру-бұл белгілі бір ықтималдығы бар кейбір нейрондардың шығуын өшіруден тұратын жаттығу кезінде қолданылатын әдіс [35], бұл модельді қайта оқытудан аулақ болады. | Dropout is a technique used in training, which consists in shutting off the outputs of some neurons with a certain probability [35], which avoids overfitting the model. |
Модель оқу кезінде құрылған сөздік негізінде жұмыс істейді. | The model works on the basis of a vocabulary that was created during training. |
Сөздік қорының мөлшері модельдің жұмысына әсер етеді. | The size of the vocabulary affects the performance of the model. |
Сөздік қорының мөлшерін біз 50 000 сөзге орнаттық. | Vocabulary size we have set 50 000 words. |
Қарапайым ағылшын Википедиясының параллель корпусында оқуға арналған 284677 жол бар. | The parallel corpus of Simple English Wikipedia contains 284677 lines for training. |
Модель 20 дәуірде, шығын функциясының мәні айтарлықтай төмендей бастағанға дейін оқытылды. | The model was trained for 20 epochs, until the values of the loss function ceased to decrease significantly. |
Kaz-eng корпусы 109 мың жолдан тұрады, оның 5000 жолы тестілеу үшін бөлінген. | The kaz-eng corpus contains 109 thousand lines, from where 5000 lines are allocated for testing. |
Ең жақсы нұсқаны анықтау үшін біз индуктивті берілісті оқытуды білдіретін [36] модельді дәл баптау әдісін қолдандық. | To determine the most optimal option, we also applied the model fine-tuning method [36], which refers to inductive transfer learning. |
Ол алдыңғы әдіспен келесі қадамдармен ерекшеленеді: 1) жалпы корпуста оқытылған модель domainspecific corpus-та қайта оқытылуы керек. | It differs from the previous method in the following steps: 1) it is necessary that the model that has been trained on the general corpus is retrained on the domainspecific corpus. |
Ол үшін opennmt қолданыстағы модельдік сөздікті қазақ тілі корпусының сөздігіне қосады; 2) OpenNMT-де жаңа сөздікті қолданатын сақтаудың жаңа нүктесі құрылады. | To do this, OpenNMT connects the existing model vocabulary to the Kazakh corpus vocabulary; 2) a new savepoint is created in OpenNMT, which uses the new dictionary. |
Модельді оқыту жаңа нүктеден жалғасуда. | The training of the model continues from a new point. |
Осылайша, ағылшын тілінде оқытылған модель қазақ тілін ескере отырып қайта даярлаудан өтеді. | Thus, the model trained in English is retrained taking into account the Kazakh language. |
II кестеде параллель мәліметтер массивіне байланысты нейрондық модельдердің BLEU және SARI бағалары көрсетілген. | Table II shows the scores of BLEU and SARI of neural models depending on the parallel data corpus. |
Бұл бағалар модельдерді оқытудан кейін тестілеу кезінде алынады. | These grades are obtained during testing after training the models. |
II КЕСТЕ. SEQ2SEQ ЖӘНЕ TRANSFORMER МОДЕЛІ ҮШІН BLEU ЖӘНЕ SARI ҰПАЙЛАРЫ | TABLE II. BLEU AND SARI SCORES FOR SEQ2SEQ AND TRANSFORMER MODEL |
"Қарапайым ағылшын Википедиясы BLEU/SARI" бағанында қарапайым ағылшын Википедиясында модельді оқығаннан кейін BLEU ұпайлары бар. | Column "Simple English Wikipedia BLEU/SARI" contains the BLEU scores after training the model on the Simple English Wikipedia. |
"Kaz-eng BLEU/SARI" бағаны - kaz-eng корпусының ағылшын бөлігін аудару кезеңіндегі BLEU бағасы. | Column "Kaz-eng BLEU/SARI" - BLEU assessment at the stage of translating the English part of the kaz-eng corpus. |
"Kaz-skaz BLEU/SARI" бағаны - жеңілдетудің қазақ моделін оқытудан кейінгі BLEU бағалауы. | Column "Kaz-skaz BLEU/SARI" - BLEU score after training the Kazakh simplication model. |
Seq2seq моделі үшін II кестедегі мәліметтерден көріп отырғанымыздай, Bleu бағасы ағылшын Википедиясының қарапайым корпусындағы 58-ден kaz-eng корпусындағы 53-ке дейін өзгерді. | As we can see from the data in Table II for the seq2seq model, the BLEU score has changed from 58 on the Simple English Wikipedia corpus, to 53 on the kaz-eng corpus. |
Тест жиынтығы-бұл ағылшын Википедиясының қарапайым оқу корпусынан таңдалған жолдар, яғни ұқсас тақырыптағы мәліметтер. | The test set is the selected lines from the Simple English Wikipedia train corpus, that is, it is data of a similar subject. |
Модельге арналған Kaz-eng корпусының тест жинағы модельді оқыту үшін пайдаланылмады және бұл корпус бастапқыда мәтінді жеңілдетуге арналмаған. | The kaz-eng corpus test set for the model was not used for training the model and this corpus was not originally for text simplification. |
Трансформатор моделінде BLEU ұпайы 66-дан 55-ке дейін төмендейді. | On the transformer model, the BLEU score is also reduced from 66 to 55. |
Ата-аналық мәліметтерге сәйкес, transformer архитектурасы бар модель сол деректердегі seq2seq назар аудару моделінен сәл артықшылығы бар. | According to the parent data, the model with the transformer architecture has a slight advantage over the seq2seq attention model on the same data. |
Бұл модель сонымен қатар дәл конфигурацияланған трансформатор моделі үшін ата-ана болып табылады. | This model is also the parent for fine-tuned Transformer model. |
Сондықтан қазақстандық үлгіні жасау үшін transformer архитектурасы таңдалды. | Therefore, the transformer architecture was chosen to create the Kazakh model. |
Қазақ баласының нәтижесі бойынша BLEU бағасы 7-ге тең. | The BLEU score on the resulting Kazakh child model is 7. |
"Transformer Finetuned" моделін бағалаудан көріп отырғанымыздай, бағалау 1-ге артты және Қазақстандық модельді құрудың бұл әдісі жақсырақ. | As we can see from the assessment of the "Transformer Finetuned" model, the assessment increased by 1 and this method of creating the Kazakh model is better. |
Аударма кезінде модель көптеген бейтаныс сөздермен жұмыс істейді және контекстке байланысты сөздердің мағынасы әртүрлі болуы мүмкін. | When translating, the model works with many unfamiliar words, and the meaning of words, depending on the context, may differ. |
Бұл мәселе доменнің ауысуы деп аталады [37]. | This problem is called domain shift [37]. |
Басқаша айтқанда, жаңалықтар деректерінде дайындалған модель медицинадан немесе ғылымның басқа саласынан алынған мәліметтермен жақсы жұмыс істемейді. | In other words, a model trained on news data does not work well with data from medicine or another field of science. |
Бұл қазақстандық модель бойынша BLEU төмен баллының себептерінің бірі. | This is one of the reasons for the low BLEU score on the Kazakh model. |
Тағы бір себеп transformer моделін оқытудағы қателік болуы мүмкін, бұл аударманың сапасына әсер етті, біз оны болашақта түзетуге тырысамыз. | Another reason may be an error in training the transformer model, which affected the quality of the translating, which we will try to fix in the future. |
V. Қорытынды және болашақ жұмыс | V. CONCLUSION AND FUTURE WORK |
Бұл мақалада қазақ мәтінін жалпылау әдісі қарастырылды. | In this paper, the method for summarizing Kazakh text was considered. |
Қазақ тіліндегі мәтінді жалпылаудың ұсынылған әдісі жалпылама сөйлемдерді алу үшін TF-IDF әдісін және алынған жалпылама сөйлемдерді жеңілдету үшін NMT әдісін дәйекті қолдануға негізделген. | Proposed Kazakh text summariszing method based on consequent using of TF-IDF method for extracting summarize sentences and NMT method for simplification of received summarize sentences. |