kaz
stringlengths
0
4.83k
eng
stringlengths
0
4.53k
1) қораптағы ең маңызды сөйлемдерді табу үшін TF-IDF немесе центроидтық сөйлемдердің мәні бойынша ұсыныстарды саралау;
1) Ranking sentences by the value of TF-IDF or sentence centroids to find the most important sentences in the corpus;
2) семантикалық жақындық туралы ең ұқсас сөйлемдерді табу;
2) search for the most similar sentences by semantic proximity;
3) TF-IDF немесе центроид мәндері бойынша ұсыныстарды кластерлеу [25].
3) clustering of sentences by the values of TF-IDF or centroids [25].
Біздің жұмысымызда біз центроидты саралау және кластерлеу әдісін қолданамыз.
In our work, we use the centroid ranking method and clustering.
Төменде қадамдық іске асыру алгоритмі берілген:
Below is a step-by-step implementation algorithm:
1) біз алдын-ала өңдеуді жүзеге асырамыз, ол тыныс белгілерін, апострофтарды, сызықшаларды және басқа да ақпараттық емес элементтерді алып тастауды, sent_tokenize функциясымен мәтінді таңбалауды, әр элемент жеке сөйлем болатын мәтін массивін алуды қамтиды.
1) We perform preprocessing, which includes removing punctuation marks, apostrophes, dashes and other uninformative elements, tokenizing the text using the sent_tokenize function in order to get an array of text, where each element is a separate sentence.
2) біз терминдердің жиілігін аламыз - бұл әр ерекше сөздің сөйлемде кездесетін рет санының сөйлемдегі сөздер санына қатынасы ретінде анықталады.
2) We get term frequency - it is defined as the ratio of the number of times each unique word appears in the sentence to the number of words in the sentence.
3) біз құжаттың кері жиілігін аламыз - сөйлемдегі сөздің маңыздылығын немесе ақпараттылығын көрсететін мағына, предлогтар сияқты көптеген сөйлемдерде кездесетін сөздерді елемеуге мүмкіндік береді.
3) We get inverse document frequency - a value that shows the significance or informativeness of a word in a sentence, allowing you to ignore words that appear in most sentences, such as prepositions.
Бұл сөйлемдер санының сөз оқиғаларының санына қатынасының логарифмі.
It is the logarithm of the ratio of the number of sentences to the number of occurrences of a word.
4) әрбір сөйлемнің Центроиді TF-IDF мәндерінің қосындысының сөйлемдегі бірегей сөздердің жалпы санына қатынасы ретінде есептеледі.
4) The centroid of each sentence is calculated as the ratio of the sum of TF-IDF values to the total number of unique words in the sentence.
5) біз барлық сөйлем центроидтарын сөйлем нөмірі мен центроид мәні бар бір массивке біріктіреміз.
5) We combine all the centroids of the sentences into one array, which contains the sentence number and the centroid value.
Содан кейін біз ең үлкен центроид мәндері бар бірнеше сөйлемді таңдаймыз.
Then we select several sentences with the largest centroid values.
- Сур.1 мәтінді жеңілдету нәтижесінде алынған қазақ тіліндегі мәтін үшін центроид мәндерін бөлу графигін көрсетеді.
In Fig.1 shows a graph of the distribution of centroid values for a text in the Kazakh language, which was obtained as a result of text simplification.
Диаграммада X осі-сөйлемнің реттік нөмірі, Y осі - тиісті сөйлемнің центроидтарының мәні.
On the chart, the X-axis is the ordinal number of the sentence, the Y-axis is the values of the centroids of the corresponding sentence.
Центроид-нөлден 1-ге дейінгі мән.
Centroid - a value from zero to 1.
Диаграммада біз центроидтардың мәндерінің корпуста қалай бөлінгенін және дененің қай бөлігінде центроидтардың ең үлкен мәндері орналасқанын көреміз.
On the diagram, we see how the centroid values of sentences are distributed in the corpus and in which part of the corpus the largest centroid values are.
Сур. 1. Қазақ корпусының ұсыныстары бойынша центроид мәндерін бөлу.
Fig. 1. Distribution of Centroid Values by Sentences of the Kazakh Corpus.
Келесі қадам-тақырыптық талдау үшін сөздерді кластерлерге бөлу арқылы алынған жеңілдетілген корпусты талдау.
The next step is to analyze the resulting simplified corpus by distributing words into clusters for topic analysis.
I кестеде корпусты 6 кластерге бөлу нәтижесі көрсетілген.
Table I shows the result of the distribution of the corpus into 6 clusters.
Кластерлеу үшін біз k-орта алгоритмін қолданамыз [26].
For clustering, we use the k-means algorithm [26].
Бұл алгоритм векторлар жиынтығын ұқсастық дәрежесі бойынша топтастыруға мүмкіндік береді.
This algorithm allows you to group a set of vectors according to the degree of similarity.
Бұл жағдайда біз центроидтарды сөздердің ұқсастығының өлшемі ретінде қолданамыз.
In this case, we use centroids as a criterion for the similarity of words.
Қарапайым болу үшін кластерлер саны ерікті түрде таңдалды.
For simplicity, the number of clusters was chosen arbitrarily.
Көріп отырғанымыздай, әр кластерде мағынасына жақын сөздер жиынтығы бар.
As we can see, each cluster contains a set of words that are close in meaning.
Кесте I. сөздерді кластерлеу
TABLE I. WORD CLUSTERING
B. алынған ұсыныстарды жеңілдету
B. Simplification of Extracted Sentences
Бұл бөлімде біз аударманы оқытуға қатысты әдісті қолдана отырып, қазақ мәтінінің жеңілдетілген моделін құру алгоритмін сипаттаймыз.
In this subsection, we will describe the algorithm for creating a simplification model of the Kazakh text using a method that relates to the transfer learning.
Қазақ тілі-бұл параллель корпустары аз тіл, бұл нейрондық модельді үйренуді қиындатады.
The Kazakh language is a language with a small number of parallel corpuses, which makes learning a neural model very difficult.
Қазақ тілімен жұмыс істеуге арналған үлгі қазақ мәтінінің параллель корпусында оқытылуы тиіс.
A model for working with the Kazakh language should be trained on a parallel corpus of the Kazakh text.
Қазақ тіліндегі мәтіндерді жеңілдету үшін қазіргі уақытта дайын жеңілдетілген параллель корпус жоқ.
For the simplification of texts in the Kazakh language, there are currently no ready-made simplification parallel corpus.
Сондықтан, осындай корпусты алу үшін ағылшын параллельді жеңілдетілген корпусты қазақ параллельді жеңілдетілген корпусқа аудару үшін қолмен өңделген Google translate қосымшасын қолданамыз.
Therefore, to obtain such a corpus, we use the Google translate application with manually edition to translate English parallel simplification corpus to Kazakh parallel simplification corpus.
Қазақ мәтінін жеңілдетудің ұсынылған әдістемесі екі кезеңнен тұрады (сурет.2).
The proposed methodology of simplification of Kazakh text includes two stages (Fig.2).
Бірінші кезеңде ата-ана моделі оқытылады:
At the first stage, the parent model is trained:
1) алдымен ата-ана моделінің архитектурасын анықтаймыз.
1) First, we define the architecture of the parent model.
Модельді жасамас бұрын, ағылшын тілінің бастапқы корпусындағы ең жоғары нүктелерді көрсететін нейрондық желі моделінің архитектурасын таңдау керек болды.
Before creating the model, it was necessary to choose the architecture of the neural network model that would show the highest score values in the original English corpus.
Мұны істеу үшін біз seq2seq және transformer моделін жалпы корпуста оқытамыз (қарапайым ағылшын Википедиясы) және қандай архитектураның үлкен BLEU бар екенін қарастырамыз.
To do this, we train seq2seq and a transformer model on a general corpus (Simple English Wikipedia) and see which architecture has bigger BLEU.
2) Kaz-eng корпусының ағылшын бөлігі [27] оқытылған үлгімен аударылады.
2) The English part of the kaz-eng corpus [27] is translated by the trained model.
Нәтижесінде біз Kaz-eng корпусының ағылшын бөлігінің жеңілдетілген мәтінін алдық.
As a result, we got a simplified text of the English part of the kaz-eng corpus.
Трансферттік оқытудың екінші кезеңі-еншілес модельді оқыту:
Second stage of transfer learning is the training of the child model:
1) Алынған Kaz-eng корпусының жеңілдетілген бөлігі нәтижесін мәтіндік файлға жаза отырып, машиналық аударманың жалпыға қолжетімді веб-сервисін пайдалана отырып, қазақ тіліне аударылды.
1) The resulting simplified part of the kaz-eng corpus was translated into the Kazakh language, using the public web service of machine translation with the recording of the result in a text file.
2) нәтижесінде синтетикалық қазақ параллельді жеңілдетілген корпус алынды.
2) As a result, a synthetic Kazakh parallel simplification corpus is obtained.
Қазақ параллель оңайлатылған корпусының бастапқы бөлігі бастапқы қаз-ағылшын тілді корпусының қазақ бөлігі болып табылады, ал нысаналы бөлігі қазақ тіліне аударылған бастапқы ағылшын бөлігінің жеңілдетілген мәтіні болып табылады.
The source part of Kazakh parallel simplification corpus is the Kazakh part of the source kaz-eng corpus and the target part is the simplified text of the source English part translated on Kazakh.
3) осыдан кейін жаңа нейрондық модель қазақ параллельді оңайлатылған корпусында оқытылады.
3) After that, the training a new neural model on the Kazakh parallel simplification corpus is made.
Інжір. 2. Қазақ ұсыныстарын жеңілдету үшін оқыту технологиясын беру.
Fig. 2. Transfer Learning Technology for the Simplification of Kazakh Sentences.
Корпустың жеңілдетілген бөлігін құру үшін модельді аудару нәтижелерін пайдаланудың қарастырылған әдісі трансферттік оқыту әдістеріне жатады.
The considered method of using the results of model translation to create a simplified part of the corpus belongs to transfer learning methods.
Бұл жұмыс уақытында жасалған синтетикалық деректерді қолданатын оқыту әдістері [28].
These are learning transfer methods that use the generated synthetic data at runtime [28].
Модель жасаған мәліметтер негізінде жасалған Корпус синтетикалық деп аталады.
A corpus that was created based on the data generated by the model is called synthetic.
Сонымен қатар, синтетикалық корпусты құру кері аударма әдісінің негізінде жатыр [29].
Also, the creation of a synthetic corpus underlies the method of back-translation [29].
Сонымен, [30] - де автор оқу корпусының көлемін ұлғайту үшін кері аударманы қолданады.
So, in [30] the author uses back-translation to increase the size of the training corpus.
Біздің жұмысымызда пойыздардың санын көбейту үшін осы әдісті қолдануға болады.
In our work, it is possible to use this method to increase the train corpus.
Алайда, синтетикалық деректер нақты деректерден гөрі нашар, ал жаттығу корпусының едәуір бөлігі синтетикалық деректер болған кезде, модель әдетте BLEU-дің нақты деректермен салыстырғанда нашар нәтижелерін көрсетеді [31].
Nevertheless, synthetic data is worse than real data, and when a significant part of the train corpus is synthetic data, the model usually shows worse BLEU results compared to real data [31].
Әрі қарай, қазақ тіліндегі жеңілдетілген мәтін мәтіннің мәнін жеткізетін сөйлемдерді анықтауға мүмкіндік береді.
Further, the simplified text in the Kazakh language, allows to define the sentences that convey the essence of the text.
IV. NMT ЭКСПЕРИМЕНТІ ЖӘНЕ НӘТИЖЕСІ
IV. NMT EXPERIMENT AND RESULT
Бұл бөлімде модельді оқыту, нәтиже алу және жалпылау сапасын бағалау талқыланады.
This section discusses training the model, obtaining results, and assessing the quality of summarization.
Модельдің қаншалықты жақсы жұмыс істейтінін, соның ішінде оқу корпусынан мүлдем өзгеше мәтінді анықтау үшін сапаны бағалау қажет.
Quality assessment is needed to determine how well the model performs, including with text that is very different from the training corpus.
Модельдің сапасын бағалау үшін біз Bleu және SARI көрсеткіштерін қолданамыз.
To assess the quality of the model, we use the BLEU and SARI metrics.
Bleu көрсеткіші (екі тілді бағалау дублері) - бұл бір тілден екінші тілге машиналық аударма сапасын бағалау.
The BLEU (Bilingual Evaluation Understudy) metric is an assessment of the quality of machine translation from one language to another.
BLEU алгоритмі болжамды сөйлемдердегі жалпы сөздер мен сөз тіркестерінің санын анықтамалық сөйлемдермен салыстырады.
The BLEU algorithm compares the number of common words or phrases in predicted sentences with reference sentences.
Салыстыру N-грамм сәйкестіктерін санау арқылы жасалады.
Comparison is performed by counting N-gram matches.
Корпус үшін қорытынды балл-бұл корпустағы барлық ұсыныстар үшін орташа сапа балы [32].
The final score for a corpus is the average quality score for all sentences in the corpus [32].
Метрика мәтінді жеңілдету жағдайында белгілі бір кемшіліктерге ие, өйткені ол бастапқыда мәтінді жеңілдету үшін емес, машиналық аударма үшін жасалған [33].
The metric has certain drawbacks in the case of text simplification, since was originally developed for machine translation rather than text simplification [33].
[34] - те SARI метрикасы ұсынылды (жүйенің сілтемелер мен кіріс ұсыныстары бойынша шығуы).
In [34], the SARI (System Output Against References and Input Sentences) metric was presented.
Бұл көрсеткіш сөйлемді өзгерту операцияларын дұрыс ескере отырып, бастапқы, болжамды және анықтамалық мәліметтер негізінде мәтінді жеңілдету сапасын бағалай алады.
This metric can assesses the quality of text simplification based on source, predictions and reference data, correctly taking into account the operations to change the sentence.
Модельді оқыту кезінде ең маңызды параметрлердің бірі-оқу және тастау кезеңдерінің саны.
When training a model, one of the most important parameters is the number of training epochs and dropout.
Дәуір-оқу кезінде корпустың толық өту циклі, модельді оқыту үшін бірнеше дәуір қажет.
The Epoch - full cycle through the hull during training, it takes more than one epoch to train the model.
Түсіру-бұл белгілі бір ықтималдығы бар кейбір нейрондардың шығуын өшіруден тұратын жаттығу кезінде қолданылатын әдіс [35], бұл модельді қайта оқытудан аулақ болады.
Dropout is a technique used in training, which consists in shutting off the outputs of some neurons with a certain probability [35], which avoids overfitting the model.
Модель оқу кезінде құрылған сөздік негізінде жұмыс істейді.
The model works on the basis of a vocabulary that was created during training.
Сөздік қорының мөлшері модельдің жұмысына әсер етеді.
The size of the vocabulary affects the performance of the model.
Сөздік қорының мөлшерін біз 50 000 сөзге орнаттық.
Vocabulary size we have set 50 000 words.
Қарапайым ағылшын Википедиясының параллель корпусында оқуға арналған 284677 жол бар.
The parallel corpus of Simple English Wikipedia contains 284677 lines for training.
Модель 20 дәуірде, шығын функциясының мәні айтарлықтай төмендей бастағанға дейін оқытылды.
The model was trained for 20 epochs, until the values of the loss function ceased to decrease significantly.
Kaz-eng корпусы 109 мың жолдан тұрады, оның 5000 жолы тестілеу үшін бөлінген.
The kaz-eng corpus contains 109 thousand lines, from where 5000 lines are allocated for testing.
Ең жақсы нұсқаны анықтау үшін біз индуктивті берілісті оқытуды білдіретін [36] модельді дәл баптау әдісін қолдандық.
To determine the most optimal option, we also applied the model fine-tuning method [36], which refers to inductive transfer learning.
Ол алдыңғы әдіспен келесі қадамдармен ерекшеленеді: 1) жалпы корпуста оқытылған модель domainspecific corpus-та қайта оқытылуы керек.
It differs from the previous method in the following steps: 1) it is necessary that the model that has been trained on the general corpus is retrained on the domainspecific corpus.
Ол үшін opennmt қолданыстағы модельдік сөздікті қазақ тілі корпусының сөздігіне қосады; 2) OpenNMT-де жаңа сөздікті қолданатын сақтаудың жаңа нүктесі құрылады.
To do this, OpenNMT connects the existing model vocabulary to the Kazakh corpus vocabulary; 2) a new savepoint is created in OpenNMT, which uses the new dictionary.
Модельді оқыту жаңа нүктеден жалғасуда.
The training of the model continues from a new point.
Осылайша, ағылшын тілінде оқытылған модель қазақ тілін ескере отырып қайта даярлаудан өтеді.
Thus, the model trained in English is retrained taking into account the Kazakh language.
II кестеде параллель мәліметтер массивіне байланысты нейрондық модельдердің BLEU және SARI бағалары көрсетілген.
Table II shows the scores of BLEU and SARI of neural models depending on the parallel data corpus.
Бұл бағалар модельдерді оқытудан кейін тестілеу кезінде алынады.
These grades are obtained during testing after training the models.
II КЕСТЕ. SEQ2SEQ ЖӘНЕ TRANSFORMER МОДЕЛІ ҮШІН BLEU ЖӘНЕ SARI ҰПАЙЛАРЫ
TABLE II. BLEU AND SARI SCORES FOR SEQ2SEQ AND TRANSFORMER MODEL
"Қарапайым ағылшын Википедиясы BLEU/SARI" бағанында қарапайым ағылшын Википедиясында модельді оқығаннан кейін BLEU ұпайлары бар.
Column "Simple English Wikipedia BLEU/SARI" contains the BLEU scores after training the model on the Simple English Wikipedia.
"Kaz-eng BLEU/SARI" бағаны - kaz-eng корпусының ағылшын бөлігін аудару кезеңіндегі BLEU бағасы.
Column "Kaz-eng BLEU/SARI" - BLEU assessment at the stage of translating the English part of the kaz-eng corpus.
"Kaz-skaz BLEU/SARI" бағаны - жеңілдетудің қазақ моделін оқытудан кейінгі BLEU бағалауы.
Column "Kaz-skaz BLEU/SARI" - BLEU score after training the Kazakh simplication model.
Seq2seq моделі үшін II кестедегі мәліметтерден көріп отырғанымыздай, Bleu бағасы ағылшын Википедиясының қарапайым корпусындағы 58-ден kaz-eng корпусындағы 53-ке дейін өзгерді.
As we can see from the data in Table II for the seq2seq model, the BLEU score has changed from 58 on the Simple English Wikipedia corpus, to 53 on the kaz-eng corpus.
Тест жиынтығы-бұл ағылшын Википедиясының қарапайым оқу корпусынан таңдалған жолдар, яғни ұқсас тақырыптағы мәліметтер.
The test set is the selected lines from the Simple English Wikipedia train corpus, that is, it is data of a similar subject.
Модельге арналған Kaz-eng корпусының тест жинағы модельді оқыту үшін пайдаланылмады және бұл корпус бастапқыда мәтінді жеңілдетуге арналмаған.
The kaz-eng corpus test set for the model was not used for training the model and this corpus was not originally for text simplification.
Трансформатор моделінде BLEU ұпайы 66-дан 55-ке дейін төмендейді.
On the transformer model, the BLEU score is also reduced from 66 to 55.
Ата-аналық мәліметтерге сәйкес, transformer архитектурасы бар модель сол деректердегі seq2seq назар аудару моделінен сәл артықшылығы бар.
According to the parent data, the model with the transformer architecture has a slight advantage over the seq2seq attention model on the same data.
Бұл модель сонымен қатар дәл конфигурацияланған трансформатор моделі үшін ата-ана болып табылады.
This model is also the parent for fine-tuned Transformer model.
Сондықтан қазақстандық үлгіні жасау үшін transformer архитектурасы таңдалды.
Therefore, the transformer architecture was chosen to create the Kazakh model.
Қазақ баласының нәтижесі бойынша BLEU бағасы 7-ге тең.
The BLEU score on the resulting Kazakh child model is 7.
"Transformer Finetuned" моделін бағалаудан көріп отырғанымыздай, бағалау 1-ге артты және Қазақстандық модельді құрудың бұл әдісі жақсырақ.
As we can see from the assessment of the "Transformer Finetuned" model, the assessment increased by 1 and this method of creating the Kazakh model is better.
Аударма кезінде модель көптеген бейтаныс сөздермен жұмыс істейді және контекстке байланысты сөздердің мағынасы әртүрлі болуы мүмкін.
When translating, the model works with many unfamiliar words, and the meaning of words, depending on the context, may differ.
Бұл мәселе доменнің ауысуы деп аталады [37].
This problem is called domain shift [37].
Басқаша айтқанда, жаңалықтар деректерінде дайындалған модель медицинадан немесе ғылымның басқа саласынан алынған мәліметтермен жақсы жұмыс істемейді.
In other words, a model trained on news data does not work well with data from medicine or another field of science.
Бұл қазақстандық модель бойынша BLEU төмен баллының себептерінің бірі.
This is one of the reasons for the low BLEU score on the Kazakh model.
Тағы бір себеп transformer моделін оқытудағы қателік болуы мүмкін, бұл аударманың сапасына әсер етті, біз оны болашақта түзетуге тырысамыз.
Another reason may be an error in training the transformer model, which affected the quality of the translating, which we will try to fix in the future.
V. Қорытынды және болашақ жұмыс
V. CONCLUSION AND FUTURE WORK
Бұл мақалада қазақ мәтінін жалпылау әдісі қарастырылды.
In this paper, the method for summarizing Kazakh text was considered.
Қазақ тіліндегі мәтінді жалпылаудың ұсынылған әдісі жалпылама сөйлемдерді алу үшін TF-IDF әдісін және алынған жалпылама сөйлемдерді жеңілдету үшін NMT әдісін дәйекті қолдануға негізделген.
Proposed Kazakh text summariszing method based on consequent using of TF-IDF method for extracting summarize sentences and NMT method for simplification of received summarize sentences.