filename
stringlengths
1
10
text
stringlengths
33
111k
category
stringclasses
9 values
license
stringclasses
1 value
credit
stringclasses
5 values
A1-1.pdf
# ニューラル機械翻訳における Iterative Back-Translation を利用した コンパラブルコーパスの活用 山本 優紀 秋葉 友良 塚田 元 豊橋技術科学大学 \{yamamoto.yuki.pr, akiba.tomoyoshi.tk, tsukada.hajime.hl\}@tut.jp ## 概要 ニューラル機械翻訳 (NMT) の学習に用いる対訳コーパスの構築法として, 文書単位で対応付けられた 2 つの言語のコーパス (コンパラブルコーパス) から、対応付けられる文ペアを自動的に抽出する手法が広く採用されている. しかし, 文単位で意味が対応するものは少なく,多くの文は抽出されず捨てられてしまう. 本研究では、対訳コーパスとして抽出されなかった文を含めて,コンパラブルコー パス全体を NMT の学習に活用する手法を提案する. 評価実験により, コンパラブルコーパスでデータ拡張を行うことや, コンパラブル性の利用, Iterative Back-Translation の活用によって翻訳モデルの性能が向上することを確認した. ## 1 はじめに 機械翻訳の分野では, 深層学習の発達により, ニューラルネットワークを用いるニューラル機械翻訳 (Neural Machine Translation:NMT) が, 従来手法の統計的機械翻訳よりも高い性能を示しており, 様々な研究が行われている. NMT では, ニューラルネットワークで構築した翻訳モデルを, 翻訳元の言語 (原言語) の文と,その訳の言語 (目的言語) の文のぺアにした対訳コーパスを用いて学習を行う. NMT は, 対訳コーパスから翻訳に関わる様々な知識を学習するため, 対訳コーパスの質や量が NMT モデルの翻訳性能に大きく影響する.しかし, 大規模な対訳コーパスを人手で作成することは困難という問題点がある. この問題の解決策として, 既存の日本語と英語の翻訳テキストから対訳コーパスを構築する手法が提案されている.[1]これは, 新聞などの文書単位で対応付けつけられた 2 つの言語コーパス (コンパラブルコーパス) から, 対応付けられる文ぺアを自動的 に抽出することで対訳コーパスを構築する方法である. しかし,コンパラブルコーパスの中で文単位で意味が対応するものは少なく,多くの文は抽出されずに捨てられてしまう. 実際, 本論文で使用した PatentMT の調査では 1 つの文書から平均約 $27.1 \%$ の文しか抽出されていなかった. 本研究では, 対訳コーパスとして抽出されなかった文を含めて,コンパラブルコーパス全体を NMT の学習に活用する手法を提案する. データ拡張手法として, 逆翻訳 (Back-Translation:BT)[2] や, その拡張手法である Iterative Back-Translation (IBT)[3][4][5] を利用することで,より効果的なデータ拡張手法を探す. さらに, 上記の手法をコンパラブルコーパスのコンパラブル性を活用して行い, その効果を調べる. ## 2 提案手法 ## 2.1 コンパラブルコーパスの再現 本研究では, 対訳コーパスの抽出元であるコンパラブルコーパスを翻訳モデル学習に活用することを目的とする. しかし, 実験で用いる NTCIR-10 PatentMT[6] のコンパラブルコーパスを直接入手することができなかったため, 以下の方法で対訳コー パスからコンパラブルコーパスを再現した. 1. $C=\{\}$ と初期化する. 2. 対訳コーパス $P$ の各文ペア $(x, y) \in P$ について以下を繰り返す。 $2.1 x$ と $y$ の抽出元の文書である $D_{x}$ と $D_{y}$ を特定する。 2.2 特定した $D_{x}$ と $D_{y}$ を文書ペア $\left(D_{x}, D_{y}\right)$ とし, $C$ に $C \leftarrow C \bigcup\left.\{\left(D_{x}, D_{y}\right)\right.\}$ と追加する. 最終的にコンパラブルコーパス $C=$ $\bigcup_{(x, y) \in P}\left.\{\left(D_{x}, D_{y}\right)\right.\}$ が得られる. ## 2.2 データ拡張手法 節 2.1 で構築したコンパラブルコーパスを利用して, データ拡張を行う. 本研究では, 4 つの手法でデータ拡張実験を行い, 比較を行うことで, より効果的なコンパラブルコーパスの活用方法を模索する. ## 2.2.1 Back-Translation 逆翻訳手法 (Back-Translation:BT) は, Sennrich ら [2] の提案した手法である. BT の流れを図 1 に示す. 図 1 では, 言語 $X$ から言語 $Y$ の翻訳モデルの構築を考えている. はじめに, 対訳コーパスを利用して $Y \rightarrow X$ 方向の翻訳モデル Model $_{Y \rightarrow X} 0$ を作成する.次に,このモデルを用いて, 単言語コーパス $C_{Y}$ mono からサンプリングして得たサブセット $\hat{C}_{Y}$ mono を逆翻訳し, 翻訳結果 $\hat{C}_{X}^{\prime}$ mono を得る. 翻訳結果と元の単言語コーパスを組み合わせて疑似対訳コーパス ( $\hat{C}_{X}^{\prime}$ mono, $\hat{C}_{Y}$ mono $)$ を構築する. 構築した疑似対訳コーパスと対訳コーパスを混合し, 言語 $X$ から言語 $Y$ の翻訳モデル Model $_{X \rightarrow Y} 1$ を学習する. 以上が BT の流れである. 本研究では, 構築したコンパラブルコーパス $C=\bigcup_{(x, y) \in P}\left.\{\left(D_{x}, D_{y}\right)\right.\}$ の Y 言語側 $C_{Y}=\bigcup_{(x, y) \in P}\left.\{D_{y}\right.\}$ を単言語コーパスとすることで BTを利用する。 図 1 Back Translation ## 2.2.2 Iterative Back-Translation Iterative Back-Translation(IBT) は, 原言語の単言語コーパスと目的言語の単言語コーパスを用いて, BT を双方向かつ反復的に繰り返す手法である. IBT の流れを図 2 に示す. 図では, 言語 $X$ と言語 $Y$ における IBT の流れを示している. IBT は以下のようにしてモデルを学習する。 1. 対訳コーパスを用いて, $X \rightarrow Y, Y \rightarrow X$ の各方向の翻訳モデル Model $_{X \rightarrow Y} 0$, Model $_{Y \rightarrow X} 0$ を学習し, $i \leftarrow 0$ に初期化する. 2. 以下の手順で Model $_{X \rightarrow Y} i$ を更新する. 2.1 Model $_{Y \rightarrow X} i$ で単言語コーパス $C_{Y}$ mono からサンプリングして得たサブセット $\hat{C}_{Y}$ mono を翻訳し, 疑似対訳コーパス ( $\hat{C}_{X}^{\prime}$ mono, $\hat{C}_{Y}$ mono) を得る. 2.2疑似対訳コーパス ( $\hat{C}_{X}^{\prime}$ mono, $\hat{C}_{Y}$ mono) と対訳コーパス $\left(C_{X}, C_{Y}\right)$ を結合し, $\operatorname{Model}_{X \rightarrow Y} i$ を fine-tuning し, $\operatorname{Model}_{X \rightarrow Y}(i+1)$ を学習する。 3. ステップ 2 と同様に Model $_{Y \rightarrow X} i$ を更新する. 4. $i \leftarrow i+1$ としてステップ 2 に戻る. 本研究では, BT と同じように, 構築したコンパラブルコーパスを, 単言語コーパスとすることでIBT を利用する。 図 2 Iterative Back-Translation 表 1 実験に使用したコーパスサイズ ## 2.2.3コンパラブル性を利用した IBT コンパラブル性を利用した IBT では, 構築したコンパラブルコーパスが文書単位で対応付けられていることを利用して, IBT に利用する両言語の単言語コーパスをコンパラブルになるように選択する方法である. 具体的には, IBT のステップ 2.1 および 3.1 で単言語コーパスから $\hat{C}_{X}$ mono および $\hat{C}_{Y}$ mono をサンプリングする際, $\hat{C}_{X}$ mono と $\hat{C}_{Y}$ mono が互いにコンパラブルになるように選ぶ. すなわち, 指定されたサンプリングサイズを満たすように最小限のコンパラブルコーパスのサブセット $C_{s u b}=\left.\{\left(D_{X}, D_{Y}\right)\right.\} \subset C$ をサンプリングして, $\hat{C}_{X}$ mono $\subseteq \cup_{\left(D_{X}, D_{Y}\right) \in C_{\text {sub }}}\left.\{D_{X}\right.\}$ および $\hat{C}_{Y}$ mono $\subseteq \cup_{\left(D_{X}, D_{Y}\right) \in C_{\text {sub }}}\left.\{D_{Y}\right.\}$ のように単言語コーパスを選択する。 ## 3 評価実験 ## 3.1 データセット 本研究では, 使用する大規模なコーパスとして特許機械翻訳テストコレクションである NTCIR 10 PatentMT[6] を使用した. PatentMT は特許文書から文を抽出することで構築されている対訳コーパスである. PatentMT の対訳コーパスから, 2.1 節の方法でコンパラブルコーパスを構築した. このとき,数式を含む文や長い文を除いた. 使用した対訳コーパスと構築したコンパラブルコーパスのサイズを表 1 に示す. また, PatentMT の対訳コーパスと構築したコンパラブルコーパスの関係を調査した. コンパラブルコーパスの全文書は 66,414 文書である. このうちの 20,485 文書は, 文書内の $10 \%$ 以下の文しか対訳コー パスとして抽出されていないことがわかった. また,構築したコンパラブルコーパスを利用することで,約 67\%の文を新しく学習に使用することができることがわかった.表 2 コンパラブルコーパスの効果確認実験の結果 ## 3.2 データセットの前処理 前処理として英語文, 日本語文ともに NFKC 正規化を行った. また, 英語文は Moses[7] に付属するトークナイザーと truecaser でトークナイズ大文字小文字の表記を統一した. 学習前の事前処理として, SentencePiece[8] で語彙サイズを 16,000 でサブワー ド化を行った. ## 3.3 ニューラル機械翻訳のパラメータ NMT システムには Fairseq[9] の Transformer を使用した. エンコーダー及びデコーダは Transformer を 6 層とした. 学習率は 5e-4 とし, Warmup は 4000 ステップ, dropout は 0.1 としている. 損失関数は, ラべル平滑化クロスエントロピーを使用した. 最適化関数は Adam を利用し, パラメータである $\beta_{1}$ を $0.9, \beta_{2}$ を 0.98 に設定した。 ## 3.4 コンパラブルコーパスの効果 今回構築したコンパラブルコーパスの効果を確認するための実験を行った. PatentMT の対訳コーパスのみで学習した翻訳モデルと,コンパラブルコーパスを利用してデータ拡張を行った翻訳モデルを比較する。 ベースラインは, PatentMT の対訳コーパスのみで学習したものを利用した. コンパラブルコーパスを利用した翻訳モデルは, ベースラインに加え, 全てのコンパラブルコーパスを利用したものと,対訳コー パスと同サイズである $3,186,254$ 文をコンパラブルコーパスから抽出したものの 2 つで実験を行った. ベースラインを利用してそれぞれ BTを行い, デー 夕拡張して学習を行った. ベースラインは 20epoch, コンパラブルコーパスを利用した翻訳モデルはどちらも 10epoch の学習を行った. 評価尺度は BLEU[10] を用いる。また, NTCIR-10 のベスト翻訳モデルとも比較を行った。 コンパラブルコーパスの効果確認の実験結果を表 表 3 翻訳モデルの BLEU 2 に示す. なお, 表 2 のサイズは, 左が対訳コーパスの使用文数, 右が単言語コーパスの使用文数となっている. コンパラブルコーパスを利用した 2 つの結果がベースラインを上回ったことから,これまで利用されていなかったコンパラブルコーパスを活用することの有効性を示している. また, NTCIR-10 のベスト翻訳モデルと BLEU を比較すると, BLEU を大きく上回っており, 本実験で作成された翻訳モデルは十分な性能があるといえる. ## 3.5 データ拡張手法の比較 節 2.2 で説明した BT, IBT, コンパラブル性を利用したIBT の 3 つの手法で実験を行い, データ拡張手法の比較を行った. データ拡張は学習データのサイズが少ないほど効果が見られるため, 学習に使用するデータ数を減らして実験を行った. ベースラインは対訳コーパスを 10 万文使用して学習を行った. 提案手法である 3 つのデータ拡張手法では, ベースラインに加え, 10 万文ずつコンパラブルコーパスからサンプリングし, データ拡張を行い, モデルを更新した. モデルの更新後, 新たに 10 万文をコンパラブルコーパスからサンプリングし, 対訳コーパスと混合してデータ拡張を行う. これを繰り返すことで, モデルの更新を進める. モデルの更新は 3 手法とも 5 回行った. 比較は, 開発データで最も高い BLEU スコアのモデルで比較を行った. データ拡張手法の比較を行うために, BT, IBT, コンパラブル性を利用した IBT の 3 つの手法を行った. 実験の翻訳モデルの学習結果を, 表 3 に示す. なお, 表 3 の学習データサイズは, 左が対訳コーパスの使用文数, 右が単言語コーパスの使用文数となっている. なお, 太字になっている BLEU スコアが, 開発 データで最も高い BLEUを示した Model である.英日方向における各手法の BLEU を比較すると, コンパラブル性を利用した IBT が最も性能が高く,続いて IBT の性能が高い. 日英方向における各手法の BLEU を比較すると, 英日と同じく,コンパラブル性を利用した IBT が最も性能が高く, 続いて IBT の性能が高い. IBT は, BT と比較して, BLEU が高いことが確認できる. コンパラブル性を利用した IBT は, コンパラブル性を利用していない BT や IBT と比較して, BLEUが高いことが確認できる. ## 4 結論 対訳コーパスをとして抽出されなかった文を含めたコンパラブルコーパスを利用してデータ拡張を行うことで, 翻訳モデルの性能が向上し, これまで利用されていなかったコンパラブルコーパスを活用することの有効性を確認した. また, コンパラブルコーパスの活用方法として, IBT を利用することの有効性と, 利用する単言語コーパスにコンパラブル性を持たせることの効果を確認することができた. ## 謝辞 本研究は JSPS 科研費 $18 \mathrm{H} 01062$ の助成を受けた. ## 参考文献 [1] 内山将夫. 対訳データの効率的な構築方法. 情報通信研究機構季報 Vol.58, pp. 37-43, 2012. [2] Rico Sennrich, Barry Haddow, and Alexandra Birch. Improving neural machine translation models with monolingual data. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 86-96, 2016. [3] Vu Cong Duy Hoang, Phiilpp Koehn, Gholamreza Haffari, and Trevor Cohn. Iterative back-translation for neural machine translation. In Proceedings of the 2nd Workshop on Neural Machine Translation and Generation, pp. 18-24, 2018. [4] Zhirui Zhang, Shujie Liu, Mu Li, Ming Zhou, and Enhong Chen. Joint training for neural machine translation models with monolingual data. In Proceedings of the AAAI Conference on Artificial Intelligence, pp. 555562, 2018. [5] 森田知熙, 秋葉友良, 塚田元. 双方向の逆翻訳を利用したニューラル機械翻訳の教師なし適応の検討. 情報処理学会研究報告 2018-NL-238 (第 5 回自然言語処理シンポジウム), pp. 1-5, 2018. [6] Isao Goto, Ka Po Chow, Bin Lu, Eiichiro Sumita, and Benjamin K. Tsou. Overview of the patent machine translation task at the NTCIR-10 workshop. Proceedings of the 10th NTCIR Conference, pp. 260-286, 2013. [7] Philipp Koehn, Hieu Hoang, Alexandra Birch, Chris Callison-Burch, Marcello Federico, Nicola Bertoldi, Brooke Cowan, Wade Shen, Christine Moran, Richard Zens, Chris Dyer, Ond`rej Bojar, Alexandra Constantin, and Evan Herbst. Moses: Open source toolkit for statistical machine translation. In Proceedings of the 45th Annual Meeting of the Association for Computational Linguistics Companion Volume Proceedings of the Demo and Poster Sessions, pp. 177-180, 2007. [8] Taku Kudo and John Richardson. Sentencepiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 66-71, 2018. [9] Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. fairseq: A fast, extensible toolkit for sequence modeling. In Proceedings of NAACL-HLT 2019: Demonstrations, 2019. [10] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. Bleu: A method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, 2002.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A1-2.pdf
# Understanding Why Polysemous Words Translate Poorly from a Calibration Analysis Perspective Yucong $\mathrm{Wu}^{1} \quad$ Yusuke Miyao $^{1}$ ${ }^{1}$ The University of Tokyo [email protected] [email protected] } \begin{abstract} Neural machine translation models have difficulty in translating polysemous words accurately. We hypothesize that this is because the translation models have calibration errors, i.e., the models give too low probabilities to rare senses and too high probabilities to frequent senses. To test this hypothesis, we propose a calibration analysis framework that observes how calibration errors change under different setups. Calibration errors of models' predictions are measured in terms of sense frequency and part of speech. The results indicate that machine translation models are underconfident in less frequent translations and overconfident in more frequent ones. \end{abstract ## 1 Introduction Language learners often feel confused about certain usages of a word or phrase. Especially for those words with multiple meanings, it's hard to grasp the exact meaning or explanation for the whole sentence. Even though they refer to a dictionary, simple and abstract definitions sometimes make them feel more confused about the meaning of polysemous words. Resorting to machine translation unconditionally would not be a good choice [1]. In this paper, we perform calibration analysis on translation probability of polysemous words. Calibration analysis aims to figure out how and when we can trust and accept the translations produced by neural machine translation models. Calibration errors measure the difference between confidence score and prediction accuracy, and is a trustworthiness evaluation in high-stakes tasks like self-driving and medical diagnosis [2]. A model is called calibrated only when its prediction confidence matches its accuracy. Figure 1 shows two translations produced by a calibrated model given the English sentence. We could accept the Figure 1: Two translations produced by a calibrated model. The numbers indicate the confidence score for the highlighted token first sentence as the translation of 'edge' because its confidence is high. For the same reason, we should abandon the second because of the low confidence given by the calibrated model. Language learners can accept translations of the calibrated translation model based on its confidence. We create a dataset containing polysemous words and their acceptable translation set to support our calibration analysis. We use accuracy-confidence plots to show the calibration errors of models on varied confidence bins. We also compare the tendencies of confidence distributions under different setups including sense frequencies and parts of speech. Our results show that machine translation models are underconfident in less frequent translations but overconfident in more frequent translations, which responses the question in the title. ## 2 Background Calibration analysis has been applied to neural networks and machine translation models to help us know when the prediction could be trusted better. Guo et al. [3] observed that modern neural networks suffer from overconfidence about their predictions, and the lack of regularization might be a possible reason. Wang et al. [4] found that neural machine translation is not only overconfident in high-confidence predictions but also underconfident in low-confidence predictions. Kumar et al. [5] claimed that calibration helped improve interpretability, but the end-of- sentence token is severely overconfident, causing translation to end quickly. Post-hoc calibration strategies including temperature scaling [6] and histogram binning [7] have been proposed to mitigate calibration errors produced by machine translation models. DiBiMT [8] is an existing polysemous translation dataset. It evaluates whether different senses of polysemous words can be translated correctly. However, the previous polysemous translation dataset suffers from insufficient number of sentences and simple structures as we describe in Section 3. Expected calibration error (ECE) is a popular metric to evaluate the extent of calibration errors of a model's prediction [9]. The confidence axis [0,1] is divided into bins with equal sizes, i.e., $B=\left.\{X_{1}, \cdots, X_{|B|}\right.\} . X$ is the set of all predictions. ECE is calculated among $|B|$ bins by using the weighted average of absolute differences between accuracy $\operatorname{Acc}(X)$ and confidence $\operatorname{Con} f(X)$. $ E C E=\sum_{i=1}^{|B|} \frac{\left|X_{i}\right|}{|X|}\left|\operatorname{Conf}\left(X_{i}\right)-\operatorname{Acc}\left(X_{i}\right)\right| $ $\operatorname{Con} f(X)$ is defined as the average of all prediction probabilities (Eq. 2), where $\Phi(x)$ is the prediction probability on the sample $x$ from the bin $X$. $\operatorname{Acc}(X)$ is defined as the ratio of correct predictions (Eq. 3), where $\hat{y}(x)$ indicates the prediction given by the model and $\square()$ is the indicator function: $ \begin{aligned} \operatorname{Conf}(X) & =\frac{1}{|X|} \sum_{x \in X} \Phi(x) \\ \operatorname{Acc}(X) & =\frac{1}{|X|} \sum_{x \in X} \square(\hat{y}(x)=y) \end{aligned} $ ## 3 Method In this research, we investigate the translation quality of polysemous words using calibration error analysis. We collect a translation corpus containing polysemous words to support our calibration analysis. All of our corpora are obtained or transformed from Projekt Deutscher Wortschatz [10] Corpora English and WordNet [11] example sentences. We create a dataset with two thousand sentences containing polysemous words from the collected corpora. Our dataset consists of triples $(s, l, \mathscr{G})$, where $s$ is a source sentence, $l$ is a dictionary form (lemma) of a target polysemous word, and $\mathscr{G}$ is a set of acceptable translations Table 1: Statistics of translation datasets containing polysemous words for $l$. An example is: ("I'm a little on edge right now.", edge, $\{$ 緊張 $\}$ ) Table 1 compares the major statistics of our created dataset with DiBiMT. It shows that our dataset provides a larger number of sentences for each polysemous word, and the average length indicates our dataset contains sentences with more complicated structures. Calibration analysis is to observe how ECE and translation accuracy would change in different groups of polysemous words. The groups are divided based on sense frequencies or POS tags. ECE is used to measure the extent of calibration errors for translation probability of polysemous words. $S$ represents the source sentence, $X$ for the polysemous word, $Y=Y_{1} \cdots Y_{N}$ for the translation sequence. $M(S, X, Y)$ indicates the index set in $Y$ corresponding to $X$. The translation probability $\Phi(X, Y)$ of polysemous word is defined below: $ \Phi(X, Y)=\prod_{t \in M(S, X, Y)} P\left(Y_{t} \mid X, Y_{<t}\right) $ We run M2M100 [12] translation models on our dataset using its initial setup. $\operatorname{Con} f(X)$ can be calculated by substituting $\Phi(x)$ in Eq. 2 with Eq. 4. $|B|$ is set to 10 . A translation is correct if and only if the corresponding translation of lemma is in $\mathscr{G}$. ## 4 Experiment ## 4.1 Analysis on Sense Frequency We divide all senses into Most Frequent Sense (MFS), Frequent Senses (FS+), and Less Frequent Sense (LFS) based on their prior distribution in the corpus. MFS indicates the sense with the largest frequency, FS+ represents those senses in a descending order whose frequencies are cumulatively greater than $70 \%$, and other senses are called LFS. Figure 2 demonstrates the calibration errors within MFS, FS+, and LFS groups, respectively. We discover that the Figure 2: Accuracy-confidence plot for MFS, FS+, and LFS. The $\mathrm{X}$ axis shows confidence bins and the $\mathrm{Y}$ axis shows accuracy. Black bars indicate the minimum of accuracy and confidence, and red bars represent the difference between confidence and accuracy. The $45^{\circ}$ lines represent perfect calibration, i.e., accuracy matches confidence exactly. Under/over confidence depends on whether the red bar is above/below the line. Table 2: ECE and accuracy for different sense frequencies model is underconfident in low-confidence bins and overconfident in high-confidence bins when considering MFS samples only. The calibration of models changes slightly in FS+. In the highest confidence bin, it becomes underconfident. It shows well-calibrated in near high-confidence bins but still under-confident in low-confidence bins. Comparing LFS with MFS and FS+, we find that the borderline between underconfident and overconfident bins moves to the left side of the axis from the 9th bin to the 7 th. The difference between accuracy and confidence within each bin, i.e., the area of red bars, also declines. Despite its low accuracy, it demonstrates that the model is much more calibrated in less frequent sense sample sets. Table 2 exhibits ECE and translation accuracy when only MFS, FS+, and LFS are used, as well as the mix of MFS and FS+. We can see the marginal decrease in ECE and accuracy in the LFS set. Although the accuracy decreases in LFS, the lower ECE shows that the model is much more calibrated in less frequent sense samples. It would be misleading if the machine translation model shows high confidence scores in low-accurate predictions. Comparing FS+ to MFS, we can also observe a slight decrease in ECE and accuracy. Less frequent sense would reduce translation accuracy and lower expected calibration errors. Figure 3 shows the confidence distribution of correct Figure 3: Kernel density estimation (KDE) curves of confidence distributions in LFS, MFS, and FS+. The wider the horizontal line is, the larger the distribution density is. $($ Gaussian Kernel, bandwidth $=12$ ) translations. We extracted all correct translations and group these translations into LFS, MFS, and FS+ according to their sense frequencies to draw this figure. Observing the distribution of LFS, there is a peak on low confidence bins of the KDE curve. Low confidence for most predictions indicates that models are uncertain about their decision even though it is correct. The current LFS group consists of all the samples we concern about, i.e., rare senses of polysemous words. The peak on low confidence bins indicates that the model is inclined to put too low probabilities on these tokens. This conclusion gives an available response toward the question in the title. MFS shows different tendencies than LFS and FS+. Its peak is in the upper of the confidence axis and MFS puts less weight on the low confidence bin. The distribution Figure 4: Accuracy-confidence plot for adjectives, nouns, and verbs. Table 3: ECE and accuracy for different POS shows that models are confident about their translations of the most frequent sense. The reason is thought to be that models have seen sufficient numbers of MFS samples during training, and learned the pattern for collocation of MFS and other words, and hence uncertainty like LFS and FS+ disappears. The KDE curves of MFS, FS+, and LFS differ in shapes. LFS and FS+ are similarly bowlingshaped, whereas MFS is like a spindle. ## 4.2 Analysis on Part of Speech Figure 4 illustrates calibration errors for adjectives, nouns, and verbs. All three major POS are underconfident in low-confidence bins but differ a little in highconfidence bins. Nouns and verbs are overconfident in high-confidence bins, while adjectives are underconfident in high-confidence bins. Verbs have higher accuracy in low-confidence bins than nouns. Adjectives are underconfident among all confidence bins. Table 3 shows that noun senses have the smallest ECE, and adjectives have the largest. Adjectives have the lowest accuracy, but nouns have the highest accuracy. Figure 5 analyzes the confidence distribution of correct translations for nouns, verbs, and adjectives. If a lemma has two senses with different POS, it will be much easier for models to discriminate its sense and translate it into correct expressions. Because nouns are the largest senses, there are plenty of lemmas having both noun and other POS senses. Therefore, the density would focus on and above Figure 5: KDE curves for nouns, verbs, and adjectives. $($ Gaussian kernel, bandwidth $=12)$ the middle bins and the KDE curve of the noun distribution looks like bell-shaped distribution. Verbs and adjectives have similar spindle-shapes in confidence distribution, i.e., the lower confidence bins have a higher frequency density whereas higher confidence bins have a lower density. ## 5 Conclusion We created a machine translation test set containing polysemous words based on Projekt Deutscher Wortschatz and WordNet. We applied calibration analysis to the quality of polysemous word translation to investigate why polysemous words translate poorly. The proposed framework contains a comprehensive analysis on sense frequency and POS. Our analysis on sense frequency provides an effective perspective to show how the calibration errors of models change as sense frequency decreases. We also discover that nouns, verbs, and adjectives differ in confidence distribution shapes. Correct translations in LFS tend to report relatively low confidence, and this could response to the question in the title. ## References [1]Frederick Liu, Han Lu, and Graham Neubig. Handling homographs in neural machine translation. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pages 1336-1345, New Orleans, Louisiana, June 2018. Association for Computational Linguistics. [2]Holger Caesar, Varun Bankiti, Alex H. Lang, Sourabh Vora, Venice Erin Liong, Qiang Xu, Anush Krishnan, Yu Pan, Giancarlo Baldan, and Oscar Beijbom. nuscenes: A multimodal dataset for autonomous driving, 2019. [3]Chuan Guo, Geoff Pleiss, Yu Sun, and Kilian Q. Weinberger. On calibration of modern neural networks. In Proceedings of the 34th International Conference on Machine Learning - Volume 70, ICML'17, page 1321-1330. JMLR.org, 2017. [4]Shuo Wang, Zhaopeng Tu, Shuming Shi, and Yang Liu. On the inference calibration of neural machine translation. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pages 3070-3079, Online, July 2020. Association for Computational Linguistics. [5]Aviral Kumar and Sunita Sarawagi. Calibration of encoder decoder models for neural machine translation. CoRR, abs/1903.00802, 2019. [6]PLATT J. C. Probabilistic outputs for support vector machines and comparisons to regularized likelihood methods. Advances in Large Margin Classifiers, 1999. [7]Bianca Zadrozny and Charles Elkan. Obtaining calibrated probability estimates from decision trees and naive bayesian classifiers. In Proceedings of the Eighteenth International Conference on Machine Learning, ICML '01, page 609-616, San Francisco, CA, USA, 2001. Morgan Kaufmann Publishers Inc. [8]Niccolò Campolungo, Federico Martelli, Francesco Saina, and Roberto Navigli. DiBiMT: A novel benchmark for measuring Word Sense Disambiguation biases in Machine Translation. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 4331-4352, Dublin, Ireland, May 2022. Association for Computational Linguistics. [9]Mahdi Pakdaman Naeini, Gregory F. Cooper, and Milos Hauskrecht. Obtaining well calibrated probabilities using bayesian binning. In Proceedings of the Twenty-Ninth AAAI Conference on Artificial Intelligence, AAAI'15, page 2901-2907. AAAI Press, 2015. [10]Uwe Quasthoff. Projekt deutscher wortschatz. In Gerhard Heyer and Christian Wolff, editors, Linguistik und neue Medien. Proc. 10. Jahrestagung der Gesellschaft für Linguistische Datenverarbeitung., Wiesbaden, 1998. Deutscher Universitätsverlag. [11]George A. Miller. WordNet: A lexical database for English. In Human Language Technology: Proceedings of a Workshop held at Plainsboro, New Jersey, March 8-11, 1994, 1994. [12]Angela Fan, Shruti Bhosale, Holger Schwenk, Zhiyi Ma, Ahmed El-Kishky, Siddharth Goyal, Mandeep Baines, Onur Celebi, Guillaume Wenzek, Vishrav Chaudhary, Naman Goyal, Tom Birch, Vitaliy Liptchinsky, Sergey Edunov, Edouard Grave, Michael Auli, and Armand Joulin. Beyond english-centric multilingual machine translation. J. Mach. Learn. Res., 22(1), jul 2022.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A1-3.pdf
# 日英翻訳を対象としたイディオム表現の評価指標の提案 廣瀨惟歩 1 渡辺太郎 ${ }^{1}$ 1 奈良先端科学技術大学院大学 自然言語処理学研究室 \{hirose.yuiho.ia8, taro\}@is.naist.jp ## 概要 ニューラル機械翻訳(NMT)の課題の一つして, イディオムなどの非構成的な表現の翻訳が挙げられる. NMT システムは原文を単語単位で解釈して翻訳するため,非構成的な意味を有するイディオム表現に対しては誤訳が度々生じる。また,既存の自動評価指標は局所的な評価ができず,イディオム表現の翻訳性能の評価には適さないという問題点がある. 本研究では, 日本語と英語を対象に,イディオ么表現の翻訳性能の評価に適した新たな自動評価指標を提案する。具体的には,目的言語側でイディオム表現を検出し,その個数と原言語側のイディオム表現の個数とを比較して, 翻訳モデルの性能を評価する. 実験の結果,BLEU や BERTScore でのスコアの高さと,全体の出力訳含まれる正しいイディオム表現の割合は翻訳モデルによって傾向が異なることが判明した。 ## 1 はじめに Transformer[1] などのニューラル機械翻訳(NMT) システムにとって,複合語表現(MWE)の翻訳は現状の課題の一つである. MWE の中でも,イディオム表現は非構成的な意味を持ち, 構成される単語からは意味を推測できない場合が多い表現である。 NMT システムは翻訳対象となる文章の意味が構成的であることを前提として翻訳を行うため,イディオム表現を文字通りに解釈する傾向にある。その結果,イディオム表現を直訳もしくは省略する翻訳エラーが多々発生する。 また,イディオム表現の翻訳の評価に適した自動評価指標が存在しないことも課題の一つとして挙げられる.BLEU[2]を始めとするグローバル評価指標は,翻訳文の全体を考慮するものであり,局所的な評価ができないため,イディオム表現の翻訳性能の評価には適さない. イディオム表現の翻訳結果を自動的かつ定量的に評価するには, 既存のグローバル評価指標とは別に,翻訳文の特定の箇所に絞った専用の評価指標が必要とされる. イディオム表現に対する自動評価指標の先行研究として, Shao ら [3] は英語と中国語のペアを対象に,イディオム表現を直訳した際に生じるであろう単語を登録したリストを活用する方法を提案した。具体的には, 翻訳モデルが出力した翻訳文のうち, このリストに登録された単語を含むものの割合を評価スコアとしている. しかし, この手法には, 対応する単語を逐一手動でリストに登録しなければならないという欠点が存在する. 本研究では,日英翻訳を対象とした,イディオム表現の翻訳性能を評価するための新たな自動評価指標を提案する. 具体的には,イディオム検出器によって出力訳のイディオム表現を自動的に抽出し,出力訳と参照訳に含まれるイディオム表現の割合の類似度で翻訳モデルを評価する。 イディオム検出器の構築,並びに既存の翻訳モデルでの日英翻訳に対する評価実験の結果,BLEU と BERTScore のスコアが最大である翻訳モデルと,提案手法での評価スコアが最大である翻訳モデルが異なると判明した.この結果は, BLUE や BERTScore といったグローバル自動評価指標では, 機械翻訳の出力訳に含まれるイディオム表現を正しく認識できないことを示していると言える。 ## 2 関連研究 イディオム表現の翻訳結果を BLEU などのグロー バル評価指標で評価した研究は, Fadaee ら [4]によるものを始め, 数多く存在する. Fadaee らの研究では,イディオム表現に特化したデータセットの機械翻訳結果の BLEU スコアが,イディオム表現を含まない標準データセットの機械翻訳結果よりも低下したことが示されている. イディオム表現の自動評価指標に関する先行研究には, Zaninello ら [5] によるものが挙げられる. Zaninello らは英語とイタリア語のペアを対象に, MEW に対する参照訳と出力訳を文字単位で考慮し,双方のレーベンシュタイン距離を算出して,データセット全体の評価スコアを得る手法を考案した。 他にも,Shao ら [3] は英語と中国語のぺアを対象に,イディオム表現に対する自動評価指標として,独自で構築したブラックリストを用いた評価方法を提案した. このリストには,対象となるイディオム表現を直訳した際に生じると思われる単語が登録される。そして,イディオム表現を含む文章を機械翻訳モデルに翻訳させ,出力された全ての文字列のうち,リストに登録された単語を含むものの割合を評価スコアとしている. Shao らの手法では手作業でこのブラックリストを構築しているが,Christos ら [6] はこの研究をもとに,自動アルゴリズムを活用して故意にイディオム表現の直訳エラーを起こし,それによって得られた単語を自動的にリストに登録する手法を提案した。 ## 3 提案手法 本研究では,イディオム表現の自動検出器を作成し,それぞれの出力訳および参照訳の文中からイディオム表現を自動的に抽出して, 全体の出力訳のうち, 参照訳と同様のイディオム表現がどれほど含まれているかによって翻訳モデルの性能を評価する指標を提案する. ## 3.1 イディオム表現の自動検出 初めに,出力訳に含まれるイディオム表現の候補が実際に比喻的な意味であるのか,あるいは文字通りの意味であるのかを判別するためのイディオム検出器を作成する. 自動検出器を作成するには,イディオム表現を含む例文を用意し,各文のイディオム表現の位置をアノテーションした上で学習を行う必要がある. 本研究ではイディオム表現を含む例文のリストとして, Wiktionary のイディオムカテゴリ1)を活用した. このカテゴリには 7990 種類の英語のイディオム表現が掲載されており,その内 5519 種類のイディオム表現には用例も掲載されている. これらの用例を抽出し, 各英文の単語に BIO/BIEO タグ形式でイディオム表現の位置をアノテーションしたデータセットを用いて,BERT[7]の系列ラベリングモデルでタグの推論を行い,イディオム表現の自動検出器を作成した.  表 1 検出実験時のデータセットの内訳 ## 3.2 評価手法 機械翻訳モデルの出力訳を $\hat{y}$ ,参照訳を $y$ としたとき,それぞれの訳文から抽出されたイディオム表現の個数( $f(y)$ と定義)をもとに適合率,再現率, F1 スコアを計算する。すなわち,出力訳と参照訳のそれぞれの訳文に含まれるイディオム表現の数が同等であれば,それらは一致しているという仮定を置き,その上で対象となる翻訳モデルがどれほどイディオム表現を出力できるかを見てその性能を評価する。この仮定を置いた理由は,イディオム表現が検出されたとしても,該当する出力訳と参照訳で単語列が完全に一致することは稀であると判断したためである. 訳文の総数を $n$ とすると,提案手法の適合率 (Pre.),再現率(Rec.)はそれぞれ (1),(2) 式のように表される. $ \begin{aligned} \text { Pre. } & =\frac{\sum_{i=1}^{n} \min \left(f\left(\hat{y}_{i}\right), f\left(y_{i}\right)\right)}{\sum_{i=1}^{n} f\left(y_{i}\right)} \\ \text { Rec. } & =\frac{\sum_{i=1}^{n} \min \left(f\left(\hat{y}_{i}\right), f\left(y_{i}\right)\right)}{\sum_{i=1}^{n} f\left(\hat{y}_{i}\right)} \end{aligned} $ ## 4 実験 ## 4.1 イディオム表現の検出 イディオム検出器の train 及び test データセットは,上述した Wiktionary のイディオムカテゴリに掲載された用例を抽出して構築した。具体的には,抽出によって得られた 12,851 文の英文を 9:1 の割合で train と test データセットに分け, 双方のデータセットに対して, OpenSubtitle2016コーパスから抽出したイディオム表現のない英文を追加した. イディオム検出器の学習, 評価に用いたデータセットの内訳を表 1 に示す. 英文中のイディオム表現をモデルに認識させるため, 英文の各単語に $\mathrm{B}, \mathrm{I}, \mathrm{O}$, もしくは(BIEO 方式の場合)Eのタグを割り当て,train データを用いてモデルに文中のイディオム表現のタグ及びスパンを学 表 2 イディオム検出の各スコア 図1タグを割り当てた例文 習させた. 具体的には,イディオム表現の始めの単語には Bを,それ以降のイディオム表現を構成する単語には Iを,イディオム表現の終わりの単語には $\mathrm{E}$ を,それ以外の単語には $\mathrm{O}$ を割り当てた. 英文にタグを割り当てた例を図 1 に示す. なお,学習モデルは BERT モデル [7] の一種である Bert-base-multilingual-cased を使用した。学習時の設定は BIO/BIEO タグともに max_seq_length $=128$ とした. ## 4.2 イディオム表現の翻訳 イディオム表現の翻訳に用いるデータセットの構築には, OpenSubtitle2016コーパス [8]を活用した. OpenSubtitle2016 は映画や TV 番組の字幕を収集したコーパスであり, 英日データセットでは約 2,083,600 の対訳文が収録されている。このコーパスを本研究に用いた理由は,イディオム表現は基本的にカジュアルな会話や文章で用いられるものであり,字幕や小説に特化したコーパスであれば,イディオム表現が文中に出現する頻度が高いと判断したためである. このコーパスからイディオム表現を含む英文を抽出するため, Wiktionary のイディオムカテゴリに掲載されたイディオム表現のうち,例文が付属した 5519 種類のイディオム表現を抽出し, それらと動詞の態を適宜変更したものを併せてイディオム辞書とした(例えば break the ice というイディオムがあれば, broke the ice, breaking the ice, 及び broken the ice をリストに追加した).この辞書を用いて抽出を行った結果,イディオム表現の候補を含む英文が 306,720 文得られた.これを 8:1:1 の割合で分け, 245,376 文を train データに,30,672 文を $\operatorname{dev}$ 及び test データに割り当てた。 これらのデータセットを基に,beam-searchを用いた Fairseq, sampling を用いた Fairseq, Huggingface を活用して日英データセットで fine-tuning を行った T5-Base モデルの 3 つで学習を行い, test データセットで日英翻訳を実施した。その上で,各翻訳結果に対して BLEU, BERTScore, 提案手法の 3 つのスコアを計測し。異なる翻訳モデルに対して提案手法による評価スコアがどのような傾向を示すのかを確認した。なお, Fairseq と T5-Base の学習時の設定は双方ともに学習率 $7 \mathrm{e}-4$, epoch 数 30 , 最大トークン数 6000 とし,翻訳時の設定は beam-width $=5$ とした. ## 5 結果 ## 5.1 イディオム検出器の評価 検出モデルの評価は,BIO タグ方式と BIEO タグ方式それぞれに対し,Tag-base と Span-base の両方で行った. イディオム表現の検出モデルによる予測結果の各スコアを表 2 に示す. 表 2 の Tag-base で,Pre. はモデルが予測した B, I,Eタグのうち実際に正解である割合, Rec. は test データセット内の $\mathrm{B}, \mathrm{I}, \mathrm{E}$ タグのうちモデルが正しく予測できた割合を示す. Span-baseでは,Pre. はモデルが予測したスパンのうち正解と完全一致する割合,Rec. は test データセット内のスパンのうちモデルが予測したスパンと完全一致する割合を示す. 表 2 を見ると,BIO タグ方式のスコアが $\mathrm{BIEO}$ タグ方式のスコアを全体的に上回っており,正解率に関しては双方ともに 96\%以上を記録していることが分かる。一方で,Span-base における再現率は最高でも $64 \%$ に留まっており, test データセットのうち 6 割ほどのイディオム表現のスパンしか検出できなかったことが窥える。 ## 5.2 翻訳結果の評価 beam-search もしくは sampling を用いた Fairseq,並びに T5-Base モデルに対する BLEU,BERTScore,提案手法のスコアを表 3 に示す. BIO と BIEO の項は,翻訳モデルの出力訳に対して BIO もしくは BIEO 夕 表 3 イディオム翻訳の評価結果 図 2 タグ予測の例 グで学習したイディオム検出器でイディオム表現の抽出を実行し,抽出されたイディオム表現をもとに提案手法での評価を行った結果を表す。 表 3 の提案手法の項目を見ると,BIO 及び BIEO ともに全ての翻訳モデルの適合率が低く,イディオム表現が含まれる英文を翻訳モデルがさほど出力できなかったことが窺える.T5-Base に関しては, BLEU と提案手法の適合率の双方で低い結果が出ている。一方で翻訳モデルごとの評価スコアを見ると, BLEU, BERTScore ともに beam-search を利用した Fairseq が最大であるのに対し,提案手法でのスコア算出法では,sampling を利用した Fairseq が最も高いスコアを出している。 ## 6 分析 ## 6.1 イディオム表現の検出 作成したイディオム検出器の性能を測る実験において, 検出器の予測結果を見ると, 図 2 のように, イディオム表現の途中に目的語などが入る場合にはタグを正しく推測できないケースが多く見られた。 このような長大かつ語彙的変化を受けているイディオム表現を正確に検出させるためには,目的語の異なるイディオム表現のデータを充実させ, 検出器の学習の段階でイディオム表現のパターンを認識させる必要があると思われる。 また,実際にはイディオム表現でない箇所を検出器が誤検出したケースも多々見られた。一方で,実際にはイディオム表現であるにも拘らず,データセットの構築段階でアノテーションされていなかったものを検出できていた場合も少数ながらあった。 図 3 翻訳モデルの出力訳の例 ## 6.2 イディオム表現の翻訳 イディオム表現の翻訳に関する実験において,各翻訳モデルの翻訳結果の一例を図 3 に示す.ここで,原言語側の日本語文は「あなたは短気を起こすべきじゃなかった」,目的言語側の英文は「You shouldn't have lost your temper」であり,含まれるイディオム表現は lost your temper である. 表 3 に示されている通り,sampling を用いた Fairseq は参照訳とほぼ同様のイディオム表現を出力できている. ## 7 結論と今後の課題 本研究では,イディオム表現の機械翻訳という分野を対象に,全体の出力訳のうち,参照訳と同様のイディオム表現を含む割合をスコアとする評価指標を提案した。実験の結果,BLEU や BERTScore でのスコアが比較的高い翻訳モデルでも,イディオム表現を含む文章を出力するのは困難であることが判明した. 今後の課題として,イディオム表現の検出に関しては,語彙的変化を受けるイディオム表現や,途中に長い目的語を取るイディオム表現を正確に検出する方法を探る必要がある. また,提案手法の評価指標についても,他の翻訳モデルに対して同様の実験を行い,イディオム表現に対する出力訳の傾向や,提案手法と既存の評価指標との相関関係を確認する必要がある,加えて,本研究では参照訳と出力訳に含まれるイディオム表現は一致しているという仮定を置いたが,将来的には BERT のベクトル表現を活用し, 双方の距離の近さを見る必要もある. ## 謝辞 本研究は JSPS 科研費 JP21H05054 の助成を受けた ものである. ## 参考文献 [1] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. 2017. https: //arxiv.org/abs/1706. 03762. [2] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In Annual Meeting of the Association for Computational Linguistics, 2002. [3] Yutong Shao, Rico Sennrich, Bonnie Webber, and Federico Fancellu. Evaluating machine translation performance on Chinese idioms with a blacklist method. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC 2018), 2018. [4] Fadaee Marzieh, Bisazza Arianna, and Monz Christof. Examining the tip of the iceberg: A data set for idiom translation. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC 2018), 2018. [5] Andrea Zaninello and Alexandra Birch. Multiword expression aware neural machine translation. In Proceedings of the Twelfth Language Resources and Evaluation Conference, 2020. [6] Christos Baziotis, Prashant Mathur, and Eva Hasler. Automatic evaluation and analysis of idioms in neural machine translation. 2022. https://arxiv.org/abs/2210.04545. [7] Devlin Jacob, Chang Ming-Wei, Kenton Lee, and Toutanova Kristina. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), 2019. [8] Pierre Lison and Jörg Tiedemann. OpenSubtitles2016: Extracting large parallel corpora from movie and TV subtitles. In Proceedings of the Tenth International Conference on Language Resources and Evaluation (LREC'16), 2016.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A1-4.pdf
# 双方向翻訳モデルの相互学習による 対訳語彙の教師なし獲得過程の調査 谷川玩磨秋葉友良塚田元 豊橋技術科学大学 \{tanigawa.takuma.fu, akiba.tomoyoshi.tk, tsukada.hajime.hl\}@tut.jp ## 概要 本稿では,データ拡張手法である Iterative Backtranslation(IBT)を用いたドメイン適応による単言語資源からの知識獲得について調査を行った. 我々の先行研究では,2 言語の単言語コーパスに分かれて出現する互いに翻訳関係にある語のぺア (対訳語彙) であっても,IBTを繰り返すことで次第に対訳として翻訳できるようになることを明らかにした。今回の実験では,それらの対訳語彙について,詳しい獲得の過程や条件について掘り下げを行った. その結果,対訳語彙の獲得には,単言語データでの対訳語彙の出現回数が関係していることが明らかになるとともに,対訳語彙が出現する文中の文脈が関係していることが示唆された. ## 1 はじめに ニューラル機械翻訳(NMT)の翻訳精度には学習データに使用する対訳コーパスの量と質が大きく関わっている. しかし, 特定のドメインでは十分な量の対訳コーパスを用意することが困難であるという問題がある。 そこで,比較的収集が容易な単言語コーパスを用いる手法が提案されている。そのような手法の一つとしてデータ拡張手法である Iterative Back-translation(IBT)[1][2][3][4] を用いたドメイン適応が知られている. IBT は,翻訳対象言語対の 2 つの単言語コーパスを相互に逆翻訳とモデルの更新を繰り返し行うことで,疑似対訳データと翻訳モデルの質を向上させることができる. 我々の先行研究 [5] では IBT による単言語コーパスからの知識獲得の過程を,2 言語の単言語コーパスのみに出現する互いに翻訳関係にある語のペア (対訳語彙) の獲得を調べることによって調査した. その結果,対訳語彙は IBT の反復を繰り返すごとに獲得していき,最終的には獲得可能な 6 割以上の対訳語彙を獲得できていることがわかった.しかし,対訳語彙の詳しい獲得過程や獲得条件などについては明らかにはできていなかった。そのため本稿では,対訳語彙の獲得についてさらなる掘り下げを行った. 具体的には,単言語データでの対訳語彙の出現頻度が対訳語彙獲得率に与える影響, 対訳語彙ごとの IBT の逆翻訳結果上での獲得率,獲得できなかった対訳語彙について調査を行った。その結果,対訳語彙の獲得過程については,テストデータで獲得できていた対訳語彙の約 7 割が,IBT の 1 回目の逆翻訳時点でどちらかの翻訳方向で少なくとも 1 箇所で翻訳結果に出力できている事がわかった。また,単言語コーパスのどこかで 1 度でも翻訳に成功すれば,その後の反復で次第に他の箇所でも翻訳が成功するようになり,対訳語彙獲得につながることが観察された。 さらに,獲得の条件については,単言語データ上での出現回数が重要であることがわかった。加えて,対訳語彙の獲得には語の出現する文脈が大きく関係していることも示唆された. ## 2 Iterative Back-translation(IBT) Iterative Back-translation(IBT) によるドメイン適応手法の手順を説明する.ここで,Xと $\mathrm{Y}$ はそれぞれの言語を示し,言語 $\mathrm{X}$ から Y の翻訳を X-Y,Y から $\mathrm{X} へ$ の翻訳を $\mathrm{X}-\mathrm{Y}$ と記す。 1. ドメイン外の対訳コーパス $\mathrm{C}_{\mathrm{X}}^{\text {out }}$ と $\mathrm{C}_{\mathrm{Y}}^{\text {out }}$ を用い $\tau$, Model $_{\mathrm{X}-\mathrm{Y}} 0$ と Model $_{\mathrm{Y}-\mathrm{X}} 0$ を学習する. 2. i 初期化して以下を反復する。 2.1 ドメイン内単言語コーパス $\mathrm{C}_{\mathrm{Y}}^{\mathrm{in}}$ Model $_{\mathrm{Y}-\mathrm{X}} \mathrm{C}$ により翻訳し,疑似対訳コー パス ( $\mathrm{C}_{\mathrm{X}}^{\text {in }}, \mathrm{C}_{\mathrm{Y}}^{\text {in }}$ ) を作成する. 疑似対訳コー パスと $\left(\mathrm{C}_{\mathrm{X}}^{\text {out }}, \mathrm{C}_{\mathrm{Y}}^{\text {out }}\right.$ )を結合した学習データを用いて, Model ${ }_{X-Y}$ から Fine-tuning を行い Model $_{\mathrm{X}-\mathrm{Y}}(\mathrm{i}+1)$ を学習する. 2.2 ドメイン内単言語コーパス $\mathrm{C}_{\mathrm{X}}^{\mathrm{in}}$ 図 1 Iterative Back-translation の手順 Model $_{\mathrm{X}-\mathrm{Y}} \mathrm{i}$ により翻訳し,疑似対訳コー パス ( $\left.\mathrm{C}_{\mathrm{Y}}^{\text {in }}, \mathrm{C}_{\mathrm{X}}^{\mathrm{in}}\right)$ を作成する. 疑似対訳コー を用いて, Model $\mathrm{Y}_{\mathrm{X} \text { X }}$ から Fine-tuning を行い $\operatorname{Model}_{\mathrm{Y}-\mathrm{X}}(\mathrm{i}+1)$ を学習する. ## $2.3 \mathrm{i \leftarrow \mathrm{i}+1$} IBT により対訳語彙が獲得される原理は,次のように説明できる. 言語 $X$ の語 $x$ と $Y$ の語 $y$ が対訳語彙 $(x, y)$ であったとする. IBT の初期の翻訳モデル Model $_{X-Y} 0$ では $X$ の単言語コーパスに出現する $x$ を $y$ に翻訳する事はできないはずである。しかし,逆翻訳によって生成される擬似対訳には,X言語側には単言語コーパスの $x$ を含む文そのままが, $Y$ 言語側には $(y$ は出現しないとしても)“ $x$ のコンテキストの翻訳”( $\approx$ “ $y$ のコンテキスト”)を含む文が得られる. この擬似対訳を使って Model $_{Y-X} 1$ を学習すると,$y$ および“ $y$ のコンテキスト”は, $x$ および “ $x$ のコンテキスト”に翻訳される可能性が出てくる. IBT の反復を繰り返すにつれて,次第に $(x, y)$ を含む擬似対訳が生成される確率も上昇し, 最終的に対訳語彙が獲得されると考えられる。 ## 3 調査手法 ドメイン内知識の獲得の過程を確認するために,本実験では対訳語彙の獲得を調査した。言語 $\mathrm{X}$ と言語 $\mathrm{Y}$ の対訳語彙獲得を調査するために行った手順は以下のとおりである.表 1 種類ごとの対訳語彙の例 1. ドメイン内の学習データに存在する単語とドメイン外の学習データに存在する単語について, それぞれのドメインの学習データから単語を列挙することで調べる。それによりテストデータ中のドメイン内にのみ存在する単語を特定し, そのようにして特定した単語の集合を $\mathrm{D}_{\mathrm{X}}$ と $\mathrm{D}_{\mathrm{Y}}$ とする. 2. 単語アライメントツール (Moses[6] 付属の GIZA++)を用いて言語 $\mathrm{X}$ と言語 $\mathrm{Y}$ のテストデー タ間の単語アライメントを作成する。そのアライメントの単語対応がともに $\mathrm{D}_{\mathrm{X}} , \mathrm{D}_{\mathrm{Y}}$ に含まれているもの $\mathrm{T}=\left.\{\left(\mathrm{w}_{\mathrm{X}}, \mathrm{w}_{\mathrm{Y}}\right) \mid \mathrm{w}_{\mathrm{X}} \in \mathrm{D}_{\mathrm{X}}, \mathrm{w}_{\mathrm{Y}} \in \mathrm{D}_{\mathrm{Y}}\right.\}$ を対訳語彙とする。 3. IBT の翻訳モデルによってテストデータの翻訳を行い, $\mathrm{T}$ の対訳語彙の入力側の単語 $\mathrm{w}_{\mathrm{X}} \in \mathrm{D}_{\mathrm{X}}$ それぞれに対して,翻訳結果に対応した単語 $\mathrm{w}_{\mathrm{Y}} \in \mathrm{D}_{\mathrm{Y}}$ が出力されていれば,その対訳語彙が獲得できているとする。 4. モデルごとの対訳語彙の獲得を比較するために,全テストデータの対訳語彙の入力延べ数に対する対訳語彙を獲得できた割合を対訳語彙獲得率と定義する。 ## 4 実験 先行研究の BPE での実験結果をもとにさらなる対訳語彙の調査を行った. まず,対訳語彙について幾つかの種類に区別を行い,それぞれの種類ごとの対訳語彙の獲得について調査を行った. 区別した種類として,対訳語彙のペアがそれぞれ同じ単語である「自明」,対訳語彙のペアが自明な語以外で翻字の関係にある「カタカナ」, 日本語側の対訳語彙がすべて漢字である「漢字」,以上のどれにも当てはまらない「その他」の 4 種類に区別した. 種類ごとの対訳語彙の例を表 1 に示す. 以降の分析は,「その他」を除く前者 3 種類について行った。 表 2 モデルごとの逆翻訳できた対訳語彙の割合の一例 図 2 学習データでの出現回数ごとの対訳語彙獲得率 表 3 誤った翻訳の一例 ## 4.1 学習データ中での出現回数 対訳語彙が単言語データ中に出現する回数が対訳語彙獲得率にどのように影響するかを調べるために, 対訳語彙の出現回数ごとの対訳語彙獲得率調べた. 英日方向でのそれぞれの種類と出現回数ごとの対訳語彙の獲得率についての結果を図 2 に示す. 出現回数が多い場合「自明」が最も高く,「カタカナ」 と「漢字」の対訳語彙が同じくらいの結果となった.また「「カタカナ」と「自明」は学習データ中での出現回数が少ない対訳語彙でも獲得されていた. これはこの 2 種類は対訳語彙のペアが翻字の関係であることが関係していて,自明な語の場合は特にサブワード化の影響を大きく受けているからだと考えられる。 図 3 Modeliごとの初めて翻訳結果に出力できた対訳語彙の割合 ## 4.2 対訳語彙の獲得過程 対訳語彙の獲得の過程について詳しく調査を行うために,単言語コーパスの逆翻訳結果を観察し, IBT の Model i がどの程度対訳語彙のソース側をターゲット側に翻訳できているかの割合 (翻訳率)を調査した. 調査の対象とする対訳語彙については, サブワードの影響を受けづらい「漢字」について,人手でチェックを行ったもののみを対象とした. 獲得過程の結果の一例を表 2 に示す. 対訳語彙の「増幅器」と「amplifier」の例から見て取れるように,翻訳率は IBT を繰り返すごとに上昇していた。そのため,対訳語彙はある時点で急に獲得されるというわけではなく, 反復を繰り返すことによって徐々に獲得されていくということが分かる。一方,対訳語彙の「同軸」と「coaxial」の場合は,Mode18 までほとんど割合が上昇することはなかった. 実際,この対訳語彙はテストデータ上でも獲得に失敗している。 英日,日英の両方向でのテストデータで獲得することができていた対訳語彙について,それが始めて逆翻訳結果に出現した Model i 調べた. 結果を図 3 に示す.この結果から, 約 7 割の対訳語彙は Model 1 から疑似対訳コーパス上に出現しているなど,多くの対訳語彙は早い段階から獲得が進んでい 図 4 英独実験での対訳語彙獲得率 表 4 英独実験で獲得できた対訳語彙の例 ることが分かる. ## 4.3 獲得できなかった対訳語彙の調査 獲得できていない対訳語彙について注目して調査を行った. 具体的には, 獲得できなかった対訳語彙が本来翻訳される単語の代わりに何を翻訳しているのかについて調べた。結果の一例を表 3 に示す. ほとんどの獲得できなかった対訳語彙において,本来翻訳されるべき正しい単語の代わりに違う単語が学習されていた。表の対訳語彙の「coaxial」は 「同軸」と翻訳される代わりに「光ファイバ」と翻訳されることが多かった. これは「光ファイバ」と 「同軸」が出現するような文の文脈が近く,なおかつ「光ファイバ」のほうが学習データ中での出現頻度が高いため, 間違えて学習されてしまったと考えられる。これらの調査結果から, 語の出現する文中の文脈が対訳語彙の獲得に大きく影響していることが示唆された。 一方,対訳語彙の「血友病」の場合は,「血友」をサブワード分割した「血」と「友」の訳語である 「blood」と「friend」に翻訳されていた. 本来の対訳「hemophilia」とも他の語とも文脈に基づく結び付けに失敗したと考えられる。 図 5 英独実験での BLEU ## 4.4 英独翻訳での対訳語彙獲得の調査 異なる言語間での対訳語彙の獲得を確認するために,英語とドイツ語間での IBT によるドメイン適応実験を行った. データセットには WMT14 データセットを使用して,News Commentaryコーパスから Europarl コーパスへのドメイン適応実験を行った. Europarl コーパスは単言語コーパスとして使用するために,全文を半分に分割して英語には前半部分を使用,ドイツ語には後半部分を使用した. テストデータには WMT06,07,08 の Europarl の test デー タを合わせた対訳 6000 文を使用した。実験条件については先行研究と同様して行った. 対訳語彙獲得率の結果を図 4,BLEU を図 5 に示す. 獲得された対訳語彙を表 4 に示す. 実験結果より,日本語英語間での実験と同様に対訳語彙を獲得できるということが確認できた. ## 5 結論 本稿では,IBT による対訳語彙の獲得の過程と条件について詳しく調査を行った. IBT の対訳語彙の獲得の過程については,IBT の反復を重ねるごとに徐々に逆翻訳結果に対訳語彙が出現するようになり,その疑似対訳コーパスを学習することで獲得していることが分かった。獲得条件については,対訳語彙が単言語コーパス上に出現する回数が,特に漢字の対訳語彙の場合は多いほど獲得には有利であることが示された.また,対訳語彙の獲得には文脈が大きく関係しているということが示唆された。 ## 謝辞 本研究は JSPS 科研費 $18 \mathrm{H} 01062$ の助成を受けた. ## 参考文献 [1] Vu Cong Duy Hoang, Philipp Koehn, Gholamreza Haffari, and Trevor Cohn. Iterative back-translation for neural machine translation. In Proceedings of the 2nd workshop on neural machine translation and generation, pp. 1824, 2018. [2] Zhirui Zhang, Shujie Liu, Mu Li, Ming Zhou, and Enhong Chen. Joint training for neural machine translation models with monolingual data. In Proceedings of the AAAI Conference on Artificial Intelligence, pp. 555-562, 2018. [3] 森田知熙, 秋葉友良, 塚田元. 双方向の逆翻訳を利用したニューラル機械翻訳の教師なし適応の検討. 情報処理学会研究報告 2018-NL-238 (第 5 回自然言語処理シンポジウム), pp. 1-5, 2018. [4] 森田知熙, 秋葉友良, 塚田元. ニューラル機械翻訳の反復的逆翻訳に基づくデータ拡張のための混成サンプリング手法. 電子情報通信学会論文誌, Vol. J106-D, No. 04, Apr. 2023. (to appear). [5] 谷川玩磨, 秋葉友良, 塚田元. Iterative Back-translation は対訳語彙を獲得できるか? 言語処理学会, 第 28 回年次大会, pp. 354-359, 2022. [6] Philipp Koehn, Hieu Hoang, Alexandra Birch, Chris Callison-Burch, Marcello Federico, Nicola Bertoldi, Brooke Cowan, Wade Shen, Christine Moran, Richard Zens, Chris Dyer, Ondřej Bojar, Alexandra Constantin, and Evan Herbst. Moses: Open source toolkit for statistical machine translation. In Proceedings of the 45th Annual Meeting of the Association for Computational Linguistics Companion Volume Proceedings of the Demo and Poster Sessions, pp. 177-180, 2007.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A1-5.pdf
# ニューラル分類器の予測の解釈に基づく 翻訳が難しい表現の検出 坂口 典三 村脇 有吾 Chenhui Chu 黒橋 禎夫 京都大学大学院情報学研究科 \{n-sakaguchi, murawaki, chu, kuro\}@nlp.ist.i.kyoto-u.ac.jp ## 概要 修辞技法に代表されるような文化圏に特有な表現は近年のニューラル翻訳モデルでも正しく翻訳するのが難しく, 原言語側で検出し,前編集することが翻訳精度向上のための有望な方法であると考えられる. そこで本研究では,日本語において翻訳が難しい表現を翻訳前に検出することを試みる。具体的には,翻訳が難しい表現は母語話者が書いたテキストに特徴的であるという仮説を立て,日本語テキストが機械翻訳されたものかそうでないかを予測するニューラル分類器を訓練し, 分類器の予測に寄与した表現を翻訳が難しい表現として検出する. 実験により,仮説の妥当性を裏付けるとともに,提案手法が翻訳が難しい表現を検出できることを確認した。 ## 1 はじめに 異なる言語間には語彙や文法だけでなく,その言語が用いられている文化圏に起因する文化差が表出することがある.例えば日本では「このお店は美味しい」という表現は一般的に用いられているが, Honna [1] によると英語圏では一般的に "restaurant" を “delicious”で形容することはない. この差異はメトニミーにおける指示対象の対応関係が日本と英語圏で異なっていることに起因しており,さらにはそれぞれの文化によって生み出された差異だと言える。 近年ニューラル言語モデルの登場により,機械翻訳は急速な進化を遂げ,従来訳すのが難しかった慣用句などは正しく訳される場合が増えている..しかし, 現在最も一般的に用いられている翻訳サービスである DeepL ${ }^{11}$ でも「このお店は美味しい.」を “This restaurant is delicious”と訳してしまう。この例が示すように,依然として機械翻訳では正しく翻訳  \\ 表 1 前編集による訳文の変化. 上段が原文で下段は下線部が前編集されている. することが難しい文化差が存在する。コミュニケー ションにおける機械翻訳の実利用を考えたとき,このような文化差を乗り越えるためには,原言語側もしくは目的言語側で適応を行うという方向性が有望であると考えられる.例えば,翻訳が難しい原言語側の表現が翻訳前に検出できれば,その部分を原言語側で翻訳しやすい表現に変えることで翻訳精度の向上が期待できる (表 1 ). 本研究ではニューラル分類器の予測の解釈に基づいて,翻訳が難しい表現を検出する手法を提案する. 提案手法の概略を図 1 に示す. 日英翻訳を想定したとき, 反対方向の英日翻訳器を用いることで,機械翻訳によって生成された日本語テキストを準備する。そして,日本語母語話者が書いた日本語テキスト (以下,日本語の原文)をこの訳文 (日本語)テキストと対照する.キーとなる仮説は,翻訳が難しい表現は日本語の原文に特徵的であるというものである. そこで,まずこの 2 種類のテキストを識別するニューラル分類器を訓練し, 次に, 分類器の予測に対する入力テキスト中の特定の部分の寄与を明らかにする手法(以下,説明手法)を用いて日本語の原文という分類器の予測に最も寄与した部分を翻訳が難しい表現として検出する. 上記の仮説を検証するために,分類器のスコアと日英翻訳の精度の関係を調べたところ,分類器がより機械翻訳らしくないと予測した文ほど実際に翻訳精度が低かった。また,提案手法によって検出された表現を人手で分析したところ,翻訳が難しい表現を見つけられていることを確認した。 図 1 提案手法の概略 ## 2 提案手法 本節では図 1 の下段において説明手法を用いる際に行う工夫を本研究の提案手法として紹介する. ## 2.1 Continuously Relaxed Contextual Decomposition 提案手法は,翻訳が難しい表現の検出のためにニューラル分類器の説明手法を用いる. 分類器の説明手法は,分類器の予測に対して入力データ中のどの部分が強く貢献したかを明らかにする. 提案手法のベースとなる contextual decomposition (CD) [2] は,分類器のスコアを入力テキスト中の任意のフレーズによる寄与とその他の部分による寄与に分解する. Murdoch ら [2] は CD LSTM [3] 分類器に適用したが,その後 Jin ら [4] がこの手法を BERT [5] に拡張している. 本研究では BERT を用いる. $\mathrm{CD}$ は, 分類器 $y=f(x)$ が $y=g_{L}\left(g_{L-1}\left(\ldots g_{1}(x)\right)\right)$ のように操作の再帰的適用で表せることに着目し,各操作 $g(x)$ に対して, $g^{\mathrm{CD}}(x)=(\beta(x), \gamma(x))$ (ただし $\beta(x)+\gamma(x)=g(x))$ となるような近似的な分解を定義する. ここで, $\beta$ は注目する入力内のフレーズの寄与分, $\gamma$ を残りの寄与分である. 入力埋め込み層に対して,トークン $t_{i}$ が注目するフレーズに含まれるなら $\left(\beta\left(e_{i}\right)=e_{i}, \gamma\left(e_{i}\right)=0\right)$, 含まれないなら $\left(\beta\left(e_{i}\right)=0, \gamma\left(e_{i}\right)=e_{i}\right)$ とし, 分解操作を再帰的に適用すると,出力の予測スコア $y$ の分解が得られる. $\mathrm{CD}$ を利用するには入力テキスト中で注目するフレーズを決める必要があるが,トークン列長が $n$ の入力テキスト $T=t_{1}, \cdots, t_{n}$ の全てのトークンの組合 図 $2 \mathrm{CRCD}$ の概略 せ (ただし不連続性を許容) を考慮するには $2^{n}$ 通りの CD の計算が必要となる.これは一定以上の長さの文では計算量の観点から現実的ではない. そこで $T$ の全てのトークンについて,注目するか否かの離散値ではなく,0から 1 の連続值 (region)に連続緩和する手法 Continuously Relaxed Contextual Decomposition (CRCD) を提案する。 CRCD の概略を図 2 に示す. CRCD は,分解操作が適用されたネットワーク $g_{L}^{\mathrm{CD}}\left(g_{L-1}^{\mathrm{CD}}\left(\ldots g_{1}^{\mathrm{CD}}(x)\right)\right)$ も微分可能であることに着目し,予測スコアの $\beta$ を最大化するような region を逆伝播を使った繰り返し計算により探索する. 最後に 0 と 1 に離散化することで, region が 1 となっているトークン列を入力テキスト中で最もその分類らしい表現として検出する. ## 2.2 ニューラルモデル+BoW 分類器は単純に分類損失最小化を目指すだけであり,日本語の原文と訳文 (日本語) のドメインの違い 図 $3+\mathrm{BoW}$ の概略 といった本質的ではない手がかりを使ってしまう危険性がある.この問題を緩和するために,単語レべルの手がかりに頼る非力な bag-of-words (BoW) 分類器を補助的に用いる手法 (+BoW) を提案する. 図 3 に手法の概略を示す。まず bag-of-words を用いた分類器を単体で訓練する。次に BERT を訓練するが,ここで先に訓練していた BoW 分類器が出力するロジットを利用する。訓練用のテキストを入力した際の BERT が出力するロジットを $l_{\mathrm{BERT}}$, BoW 分類器が出力するロジット $l_{\mathrm{BoW}}$ とする. この時 BERT の学習に用いる損失関数 loss は以下のように計算する。 $ \text { loss }=\mathrm{H}\left(\operatorname{expit}\left(\left(l_{\mathrm{BERT}}+l_{\mathrm{BoW}}\right) / 2\right), R\right) $ ここで H は交差エントロピー誤差,expit はロジス された損失関数を用いて BERT のパラメータのみを更新する. BoW 分類器が単語レベルの手がかりに基づくロジット $l_{\mathrm{BoW}}$ を提供するため,単語レベルの手がかりだけで分類できるテキストに対しては, BERT のパラメータはあまり更新されない。単語レベルの手がかりだけでは分類できなようなテキストが入力された時,BERT のパラメータは大きく更新される。こうして,BERT が単語レベルよりも深い手がかりに注力するように誘導する。 ## 3 実験 本節ではデータセットを構築し,そのデータセットを用いて分類器を訓練する。さらに検出方法の前提となる仮説を検証した上で,実際に翻訳が難しい表現が検出できるか確認する。 ## 3.1 データセット構築 データとして,日本語の原文,英語の原文,英語から機械翻訳された訳文 (日本語) が必要となる。この訳文生成のためには英日翻訳モデルも訓練しなければならない. まず Wikipedia の本文から日英テキストを抽出した. ただし,複数の言語版が存在する一般名詞を扱うぺージのみを使用した。これはテキスト中に登場する単語に日本語版のページにしか登場しないような固有名詞が存在すると,分類器がそれに強く影響される恐れがあるからである。一般名詞の抽出には森羅プロジェクト ${ }^{2}$ の成果を利用した. 森羅プロジェクトは Wikipedia 日本語版のタイトルに拡張固有表現を付与しており,階層ラベル 0 が一般名詞を表している。 さらに各ページに記載されている他言語版へのリンク数が 35 以上となっているぺージを抽出した。こうして抽出した英語版ページと日本語版ページの本文を文単位に分割し,1,073,431 万文の英文と 648,507 万文の日本語文が得られた. 次に英日翻訳モデルを訓練した.Morishita ら [6] が公開している事前学習モデルを WikiMatrix [7] の日英対訳データを用いて追加学習した。学習用デー タとして 479,315 文,テスト用データとして 1,000 文の対訳データを用いた。訓練時のハイパーパラメー タは Morishita らの論文に基づく. 訓練したモデルを SacreBLEU [8] で精度を評価すると 21.82 となった. 同じテストデータで DeepL の英日翻訳精度を評価すると SacreBLEU は 16.75 であり,訓練したモデルの精度が上回った。追加学習により Wikipedia の文体にモデルが特化したためであると考えられる.このモデルを用いて英文を翻訳することで,原文とあわせて $1,721,938$ 文の日本語データが得られた.このデータ内の各文に対しては,機械翻訳で生成された文か日本語の原文かを示すラベルが付されている。 また,後述の分析のために日英翻訳モデルを英日翻訳モデルと同じ設定で訓練した。上述のテストデータで評価したところ,SacreBLEU は 27.76 となった. ## 3.2 分類器の訓練 3.1 節で構築した日本語データを用いて日本語の原文か訳文か予測する分類器を訓練した。1,000 文  をテストデータとして抽出し,残りのデータを訓練用データとして用いた. 分類器のモデルとして BERTと BoWを用いた. BERT としては NICT が公開している事前学習モデル ${ }^{3}$ を使用した。 また, BoW モデルは線形層 2 層から構成されたニューラルネットを使用し, 入力文中の単語は BERT の埋め込み層を複製してべクトル化した。単体での BERTとは別に, BERTを+BoW を用いて訓練した。 各モデルのテストデータにおける分類精度を表 2 に示す. BoW 以外のモデルはほとんど同じ精度となった. BERT+BoW 設定で訓練した BERTを単体で用いても精度が下がらなかったことから,データセット内の文には単語レべルを超える手がかりが十分に存在していると推測できる. ## 3.3 分類結果と翻訳精度の相関 翻訳が難しい表現は日本語の原文に特異的に出現し,英日翻訳によって生成された訳文には含まれていないという仮説を検証した.もし仮説が妥当であれば,分類器が判断した日本語の原文らしさと日英翻訳精度には負の相関があることが期待される。 3.1 節で機械翻訳モデルのテストに用いた WikiMatrix の対訳データから日本語文 1,000 文を選んで単体で訓練した BERT に入力し,分類スコアを計算した. ここでの分類スコアとは, 分類器が出力する 2 つのロジットの差をとったものであり,分類スコアが大きいほど日本語の原文である可能性が高いことを示す. さらに 3.1 節で訓練した機械翻訳モデルで日英翻訳を行い,文単位で翻訳精度を計算した. 文単位の翻訳精度の評価指標としては SentBLEU [9] と BLEURT [10]を用いた. 翻訳精度と分類スコアの散布図を表 A. 1 に示す.翻訳精度と分類スコアのピアソンの積率相関係数を計算すると, SentBLEUで -0.24 , BLEURT で -0.45 となった. SentBLEU は文ごとの n-gram を計算するため,意味的に正しい翻訳文でも不当に低い値を計算することがあり,散布図に示すように多くの文が 0 に近い値をとった. BLEURT は従来の評価指標よりも人間の評価に近いとされており,こちらではより強い負の相関が見られた. この結果は仮説を裏付け, 分類器にとっての日本語の原文らしさが日英翻訳を困難にすることを示唆する。 表 2 分類器のモデルの精度. BERT は BERT 単体で訓練した精度,BERT(+BoW) は+BoW を用いて訓練した BERT モデルを単体で評価した精度,BERT+BoW は+BoW を用いて訓練した BERT のロジットとと BoW のロジットを+BoW と同じ手法で組み合わせて計算した精度を示す. ## 3.4 表現の検出結果の分析 3.3 節の結果から,学習済みの分類器には翻訳が難しい表現に関する情報が含まれていることがわかった. そこで説明手法を用いて文中のどの部分が翻訳が難しい表現なのか検出することを試みた。 まず+BoW の有効性が示された例を表 A. 1 に示す. BERTのみの結果では「成敗」や「禁令」のような日本語の原文というドメインに特有の語彙が検出されているが,このような表現は機械翻訳で生成されることが稀な単語であり,翻訳が難しい表現ではない. それに対して BERT+BoWではある程度それらの表現に注目しないようになっていることがわかる. 次に,検出された表現で実際に機械翻訳が適切でない翻訳を生成した例を表 A. 2 に示す.「いい年になった」や「端から見ると」などの表現が検出された.これらの表現の DeepLによる訳文を見ると, "reached a good age" $や$ "from the out side" という不自然な訳になっており,実際に翻訳が難しい表現であることが確認できる. ただし,検出されたフレーズが実際に不自然な翻訳をされているかを自動的に評価する方法が確立されておらず,検出結果の定量的評価が課題として残されている. ## 4 おわりに 本研究では機械では正しく翻訳することが難しい表現は日本語母語話者が書いた日本語テキストに特異的に出現し,機械翻訳によって生成されたテキストには含まれていないという仮説を検証した. さらに, 分類器の説明手法によっていくつかの翻訳が難しい表現を検出した. また, bag-of-words 分類器を補助的に用いることで,分類器に単語レべル以上の手がかりに着目させる手法を提案し,その有効性を確認した. 今後の課題としては,提案手法の定量的評価方法と前編集の方法の確立が挙げられる.  ## 謝辞 本研究は一部 JSPS 科研費 $21 K 12029$ の助成を受けた. ## 参考文献 [1] Nobuyuki Honna. That restaurant is delicious. [japan]. Asian Englishes, Vol. 13, No. 2, pp. 64-65, 2010. [2] W. James Murdoch, Peter J. Liu, and Bin Yu. Beyond word importance: Contextual decomposition to extract interactions from LSTMs. In Proceedings of 6th International Conference on Learning Representations, ICLR 2018, 2018. [3] Sepp Hochreiter and Jürgen Schmidhuber. Long shortterm memory. Neural Computation, Vol. 9, No. 8, pp. 1735-1780, 1997. [4] Xisen Jin, Zhongyu Wei, Junyi Du, Xiangyang Xue, and Xiang Ren. Towards hierarchical importance attribution: Explaining compositional semantics for neural sequence models. In International Conference on Learning Representations, 2020. [5] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [6] Makoto Morishita, Jun Suzuki, and Masaaki Nagata. JParaCrawl: A large scale web-based English-Japanese parallel corpus. In Proceedings of The 12th Language Resources and Evaluation Conference, pp. 36033609, Marseille, France, May 2020. European Language Resources Association. [7] Holger Schwenk, Vishrav Chaudhary, Shuo Sun, Hongyu Gong, and Francisco Guzmán. WikiMatrix: Mining $135 \mathrm{M}$ parallel sentences in 1620 language pairs from Wikipedia. In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics: Main Volume, pp. 1351-1361, Online, April 2021. Association for Computational Linguistics. [8] Matt Post. A call for clarity in reporting BLEU scores. In Proceedings of the Third Conference on Machine Translation: Research Papers, pp. 186-191, Brussels, Belgium, October 2018. Association for Computational Linguistics. [9] Ondřej Bojar, Yvette Graham, and Amir Kamran. Results of the WMT17 metrics shared task. In Proceedings of the Second Conference on Machine Translation, pp. 489-513, Copenhagen, Denmark, September 2017. Association for Computational Linguistics. [10] Thibault Sellam, Dipanjan Das, and Ankur Parikh. BLEURT: Learning robust metrics for text generation. In Proceedings of the 58th Annual Meeting of the Asso- ciation for Computational Linguistics, pp. 7881-7892, Online, July 2020. Association for Computational Linguistics. 図 A. 1 翻訳精度と分類スコアの散布図 \\ 表 A. 1 +BoW の有効性を示す例. 下線部は検出された箇所を示している. \\ 表 A. 2 翻訳が難しい表現が検出できた例。下線部は上段では検出された箇所を示しており下段では対応する訳を示している.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A10-1.pdf
# 日本語の大規模 Twitter データからみる 新型コロナワクチン接種に関する人々の関心の推移 武富有香 ${ }^{1}$ 須田永遠 ${ }^{1}$ 中山悠理 ${ }^{2}$ 宇野毅明 ${ }^{1}$ 橋本隆子 ${ }^{3}$ 豊田正史 ${ }^{4}$ 吉永直樹 ${ }^{4}$ 喜連川優 ${ }^{4,5}$ Luis E C Rocha ${ }^{6,7}$ 小林亮太 ${ }^{2,8}$ 国立情報学研究所 情報学プリンシプル研究系 ${ }^{1}$ 東京大学大学院 新領域創成科学研究科 ${ }^{2}$ 千葉商科大学 商経学部 ${ }^{3}$ 東京大学 生産技術研究所 ${ }^{4}$ 国立情報学研究所 ${ }^{5}$ ゲント大学 経済学部 ${ }^{6}$ ゲント大学 物理・宇宙物理学部 ${ }^{7}$ 東京大学 数理・情報教育研究センター 8 [email protected] [email protected]@edu.k.u-tokyo.ac.jp [email protected] [email protected] [email protected] [email protected] [email protected] [email protected] [email protected] ## 概要 日本での新型コロナワクチン接種は,安全性・有効性に対する不安や接種に関する政策への不満があったにもかかわらず,欧米諸国と比べて迅速に進んだ。短期間で高い接種率に達する過程における人々の考えや関心を知ることは,公衆衛生上の重要な問題である. 本研究では 2021 年 1 月から 10 月につぶやかれた 「ワクチン」という語を含む日本語の全ツイートを分析した.トピックモデルを用いてツイートを 15 のトピックに分類し,意味解釈を行うことにより 4 つの話題(個人的事柄, ニュース, 政治, 陰謀論とユ一モア)に整理した. そしてテキスト情報を考慮に入れた時系列分析を行った結果, 6 月の職域接種の開始を境に,政策,有効性,関連ニュースなどのワクチンに関する社会的トピックのツイートの割合が減り, 接種の予定や報告, 自身の副反応などの個人的事柄に関するツイートの割合が増えたことが明らかになった. ## 1 はじめに 日本における新型コロナワクチンの接種開始は,欧米諸国と比べると 2 ケ月以上も遅れた. しかしながら,国民の間にワクチンに対する多くの不安や不満があったにもかかわらず,日本におけるワクチン接種は世界の中でも速く進み, 医療従事者への接種開始からわずか 8 ケ月ほどでワクチン接種率は $72 \%$ (世界 229 力国中 14 位) に達した.この接種期間中に,人々のワクチンについての興味・関心はどのように変化したのだろうか. ワクチンについての人々の考え方を調べることは,公衆衛生における重要な課題の 1 つであり,これまでは主にアンケートによって調査されてきた。しかし,大規模なアンケートを繰り返し実施することには非常にコストがかかる。質問項目の設定によって結果が大きく変わりうることや,被験者が控えめに回答する傾向が多いことなどの問題点も指摘されている.一方, 人々の興味や関心を推しはかるために, ソーシャルメディアのデータを分析する研究も行われるようになってきた. ソーシャルメディア上の活動が現実の人々の興味や関心を反映することも先行研究によって示されている[1]. 本研究では, Twitterでつぶやかれた長期間にわたる日本語の大規模データを分析することで,ワクチン接種期間前後にわたる人々の興味や関心の変化を調査した. Twitter や Reddit などのソーシャルメディアを用いて新型コロナワクチン接種に関する人々の意見を調査する先行研究は存在するが,主に接種期間の初期のみを分析対象としているため, ワクチン接種後の人々の意見や関心の長期的な動向をみることはできていない[2][3]. ひとつの国におけるワクチン接種期間の全ツイートデータを網羅的に分析した研究としては,本研究が最初のものである. なお. 本予稿で発表する内容は論文[4]に基づくものである。解析や結果の詳細に興味を持った読者は当論文を参照されたい. ## 2 方法 ## 2. 1 データについて 本研究のデータセットは NTT データにより提供 された, 2021 年 1 月 1 日から 10 月 31 までに投稿された「ワクチン」を含む全ての日本語ツイートを扱った.この期間は日本におけるワクチン先行接種が開始される(2021 年 2 月 17 日)前の時期から, 東京オリンピック・パラリンピックの時期(2021 年 7 月から 9 月)を経て,日本国民のワクチン接種率が 70\%に達する(2021 年 10 月 25 日)までの期間を含んでいる. データについてはツイートのテキスト情報, 投稿時間, オリジナルのツイートかリツイートかの情報を併せて取得した。 ## 2.2 データ処理 まず, ツイートからテキスト情報を抽出し, 絵文字を除去した. 次に, 形態素解析エンジン MeCabを使用して品詞ごとに分割し,ストップワード(「これ」「それ」「する」など)を除去した. 最後に, 一人称代名詞(「僕」「おれ」など)などのほぼ同義の語を一つの語(「私」)に統合した. ## 2. 3 トピックモデル 次に,LDA (Latent Dirichlet Allocation) [5]モデルを用いてツイートのトピック (話題)の推定を行った.解析にあたっては, 出現頻度が極端に低い語, 寸なわち, その語の出現するツイート数が 1000 (全ツイ一トの $0.0004 \%$ に相当する)に満たない語, および 「ワクチン」と「接種」という出現頻度が極端に高い語は除去した. 加えて, botツイートを人手によって特定し, 除去した. 手順としては, LDA によって分類を行い, その結果に bot ツイートのクラスタが出てこなくなるまで,それを繰り返した.トピック数を決めるにあたっては, 人間にとっての解釈しやすさを示すとされる Coherence スコア $C_{V}$ [6] を計算し, 最も高いスコアが得られたトピック数 15 を採用した. ## 2. 4 分割時系列解析 最後に, 主要なイベント (東京オリンピックの開幕や職域接種の開始)がツイートの話題に与える影響を評価するために,分割時系列解析(Interrupted Time Series Regression) [7]を行った. 詳細については [4]を参照のこと。 ## 3 結果 2021 年 1 月から 10 月までの「ワクチン」を含む総ツイート数は 114,357,691 であった. 本研究では引用ツイート, すなわちコメント付きリツイート $(5,765,735 / 114,357,691$,全体の $5.0 \%$ ) と言及ツイー 卜 $(8,416,245 / 114,357,691$,全体の $7.4 \%$ )は数が少ないため除外し, コメント無しリツイート $(75,984,321 / 114,357,691$,全体の $66.4 \%$ ) とオリジナルのツイート $(24,191,390 / 114,357,691$,全体の $21.2 \%)$ のうち後者に着目して分析を行った結果を示す. ## 3.1 ツイートのクラスタリングと話題 データを収集した 10 ケ月におけるツイート群の話題推移を調べるため, トピックモデル (LDA) を用いて, 15 個のトピックに分類を行なった. 各トピックからランダムに抽出したツイート群を実際に読み精査することにより意味解釈を行い,15 のトピックに「接種会場からの実況」,「ワクチンの有効性」,「ワクチン政策に関する雑談」などの名前をつけた. これらを 4 つの主要なテーマ (1. 個人的事柄, 2 . 二ユース, 3. 政治, 4. 陰謀論とユーモア)に整理した (表 1). 表 1 ワクチン関連ツイートの 15 トピック トピック分析を行った結果, 最もツイート数が多かったテーマは「個人的な事柄」であり, 全体のおよそ $50 \%$ 占めた. このテーマの中には,接種に対する個人の考え方(1.1)や,いつ接種を受けるかというスケジュールに関する話題 (1.2),「いま会場で並んでいる」「いま打った」など接種体験の実況的な報告 (1.3) , 接種の体験を日記のように記すもの (1.4),接種の痛みや発熱などの副反応についての報告(1.5), ワクチン接種にあたって発熱時に服用する薬や経口補水液などの備えについて記すもの (1.6)が存在した. 2 番目に多かったテーマは「ニュース」である. モデルナやファイザー, アストラゼネカなどのワクチン開発について, 臨床試験が行われたことや使用認可が下りたことについての日本国内や世界のニュ一ス (2.1), mRNA ワクチンが新型コロナウィルスに対しても有効であることや,アストラゼネカ製ワクチンで血栓などの重大な副作用が起きる可能性や,接種が始まった国で副作用による死者が出たことなど,ワクチンの有効性についてのニュース(2.2), ワクチン接種の空き状況や予約の仕方などに関する話題 (2.3) が存在した. 3 番目に多かったテーマは「政治」である。日本の接種開始が他国より遅れをとっていることへの不満や, 国民にワクチンが行き渡らない状態で東京オリンピックが開催されることなど, 政治に対する意見 (3.1), マスコミが不安を煽っている・マスコミの情報が信じられないといったマスメディアの報道に対する意見 (3.3),ワクチン担当大臣に就任した河野太郎大臣に言及するなど, ワクチン政策の雑談 (3.4)がこのテーマに含まれる. 最も少なかったテーマは「陰謀論とユーモア」である. 「コロナワクチンの目的は世界の人口を減らすためのものである」といったような人口抑制に関する陰謀論 (4.1),「コロナワクチンは人々を $5 \mathrm{G} に$接続するための策略である」など身体への影響に関寸る陰謀論(4.2)に加え,いわゆるインターネットミーム (4.3) が存在した. ただし「ワクチンで $5 \mathrm{G} に$接続できるなんてわくわくする!」というような陰謀論を呆談として愉しんでいるツイートが 4.2 に含 まれるなど,いわゆる陰謀論とみなされるような主張を書いているツイートばかりではない. これらのツイートを含めた「陰謀論」のツイートは 7\%にすぎなかった. 4.3 のクラスタには, ワクチンを 2 回打っことを「ワクワクチンチン」と称したツイートが多数を占め, 流行語のような様相をみせた。 ## 3.2 各テーマの時間変化 つぎに,各テーマのツイート割合の時間変化を調べた(図 1). 2021 年 1 月当初は, 個人的事柄 (30\%), ニュース $(30 \%)$, 政治 $(25 \%)$, 陰謀論とユーモア (15\%) というように,4 つのテーマにツイートは分散していた. しかし, 6 月以降には接種後の体調や副反応など個人的事柄に関するツイートが急増し, 10 月には「ワクチン」を含むツイート全体の $70 \% を$占めるに至った.この結果は, 6 月以降に Twitter ユ一ザの興味・関心が個人的事柄に関する話題に集中したことを示唆する. 図 1. 各テーマのツイート割合の時間変化 ## 3.3 社会的イベントと関心の推移 最後に,4つの社会的イベント (A. 医療従事者の接種開始 $: 2$ 月, B. 高齢者の接種開始 $: 4$ 月, C. 職域接種開始 : 6 月, D. 東京オリンピック:7月)がツイートされる話題に与える影響を中断時系列分析 [5]を用いて分析した.この結果,C.職域接種,D.東京オリンピックの 2 つのイベントがツイートの話題に影響を与えることがわかった. 特に, 職域接種が 開始された 2021 年 6 月 21 日以降に個人的事柄に関するツイートの割合が急速に増加することが確認された(図 2)。この結果は,多くの Twitter ユーザがワクチン接種を受けることが可能となった職域接種開始以降に, Twitter ユーザの興味・関心が個人的事柄に集中したことを示唆している。 図 2. 職域接種開始前後における各テーマのツイート割合の時間変化 ## 4 結論 本研究では, 2021 年 1 月から 10 月までのワクチン接種期間中につぶやかれた「ワクチン」という語を含む日本語の全ツイートを分析した. トピックモデルを用いてツイートを 15 のトピックに分類し,各トピックの意味解釈を行うことにより,4つの話題 (個人的事柄, ニュース, 政治, 陰謀論とユ一モア)に整理した。 2021 年 1 月当初,ツイートは 4 つのテーマに分散していたが,6月以降にはユ一ザの興味・関心が個人的事柄に関する話題に集中した. さらに中断時系列分析を行った結果, 2021 年 6 月の職域接種を境に,ワクチン政策,ワクチン関連ニュースなど社会的な話題に関するツイートの割合が減り, 接種の予定や報告, 自身の副反応など個人的事柄に関するツイートの割合が増えたことを発見した. ## 謝辞 本研究は, 内閣府 Covid-19 AI・シミュレーションプロジェクトの一環として実施され, 科学技術振興機構 (JST) JPMJPR1925, JPMJCR1401, 科学研究費助成事業基盤研究(A) 19H0113,21H04571,基盤研究(B) $21 \mathrm{H} 03559,22 \mathrm{H} 03695$, 基盤研究(C) $18 \mathrm{~K} 11560$, 22K12285, 二国間交流事業協同研究 JPJSBP 1202022 01, 日本医療健康開発機構 JP21wm0525004による支援を受けて行われました。 ## 参考文献 [1] Kwak H. et al., (2010). "What is Twitter, a social network or a news media?", WWW '10, pp.591-600. [2] Lyu JC, Han EL, Luli GK.,(2011). "COVID-19 vaccine-related discussion on Twitter: Topic modeling and sentiment analysis.", JMed Internet Res 23(6):e24435. [3] Wu W, Lyu H, Luo J., (2021). "Characterizing discourse about COVID-19 vaccines: A Reddit version of the pandemic story.", Health Data Science 1-11. [4] Kobayashi R, Takedomi Y, Nakayama Y, Suda T et. al., (2022). "Evolution of Public Opinion on COVID-19 Vaccination in Japan: Large-Scale Twitter Data Analysis.", J Med Internet Res 24: e41928. [5] Blei DM, Ng AY, Jordan MI., (2003). "Latent dirichlet allocation.", J Mach Learn Res 3: pp. 993- 1022. [6] Röder M, Both A, Hinneburg A., (2015). "Exploring the Space of Topic Coherence Measures.", In WSDM' 15, pp. 399-408. [7] Bernal JL, Cummins S, Gasparrini A., (2017). "Interrupted time series regression for the evaluation of public health interventions: a tutorial.", Int J Epidemiol 46: pp. 348-355.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A10-2.pdf
# ツイートテキストデータによるリツイート数予測とその要因分析 増川哲太 ${ }^{1}$ 雨宮正弥 ${ }^{1}$ 仲田明良 ${ }^{1}$ 高須遼 $^{2}$ 狩野芳伸 ${ }^{1,2}$ 1 静岡大学 情報学部 ${ }^{2}$ 静岡大学 総合科学技術研究科情報学専攻 ${ }_{1}^{1,2}\{$ tmasukawa, mamemiya, anakada, rtakasu, kano $\}$ kanolab. net ## 概要 SNS 投稿が社会に及ぼす影響は、人々の行動を左右するまでに大きくなった. Twitter に投稿されたツイートの影響を測る指標の一つはリツイート数である. 本研究では投稿テキストのみからリツイート数の予測を試みた。結果、リツイート数が十分に多い場合、フォロワー数の貢献は低くテキストのみで予測可能であることを示したうえ、我々が大規模ツイ ートデータで事前学習した RoBERTa が他のモデルより良く、対数正規化したリッイート数に対し絶対平均パーセント誤差で 0.602 の予測性能であった. ツイート文中の各文節の予測への貢献度合いを分析し、「バズる」ツイートの傾向について示唆を得た。 ## 1 はじめに 現代社会において、ソーシャルネットワーキングサービス(Social Networking Service、以下 SNS)は我々の生活に深く根付いており、経済から政治まで様々な分野に世界的な影響を及ぼしている。行政機関から企業、一個人に至るまでの多様な情報の発信において、SNS を使用することは今やスタンダードなものとなっている.そのような SNS の中でも、Twitter ${ }^{\mathrm{i}}$ は活発にテキストの投稿が行われていると同時に、 データ取得 API が公開されており、膨大なデータを収集分析することができる. Twitter ではリツイート機能により対象のツイー ト(投稿)をフォロワー全員と共有できるため、リツイートは情報の拡散において重要な要素である。先行研究の多くはフォロワー数、フォロー数、いい氶数や文長といった数値的特徴のみを用いてリツイ一ト数の予測を行っているが、投稿内容を無視した予測は不正確な可能性が高い. ツイート本文の言語的特徴からリツイート数を予測し、どのような文章が拡散されやすいかの分析ができれば、予測性能向上のみならずツイートがどのような社会的影響をもちうるかの分析が可能になる. そこで本研究では、投稿テキストの特徴量を用いたリツイート数の予測を行った. 予測には我々が大規模ツイートデータで事前学習した JTweetRoBERTa をファインチューニングして使用しほかの事前学習モデルと比較したところ、最も良い性能を得た. また、フォロワー数の影響も比較した結果、リツイート数が十分に多い場合、投稿テキストのみほうがよい性能を得ることができた。 さらに文節の Ablation Study により、リツイート予測値を決定づける要因を分析した。 ## 2 関連研究 Sharma ら(2022)[1]は、人間のリツイート行動パタ ーンを把握するために、文字数や単語数などツイー トの本文の数値的特徴と、フォロワー数やフォロー 数などのユーザープロフィールの数值的特徴からリツイート数の予測を行った. これら数値的特徴量を組み合わせた新たな特徴量を提案して、リツイートの予測を行った。 Liu ら (2014)[2]は中国の Twitter に似た SNS である Weiboilについて、同様のユーザープロフィールや投稿に関する情報を用いてリツイート数を予測した。訓練データをリツイート数でいくつかのクラスに分割した後、テキストとユーザーに関する数値的特峌量とクラスラベルを用い、クラス分類タスクとして学習、推測した。 こうした数値的特徴を用いてリツイート数の予測を行う手法では、ユーザーの思考や興味を反映させた予測できているとはいえない. Twitter ユーザーの思考がもっとも強く映し出されているのはツイートテキストそのものであり、それを用いることでよりリツイート数をより正確に予測できると期待する. Zhang ら(2016)[3]はユーザーのツイートを類似し  ii https://m.weibo.cn/ た単語やトピックでクラスタリングし、それらの注目度と現在のツイートの類似度やツイートの文脈情報、その他特徴量を学習させ、ある特定のツイートをリツイートする可能性を予測している. Wang ら (2020)[4]は Weibo から大量のデータを収集し、ユー ザーの投稿本文、プロフィール、ユーザー間のネットワーク情報のベクトルをつなぎ合わせて分類することで、ある投稿をリツイートするかどうかの予測を行っている.これらの先行研究では、Twitter ユー ザーの興味・関心を言語特徴やその他特徴を用いて取り込んでいるが、ユーザー個別のリツイート行動を予測することが目的であり、本研究の目的であるリツイート数の予測とは異なる。 ## 3 提案手法とデータセット 本研究では、我々が独自に 6 億件の日本語ツイー 卜で RoBERTa-base を事前学習した JTweetRoBERTa[5]の利用を提案手法として、東北大学が公開している Wikipedia で事前学習した日本語 BERT[6]の BERT-baseiii,同 BERT-large ${ }^{\mathrm{iv}}$ 、rinna 社の提供する Wikipedia および cc100 で事前学習したRoBERTa[7]の三つを比較対象として用いた. これら事前学習済みモデルに対して、以下で説明する Twitter データセットによるファインチューニングを行った. 具体的には、BERT の最終層に回帰分析用の全結合層を追加してファインチューニングを行った. ファインチューニングの各種パラメータ設定は、付録 $\mathrm{A} 1$ に記載する. 「インフルエンサー」であること自体がリツイー 卜数に影響を及ぼす可能性を分析するために、対象ツイートを発信したアカウントのフォロワー数のみでの予測と、JTweetRoBERTa の最終全結合層にフオロワー数も入力した場合の予測を行った. さらに、ツイートのどの文節がリツイート予測に重要かの Ablation Study による要因分析を行った. ## 3.1 ファインチューンの変数と損失関数 ファインチューニング時の正解となるリツイート数 $\boldsymbol{r}$ に幅があり学習が難しくなってしまうため、 $\boldsymbol{x}$ $=\log _{2}(r+1)$ と正規化した值 $\boldsymbol{x}$ を用いた. 以下 $\boldsymbol{x}$ を対数正規化リツイート数と呼ぶ.  リツイート数のスケールの幅が大きいため、誤差を比率で表現する損失関数も検討したが、正解値と予測値によっては簡単に小さい値になりやすくモデルの最適化には向かない、そのためモデル学習時の損失関数としては平均絶対誤差を採用した。 ## 3. 2 Twitter データセット 本研究で使用したデータは、Twitter API $\mathrm{v} 2 \mathrm{v}$ の Academic Research アクセスにより取得した. ツイー ト本文がリツイート数にどのくらい影響を及ぼすのかをテキストに焦点をおいて分析するため、リプライ、引用リツイート、画像・動画を含むツイートは除外した.URL や絵文字は削除した。 リツイート数の少ない投稿ほど頻度が高いが、対象投稿のリツイート数が十分に多くないと統計的な予測が難しい,特にリツイートのない投稿はその理由に特殊な要因が考えられるため、すべて除外した。 ファインチューニング用データセット日本語ひらがな五十音を含むツイートを、制限を設けずタイムライン上から収集するランダムサンプリングで、投稿期間は 2022 年 1 月 1 日 2022 年 10 月 31 日である.しかしこの方法のみでは、リツイート数が多いツイートを十分に取得することが困難だった。そのため、リツイート数が多かった投稿をまとめてさらにリツイートしているアカウントをいくつか収集し、 そこでリツイートされた投稿をすべて収集したもの (以下「まとめアカウントデータ」と呼ぶ)を加え、 リツイート数の多い投稿を補強したものをファインチューニングに用いた.ただし、ひらがなないしカタカナが一文字もないツイートは除外した。これら 図 1 ファインチューニング用データセットのリツイート数毎の頻度分布 ^{v}$ https://developer.twitter.com/en/docs/twitter-api } フィルタ後のリツイート数の分布を図 1 に示す(リ ツイート数 0 の投稿数も参考に残した)。 要因分析用データセット上記のまとめアカウントデータのみを用いた. ファインチューニング時に用いたツイートと重複するものは除外した。 表 1 にファインチューニング用と要因分析用のデ ータセットの統計を示す. 表 1 各データセットの統計情報 ## 4 実験設定と評価 評価に用いた指標は、平均二乗誤差(MSE)、二乗平均平方根誤差(RMSE)、平均絶対誤差(MAE)、平均絶対パーセント誤差(MAPE)、決定係数 $\left(\mathrm{R}^{2}\right)$ 、相関係数 (r)の 6 つである. 評価指標の詳細については付録 A2 に記載する。 ## 4. 1 訓練時のデータ分割と評価結果 前章で述べたファインチューニング用データセッ卜を訓練・検証・評価に分割した。ランダムサンプリングしたツイートは 38:1:1、まとめアカウントデ一タは 8:1:1 に分割した. リツイート数が多いものが訓練・検証・テストそれぞれに適度に含まれるように、それぞれ分割してから結合した。結果、ファインチューニング用のツイート数は、訓練・検証・評価の件数がそれぞれ $113671 、 3672,3675$ となった。 ファインチューニングの結果、ほぼすべての指標において JTweetRoBERTaが最も良いスコアを得た (表 2). 表 2 の follower カラムはフォロワー数のみで予測した結果を、JTweetRoBERTa+follower は JTweetRoBERTa の最終全結合層にフォロワー数も入力した場合の予測結果であるが、フォロワー数を加えた結果、かえって性能が低下している. 次節でその詳細を分析する。 ## 4. 2 リッイート数による性能比較 リツイート数の過多によって予測性能が異なる可能性がある.その調査のため、前節のフォロワー数を使わないモデル間比較で最も良い性能を得た、提案手法である JTweetRoBERTa と、 JTweetRoBERTa+follower , follower $の$ 三つについてテストデータをリツイート数 $1024\left(=2^{10}\right)$ 未満の計 2845 ツイート、2 $2^{10}$ 以上の計 830 ツイートの二つに分割し、それぞれに対して評価值を算出した。表 3 に結果を示す. 表 3 リツイート分布別の予測性能比較 JTR: JTweet-RoBERTa, f: follower 二つのデータセット間でリツイート数のスケールが異なるため、絶対值ではなく比率で評価する MAPE が妥当な指標である. MAPE はリツイート数 $2^{10}$ 未満では follower が、リツイート数 $2^{10}$ 以上では JTweetRoBERTa が最も良い性能であった。 ## 4. 3 文節 Ablation Study による要因分析 リツイート数予測に影響の大きい単語や文節を分析するため、オリジナルの入力ツイート文からいずれかひとつの文節を除いて予測を行い比較した。ツ 表 2 対数正規化リツイート数のモデル別予測の評価値 & & follower \\ イート本文から削除したときに最も予測值が下がる文節が最も影響を及ぼしていると考え、要因分析用のデータセットすべてについてこの分析を行った. 予測にはファインチューニングした JTweetRoBERTaを使うが、ファインチューニングで用いたものとは別に入力用ツイートデータを用意した. 文節区切りには日本語構文・格・照応解析システム KNPviを用いた. ハッシュタグが KNP の入力に含まれていると正常に動作しないため、一旦ツイー 卜本文からハッシュタグを抽出し KNP に入力した後でツイート本文の元の場所に戻し予測を行った. 表 4 に、ツイート本文をすべて入力した際のリツイート数予測値と、いずれかの文節を抜いた場合のらち最小の予測値とについて、予測値の差上位 10 件をまとめた。 表 4 文節 Ablation Study の分析結果 \\ けど。 \\ ## 5 考察 表 2 に示した、ファインチューニングしたモデルのうちフォロワー数を使用しないモデル間の性能比較では、提案手法である JTweetRoBERTa が最も高い性能であった.ツイート文には特有の語彙、文体、構造があるため大規模ツイートテキストによる事前学習が有効であったと考えられる。 表 3 の JTweetRoBERTa の結果を比較すると、リツイート数が多い方が性能が良く、内容以外の要因が相対的に減るであろうこと、リツイート数の多い ツイートには予想を決定づける要因が多く含まれたためにより予測を安定させた可能性がある. リツイート数 1024( $\left.=2^{10}\right)$ 以上のツイートに対する予測で、フォロワー数が貢献しなかったことは意外で重要な発見である. フォロワー数が少ないアカウントからの発信であっても、ツイート内容が「バズる」ものであれば他のアカウントの紹介等を介して最終的にリツイート数が増加するのではないか. リツイート数 $1024\left(=2^{10}\right)$ 未満のツイートではフォロワー数のほうが予測に寄与した. フォロワー数が多いほど、内容にかかわらずリツイートするユーザ一群が多いのかもしれない。 表 4 の分析結果で挙がった文節を見ると、「お願いなのですが、」「言わせて、」といった相手に働きかけるような文節が上位にみられる。また、トピックをあらわす文節が「忍者だった」「飼われた」 【超重要事項】「筋肉注射の」「【拡散希望】脳梗塞って」のようにアピーリングで意外性のある内容であることも重要であるという結果になった。このことから提案手法では、ツイート本文中の要点に関する文節を重要視してリツイート数予測を行っているのではないかと考えられる。 ## 6 おわりに 本研究では、ツイート本文の言語特徴からリツイ一ト数を予測できるかを試みた.モデル比較の結果、 ツイートデータで事前学習させた提案手法の JTweetRoBERTa が、リツイート数 1024 $\left(=2^{10}\right)$ 以上の予測において MAPE が 0.602 と最も良い性能を達成した. リツイート数が十分に多い場合フォロワー 数の貢献は低くテキストのみで予測が可能であるうえ、Ablation Study の結果からは相手への働きかけ表現やツイート文のトピックを表すアピーリングな文節を重要視しているのではないかという示唆を得た。 今後はファインチューニングに用いたリツイート数の分布がより均一になるよう収集方法を工夫してデータ数を増やし、モデルのさらなる一般化を目指したい。また、ユーザーのツイート履歴やツイートの前後関係、社会背景とツイートタイミングといった時系列の情報など、ツイート本文以外の特徵量も含めたモデルを構築することで、よりユーザーの特性とツイート拡散過程を反映した予測を試みたい.  ## 謝辞 本研究は JSPS 科研費 JP22H00804, JP21K18115, JP20K20509, JST AIP 加速課題 JPMJCR22U4, およびセコム科学技術財団特定領域研究助成の支援をうけたものです. ## 参考文献 [1] Saurabh Sharma, and Vishal Gupta. Role of twitter user profile features in retweet prediction for big data streams. Multimedia Tools and Applications, Volume 81, pp. 27309-27338. 2022. [2] Gang Liu, Chuan Shi, Qing Chen, Bin Wu, and Jiayin Qi. A Two-Phase Model for Retweet Number Prediction. Web-Age Information Management. WAIM 2014. Lecture Notes in Computer Science, vol 8485, pp 781792. 2014. [3] Qi Zhang, Yeyun Gong, Jindou Wu, Haoran Huang and Xuanjing Huang. Retweet Prediction with Attentionbased Deep Neural Network. Proceedings of the 25th ACM International on Conference on Information and Knowledge Management, pp. 75-84. 2016. [4] Chunjia Wang, Yongquan Fan, Yajin Du, and Zefen Sun. Predict Individual Retweet Behavior Based on Multi-feature. IOP Conference Series: Materials Science and Engineering, Volume 790, Number 1, pp. 012046. 2020. [5] Ryo Takasu, Hironobu Nakamura, Taishiro Kishimoto, and Yoshinobu Kano. Mental Health Classification using Large Scale Tweet Dataset. Proceedings of the 36th Annual Conference of the Japanese Society for Artificial Intelligence. 2022. [6] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. arXiv:1810.0485v2, 2019. [7] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. RoBERTa: A Robustly Optimized BERT Pretraining Approach. arXiv:1907.11692. 2019. ## A 付録 ## A1 ファインチューン時のパラメータ設定 今回学習に使用した最適化アルゴリズムは Adam である.フォロワー数のみで学習した場合は、最終回帰層のみ学習させた。 $\mathrm{Ir}=5 \mathrm{e}-5$ (各言語モデル)、1e-5(最終回帰層) max_epochs $=100$ (early_stopping 設定により早期終了する可能性もある.) ## A2 評価指標 本研究で用いた評価指標は、平均二乗誤差(MSE: Mean Squared Error)、二乗平均平方根誤差(RMSE: Root Mean Squared Error)、平均絶対誤差(MAE: Mean Absolute Error)、平均絶対パーセント誤差 (MAPE: Mean Absolute Percentage Error)、決定係数 $\left(\mathrm{R}^{2}\right) 、$ ピアソンの相関係数 $(\mathrm{r})$ の 6 つである. 以下にそれぞれを求める式を示す. ( $y$ : 正解值、 $\hat{y}$ : 予測値、 $\mathrm{n}:$ データ数) $M S E=\frac{1}{n} \sum_{i=1}^{n}\left(y_{i}-\hat{y}_{i}\right)^{2}$ $R M S E=\sqrt{M S E}$ $M A E=\frac{1}{n} \sum_{i=1}^{n}\left|y_{i}-\hat{y}_{i}\right|$ MAPE $=\frac{1}{n} \sum_{i=1}^{n}\left|\frac{y_{i}-\hat{y}_{i}}{y_{i}}\right|$ $R^{2}=1-\frac{\sum_{i=1}^{n}\left(y_{i}-\hat{y}_{i}\right)^{2}}{\sum_{i=1}^{n}\left(y_{i}-\bar{y}\right)^{2}}$ $r=\frac{\frac{1}{n} \sum_{i=1}^{n}\left(y_{i}-\bar{y}\right)\left(\hat{y}_{i}-\overline{\hat{y}}\right)}{\sqrt{\frac{1}{n} \sum_{i=1}^{n}\left(y_{i}-\bar{y}\right)^{2}} \sqrt{\frac{1}{n} \sum_{i=1}^{n}\left(\hat{y}_{i}-\overline{\hat{y}}\right)^{2}}}$
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A10-3.pdf
# 誰に向けた発言か?:ツイートの指向性推定 清基英則 ${ }^{1}$ 劉康明 ${ }^{1}$ 矢田竣太郎 ${ }^{1}$ 若宮翔子 1 荒牧英治 ${ }^{1}$ 1 奈良先端科学技術大学院大学 \{kiyomoto.hidenori.kj5, liew.kongmeng, s-yada, wakamiya, aramaki\}@is.naist.jp ## 概要 新型コロナウイルスの拡大に伴い,政府や自治体はソーシャルメディアを用いた正確かつ迅速な情報発信が求められている. そのためには, 特定の対象 (年代や性別など)に向けて発信された情報を,その対象が自分に向けて発信されていると理解できるかどうか,すなわち「指向性」が重要である.情報発信者の属性を特定する研究は多いが,情報が対象とする受信者の属性を特定する研究は見受けられない. 本研究では, Twitter における雑誌の公式アカウントが発信するツイートは読者層向けに最適化されていると仮定し, 各雑誌の対象年齢と性別をラベル付けした指向性ツイートデータセットを用いて,ツイートがどの年齢, どの性別に向けられているものなのか機械学習モデルで分類した.この実験結果を分析し,指向性の定量的測定がもたらす価值を考察した. ## 1 はじめに 今や情報発信のインフラとしてソーシャルメディアはなくてはならないものとなっている. 日本においては東日本大震災を契機として,SNS を活用した情報発信が大きく注目され始めた. その後も,2017 年 7 月九州北部豪雨災害や 2018 年西日本豪雨災害でも救助を要請するツイートが多数投稿され, 政府と市民間での情報発信の有効な手段として利用された [1]. このように,リアルタイム性と拡散性に優れた SNS を用いた情報発信は重要性を増しており, その動きは新型コロナウイルスの流行に伴い, さらに加速的に進んだ。例えば,厚生労働省により組織されたクラスター対策班は,分かりやすい情報を一般市民に届けるために,Twitter アカウントを開設し,情報発信を行った. さらに他の自治体も相次いて,SNS を通じた情報配信を活発化した。従来, SNS に消極的であった公的期間でさえも,SNS を重要なインフラとして捉え始めている. 図 1 ツイートの指向性推定. 政府の発信のツイートには多方面への無指向性が,男子学生が好む話題のツイートには 10 代男性への超指向性が推定される. 一方で,情報発信における問題点も浮き彫りになっている. 2020 年 6 月に報告された新型コロナウイルス感染症に関する情報流通調査 [2] において,政府が正しい情報を届けるための工夫を適切に行っていないと評価した人が多かった. その後, 新型コロナウイルス感染症対策分科会は,情報の受信者側が関心をもち,理解を深め,行動を変容させるような “対話ある情報発信” の実現に向けて,情報発信の強化を迅速に進めるよう政府に提言した [3]. しかし, 不特定多数に向けた情報発信では,受信者側にうまく伝わらない傾向にあり,様々な年齢・性別・状況の人への情報発信は難しい [4]. このような背景のもと, リスクコミュニケーションに配慮した情報配信を実現するために,本研究では,ツイートがどの対象(年代や性別など)に向けて発信されているか,この発信者が想定する受信者像を,本研究では「指向性」と呼び,ツイートの「指向性」に着目する。指向性とは,音響学的に,空中に出力された音や電波の伝わる強さが,方向によって異なる性質を意味する [5]. マイクやスピーカー の指向性の種類には,全方向に対して発信される無指向性や特定の限られた範囲に発信される超指向性などがある。このアナロジーを情報発信に当てはめると,例えば政府の発表などは広い範囲の無指向性が,敬老会の予定などは高齢者に対する指向性が, カードゲームのイベント情報は若年層の男性に向け 表 1 雑誌の公式アカウントが発信するツイートの例対象属性ツイート 10 代女性みんなどんな夏休みを過ごしてたのかな? 20 代女性韓国で盛んなハズせないファッション 30 代女性季節の変わり目をおしゃれに乗り切るっっ! 40 代女性皆さんの興味を引く記事はありますでしょうか? 50 代女性みなさん、足元にお気をつけください。 60 代女性ひざ痛は今日みたいに「急な寒さ」で悪化します 10 代男性シンオウ地方で出会えるポケモンを大紹介! 20 代男性このチェキ、カッコいいですよね 30 代男性 「0 円マイカー」というサービスをご存知でしょう 40 代男性この柄に見覚えありますか? 50 代男性 100 年以上にわたって愛され続ける作品の魅力とは 60 代男性たかがねこ背だなんて軽視してると危険ですよ。 られた超指向性があると考えることができる. 我々は,誰に向けたツイートであるかを言語的特徵で捉え,定量的に推定できるようになることで,情報発信者はより迅速かつ効果的に必要な情報を多くの人に届けることができると考えた. 本研究では,対象としている層を公開している雑誌の公式アカウントが発信するツイートは指向性を持つと仮定し, 雑誌の対象層をラベル付けしたデータセットを用いてツイートの指向性を推定するモデルを構築した. ツイートには 30 代から 40 代の男性向けといった複数が対象層となっているものが含まれるため, マルチラベル分類タスクとして解き,指向性のある文章の定量的解析を行なった. ## 2 関連研究 メッセージ送受信に関わる者の属性(年齢,性別,職業など)を推定する場合,これまでよく研究されてきたのは送信者の属性である。 Burger ら [6] は,1850万人のユーザが発信した約 2 億 1300 万件の多言語ツイートコーパスを構築し,ツイート発信者の性別を分類した. この研究で構築した Balanced Winnow2 アルゴリズムがベースの機械学習モデルは,66.5\%の精度で性別を分類することができた。 またこのモデルが髪や愛に関連する単語,感嘆符や顔文字などの女性がよく用いる用語に強い影響を受けたことを示した. Morgan-Lopez ら [7] は Twitter ユーザの年齢を推定する際の言語的特徴を捉える研究を行った. ユーザを 18 から 24 歳の若年層, 13 から 17 歳の若者層, 25 歳以上の成人層と三つの年齢層に分け,最近発信した 200 件のツイートを収集し, 学習データとして利用した. この研究で構築したロジスティック回帰モデルは $\mathrm{F}$ 值 0.72 で分類する ことができた.若年層は“学校”や“大学”などの用語を特徴として捉えることができたため,高い精度での分類を行うことができたが,成人層の発信するツイートの言語的特徴を捉えることは困難で,低い精度での分類となったことを示した. Abdul-Mageed ら [8] は,約 160 万件のアラビア語のツイートからなるデータセットを構築し,書き手の性別(男性または女性) と年齢グループ (25 未満, $25-34,35$ 以上)の合計 6 ラベルの分類を行った. 彼らは BERT を用いて,年齢層を $51.42 \%$ ,性別を $65.30 \%$ の精度で分類できることを示した. さらに,"they ask me", “you dear", "good evening” などの語句を分類の根拠としていたことから,性別間で書き方に明確な違いがあることを述べた. これらの研究に対して本研究の指向性推定は,発信者が想定する受信者像を推定する点で新規である。 表 2 指向性ツイートデータセットの統計量 ## 3 データセット 本稿では,指向性を定量的に推定するために,指向性ツイートデータセット [9]を用いた. 指向性ツイートデータセットは,特定の対象に向けて発信された,すなわち,指向性を持つツイートを収集して構築された. 特定の対象に向けて発信された,すなわち,指向性を持つツイートを収集し,データセットの構築を行った. 指向性を持つツイートとして,雑誌の公式アカウントが発信するツイートは読者層 (年齢と性別)向けに最適化されているとみなし,収集対象とした. 具体的には,対象年齢と性別ごと 表 33 つの提案モデルによる分類結果 (太字がモデル間の中での最も高い値) に雑誌をまとめたウェブサイト 1)2)3)を参考に, 10 代から 60 代までの男女別の雑誌リストを作成し, Twitterにおける公式アカウント名を取得した.この結果, 女性向けと男性向け雑誌のアカウント数はそれぞれ 71 と 35 であった. なお,対象とする性別が示されていない雑誌は, 男性と女性の両方を対象とする雑誌アカウントとして,幅広い年齢層を対象とする雑誌は, 複数の年齢層を対象とする雑誌アカウントとして扱った. 例えば,“@safari_online”というアカウントは 20-30 代の男性向けの雑誌の公式アカウントであるため, 20 代男性と 30 代男性の両方に含まれる. ツイート取得方法やノイズ除去処理などの詳細については [9]を参照されたい。 データセットにおけるツイートの総数は 187199 であり,その概要は表 2 に示す. ## 4 提案手法 本研究では,ツイートがどの年齢や性別に向けて発信されているのかを,マルチラベル分類タスクとして解く.そのために指向性ツイートデータセットを用いて,文章分類モデルを構築する. 分類モデルには Bidirectional Encoder Representations from Transformers (BERT) [10]を日本語コーパスで事前学習したモデル゙吕採用し,指向性ツイートデータ  セットでファインチューニングした.このモデルは 12 層のエンコーダ, 768 次元の隠れ層, 12 個のアテンションヘッドから構成される. 学習条件として,最適化手法は AdamW,学習率は $1.0 \times 10^{-5}$, エポック数は 5 ,バッチサイズは 32 である。各ツイートには複数のラベルが付与されうるため,マルチラベル分類モデルを構築した. BERT の最終層の出力を全てのトークンに渡って平均化,その値を線形変換したものを分類スコアとし,スコアが正の値の場合に該当ラベルとした. さらに,ツイートの話題ではなく,語尾や文体といった言語的特徴を考慮した分類のために,固有名詞と名詞をそれぞれ特殊トークンとして学習させた 2 のモデル(BERT MASKEd ProPer Noun と BERT MASKED NOUN)を構築した. 固有名詞と名詞の判定には,形態素解析器 MeCab [11]を用いた. 特殊トー クンに置き換えることで,BERT の学習に影響を与える単語を意図的に制限することができる [12]. ## 5 結果 指向性ツイートデータセットを 9 (訓練):1(評価)の割合で分割し,BERT,BERT MASKEd PROPER Noun,BERT Masked Noun の 3 つのモデルによるツイートの分類精度を評価した。評価指標には, Macro-F1 と各ラベルの F 値を用いた。表 3 に結果を示す. 各モデルの $\mathrm{F}$ 值の平均はそれぞれ $0.87,0.82,0.70$ と高い精度となった。2 節で述べたツイート文から (1)[CLS]こん\#\#にち\#\#は今日から3月がスタート!!そしてニコラ発売日今\#\#月は中3で思い出づくりしたよぜ\#\#ひチェックしてみてね\#\#ー! (2)[CLS]こん\#\#にち\#\#は今日から3月がス夕ート!!そして[Proper noun]発売日今\#\#月は[Proper noun]で[Proper noun]したよぜ\#\#ひチェックしてみてね\#\#ー (3)[CLS]こん\#\#にち\#\#は[Noun]から[Noun]が[Noun]!!そして[Noun][Noun][Noun]は[Noun]で[Noun]したよぜ\#\#ひ[Noun]してみてね\#\#ー! (4)[CLS]まもなくあの3.11から10年です。月刊4月号に寄稿しました。よろ\#\#し\#\#ければお手に取ってみて下さい。 (5)[CLS]まもなくあの[Proper noun]から10年です。月刊4月号を寄稿しました。よろ\#\#し\#ければお手に取ってみて下さい。 (6)[CLS]まもなくあの[Noun]から[Noun]です。[Noun][Noun][Noun]を[Noun]しました。よろ\#\#し\#\#けね゙[Noun][Noun]に取ってみて下さい。 図 2 Attention weight の可視化結果.(1)(2)(3) はF10に,(4)(5)(6) は F60と M60 に BERT, BERT Masked Proper Noun, BERT MASKED NOUN でそれぞれ正しく分類された例,マスキングにより,文末や文体の表現に重み付けされている. 書き手の年齢層を推定するモデル [7] の $\mathrm{F}$ 値が 0.72 で,一定の有用性を評価しているため,今回の我々の結果もある一定の精度を示したと判断した. モデルごとに確認すると,BERT の $\mathrm{F}$ 值の平均が 0.87 であり,F40から F60,M30から M60の F 値が突出して高い結果となった. ほぼ全てのラベルが $\mathrm{F}$値が 0.8 を超えていることから,高精度での分類結果となった. BERT MASKEd PROPER NOUN については, $\mathrm{F}$ 値の平均值は 0.82 であり, BERT に比べてやや低い精度となった,F40から F60,M30 から M60 の F 值が依然として高いままであったが,他のラべルは下がる結果となった. BERT MASKING Noun の F 値の平均値は 0.70 となり, 他の 2 つのモデルと比べ $\tau$, 適合率, 再現率, $\mathrm{F}$ 値の全てが下がった. M40 の $\mathrm{F}$ 值のみ 0.85 と高いままであるが,他のラベルは BERT に比べて大きく精度が下がった. ## 6 考察 本節では,分類結果と各モデルの Attention weight の可視化結果をもとに,各モデルの結果と分類の判断根拠について考察する. まず F30 から F60,M30 から M60 のラベルの精度がモデルを問わずに高かった. これは先行研究 [9] では, 低い精度であったラベルであり,マルチクラスからマルチラベルにタスクを変更したことで,複数のラベルが付いたツイートの分類精度が大幅に向上したことがわかる. モデルごとに確認すると,通常の BERT の精度が最も高いことから, 固有名詞と名詞を含んだ方が分類精度が高くなることがわかった.図 2 は BERT の Attention weight の可視化結果である. 図 2 の(1)と (4)より, BERT は, “ニコラ”, “中 3 ”, “思い出づくり”, “3.11” などの特徴的な言葉を根拠に分類を行っていることがわかる.BERT MASKED PROPER NOUN は,どのラベルも高い精度で推定することができており, 固有名詞をマスキングしても,高い精度で分類されていることがわかる.図 2 の (2) と (5) より,“スタート”,“チェック”,“寄稿” という特徴的な単語を根拠に分類している一方,“みてね一!”,“みて下さい”といった文末の表現により重み付けされていることから,対象となる属性に向けた文体が学習されていることがわかる. BERT MASKED NOUN の精度は他のモデルと比べると下がるが,依然として高い精度で分類ができており, 図2の (3)と (6)を見ると, “こんにちは”, “したよ”,“ければ”,“みて下さい。”といった文体の表現を根拠としており,より文体的特徴を学習していることが推測される. ## 7 おわりに 本研究では,特定の年代性別のユーザに向けて発信されたツイートは指向性を持つと仮定し,それを定量的に推定するために,雑誌の公式アカウントによるツイートを収集し,BERT による分類モデルを構築した. 実験では,通常の BERT モデルにより一定の精度で推定できることを示し, さらに固有名詞と名詞を特殊トークン化したモデルとの比較により,指向性を持つツイートの言語的特徴を考察した. マルチラベル分類タスクとして解くことで,どのラベルも高い精度で分類することができた. 今後の課題としては,雑誌の公式アカウント以外の指向性ツイートの取得と実用的なツールの開発である. 現在,インフルエンサーが発信するツイートを対象として検討している。これにより指向性を雑誌の公式アカウント以外の発信するツイートで確認することができる。また現在,試験的に開発したシステム VOICE2PeOple(付録の図 3) $)^{5}$ を公開している. VoICE2PEOPLe は今回の実験で用いたモデルを組み込んだ Web アプリケーションで,入力したテキス卜の指向性を推定することができる.今後,ユーザによる評価実験を行い,指向性の定量的評価の有用性や拡張性について検証する予定である。  ## 謝辞 本研究は AMED の課題番号 JP22mk0101229,JSPS 科研費 JP20K19932, JP19H01118, JP22K12041,Yahoo 株式会社共同研究費の支援を受けたものです. ## 参考文献 [1] 佐藤翔輔, 今村文彦. 2018 年西日本豪雨災害における「井救助」ツイートの実態:2017 年 7 月九州北部豪雨災害との比較分析. 自然災害科学, Vol. 37, No. 4, pp. 383-396, 2019. [2] 総務省. 新型コロナウイルス感染症に関する情報流通調査報告書, 2020. https://www.soumu.go.jp/ menu_news/s-news/01kiban18_01000082.html. [3] 新型コロナウイルス感染症対策分科会. “対話ある情報発信” の実現に向けた分科会から政府への提言令和 2 年 11 月 12 日 (木), 2020. https://www.cas.go. jp/jp/seisaku/ful/bunkakai/seifu_teigen_15.pdf. [4] 公益財団法人東京市町村自治調査会. 誰にも伝わる情報発信に関する調査研究報告書. 2017. https:// www. tama-100.or.jp/cmsfiles/contents/0000000/ 672/0. darenimotutawarujouhouhassin.pdf. [5] コトバンク. 第 2 版, 世界大百科事典内言及日本大百科全書 (ニッポニカ), “指向性とは”, 2022. https://kotobank.jp/word/\%E6\%8C\%87\%E5\%90\% $91 \%$ E6\%80\%A7-73018. [6] John D. Burger, John Henderson, George Kim, and Guido Zarrella. Discriminating gender on Twitter. In Proceedings of the 2011 Conference on Empirical Methods in Natural Language Processing, pp. 1301-1309, Edinburgh, Scotland, UK., July 2011. Association for Computational Linguistics. [7] Antonio A Morgan-Lopez, Annice E Kim, Robert F Chew, and Paul Ruddle. Predicting age groups of twitter users based on language and metadata features. PloS one, Vol. 12, No. 8, p. e0183537, 2017. [8] Muhammad Abdul-Mageed, Chiyu Zhang, Arun Rajendran, AbdelRahim Elmadany, Michael Przystupa, and Lyle Ungar. Sentence-level bert and multi-task learning of age and gender in social media. arXiv preprint arXiv:1911.00637, 2019. [9] 清基英則, 劉康明, 矢田竣太郎, 若宮翔子, 荒牧英治.言語的特徵を用いたツイートの指向性推定. 信学技報, Vol. 122, No. 88, pp. 19-24, 2022. [10] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186. Association for Computational Linguistics, 2019. [11] Taku Kudo. Mecab: Yet another part-of-speech and morphological analyzer. http://mecab. sourceforge. jp, 2006. [12] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Rémi Louf, Morgan Funtowicz, et al. Huggingface's transformers: State-of-the-art natural language processing. arXiv preprint arXiv:1910.03771, 2019. ## A 参考情報 表 4 各ラベルの重要語 (TF-IDF 値) 新宿に...フォートナイト!? これはチャプター3のヒントなのか??? みんな解読してくれ! ## 分析結果 図 3 Voice2People の画面
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A10-4.pdf
# コロナ禍前後における Twitter ユーザの性格別感情変化の分析 松本 和 ${ }^{1}{ }^{1}$ 喜島 $\quad$ 涼太 ${ }^{2}$ 吉田 稔 $^{1}$ 北 研二 $^{1}$ 1 徳島大学大学院社会産業理工学研究部 ${ }^{2}$ 徳島大学大学院創成科学研究科 \{matumoto, mino, kita\}@is. tokushima-u. ac.jp, c612135039@tokushima-u. ac. jp ## 概要 2019 年末から始まったコロナ禍も 3 年が経過し,徐々に行動制限が緩和され, 日々, 状況は変化しつつある. 現在も,生活様式の劇的な変化に伴い心身へのストレスなど人々に大きな影響を与え続けている. 本研究は, コロナ禍前後での Twitter 上での発言内容から感情分析を行い,特徵的な表現を抽出して比較分析することにより, 人々の発言, 思考, 行動に起きた変化を分析する。また,ユーザの性格夕イプ別での感情の変動について考察する. ## 1 はじめに 新型コロナウイルス感染症の拡大に伴い, 2020 年からの長期間の行動制限は, 精神的ストレスの増加,離職,収入の激減といった悪循環を引き起こしている. 現在, 行動制限が緩和され, コロナ禍前の日常が戻りつつあるとはいえ,まだ感染が収束したわけではない. 現在でも,自肃の継続を選択せざるを得ない人々や,後遺症などから感染拡大前の生活に戻れない人々も少なくない。うつ病などのメンタルへルスの問題に至らないよう,周囲とのコミュニケー ションを密にし, 孤立化を防止することが極めて重要である。そのためにも,人々が何に影響を受け, どのような感情を抱いているかを大まかに把握し,要因別のサポート体制を整える必要がある. 本研究では,感情推定技術を活用して,ソーシャルメディア上の発言を感情分析し, 人々の発言の内容から感情変化の要因となるものを特定する技術の開発を行っている. 人々の感情変化がどのような行動を引き起こしているのか, 思考や行動に関連したキーワードを抽出して分析を行い,ユーザを性格別にグループ分けし, どのような性格のユーザにどのような変化が起こっているかを考察する。 ## 2 関連研究 コロナ禍における人々の考えや行動をソーシャルネットワーキングサービス(SNS)の投稿から把握しようとする研究は多い. 自肃生活で対面交流が制限され, オンライン交流および Web 上での活動が増加したことで,コロナ禍前よりも多くのユーザが SNS を利用するようになった. Twitter は即時性が高く,短文で個人の考えをリアルタイムに反映した投稿がされやすい点で,感情分析の対象に適している。また,新しい生活様式においては特に世の中のニュー スのチェックに利用する傾向が顕著である[1]. 鳥海ら[2]は,新型コロナウイルスに関する投稿を収集し,情報を発信するユーザの感情に着目した分析を行った. この研究では,新型コロナウイルスに関連した大きなイベントの発生とその際のユーザの投稿に表孔ている感情との関連を明らかにしている。 福田ら[3]は, 新型コロナウイルスワクチンに対する人々の感情に着目し, 感情が表れる要因を分析している。日本,米国など 6 力国 (日本語および英語) の Twitter の投稿を対象としており,ワクチンに関する同一の出来事でも,個人の状況に応じて観察される感情が異なることを明らかにした。彼らの研究では,感情分析に BERT を利用し,海外ツイートに刘しては SemEval2018 Task 1: Affect in Tweets[4]で配布された Emotion Classification (E-c) task の英語感情分析データセットを用い,日本語ツイートに対しては,Kajiwara ら[5]の日本語感情分析データセット (WRIME corpus)を用いている. これらの研究では,ユーザ個々の性質には着目していない. 鳥海らの研究では, 感情の時間変化やユ一ザのコミュニティの偏りを考慮しているが,個々のユーザの思考・行動の違いは考慮していない。これは,ユーザの思考・行動を識別することが難しいことと, プロフィール情報の信頼性がユーザによって差があること,また,複数アカウントを利用するユーザの影響を排除しきれないことなどが要因であ ると考える。また, 感情分析に辞書ベースの ML-Ask[6]を利用しており精度の面で問題がある. 本研究では, ユーザの感情や行動に影響を与えると考えられる性格(パーソナリティ)に着目し,性格タイプ別に感情の変化を分析することで,思考・行動の変化を検討する点で異なる. 伊藤ら[7]は, IBM のサービス Personality Insights を用いて, Twitter ユーザの性格を時系列で分析している.しかし, 個人の性格はコロナ禍前後の短期間で変化が観察できるほど変動の激しいものではない. このため, 本研究では, Twitter ユーザ本人が受けた性格診断テスト (MBTI: Myers-Briggs Type Indicator[8])の結果をもとに性格を固定し分析する. ## 3 提案手法 ## 3.1 感情推定手法 本研究では, 感情推定に機械学習アルゴリズムを用いる. 具体的には, 感情ラベル付きテキストコー パスを, BERT などの事前学習済みの汎用言語モデルを用いて学習させたマルチラベル分類モデルである. 学習対象のコーパスは, 先行研究と同様に, Kajiwara ら[5]の日本語感情分析データセットと,我々が独自に収集・ラベル付けした感情コーパス[9], また, 絵文字と感情表現辞書をもとにラベルを自動付与したツイートコーパスを用いた. 下記の事前学習済みモデルをもとに感情推定モデルのファインチューニングを行う.いずれも Hagging Face[10]で提供されているものである. 1. xlm-roberta-base 2. nlp-waseda/roberta-base-japanese 3. rinna/japanese-roberta-base 4. hajime9652/xlnet-japanese 5. Twitter/twhin-bert-base ファインチューニングには, Transformer ベースのモデルを簡易な実装で扱えるライブラリ Simple Transformers[11]の MultiLabelClassificationModel を用いた. 対象とする感情の種類は, Plutchik の基本 8 感情 [12][13] (喜び:Joy, 悲しみ:Sadness, 期待:Anticipation, 驚き:Surprise, 怒り:Anger, 恐れ:Fear,嫌悪:Disgust, 信頼:Trust)である. 各ツイートに対して推定モデルが出力した確率値が 0.5 以上となった感情ラベルを付与する。 ## 3.2 感情推定モデルの選定 複数の事前学習済みモデルを用いるにあたり,精度評価を行うことで最も感情分析に適しているモデルを選定する。精度評価には,前節で述べた複数の感情ラベル付きテキストデータから,学習データ 96,696件, テストデータ 32,233 件を用いた. 図 1 に, 5 種類の事前学習済みモデルを用いてファインチュ ーニングした感情推定モデルの感情別の F 值 (F1-Score)を示す. この図より, XLM RoBERTa が全体的に精度が高いことが分かるため, 本研究ではこのモデルを用いて感情分析を行う. 図 1 各モデルの感情ラベルごとの F 值 ## 3.3 性格別感情分析 ## 3.3.1 ユーザアカウントの選定 本研究では, 性格診断サイト (16Personalities[14]) を利用して MBTI 診断結果の性格タイプをコロナ禍前後の 2019 年〜2022 年の間にツイートしたユーザを選定した. MBTI は, 外向型・内向型, 感覚型 $\cdot$直感型, 思考型・感情型, 判断型・認知型の 4 つの二分法を掛け合わせた 16 の性格に分類する自己申告型診断テストの一つであり,大まかな性格タイプを知るために利用される. ユーザが複数回, 診断結果をツイートしている場合は, 最新の結果をそのユ ーザの性格とする。性格タイプを,表 1 に示す. & & & \\ ## 3.3.2 ツイートの収集 3.3.1 節で述べた方法で選定した計 2720 名のユー ザごとに, 2019 年〜2022 年までの期間のツイートを Twitter API を使用して収集した. 本研究では,コロナ禍前後を明確に区別することが難しいと考え, 2019 年 11 月 30 日以前 (新型コロナウイルスが知られる前)をコロナ禍前, 約 1 年後の 2020 年 11 月 30 日以降をコロナ禍後と定義する。過去のツイートの収集に, Academic Research 用の API[15]を利用した。性格タイプ別のユーザ数を表 2 に, 收集したコロナ禍前後の対象ユーザのツイートおよびリプライ数を表 3 に示す. リツイートは収集対象から除外した.表 2 の both は, コロナ禍前後両方でツイートを収集できたユーザ, before はコロナ禍前のみ, after はコロナ禍後のみツイートを収集できたユーザ数を示す. 表 2 MBTI タイプごとのユーザ数内訳 表 3 ツイート数およびリプライ数 ## 3.3.3 コロナ禍前後での性格別感情分析 ユーザ集合を性格タイプ別に分割し,ツイート集合を作成する. コロナ禍前後両方でツイートを収集できたユーザのみを対象とする。性格タイプによるユーザ数の偏りを考慮し, 最もユーザ数の少ない性格タイプISTJ に合わせて各タイプごとに 88 ユーザをランダムに選択する. 対象ユーザのツイート集合をコロナ禍前後で分けて, 3.2 で学習した感情推定モデルによりマルチラベル感情推定を行う,推定された感情ラベルの頻度を正規化し, コロナ禍前後での性格タイプごとの感情分布の変化を比較分析する. ## 3.4 特徴語分析 ツイートに含まれる単語を, TF-IDF に基づく特徴語抽出を用いて分析する. 分析結果から, コロナ禍前後で,どのような変化が起こっているかを考察す る. 特徴語抽出に際して, 前処理としてツイートの正規化を neologdn[16]で行い, MeCab で形態素解析し,原形に変換する.ストップワードリストによりノイズとなる語を除去後, 名詞・形容詞・動詞・形容動詞語幹などの自立語および固有名詞に限定して TF-IDF 値を計算し,上位 100 語の特徴語を抽出した。 ## 3.5 感情変動パターンの分析 ユーザの感情変動パターンの傾向をコロナ禍前後で分析する.ユーザごとに,ツイートの感情推定結果をツイートのタイムスタンプの順で並べ(日時の間隔は考慮しない), 感情の種類別に, 出現の有無を0/1 で表し,順番に並べたものを感情変動パター ンとする. 得られたすべての感情変動パターンを対象に時系列パターンクラスタリング手法 k-Shape[17]を用いて K 個のクラスターに分割する. k-Shape の学習には, Python 用パッケージ tslearn[18] を用いる. 各感情ごとの所属クラスタの頻度ベクトルをそれぞれ頻度の総和で正規化して水平連結し,性格タイプごとにまとめる。これを感情変動パター ンのクラスタ分布ベクトル $(\mathrm{K} \times 8$ 次元 $)$ とし,コロナ禍前後でユークリッド距離を求め, 大きな変化がみられる性格の傾向を考察する。 ## 4 分析結果と考察 ## 4. 1 感情分布の結果 コロナ禍前後での感情推定結果の分布の差分を図 2 に示す. 各セルにおける正/負の値は, それぞれコロナ禍後に各感情に推定されるツイートの割合が増加/減少したことを示している。 図 2 コロナ禍前後での感情分布の差分 これより, 全体的に Anticipation が減少していることが分かる. 特に, ENTJ(指揮官)については, Anticipation の減少, Joy の増加が目立つ. また, 感情分布ベクトルの Kullback-Leibler divergence が最も大きくなったのは, ENTJ(指揮官), 次いで ENTP (討論者), 最も小さくなったのが ENFJ(主人公) であった. ## 4.2 特徴語分析の結果 感情分布の変化が大きいENTJ と ENTP に関して, コロナ禍前後で共通している語, コロナ禍前のみに出現した特徴語, コロナ禍後のみに出現した特徴語の例を表 4 に示す. ENTJ では,コロナ禍後に「おめでとう」「楽しみだ」などのポジティブ表現,また,「測定」「体重」など健康を気遣うような表現がある。一方,ENTPでは,コロナ禍後に「最高だ」「面白い」などポジティブ表現が増加している. 表 4 コロナ禍前後での ENTJ と ENTP の特徵語分布 & & \\ ## 4.3 感情変動パターン分析の結果 クラスタ数 $\mathrm{K}$ を 4 に設定し, 時系列クラスタリングを行う. 各クラスタへの所属回数をカウントして正規化したベクトル間のユークリッド距離を,コロナ禍前とコロナ禍後で比較したものが, 図 3 である. “euclid_before/after”がコロナ禍前後での同一性格夕イプ間の距離, “euclid_same_avg”がコロナ禍前後それぞれの同一期間における他の性格タイプとの平均距離, “euclid_before_avg”がコロナ禍前の他の性格夕イプとの平均距離, “euclid_after_avg”がコロナ禍後の他の性格タイプとの平均距離を示している。この図より, ISFP (冒険家), ESTJ(幹部), ESFP(広報運動家)の3つのタイプは, 平均距離よりも距離が大きく, 感情変動パターンの変化が比較的大きい.一方, コロナ禍前後の距離が最も小さかったのは INFJ(提唱者)であった。 図 3 コロナ禍前後の感情変動パターンの距離比較 ## 4.4 考察 コロナ禍前後での特徵語の変化を分析した結果から,特定の性格タイプにおいては,発言に特徴的な変化がみられた。その結果,発言から推定できる感情にも変化が起きたと考えられる。また,コロナ禍前後での感情変動に変化が見られたのは,型破りなタイプである ISFP (冒険家) や,リーダーシップをとるタイプである ESTJ(幹部)などであった. 感情変動に変化があるということは,思考や行動にも変化が起きている可能性があるため,特徵語やトピックの分析をすることで確認する必要がある. ## 5 おわりに 本研究では, コロナ禍前後のツイートの感情推定を行い,性格タイプ別の分析を行った. 感情分布や感情変動には,ある一定の変化がみられたが,それらの要因まではとらえきれていない.感情分布の変化が大きい性格タイプのユーザの特徵語を分析したところ,コロナ禍後に変化が起こっていることは確認ができたが,現時点では性格との関連性については明らかにできていない,また,感情によって変動パターンのバリエーションが豊富な場合も考えられるため, クラスタ数を感情ごとに最適化する必要がある。今後は,コロナ禍後のデータをより長期的に収集し, 感情分析とトピック分析を併用し, 特徴的なイベント(緊急事態宣言など)の発生と感情および性格タイプとの関係を明らかにしたい. ## 謝辞 本研究は JSPS 科研費 JP20K12027, JP 21K12141, SCAT 研究助成の助成を受けたもので寸. ## 参考文献 [1] 新型コロナがもたらした【新しい生活様式】における消費者のSNS 利用実態調查. 日本語組版の要件(日本語版). echoes: https://service.aainc.co.jp/product/echoes/voices/00 33, 2023-1 閲覧 [2] 鳥海不二夫, 榊剛史, 吉田光男、ソーシャルメディアを用いた新型コロナ禍における感情変化の分析, 人工知能学会論文誌, Vol.35, No. 4, pp. F-K45_1-7, 2020. [3] 福田悟志, 難波英嗣, 庄司裕子. コロナ禍におけるワクチンに対する人々の感情変化とその要因の分析, 知能と情報, Vol.34, No.3, pp. 592-600, 2022. [4] S. Mohammad, et al. SemEval-2018 Task 1: Affect in Tweets. Proceedings of the 12th International Workshop on Semantic Evaluation, pp.1-17, 2018. [5] T. Kajiwara et al. WRIME: A New Dataset for Emotional Intensity Estimation with Subjective and Objective Annotations. Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp.2095-2104, 2021. [6] M. Ptaszynski, et al. ML-Ask: Open Source Affect Analysis Software for Textual Input in Japanese, Journal of Open Research Software, Vol.5, No.1, 16, 2017. [7] 伊藤桃, 榎美紀, 小口正人. ソーシャルメデイアを利用した新型コロナ禍におけるスポッ卜別性格値推移に関する調査. DEIM Forum 2021 I25-2. [8] I. B. Myers and P. B. Myers. Gifts Differing: Understanding Personality Types, Davies-Black Publishing, Mountain View, CA, 1995. [9]日本語感情コーパス Tokushima Univ. A-2 Lab.: https://github.com/Kmatsu-tokudai/emotionCorpusJ apaneseTokushimaA2Lab 2023-1 閲覧. [10] Hagging Face: https://huggingface.co./ 2023-1 閲覧. [11] Simple Transformers: https://simpletransformers.ai/ 2023-1 閲覧. [12] R. Plutchik. The Multifactor-Analytic Theory of Emotion. Psychology Vol. 50, pp. 153-171, 1960. [13] R. Plutchik. The nature of emotions. American Scientist, Vol. 89, Iss. 4; pp. 344-350, 2001. [14] 16Personalities: https://www.16personalities.com/ 2023-1 閲覧. [15] Twitter API Academic Research アクセス: https://developer.twitter.com/ja/products/twitter-api /academic-research 2023-1 閲覧. [16] neologdn: https://github.com/ikegami-yukino/neologdn 2023-1 閲覧. [17] Zachary G. Ives. Technical Perspective: k-Shape: Efficient and Accurate Clustering of Time Series. SIGMOD Record, March 2016, Vol.45, No.1. [18] tslearn: https://tslearn.readthedocs.io/ 2023-1 閲覧.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A10-5.pdf
# 多様な特徵量を考慮した Twitter ユーザの性別推定 廣田遼 白井清昭 北陸先端科学技術大学院大学 先端科学技術専攻科 [email protected] ## 概要 Twitter ユーザの性別を推定する手法を提案する。従来研究の多くはユーザが投稿するツイートを元に性別を分類していたのに対し,本研究は,投稿ツイート,自己紹介文,ユーザ名,プロフィール画像, フォロワーなど,様々な特徴量を考慮する点に特長がある。また,投稿ツイートのテキストと画像を同時に考慮した複数のモデルを提案する.評価実験の結果,提案手法の有効性を確認した。 ## 1 はじめに 本論文は Twitter ユーザの性別を推定する新しい手法を提案する. 従来研究の多くがツイートを対象に性別を推定している一方, Twitterでは, 投稿画像, 自己紹介文, プロフィール画像, フォロワーなど様々な情報が取得できる。本研究では Twitter から得られる多角的な情報を元にユーザの性別をより正確に予測する。また,性別のラベルが付与された Twitter ユーザのデータは作成コストが高いため,ラベル付きデータを自動拡張することで性別推定の正解率を向上させることを狙う。 ## 2 関連研究 Twitter ユーザのプロフィール推定については多くの先行研究がある. Sakaki らは,ユーザが投稿するツイートのテキストと画像のそれぞれについて,それを素性とする分類器を学習し, 最終的に両者のアンサンブルモデルによって性別を予測する手法を提案した [1]. Wang らは, ツイートテキスト,プロフィール画像, 名前, 紹介文を素性とし, ユーザの性別, 年齢, 所属, 組織を予測するモデルを提案した [2]. Liu らは,投稿テキスト,自己紹介文,統計量を素性とし, 機械学習の古典的モデルならびに深層学習モデルによるプロフィール推定の性能を比較した [3]. Morgan-Lopez らは, 誕生日ツイートなどの Twitter 特有の特徴量を利用することで,ユーザの年齢推定の精度を向上させた [4]. 本研究でもツイートのテキストと画像の両方を利用するが,Sakaki らの手法がテキストと画像の分類器を別々に学習しているのに対し, 本研究では両者の素性を同時に入力とする分類器を学習する点に違いがある。また,ツイート以外の情報を利用してプロフィールを推定する先行研究があるが,本研究では Twitterから得られるより多くの情報を同時に考慮するモデルを提案する。 ## 3 提案手法 Twitter ユーザの性別を「男性」「女性」のいずれかに分類する。このため, 使用する素性 (特徵量) が異なる複数の分類器を学習する。 そのうちの 1 つはユーザのツイートを素性とした分類器である (3.1 項). それ以外に Twitter から得られる様々な情報を素性とした分類器を学習する (3.2 項). 最後にこれらの分類器を統合したモデルを学習する (3.3 項). ## 3.1 ツイートによる分類器 ここではユーザによって投稿された複数のツイー トからそのユーザの性別を予測する。特に,ツイー トのテキストと画像の両方を考慮し, これらの組み合せ方によって複数のモデルを提案する. 性別推定は 2 段階で行う。(1) 個々のツイートに対し性別スコアを予測する。性別スコアは,1のときは男性,0のときは女性を表すものとする。(2) ユーザが投稿した複数のツイートの性別スコアからユーザの性別を決定する。以下の 3 通りの方法を採用する。 1. 性別スコアの平均を求め, 0.5 以上のとき男性, それ未満のとき女性と判定する。以下,この方法を Tw-ave と記す. 2. 性別スコアを Softmax 関数を用いて正規化した後, 1.の処理を行う. 以下, Tw-soft と記す. 3. Softmax 関数による正規化の後, 性別クラス毎 に性別スコアが 1 または 0 に近い上位 $10 \%$ のツイート (合計 $20 \%$ ) を選別した後, 1.の処理を行う. 以下, Tw-sel と記す。 以下, ツイートを対象にした個々の分類器の詳細について述べる。 Text only model ツイートのテキストのみを用いて性別を推定する分類器である。具体的には, 訓練データによって fine-tuning した BERT[5]を用いて性別スコアを得る. Image only model ツイートに投稿された画像のみを用いて性別を推定する分類器. 具体的には, Vision Transformer [6] を訓練データによって finetuning し,そのモデルを用いて性別スコアを得る. ただし, 画像が含まれていないツイートは, 学習時には使用せず,テスト時には性別を判定しない。 Early fusion model ツイートのテキストと画像を同時に考慮して性別を判定する.そのアーキテクチャを図 1(a)に示す。テキストはBERT, 画像はVision Transformerによってそれぞれ埋め込みベクトルに変換する。ただし,画像がないツイートに対する画像埋め込みはゼロベクトルとする。次に,これらを連結したべクトルを全結合層 (Full Connected Layer;FCL) に渡して性別スコアを出力する. 学習時の損失関数は Log Loss 関数とする。 Late fusion model Early fusion model と同じくツイー トのテキストと画像を同時に考慮するが,両者の埋め込みを次元圧縮した後で組み合わせる. アーキテクチャを図 1(b) に示す。テキストと画像を埋め込みを BERT と Vision Transformer で得た後,それぞれを別々に全結合層に渡して4 次元のべクトルに圧縮する. 最後にこれらを連結したべクトルを全結合層に渡して性別スコアを出力する。 Dense fusion model Early fusion model $\varepsilon$ Late fusion (a) Early fusion (b) Late fusion (c) Dense fusion図 1 ツイートに対する性別判定モデル model を組み合わせたモデル,そのアーキテクチヤを図1(c) に示す. BERTによって得られるテキストの埋め込みベクトル, Vision Transformerによって得られる画像の埋め込みベクトル, Late fusion model と同様にこれらを次元圧縮した埋め込みベクトルを連結して全結合層に渡し,性別スコアを得る。 Caption model ツイートのテキストと画像を同時に考慮するが,画像からキャプションを生成してから両者を組み合わせる.まず,Clip model [7] を用いて画像の英語のキャプションを生成する. 次に, Google の翻訳 API [8] によって英語のキャプションを日本語に翻訳する。 そして, ツイートのテキストと日本語のキャプションを特殊トークン $\langle$ sep $\rangle$ を挟んで連結し,これを入力テキストとして,BERTを用いて性別スコアを得る. Ensemble model Text only model $と$ Early fusion model を組み合わせたモデル.画像のないツイートは Text only model で, 画像付きのツイートは Early fusion model で性別スコアを得る. ## 3.2 Twitter の情報による分類器 Twitter 統計量による分類器 Liu らの研究 [3] を参考に, 表 1 に示す Twitter から得られる統計情報を素性として分類器を学習する. 学習アルゴリズムとして Light Gradient Boosting Machine(Light GBM)[9] を用いる。 表 1 性別推定に使用する Twitter 統計量 ユーザ名による分類器 Twitter ユーザの名前から性別を予測する,具体的には,ユーザ名の文字の uni-gram, ひらがな表記のユーザ名の文字 bi-gram を素性として性別推定の分類器を学習する. また, 末尾の文字 uni-gram,ひらがな bi-gram に “end_”という特殊記号をつけたものも素性とする。学習アルゴリズムとして Light GBMを用いる. ## プロフィール画像, ヘッダ画像による分類器 Twitter 上のユーザのプロフィールページに表示され るプロフィール画像 (ユーザの顔写真が多い) とへッ 夕゙画像から性別を判定する。プロフィール画像の み, ヘッダ画像のみ,両方を素性とする 3 つの分類 器を学習する. 分類モデルとして Vision Transformer を用いる。 自己紹介文による分類器 Twitter 上のプロフィールページに表示される自己紹介文から性別を予測する。一般に自己紹介は複数の文で書かれるが,本研究では 1 つの文として扱う. 分類モデルとして BERTを用いる。 フォロワーの自己紹介文による分類器あるユーザをフォローしている別のユーザをランダムに 100 名選択し,そのユーザの自己紹介文を元に性別を推定する.自己紹介文を MeCabを用いて形態素解析し,単語を素性, その TF-IDFを値とする素性べクトルを作成する。 さらに, Latest Semantic Indexing (LSI) によってユーザのベクトルを 1000 次元に圧縮する。 これを素性として Light GBMを学習する。 ## 3.3 統合モデル これまで述べてきた分類器を統合した性別判定モデルを学習する. 3.1 項で述べたツイートを用いる分類器と, 3.2 項で述べた全ての分類器を組み合わせる.各分類器が出力する性別スコアを素性とし, Light GBM を用いて最終的な分類器を得る. ## 3.4 訓練データの自動拡張 まず,初期の訓練データから性別の分類器を学習する.次に,ラベルのない大量の Twitter ユーザのデータを用意し,学習した分類器を用いて各ユーザの性別を判定し,ラベルを付与する。この際,判定の信頼度の大きい (性別スコアが 0 または 1 に近い)上位 3000 件のユーザのみにラベルを付与する. ## 4 評価実験 ## 4.1 実験データ 評価実験のために以下のデータを構築した。 初期データ主に著名人の Twitterアカウントを対象にラベル付きデー夕を構築する。まず,Twitter 日本フォロワー数総合ランキング [10] から上位 2 万件のアカウントを収集する。それぞれのアカウントから, Twitter API を用いて分類器の学習に必要な情報を獲得する、ツイートについては, リツイートを除く最新の投稿を 100 件獲得する。 次に,それぞれのユーザの性別を Twitter 以外の情報を参照して自動的に判定する,具体的には,各ユーザ (著名人) の Wikipedia のエントリを参照し,表 2 ツイートによる分類器を用いた性別推定の正解率 そのプロフィール画像を得る。そして,オンライン顔認識プラットフォーム Face++[11]を用いてユー ザの性別を判定し,それをラベルとして付与する。 Wikipedia のエントリがないとき, Goolge 画像検索を用いて上位 5 件の画像を取得し,それぞれの画像の性別を Face++を用いて判定し,その多数決によって性別のラベル付けを行う。 上記の処理によって 5000 人のユーザのラベル付きデータを獲得した。実験では,これを 8:1:1の割合で訓練, 開発, テストデータに分割して使用した。 ラベルなしデータ訓練データの自動拡張のため,性別のラベルが付与されていないユーザの集合を得る。まず,前述のフォロワー数ランキングの順位 2 万から 3 万のユーザを選ぶ. 次に, Twitter API によって分類器の学習に必要な情報 (ツイートについては初期データと同じく最新の 100 件のツイート) の取得を試み,これに成功した 6,845 名のユーザをラベルなしデータとした。 評価データ著名人ではない一般ユーザを対象に人手で性別のラベルを付与し, 評価データを構築する. 初期データの著名人ユーザをフォローしているユーザのうち,フォロワー数が 1,000 人以下 ${ }^{11}$ のユーザを選別する.3名の被験者に,Twitter ユーザの最新の 20 件のツイートやプロフィール画面を参照し,「男性」「女性」「不明」のいずれかを付与することを依頼する.2名以上の被験者が「男性」または「女性」のラベルを付与した 459 名のユーザを選別し, 評価デー夕とした。 ## 4.2 実験結果 ## 4.2.1 ツイートによる分類器の評価 3.1 項で述べたツイートのテキストと画像を元に性別を予測する分類器を評価する.実験結果を表 2  表 3 個々の分類器ならびに統合モデルの評価デー夕に対する性別推定の正解率 Tw-ave, Tw-soft, Tw-sel はツイートに基づく分類器のうち表 2 の初期データの正解率が最も高い Ensemble model である。その他の分類器の略号は次の通り。統計:Twitter の統計量, 画像-P: プロフィール画像, 画像-H: ヘッダ画像,画像-PH: プロフィール\&ヘッダ画像,自己: 自己紹介文,フォ自己: フォロワーの自己紹介文 に示す. ave, soft, sel は, 3.1 項の冒頭で述べた個々のツイートの性別スコアを元にユーザの性別を予測する方式の違いを表す。 初期データでは, Text only モデルの正解率が,テキストと画像の両方の情報を用いる Early fusion, Late fusion, Dense fusion の各モデルよりも高い. ただし,画像を含むツイートについては,テキスト・画像を同時に考慮するモデルの精度が高いことが確認された。結果として, Text only model と Early fusion model を組み合わせた Ensemble model の正解率が最も高かった。なお, ave, soft, sel の優劣はモデルによって異なり,どの手法が最適であるかを結論付けることはできなかつた. 一方,評価データでは, Image only model は Text only model よりも正解率が高く, Caption model 以外のテキストと画像を同時に使用するモデルよりも高い. 著名人ではない一般ユーザの場合,男女によって投稿する画像に顕著な違いがあり,テキストよりも画像の方が性別判定の有力な手がかりになっていると考えられる。例外は Caption モデルで,比較した分類器の中では最高の成績を収めている. ## 4.2.2 Twitter の情報による分類器の評価 3.2, 3.3 項で述べた分類器によって評価デー夕の性別を判定したときの正解率を表 3 に示す。初期データのみ,初期データとそれぞれの分類器によって自動拡張したデー夕を使う場合 (表 3 の「拡張」),初期データおよび正解率の一番高い統合モデルによって推定した性別ラベルを付与して自動拡張したデータを使う場合 (表 3 の「拡張 (統合)」)を比較した. 最後の実験条件は,正解率の高い統合モデルを用いることで, 質の高い自動拡張データを獲得したときの効果を確認するためのものである。なお,統合モデルは「拡張」と「拡張 (統合)」の実験条件とで同じモデルが得られる。 初期データを訓練データとしたとき,統合モデルの正解率は 0.851 であり, 個々の分類器よりも高 い.ツイートのテキストや画像だけでなく,Twitter から得られる様々な情報を考慮することが性別推定の正解率の向上に寄与することが確認できる. 個々の分類器では, プロフィール画像を用いた分類器の正解率が最も高い. プロフィール画像として本人の写真が使われている場合, 性別推定の有力な情報となる。また,ユーザ名を用いた分類器も正解率が高く, 名前に性差が強く現われていることがわかる. 拡張デー夕を使用することで,個々の分類器では正解率が向上したものもあるが,統合モデルの正解率は向上しなかった. 特に正解率の高かったプロフィール画像を用いた分類器の性能が大きく低下していることから,統合モデルの正解率が 0.045 ポイント下がった。プロフィール画像やへッダ画像を用いた分類器は, 正解率は高いが,性別のスコアが 0.5 付近の場合が多く,性別推定の信頼度は低いことが確認された。自動拡張によって信頼度が低い事例が多く追加されていることが,プロフィール・ヘッダ画像を用いた分類器の正解率が低下した原因と言える。自動拡張データを得る手法として,それぞれのモデルよりも統合モデルの判定結果に基づいてラベルを決めた方が全体的には正解率が高い。このことは,自動拡張データの品質が向上すれば,訓練デー 夕の増加が有効である可能性を示唆する.今回の実験では,個々の分類器で追加する事例数を同じにするために,判定の信頼度の上位 3000 件のデー夕を追加したが,ある閾値以上の信頼度の事例のみ追加するなど,自動拡張するデー夕の性別ラベルの誤りを減らす工夫が必要である。 ## 5 おわりに 本論文では,Twitter ユーザの性別を予測するための新しい手法を提案した。評価実験では,統合モデルの有効性は確認できたが,自動ラベル付けによる訓練データの拡張は効果がなかつた。今後の課題として,拡張データの品質を高めるための手法を考案することが挙げられる。 ## 参考文献 [1] Shigeyuki Sakaki, Yasuhide Miura, Xiaojun Ma, Keigo Hattori, and Tomoko Ohkuma. Twitter user gender inference using combined analysis of text and image processing. In Proceedings of the 25th International Conference on Computational Linguistics, pp. 54-61, 2014. [2] Zijian Wang, Scott A. Hale, David Adelani, Przemyslaw A. Grabowics, Timo Hartmann, Fabian Flöck, and Dacid Jurgens. Demographic inference and representative population estimates from multilingual social media data. In Proceedings of the World Wide Web Conference, pp. 2056-2067, 2019. [3] Yaguang Liu, Lisa Singh, and Zeina Mneimneh. A comparative analysis of classic and deep learning models for inferring gender and age of Twitter users. In Proceedings of the 2nd International Conference on Deep Learning Theory and Applications, pp. 48-58, 2021. [4] Antonio A. Morgan-Lopez, Annice E. Kim, Robert F. Chew, and Paul Ruddle. Predicting age groups of Twitter users based on language and metadata features. PLOS ONE, Vol. 12, No. 8, p. e0183537, 2017. [5] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 4171-4186, 2019. [6] Dosovitskiy Alexey, Beyer Lucas, Kolesnikov Alexander, Weissenborn Dirk, Zhai Xiaohua, Unterthiner Thomas, Dehghani Mostafa, Minderer Matthias, Heigold Georg, Gelly Sylvain, Uszkoreit Jakob, and Houlsby Neil. An image is worth 16x16 words: Transformers for image recognition at scale. International Conference on Learning Representations, 2021. [7] Alec Radford, Jong Wook Kim, Chris Hallacy, Aditya Ramesh, Gabriel Goh, Sandhini Agarwal, Girish Sastry, Amanda Askell, Pamela Mishkin, Jack Clark, Gretchen Krueger, and Ilya Sutskever. Learning transferable visual models from natural language supervision. In Proceedings of the 38th International Conference on Machine Learning, pp. 8748-8763, 2021. [8] Googletrans, (2023-1 閲覧). https://pypi.org/ project/googletrans/. [9] Guolin Ke, Qi Meng, Thomas Finley, Taifeng Wang, Wei Chen, Weidong Ma, Qiwei Ye, and Tie-Yan Liu. LightGBM: A highly efficient gradient boosting decision tree. Advances in Neural Information Processing Systems, Vol. 30, , 2017. [10] Twitter 日本フォロワー数総合ランキング, (2022-1 閲覧). https://meyou.jp/ranking/follower_allcat. [11] Face++, (2023-1 閲覧). https://www. faceplusplus. $\mathrm{com} /$.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A11-1.pdf
# 複数文書の読解を要する質問の自動生成と 質問応答システムへの応用 小林俊介 河原大輔 早稲田大学理工学術院 \{carlike787@toki., dkw@\}waseda.jp ## 概要 オープンドメイン質問応答タスクは質問に対する文書の検索と読解で構成され、そのデータセットには、複数の文書を読解しなければ解答できない質問が多く存在する。本研究では、テキスト生成モデルをべースとした質問応答モデルである Fusion-in-Decoder [1] を用いて、複数文書の読解を要する質問を自動生成する。生成された質問を、オー プンドメイン質問応答システムに応用した結果、正答率が約 $2 \%$ 向上し、質問生成の有効性が示された。 ## 1 はじめに 自然言語処理における機械学習の利用においては、学習データの量が重要であり、多量かつ高品質なデータセットの取得が課題の 1 つになっている。 データセットを作成する手法としてアノテーションが使われる。しかし、アノテーションを人手で行うとコストが高くなってしまうため、データ作成・拡張を自動で行う手法が用いられることもある。 本研究ではデータ拡張をオープンドメイン質問応答タスクに応用する。オープンドメイン質問応答タスクは質問に対する文書の検索と読解で構成され、 そのデータセットには、複数の文書を読解しなければ解答できない質問が多く存在する。本研究では、 テキスト生成モデルをべースとした質問応答モデルである Fusion-in-Decoder [1] ${ }^{1}$ (FiD) を用いて質問を自動生成する手法を提案する。提案手法の FiD は解答と複数の文書を入力とし、与えられた解答に対応する質問を生成する。FiD は元来、複数の文書を考慮した出力の生成が可能であり、生成される質問は複数の文書を参照しなければ解答できないものになることが期待される。 一方で、生成された質問は矛盾や不自然な表現を 1) https://github.com/facebookresearch/FiD含む場合や、異なる解答を持つ場合があり、そのまま追加データとするには不適切な場合がある。このため、元の質問と表現が異なり、かつ解答が同一である質問を選別するため、生成された質問と元の質問との類似度を用いたフィルタリングを行う。 選別された質問をデータセットに追加して質問応答システムの学習を行った結果、データ拡張を行わずに学習を行った場合と比べて、正答率が最大で 2\%改善し、自動生成された質問が学習に貢献することが示された。また、1つの文書のみで生成した質問を加えた場合、複数文書で生成した質問で学習した場合よりも正答率が悪化し、複数文書で生成を行う提案手法が有効であることが示された。また、 フィルタリングを行うと、正答率が最大で $0.6 \%$ 向上し、フィルタリングも効果があることが示された。 ## 2 関連研究 英語における質問応答タスク用のデータセットでは、関連文書を与えて質問に答える形式のものが多く、SQuAD [2]、TriviaQA [3]、Natural Questions [4] などがある。日本語における質問応答タスク用のデータセットには、SQuAD の形式を踏襲した運転ドメイン QA データセット [5] や、JGLUE [6] に含まれているJSQuAD、クイズ形式の質問文で、日本語 Wikipediaを関連文書とする JAQKET [7] などがある。SQuAD と TriviaQA では訓練用の質問が 100,000 件前後、Natural Questions では 300,000 件以上用意されている。一方で運転ドメイン $\mathrm{QA}$ データセットは 34,000 件強、JSQuAD は訓練用データで 64,000 件弱、JAQKET では評価用を合わせても 24,000 件前後と、英語データセットに対して一桁少ない。 自然言語処理の各タスクで大きな精度向上を達成したモデルが、Transformer に基づく汎用言語モデルである。その中でもテキストを生成できるモデルとして T5 [8] がある。 図 $1 \quad N=3$ における質問生成の流れ Izacard ら [1] は T5をべースとした質問応答のモデルとして、複数の文書を入力に用いることができる FiDを提案した。このモデルでは入力される文書ごとに、質問文と結合してエンコードが行われ、得られた埋め込みべクトルは一括してデコーダに入力される。これにより、解答生成の際に複数の文書から情報を得られるという特徴があり、より精度の高い解答を生成できる。 質問の生成については、Du ら [9] が DNNによる質問生成を行い、精度を改善させたことから、特にテキスト生成が可能な言語モデルによる質問生成が行われてきた。Murakhovs'ka ら [10] は、1つの比較的長い文書を入力とし、異なる解答を持つ複数の質問を生成できる MixQG を提案している。既存モデルから $10 \%$ 以上の精度向上を達成しているが、入力が 1 文書であり、複数の文書を参照した質問にはなっていない。日本語においても、折原ら [11]により、日本語 $\mathrm{T} 5$ モデルを用いて、ニュース記事からクイズを生成する試みが行われた。既存のクイズサービスに掲載されている質問を例に、生成されたクイズが単に正答を問うだけではなく、面白みのあるクイズになっているかについて考察している。しかし、ここでも入力する記事は 1 つだけであり、また使用された訓練データ数も 220 件と少ない。 ## 3 複数文書による質問生成 ## 3.1 質問の生成とフィルタリング 本研究の目標は、複数の文書を読解しないと解答することができない質問の生成である。この要素を満たす FiDを本研究での質問生成で用いるモデルとする。提案するモデルは FiD と同一の構造であり、入出力の形式が異なるのみである。通常、FiD の入力は、質問文と、読解すべき文書のタイトルおよび内容を大力するが、本研究では、質問文の代わりに解答と、解答を含む関連文書 $N$ 個を入力する。 $N=3$ の場合の質問生成の流れを図 1 に示す。 ただし生成された質問は、そのままでは矛盾や不自然な表現を含む場合や、異なる解答を持つ場合があり、そのまま追加データとするには不適切な場合がある。そこで、元の質問と表現が異なり、かつ解答が同一である質問を選別するために、フィルタリングを行う。フィルタリングは元の質問と生成された質問の類似性を測定することで実現し、その指標として BERTScore [12] と BLEU [13] を用いる。 いずれも 2 つの文の類似度を測定する指標であるが、BLEU が N-gram 単位の表層的な類似度を測定するのに対し、BERTScore は BERT の出力する埋め込みべクトルに基づく意味的な類似度を測定する。 よって、同じ解答で異なる表現の質問を得るには、 BERTScore が高く、かつ BLEU のスコアが低い質問が適している。加えて、元の質問は事実に基づいたことが書かれているため、生成される質問に矛盾等が生じていれば、BERTScore の值は低くなると考えられる。以下の例 (1) はそのような質問のペアである。解答は「夜明け前」であり、元の質問 $\mathrm{a}$ のように書き出しは「木曽路はすべて山の中である」であるが、生成された質問 b は異なる書き出しになっており、矛盾が生じている。 (1) a.「木曽路はすべて山の中である」という一文で始まる、島崎藤村の小説は何でしょう? b.「だから、私はその家を飛び出した」という書き出しで始まる、島崎藤村の小説は何でしょう? ## 3.2 実験 ## 3.2.1 実験設定 2020 年から質問応答タスクのコンペティション 「AI王」のデータセットとして JAQKET データセットが利用されている。本研究では、同コンペティションの第 2 回大会 ${ }^{2}$ で提供されている、JAQKET をべースとしたクイズ形式のデータセット、および 2) https://sites.google.com/view/project-aio/ competition2 日本語 Wikipedia 記事の文書集合3)を用いた実験を行う。各質問には前処理として、Elasticsearch ${ }^{4}$ を用いた、各質問の解答を含む関連文書5)の抽出が行われている。このデータをもとに、FiD の学習で必要とされる質問、解答、関連文書の組を抽出した。 FiD で用いる日本語 T5 モデルは、Hugging Face Transformers ライブラリに存在するものを用いた6)。学習で設定したハイパーパラメータを付録 A に示す。質問生成で使用する文書数は、関連文書のうち 3 つ、および、1つのみとする 2 パターンとした。生成においては各入力に対し、beam searchにより生起確率の高い出力 7 つを取得した。 モデルの評価では、評価用データセットを用いて、各入力に対して質問の生成を行い、人手による評価を行った。自動生成そのものの結果を評価するため、フィルタリング前に無作為に抽出した 50 問を評価対象とし、評価の観点は矛盾や文法ミスがないなど、質問に自然さがあるかどうかと、複数文書の読解を要するか否かの 2 つとした。 ## 3.2 .2 実験結果と議論 質問の生成以上の設定の下で、質問生成に対応した FiDのファインチューニングを行った。評価結果を表 1 に示す。以下に、 3 つの関連文書を用いて生成された質問の例を示す。 (2) 1971 年に独立するまでは「東パキスタン」と呼ばれていた、首都をダッカに置く国はどこでしょう? (3)『斜陽』『人間失格』『堕落論』などの作品を残した、昭和を代表する作家は誰でしょう? (4) 花見大根、桜島大根といえばどんな野菜の品種でしょう? 例 (2) は、質問文に矛盾や文法的誤りがなく、適切な生成が行われた例である。一方、例 (3) は「太宰 3) https://github.com/cl-tohoku/AI02_DPR_baseline/blob/ master/scripts/download_data.shに記載のスクリプトでダウンロードできる。 4) https://www.elastic.co/jp/ 5)関連文書は日本語 Wikipedia 記事をパッセージの集合に分割したものである。 6) https://huggingface.co./megagonlabs/ t5-base-japanese-web治」を解答とする質問であるが、「郢落論」は坂口安吾の作品であり、事実に矛盾する例となっている。 また、例 (4) は矛盾こそないものの、質問文中で解答の「大根」に言及してしまっているため、質問として全く意味を成していない。FiD がベースとする T5 の出力生成では、出力文全体の意味を考慮したデコードが難しいため、このような不適切な質問が生成されると考えられる。 次に、複数文書の読解を要する質問について、3 つの関連文書を用いて生成した例を (5) に示す。(6) は参照の必要がある文書の抜粋である。 (5)「眠り猫」の銅像が有名な、徳川家康を祀った神社は何でしょう? (6) a. 眠り猫 (ねむりねこ) は、栃木県日光市の日光東照宮の回廊にある建築装飾彫刻作品。 b. 日光東照宮 (にっこうとうしょうぐう) は、日本の関東地方北部、栃木県日光市に所在する神社。江戸幕府初代将軍・徳川家康を神格化した東照大権現 (とうしょうだいごんげん)を主祭神として祀る。 複数の文書の読解を要する質問は多く生成できなかったが、この原因として、訓練で利用した質問の多くが単一の文書の読解のみで解答できてしまうことが考えられる。オリジナルの質問を 50 問サンプリングして検証した結果、22 問が単一文書の読解で解答可能であり、これらのデータによる学習が複数の文書を参照することを妨げていると推測される。 また、関連文書 1 つのみを用いて生成した質問には、複数文書を読解しないと解答できない質問は存在しなかった。 質問のフィルタリング次に、フィルタリングの効果を検証するため、BERTScore と BLEU ${ }^{7)}$ を計算し、3 文書で生成された自然な質問の割合がどのように変化するか調査した。その結果を表 2 に示す。 なお、1 行目にはフィルタリングがない場合の結果を示す。表 2 から、自然な質問を多く残せていることが分かる。ただ、不自然な質問も多く残り、全体に占める自然な質問の割合は $40 \%$ 程度にとどまった。フィルタリングによる質問除去は一定の効果があるものの、改善の余地も十分にあるといえる。  表 2 フィルタリング前後の質問の内訳と、自然な質問の割合 (BS は BERTScoreを表す) ## 4 質問応答システムへの応用 ## 4.1 質問応答システムの学習 生成された質問を、質問応答システムの学習に応用する。まず、訓練用データセットの質問および、 その各質問から生成された質問に対し、質問応答システム用の訓練データの選抜を行った。具体的には、AI 王で提供されている DPR [14] のベースライン8)を用いて、日本語 Wikipedia の記事から文書 100 個を抽出し、その中に解答が含まれないデータは訓練データから外した。 また、生成された質問と、生成元の質問を用いて、BERTScore と BLEUによる類似度計算9)を行った。 3 節に従い、BERTScore を用いる選別では、一定のしきい値以上の質問を、BLEUを用いる選別では、一定のしきい值以下の質問を採用した。そして、元の訓練用データセットに、これらのしきい值双方を満たすよように選別された生成質問群を追加した。この際、追加する質問は生起確率の高い質問 3つまでに制限した上で追加を行い、システムの学習を行った。また、予備実験において、無制限に質問を追加しても精度の向上が見られなかったため、追加するデータ量は各実験設定で 6,000 問とした。 評価においては、評価用データセットで DPRによる関連文書 100 件の抽出を行い、解答が存在する文書を抽出できた質問を入力し、解答を生成した。 そのうえで、データに存在する想定解答と、生成された解答が完全一致しているかを基準とする Exact Match (EM) による評価を行った。この実験を各しきい値の組み合わせごとに、異なるシード値を用いて 5 回実施し、EMによる正答率の平均を算出した。 8) https://github.com/cl-tohoku/AI02_DPR_baseline 9) BERTScore は 0 から 1 まで、BLEUは 0 から 100 までの値をとる。いずれも類似度が高いときに大きい値になるが、全く関連のない文同士では BERTScore は 0.6 程度になる。表 3 各実験設定の詳細と評価データセットでの EM 正答率。文書数は生成時に用いた文書数を示す。 ## 4.2 結果 表 3 に、元のデータを使用した場合と、生成されたデータを様々なしきい値によって選別した際の、 EM 正答率を示す 10 )。 生成された質問をシステムの学習に用いたことで、精度は最大で約 $2 \%$ 向上し、提案手法によって生成された質問が学習に貢献していることが確認された。生成時の文書数が 1 つだけの質問を追加した場合と比較すると、同じしきい值で 3 文書を使用したケースが最大 $1.7 \%$ 前後正答率で上回った。この結果から、複数の文書の読解を要する質問を生成することの有効性が確認できた。3つの文書を用いて生成した質問を利用した実験において、類似度による選別を行わない場合と行う場合を比較すると、選別を行った場合は $0.3 \%$ から $0.6 \%$ の正答率向上が確認でき、フィルタリングに一定の効果があることが示された。 ## 5 おわりに 本研究では、FiDを用いて、複数文書の読解を要する質問データの生成を試みた。質問生成の結果、同じ解答を違う表現を用いて導くような質問が生成できた。また、質問応答タスクのデータとして追加した結果、正答率が最大 $2 \%$ 向上した。加えて単一文書だけの読解で解答できる質問は、精度の改善幅が小さく、生成データの有用性が確認できた。今後の研究では、BERTScore や BLEU のフィルタリングで対応しきれない、意味は全く違うが求められる解答が同じ質問を自動で生成する方法を追求したい。  ## 謝辞 本研究はキオクシア株式会社の委託研究において実施した。 ## 参考文献 [1] Gautier Izacard and Edouard Grave. Leveraging passage retrieval with generative models for open domain question answering. In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics: Main Volume, pp. 874880, Online, April 2021. Association for Computational Linguistics. [2] Pranav Rajpurkar, Jian Zhang, Konstantin Lopyrev, and Percy Liang. SQuAD: 100,000+ questions for machine comprehension of text. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 2383-2392, Austin, Texas, November 2016. Association for Computational Linguistics. [3] Mandar Joshi, Eunsol Choi, Daniel Weld, and Luke Zettlemoyer. TriviaQA: A large scale distantly supervised challenge dataset for reading comprehension. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1601-1611, Vancouver, Canada, July 2017. Association for Computational Linguistics. [4] Tom Kwiatkowski, Jennimaria Palomaki, Olivia Redfield, Michael Collins, Ankur Parikh, Chris Alberti, Danielle Epstein, Illia Polosukhin, Jacob Devlin, Kenton Lee, Kristina Toutanova, Llion Jones, Matthew Kelcey, MingWei Chang, Andrew M. Dai, Jakob Uszkoreit, Quoc Le, and Slav Petrov. Natural questions: A benchmark for question answering research. Transactions of the Association for Computational Linguistics, Vol. 7, pp. 452-466, March 2019. [5] Norio Takahashi, Tomohide Shibata, Daisuke Kawahara, and Sadao Kurohashi. Machine comprehension improves domain-specific Japanese predicate-argument structure analysis. In Proceedings of the 2nd Workshop on Machine Reading for Question Answering, pp. 98-104, Hong Kong, China, November 2019. Association for Computational Linguistics. [6] Kentaro Kurihara, Daisuke Kawahara, and Tomohide Shibata. JGLUE: Japanese general language understanding evaluation. In Proceedings of the Thirteenth Language Resources and Evaluation Conference, pp. 2957-2966, Marseille, France, June 2022. European Language Resources Association. [7] 鈴木正敏, 鈴木潤, 松田耕史, 西田京介, 井之上直也. JAQKET: クイズを題材にした日本語 QA データセッ卜の構築. 言語処理学会第 26 回年次大会 (NLP2020)発表論文集, pp. 237-240, Online, March 2020. 言語処理学会. [8] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei $\mathrm{Li}$, and Peter J. Liu. Exploring the limits of transfer learning with a unified text-to-text transformer. Journal of Ma- chine Learning Research, Vol. 21, No. 140, pp. 1-67, 2020. [9] Xinya Du, Junru Shao, and Claire Cardie. Learning to ask: Neural question generation for reading comprehension. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1342-1352, Vancouver, Canada, July 2017. Association for Computational Linguistics. [10] Lidiya Murakhovs'ka, Chien-Sheng Wu, Philippe Laban, Tong Niu, Wenhao Liu, and Caiming Xiong. MixQG: Neural question generation with mixed answer types. In Findings of the Association for Computational Linguistics: NAACL 2022, pp. 1486-1497, Seattle, United States, July 2022. Association for Computational Linguistics. [11] 折原良平, 鶴崎修功, 森岡靖太, 島田克行, 狭間智恵,市川尚志. クイズビジネスにおける作問作業支援.言語処理学会第 28 回年次大会 (NLP2022) 発表論文集, pp. 1401-1405, Online, March 2022. 言語処理学会. [12] Tianyi Zhang*, Varsha Kishore*, Felix Wu*, Kilian Q. Weinberger, and Yoav Artzi. Bertscore: Evaluating text generation with bert. In International Conference on Learning Representations, 2020. [13] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics. [14] Vladimir Karpukhin, Barlas Oguz, Sewon Min, Patrick Lewis, Ledell Wu, Sergey Edunov, Danqi Chen, and Wentau Yih. Dense passage retrieval for open-domain question answering. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 6769-6781, Online, November 2020. Association for Computational Linguistics. ## A 学習時のハイパーパラメータ 表 4 に、FiD の学習で用いたハイパーパラメータを示す。
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A11-2.pdf
# T5を用いた日本語の複雑な質問文に対する質問分解 小原 涼馬 ${ }^{1}$ 秋元 康佑 ${ }^{2}$ 1 北海道大学 ${ }^{2} \mathrm{NEC}$ データサイエンス研究所 [email protected] [email protected] ## 概要 質問応答システムで多段階の推論や数値演算などが必要な複雑な質問文を扱う1つの方法として、質問文を簡単な質問に分解する方法がある。本研究では深層学習による大規模言語モデルである T5を用いて異なる設定で英語の訓練データを用いて日本語の質問分解を行う実験を行う。その結果多言語 T5 を用いるより、機械翻訳を組み合わせ単言語で学習を行う方がより適切な分解が行われることを確認した。 ## 1 はじめに 質問応答 (QA) は自然言語処理の重要なタスクの 1 つである $[1]$ 。質問応答で一般的な問題設定である機械読解タスクのデータセットの 1 つに SQuAD[2] がある。しかし、SQuAD はモデルが与えられた文章を参照することで答えが得られる単純なファクトイド質問が多い。そのような単純な問題設定をより発展させた複雑な質問のデータセットとして HotpotQA[3] や DROP[4] などがある。HotpotQA は多段階の推論を必要とするマルチホップ質問 (multi-hop question) により構成されており、DROP は数値演算などを含む複雑な質問により構成されている。複雑な推論を必要とする質問を解くために、従来のエンドツーエンドの手法に加え、複雑な質問を複数の簡単な質問に分解するアプローチが提案されている $[5]$ 。エンドツーエンドの手法は内部がブラックボックスであり、解釈可能性が低いことや、質問分解によるアプローチは分解後の単純な質問(単なる計算や比較を含む)を処理するために既存の質問応答モデルやルールベー スのシステムを利用できる利点がある。これらを踏まえ、本研究では質問分解によるアプローチに注目する。 BREAK[6] では複雑な質問を読解するために質問分解のための意味表現として QDMR(Question Decomposition Meaning Representation) が提案された。BREAK では QDMR を用いることで複雑な質問に対する質問応答の精度が向上することが示された。また、Guo ら [7] は BREAK のデータセットに対して T5[8]を用いて学習することで質問文から分解質問を出力することが可能であることを示した。また、モデルが出力した分解質問を用いて質問応答器を学習することで質問応答の精度が向上することを示した。 日本語での質問応答システムは研究されているが、日本語での質問分解のためのデータセットは存在していない。そこで、英語データセットである BREAKを用いて日本語での質問分解を行うことが考えられる。その時、多言語で学習する方法や機械翻訳を用いる方法で英語データと同じように質問分解ができるかまだ明らかでない。 そこで DeepL*1による翻訳を用いて単言語で T5 を学習する手法を 2 手法と多言語 $T 5$ を用いる手法を実施し、その性能を評価した。人手評価の結果、単言語の学習の手法で 60 パーセントの精度で一定の基準以上の分解ができることを示した。 ^{* 1}$ https://www.deepl.com } ## 2 関連研究 ## 2.1 BREAK データセット BREAK[6] は複雑な問題に対してその分解を与えるデータセットである。BREAK では複雑な問題の読解のために QDMR(Question Decomposition Meaning Representation)を提案している。 QDMR は質問に答えるために必要な分解のリストを構成する。例えば表 1 のような分解が与えられる。 BREAK の問題は HotpotQA や DROP を含む 10 個の QA データセットから構成されている。 QDMR を得るためにクラウドソーシングを用いてアノテーションを行った。 \\ ## 2.2 T5 T5 (Text-To-Text Transfer Transformer) [9] は、 Google が 2020 年にリリースした大規模な自然言語生成モデルである。T5 は Transformer のアーキテクチャを使用した text-to-text モデルであり、文書要約や翻訳、質問応答、テキスト分類など、様々なタスクで高い精度を発揮することで知られている。 また、Google Researchによる mT5(multilingualT5)[8] は 101 の言語に対応し、その 101 言語で事前学習されたモデルも公開されている。 ## 2.3 T5 による質問分解 Guo ら [7] は BREAK データセットに対して T5 を用いて学習することで質問分解が可能であるこ とを示した。教師データの入力として質問文、出力として" $<$ subQ $>Q_{1}<$ subQ $>Q_{2}<$ subQ $>\ldots Q_{s} "$ を与える。ただし $Q_{1}, Q_{2} \ldots Q_{s}$ は分解後の質問であり、 $<$ subQ >は特殊トークンである。評価として内省的評価と外省的評価を行っている。内省的評価では、BLEU[10] や ROUGE[11] を用いている。外省的評価では分解した質問を用いて質問応答パイプラインを構築し、その性能を評価している。結果としてべースラインを $\mathrm{F} 1$ 值で 7.2 上回ることを示した。一方で質問分解の構造を考慮した評価は行われていない。 ## 3 手法 ## 3.1 問題設定 本研究は日本語質問文を入力として、その分解質問を日本語で出力することを目的とする。 ## 3.2 提案手法 本研究では以下の 3 つの手法を提案する。 - 手法 1: 日本語 $\mathrm{T} 5$ を用いる。翻訳による日本語データを用いて学習を行う。 - 手法 2: 多言語 T5を用いる。英語データを用いて学習を行う。*2 - 手法 $3: \mathrm{T} 5$ を用いる。学習は英語データを用いて学習を行う。推論時は日本語の入力質問を英語に翻訳して入力を行い、出力された結果を日本語に翻訳する。*3 モデルに対する入力は質問文、出力は分解質問をセミコロンで連結した文字列 " $Q_{1} ; Q_{2} ; \ldots ; Q_{s}$ " である。*4推論時はモデルの出力をセミコロンで分割したものを分解質問とする。 $ のような多言語モデルに対して英語データのみで下流タスクの学習を行うことで、教師データの無い他言語に転移させることが可能であることが示されている。[8] *3 オリジナルの英語データが学習ができることや、将来的より大規模で高性能なモデルが利用できる可能性がある利点がある。 }^{* 4}$ 分解質問の区切りは他の記号を利用することも考えられるが、本研究では BREAK のデータと同じセミコロンを用いる。 ## 4 実験 ## 4.1 実験設定 本実験では、データセットとして Hugging Face*5 で提供されている BREAK データセット*6のうち、"QDMR-high-level"のサブセットのデータを用いた。また、そのうち"Reading Comprehension" のタスクである"CWQ", "DROP", "HOTPOT" の 3 種類のデータセットに由来するデータを用いた。BREAK が提供するテストデータは正解が与えられていないため、本実験では訓練データより 3,097 件をテストデータとして利用する。よって訓練データ 14,406 件、開発データ 3,130 件、テストデータ 3,097 件を用いて実験を行う。 日本語での質問分解を行うために BREAK デー タセットを DeepL を用いて翻訳した。またこの時、翻訳の精度を上げるため、翻訳前のデータに対して文頭の" return"を全て"please answer"に、"\#<数字>"を”XXX <数字>”に置き換えてから翻訳を行なった。 $\mathrm{T} 5$ のモデルは手法 1 では t5-base-japanese-web*7、手法 2 では mt5-base*8、手法 3 では t5-base*9を使用した。学習時のパラメータは学習率 0.0001 、バッチサイズ 16、エポック数 20 として開発データで最も性能の高いモデルを選択した。最も性能の高いモデルを選択する際は、metric として BERTScore[12]*10 を用いた。 ## 4.2 評価指標 予測結果の評価は文の類似度による評価と、分解質問の構造による評価を行なった。文の類似度による評価は BLEU[10]、ROUGE[11]、METEOR[13]、 ^{* 7}$ https://huggingface.co./megagonlabs/t5-basejapanese-web *8 https://huggingface.co./google/mt5-base ${ }^{* 9}$ https://huggingface.co./t5-base *10 モデルは英語学習時は roberta-large 日本語学習時は bert-base-multilingual-cased を用いた。 } BERTScore[12] を用いた。 さらに本研究では分解質問 $Q_{1}, \ldots, Q_{n}$ 中の参照構造を、各ノード $i$ が分解質問 $Q_{i}$ に対応し、 $Q_{i}$ 中に別の分解質問 $Q_{j}$ に対する解答への参照が存在する場合に $i \rightarrow j$ のエッジを持つような有向グラフで表現する。そして生成された分解質問の有向グラフが正解のものと同型かどうかを二值で判定する評価指標を提案し、これを以後 isomorphic と呼ぶ。 ## 4.3 実験結果 実験結果を表 3 に示す。ただしベースライン (baseline) は質問文をそのまま出力する手法である。多くの指標について、手法 1 が最も良い性能を示し、手法 3 も同等の性能を示した。一方で手法 2 は性能が大きく劣っていた。 表 2 質問分解の実験結果。太字は各行で最もスコアの高いものを示す。 ## 4.4 分析 4.3 節で示したように手法 2 の性能は他の手法と比べて大きく劣っていた。そこで手法 2 の出力を人手で確認したところ、出力中に英語と日本語が混在していたり、"return ..."などの英語データのフォー マットがそのまま出力されているなど、言語間の汎化が十分に起こっていないことがわかった。*11 ## 5 人手評価 ## 5.1 評価方法 4.2 の評価指標では、各分解質問文の妥当性や分解の構造が適切かの評価ができない。また、正解  データは翻訳データであるため、正解データが必ず適切であるとは限らない。そこで以下の基準に基づいて人手評価を行なった。 項目 1: 問題文で何を聞いているかわかるか 0: 何を聞いているかわかる 1: 少し不自然だが、何を聞いているかわかる 2: 質問文をなしていない・意味不明 項目 2: 分解により正しい答えが得られるか 0 : 得られる 1: 分解質問は何を聞いているがわかるが、解釈次第で最終的な答えが得られる (解釈次第では得られないこともある) 2: 分解質問は何を聞いているかわかるが、最終的な答えを得るためには違うものを聞いている 3: 分解質問が何を聞いているかわからないため答えが得られない 項目 $3:$ 項目 2 の理由 項目 2 で $1,2,3$ と判断したとき、どの分解質問がその根拠になったか 手法 2 は英語と日本語が混在した出力であり評価が難しいため、手法 1 、手法 3 について評価を行なった。それぞれ 100 個の例 (ただし、"CWQ", "DROP", "HOTPOT"の問題から均等にサンプリングした) に対して著者ではない複数人の日本語母語話者(大学生、大学院生)による評価(各問題 1 名で評価)を行なった。 ## 5.2 評価結果 評価結果を表 3 に示す。評価結果より、手法 $1 、 3$ どちらもある程度分解ができている (項目 2 が 0 か 1) ものが 60 個を超えているため、 60 パーセントの精度である程度の分解ができていることがわかる。 またこれらの分解に成功しているデータには複数の推論パターンが含まれていることも確認できた。*12 実際の分解例は付録に示す。 表 3 人手評価の結果。各要素は個数を表す ## 5.3 エラー事例分析 項目 2 で 3 と判断されている場合にどのような工ラーが起こっているのかを調べた。その結果、「<名詞>についてお答えください。」のように分解質問が何を答えればいいか明確でないような事例が多く現れていた。前述した分解質問は原文の英語では'return <名詞>'であり、BREAK ではその名詞のリストを返すことを想定している。このように BREAK では分解質問の意図(質問の種類)が必ずしも分解質問文に反映されておらず、本研究の単純な翻訳手順では本来の意図通りの日本語質問に翻訳されない課題がある。前述したエラーはこうしたデータセットの翻訳の課題が原因であると考えられる。 ## 6 まとめ 本研究では、質問応答システムで日本語の複雑な質問文を扱うために、日本語の質問文をより簡単な質問に分解するモデルを学習できるかどうか試みた。その結果機械翻訳したデータセットを用いて日本語 T5を学習する手法により、人手評価で $60 \%$ の分解精度を達成できることを示した。一方で翻訳に依らない言語間転移についての課題や、データセットが想定している質問の意図を考慮せずに翻訳することの問題点などが示された。今後は分解した質問を QA システムに入力することを考慮し、それに応じてどのような分解が適切であるのかの研究を行いたい。  ## 謝辞 本研究は日本電気株式会社研究インターンシップで行ったものである。 ## 参考文献 [1] Robert F. Simmons. Answering english questions by computer: a survey. Commun. ACM, 8:53-70, 1965. [2] Pranav Rajpurkar, Jian Zhang, Konstantin Lopyrev, and Percy Liang. Squad: 100,000+ questions for machine comprehension of text. In Conference on Empirical Methods in Natural Language Processing, 2016. [3] Zhilin Yang, Peng Qi, Saizheng Zhang, Yoshua Bengio, William W. Cohen, Ruslan Salakhutdinov, and Christopher D. Manning. Hotpotqa: A dataset for diverse, explainable multi-hop question answering. In Conference on Empirical Methods in Natural Language Processing, 2018. [4] Dheeru Dua, Yizhong Wang, Pradeep Dasigi, Gabriel Stanovsky, Sameer Singh, and Matt Gardner. Drop: A reading comprehension benchmark requiring discrete reasoning over paragraphs. In North American Chapter of the Association for Computational Linguistics, 2019. [5] Ruiliu Fu, Han Wang, Xuejun Zhang, Jun Zhou, and Yonghong Yan. Decomposing complex questions makes multi-hop qa easier and more interpretable. In Conference on Empirical Methods in Natural Language Processing, 2021. [6] Tomer Wolfson, Mor Geva, Ankit Gupta, Matt Gardner, Yoav Goldberg, Daniel Deutch, and Jonathan Berant. Break it down: A question understanding benchmark. Transactions of the Association for Computational Linguistics, 8:183-198, 2020. [7] Xiao-Yu Guo, Yuan-Fang Li, and Gholam- reza Haffari. Complex reading comprehension through question decomposition. ArXiv, abs/2211.03277, 2022. [8] Linting Xue, Noah Constant, Adam Roberts, Mihir Kale, Rami Al-Rfou, Aditya Siddhant, Aditya Barua, and Colin Raffel. mt5: A massively multilingual pre-trained text-to-text transformer. In North American Chapter of the Association for Computational Linguistics, 2020. [9] Colin Raffel, Noam M. Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J. Liu. Exploring the limits of transfer learning with a unified text-to-text transformer. ArXiv, abs/1910.10683, 2019. [10] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In Annual Meeting of the Association for Computational Linguistics, 2002. [11] Chin-Yew Lin. Rouge: A package for automatic evaluation of summaries. In $A n$ nual Meeting of the Association for Computational Linguistics, 2004. [12] Tianyi Zhang, Varsha Kishore, Felix Wu, Kilian Q. Weinberger, and Yoav Artzi. Bertscore: Evaluating text generation with bert. ArXiv, abs/1904.09675, 2019. [13] Satanjeev Banerjee and Alon Lavie. Meteor: An automatic metric for mt evaluation with improved correlation with human judgments. In IEEvaluation@ACL, 2005. ## 付録 ## 出力と人手評価の例 出力例を以下に示す。また、それに対する人手評価の結果を表 4 に示す。 ## 出力例 1 ## 質問文 台北を有する国では、どのような言語が話されているのでしょうか。 ## 正解 ,台北がある国をお答えください。', 'XXX1 で使われている言語をお答えください。' ## 手法 1 '台北がある国をお答えください。', 'XXX1 において使用されている言語をお答えください。 ## 手法 2 'return 言語が話されている台北を有する国, 'return languages 話されている台北を有する国', 'return languages in both \#1 and \#2' ## 手法 3 '台北がある国をお答えください。', 'XXX1 において使用されている言語をお答えください。' 出力例 2 ## 質問文 44 ヤードのゴールと比較して、26 ヤードの ゴールは何本少なかったのでしょうか? ## 正解 '26 ヤードゴールのヤード数をお答えください。', '44 ヤードのゴールについてお答えください。', 'XXX1 と XXX2 の違いについて教えてください。' ## 手法 1 '26 ヤードだったゴールをお答えください。, '44 ヤードだったゴールをお答えください。', 'XXX1 の番号をお答えください。 ', 'XXX2 の番号をお答えください。 , , 'XXX3 と XXX4 の違いについてお答えください。' ## 手法 3 , 得点となった 26 ヤードのゴールをお答えください。', '決められた 44 ヤードのゴールをお答えください', 'XXX1 の番号をお答えください。', 'XXX2 の番号をお答えください。', 'XXX3 とXXX4 の違いを教えてください。' 出力例 3 ## 質問文 2012 年 2 月 16 日から 10 月 28 日まで 27 回の公式マネーゴルフトーナメントも主催したオハイオ州コロンバスに本社を置く会社の従業員数は? ## 正解 ,コロンバス (オハイオ州)に拠点を置く企業をお答えください。', '2012 年 2 月 16 日から 10 月 28 日まで 27 回の公式マネーゴルフトーナメントを主催した XXX1 についてお答えください。', 'XXX2 社の社員についてお答えください。', 'XXX3 の番号をお答えください。' ## 手法 1 '2012 年 2 月 16 日から 10 月 28 日まで 27 回のオフィシャルマネーゴルフトーナメントを開催したオハイオ州コロンバスに本社を置く会社をお答えください。 ', 'XXX1 社の従業員についてお答えください。 ', 'XXX2 の番号をお答えください。' 表 4 出力例の評価
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A11-3.pdf
# 専門性の高いオープンブック質疑応答システムの構築と 専門家添削による誤答抑制 後藤成晶 ${ }^{1}$ 上山道明 ${ }^{1}$ 須藤栄一 ${ }^{1}$ 清水司 ${ }^{1}$ 木村英彦 ${ }^{1}$ ${ }^{1}$ 株式会社豊田中央研究所 \{sg-goto, kamiyama, eiichi-s, shimizu, hdkimura\}@mosk. tytlabs. co. jp ## 概要 専門家の知識の一部は、報告書などのテキストデ一夕として所属組織内に蓄積される。材料分析ドメインを対象に、テキストを参照して専門性の高い質問に自動回答するシステムを、オープンブック質疑応答を応用して構築した。専門性の高い質疑応答は回答抽出の難度が高いため、誤答の多発が懸念される。そこで、回答の正誤検証器を備えるシステムを構築し、その訓練手順を提案した。提案の訓練手順は、質疑応答ログを専門家が正誤添削するだけで良く、一般的なデータセット作成よりも作業負荷が少ない。実験から、訓練によって誤答の提示頻度が $50 \%$ 以上抑制されたことを確認した。 ## 1 はじめに 産業分野などにおけるドメイン専門家の知識の一部は、報告書などのテキストデータとして所属組織内に蓄積される。その専門知識を再利用できるよう、膨大なテキストデータから情報抽出できる仕組みが求められる。その手段として、テキストデータを参照する質疑応答システムの研究が進められている。 なお、そのようなシステムは、教科書を開きながら試験問題に答える「持ち込み試験」に例えてオープンブック質疑応答システムと呼ばれる。 本検討では、オープンブック質疑応答を「材料分析」ドメインに応用し、図 1 に示すようなシステムを構築している。ユーザが質問を入力すると、バックエンドでオープンブック質疑応答アルゴリズムがテキストデータを参照し、回答を抽出し提示する。 また、参照したテキストのリストを参考文献として提示する。 材料分析のような専門性の高い分野への質疑応答システムの応用は、主に次の 2 つの難しさがある。 教師データの作成コストが高い専門性の高い教師データ作成作業は、作業者に専門知識が必要で、 クラウドソーシングを活用しにくい。そのためデー タ作成コストが高くなる。 誤答の発生頻度が高い非専門的な質問の例として「或る人物の出生地」を問う場合、出生地は 1 つしかないため誤答が起きにくい。一方で「材料の分析方法」を問う場合、分析方法は 1 つではなく、目的や条件によって適切な分析方法が異なるため、誤答が発生しやすい。 以上を踏まえ、本報告の内容は以下の通りである。 - オープンブック質疑応答を専門性の高い材料分析ドメインへ応用した。 -一般的な教師データ作成より負荷の少ない 「添削」による訓練手順を提案した。 ・訓練により誤答を抑制可能なことを実験から確認した。 図 1 構築した材料分析の質疑応答システム ## 2 質疑応答システムの構成 本検討で構築した質疑応答システムの構成を図 2 に示す。文章検索(Retriever) と回答生成(Reader)を組み合わせる方式で、さらに正誤検証(Verifier)を設け ることで誤答抑制を図る。以下に各要素の実装詳細を述べる。 文章検索(Retriever) ベクトル近傍探索で実装した。文章のベクトル化には BERT[1]を用いた。訓練データとして質疑応答データセットを QNLI (Question Natural Language Inference)形式に変換したものを利用した。訓練コードとして Sentence Transformers ライブラリ[2]を利用した。 回答生成(Reader) 複数文章を一括入力して処理できる Fusion-in-decoder [3]のアルゴリズムを採用し、実装コードは内製した。モデルアーキテクチャは BART (Bidirectional Auto-Regressive Transformers) [4]を採用した。推論時にはジェネレータの生成数を 10 などに設定することで、複数回答を出力させた。 根拠検証(Verifier) 正答/誤答の 2 クラス分類モデルとして BERTを用いた。「質問、回答、コンテキスト文章」を入力し、「正答/誤答」のラベルを推論する。誤答を除外したものが最終的な回答セットとしてユーザに表示される。 図 2 質疑応答システムの構成概要 ## 3 訓練手順 ## 3. 1 全体の手順 本検討では、図 3 に示す手順で訓練を実施した。各作業の概要を以下に述べる。 事前学習 BERT および BART の事前学習を実施する作業である。なお本検討では「材料分析に関す る質疑応答チャット」という目的に合致するよう、産業技術文章とソーシャルネットワーキングサービス文章を合計 $30 \mathrm{~GB}$ 収集して利用した。 ファインチューニング-1 一般公開されている大量な質疑応答データセットによるファインチューニング作業である。なお本検討では SQuAD [5]および Natural Questions [6]を機械翻訳することで約十万件の日本語質疑応答データセットを作成して利用した。 ファインチューニング-2 対象ドメインの専門家が作成した質疑応答データセットによるファインチューニング作業である。 専門家添削ファインチューニング 2 で訓練された質疑応答システムによる質疑応答ログを、専門家が添削する作業である。 ファインチューニング-3 専門家が作成した質疑応答データと、専門家添削結果とを組み合わせたものを教師データに、ファインチューニングを実施する作業である。 図 3 質疑応答システムの訓練手順 ## 3.2 専門家による質疑応答データの作成 データ形式は SQuAD と同様で、「質問」「回答」 「コンテキスト」からなる。材料分析に関する社内報告書から抜粋した文章をコンテキストに利用し、 そのコンテキストから回答可能な質問およびその回答を材料分析専門家が作成した。 質疑応答データセットの作成にあたり、データセットの偏りが無いよう注意した。例えば自由フォー マットの議事録をコンテキスト文章に利用することで、言い回しの偏りを予防した。また、材料分析ドメインを複数の小分野に分割し、それぞれの小分野に担当専門家を設定することで、分野の偏りも予防した。 ## 3. 3 専門家添削 質疑応答システムの回答ログを専門家が確認し、正答または誤答のラベルを付与する作業である。デ一夕形式として、「正誤ラベル」「質問ログ」「回答ログ」に加えて「Reader が参照していたコンテキスト」も用いることで、質疑応答データセットと同様に扱えるようにした。 図 4 に、質疑応答データ作成と添削の作業フロー を比較して示す。質疑応答データを作成するためには、1000 文字程度のコンテキスト文章を読解したうえで、そのコンテキストに沿った質問を作文し、回答フレーズを抜き出す作業が必要である。一方で添削作業は、コンテキスト読解作業が無く、さらに質問の「作文」作業が「読む」作業に負荷軽減されているため、より少ない負荷で作業可能である。 図 4 質疑忘答データ作成と添削の作業比較 この添削作業は、実際の運用時には、専門家がログを確認して手動で実施することを想定している。 ただし今回の実験では、簡易的に効果検証するため に、質問文章とその正答リストからなる添削用質疑応答データを予め約 200 件作成し、それを用いて自動添削を行った。具体的には、そのデータセットの質問文章をモデル B に入力し、提示された回答それぞれに対して、正答リストに含まれている場合は正答、そうでない場合は誤答であると、自動的にラベルを付与した。1 質問あたり約 3 フレーズの回答を生成させ自動添削をかけることで、約 600 件の添削データセットを準備した。 ## 3.4 Verifier の訓練方法 Verifierの訓練データ概要を図 5 に示す。2クラス分類器である Verifier の訓練には正答(Positive)および誤答(Negative)のラベルが付与された両方のデー タが必要であるが、SQuAD 等の質疑応答データセットはすべてが Positive データである。そのためファインチューニング-2では、質疑応答データセットのうち、コンテキストをランダム(ただし回答フレーズが文中に出現するものに限定)に置き換えることで、 Negative データを自動生成した。ファインチューニング-3では、添削により Negative データが利用可能になっているため、自動生成された Negative データと添削された Negative データの両方を利用した。 図 5 ファインチューニング-2および3における Verifier 訓練データ 自動生成された Negative データは識別が容易で、 Verifierの訓練効率が悪い。一方で添削データは、もともとモデル B が正答と誤認するほど識別困難な例 (Hard Negative)であるため、Verifier の訓練効率が高い。よって添削による訓練は、作成工数が少ないにも関わらず、より高精度な Verifier を訓練できると期待される。 ## 4 実験 材料分析に関する 50 件の質疑応答テストデータを作成し、図 3 におけるモデル $\mathrm{A} \sim \mathrm{C}$ の性能を評価した。参照する文章データベースには材料分析に関する報告書を約7000パラグラフ利用した。なおテストデータは文章データベースの内容を知らされていない専門家が作文したため、回答不可能な質問も多く含まれる。 モデル A C のテスト結果として、50 件のテストを合計した正答と誤答の総数を図 6 に示す。システムの提示する回答フレーズが、正答リストに登録されているフレーズのどれかと完全一致する場合は Exact Match すなわち正答、そうでなければ Not Exact Match すなわち誤答とする。なお、システムは 1 つの質問に複数の回答を提示するため、正答と誤答の合計数は、テストデータ件数より多い。左上にプロットされるほど優れていることを意味する。 図 6 テストデータ全体を通した正答と誤答の表示総数 まず一般データセットだけで訓練したモデル A では、誤答数が 150 を超えた。次に、材料分析の質疑応答データセットで訓練したモデル B では、正答の増加と、誤答の減少が同時に見られた。最後に、添削データを加えて訓練したモデル C では、モデル B より更に誤答を $50 \%$ 以上削減できている。以上の事から、添削を取り入れた訓練手順により、誤答 を抑制できることを確認した。 なお、以下の理由から、図 6 の結果はモデル A C を相対評価するための参考値であり、システム性能の絶対值を評価するものではないことを補足する。 ・ テストデータは、文章データベースの内容に依存せずに作成されたため、解答不可能な例も多く含まれる。文章データベースを充足することで、正答の増加が見込まれる。 - 事前に列挙していた正答セットに抜け漏れがある。そのため本来は正答であっても見過ごされ誤答に割り振られた回答もある。 ## 5 関連研究 Shao ら[7]は、Verifier を持つオープンブック質疑応答システムを提案し、複数回答ベンチマークタスクにおいて State-Of-The-Art の性能を確認している。本検討のシステム構成と本質的に同じである。本検討は、添削から学習することによる誤答抑制効果を検証することが目的であり、Shao らのシステムでも本検討で検証した手順を適用できると考えられる。 鈴木ら[8]は、コンテキストを読解したうえで手動作成した Negative 訓練データが、質疑応答システムの性能を向上可能なことを実験から示している。一方で本検討は、コンテキストを読解せず簡易的に作成した添削データであっても、誤答抑制のための訓練データに有用なことを確認するものである。 Campos ら[9]は、質疑応答ログに正誤ラベルが付与された添削データを教師データに用いる事で、 Wikipedia 等が由来の非専門的ドメインの質疑応答タスクにおいて、抽出型 Reader をファインチューニング可能なことを確認している。一方で本検討は、 より難度の高い専門的ドメインにおいて、Verifier を含めた構成を添削データから訓練することで、誤答抑制に寄与できることを確認するものである。 ## 6 おわりに 専門性の高い質疑応答システムの構築を行った。回答の正誤検証を行う Verifier を設け、専門家添削を取り入れた訓練手順を提案した。また実験から、数百件の添削データで訓練することにより、誤答の提示頻度を $50 \%$ 以上抑制できることを確認した。今後は、構築したシステムを用いた質疑応答サービスの試行運用を行い、より多様な質疑応答ログを添削することで、回答品質をさらに向上可能か検証する予定である。 ## 謝辞 本検討を進めるにあたり質疑応答サービスのアプリケーション作成に貢献頂いた株式会社豊田中央研究所の藤井亮暢氏、後藤邦博氏、奥村文洋氏、丹羽貴寛氏、加藤光樹氏に感謝申し上げる。 ## 参考文献 1. Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. 2019. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pages 4171-4186, Minneapolis, Minnesota. Association for Computational Linguistics. 2. Nils Reimers and Iryna Gurevych. 2019. Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pages 3982-3992, Hong Kong, China. Association for Computational Linguistics. 3. Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. 2020. BART: Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translation, and Comprehension. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pages 7871-7880, Online. Association for Computational Linguistics. 4. Gautier Izacard and Edouard Grave. 2021. Leveraging Passage Retrieval with Generative Models for Open Domain Question Answering. In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics: Main Volume, pages 874-880, Online. Association for Computational Linguistics. 5. Pranav Rajpurkar, Jian Zhang, Konstantin Lopyrev, and Percy Liang. 2016. SQuAD: 100,000+ Questions for Machine Comprehension of Text. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pages 2383-2392, Austin, Texas. Association for Computational Linguistics. 6. Tom Kwiatkowski, Jennimaria Palomaki, Olivia Redfield, Michael Collins, Ankur Parikh, Chris Alberti, Danielle Epstein, Illia Polosukhin, Jacob Devlin, Kenton Lee, Kristina Toutanova, Llion Jones, Matthew Kelcey, Ming-Wei Chang, Andrew M. Dai, Jakob Uszkoreit, Quoc Le, and Slav Petrov. 2019. Natural Questions: A Benchmark for Question Answering Research. Transactions of the Association for Computational Linguistics, 7:452-466. 7. Zhihong Shao and Minlie Huang. 2022. Answering Open-Domain Multi-Answer Questions via a Recall-then-Verify Framework. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 1825-1838, Dublin, Ireland. Association for Computational Linguistics. 8. 鈴木正敏,松田耕史,大内啓樹,鈴木潤,乾健太郎. 2021. オープンドメイン質問応答における解答可能性判別の役割. 言語処理学会第 27 回年次大会 (NLP 2021) 9. Jon Ander Campos, Kyunghyun Cho, Arantxa Otegi, Aitor Soroa, Eneko Agirre, and Gorka Azkune. 2020. Improving Conversational Question Answering Systems after Deployment using Feedback-Weighted Learning. In Proceedings of the 28th International Conference on Computational Linguistics, pages 2561-2571, Barcelona, Spain (Online). International Committee on Computational Linguistics.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A11-4.pdf
# SlideVQA: 複数の文書画像に対する質問応答 田中涼太西田京介西田光甫 長谷川拓 斉藤いつみ 齋藤邦子 日本電信電話株式会社 NTT 人間情報研究所 \{ryouta.tanaka.rg, kyosuke.nishida.rx, kosuke.nishida.ap, taku.hasegawa.ps itsumi.saito.df, kuniko.saito.ku\}@hco.ntt.co.jp 図 1 SlideVQA の例. 複数のスライド画像(スライドデッキ)を同時に理解し,質問に対して回答および根拠を出力する. ## 概要 スライドデッキに対する文書画像質問応答タスク SlideVQA を提案する。本タスクは複数の文書画像の関係性理解や数值推論などの複雑な推論能力を必要とする. さらに,回答根拠選択と質問応答を系列変換の枠組みで統一的に扱う新たな文書画像質問応答モデルを提案する. SlideVQAを用いた実験において,我々のモデルは既存の最先端モデルよりも優れた性能を示したが,依然として人間の性能に大きく劣っていることを確認した. 本研究は, 実世界に多数存在する視覚表現された文書を知識源として質問応答を行う人工知能の発展に貢献できる. ## 1 はじめに 文書を知識源とし質問に対して人間の様に回答を行う技術の実現は, AI 分野における重要課題の一つである. テキストのみで記述された文書に関する質問応答 $[1,2]$ では, 実サービスで扱われる文書が持つテキスト情報しか扱えないことから,文書を画像として扱い質問応答を行う文書画像質問応答 (DocumentVQA)[3, 4, 5, 6] が近年注目を集めてい る.ここで,従来のデータセットは一枚の文書画像を対象としているため, 複数枚の文書内容を参照し理解するモデルは未だ実現されていない. さらに,従来モデルは視覚要素(図表など)を含む文書理解や算術演算の能力が低いことが指摘されている [5].本研究では,複数の文書画像で構成されるスライドデッキを読み解き,質問に対して回答および回答根拠を出力する新たなタスクおよびデータセット SlideVQA $^{1)}$ を提案する。図 1 に示す様に,SlideVQA はマルチホップ推論, 数值推論などの複雑な推論能力を必要とする. そして, 視覚要素理解や算術演算の能力強化に向けた意味領域および算術式のアノテーションを提供する. さらに本研究では,テキスト・レイアウト・視覚要素を考慮し, 複数の文書画像の内容を同時理解可能な新たなモデル Multi-Modal Multi-image Document VQA model (M3D) を提案する. SlideVQAを用いた実験において,M3D は既存の最先端モデルよりも優れた性能を示したが,依然として人間の性能に大きく劣っており,SlideVQAが新たな未解決課題であることを確認した。 1)データセットやさらなる詳細情報はhttps://github.com/ nttmdlab-nlp/SlideVQA および [7] で公開している. ## 2 SlideVQA ## 2.1 タスク定義 SlideVQA タスクを以下の通りに定義する。 End-to-End SlideVQA 質問 $q$ とスライドデッキ (画像集合) $\mathbf{I}=\left.\{I_{1}, \ldots, I_{K}\right.\}(K=20)$ が与えられ,モデルは回答 $y$ と関連するスライド $\hat{\mathbf{I}}=\left.\{\hat{I}_{1}, \ldots, \hat{I}_{K^{\prime}}\right.\}$ を出力する. 更に,以下の二つのサブタスクに分解できる. 回答根拠選択質問 $q$ とスライドデッキIが与えられ,モデルは回答 $y$ を出力するために必要な画像集合 ̂̀を選択する。 質問応答質問 $q$ とスライドデッキ $(\mathbf{I}$ 又は $\hat{\mathbf{I}})$ が与えられ,モデルは回答 $y$ を出力する. 図 1 に示す様に,回答は画像中のテキストから一つのスパン (Single-Span),複数のスパンから抜き出す回答(Multi-Span),数値推論や見た目を問う回答(Non-Span)の3つのタイプに大別できる。また,数値推論を必要とする回答は $\{+,-, /, *\}$ を用いた算術演算,カウント,比較の何れかを用いる. ## 2.2 データ収集 スライドデッキ収集 20 ページ以上で構成されており,図表を含むスライドデッキ(英語)を対象に,SlideShare [8] から 2,619 件収集した. 更に,収集したデッキの 21 ページ以降を切り捨てた. 意味領域アノテーション SPaSe [9] が定義する9 つの意味ラベル (例: Title, Table) を用いて全画像に意味領域の特定および意味ラベルの付与を行った. シングルホップ QA 作成スライドデッキの中から一枚のスライドを選択し,選択したスライドに関する QA ペアを 12,466 件作成した(例: 図 1 中央). この選択スライドは回答根拠として使用される. マルチホップ QA 作成シングルホップ $\mathrm{QA}$ を編集し,マルチホップ QAを2,018 件作成した.まず, シングルホップ質問から最大 2 件の固有表現を抽出する. 次に,抽出した固有表現について説明している別のページを回答根拠として選択し,固有表現を別の表現に置換する. 図 1 左では, “North”が“the region with $70 \%$ of journals”に置換されている.編集によって作成される質問の中には,非流暢な質問も含まれる。しかし,本作成手法はマルチホップ推論の保証およびデータサイズの拡張性の面で利表 1 データセットの比較. MI は複数文書入力, MR はマルチホップ推論,NR は数値推論,I は画像,SR は意味領域,AEは算術式を表す。 図 2 左: 推論タイプの分布. 右: 回答タイプの分布. 点がある.類似手法として Wikipedia におけるマルチホップ推論を必要とする MultimodalQA [10] では,編集による QA 作成の有効性が確認されている. 算術式アノテーション算術演算が必要な回答に対して,算術式 (例: “30-28”) を付与した. ## 2.3 統計情報および従来研究との比較 SlideVQA は 2,619 件のスライドデッキ $(52,480$ 画像,890,945 件の意味領域) に関する 14,484 件の QA ペアを含む.また,各デッキが同一の分割のみに存在するように,訓練/開発/テストデータを 10,617/1,652/2,215 質問に分割した. 画像表 1 で示す様に, SlideVQA は最も多くの文書画像を含むデータセットである。また, VisualMRC [4] と比べて, SlideVQA は意味領域数が 14.7 倍であり,最多である.SlideVQA タスクにおけるモデルが考慮すべき OCR 単語平均数は 1488.88 単語であり, 従来研究で最も OCR 単語数の多い InfographicVQA [5] の 217.89 単語を大きく上回る. QA 表 1 で示す様に,SlideVQA はマルチホップ推論と数值推論を必要とし,算術式付与を行った初めての研究である. また, SlideVQA は複数文書画像を入力とし,学習に資するデータ量を含む点でも初めての研究である(DocCVQA [6] は QA 数が 20 件に限られる). 図 2 左で示す様に,49.3\%の質問がマルチホップ推論または数値推論を必要とする. 図 2 右で示す様に,Multi-Span と Non-Span の回答が $32.4 \%$ を占めており, 回答の生成・抽出能力を必要とする。 図 3 左: 提案モデル M3D のアーキテクチャ. 右: 入力埋め込み系列. ## 3 提案モデル 提案モデル M3Dを図 3 に示す. M3D は T5 [11] からなる Transformer Encoder-Decoder モデル FiD [12] をベースとする.M3D の貢献は,1) マルチモーダル情報を考慮して複数の文書画像を同時に理解できる点,2) 算術演算の能力強化を目的とした算術式の生成を行う点,3) 回答根拠選択と質問応答を系列変換の枠組みでマルチタスク学習を行う点である。 ## 3.1 マルチモーダル入力埋め込み層 ## 入カトークン系列 ページ $k$ における入力トーク ン系列 $x_{k}$ を, 質問 $q$, Task Prefix $t$, ページ番号 $e_{k}$, コンテキストトークン $c_{k}$ を用いて定義する. $ x_{k}=\left(\text { task: } t \text { question: } q \text { page: } e_{k} \text { context: } c_{k}\right) $ Task Prefix $t \in$ EEvidence Selection, Question Answering\} であり,回答根拠選択と質問応答の同時学習を可能とする. コンテキストトークン $c_{k}$ はページ $k$ 中の意味領域毎の OCR トークン系列 $\mathbf{W}_{k}^{r_{i}}$ および意味ラベル $\left[\mathrm{R}_{k}^{r_{i}}\right]$ から定義される. $ c_{k}=\left(\left[\mathrm{R}_{k}^{r_{1}}\right], \mathbf{W}_{k}^{r_{1}},\left[\mathrm{R}_{k}^{r_{2}}\right], \mathbf{W}_{k}^{r_{2}}, \ldots,\left[\mathrm{R}_{k}^{r_{N}}\right], \mathbf{W}_{k}^{r_{N}}\right), $ 意味領域 (例: Title) は,画像 $I_{k}$ から Faster-RCNN [13] を用いて $N$ 個抽出する。 入力埋め込み系列入力埋め込み系列 $\mathbf{z}$ をトーク 埋め込み系列 $\mathbf{z}^{\mathrm{vis}}$ を用いて以下の通りに定義する。 $ \mathbf{z}=\mathrm{LN}\left(\mathbf{z}^{\text {token }}+\mathbf{z}^{\text {seg }}+\mathbf{z}^{\text {lay }}+\mathbf{z}^{\text {vis }}\right) \in \mathbb{R}^{L \times d} $ LN は Layer Normalization [14],L は入力長を表す. $\mathbf{z}^{\text {token }}$ は入力トークン系列 $x_{k}$ を $d$ 次元に埋め込む. また, $\mathbf{z}^{\mathrm{seg}}$ は各トークンが属する意味ラベルを表す.意味領域と OCR 領域に対して,1 層の FFN に入力 性化関数と 1 層の FFN に渡した結果を $\mathbf{z}^{\mathrm{vis}}$ と表す。 ## 3.2 マルチモーダル Endoder-Decoder マルチモーダル Encoder FiD [12] と同様に,K 個の画像に対応する入力トークン系列 $x_{k}$ を独立にエンコード後,エンコード結果 $\mathbf{x}_{k} \in \mathbb{R}^{L \times d}$ を結合し, $\mathbf{X} \in \mathbb{R}^{K L \times d}$ を得る。 回答/算術式 Decoder Decoder は通常回答(例: “Steve Jobs”) または算術式 (例: “30-28”) を出力する. 算術演算の必要性はモデルが判断する. 出力が算術式の場合は出力系列の先頭に “Expression:”,通常の回答の場合は“Answer:”を予測する. 回答根拠選択器 Decoder と同じ構造を持ちパラメータを共有する。 $\hat{e}$ を回答根拠のページ番号とした時,出力形式を $\hat{\mathbf{I}}_{\text {pages }}=$ (Evidence pages: $\hat{e}_{1}, \ldots$, $\left.\hat{e}_{K^{\prime}}\right)$ として,系列生成により回答根拠を選択する. 学習と推論選択器と Decoder に関する負の対数尤度損失の和を最小化する.推論時には,出力系列の先頭トークンを削除し,最終出力とする。また, “Expression:” が出力された場合,後処理として演算を実施した(例: “30 - 28”から回答“2”を算出). ## 4 評価実験 ベースライン End-to-End/質問応答タスクにおける比較手法として,根拠選択モデルと質問応答モデルで構成されるパイプラインを用いる。根拠選択モデルとして HLayoutLMv2 を新たに導入した。 HLayoutLMv2 は各画像を LayoutLMv2 [15] に渡して得られた表現を Transformer [19]によりエンコードし,上位 3 件の根拠を出力する.他に,各モーダル情報を利用した LayoutLM [18] を含む 7 つのモデルを用いた(表 2 参照)。質問応答モデルには,回答生成を行う T5 と LayoutT5 [4], 回答スパン抽出を行う LayoutLMv2,M3D のベースとなる FiDを用いた. 評価指標 HotpotQA [20] に倣い,質問応答と根拠選択の各サブタスクで Exaxt-Match (EM) と F1 を用 表 2 SlideVQA タスクにおける評価結果。(b),(c) は SlideVQA のサブタスクである。T (テキスト),L (レイアウト),V (画像特徴)を表す。 $\mathrm{M}^{2} \mathrm{D}_{\mathrm{GT}}$ は正解根拠のみをモデルに入力した. $\mathbf{z}^{\text {lay }}$ は入力埋め込みに対するレイアウト埋め込みを表す. (a) End-to-End タスクの結果. (b) サブタスク: 回答根拠選択の結果. (c) サブタスク: 質問応答の結果. 表 3 開発データにおける M3D の ablation 評価. い,Joint-EM/F1(JEM/JF1)を用いて End-to-End タスクにおける回答と回答根拠の一貫性を評価する. ## 4.1 評価結果と分析 ## 提案モデルはベースラインの性能を上回るか? 表 2a に示す様に,M3D は全てのベースラインの性能を上回った。回答根拠選択タスクでは,表 $2 b$ に示す様に,HLayoutLMv2 と M3D がその他のベースラインよりも高い性能である。これは全ての根拠候補を同時参照するモデル化が性能向上において重要であることを示唆する. 質問応答タスクでは,表 2c に示す様に,M3Dがベースラインの性能を上回った. これは M3D がパイプラインよりも質問に関連しない画像を排除し, 回答生成できることを示唆す 能向上が確認できることから,根拠選択の性能改善の余地があることを示唆する。 提案モデルは人間の性能を上回るか? 表 2,図 4 に示す様に,全てのタスクとカテゴリにおいて人間が大きく提案モデルの性能を上回っている. 特に,視覚理解を伴う 1)マルチホップ推論,2)算術演算における性能向上は今後の課題である. データセットの特徵は?表 2 に示す様に,モー ダル情報の増加に伴い性能向上が全てのタスクにおいて確認できることから,SlideVQA は文書のテ 図 4 カテゴリごとの $\mathrm{QA}$ 性能比較. キスト・レイアウト・視覚情報を全て考慮する必要がある. 表 $2 \mathrm{a} \cdot 2 \mathrm{c}$ に示す様に,回答生成を行う LayoutT5 が回答スパン抽出を行う LayoutLMv2 の性能を大きく上回った.これは,Non-Span 回答を含むデータセット [21]で同様に確認される現象である. 性能向上に寄与する要素は何か? 表 3 に示す様に,各要素を取り除くことで性能低下が確認できる. 特に,根拠選択を各画像の先頭トークンに対応するエンコード表現に対して 2 層の MLPを用いた識別モデル BinaryClass に変更することで,大きな性能低下が確認できる。これは, Decoder と選択器とのパラメータ共有および系列生成としてのマルチタスク学習が性能向上に寄与していると考える。また,図 4 に示す様に,数値回答の代わりに算術式を生成すること(AE generation)により,算術演算に関する F1において 10.4\%の向上が確認できる. ## 5 おわりに 新たな文書画像質問応答タスク SlideVQAを提起し, データセットおよびモデルの構築を行った. SlideVQA は最高性能のモデルにおいても人間の性能に及ばない難関なタスクである.本データセットにより,実世界に多数存在する視覚表現された文書を基に QA を行う技術や,Web 検索や対話システムなど産業上重要なサービスの発展に貢献できる. ## 参考文献 [1] Pranav Rajpurkar, Jian Zhang, Konstantin Lopyrev, and Percy Liang. SQuAD: 100,000+ questions for machine comprehension of text. In EMNLP, pp. 2383-2392, 2016. [2] Pranav Rajpurkar, Robin Jia, and Percy Liang. Know what you don't know: Unanswerable questions for SQuAD. In ACL, pp. 784-789, 2018. [3] Minesh Mathew, Dimosthenis Karatzas, and C. V. Jawahar. Docvqa: A dataset for vqa on document images. In WACV, pp. 2200-2209, 2021. [4] Ryota Tanaka, Kyosuke Nishida, and Sen Yoshida. Visualmrc: Machine reading comprehension on document images. In AAAI, pp. 13878-13888, 2021. [5] Minesh Mathew, Viraj Bagal, Rubèn Tito, Dimosthenis Karatzas, Ernest Valveny, and C.V. Jawahar. Infographicvqa. In WACV, pp. 1697-1706, 2022. [6] Rubèn Tito, Dimosthenis Karatzas, and Ernest Valveny. Document collection visual question answering. In ICADR, pp. 778-792, 2021. [7] Ryota Tanaka, Kyosuke Nishida, Kosuke Nishida, Taku Hasegawa, Itsumi Saito, and Kuniko Saito. A dataset for document visual question answering on multiple images. In AAAI, 2023. [8] Slideshare. https://www.slideshare.net/. [9] Ziad Al-Halah Monica Haurilet and Rainer Stiefelhagen. SPaSe - Multi-Label Page Segmentation for Presentation Slides. In WACV, pp. 726-734, 2019. [10] Alon Talmor, Ori Yoran, Amnon Catav, Dan Lahav, Yizhong Wang, Akari Asai, Gabriel Ilharco, Hannaneh Hajishirzi, and Jonathan Berant. Multimodalqa: complex question answering over text, tables and images. In ICLR, 2021. [11] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J. Liu. Exploring the limits of transfer learning with a unified text-to-text transformer. JMLR, Vol. 21, No. 140, pp. 1-67, 2020. [12] Gautier Izacard and Edouard Grave. Leveraging passage retrieval with generative models for open domain question answering. In EACL, pp. 874-880, 2021. [13] Ren, Shaoqing, He, Kaiming, Girshicka, Ross, Sun, and Jian. Faster r-cnn: Towards real-time object detection with region proposal networks. In NIPS, pp. 91-99, 2015. [14] Lei Jimmy Ba, Ryan Kiros, and Geoffrey E. Hinton. Layer normalization. arXiv:1607.06450, 2016. [15] Yang Xu, Yiheng Xu, Tengchao Lv, Lei Cui, Furu Wei, Guoxin Wang, Yijuan Lu, Dinei A. F. Florêncio, Cha Zhang, Wanxiang Che, Min Zhang, and Lidong Zhou. Layoutlmv2: Multi-modal pre-training for visually-rich document understanding. In ACL/IJCNLP, pp. 2579-2591, 2021 . [16] Alec Radford, Jong Wook Kim, Chris Hallacy, Aditya Ramesh, Gabriel Goh, Sandhini Agarwal, Girish Sastry, Amanda Askell, Pamela Mishkin, Jack Clark, et al. Learning transferable visual models from natural language supervision. In ICML, pp. 8748-8763, 2021. [17] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: pre-training of deep bidirectional transformers for language understanding. In NAACL-HLT, pp. 4171-4186, 2019. [18] Yiheng Xu, Minghao Li, Lei Cui, Shaohan Huang, Furu Wei, and Ming Zhou. Layoutlm: Pre-training of text and layout for document image understanding. In KDD, pp. 1192-1200, 2020 [19] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In NIPS, pp. 6000-6010, 2017. [20] Zhilin Yang, Peng Qi, Saizheng Zhang, Yoshua Bengio, William W. Cohen, Ruslan Salakhutdinov, and Christopher D. Manning. Hotpotqa: A dataset for diverse, explainable multi-hop question answering. In EMNLP, pp. 2369-2380, 2018. [21] Dheeru Dua, Yizhong Wang, Pradeep Dasigi, Gabriel Stanovsky, Sameer Singh, and Matt Gardner. DROP: A reading comprehension benchmark requiring discrete reasoning over paragraphs. In ACL, pp. 2368-2378, 2019. [22] Ilya Loshchilov and Frank Hutter. Decoupled weight decay regularization. arXiv:1711.05101, 2017. [23] Google clould vision api. https://cloud.google.com/ vision. [24] Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian Sun. Deep residual learning for image recognition. In CVPR, pp. 770-778, 2016. [25] Sebastian Ruder. An overview of gradient descent optimization algorithms. arXiv:1609.04747, 2016. 図 5 収集したスライドデッキのカテゴリ。 図 6 左: 意味領域の分布. 右: 数値推論タイプの分布. ## A 付録 スライドデッキのカテゴリ図 5 に示す様に,収集したデッキは 39 個の SlideShare のカテゴリを網羅する. 意味領域アノテーション図 7 に, 意味領域アノテーション例を示す. 下記にクラウドワーカーの指示に用いた意味ラベルの定義を示す. - Title: presentation title, slide title - Page-text: text in slide, bullet-point text list, text list - Obj-text: text in a figure, image, diagram or table - Caption: description of figure, image, diagram, or table - Other-text: footnote, date, affiliation, code, URL - Diagram: a graphical representation of data, a process - Table: data arranged in rows and columns - Image: drawing, logo, map, screenshot, realistic image - Figure: graph with data points and coordinates データ分析図 6 左で示す様に, SlideVQA は 9 つの意味領域を広くカバーしている。一方で,DocVQA [3] や DocCVQA [6] は Visual (Image と Figure)を含む文書を対象としていない. 図 2 右で示す様に,25.5\%が算術を必要とする質問である。 実装 Pytorch を用いて実装し,8 台の Tesla V100 で実験した. CLIP のモデルサイズは Large 用い,その他のモデルは Base を用いた. AdamW [22]を用いて最適化し学習率は 5e-5 とした. バッチサイズは 32 とした. 開発データで最も損失の小さいモデルを最終評価に用いた.入力トークン系列の最大長を 200 , 出力系列の最大長を 50 とした. OCR には Google Could Vision API [23] を用いた. Faster-RCNN のバックボーンは ResNet-101 [24]を使用した。また,SGD [25]を用いて最適化に用い,バッチサ 図 7 意味領域のアノテーション例. Q: What is the combined percentage of Album Sales \% and Song Sales \% for the genre with a 9\% Share of Total Activity? 図 8 出力例. ($\cdot$) は生成された算術式を表す. イズを 1 ,学習率 1e-3 とし, 5 epoch 学習を行った. アンカーボックスのスケールを $[8,16,32]$ ,アスペクト比を $[0.5,1.0,2.0]$ とした. 出力例出力例を図 8 に示す. 本例では,マルチホップ推論と算術操作を伴う回答生成が必要な例である。 FiD は文書レイアウトを理解できておらず,誤った回答をしている. LayoutT5 は算術の過程を正しく理解できずに誤った回答を出力しているのに対して,提案モデル M3D は正しく情報(“11\%”と“12\%”)を抽出し,ground-truth と同じ回答を生成することができている. URL一覧図 $1 \cdot 7 \cdot 8$ の画像ソースを以下に示す. 図1 https://www.slideshare.net/mslgroup/ mediainsights-evolving-sources-of-news-for-media 図 7 https://www.slideshare.net/andrybrewok/ big-data-analytics-a-social-network-approach 図 8 https://www.slideshare.net/musicbizassoc/ nielsen-2015-music-biz-presentation-final
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A11-5.pdf
# 対話型質問応答における質問書き換えのためのターン強調 小堀智祥 小林哲則 林良彦 早稲田大学理工学術院 [email protected] ## 概要 質問応答を含む対話システムでは,対話内容に沿った質問の解釈が重要である. 先行研究では, すべての対話履歴と質問を一つの繋がった文章として入力し, 対話履歴に依存しない質問へ書き換えることが行われているが,書き換えに関係のあるターンを考慮することが難しい,本研究では,対話中の質問応答における各ターンの重要度を推定し,その重要度に応じて強調した表現を用いて質問書き換えを行う TurnRewrite モデルを提案する. 質問書き換えの上で重要なターンヘルールによるラベル付けを行ない,各ターンの重要度を推定するターン強調モデルを学習する. CANARD データセットを用いた実験結果により,TurnRewrite モデルの有効性を確認した. ## 1 はじめに 質問応答モデルの精度が向上し,与えられた文書に関する単一の質問に答えるタスクは人間の性能を超えるものも出てきている [1]. 近年,より現実に即したタスクとして,対話型質問応答 (Conversational Question Answering: CQA) タスクと呼ばれる会話の中で現れる質問に対する回答を生成するタスクが提案されている.このタスクは質問内容の解釈が対話履歴に依存するという点で,単一の質問に答えるタスクと比較して難しい [2]. このタスクのサブタスクとして,対話履歴に依存して解釈の決まる質問を対話履歴に依存しない質問 (以降,書き換えられた質問) に書き換える質問書き換え (Question Rewriting) タスクが提案され,CANARD と呼ばれるデータセットが構築されている [3]. CANARD におけるデータの例を図 1 に示す.この例において $Q_{i}, A_{i}$ はそれぞれ質問と回答のターンを表す. $Q_{1}$ は与えられた文書に対する最初の質問であり, $Q_{2}$ 以降はそれ以前の対話に依存した質問になっている. CANARDデータセットでは書き換 図 1 書き換えデータセットの例 [3] えるべき質問 $Q_{i}$ と,それに先行するすべての対話履歴 $\left.\{Q_{j}, A_{j}\right.\}_{j<i}$ が与えられ, クラウドワーカーによって対話履歴に依存しない形式に書き換えられた質問(図 1右)が正解として付与されている. このタスクに取り組んだ先行研究では, 事前学習済み言語モデル (Pretrained Language Model: PLM) に対話履歴と質問を 1 つの繋がった単語系列として入力しているため,対話履歴に含まれるターンがそれぞれ別の内容を持つ文章として区別する表現力が低いことが考えられる. その結果, ターン単位のトピック遷移をうまく学習することができず,複雑な履歴参照が必要な質問の書き換えにおいて誤ったエンティティの参照などが発生していると考えられる。 そこで本研究では, 対話履歴に含まれるそれぞれのターンの重要度を推定し,この重要度を用いて質問書き換えを行うことを提案する。既存の CANARD データセットには,対話履歴のターン毎に質問書き換え上の重要度が付与されていないため, 本研究ではルールによりターンへの重要度のラベル付けを行い,ターンの重要度を推定するターン推定モデルを学習した. ## 2 関連研究 CQA タスクの代表的なデータセットとして,物語についての質問応答系列を収集した CoQA デー タセット [4] や Wikipedia の記事について収集した $\mathrm{QuAC}$ データセット [5] が存在する。これらの CQA データセットの各データは,a.) 答えを探す根拠になる文書, b.) 対話履歴, c.) 質問という 3 つの構成要素から成る. 対話履歴を考慮する場合,その解釈が必要となる (History Modeling [2]) 。 また,質問応答システムへの入力文長の制限が問題となる [6]. これらの課題は, BERTやT5 といった近年の事前学習済み言語モデル (PLM) においても問題となる. 対話履歴の扱いに関する先行研究として,初期には RNN やAttention 機構を用いたモデルが提案されており $[4,7]$, またより対話履歴を重視したモデルとしては,対話履歴内の前の質問に答えた際のモデル内部の潜在表現を次の質問に渡すモデル $[8,9,10]$ が提案されてきた. また別のアプローチとして, 対話履歴とそれに依存している質問から, 対話履歴に依存しない質問を生成することで CQA タスクを一問一答形式の質問応答タスクに帰着させる研究がある [3]. これらはモデルが解釈したユーザの質問意図をユーザにフィードバックでき,誤りをユーザが認識しやすいという点と,単一の質問に答える精度の高い質問応答システムやデータセットを利用できる点で他のアプローチよりも優位である。 対話履歴に依存しない質問を生成するタスクを質問書き換え (Question Rewriting: QR) タスクといい,本研究ではこのタスクに取り組む。このタスクを代表するデータセットに CANARD データセット [3] がある.このデータセットを扱った先行研究では, RNN ベースのモデル $[3,11]$ や PLM を利用したモデル [12], 共参照解消に着目したモデル [13], CQA と $\mathrm{QR}$ タスクを同時に学習させるモデル [14] などが提案されている. 先行研究が対話履歴と質問を単語系列として処理するのに対し, 本研究では対話履歴に含まれるそれぞれのターン間の関係性を学習するためのアーキテクチャを導入する,すなわち,ターン単位で履歴を扱う点がこれらの先行研究と異なる。 ## 3 提案手法: TurnRewrite モデル 本研究が提案する TurnRewrite モデルの構成図を図 2 に示す. 本モデルは, 複雑な履歴参照が必要な質問の書き換えに対して,対話履歴に含まれるター ンごとの潜在表現を利用してターン単位の重要度を考慮することで書き換え精度向上を図る. 具体的には, 単語単位による処理に加え履歴ターン単位で対話履歴の重要度を評価し,その結果を書き換え質問生成に利用する。 図 2 TurnRewrite モデル構成図 ## 3.1 人工的なデータセットの構築 TurnRewrite モデルでは,書き換えられた質問を生成するために必要なターンをすべてのターンから選択し強調することが必要であるが, 既存のデータセットではターン毎に質問を書き換える上での重要度でのラベル付けが行われていない。そこで本研究では,事前に CANARD データセットに含まれる対話履歴と書き換え前後の質問を用いるルールベースにより,対話履歴の各ターンに対してそのターンが書き換え質問の生成において必要か不要かのラベル付け (必要:1, 不要:0)を行った. 手順としては,まず,CQAデータセットに含まれる書き換え前と書き換えた質問を比較し,書き換えに使われた単語の集合を求め,事前に決められたストップワードを取り除くことで対話履歴から導入された単語を求めた. 次に, これらの単語が対話履歴のどのターンから取り出されたものなのかを割り当てる. 対話履歴を最も質問に近いターンを調べ,上記の手段により求めた単語が 1 つでもそのターンに含まれていれば,ターンと単語を関連付けてター ンに必要とラベル付けした. 続くターンを調べる際は,それまで調べたターンと関連付けられた単語を除く,書き換えで導入された単語がターンに含まれるかを調べた。この手順を具体例で示したものを付録 $\mathrm{A}$ に示す. ## 3.2 ターン強調モデル ターン強調モデルの構成を図 3 に示す. ターン強調モデルは対話履歴と書き換え前の質問を入力として対話ターンごとに書き換える上での重要度を出力する.まず,対話履歴のそれぞれのターンの 図 3 ターン強調モデル構成図 文 $h_{1}, \ldots, h_{k}$ と,書き換え前の質問 $Q_{\text {raw }}$ について,文エンコーダを利用して文表現を取得する.各対話ターンの表現を $h^{\prime}{ }_{i}$ と表す.このべクトル表現に,履歴を扱う上で重要と考えられるターンの番号を表す学習可能ベクトルを連結し, 履歴ターンのベクトルを生成する.続いて,対話履歴の前後に質問を付け足した $\left[Q^{\prime}{ }_{\text {raw }}, h^{\prime}{ }_{1}, \ldots, h^{\prime}{ }_{k}, Q^{\prime}{ }_{\text {raw }}\right]$ を bi-GRU を経由させることでターン間の関係性を取り込んだ内部表現を作る. 最後にその表現を多層パーセプトロンに入力することで,それぞれの履歴ターンに対して $[0,1]$ 範囲の重要度の予測を出力する. ## 3.3 質問書き換えモデル 質問書き換えモデルの構成を図 4 に示す. 本モデルは,書き換え前の質問,対話履歴,履歴ターン毎の必要度ラベルを入力として,対話履歴の文脈なしに質問意図が理解できる質問を出力する. 図 4 質問書き換えモデル構成図 本モデルは,書き換え前の質問と対話履歴を並べて 1 つの文章として PLM に入力してファインチューニングするが,モデルの入力となる単語べクトルに対話履歴の重要度に応じたべクトルを加算している点が通常の PLMを利用するモデルとは異な る.この手法は,入力のうち重要な部分にマーカー を引く様子をモデル化した [15] の手法を参照している. 加算するべクトル turn_importance_emb はター ン強調モデルが単語の属するターンに対して出力する重要度である importance $\left(h_{i}\right)$ と学習可能べクトル $I, U$ を用いて式 1 で計算される. すなわち,同じターンに属する単語のべクトルそれぞれに対して常に一定のベクトルを足し合わせている。なお,I と $U$ はそれぞれ最も重要・非重要なターンであるを示す学習可能なべクトルである. turn_importance_emb $\left(h_{i}\right)$ $=$ importance $\left(h_{i}\right) \times I+\left(1-\right.$ importance $\left.\left(h_{i}\right)\right) \times U$ ## 3.4 学習過程 TurnRewrite モデルの学習は 2 ステップで行った.まず 3.1 節で作成したデータセットを利用してターン強調モデルがルールで割り当てられたラベルを出力するように Binary Cross Entropy ロスで学習させた. この際,ラベルに不均衡があったため,バッチ内のラベルの出現回数の逆数の重みをロスに掛け正規化した。続いて,ターン強調モデルと質問書き換えモデルを接続し,質問書き換えモデルを teacher forcing しながら次トークンを予測させる Cross Entropy ロスを最小化することで提案の TurnRewrite モデル全体を学習させた. ## 4 実験 ## 4.1 実験設定 CANARD データセット [3] (統計情報を付録 B に示す)を用いて質問書き換えの評価実験を行った。対話トピック,書き換えるべき質問,先行する対話履歴を大力とし,対話履歴を見ないで解釈が定まる質問を出力することがタスクとなる。実験においては文エンコーダとして SimCSE [16]を用いた。また質問書き換えモデルとして関連研究 [12] で最も良い精度を達成した PLM である T5 (T5-base) を用いた。 SimCSE および T5 は Hugging Face Transformers ライブラリによる実装を利用し,bi-GRU や実験環境は Pytorch を用いて実装した。学習時の学習率,ター ン強調モデルにおける層の深さや幅はグリッドサー チでパラメタチューニングを行い,オプティマイザは AdamWを利用した。 ## 4.2 実験結果 BLEU スコアによる各モデルの書き換え精度の評価結果を表 1 に示す.ここで,Human は [3] にて報告されたクラウドワーカーが書き換えを行った際の BLEU スコアである. upperbound は, ターン強調モデルの gold データを利用した場合を示す.すなわち, ターン強調モデルが正解するという設定であり, TurnRewrite モデルの書き換え精度の上限を与える.なお,Human 以外のそれぞれのスコアは seed を変えて 3 回平均を取っている。 表 1 の $5^{1}{ }^{1}$ と TurnRewrite モデルの BLEU 値の比較からターン強調の効果が確認できる. TurnRewrite モデルと upperbound の比較からは, 性能向上の余地があることが示唆される. 基本的にはターン強調モデルの改善により性能向上が可能であるが,ターンの必要性に関するラベルの品質も問題となる. すなわち今回利用したデータセットである CANARD では,書き換えられた質問として正解が 1 例しか与えられておらず,クラウドワーカーによる誤りや解釈の違いが存在すると考えられる。例えば,[3]によると $10 \%$ の書き換え質問は履歴参照が残っている. ## 4.3 質問形式ごとの効果 CANARDデータセットにおける質問を大きく「列挙型」と「置換型」に分類し ${ }^{2)}$ ,それぞれの質問種別のデータをもとにモデルを個別に学習させ,複雑な履歴参照が必要な列挙型質問の書き換えにおけるターン強調モデルの有効性について評価した. それぞれの質問形式の例を表 2 に示す. 列挙型は,質問書き換えにおいて対話履歴におけるエンティティの列挙が必要な質問群である. 本研究では,"any other"などの特定の語句を含むものを列挙型として扱った. また,列挙型意外の質問を置換型に分類した. これらの質問の多くは代名詞の参照解 1)[12] の報告では BLEU が 58.1 と報告されているが,実験設定が明記されておらず再現することができなかった. 2) Train/Dev/Test のデータ数はデータ数が最も小さい列挙型に揃えた。結果,Train, Dev, Test はそれぞれ 5595, 631, 1060 質問からなるデータセットになった.表 2 列挙型,置換型質問の例 質問形式元質問 $\rightarrow$ 書き換え質問 列挙型 Any others? $\rightarrow$ Any other \{songs were featured on films besides "Dear Lover", "Walking After You" for the ...\} 置換型 Who did they play in the super bowl? $\rightarrow$ Who did $\{$ the Colts $\}$ play in the super bowl? 表 3 質問種別ごとのモデル性能 (BLEU スコア) 決を必要とする. 4.2 節と同じモデルで学習させた結果を表 3 に示す. 結果から,より履歴参照が必要である列挙型ではべースラインである T5を利用した場合に比べてターン強調モデルを利用した場合の方が性能が向上することがわかった。これは複雑な参照を含むデータについては履歴ターンの強調が有効であることを示唆している。一方,置換型の T5 と upperbound を比較すると,置換型の質問種別に対しては T5 のみで高い精度を出しており,ターン強調モデルによる履歴ターンの強調があまり効果を持たないことが示された.これは置換型は列挙型に比べ 1 ターンに含まれる人名などを参照することで質問を書き換えることができ,対話履歴に含まれるターンの関係性を考慮したターン強調を行う有効性が低いためであると考えられる。また履歴強調モデルを学習させた TurnRewrite と弱教師データセットを利用した upperbound を比較すると,ターンの誤選択による性能劣化が存在することがわかった. これは,履歴ターンの強調よりもターンの誤選択による性能劣化が大きいことを示唆している. ## 5 まとめ 本研究では $\mathrm{CQA}$ タスクのサブタスクである $\mathrm{QR}$ タスクに対してターン単位で履歴から重要なターンを強調することによる書き換え精度向上を目指した. ターン強調モデルの学習を行うため, 履歴のそれぞれに対して重要であるか否かのラベル付けをルールで行ったデータセットを作成した. 評価実験の結果から,ターン強調をする機構がないモデルに比較して書き換え精度の向上が見られたことから, ターン強調の有効性が確認できた。 ## 参考文献 [1] Hariom A. Pandya and Brijesh S. Bhatt. Question answering survey: Directions, challenges, datasets, evaluation matrices. CoRR, Vol. abs/2112.03572, , 2021. [2] Gupta Somil, Rawat Bhanu Pratap Singh, and Yu Hong. Conversational machine comprehension: a literature review. In Proceedings of the 28th International Conference on Computational Linguistics, pp. 2739-2753, 2020. [3] Ahmed Elgohary, Denis Peskov, and Jordan Boyd-Graber. Can you unpack that? learning to rewrite questions-incontext. In Empirical Methods in Natural Language Processing, 2019. [4] Siva Reddy, Danqi Chen, and Christopher Manning. Coqa: A conversational question answering challenge. Transactions of the Association for Computational Linguistics, Vol. 7, No. 0, pp. 249-266, 2019. [5] Choi Eunsol, He He, Iyyer Mohit, Yatskar Mark, Yih Wen-tau, Choi Yejin, Liang Percy, and Zettlemoyer Luke. QuAC: Question answering in context. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 2174-2184, 2018. [6] Zhao Jing, Bao Junwei, Wang Yifan, Zhou Yongwei, Wu Youzheng, He Xiaodong, and Zhou Bowen. RoR: Read-over-read for long document machine reading comprehension. In Findings of the Association for Computational Linguistics: EMNLP 2021, pp. 1862-1872, 2021. [7] Chenguang Zhu, Michael Zeng, and Xuedong Huang. Sdnet: Contextualized attention-based deep network for conversational question answering. ArXiv, Vol. abs/1812.03593, , 2018. [8] Hsin-Yuan Huang, Eunsol Choi, and Wen tau Yih. Flowqa: Grasping flow in history for conversational machine comprehension. ArXiv, Vol. abs/1810.06683, , 2018. [9] Yeh Yi-Ting and Chen Yun-Nung. FlowDelta: Modeling flow information gain in reasoning for conversational machine comprehension. In Proceedings of the 2nd Workshop on Machine Reading for Question Answering, pp. 86-90 url =, 2019. [10] Yu Chen, Lingfei Wu, and Mohammed J. Zaki. Graphflow: Exploiting conversation flow with graph neural networks for conversational machine comprehension. In Proceedings of the Twenty-Ninth International Joint Conference on Artificial Intelligence, IJCAI-20, pp. 12301236, 2020. [11] Vakulenko Svitlana, Longpre Shayne, Tu Zhucheng, and Anantha Raviteja. Question rewriting for conversational question answering. p. 355-363. Association for Computing Machinery, 2021. [12] Sheng-Chieh Lin, Jheng-Hong Yang, Rodrigo Nogueira, Ming-Feng Tsai, Chuan-Ju Wang, and Jimmy Lin. Conversational question reformulation via sequence-to-sequence architectures and pretrained language models. CoRR, Vol. abs/2004.01909, , 2020. [13] Tseng Bo-Hsiang, Bhargava Shruti, Lu Jiarui, Moniz Joel Ruben Antony, Piraviperumal Dhivya, Li Lin, and Yu Hong. CREAD: Combined resolution of ellipses and anaphora in dialogues. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 3390-3406. Association for Computational Linguistics, 2021. [14] Kim Gangwoo, Kim Hyunjae, Park Jungsoo, and Kang Jaewoo. Learn to resolve conversational dependency: A consistency training framework for conversational question answering. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 6130-6141, 2021. [15] Qu Chen, Yang Liu, Qiu Minghui, Croft W. Bruce, Zhang Yongfeng, and Iyyer Mohit. Bert with history answer embedding for conversational question answering. p. 1133-1136, 2019. [16] Gao Tianyu, Yao Xingcheng, and Chen Danqi. SimCSE: Simple contrastive learning of sentence embeddings. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 68946910. Association for Computational Linguistics, 2021. ## A 対話履歴のラベル付けルール 対話履歴のラベル付けの手法を図 5 を用いて説明する。 図 5 ラベル付けの手法 この例では, 図上部に示すようにターン 1 からターン 3 までの 3 ターンが会話履歴として与えられ,図下部に示すようにターン4の質問を書き換える場面を想定している.まず,ラベル付けのためにデータセットから4ターン目を人手で書き換えられた質問を用意する (図黄色背景). 次に,4ターン目の書き換え前後の単語を比べ,書き換えられた質問に増えた単語を求める (図の例では”daffy”など,中央青枠に示した). ここで, "at" や"the" といった単語も増えているが,これらはストップワードのため除外されている,続いて,これらの単語を含む対話履歴を「書き換えに必要」とラベル付けしていくが,このとき最も新しいターン(例では 3 ターン目の"first appeared ...")から調べる. 例では最も新しいターン 3 をまず調べ,\{”Porky", "Duck", "Hunt”\}が含まれるため,必要とラベルされる.続いて 2 ター ン目も同様に調べるが,この際には 3 ターン目に含まれていた\{"Porky", "Duck", "Hunt”\}以外の単語とマッチングを行う.ここでも\{”Daffy”\}が含まれるため必要とラベルされる. 1 ターン目も同様に調べると,確かに”Daffy"や”Duck"が含まれるが,これらはターン 2, 3 でマッチングされているため,ここではマッチングが起こらず,ターン 1 は不要とラベルされる。 ## B CANARD データの統計 CANARD データセットは QuAC データセットの Dev セットと一部の Train セットを利用して作成されている. CANARDデータセットの各種統計を表 4 に示す. 表 4 CANARDデータセットの統計 特に,書き換えられた質問の単語数と書き換え前の質問の単語数の比率を図 6 に示す. 図 6 CANARD Train データセットにおける書き換え前後の単語数の比率 図 6 より,多くの書き換えた質問の単語長は書き換え前の単語長の 2 倍を下回るが,それ以上になる質問書き換えも一定数存在することが確認できる.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A12-1.pdf
# 人間らしい予測処理機構を取り入れた質問応答モデルの提案 :早押しクイズのパラレル問題を題材として 山下陽一郎 ${ }^{1}$ 原田宥都 ${ }^{2}$ 大関洋平 ${ }^{2}$ ${ }^{1}$ 東京大学教養学部 ${ }^{2}$ 東京大学大学院総合文化研究科 \{yamashita-yoichiro416, harada-yuto, oseki\}@g. ecc. u-tokyo. ac. jp ## 概要 本研究では、早押しクイズの問題を題材として、不完全な質問文から解答を生成する質問応答モデルを提案する。提案モデルは、不完全な質問文に対して、その続きを予測して質問文の後半部を補完する前段と、そうして得られた質問文に対して解答を出力する後段からなる。このモデルの前段にはファインチューニングした GPT-2 を用い、後段には Dense Passage Retriever による質問応答モデルを用いる。結果として、質問文の前半部のみから解答を出力したモデルに比べて、予測機構を組み込んだモデルの方が高い精度の解答を出力できることがわかった。 ## 1 はじめに 自然言語で表現された質問に対して適切な解答を与える技術は、質問応答と呼ばれている。特に、分野や領域が限定されていない質問応答はオープンドメイン質問応答と呼ばれる。その中でも単純な事実や出来事を問う質問はファクトイド型質問と呼ばれ、 この技術は検索サービスなど身近な場面にも応用されている $[1]$ 。オープンドメイン質問応答のうちファクトイド型質問の研究では、クイズの問題が題材として扱われることが多く、SQuAD[2]や TriviaQA[3] といった英語のデータセットが存在する。 2011 年には米国のクイズ番組 Jeopardy!において、IBM の開発した Watson というシステムが活躍した[4-5]。日本でもクイズの問題のデータセットである JAQKET が公開されている[6]。 さらに、クイズを題材とした質問応答研究においては、質問文の途中までを入力して解答を生成する、「早押しクイズ」モデルの開発も行われている [7-8]。 これらの「早押しクイズ」モデルでは、主に不完全な質問文から「直接」解答となる単語を生成する手法が採用されているが、人間が早押しクイズを解く際は、まず、不完全な質問文からその続きを先読みし、その後に解答を導き出す。そのため、既存モデルのアプローチは「人間らしさ」の観点から妥当ではない、という可能性が残されている。よって本研究では、「問題文の先読み」に焦点を当て、「問題文の先読み十解答の出力」という構造を持つモデルを提案する。人間のクイズプレイヤーと同様に、問題文の前半部からその後半部を予測し、完全な問題文を推測した上で正解を導き出すことを目指す。 ## 2 関連研究 ## 2.1 クイズを題材とした質問応答研究 「AI 王〜クイズ $\mathrm{AI}$ 日本一決定戦〜」(以下、「AI 王」)という日本語のクイズを題材とした質問応答コンペティションでは、22,000 問以上のクイズの問題が解答とともに公開されており、9 割を超える正解率を誇るシステムが開発されている。このコンペテイションは、問題文全文から解答を導くという形式で、ベースラインモデルも併せて公開されている[9]。 ## 2.2 早押しクイズの質問応答研究 Neural Information Processing Systems においては、 Human-Computer QA という早押しクイズ形式の問題を題材としたコンペティションが開催された[7]。 この大会は、逐語的に与えられる問題文に対し、モデルと人間のクイズプレイヤーが早押しクイズを競うというものであった。人間のプレイヤーを破り優勝したモデルは、与えられた問題文から正解となる単語の侯補を列挙する Quiz Solver と、答えの型式を予測する Type Predictor によって構成されている [8]。このように、英語の問題文では、答えとなる単語が person, organization, product などのいずれの夕イプに一致するかが早い段階で明示されるため、これを解答を導く際の手がかりとして利用できる。一 方で、日本語のクイズでは、このような答えの型が文末まで明示されない以上、クイズプレイヤーにとっては予測処理が重要だと考えられる。 ## 3 提案モデルの構造 図 1 本研究の提案するモデル 本モデルは図 1 に示すように「問題文の先読み十解答の出力」の 2 つの機構を組み合わせた構造である。モデルの前段では問題文の前半部の入力に対し、後半部を予測して出力する。モデルの後段では、問題文の前半部と前段が出力した後半部を合わせて完成した文を入力し、その問題の解答を出力する。 ## 3.1 問題文の先読み: 本モデルの前段 前段では、問題文の前半部を入力として与え、その続きとなる後半部を補って出力させることで予測処理を実装する。実装には、Huggingface[10]上で rinna 社の公開している[11]'GPT-2[12]をファインチューニングして用いる。 ## 3.1.1 パラレル問題 早押しクイズの問題文には多様なタイプの問題が存在するが、本研究ではその中でも特に「パラレル」 という形式の問題を扱う。パラレルの問題文は「ですが問題」とも呼ばれ、例えば おおいぬ座のアルファ星はシリウスですが、こいぬ座のアルファ星は何?(答. プロキオン) のように、「AはXですが、A'は何?」という構造を持つ。パラレルの問題文では、本題は問題文の後半部に置かれるが、場合によっては問題文の前半のみを聞けば、その後半部を予測して解答できる。また、機械的な処理の観点からも、パラレルの問題文は、「ですが、」という特徴的な語によって問題文が明示的に前後半に分割できるため、前半部から後半部を予測するという目的に適っており、扱いやすいデータと言える。本研究では、問題文の先読みに  焦点を当てるため、パラレルの問題文に絞って扱う。 ## 3.1.2 パラレル問題の分類 本研究では、「ですが、」までを読んだ時に問題文の後半部が予測しやすいかどうかという観点から以下の 2 つのカテゴリに分類して分析する。 ${ }^{i i}$ - カテゴリ 1 : 後半部を予測しやすい問題このカテゴリには、問題文の前後半で明らかな対比があり、後続する後半部が明らかなもの(1)、 3 つの要素を対比させているもの(2)が含まれる。 (1) 手の爪に施す化粧はマニキュアですが、足の爪に施す化粧は何? (2)中国の三国時代において、魏の首都は洛陽、呉の首都は建業ですが、蜀の首都はどこ? - カテゴリ 2 : 後半部を予測しにくい問題このカテゴリには、問題文の前後半の対比が明らかではなく、後続する後半部が一つに絞りきれないような問題が含まれる $(3,4)$ 。 (3) 日本の都道府県で、宮城県の県庁所在地は仙台市ですが、茨城県の県庁所在地は何市? (4) 砂糖やミルクを入れない紅茶をストレートティーといいますが、砂糖やミルクを入れないコーヒーを一般に何という? ## 3.1.3 データセット データセットとして、以下の資料からパラレルの問題と解答を収集した。 - $\mathrm{AI}$ 王データセット[6] 全 22335 問のうち、「ですが、はすが、」を含むパラレルの問題 2167 問を抽出した。 - Quiz Worksii 全 18477 問の各問題にタグが付されており、その中で「パラレル」のタグが付されているものを 850 問抽出した。 ・クイズの杜 ${ }^{\mathrm{iv}}$ 二次利用がフリーになっている問題セットのみを使用し、その中から「ですが、はすが、」 を含むパラレルの問題 959 問を抽出した。 以上の資料からこのようにして得られた問題のうち、「ですが、はすが、」を文字列として含むがパ  ラレルの構造を持たない問題vを除外した結果、最終的に 3765 問のパラレルの問題とそれに対応する解答を得た。GPT-2 のファインチューニングに際しては、「ですが、/ますが、」の直後に区切り記号[SEP] を挿入して学習することで、与えた問題文の前半部に対して自然な問題文の後半部を出力できるようにファインチューニングした。 ## 3.2 解答の出カ: 本モデルの後段 後段では、前段で後半部を予測して補った問題文を入力として与え、その問題に対する適切な解答を出力する。実装には第 2 回 AI 王で公開されたべー スラインモデル[7]を用いる。このモデルは、現在の質問応答の主流の技術の Dual Passage Retriever (以下、DPR)[14]を日本語の質問応答のために実装している。AI 王の評価用のデータセットを用いた正解率は 0.5865 である。 ## 4 実験と考察 ## 4.1 実験 rinna/japanese-gpt2-medium のモデルを、epoch 数を 10 としてファインチューニングを施した。パラレルの問題文を用い、以下の 4 条件で実験を行った。 a. 問題文全体をDPRに入力して解答を得る。 b. 問題文の前半部のみを DPR に入力して解答を得る。 c. 問題文の前半部をファインチューニングしたGPT-2 に入力し、問題文の後半部を予測させた上で、前半部と結合させて DPR に入力して解答を得る。 d. GPT-2をファインチューニングする際に、問題文の前半部で対比されている語を鉤括弧で括って学習した上で $\mathrm{c}$ 条件と同様に解答を得る。実際の早押しクイズでは、対比される語が強調されて読まれることが多いという慣例[13]に準えたものである。 a 条件は DPR の解答生成の精度をそのまま測るべ一スラインである。今回の実験の各条件での正解率は以下のようになると予測される。 $a$ 条件 $>c$ 条件 $=d$ 条件 $>b$ 条件  また、 $\mathrm{c}$ 条件と $\mathrm{d}$ 条件の予測の精度を、「妥当な予測の割合」により評価する。「妥当な予測の割合」 とは、GPT-2 が元の問題と同じ意味の後半部を正しく予測できたものに加え、問題文の前後半で対比構造を持ち、想定される解答が現実世界に存在するような問題文の予測を合わせた割合である。(5)のように、GPT-2 の予測が元の問題文とは異なるものの、入力された前半部と自然な対比構造を保っている場合は「妥当な予測」をしていると判定し、そうでない場合は予測は妥当でないと判定する。 (5)日本の初代内閣総理大臣は伊藤博文ですが、元の問題文: アメリカの初代大統領は誰? 妥当な予測の例: 二代目の内閣総理大臣は誰?妥当でない予測の例: 日本の初代大統領は誰? ## 4.2 結果 第 2 回 AI 王のデータセットで開発用として公開されている問題のうち、パラレルの問題 113 問を用いて実験を行った。各条件での正解率と「妥当な予測の割合」は表 1 の通りであった。 ## 表 1 各条件でのモデルの正解率 正解率は元の問題文に対する正解率。 $\mathrm{c}, \mathrm{d}$ 条件の妥当な予測の割合の括弧内の値は、左から順にカテゴリ 1,2 の問題についての妥当な予測の割合。 & \\ b. 問題文前半部のみ & 0.159 & -- \\ c. 後半部を予測生成 & 0.186 & 0.443 \\ d. 後半部を予測生成 & & $(0.62 / 0.36)$ \\ & 0.230 & 0.549 \\ a 条件を見ると、DPRのパラレル問題の正解率が 0.354 と、開発データ全体の問題に対する正解率である、0.5865を大きく下回っている。パラレルの問題は解きにくいタイプの問題だとわかる。 $\mathrm{b}$ 条件と $\mathrm{c}$ 条件を見ると、 $\mathrm{b}$ 条件での正解率に比べて c 条件での正解率の方が高い。予測処理機構であるファインチューニングした GPT-2 が、正解率の向上に寄与しているとわかる。 $\mathrm{d}$ 条件の結果から、対比語を明示させた上で学習 図 2 妥当な予測をした例の Self-Attention させると、正解率・妥当な予測の割合のどちらもが向上することが確かめられた。 また、d 条件における妥当な予測の割合は全体の 0.549 であった。問題のカテゴリに応じた妥当な予測の割合は、カテゴリ 1 (予測しやすい対比) では 0.70 , カテゴリ 2 (予測しにくい対比) では 0.46 となり、 クイズプレイヤーはカテゴリ 1 の問題を予測しやすいとする伊沢[13]の分類と整合する結果となった。 ## 4.3 分析:Attention 重みの可視化 ファインチューニングした GPT-2によるパラレルの問題文の予測で、モデルが実際に予測できた例とできなかった例のそれぞれについて、モデル内部の Self-Attention を可視化して分析を行った。 Attention 重みの可視化には BertViz[15] $]^{\mathrm{vi}}$ 用いた。 BertViz は、GPT-2 が文をエンコードする際の自己注意(Self-Attention)を可視化できる。 モデルが妥当な予測をしたいくつかの例について、特定の Attention-Head viiに注目した際の Self-Attention を可視化した結果が図 2 である。「長い」「共和党」 という後半部の対比語をエンコードする際に、それぞれの前半部の対比語である「短い」「民主党」へ強くAttention を当てて対比関係を処理しているような Attention-Head が存在することがわかる。 一方で、図 2 と同じ Attention-Head に注目して、妥当でない予測を生成した例の Attention 重みを可  図 3 妥当でない予測をした例の Self-Attention 視化した結果が図 3 である。予測した後半部の最初の語、すなわち「ですが、」の直後の語の Attention は、前半部の対比されている語に強く当たっていない。また、本来のパラレルの問題文を入力した際の Self-Attention についても、後半部の対比語である 「亀」の Attention は、前半部の対比語である「鶴」 に強く当てられていない。このように、問題文の前後半の対比が捉えられていないことがわかる。 ## 5 おわりに 本研究では、クイズのパラレルの問題を題材として、予測処理機構を組み込んだ質問応答モデルを用いて実験を行った。結果として、質問文の前半部のみから解答を生成する際、予測処理機構は正解率の向上に寄与することが示された。さらに、問題文に特化した手がかりを明示的に示した上でモデルを学習することでも正解率が向上した。問題文の先読みという予測処理に限ると、5 割以上の問題で妥当な予測を行えることが確かめられた。また、モデルが予測しやすい問題の傾向は、クイズプレイヤーによる経験的な問題の分類と合致する結果となった。 モデルの予測の成否とモデルの Self-Attention に注目すると、問題文中の対比関係を反映しているような特定の Attention-Head の存在が明らかになった。 モデルが妥当な予測をした例では後半部で対比されている語の Self-Attention が、それと対応する前半部で対比されている語に強く当たっているのに対し、妥当な予測をできなかった例ではその語に強い Attention が当たる傾向が見られないというように、当該の Attention-Head の振る舞いが異なることも確かめられた。 ## 謝辞 本研究は、JST さきがけ JPMJPR21C2 の支援を受けたものです。 ## 参考文献 [1] 奥村学, 磯崎秀樹, 東中竜一郎, 永田昌明, 加藤恒昭. 質問応答システム. コロナ社, 2009. [2] Pranav Rajpurkar, Robin Jia, and Percy Liang. Know what you don't know: Unanswerable questions for squad, 2018. https://arxiv.org/abs/1806.03822 [3] Mandar Joshi, Eunsol Choi, Daniel Weld, , and LukeZettlemoye. TriviaQA: A large scale distantly supervised challenge dataset for reading comprehension, Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics, 2017. [4] Ferrucci, D., Brown, E., Chu-Carroll, J., Fan, J., Gondek, D., Kalyanpur, A. A., \& Welty, C. Building Watson: An overview of the DeepQA project. AI magazine, Vol. 31, No. 3, pp. 59-79, 2010. [5] 金山博, 武田浩一. Watson: クイズ番組に挑戦する質問応答システム. 情報処理, Vol. 52, No. 7, pp. 840-849, 2011 . [6] 鈴木正敏,鈴木潤,松田耕史,西田京介,井之上直也. JAQKET:クイズを題材にした日本語 QA データセットの構築. 言語処理学会第 26 回年次大会発表論文集, pp. 237-240, 2020. [7] AI 王コンペティション実行委員. AI 王公式べ ースラインシステム, 2019 https://sites.google.com/view/project-aio/baselines [8] Escalera, S., and Weimer, M. The NIPS'17 Competition: Building Intelligent Systems. Springer International Publishing, 2018. [9] Yamada, I., Tamaki, R., Shindo, H., and Takefuji, Y. Studio Ousia's quiz bowl question answering system. The NIPS'17 Competition: Building Intelligent Systems, pp. 181-194, Springer International Publishing, 2018. [10] Wolf, T., Debut, L., Sanh, V., Chaumond, J., Delangue, C., Moi, A., and Rush, A. M. Transformers: State-of-the-art natural language processing. Proceedings of the 2020 conference on empirical methods in natural language processing: system demonstrations, pp. 38-45, 2020. [11] 趙天雨,沢田慶.日本語自然言語処理における事前学習モデルの公開. 人工知能学会研究会資料言語・音声理解と対話処理研究会 93 回 (2021/11), pp. 169-170, 2021. [12] Radford, A., Wu, J., Child, R., Luan, D., Amodei, D., and Sutskever, I. Language models are unsupervised multitask learners. OpenAI blog, Vol. 1, No. 8, 2019 [13] 伊沢拓司. クイズ思考の解体. 朝日新聞出版, 2021. [14] Karpukhin, V., Oğuz, B., Min, S., Lewis, P., Wu, L., Edunov, S., and Yih, W. T. Dense passage retrieval for open-domain question answering. arXiv preprint arXiv:2004.04906, 2020. [15] Vig, J. A multiscale visualization of attention in the transformer model. Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics: System Demonstrations, 2019. ## A 付録 ## A. 1 GPT-2 が予測した問題文の例 ファインチューニングした GPT-2 に、パラレルの問題文の前半部を与えた際の出力の例を表 2 に示す。 ## 表 2 GPT-2 の予測した問題文 「ですが、/ますが、」までを入力として与えた際のGPT-2 の出力の例。妥当な予測な例と妥当でない予測の例をそれぞれ示す。出力に際しては、ビーム幅を 5 としてビームサーチを行った。 & O \\ ## A. 2 可視化した Attention 重み 図 4 Attention 重みの可視化の例 モデルが問題文の妥当な予測をした例について、 Attention 重みを可視化した結果を左に示す。本文セクション 4.3 の分析と同じAttention-head に注目している。本文中の例と同様に、aa 問題文後半部で対比されている語「参議院議員」「複数の」の Self-Attention が、それぞれと対応する前半部の対比語「参議院議員」「一つ、単」に強く当たっていることが見て取れる。
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A12-2.pdf
# 早押しクイズ解答システムの構築と各時点における正答率推定 杉浦 尚弥 1 山田康輔 2 笹野遼平 2 武田 浩一 2 1 名古屋大学情報学部 2 名古屋大学大学院情報学研究科 \{sugiura.naoya.e7, yamada.kosuke.v1\}@s.mail.nagoya-u.ac.jp } \{sasano, takedasu\}@i.nagoya-u.ac.jp ## 概要 本研究では、不完全な質問の入力に対して適切な解答を出力する早押しクイズ解答システムの構築に取り組む。具体的には、GPTによって質問文の後に直接解答を生成するシステムと、GPTにより質問文補完を行った後に、DPRを用いた Retriever-Reader アプローチによって解答を生成するシステムを構築し評価を行う。さらに、システムの解答出力確率や関連文書を選択するスコアに基づき、質問文の各時点における正答率を推定する手法を提案する。 ## 1 はじめに 早押しクイズとは、競技クイズのジャンルの 1 つであり、問題が読まれている途中に解答を行うことができるもので、解答する速度が重要となる性質上、不完全な文に対しての解答をすることが多いという特徵を持つ。競技クイズは対象とする知識の範囲を限定しないため、オープンドメイン質問応答タスクとして広く研究が行われているが、その主要なデータセットである Natural Questions [1] や、 TriviaQA [2] は入力となる問題文が完全なものであり、これらを使用して構築されたシステム $[3,4,5]$ は不完全な質問に対して解答を行うことは想定されていない。 また、早押しクイズにおいては、解答を行うだけではなく、現時点で与えられた問題文に対して予測された解答の正答らしさを考慮し、実際に解答するかどうかを判定することが重要となる。たとえば、表 1 に示す問題において「古代エジプトでは」まで読まれた場合を考えると、実際の解答である「シリウス」以外にも古代エジプトに存在した物は数多く存在することから、その時点で予測された解答は誤答である可能性が高い。一方、後半まで読まれた場合は解答はほぼ一意に定まる。このため、質問文の各時点における解答候補が実際に正解である確信度表 1 早押しクイズ解答システムの出力例完全な質問文: 古代エジプトでは「ナイルの星」と呼ばれたという、おおいぬ座の星は何でしょう?確信度: 1.000 解答: シリウス正解 75\%の質問文: 古代エジプトでは「ナイルの星」と呼ばれたという、おおいぬ座の星は何でしょう?確信度: 1.000 解答: シリウス正解 50\%の質問文: 古代エジプトでは「ナイルの星」と呼ばれ確信度: 0.771 解答: シリウス正解 25\%の質問文: 古代エジプトでは「ナイルの星」と確信度: 0.125 解答: パピルス不正解 を算出することによって、より性能の高い早押しクイズ解答システムが構築できると考えられる。 そこで本研究では、まず、不完全な質問の入力に対して適切な解答を出力する早押しクイズ解答システムを構築し、続いて、各モデルにおいて確信度の算出を行い、確信度と正答率の関係性について調査する。具体的には、GPT [6] によって質問文の後に直接解答を生成するシステムと、GPT による質問文補完を行った後、Dense Passage Retrieval (DPR) [3] を用いた Retriever-Reader アプローチによって解答を生成するシステムを構築する。また、前者のシステムでは解答生成時におけるトークン出力確率を用い、後者のシステムではモデルの出力に用いられるスコアを用いることで、確信度を算出する。表 1 に記載した確信度は、前者のスコアであるが、確信度が低い場合は不正解、確信度が高い場合は正解となる解答を出力しており、確信度が早押しクイズシステムにおいて適切に機能していることが確認できる。 ## 2 競技クイズに対する解答システム 本節では、まず、競技クイズに対する先行研究の紹介し、その後不完全な質問文に対応する早押しクイズ解答システム、およびモデル出力に基づく確信度の算出法を提案する。 ## 2.1 オープンドメイン質問応答モデル 競技クイズはオープンドメイン質問応答タスクとして扱われており、単一モデルで直接解答を生成するモデルと、関連文書の検索と解答箇所の抽出の 2 つの複合タスクとして解答する Retriever-Reader アプローチによる解答モデルの 2 つが主流である。 単一モデルでの解答としては GPT が代表例である。GPT とは、Transformer [7] の Decoderをべースとし、大規模なテキストコーパスを用いて、ある単語列に後続する単語を予測する学習を行った事前学習済み言語モデルである。GPT はこの性質から入力したテキストに続くテキストを生成するような言語生成関連タスクで利用でき、質問応答の場合、質問に対して解答だけを推論するような入力形式にすることで、解答を生成することができる。また、GPT では後続タスクのデータを利用したファインチュー ニングを行うことで、より高い性能が見込まれるため、質問応答モデル構築においてもファインチュー ニングすることが多い。 複合タスクでの解答としては、Retrieverとして DPR を用いた Retriever-Reader に基づくモデルがその代表例である。DPRは、問題文と各文書に対し異なる BERT [8] を用いる Dual-encoder 構造を持ち、 BERTへの入力の際、文書の先頭に挿入する特殊トークン [CLS]を用いて問題文、各文書の埋め込み表現を獲得する。その後それらの内積により計算された意味的な類似度を基に文書選択を行う手法である [3]。Readerでは、BERTによる正解を含む関連文書予測と文書内の解答箇所の抽出予測を行う。関連文書予測では、[CLS]トークンの位置で答えを含みそうな文書を予測する。ここで選ばれた文書に対して、解答箇所抽出予測を行い、文書中から解答となるトークン列の始点と終点を決定し出力する。 ## 2.2 早押しクイズの解答システム 前節のシステムは完全文において有効であることは確認されているが、不完全な文の入力に対し解答することが求められる早押しクイズにおける有効性は不明である。一般的に、問題の一部のみが与えられた場合、正解となりうる解答の候補は複数存在する上、解答を行うために必要な情報が与えられていない可能性があるなど、完全文が与えられた場合と問題の性質が大きく異なる。よって早押しクイズタスクに特化した手法が必要になると考えられる。 そこで本研究では、大規模言語モデルである GPT による推論にのみに基づいて解答するシステム GPT (推論)と、GPTによる問題文補完を行い、DPRを用いた Retriever-Reader アプローチに基づくシステム GPT+DPR の 2 つのシステムを構築する。GPT (推論) では、入力形式を『問題文+“答えは「”』とすることで、括弧の先の部分を推論させ、括弧の中身を解答として出力する形式を取った。問題文と『答えは「』の間に「/を挟むことによって、問題文の区切りを認識させ、誤って文章の補完が行われないようにした。GPT+DPRでは、不完全文を GPT に入力して問題文を補完し、完全な文章を出力として得てから、それを入力として DPRを用いた Retriever-Reader に基づくモデルに解答させる形式を取った。 ## 2.3 各モデルの確信度 本研究では、各モデルの解答に対して、各モデルが出力を生成する際に使われている内部スコアを利用して確信度を計算する。確信度はモデルの解答が正答であるかどうかの判断を行うための指標として用いる値であり、確信度が大きいほど、正答率が高くなるような性質を持つ必要がある。 GPT (推論) では、モデルが出力した解答の先頭トークンの生成確率 (以下、生成スコア) を確信度として利用する。GPT は文生成において、文末の $n$ 番目までのトークンが与えられた状態で、語彙の中から最も生成スコアの高いものを $n+1$ 番目のトークンとして出力する。答えが少数のトークンで構成されることが多いクイズにおいては、先頭トークンが解答の方針のほとんどを決めることから、先頭トー クンの生成スコアのみを確信度として採用した。 一方、GPT+DPR の確信度として利用可能な内部スコアとして、Reader で計算された関連文書スコア、抽出スコア、およびそれらの相加平均である平均スコアの 3 つを考える。Reader では各文書の [CLS]トークンを学習した線形層を用いてスコア化し、最も高いスコアの文書を選択するが、関連文書スコアはこのスコアである。さらに、文書選択後、選ばれた文書をトークンごとに埋め込み表現にし、別途学習した線形層を用いて始点スコアと終点スコアを計算したのち、最も始点スコアが高かったトー クンから最も終点スコアが高かったトークンまでのトークン列を解答として出力するが、抽出スコアとはこの時の始点スコアと終点スコアの和である。 表 2 本研究で使用したデータセットの概要 ## 3 実験 提案した早押しクイズ解答システムの正答率の検証、および、各モデルの確信度の有効性の調査を行った。なお、文字べースで問題文を先頭 $x \%$ で切ったものを、質問文完全度 $x \%$ と表記する。正答率検証実験では、2.2 節で説明した GPT (推論) モデル、GPT+DPR モデルを、質問文完全度 $25 \%, 50 \%$, $75 \%, 100 \%$ の問題に適用し、その正答率を検証した。確信度の有効性調査実験では、各質問文完全度において、 2.3 節で説明した各モデルの確信度と正解率の関係を調査することで確信度の評価を行った。 ## 3.1 実験設定 データセット本稿では、第 2 回 AI 王公式配布データセット (以下、AI 王) ${ }^{1)}$ 、および、クイズアプリ「みんなで早押しクイズ」で出題された問題をクローリングしたデータを用いた (以下、「みんはや」 $)^{2)}$ 。各データ数と平均文字数を表 2 に記載する。なお、DPR の学習は問題文と答えの他に正例文書、負例文書が必要であるため、DPR の学習は AI 王データのみを用いて行い、追加した「みんはや」 データは GPT の学習にのみ使用した。 学習設定 GPT (推論)と GPT+DPR の 2 つのモデルを用いて比較を行った。GPTは rinna社が Hugging Face [9] 上で公開しているモデル3)を使用した。DPR は第 2 回 AI 王で公開されたベースラインモデル4) を使用した。GPT (推論) は学習データを『問題文+“尖答えは「○○」”』の形にフォーマットしてファインチューニングを行った。GPT+DPR においては、 GPT は学習データの問題文だけを使用しファインチューニングした。いずれの場合もエポック数は 5 で学習を行った。DPR は、Retriver と Readerにおいて事前学習済み $\mathrm{BERT}^{5}$ )をべースとし、Retriever は  表 3 正答率検証実験の結果 バッチサイズ 128、学習率 $1 \mathrm{e}-5$ 、エポック数 5 で、 Reader はバッチサイズ 8、学習率 2e-5、エポック数 3 でそれぞれ学習した。 比較手法正答率検証実験では、GPT (推論) と GPT+DPR の 2 つのモデルを比較した。確信度の有効性調査実験では、GPT (推論) については生成スコアを、GPT+DPR については関連文書スコア、抽出スコア、平均スコアの 3つを用いて実験を行った。 評価指標正答率評価において、モデル出力の正誤は文字列の完全一致で評価した。ただし、表記摇れにより不正解となることを防ぐため、モデル出力と答えから『()[ ]・=』の 6 種類の記号を機械的に取り除いた後に文字列の比較を行った。 確信度の有効性調査実験では、正解率-解答率曲線を作成し、その曲線の下の面積 (AUC) により、確信度の有効性を調査した。ここで、解答率とはシステムが実際に解答を出力する割合である。確信度が閾値 $\alpha$ を超えるものだけを解答するものとすると、 この閾値 $\alpha$ を変化させることで解答率を制御可能である。一方、正解率とは、システムが解答を出力したもののうち、正解だったものの割合である。 $\alpha$ を 0 未満にした場合,これはシステム全体の正答率と一致し、 $\alpha$ を大きくするにつれ、確信度が高いものだけが評価の対象となるので、正解率は高くなることが期待される。 ## 3.2 実験結果: 正答率検証 GPT (推論) と GPT+DPR の質問文完全度ごと正答率を表 3 に示す。質問文完全度が下がるにつれ正答率が下がっていく結果となったが、その下がり方は質問文完全度に比例せず、100\%~75\%にかけては比較的緩やかな落ち込みであった。これは、クイズの問題文の前半から中間にかけては答えを決定付ける重要な単語が多く出現するのに対し、後半に情報量の多い単語が出現するケースは少ないためだと考えられる。2つのモデルのスコアを比較すると、質問文完全度が $100 \%$ の場合は GPT+DPR の方が高い性能となった一方で、問題文が不完全であった場合は両モデルの性能に差は確認できなかった。 表 4 確信度の有効性調査実験の結果 図 1 確信度の有効性調査における正解率-解答率曲線 ## 3.3 実験結果: 確信度の有効性調査 表 4 に確信度の有効性調査実験の結果を示す。 GPT+DPR に対する 3 つの確信度の中では、関連文書スコアを用いた場合が、最も高い AUC となった。 また、全ての結果の中で GPT (推論) の生成スコアが最も高い AUC となった。 次に、GPT+DPR において最も AUC が高かった関連文書スコアを用いて、GPT (推論) モデルと GPT+DPR モデルの PR 曲線の比較を行った。図 1 に結果を示す。いずれの設定においても、高い確信度のもののみに解答する問題を絞り込むことで正解率は上昇することが確認でき、確信度の有効性が確認できる。GPT (推論) と GPT+DPR を比較すると、表 3 に示したとおり解答率 1.0 における正解率である正答率は、質問文完全度 $100 \%$ の場合は GPT+DPR の方が高く、それ以外の場合も同等であるが、解答率 0.8 未満の領域ではいずれも GPT (推論)の方が高い正解率となった。この差は、質問文完全度が小さい場合、解答率が小さい場合に顕著であり、たとえば質問文完全度 $25 \%$ 、解答率 0.1 の設定においては、GPT+DPR の正解率は 0.5 程度であるのに対し、 GPT (推論) の正解率は 0.8 程度と大きな差があることが確認できる。このことから、早押しクイズにおいては GPT (推論) の方が適していると言える。表 5 GPT (推論) の質問文完全度 $25 \%$ における出力例 表 5 に、質問文完全度 $25 \%$ の問題に対し、GPT (推論) を適用した場合の出力例を示す。質問 1 、質問 2 に対しては、先頭 $25 \%$ の質問文しか与えられていないにも関わらず、確信度スコアは 0.9 を超えており、実際に正しい解答が出力されている。一方、質問 3 に対しては、確信度スコアは高いものの、実際には誤った解答が出力されている。これは、いわゆる 「ですが問題」であることを考慮に入れず予測した結果、誤った解答にも関わらず高い確信度スコアが出力されたものと考えられる。質問 4 においては、先頭 $25 \%$ では解答候補が 1 つに絞り込めなかったため確信度スコアは低くなったと考えられ、実際、「アホウドリ」という正しい答えは出力できず、「ナマケモノ」という誤った解答が出力されている。 ## 4 おわりに 本研究では、既存研究では想定されていなかった早押しクイズに解答するシステムを GPT (推論)、 GPT+DPR の 2 種類構築した上で、各質問文完全度に対して正答率を検証した。また、確信度と正答率の関係性の調査、および、確信度としてモデルの内部スコアを用いる妥当性の検証を行った。実験の結果、正答率検証では、完全文において DPR が最も高いスコアを見せたものの、不完全文に対しては両モデルのスコアに差は見られなかった。確信度の有効性調査では、GPT (推論) モデルに基づく確信度スコアが低い質問文完全度においても高い有効性を示すことが確認された。今後は、本研究で対象とした確信度を用いることで、確信度の閾値を定めて解答のタイミングを決定するようなシステムや、リアルタイムな早押しクイズ解答モデルの構築を行いたい。 ## 参考文献 [1] Tom Kwiatkowski, Jennimaria Palomaki, Olivia Redfield, Michael Collins, Ankur Parikh, Chris Alberti, Danielle Epstein, Illia Polosukhin, Jacob Devlin, Kenton Lee, Kristina Toutanova, Llion Jones, Matthew Kelcey, Ming-Wei Chang, Andrew M. Dai, Jakob Uszkoreit, Quoc Le, and Slav Petrov. Natural questions: A benchmark for question answering research. Transactions of the Association for Computational Linguistics, Vol. 7, , 2019. [2] Mandar Joshi, Eunsol Choi, Daniel Weld, and Luke Zettlemoyer. TriviaQA: A large scale distantly supervised challenge dataset for reading comprehension. In ACL, 2017. [3] Vladimir Karpukhin, Barlas Oguz, Sewon Min, Patrick Lewis, Ledell Wu, Sergey Edunov, Danqi Chen, and Wentau Yih. Dense passage retrieval for open-domain question answering. In EMNLP, pp. 6769-6781, 2020. [4] Ikuya Yamada, Akari Asai, and Hannaneh Hajishirzi. Efficient passage retrieval with hashing for open-domain question answering. In ACL-IJCNLP, pp. 979-986, 2021. [5] Gautier Izacard and Edouard Grave. Leveraging passage retrieval with generative models for open domain question answering. In EACL, pp. 874-880, 2021. [6] Alec Radford, Karthik Narasimhan, Tim Salimans, and Ilya Sutskever. Improving language understanding by generative pre-training. Open AI Technical Report, 2018. [7] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In NIPS, pp. 59986008, 2017. [8] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In NAACL-HLT, pp. 4171-4186, 2019. [9] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Rémi Louf, Morgan Funtowicz, Joe Davison, Sam Shleifer, Patrick von Platen, Clara Ma, Yacine Jernite, Julien Plu, Canwen Xu, Teven Le Scao, Sylvain Gugger, Mariama Drame, Quentin Lhoest, and Alexander M. Rush. Transformers: State-of-the-art natural language processing. In EMNLP, pp. 38-45, 2020.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A12-3.pdf
# 利用規約における QA データセットの作成及び検証 高野海里 1 プタシンスキ・ミハウ ${ }^{1}$ 栘井文人 1 1 北見工業大学テキスト情報処理研究室 [email protected] \{michal, f-masui\}@mail.kitami-it.ac.jp ## 概要 本研究では利用規約が読まれていないことで起こるユーザと企業の双方の問題やトラブルを指摘し, その問題を軽減するため,兄長な利用規約をわかりやすく自動要約する方法が有効であると考えられる.しかし,自動要約の評価には,人間評価者の応用が必要となり, 近年公開されている数多くの言語モデルの内,どのモデルが最適しているかの評価が困難となっている.そこで,自動要約の評価を効率化させるために,文書を要約する前にその文書を理解しなければならないという考えのもと,質問応答のタスクを用いて最適な言語モデルを選抜する。その中で,3つの質問応答データセットを用いて単言語・多言語両方種類の複数の言語モデルを微調整を行うことで,日本語の質問応答タスクのおいて優れた言語モデルと, 優れたパラメーター(学習率等) について検証し, その結果について報告する。 ## 1 はじめに インターネットの普及に伴いさまざまなサービスが配信されており,それらの多くは利用開始時に利用規約に同意することが求められている. サービスの内容や社会的役割の増大に併せて文章量が増加・複雑化しているためか,利用規約を読まないユーザは多くいることが報告されている [1]. 例として Twitter の利用規約 ${ }^{1)}$ は 11,432 文字, Linkedin の利用規約 ${ }^{2}$ は 13,233 文字, Facebook の利用規約 3 ) は 15,852 文字と原稿用紙にして 30 枚以上もの文量である.これらの穴長な利用規約はサービスを利用するユーザだけでなく,サービスを提供する企業にとっても問題を生む可能性がある. ユーザにとっては利用規約を読まないことで詐欺などの危険や不利益を被る可能性があり, 企業側にとっては禁止事項 1) https://twitter.com/ja/tos 2) https://jp.linkedin.com/legal/user-agreement 3) https://ja-jp.facebook.com/legal/terms の伝達漏れ等によるトラブルを誘発する可能性がある. このような問題を軽減する手法の一つとして, ユーザにとって読みやすくするために, 冗長な利用規約をわかりやすく要約し,ユーザによる読解率を上げることである.しかし,企業の作業員が行う人手のみによる利用規約を要約する作業は,時間及び人件費がかかり,さらに利用規約の内容が法律に合わせて定期的に更新しなければならないことからすると,人手にて行うことは極めて非効率的である. その課題を解決するためには,文章の自動要約の技術を使うという方法が挙げられる.要約とは元の意味が変わらないように文章を短くすることであり,正確な要約を行うためにはその文章の意味や内容を正しく理解する必要がある. そこで,我々はこのような要約時における入念な理解の重要性に着目し, 言語モデルにあらかじめ要約対象文を理解4)させることで自動要約の精度を向上できると考えた. そこで本研究では, 要約対象文を理解した状態を「要約対象文に関する質問に正しく答えられる状態」と見なし,質問応答のタスクで学習させた言語モデルがどの程度の精度で自動要約を行えるかを調査する。本論文では具体的に質問応答の部分に焦点を当て,最も高い精度を出せる事前学習済み言語モデルを調査した結果を報告する。 ## 2 関連研究 ユーザが利用規約を読まないことにより生じるリスクを低減するために,利用規約の読解を促進させる研究は過去にも行われてきた。例えば,竹ノ内ら [2] は,利用規約の表示方法に工夫を加えたが,ユー ザの理解度に大きな改善が得られなかったことを報告している。 さらに,抽出型要約の観点からは,野村ら [3] は,個人の属性に左右される重要文と一般に共通する重要文を利用規約から抽出している。ま 4)ここの “理解”とは人間と同じ意味の言語理解のことではなく言語モデルにおいて文書を正確に処理を行うこと指す。 た,Doc2vec や SentenceBERTを用いて文章をべクトル化し, 既知の利用規約との類似度が低い未知条項を抜き出すことで不利益をもたらしうる文章を抽出する研究も行われている $[4,5]$. これらに対して我々のアプローチは言語モデルを用いた抽象型要約を視野に入れているため,より理解しやすい要約文の生成が期待できる. ## 3 基本的な概念の説明 本研究では Question Answering(質問応答,略: QA) と Automatic Summarization (自動要約, 略:AS) の技術を組み合わせることで利用規約の文章量を減少させ,ユーザに読解を促進させることを最終目標とする。そこで具体的には,質問応答の技術を最適なモデルの選抜に用い,自動要約の技術における人手による評価を効率化させる. 質問応答とは,ある文章を入力に,その文章に関する質問への回答を出力するタスクである.タスクの応用例として,顧客から寄せられた質問に対する企業の回答の自動化 [6] や対災害システム [7] などが挙げられる.自動要約とは,ある文章において段落の意味を失わない程度に短くするタスクである。自動要約の応用例として, 研究論文の要約による論文選択時間の短縮 [8] などが挙げられる. そこで本研究は, 図 1 に示したフローチャートのように以下 5 段階で研究を進行する. 1. 利用規約の文章に対して,要約対象文である 「コンテキスト」「質問」「回答」からなる質問応答データセットを作成する. 2. 作成したデータセットを用いて複数の言語モデルを学習させ, QA タスクで評価し比較する。 3. 評価値が低い場合,データセットの調節(デー タの追加, 質問再作成など)後 2 . に戻ってプロセスを繰り返す。 4. 評価値の高い言語モデルを用いて, 別に用意した利用規約の文章を要約させ,さらにSA タスクに応用し評価する。 5. 評価値が低い場合は, 改めてデータセットの調節後 2 . に戻ってプロセスを繰り返す。 ## 4 実験 本実験では,8つの言語モデルを 3 種類のデータセットで学習後, 評価実験を行うことで,日本語の質問応答のタスクにおいて優れたモデルを調査す 図 1 研究進行のフローチャート る. また学習率を 2e-5 と 1e-4 に変化させ学習を行うことで,日本語の質問応答タスクにおいてどちらの学習率が優れているか調査する。また本実験で使用した実行環境は OS: Ubuntu 20.04.03 LTS,CPU: Intel Xeon E5-2687W v2 @ 3.40GHz,メモリ: 188GB, GPU: GeForce RTX 3060 である. ## 4.1 言語モデル 本実験ではデータを Tokenize(トークン化)する際に,文中における文字の位置と範囲を示している return_offsets_mapping を使用でき, HuggingFace ${ }^{5)}$ にて公開されていて日本語に対応している 8 つの言語モデルを用いて質問応答タスクの学習を行っ 5) https://huggingface.co. た. 使用した言語モデルの種類は BERT,DeBERTa, RoBERTa,DistilBERT の 4 つであり,多言語で事前学習された言語モデルを 4 つ, 日本語のみで事前学習された言語モデルを 4 つ使用した. ## 4.2 データセット JaQuAD JaQuAD (Japanese Question Answering Dataset)[9] は日本語機械読解のために作成された質問応答データセットであり, 日本語 Wikipedia の記事から収集されたコンテキストに対し 39,696 の質問と答えで構成されている.コンテキストは哲学,歴史をはじめとした,さまざまなドメインにおける質の高い記事6)7)から取集されている。 JSQuAD JSQuAD は JGLUE (Japanese General Language Understanding Evaluation)[10] に構築されている質問応答データセットである. 2021 年 11 月 1 日時点の日本語版 Wikipedia の記事から収集されたコンテキストに対し 72,721 の質問と答えでSQuAD 形式で構成されているまた本実験では SQuAD 形式から DatasetDict 型への変換を行うことで,他のデータセットと限りなく近い条件で使用している. QADfT QADfT (Question Answering Dataset for Terms of Use $)^{8}$ は JaQuADを参考に, 筆者自ら作成した利用規約特化の factoid 型質問応答データセットである. Twitter(147 個,参照日:2022/7/13),Face$\operatorname{book}$ (69 個, 参照日:2022/8/2), ニコニコ (61 個, 参照日:2022/8/12 ${ }^{9)}$ , $\operatorname{LINE}\left(100\right.$ 個,参照日:2022/8/12) ${ }^{10)}$, Nintendo Switch(54 個,参照日:2022/8/12) ${ }^{11)}$ ,Nintendo WiiU(89 個,参照日:2022/8/16) ${ }^{12)}$ ,Nintendo 3DS(288 個, 参照日:2022/8/31) 13 ), Nintendo ネットワーク (192 個,参照日:2022/8/25 $)^{14)}$ ,の利用規約から収集したコンテキストに対し, 合計 1,000 の質問と答えで構成されている. 作成したデータセットの一例を 1 に示す. 6)https://ja.wikipedia.org/wiki/wikipedia:良質な記事 7) https://ja.wikipedia.org/wiki/Wikipedia:秀逸な記事 8) https://huggingface.co./datasets/umisato/QADfT 9) https://account.nicovideo.jp/rules/account 10) https://terms.line.me/line_terms?lang=ja 11) https://www.nintendo.co.jp/support/switch/eula/ usage_policy.html 12) https://www.nintendo.co.jp/support/wiiu/pdf/ wiiu_eula.pdf 13) https://www.nintendo.co.jp/support/information/ 2022/pdf/Nintendo3DS_EULA_20220830.pdf 14) https://www.nintendo.co.jp/support/nintendo_ network/eula/index.html表 1 作成したデータセットの一例 ## 4.3 評価指標:SQuAD SQuAD は質問応答における評価指標の一つである. 評価に $\mathrm{EM}$ と $\mathrm{F} 1$ の二つのパラメータを用いる. EM は Exact Match の略で,言語モデルによって生成された答えと正解が完全一致しているかを示すものである. F1 は言語モデルによって生成された答えと正解がどれたけ近似しているかを示すものである. 本指標における EM のスコア範囲は 0-100であり, F1 のスコア範囲は 0-1 である. ## 4.4 結果と考察 各データセットを用いた評価実験の結果を表 2~ 5 に示す. また, 表の可読性向上のためスコアの右隣の丸括弧はスコアが高い順に $1,2,3 \ldots$ としており,上位 4 つのスコアを太字で示している. 加えて,付録 A にて可読性向上のため表 2 5を棒グラフで表したものを図 2〜5に示す. 双方の学習率,各データセットでスコアの比較をすると,KoichiYasuoka/bert-base-japanesewikipedia-ud-head, bert-base-multilingual-cased, bert-base-multilingual-uncased $の 3$ つ言語モデルは常に上位 4 つのスコアに含まれることから,これらの言語モデルは日本語の質問応答タスクにおいて優れたモデルであるといえる.加えて,これら 3 つの言語モデルの特徴として, モデルの種類が BERT であることから,BERT モデルは他モデルより日本語の質問応答タスクにおいて優れていると考察できる。また,軽微な差はあれど全体的にスコアが高いことから,学習率は 1e-4 の方が優れているといえる. ただし,例外としてxIm-roberta-baseを QADfT で学習させた場合のみ, 学習率が 2e-5 でのスコアが大幅に高くなった. これに関して詳しい原因は不明であるが,他のデータセットと比べて QADfT のデータ数が 1000 件と少なく,結果においてはっきりとしたパターンが現れにくかったことが考えられる. さらに,単言語のモデルの中,青空文庫で事前学習したモデルは全て結果が低く, Wikipediaを元に事前学習したモデルは, Wikipedia の QA データセッ卜で比較的に高い結果となっていることから,事前学習言語モデルにおけるドメイン依存性のことを示していると考えられ,従来研究でも指摘されている現象である [11][12][13]. そして,単言語のモデルと比べて,多言語のモデルの方が大幅結果が高く, 事前学習言語モデルでは言語間の知識共有のことを示しており,従来研究で指摘されていることが再確認されている [12][13]. 総合的に判断した結果, 研究の次段階では利用規約の自動要約に用いるモデルを選抜した. そこで,まず,総合的に結果が高かった bert-basemultilingual-cased を用いることにした. 同じモデルの「-uncased」バージョンも結果が高かったが,モデルの種類が似ているため,最高結果のもののみを用いることにした. さらに,複数の種類のモデルの性能を比較するため, xlm-roberta-base も用いることにした. そして, 前者の 2 モデルが多言語のモデルのため, 単言語のモデルの性能も比較するためには KoichiYasuoka/bert-base-japanese-wikipediaud-head も用いることにした. ## 5 おわりに 本研究では利用規約が読まれていない社会背景に対して,質問応答と自動要約を合わせて用いることで自動要約の精度を上げつつ,ユーザに利用規約の読解を促せるかを考えた. その初期段階として, 3 つの質問応答データセットを用いて,8 種類の言語モデルの微調整を行うことで, 日本語の質問応答タスクのおいて優れた言語モデルと, 優れた学習率を選抜することができた. 具体的な評価実験の結果として 8 つの言語モデルから日本語の質問応答夕スクにおいて優れたものを得ることができ,ほとんどの言語モデルの学習率は 1e-4 の方が優れていることが分かった. しかし一部の言語モデルとデータセットの組み合わせでは, 学習率が 2e-5 の方が優れていた. 結果から BERT モデルは他モデルに比べ日表 2 評価実験の結果 (EM, learning late=2e-5) 表 3 評価実験の結果 (EM, learning late=1e-4) 表 4 評価実験の結果 (F1, learning late=2e-5) 表 5 評価実験の結果 ( $\mathrm{F} 1$, learning late=1e-4) 本語の質問応答タスクにおいて優れていると考察できる. また,一部の言語モデルに関しては,組み合わせたデータセットのデータ数が 1000 件と少なかったがため, 学習率が 2e-5 の方が優れた結果になったのではないかと考察できる. 今後の課題として,学習率が 2e-5 の方が適していた言語モデルに組み合わせたデータセットのデータ数を増やした後,変化が見られるかを再度検証する. また, 4.4 で述べた 3 つの言語モデルを用いて自動要約を行う. ## 参考文献 [1] 公正取引委員会. デジタル広告の取引実態に関する中間報告書. Technical report, 公正取引委員会, 42020. [2] 竹ノ内朝陽, 矢谷浩司. サービス利用規約の読解促進を目指した表示手法の比較検討. FIT, Vol. 3, pp. 57-64, 2020. [3] 佳太野村, 司前川, 晃三水谷, 正之荒井. 利用規約等における重要文の抽出手法の検討. 第 78 回全国大会講演論文集, Vol. 2016, No. 1, pp. 575-576, 032016. [4] 竹ノ内朝陽, 矢谷浩司. 利用規約中の特異な文章を強調するインタフェース. 電子情報通信学会全国大会. The Institute of Electronics, Information and Communication Engineers, 3 月 2021. [5] 大茂森口, 健二中村. 機械学習を用いた利用規約からの未知条項の抽出に関する研究. 日本知能情報ファジィ学会ファジィシステムシンポジウム講演論文集, Vol. 34, No. 0, pp. 861-862, 2018. [6] 佐藤理, 太田竜男, 佐藤雪乃, 松本桂子, 田澤和彦. 事例データベースを利用した質問応答システムの構築. 全国大会講演論文集,第 49 回,ソフトウェア, pp. 175-176, 091994. [7] 後藤淳, 大竹清敬, 橋本力, 川田拓也, 鳥澤健太郎. 質問応答に基づく対災害情報分析システム. 自然言語処理, Vol. 20, No. 3, pp. 367-404, 2013. [8] Jinghong LI. 観点を反映した深層学習および強化学習による学術論文の自動要約生成. 2021. [9] ByungHoon So, Kyuhong Byun, Kyungwon Kang, and Seongjin Cho. Jaquad: Japanese question answering dataset for machine reading comprehension. arXiv preprint arXiv:2202.01764, 2022. [10] 栗原健太郎, 河原大輔, 柴田知秀. Jglue: 日本語言語理解ベンチマーク. 自然言語処理, Vol. 29, No. 2, pp. 711-717, 2022. [11] 柴田祥伍, プタシンスキミハウ, エロネンユーソ,ノヴァコフスキカロル, 栘井文人. 日本語大規模ブログコーパス yacis に基づいた electra 事前学習済み言語モデルの作成及び性能評価. 言語処理学会第 28 回年次大会 (NLP2022), pp. 285-289, 2022. [12] Juuso Eronen, Michal Ptaszynski, Fumito Masui, Masaki Arata, Gniewosz Leliwa, and Michal Wroczynski. Transfer language selection for zero-shot cross-lingual abusive language detection. Information Processing \& Management, Vol. 59, No. 4, p. 102981, 2022. [13] Juuso Eronen, Michal Ptaszynski, and Fumito Masui. Zero-shot cross-lingual transfer language selection using linguistic similarity. Information Processing \& Management, Vol. 60, No. 3, p. 103250, 2023. ## A 付録 図 $2 \mathrm{EM}$ (learning late=2e-5) 図 3 EM (learning late $=1 \mathrm{e}-4$ ) 図 4 F1 (learning late $=2 e-5$ ) 図 5 F1 (learning late=1e-4)
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A12-4.pdf
# JCommonsenseQA 2.0: 計算機と人の協働による 常識推論データセットの改良 栗原健太郎 1 河原大輔 1 柴田知秀 2 1 早稲田大学理工学術院 2 ヤフー株式会社 \{kkurihara@akane., dkw@\}waseda.jp [email protected] ## 概要 計算機モデルの言語理解能力のさらなる向上に向けて、ベンチマークを改良し、より高度な言語理解能力を測ることができるようにする必要がある。本研究では多肢選択式の常識推論データセット JCommonsenseQA [1] に焦点をあて、計算機と人の協働によってデータセットを改良する。このデータセットの計算機による精度はすでに $90 \%$ を越えており難易度が低いため、常識推論能力を測るには適切ではない。難易度が低い要因の一つとして、誤り選択肢群の中に正解とあまり関連がない選択肢が含まれていることが挙げられる。この問題に対処するため、まず正解と類似している誤り選択肢をテキスト生成モデルで自動生成し、次に生成された誤り選択肢候補の中からクラウドソーシングで適切な誤り選択肢を選択することによって、難易度の高いデー タセットを構築する。実験の結果、構築したデータセットは元のデータセットよりも難易度が高くなっていることを確認した。 ## 1 はじめに 高性能な言語理解モデルを開発するためには、言語理解の能力を様々な観点から評価し分析するためのベンチマーク (データセット群) が必要である。英語においては、GLUE (General Language Understanding Evaluation) [2] が構築、公開されている。GLUE である程度の高スコアを達成できる言語理解モデルが開発されると、より難易度の高いベンチマークとして SuperGLUE [3] などが構築され、ベンチマーク構築と言語理解モデル開発の好循環が生まれている。 このような英語における言語理解研究活性化の潮流に乗じて、世界中の各言語におけるベンチマーク構築が進んでいる。日本語については、言語理解べンチマーク JGLUE [1] を我々が構築した。それに伴 図 1 JCommonsenseQA の改良フロー い、多くの計算機モデルが JGLUE 上で評価されている。英語の GLUE と同様に、多くのタスクで計算機モデルが人間を越える、もしくは、人間に近い精度を達成している。 日本語においても、計算機モデルの言語理解能力のさらなる向上に向けて、ベンチマークを改良し、 より高度な言語理解能力を測ることができるようにする必要がある。本研究では、言語理解に直接的な関係があると考えられる質問応答 $(\mathrm{QA})$ データセットである JCommonsenseQA (JGLUE に含まれているデータセットのうちの一つ) にフォーカスし、より難易度が高いデータセットに改良する。 JCommonsenseQA は、CommonsenseQA [4] の日本語版データセットであり、常識推論能力を評価するための 5 択の QA で構成されている。人間の精度は 98.6\%であるが、汎用言語モデル RoBERTa [5] (large) は $90.7 \%$ の精度であり、すでに十分に高い精度を達成している。モデルにとって解きやすくなっている要因の一つとして、誤り選択肢群に正解とほとんど関連がないものが存在することが挙げられる。図 1 の上の例では、正解選択肢の「万年筆」と「屋外」 や「ムーン」はほとんど関連がない。このような問題はモデルによって正解が簡単に弁別できてしまうため、常識推論能力を測るには適切ではないと考えられる。 本論文では、計算機と人の協働によって JCommonsenseQA を改良する手法を提案する。具体的には、まず正解と類似している誤り選択肢をテキスト生成モデルで自動生成し、次に自動生成された誤り選択肢候補の中からクラウドソーシングで適切な選択肢を選択する。実験の結果、構築したデータセットは以前構築したデータセットよりも難易度が高くなっていることを確認した。 ## 2 関連研究 英語における SQuAD [6] や CommonsenseQA などの $\mathrm{QA}$ データセットにおいて、高性能な言語理解モデルの開発とともに、より難易度の高いデータセットを構築する流れが生まれている。 SQuAD は段落、質問、答えの 3 つ組から成る QA データセットで、答えとなるスパンを段落から抽出するタスクである。SQuAD 1.1 においては段落内に答えが必ず存在するという仕様であった。後に構築された SQuAD 2.0 [7] では、段落内に答えが必ずしも存在しないという仕様に変更されたことで、 SQuAD 1.1 より難易度の高いデータセットとなっている。また、異なるタイプの難易度の高い QA デー タセットとして、マルチホップ推論の能力を測る HotpotQA [8] や、算術演算の能力を測る DROP [9] などが提案されている。 敵対的なデータセットの構築による難易度向上の流れも存在する。Jia ら [10] は SQuADについて、質問の答えにはなっていないものの関連している文を段落の最後に追加することで、敵対的な SQuADを構築している。多肢選択式 $\mathrm{QA}$ の CommonsenseQA についても、ゲーミフィケー ションを用いた model-in-the-loop を実施することによって敵対的でより難易度の高い CommonsenseQA 2.0 [11] が構築されている。しかし、選択肢は yes / no の 2 択形式に簡略化されている。 T5 [12] や GPT-2,3 [13,14] などのテキスト生成モデルはデータセット構築にも利用されている。Liu ら [15] は、自然言語推論データセット MultiNLI [16] を基に敵対的データを獲得し、GPT-3を用いてデー タ拡張することによって WANLIを構築している。 質問: 電車に人が乗り降りする場所を何という?選択肢: 駅鉄道会社線路空港港 誤り選択肢追加 図 2 JCommonsenseQA v1 の構築フロー ## 3 JCommonsenseQA の構築方法と 問題点 提案手法の説明をする前に、本節では、以前提案した JCommonsenseQA の構築方法とその問題点について説明する。以降、以前提案したバージョンを v1、本論文で提案するバージョンを $\mathrm{v} 2$ と呼ぶ。 JCommonsenseQA は CommonsenseQA の日本語版データセットであり、常識推論能力を評価するための 5 択の QA で構成されている。JCommonsenseQA は、知識ベース ConceptNet [17]をシードとし、クラウドソーシングを用いて構築している。ConceptNet は、2つの概念 (concept) と、その間の関係 (relation) を表す 3 つ組からなる多言語知識ベースである。 3 つ組は方向性を持ち、例えば新幹線が駅に存在するという関係は (新幹線, AtLocation, 駅) のように (source concept, relation, target concept)として表される。逆方向の関係性を持つ知識は (source concept, relation $^{-1}$, target concept)と表す1)。 構築方法 JCommonsenseQA v1 の構築フローを図 2 に示す。まず、source concept とそれに対して同じ関係を持つ 3 つの target concept $の$ 集合 (以下 Question Set, $\mathrm{QS}$ と呼ぶ) を収集する。次に各 $\mathrm{QS}$ 内の 3 つの target concept について、それぞれの target concept $の$ みが正解となる質問の作文タスクをクラウドソーシングを用いて実施する。最後にそれぞれの質問に対して、誤り選択肢を 2 つ追加するタスクをクラウドソーシングを用いて実施する。 問題点 JCommonsenseQA v1 には、誤り選択肢に正解とほとんど関連がないものが含まれているという問題がある。この問題が生じる原因として、 1)例えば、駅に新幹線が存在するという関係は(駅, AtLocation ${ }^{-1}$, 新幹線) と表す。 ConceptNet を用いた選択肢の自動獲得が挙げられる。 5 つの選択肢のうち 3 つは、ConceptNet から収集した QS 内の 3 つの target concept に由来しているが、これらの target concept 間に関連性がほとんどない場合がある。例えば、「綺麗」と “HasProperty-1" の関係を持つ target concept として「万年筆」「屋外」「ムーン」の3つが抽出される²)が、これらはほとんど関連していない。 ## 4 JCommonsenseQA の改良 JCommonsenseQA v1 の問題に対処するため、テキスト生成モデルとクラウドソーシングによるフィルタリングを用いて、正解と類似した誤り選択肢を新たに導入する。提案手法は、図 1 に示すとおり、4 つのステップからなる。なお、各ステップにおいて事例がフィルタリングされることで最終的に獲得できる事例数が少なくなってしまうことから、v1 と同じ構築手法を用いて事前に $\mathrm{v} 1$ の拡張を行う。各ステップの詳細を以下に示す。 ステップ 1 テキスト生成モデル $\mathrm{T} 5$ を用いて、正解と類似した誤り選択肢候補を生成する。 5 は質問を入力し、正解を出力するようにファインチュー ニングする。この際、 2 種類のテキスト生成モデルを用いる3)ことによって、多様な誤り選択肢候補を生成する。なお、正解により類似した誤り選択肢候補を得るため、v1 の全件を用いてクローズドな訓練を行う。 2 つのモデルそれぞれから 20 件の生成結果を得る。この生成結果には長い語句や不自然なものが含まれている。これらに対処するため、ConceptNet にエントリが存在しない生成結果を除去する。また、生成結果に正解自体が含まれていれば除去する。この結果、各モデルから 5 件の誤り選択肢候補が得られた事例を次のステップに渡す。例えば図 1 の例では、1つのモデルから得られた誤り選択肢候補は 「ペンシル」「ノート」「鉛筆」「手提げ袋」「消しゴム」である。 ステップ 2 生成された誤り選択肢候補には、正解の同義語などの別解が含まれる可能性が高い。それらを除去するため、クラウドソーシング4)を用い 2)この source concept と関係からは、「虹「夕焼け」「夜空」 のような良い 3 つ組も抽出される。 3) Hugging Face Hub にある "google/mt5-large" と "sonoisa/t5base-japanese" の 2 つの事前学習モデルを用いる。 4) Yahoo!クラウドソーシングを用いた。 てフィルタリングを行う。クラウドワーカに、質問と、生成した誤り選択肢候補 5 件に正解を加えた 6 つの選択肢を提示し、正解となりうるものを全て選んでもらう。5人のクラウドワーカから回答を収集し、1 人も正解として選択しなかった選択肢のうち、生成結果における確率がもっとも高いものを誤り選択肢として採用する。上記の処理を 2 つのモデルの誤り選択肢候補それぞれで実行し、2つの誤り選択肢を得る。いずれかのモデルの誤り選択肢候補において、 5 件中の全ての候補が正解とみなされた場合、 その事例は除去し、次のステップに渡さない。 ステップ 35 択問題を作成するために、2つの新しい誤り選択肢以外に誤り選択肢が 2 つ必要である。v1の誤り選択肢において、正解とほとんど関連のない誤り選択肢が存在する一方で、多くの場合、正解と関連している誤り選択肢も存在している。そのため、v1 の誤り選択肢から正解に類似したものを 2 つ選択する。これには事前学習モデル BERT [18] ${ }^{5}$ に基づく類似度を用いる。まず、正解を含む 5 つの選択肢のそれぞれを BERT の Embedding 層に入力し、 5 つのべクトルを取得する6)。次に、正解とのコサイン類似度が高い誤り選択肢を 2 つ選択する。 ステップ 2 と 3 によって得られた 4 つの誤り選択肢と正解を用いて選択肢を再構成する。得られた選択肢と v1 の質問をぺアにし、人間にとって解答可能かどうかをクラウドソーシングで検証する。10 人のクラウドワーカに回答してもらい、7 人以上が正解した事例のみを採用する。この結果得られるデータセットを v2-誤り選択肢生成データセットと呼ぶ。 ステップ 4 選択肢間の類似性が上がったことにより、正解と誤り選択肢間の弁別性が低下する恐れがある。例えば図 1 の例では、「ペンシル」は正解の「万年筆」に近く、人間・計算機の双方が誤答する可能性がある。弁別性を上げるために、新しい選択肢を基に質問の再作成をクラウドソーシングで行う。正解の選択肢のみが正解になるようにクラウドワーカに質問を作成してもらう。作成された質問は、v1と同様の方法でフィルタリングを行う7)。 v2-誤り選択肢生成データセットと同様に、人間にとって解答可能かどうかをクラウドソーシングで  表 1 各種モデルの評価結果 検証する。解答不可能なものを除去した結果得られるデータセットを $\mathbf{2}$-質問リライトデータセットと呼ぶ。 以上の手順により、拡張 v1 の 27,400 件から 13,117 件からなる $\mathrm{v} 2$-誤り選択肢生成データセットと、 10,524 件からなる v2-質問リライトデータセットを構築した。2つのデータセットに共通の事例を抽出し、 8,899 件からなる 2 種類の実験用データセットを構築した。これは次節の比較実験で使用する。 ## 5 事前学習モデルによる評価 本研究で構築した $\mathrm{v} 2$ データセットが以前構築したv1よりも難易度が上がっているかを事前学習モデルを用いて評価した。また、v2-誤り選択肢生成データセットと $\mathrm{v} 2$-質問リライトデータセットの比較も行った。 ## 5.1 実験設定 広く用いられている事前学習モデルをファインチューニングし、精度を算出した。実験に用いた事前学習モデルの詳細を付録 B に示す。モデルのファインチューニングでは、 $\mathrm{v} 1$ と同様に、質問と選択肢を連結した多肢選択式問題を解く8)。実験に用いたハイパーパラメータを付録 Cに示す。また、v1 構築時と同様に、クラウドソーシングを用いて人間による精度を算出し、人間のスコアとモデルのスコアも比較する。 ## 5.2 実験結果・考察 結果を表 1 に示す。まず、v2 の難易度が v1 よりも高くなっていることがわかる。また、質問リライトデータセットの難易度は誤り選択肢生成データセットよりも下がっている。これは、正解と誤り選択肢間の弁別性が上がり、計算機にとっては解き  質問: つゆにつけてズルズルと音を立てて食べる頳類は?選択肢: コシヒカリご飯担々缅そばラーメン 質問: 修学旅行でもよく行く赤い色の電波塔は?選択肢: 東京タワー浅草寺お台場東京ドームスカイツリー 図 3 早稲田大 RoBERTaLARGE $の$ 誤り例 (太字が正解、下線が不正解の出力) やすい問題となっていることがわかる。例えば図 1 で、誤り選択肢生成データセットでは、システムの出力は「ペンシル」となり誤っているが、質問リライトデータセットではシステムの出力は「万年筆」 となって正解できている。また、人間のスコアは全てのデータセットにおいてほぼ同じ高いスコアであることから、v2が v1 に比べて問題の質が低下しているわけではないことがわかる。 v1 と v2 の精度を比べると多くのモデルでかなり精度が低下しているが、最も精度の高かった早稲田 しか精度が低下していないことがわかる。その強力なモデルでの誤り例を図 3 に示す。このような問題に正解するにはどのようにして常識的な知識を獲得すればよいのか、今後の事前学習モデルの改良を考える上での手がかりとなればよいと考えている。 ## 6 おわりに 本論文では、計算機と人の協働によって常識推論データセット JCommonsenseQA を改良する手法を提案した。実験の結果、v2 はv1よりも難易度の高いデータセットであることを確認できた。本データセットの構築によって、日本語において初めてベンチマーク構築と言語理解モデルの改良のサイクルを一周回せたと考えている。v2 は今後、v1 と同じサイトで公開する予定である。 今後、さらに難易度の高いデータセットの検討を進めるとともに、別の種類の質問応答データセットの構築にも取り組む予定である。 ## 謝辞 本研究はヤフー株式会社と早稲田大学の共同研究により実施した。 ## 参考文献 [1] Kentaro Kurihara, Daisuke Kawahara, and Tomohide Shibata. JGLUE: Japanese general language understanding evaluation. In Proceedings of the 13th LREC, pp. 29572966, Marseille, France, June 2022. [2] Alex Wang, Amanpreet Singh, Julian Michael, Felix Hill, Omer Levy, and Samuel Bowman. GLUE: A multi-task benchmark and analysis platform for natural language understanding. In Proceedings of the 2018 EMNLP Workshop BlackboxNLP: Analyzing and Interpreting Neural Networks for NLP, pp. 353-355, Brussels, Belgium, November 2018. [3] Alex Wang, Yada Pruksachatkun, Nikita Nangia, Amanpreet Singh, Julian Michael, Felix Hill, Omer Levy, and Samuel Bowman. SuperGLUE: A stickier benchmark for general-purpose language understanding systems. In H. Wallach, H. Larochelle, A. Beygelzimer, F. d'AlchéBuc, E. Fox, and R. Garnett, editors, Advances in NeurIIPS, Vol. 32, 2019. [4] Alon Talmor, Jonathan Herzig, Nicholas Lourie, and Jonathan Berant. CommonsenseQA: A question answering challenge targeting commonsense knowledge. In Proceedings of the 2019 Conference of the NAACL-HLT, pp. 4149-4158, Minneapolis, Minnesota, June 2019. [5] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized bert pretraining approach. arXiv, 2019. abs/1907.11692. [6] Pranav Rajpurkar, Jian Zhang, Konstantin Lopyrev, and Percy Liang. SQuAD: 100,000+ questions for machine comprehension of text. In Proceedings of the 2016 Conference on EMNLP, pp. 2383-2392, Austin, Texas, November 2016. [7] Pranav Rajpurkar, Robin Jia, and Percy Liang. Know what you don't know: Unanswerable questions for SQuAD. In Proceedings of the 56th ACL, pp. 784-789, Melbourne, Australia, July 2018. [8] Zhilin Yang, Peng Qi, Saizheng Zhang, Yoshua Bengio, William Cohen, Ruslan Salakhutdinov, and Christopher D. Manning. HotpotQA: A dataset for diverse, explainable multi-hop question answering. In Proceedings of the 2018 Conference on EMNLP, pp. 2369-2380, Brussels, Belgium, October-November 2018. [9] Dheeru Dua, Yizhong Wang, Pradeep Dasigi, Gabriel Stanovsky, Sameer Singh, and Matt Gardner. DROP: A reading comprehension benchmark requiring discrete reasoning over paragraphs. In Proceedings of the 2019 Conference of the NAACL-HLT, pp. 2368-2378, Minneapolis, Minnesota, June 2019. [10] Robin Jia and Percy Liang. Adversarial examples for evaluating reading comprehension systems. In Proceedings of the 2017 Conference on EMNLP, pp. 2021-2031, Copenhagen, Denmark, September 2017. [11] Alon Talmor, Ori Yoran, Ronan Le Bras, Chandra Bhagavatula, Yoav Goldberg, Yejin Choi, and Jonathan Berant. CommonsenseQA 2.0: Exposing the limits of AI through gamification. In Thirty-fifth Conference on NeurIIPS Datasets and Benchmarks Track (Round 1), 2021. [12] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J. Liu. Exploring the limits of transfer learning with a unified text-to-text transformer. JMLR, Vol. 21, No. 140, pp. 1-67, 2020. [13] Alec Radford, Jeff Wu, Rewon Child, David Luan, Dario Amodei, and Ilya Sutskever. Language models are unsupervised multitask learners. 2019. [14] Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel Ziegler, Jeffrey Wu, Clemens Winter, Chris Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, and Dario Amodei. Language models are few-shot learners. In $\mathrm{H}$. Larochelle, M. Ranzato, R. Hadsell, M.F. Balcan, and H. Lin, editors, Advances in NeurlIPS, Vol. 33, pp. 1877-1901, 2020. [15] Alisa Liu, Swabha Swayamdipta, Noah A. Smith, and Yejin Choi. Wanli: Worker and ai collaboration for natural language inference dataset creation. arXiv. abs/2201.05955. [16] Adina Williams, Nikita Nangia, and Samuel Bowman. A broad-coverage challenge corpus for sentence understanding through inference. In Proceedings of the 2018 Conference of the NAACL-HLT, pp. 1112-1122, New Orleans, Louisiana, June 2018. [17] Robyn Speer, Joshua Chin, and Catherine Havasi. Conceptnet 5.5: An open multilingual graph of general knowledge. In Proceedings of the Thirty-First AAAI Conference on Artificial Intelligence, AAAI'17, p. 4444-4451, 2017. [18] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the NAACL-HLT, pp. 41714186, Minneapolis, Minnesota, June 2019. ## A JCommonsenseQA 構築における 質問のフィルタリング方法 クラウドソーシングによる質問の作成後、正解の文字数やキーワードの指定などでヒントを与えられた難易度の低い質問、及び不適切な形式の質問を除去するために、以下のいずれかに該当する質問を持つ問題を除去している。 ・質問に選択肢の言葉が含まれる ・例えば「海の対義語を漢字 1 文字で?」など、質問に「○文字」という文字列が含まれる $(\bigcirc$ は数字) ・質問の文末が「?」ではない ## B事前学習モデルの詳細 実験に用いた事前学習モデルの詳細を表 2 に示す。 \\ 表 2 実験に用いた事前学習モデルの詳細。モデル名の丸括弧内は Hugging Face Hub での名称を示す。どちらのモデルも LARGE サイズも使用する。事前学習テキストの CC は Common Crawl を表す。 ## C ハイパーパラメータ 実験に用いたハイパーパラメータを表 3 に示す。
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A12-5.pdf
# 読解問題における論理推論の一貫性評価 川畑 輝 1 菅原朔 2 1 奈良先端科学技術大学院大学 2 国立情報学研究所 [email protected] [email protected] ## 概要 複雑な論理推論に関する自然言語理解モデルの評価が信頼可能であるためには、予測結果の正しさだけでなく、その予測のための妥当な推論根拠への理解も評価することが重要である。しかしこれまでの自然言語理解タスクでは推論結果と推論根拠の一貫的な評価はなされてこなかった。そこで本稿では、既存の選択式の機械読解データセットに対して、その各選択肢が正答または誤答である理由を問う問題を同じく選択式の機械読解データセットとして作成することで、自然言語理解モデルの一貫的な理解評価に取り組んだ。両問題への人間正答率との比較から、現状の自然言語理解モデルには根拠に一貫的に解答することが困難であることがわかった。また、推論タイプと特徵量寄与度の観点から根拠理解の難易度について分析し、寄与度の類似や推論の質的な差異の難易度との関連性を明らかにした。 ## 1 はじめに 自然言語理解モデルが人間のように信頼可能であるためには、予測や生成の正しさだけではなく、その結果が論理的に妥当な根拠を踏まえたものである必要がある。妥当な前提への理解が重要なタスクとして、近年では機械読解においてモデルの論理的推論能力を評価するデータセットが提案されている。 ReClor [1] は論理的推論を問うデータセットの代表例であり、GMAT、LSAT から収集された 4 択式の機械読解データセットである。事前学習言語モデル $[2,3,4]$ の発展により人間と同程度の精度が報告されているなど、現状の自然言語理解モデルは論理的推論を理解する能力を有するように見える。 しかし既存研究はそうした事前学習言語モデルに共通する弱点として、一貫的な予測の不得手を指摘している $[5,6,7,8]$ 。具体的には、元の問題に否定 [8] や置換 [6] などの簡単な操作を施すことで、元の問題と比べ精度が大きく低下したことが報告されて いる。こうした研究から、言語理解能力評価における一貫性検証の重要性が示唆されている。論理的推論は妥当な根拠への理解を前提として行われるべきであるが、その規範的要請をモデルが満たしているかどうかは自明ではない。それゆえ論理的推論能力の検証では、推論結果の正誤だけではなく、その根拠の理解も一貫的に評価するタスク設計が望ましい。しかし一方で、そうした根拠はしばしば問題中に明示されていないため、既存研究のように元の問題の簡単な変形を通して一貫性評価のためのデータセットを構築することはできない。そのため、論理的推論の一貫性を検証するためには人手によって元の質問に暗黙的に含まれる根拠を明示化し、収集する必要がある。人手で推論根拠を収集した研究も存在するが、それらは読解における論理的推論は対象としておらず、一貫性を評価できるタスク設計にもなっていない $[9,10]$ 。 そこで本稿では論理的な推論に焦点を当てた一貫性評価データセット RULE (Rationale Understanding for Logical reasoning Evaluation) を構築し、論理的一貫性の評価実験を行なう。RULE は ReClor の問題 4,638 問のうち 600 問を対象に構築された、元の ReClor の問題の正誤根拠理解を問う 4 択機械読解データセットである (図 1)。RULE に含まれる根拠理解問題は ReClor の問題の選択肢それぞれについて作成され、その選択肢の正誤理由が正解選択肢、他の 3 つの選択肢の正誤理由が不正解選択肢となつている。600 問それぞれの選択肢について根拠理解問題を計 2,400 問作成し、後述する品質評価によって最終的に 1,406 問を得た。 実験では、システムの一貫的な論理推論理解の程度を評価するために ReClor で学習したべースラインモデルを RULEで評価した。その結果人間とモデルの精度には大きな乘離が見られた。さらに後続の分析でモデルにとっての一貫的な根拠理解の難易度に影響を及ぼす要素を調査したところ、特に誤答選択肢の根拠理解に改善の余地が大きく残されている 図 1 根拠理解問題の構築イメージ ことが明らかになった。また、特徴量寄与分布と問題で問われる推論の質的な差異がモデルの根拠理解と関連していることも示唆された。 ## 2 関連研究 本研究と同じように自然言語処理モデルによる推論の意味的な一貫性を変形問題で評価する試みはすでに存在する $[5,6,7,8]$ 。たとえば Elazar ら [6] は元の問題をパラフレーズしたデータセットを、 Ravichandar ら [8] は元の問題の否定推論箇所を編集することでデータセットを構築し、それぞれの言語理解能力における一貫性を検証している。しかしこれらの既存研究では論理的根拠に焦点を当てた一貫性の評価は行っていない。 他方で、根拠や説明データ自体についての分析やタスク定義はすでに複数なされている [9, 11, 12, 13]。Aggarwal ら [9] は常識推論の QA デー タセット CommonsenseQA [14] に 4 つの選択肢の正誤理由をアノテートしたデータセット ECQAを構築し、根拠生成と根拠検索タスクを定義した。Sun ら [13] は ECQA に含まれる根拠文を元の問題に連結してモデルに解答させ、問題への解答に根拠文が果たす役割を分析した。これらの研究は根拠データに注目しているものの、本研究と異なり元の問題で獲得された言語能力の一貫的な汎化能力を検証するためにタスクや分析が設計されているわけではない。 ## 3 RULE: データセット構築 本研究では論理的推論の一貫的な根拠理解を評価するデータセット RULEを構築した。RULEに含まれる問題 (以降、根拠問題) は ReClor の訓練セットからランダムに選ばれた 600 問 (以降、主問題) から作成され、同一の文脈文で各主問題の選択肢の正誤理由を問う。ReClor で学習したモデルを評価するために、根拠問題は主問題と同様に文脈文、質問文、 4 つの選択肢から構成される選択式の機械読解タスクとした。 3.1 節では選択肢 (根拠文) の収集方法を、 3.2 節では質問文の収集方法を説明する。 ## 3.1 正答・誤答根拠の収集 参加者の選定根拠文を収集するにあたって二段階の資格テストによって事前に参加者を選抜した。 まず一段階目の選抜として、応募者に ReClor の問題 10 問を解かせ、その正答率が 8 割以上の場合に合格とした。次に二段階目の選抜として、応募者に ReClor の問題 1 問を提示し、その問題の各選択肢について正誤根拠の執筆を課した。提出された根拠文について著者らが (1)十分具体的であるか、(2) 問題の意図と合致しているかという二つの基準で評価し、最終的なタスク参加者を決定した。この資格テストは Amazon Mechanical Turkを通じて行われた。最終的な通過人数は 57 人である。 根拠執筆タスク以上の資格テストを通過した参加者に根拠文の執筆タスクを依頼し、50 人が執筆タスクに参加した。根拠文執筆タスクでは各回ごとに参加者に ReClor の問題が 1 問、各選択肢の正誤と共に提示され、参加者は各選択肢の正誤理由を執筆する。今回の研究では ReClor 600 問に対して正誤根拠を収集し、計 2,400 個の根拠文が集まった。 品質評価低品質な根拠文を除くために、具体性の観点から評価を行い選別した。具体的でない根拠文 (e.g., "Because this is not mentioned in the passage.") は 4 択問題の選択肢として機能しないだけでなく、問題に意図されている暗黙的な推論を明示化するという RULE の趣旨から考えても望ましくない。 そのため資格テストを通過した参加者に、根拠執筆 者と評価者が重複しない形で評価タスクを依頼した。評価タスクでは参加者は ReClor の問題 1 問と、 その問題の選択肢のどれかに対応する根拠文を提示され、根拠文と対応する選択肢を答える。根拠文が具体的でなければ選択肢との対応づけは困難であると考えられるため、この方法で具体性を伴った根拠文を選別した。その結果 1,860 個の根拠文と 475 個の主問題が残った。なお、根拠問題の選択肢は 4 つの根拠文から構成されるため具体性評価によって根拠文が 1 つでも除かれるとその主問題では根拠問題を構成できないが、根拠問題の数を確保するために 4 つ中 3 つ通過した場合は残り 1 つの根拠文を “None of the above choices" に置き換えることで根拠問題を構成した。 ## 3.2 質問文の生成 具体性評価テストに通過した根拠文それぞれについて、主問題の質問文と選択肢から、その選択肢の正誤の根拠を問う質問文(根拠質問文)を生成した。生成には GPT-3 (text-davinci-003)を使用し、主問題の選択肢と質問文を入力としてその選択肢の正誤理由を問う質問文を出力とするようなプロンプトを用いた。また、根拠質問文に選択肢の正誤を反映させるために、正答選択肢と誤答選択肢で使用するプロンプトを分け、誤答のプロンプトには生成対象の根拠質問文に “not” などの否定表現を入れることで誤りの理由を問う根拠質問文を生成させた。生成例として、否定プロンプトを入力した GPT-3 に質問文 “What mistake does the argument commit in its reasoning?” と選択肢 “It confuses probability and certainty.”を与えると、“What evidence is there that the argument does not commit the mistake of confusing probability and certainty?" という根拠問題用の質問文が生成される。 品質評価収集された根拠文と根拠質問文から根拠問題を構成した。人間の正答可能性が保証された根拠問題を選別するために、最終的な品質評価として人間の正答率を測定した。資格テストを通過した 57 人に対して根拠問題の解答を依頼し、それぞれの問題について 3 人分の解答結果を収集した。 3 人中 2 人以上が正解または 3 人全員が “None of the above choices”を選択した問題 1,406 問を解答可能な問題とみなし、評価問題として採用した。 主問題として使用した ReClor の問題と RULE は、文脈文の数はどちらも 467、質問数はそれぞれ 467 と 1,406 、質問文の平均の長さ (単語数) はそれぞれ 13.4 と 29.6、選択肢の平均の長さは 21.5 と 16.7 であった。ReClor と比べて RULE の質問文は平均的に長いが、これは RULE の質問文が主問題の質問文と選択肢の内容を含むためである。 ## 4 評価実験 ## 4.1 実験設定 評価には DeBERTa-V3-Large [4, 15] と GPT-3 (textdavinci-003) [16] を用いた。紙面の都合上、性能の高かった GPT-3 の結果を報告する。両者の比較は付録 A に示す。モデルの根拠理解問題への一貫的な汎化能力を評価するため、評価データには今回作成した RULE 1,406 問と主問題 467 問の 2 種類を用いる。 ## 4.2 実験結果 RULE における汎化性能モデルの一貫的な論理的推論能力を評価するために ReClor で訓練したモデルをRULE で評価した。モデルが根拠を正確に把握して主問題に正答しているのであれば、ReClor での正答率と RULE での正答率に大きな差はないはずである。精度評価の結果を表 1 に示す。RULE 全体での精度を見ると、ReClor での精度と乘離があるだけでなく、下線を付した $\Delta=27.48$ から、ReClorにおいて人間に匹敵するほどの精度を記録できるモデルであっても、根拋理解を評価の考慮に入れると人間の理解度とは未だ大きな開きがあることがわかる。 分析 1: 正答主問題における一貫性ここでは正しく答えられた主問題の根拠問題に精度評価の焦点を当て、“正しく答えられた主問題の根拠問題には同様に正しく答えられるべき”という要請をモデルが人間に比べどれほど満たしているか評価する。具体的には、モデルが正答した主問題それぞれの根拠問題 $N_{i}(i=1, \ldots, 467)$ 個のうちモデルまたは人間が正答できた問題数 $C_{i}\left(C_{i} \leq N_{i}\right)$ の分布を算出することで、正答した主問題における両者の根拠理解の程度を測る。集計された $C_{i}$ の分布は付録 B に示す。 GPT-3 と比べ、人間の方が各 $N_{i}$ についてより大きな $C_{i}$ の占める割合が多く、正答した主問題の根拠問題にも一貫して正答できるという結果となった。 分析 2: 正答・誤答の根拠と正答率ここでは根拠問題への解答可能性と主問題の正誤関係との関連を調查する。具体的には、根拠問題の正答率をその主問題への解答結果(主問題正答・誤答)と主問題 表 1 根拠問題と主問題(ReClor、下部)における精度 (\%)。主問題への解答結果と作成元選択肢の正誤によって分けて集計し、件数を括弧で示した。 における選択肢としての正誤(正答選択肢・誤答選択肢)という 2 つの条件で分けて集計した(表 1)。 表 1 を見ると、モデルは誤答選択肢の根拠問題に弱いが、一方で正答選択肢の根拠問題では人間に肉薄するほど良い精度を記録していることがわかる。 誤答根拠問題への弱さに関しては、複数選択肢の問題を多クラス分類として解くことに起因する個々の選択肢の推論へのフィードバックの不十分さと、否定的な根拠推論という推論の複雑さが原因として考えられる。正答選択肢に関しては、その根拠問題を解くことと主問題の正答を答えることが類似しているため、ReClor での学習が正答根拠問題にも有効だったのだと考えられる。 分析 3: 推論タイプごとの精度比較ここではモデルの根拠理解に関する特徴を、問題で問われる推論の種類 (推論タイプ) の観点から定性的に分析する。ReClor の問題で問われる推論には 17 の種類があり、例えば “ Which one of the following would most seriously weaken the argument?” という質問文は、文脈文の主張を弱めるような選択肢を尋ねる Weaken という推論タイプに分類される。 ReClor と RULEでの推論タイプごとの精度を集計したところ (付録 C)、全体的な傾向として、ReClor では推論タイプごとに精度に大きくばらつきがあるが、RULEに関しては比較的差は小さかった。 RULEでは全ての問題が一様に根拠を問う推論であるという面があるため、推論タイプごとの差が顕著には現れなかったのだと考えられる。また、より暗黙的な推論への理解を求められる推論タイプほ ど ReClor と RULE (正答選択肢) での精度差が顕著であった。例えば文脈文の趣旨を問う Implication、 Conclusion/Main point、文脈文の主張の不備を指摘する Weaken、Explain or Resolve では他の推論タイプに比べ ReClor と RULE 間で精度差が大きい。考えられる理由として、これらの推論タイプの主問題ではモデルは文脈文に明示されていない情報を把握する必要があるが、RULEではその暗黙的な推論が明示化されているため、回答が容易になったと思われる。この結果は、提示された根拠文をモデルが問題への理解形成に利用できている可能性を示唆する。 分析 4: 特徵量分布の差異比較人間が正答選択肢の根拠問題を答える際には、主問題を答える際に利用する情報と近い情報を文脈文に求めると考えられる。この仮説がシステムにも当てはまるか調べるため、DeBERTa の主問題予測時と正答根拠問題予測時の文脈文の寄与分布を Integrated Gradients [17] で求め、両分布のコサイン距離を計算した。 同時に、今回は根拠理解の難易度と分布距離の関係を調べた。具体的には、モデルの根拠問題正答数に基づいて主問題を EASY $(C / N \geq 2 / 3)$ 、MEDIUM $(2 / 3>C / N>1 / 3)$ 、HARD $(C / N \leq 1 / 3)$ の 3 セットに分け、それぞれの問題集合に含まれる主問題と正答選択肢の寄与分布のコサイン距離を平均することで、根拠理解の難しさとの関連を調査した。対象サンプル数はそれぞれ 39、136、181 件である。 結果は EASY が 0.22、MEDIUM が 0.16、HARD が 0.11 であり、モデルが多くの根拠問題を解けている主問題 (EASY) では、モデルがその正答根拠問題を解く際に主問題を解く場合と比較的類似した情報を利用していることがわかる。これは根拠問題への頑健さと、モデルが主問題と根拠問題で利用する特徴量の共通性が関係していることを示唆する。 ## 5 結論 本稿では一貫的な根拠理解という観点から論理的推論能力の信頼性を評価するデータセット RULE を構築し、精度評価と分析を行った。実験の結果、 RULE における精度は人間と大きな乘離があるが、精度を下げている要因は誤答選択肢への低い頑健さにあり、また、主問題と根拠問題間の特徵量寄与分布の類似性が根拠問題の正答率と関連しているという示唆が得られた。根拠理解への更なる分析、一貫性を改善するための具体的な方策等については今後の課題としたい。 ## 謝辞 本研究は JST さきがけ JPMJPR20C4 の支援を受けたものです。また、NAIST の渡辺太郎教授から貴重なご意見をいただきました。感謝いたします。 ## 参考文献 [1] Weihao Yu, Zihang Jiang, Yanfei Dong, and Jiashi Feng. ReClor: A reading comprehension dataset requiring logical reasoning. In International Conference on Learning Representations, 2020 . [2] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [3] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. RoBERTa: A robustly optimized BERT pretraining approach. arXv preprint 1907.11692, 2019. [4] Pengcheng He, Xiaodong Liu, Jianfeng Gao, and Weizhu Chen. DeBERTa: Decoding-enhanced BERT with disentangled attention. arXiv preprint 2006.03654, 2020. [5] Marco Tulio Ribeiro, Carlos Guestrin, and Sameer Singh. Are red roses red? evaluating consistency of questionanswering models. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 6174-6184, Florence, Italy, July 2019. Association for Computational Linguistics. [6] Yanai Elazar, Nora Kassner, Shauli Ravfogel, Abhilasha Ravichander, Eduard Hovy, Hinrich Schütze, and Yoav Goldberg. Measuring and improving consistency in pretrained language models. Transactions of the Association for Computational Linguistics, Vol. 9, pp. 10121031, 2021. [7] Myeongjun Jang, Deuk Sin Kwon, and Thomas Lukasiewicz. BECEL: Benchmark for consistency evaluation of language models. In Proceedings of the 29th International Conference on Computational Linguistics, pp. 3680-3696, Gyeongju, Republic of Korea, October 2022. International Committee on Computational Linguistics. [8] Abhilasha Ravichander, Matt Gardner, and Ana Marasović. CONDAQA: A contrastive reading comprehension dataset for reasoning about negation. arXiv preprint 2211.00295, 2022. [9] Shourya Aggarwal, Divyanshu Mandowara, Vishwajeet Agrawal, Dinesh Khandelwal, Parag Singla, and Dinesh Garg. Explanations for CommonsenseQA: New Dataset and Models. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natu- ral Language Processing (Volume 1: Long Papers), pp. 3050-3065, Online, August 2021. Association for Computational Linguistics. [10] Swarnadeep Saha, Prateek Yadav, Lisa Bauer, and Mohit Bansal. ExplaGraphs: An explanation graph generation task for structured commonsense reasoning. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 7716-7740, Online and Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. [11] Zhilin Yang, Peng Qi, Saizheng Zhang, Yoshua Bengio, William Cohen, Ruslan Salakhutdinov, and Christopher D. Manning. HotpotQA: A dataset for diverse, explainable multi-hop question answering. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 2369-2380, Brussels, Belgium, October-November 2018. Association for Computational Linguistics. [12] Naoya Inoue, Pontus Stenetorp, and Kentaro Inui. R4C: A benchmark for evaluating $\mathrm{RC}$ systems to get the right answer for the right reason. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 6740-6750, Online, July 2020. Association for Computational Linguistics. [13] Jiao Sun, Swabha Swayamdipta, Jonathan May, and Xuezhe Ma. Investigating the benefits of Free-Form rationales. arXiv preprint 2206.11083, 2022. [14] Alon Talmor, Jonathan Herzig, Nicholas Lourie, and Jonathan Berant. CommonsenseQA: A question answering challenge targeting commonsense knowledge. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4149-4158, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [15] Pengcheng He, Jianfeng Gao, and Weizhu Chen. DeBERTaV3: Improving DeBERTa using ELECTRA-style pre-training with gradient-disentangled embedding sharing. arXiv preprint 2111.09543, 2021. [16] Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel Ziegler, Jeffrey Wu, Clemens Winter, Chris Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, and Dario Amodei. Language models are few-shot learners. In $\mathrm{H}$. Larochelle, M. Ranzato, R. Hadsell, M.F. Balcan, and H. Lin, editors, Advances in Neural Information Processing Systems, Vol. 33, pp. 1877-1901. Curran Associates, Inc., 2020. [17] Mukund Sundararajan, Ankur Taly, and Qiqi Yan. Axiomatic attribution for deep networks. In Proceedings of the 34th International Conference on Machine Learning - Volume 70, ICML'17, pp. 3319-3328. JMLR.org, August 2017. ## A DeBERTa と GPT-3 の比較 GPT-3 は 5-shot で、DeBERTa は根拠問題作成に利用した主問題 467 問を抜いた ReClor の train データ 4,171 件でファインチューニングした。DeBERTa は 10 epoch 学習させた中で ReClor の dev データ 500 件における accuracy が最も高い epoch のモデルを使用した。 表 2 DeBERTa と GPT-3 の精度比較 $(\%)$ ## B 正答主問題への一貫性評価 表 3 根拠問題の正解数 (GPT-3) 亿応じた ReClor の問題数の分布 (\%) と件数 (括弧内) 表 4 根拠問題の正解数 (人間) そ応じた ReClor の問題数の分布 $(\%)$ と件数 (括弧内) ## C 推論タイプごとの精度比較 17 種類ある推論タイプのうち、サンプル数が 30 以上の推論タイプ ( 9 種類) のみを集計対象とした。 図 2 推論タイプごとの精度
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A2-1.pdf
# 摂動を加えた kNN 機械翻訳による多様な翻訳候補の生成 西田悠人 1 森下 睦 ${ }^{2}$ 上垣外 英剛 1 渡辺 太郎 1 1 奈良先端科学技術大学院大学, ${ }^{2} \mathrm{NTT}$ コミュニケーション科学基礎研究所 [email protected] ## 概要 ニューラル機械翻訳システムの標準的な探索アルゴリズムであるビームサーチには, 出力される複数の翻訳候補がほとんど同一になってしまう多様性低下の問題が存在する. 本研究では, 翻訳候補の生成に用例データからの近傍探索を用いることで通常は翻訳候補に入らないようなトークンを考慮できる $\mathrm{kNN}$ 機械翻訳を応用し, 近傍探索時に摂動を与えて探索範囲を確率的に拡大する手法を提案する.実験の結果,提案法により,翻訳精度を維持しつつ翻訳候補の多様性を改善できること,摄動の大きさを調整することで多様性を制御できることを報告する。 ## 1 はじめに 機械翻訳システムが多様かつ妥当な翻訳候補を出力することは,リランキング [1] や人手による後編集 [2] といった後段の処理によって翻訳精度の向上が見込める点で重要である. しかし,ニューラル機械翻訳 (NMT) システムの標準的な探索アルゴリズムであるビームサーチには,出力される複数の候補文がほとんど同一になってしまう多様性低下の問題が存在することが知られている $[2,3,4]$. これに対し, Vijayakumar ら [3] や Freitag ら [4] は翻訳候補の多様化を促進するビームサーチの変種 (多様化デコード手法)を提案している. 他方で,NMT システムの標準的な損失関数であるクロスエントロピー損失を用いて訓練したモデルには,過剰修正 (overcorrection [5]) の問題が存在することが知られている。過剩修正とは,訓練データの分布とは異なる分布の予測に対し, その予測が妥当であっても出力確率を過剰に低く見積もってしまう現象のことである. そのため, 前述の多様化デコー ド手法を標準的な NMT システムが出力する確率分布に適用するだけでは,妥当であるが出力確率が低く翻訳候補に入りづらいトークンが存在し,多様性向上の効果が限定的になっている可能性がある. したがって,多様化デコード手法の効果を最大化するためには過剰修正に対処する必要があると考えられる. 本研究では,その手段として用例ベースの機械翻訳手法の一種である $\mathrm{kNN}$ 機械翻訳 [6] に着目する. $\mathrm{kNN}$ 機械翻訳は,デコード時に用例データからの $\mathrm{k}$ 近傍探索によって多くの妥当なターゲットトークンを検索・抽出できるため,過剩修正の問題に対処できることが Yang ら [7] によって示唆されている。しかし, $\mathrm{kNN}$ 機械翻訳の $\mathrm{k}$ 近傍探索では探索の対象が制限されており,多様性を損ねてしまう。 そこで,我々は $\mathrm{kNN}$ 機械翻訳を応用し, $\mathrm{kNN}$ 機械翻訳における $\mathrm{k}$ 近傍探索時に摂動を加えることでトークンを探索する範囲を確率的に拡大する手法を提案する (図 1). この手法と多様化デコード手法を併用することで,翻訳性能を維持しつつ翻訳候補の多様化が期待できる。 本稿では,ドメイン適応と一般ドメインで評価を行い,両設定において,提案法によって翻訳性能を維持しながら多様性が向上することを示した。また,本手法において,摂動の大きさを調整することで多様性が制御できることも判明した. ## 2 関連研究 ## 2.1 多様な翻訳候補の生成 ビームサーチによる翻訳候補の多様性低下の問題に対処するため, 出力される翻訳候補の多様化を促進するビームサーチの変種が提案されている. Vijayakumar ら [3] はビーム間でのトークンの重複にペナルティを設けたビームサーチである Diverse Beam Search (DBS) を提案した。また,Freitag ら [4] は同一の部分仮説を共有する候補の最大数を決める手法を提案した。これらの手法はいずれも翻訳候補の多様性向上を報告しているが,過剰修正に明示的には対処しておらず,妥当であるが出力確率が低く出力候補に入りづらいトークンが存在し, 多様性向上の効果が限定的になっている可能性がある. (1) データストア作成とクェリによる問い合わせ 図 1 提案手法の概略図. 得られた $p_{\mathrm{kNN}}$ によってデコードを行う段階については先行研究と同様であるため省略した. ## $2.2 \mathrm{kNN$ 機械翻訳} $\mathrm{kNN}$ 機械翻訳は以下に示す 2 ステップの方法で $\mathrm{k}$近傍探索のメカニズムを NMT モデルの推論に適用する手法であり,大規模な事例データに直接アクセスすることでよりよい推論を実現できる。 データストア構築NMT モデルに訓練データを入力し, 訓練データ中の目的言語側のトークンをキー,対応する隠れ層の表現をバリューとしてデー タストアに保持する. 訓練データ $(\mathcal{S}, \mathscr{T})$ のソース文 $s \in \mathcal{S}$ ,ターゲット文 $t \in \mathscr{T}$ に対する時刻 $i$ の隠れ状 式 (1) で表される. $ \mathscr{D}=\left.\{\left(f\left(s, t_{<i}\right), t_{i}\right), \forall t_{i} \in t \mid(s, t) \in(\mathcal{S}, \mathscr{T})\right.\} $ デコーディング入力文 $x$ に対する時刻 $i$ の隠れ状態ベクトル $\mathbf{h}_{i}$ を出力トークン $y_{i}$ に対応するクエリとして,データストアから $k$ 近傍 $\mathcal{N} \subset \mathscr{D}$ を抽出する. クエリ $\mathbf{h}_{i}$ と $k$ 近傍点の距離から $k$ 近傍確率 $p_{\mathrm{kNN}}$ を式 (2)のように計算する。なお, $d(\cdot)$ は距離関数, $T$ は softmax 関数の温度パラメータである. $ p_{\mathrm{kNN}}\left(y_{i} \mid x, y_{<i}\right) \propto \sum_{\left(\mathbf{k}_{j}, v_{j}\right) \in \mathcal{N}} \mathbb{1}_{y_{i}=v_{j}} \exp \left(\frac{-d\left(\mathbf{k}_{j}, \mathbf{h}_{i}\right)}{T}\right) $ 最後に, $y_{i}$ の出力確率を $k$ 近傍確率 $p_{\mathrm{kNN}}$ と NMT モデルの出力確率 $p_{\mathrm{MT}}$ の線形補間により式 (3) のように計算する. ここで, $\lambda$ は $k$ 近傍確率の重みを決定するハイパーパラメータである. $p\left(y_{i} \mid x, y_{<i}\right)=\lambda p_{\mathrm{kNN}}\left(y_{i} \mid x, y_{<i}\right)+(1-\lambda) p_{\mathrm{MT}}\left(y_{i} \mid x, y_{<i}\right)$ $\mathrm{kNN}$ 機械翻訳はモデルを追加で学習することなく翻訳精度を改善できることが報告されており,Yang ら [7] は $\mathrm{k}$ 近傍探索による過剰修正への対処が翻訳精度向上の理由であると示唆している.また, kNN 機械翻訳の変種として,翻訳性能を更に改善する手法 [8] や推論の遅さを克服する手法 $[9,10]$ が提案されている。その一方で, $\mathrm{kNN}$ 機械翻訳を多様性向上のために活用する研究は行われていない. ## 3 提案法: kNN-Diversify Decoding 本研究では, $\mathrm{kNN}$ 機械翻訳と多様化デコード手法の組み合わせ,および近傍探索時の探索範囲を確率的に拡げる手法を提案する. 手法の概略図を図 1 に示す. この手法では, $\mathrm{k}$ 近傍探索によって, 通常では出力確率の上位には含まれないが妥当なトークンの出力確率の向上が期待できる. さらに,その確率分布を多様化デコード手法を用いて幅広く探索することで妥当かつ多様な翻訳候補の生成を図る。また,従来の $\mathrm{kNN}$ 機械翻訳では $\mathrm{k}$ 近傍探索の範囲が制限されているという問題を解決し,さらに多様性を向上させるために, $\mathrm{k}$ 近傍探索時に摂動を加えて探索の範囲を確率的に拡げる手法を 2 種類提案する. ## 3.1 クエリへのノイズ付加 $\mathrm{k}$ 近傍分布に摂動を与える最も単純な方法として $\mathrm{k}$ 近傍探索のクエリにノイズベクトルを加える手法 (図1の (2-ii))を導入する。この手法では,出力トー クン $y_{i}$ に対する中間表現 $\mathbf{h}_{i}$ にノイズベクトル $\mathbf{z}_{i}$ を加えた $\mathbf{h}_{i}+\mathbf{z}_{i}$ をクエリとして $\mathrm{k}$ 近傍探索を行い $\mathrm{k}$ 近 傍 $\mathcal{N}^{\prime}$ を得る. その後,式2のように,得た $\mathcal{N}^{\prime}$ から $\mathrm{k}$ 近傍確率を計算する。ノイズベクトル $\mathbf{z}_{i}$ はノルム 1 のホワイトガウスノイズ $\mathbf{n}_{i}$ と平均 $m$, 分散 $s^{2}$ の正規分布に従う確率変数 $a_{i}$ の積, すなわち $\mathbf{z}_{i}=a_{i} \times \mathbf{n}_{i}$ として各時刻・各ビームで独立に生成する。 パラメータ $m, s$ は以下の 2 つの方法を用いて決定する. 静的ノイズ最も単純な方法として,ハイパーパラメータ $h_{m}, h_{s}$ を用いて $m=h_{m}, s=h_{s}$ とする静的ノイズを導入する。この方法では,追加の推論コス卜をほぼ必要とせずに $\mathrm{k}$ 近傍探索の範囲を確率的に拡げられ, 翻訳候補の多様化が期待できる. しかし,ノイズの大きさを適切に決定するためには, データストアの分布の事前調査が必要である1). 適応的ノイズデータストアの分布の事前調査を必要としない方法として,各時刻で予め $\mathrm{k}$ 近傍探索を行って得た分布を基にノイズの大きさを決定する適応的ノイズを導入する。具体的には, 通常の $\mathrm{k}$ 近傍探索を行い, $\mathrm{k}$ 近傍点までの距離の最大値 $d_{\max }$ と $\mathrm{k}$ 近傍点までの距離の標準偏差 $d_{\mathrm{std}}$ を得る. ハイパーパラメータ $h_{m}, h_{s}$ を用いて $m=h_{m} \times d_{\max }, s=h_{s} \times d_{\text {std }}$ とする. この方法では,各時刻における $\mathrm{k}$ 近傍分布に基づいてノイズの大きさを決定できるため, データストアの分布の事前調査は不要である. しかし, 各時刻で 2 回 $\mathrm{k}$ 近傍探索を行うため,追加の推論コストが必要である. ## 3.2 乱択 $\mathrm{k$ 近傍} 前節の手法の欠点であったデータストアの分布の事前調査または追加の推論コストを必要とせずに $\mathrm{k}$ 近傍探索の範囲を確率的に拡げる手法として,近傍点の一部をサンプリングする乱択 $\mathrm{k}$ 近傍 (図 1 の (2-iii)を導入する。具体的には, $h>1$ を満たす八イパーパラメータ $h$ を用いて $\lfloor h \times k\rfloor$ 近傍を抽出し, $\lfloor h \times k\rfloor$ 個の近傍点から $k$ 個を一様ランダムにサンプリングすることで乱択 $\mathrm{k}$ 近傍 $\mathcal{N}^{\prime}$ を得る.この手法では,より多くの近傍点を探索範囲に含めることができるため,翻訳候補の多様化が期待できる。また,データストアの分布を事前に調査する必要はなく, 各時刻ごとに 1 回のみ $\mathrm{k}$ 近傍探索を行うため,追加の推論コストも必要ない. $ 機械翻訳を行い, その際に $\mathrm{k}$ 近傍点までの距離の平均・分散を取得した. 2) 他に Neucleus Sampling [11] の実験も行ったが,DBS と概ね同様の結果であったため本稿では割愛する。 3) $N$ が偶数のときは中央順位の 2 文のうち文レベルの BLEU が高い文を選ぶ。 4) https://huggingface.co./bert-base-multilingual-cased } ## 4 実験設定 ## 4.1 データ・モデル・ハイパーパラメータ 実験は大別してドメイン適応の設定と一般ドメインの設定の 2 つを行う. ドメイン適応の実験では独英の Koran, IT, Medical, Law, Subtitles の 5 つのドメインデータ $[12,13]$ を用いる. 一般ドメインの実験では WMT'19独英翻訳のデータを用いる。両方の実験において, データストアの構築およびテストデータの翻訳には, fairseq ライブラリ [14] で利用可能な WMT'19独英訓練済みモデル [15] を用いた. ビーム幅は 20 とし, 提案法のハイパーパラメータは開発データで最も良いパラメータを選んだ. kNN 機械翻訳の詳細な設定については付録 A に記す。多様化デコード手法には DBS を用いた2).DBS のグループ数は 20 とし, 多様性強度は 0.5 とした. ## 4.2 評価指標 翻訳性能翻訳性能は,オラクル BLEU, Median BLEU,平均文長比によって評価する.オラクル BLEU(BLEU@N)は $N$-best 候補文で文レベルの BLEU [16] が最大の文をそれぞれ選定したときの BLEU であり,リランキングによる性能の上界に相当する. 実験では BLEU@1 およびBLEU@20を報告する。なお,BLEU@1 (1-best 訳に対するオラクル BLEU) は通常の BLEU である. Median BLEU (MedBLEU) は $N$-best 候補文で文レベルの BLEU が中央值である文3)をそれぞれ選定したときの BLEU であり, 全体の平均的な翻訳品質を示す. 平均文長比 (AveLen) は参照訳の文長に対する翻訳候補の文長の比の平均である. 多様性翻訳候補の多様性の指標には BLEUbased discrepancy metric (DP) [17]を用いる。DP は,出力された候補文に含まれるユニークな $n$-gram の多さを示す指標であり,DP が高いと多様性が高いことを示す.指標の詳細は付録 Bに記す。 流暢性翻訳候補の流暢性の指標には pseudolog-likelihood score (PLL) [18] を用いる. 実験では,翻訳候補全体の PLL の平均 (AvePLL) および,各 $N$-best 候補文の PLL の最大値/最小値の平均 (MaxPLL/MinPLL)を報告する。また,比較のために参照訳の AvePLL も報告する. 指標の詳細は付録 B 記す.PLLを計算するための MLM モデルには多言語 BERT ${ }^{4}$ [19] を使用した. & - & & - & - & & $-3.35_{ \pm 0.82}$ \\ 表 2 一般ドメイン (WMT'19独英翻訳) の評価結果 & - & - & -2.93 \\ ## 5 実験結果 ## 5.1 ドメイン適応 ドメイン間の平均をとった結果を表 1 に示す.各ドメインの結果は付録の表 5 に示す. 提案法の kNN+DBS は DBS に対して DP が向上した. kNN に比べて BLEU@20が低下したが, その減少幅は Baseline とDBS の差と同程度である.また,摂動を加えることで $\mathrm{kNN+DBS}$ と比較して DP および BLEU@20 が改善した.なお,摄動の種類によって BLEU および DP に大きな差はなかった. kNN は Baseline と比較して若干 PLLが低いが,提案法では $\mathrm{kNN}$ と比較して PLL はほぼ毀損されず,参照訳の PLL と比べてもその差は小さい. 以上より,ドメイン適応の設定で提案法は翻訳精度と流暢性を低下させることなく翻訳候補の多様性を向上させられることが示された. ## 5.2 一般ドメイン 評価結果を表 2 に示す. 提案法である $\mathrm{kNN}+\mathrm{DBS}$ を DBS と比較すると, DP と各種 BLEU が向上しており,摂動を加えることで BLEU を維持したままさらに DP が向上している。また,提案法の PLL は参照訳の PLL と比較して高く, Baseline と比較しても低下していない。よって,一般ドメインにおいても提案法によって翻訳精度と流暢性を維持しながら多様化の促進がみられた。 図 2 IT ドメインの乱択 $\mathrm{k}$ 近傍における,摄動の大きさ $h$ (横軸) と翻訳精度や多様性 (縦軸) への影響. $h=1$ のスコアは摂動無し,すなわち DBS+kNN の値である。 ## 5.3 翻訳性能と多様性のトレードオフ 摂動の大きさによる翻訳精度や多様性への影響を観察するため,IT ドメインの乱択 $\mathrm{k}$ 近傍における摂動の大きさとDP および BLEU の関係を図 2 に示す.図より,DP と各種 BLEU はトレードオフ関係にあり,提案法は摂動の大きさを変化させることで多様性と翻訳精度を調整可能であることが示された。 ## 6 おわりに 本研究では, $\mathrm{kNN}$ 機械翻訳の $\mathrm{k}$ 近傍探索時に摂動を加えることで探索範囲を確率的に拡げる手法を提案し, この手法によって翻訳精度と流暢性を維持しつつ翻訳候補の多様化ができることを示した。また,提案法において摂動の大きさを変化させることで多様性と翻訳精度を調整できることを報告した。今後は, $\mathrm{kNN}$ 機械翻訳の推論速度を向上させる手法の適用や,より多様性を向上させられる手法の検討を行いたい。 ## 謝辞 本研究は JSPS 科研費 JP21H05054,JP21K17801 の助成を受けたものです. ## 参考文献 [1] Jiwei Li and Dan Jurafsky. Mutual information and diverse decoding improve neural machine translation. arXiv preprint arXiv:1601.00372, 2016. [2] Kevin Gimpel, Dhruv Batra, Chris Dyer, and Gregory Shakhnarovich. A systematic exploration of diversity in machine translation. In Proceedings of the 2013 Conference on Empirical Methods in Natural Language Processing, pp. 11001111, Seattle, Washington, USA, October 2013. Association for Computational Linguistics. [3] Ashwin Vijayakumar, Michael Cogswell, Ramprasaath Selvaraju, Qing Sun, Stefan Lee, David Crandall, and Dhruv Batra. Diverse beam search for improved description of complex scenes. Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 32, No. 1, Apr. 2018. [4] Markus Freitag and Yaser Al-Onaizan. Beam search strategies for neural machine translation. In Proceedings of the First Workshop on Neural Machine Translation, pp. 56-60, Vancouver, August 2017. Association for Computational Linguistics. [5] Wen Zhang, Yang Feng, Fandong Meng, Di You, and Qun Liu. Bridging the gap between training and inference for neural machine translation. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 43344343, Florence, Italy, July 2019. Association for Computational Linguistics. [6] Urvashi Khandelwal, Angela Fan, Dan Jurafsky, Luke Zettlemoyer, and Mike Lewis. Nearest neighbor machine translation. In International Conference on Learning Representations, 2021. [7] Zhixian Yang, Renliang Sun, and Xiaojun Wan. Nearest neighbor knowledge distillation for neural machine translation. In Proceedings of the 2022 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 5546-5556, Seattle, United States, July 2022. Association for Computational Linguistics. [8] Xin Zheng, Zhirui Zhang, Junliang Guo, Shujian Huang, Boxing Chen, Weihua Luo, and Jiajun Chen. Adaptive nearest neighbor machine translation. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 2: Short Papers), pp. 368-374, Online, August 2021. Association for Computational Linguistics. [9] Dexin Wang, Kai Fan, Boxing Chen, and Deyi Xiong. Efficient cluster-based $k$-nearest-neighbor machine translation. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 2175-2187, Dublin, Ireland, May 2022. Association for Computational Linguistics. [10] Yuxian Meng, Xiaoya Li, Xiayu Zheng, Fei Wu, Xiaofei Sun, Tianwei Zhang, and Jiwei Li. Fast nearest neighbor machine translation. In Findings of the Association for Computational Linguistics: ACL 2022, pp. 555-565, Dublin, Ireland, May 2022. Association for Computational Linguistics. [11] Ari Holtzman, Jan Buys, Li Du, Maxwell Forbes, and Yejin Choi. The curious case of neural text degeneration. In International Conference on Learning Representations, 2020. [12] Philipp Koehn and Rebecca Knowles. Six challenges for neural machine translation. In Proceedings of the First Workshop on Neural Machine Translation, pp. 28-39, Vancouver, August 2017. Association for Computational Linguistics. [13] Roee Aharoni and Yoav Goldberg. Unsupervised domain clusters in pretrained language models. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7747-7763, Online, July 2020. Association for Computational Linguistics. [14] Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. fairseq: A fast, extensible toolkit for sequence modeling. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics (Demonstrations), pp. 48-53, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [15] Nathan Ng, Kyra Yee, Alexei Baevski, Myle Ott, Michael Auli, and Sergey Edunov. Facebook FAIR's WMT19 news translation task submission. In Proceedings of the Fourth Conference on Machine Translation (Volume 2: Shared Task Papers, Day 1), pp. 314-319, Florence, Italy, August 2019. Association for Computational Linguistics. [16] Boxing Chen and Colin Cherry. A systematic comparison of smoothing techniques for sentence-level BLEU. In Proceedings of the Ninth Workshop on Statistical Machine Translation, pp. 362-367, Baltimore, Maryland, USA, June 2014. Association for Computational Linguistics. [17] Raphael Shu, Hideki Nakayama, and Kyunghyun Cho. Generating diverse translations with sentence codes. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 1823-1827, Florence, Italy, July 2019. Association for Computational Linguistics. [18] Julian Salazar, Davis Liang, Toan Q. Nguyen, and Katrin Kirchhoff. Masked language model scoring. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 2699-2712, Online, July 2020. Association for Computational Linguistics. [19] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [20] Jeff Johnson, Matthijs Douze, and Hervé Jégou. Billion-scale similarity search with GPUs. IEEE Transactions on Big Data, Vol. 7, No. 3, pp. 535-547, 2019. ## A 実験設定の詳細 データストアの構築および近傍探索には FAISS [20] を用いた. 近傍数 $k$ および $\mathrm{k}$ 近傍確率の温度 $T$, 補間係数 $\lambda$ は,ドメイン適応では Khandelwal ら [6] のパラメータを用い,一般ドメインでは開発データで $k=\{16,32,64,128\}$, $T=\{10,100,1000\}, \lambda=\{0.1,0.2, \ldots, 0.9\}$ でグリッドサー チを行い,最良のパラメータを選んだ. 各手法で使用したハイパーパラメータを表 3 に示す. ## B 評価指標の詳細 ソース文集合を $\mathcal{X}=\left.\{x_{1}, \ldots, x_{M}\right.\}$ ,ソース文 $x_{k}$ に対する $N$-best 候補文集合を $\mathbf{B}_{k}=\left.\{\hat{y}_{k}^{1}, \ldots, \hat{y}_{k}^{N}\right.\}$ とする. 多様性の指標 DP はソース文集合 $X$ に対する $\mathrm{N}$-best 候補文集合を $\mathbb{N}=\left.\{\mathbf{H}_{1}, \ldots, \mathbf{H}_{N}\right.\} ; \mathbf{H}_{n}=\left.\{\hat{y}_{1}^{n}, \ldots, \hat{y}_{M}^{n}\right.\}$ としたとき,式 (4)のように計算される。なお, $\operatorname{BLEU}\left(\mathbf{H}, \mathbf{H}^{\prime}\right)$ は参照 $\mathbf{H}^{\prime}$ に対する仮説 $\mathbf{H}$ のコーパス単位の BLEU である. $ \operatorname{DP}(\mathbb{H})=\frac{1}{N(N-1)} \sum_{\mathbf{H} \in \mathbb{H}} \sum_{\mathbf{H}^{\prime} \in \mathbb{H}, \mathbf{H}^{\prime} \neq \mathbf{H}} 1-\operatorname{BLEU}\left(\mathbf{H}, \mathbf{H}^{\prime}\right) $ 流暢性の指標 PLL は文 $y=\left(w_{1}, \ldots, w_{|y|}\right)$ に対して式 (5) のように計算される.ここで,式中の $y_{\backslash t}$ は時刻 $t$ のトー クン $w_{t}$ がマスクされた文であり, $P_{\mathrm{MLM}}\left(w_{t} \mid y_{\backslash t}\right)$ は MLM モデルがマスクされた文 $y_{\backslash t}$ から元のトークン $w_{t}$ を予測する確率である。また,MaxPLL,MinPLL,AvePLLはシステム出力を $\mathbb{W}=\left.\{\mathbf{B}_{1}, \ldots, \mathbf{B}_{M}\right.\}$ とするとき,それぞれ式 (6),式 (7),式 (8) のように定義される。 $ \operatorname{PLL}(y)=\sum_{t=1}^{|y|} \log P_{\mathrm{MLM}}\left(w_{t} \mid y_{\backslash t}\right) $ $\operatorname{MaxPLL}(\mathbb{W})=\frac{1}{|\mathbb{W}|} \sum_{\mathbf{B} \in \mathbb{W}} \max _{\hat{y} \in \mathbf{B}}\left(\frac{1}{|\hat{y}|} \operatorname{PLL}(\hat{y})\right)$ $ \operatorname{MinPLL}(\mathbb{W})=\frac{1}{|\mathbb{W}|} \sum_{\mathbf{B} \in \mathbb{W}} \min _{\hat{y} \in \mathbf{B}}\left(\frac{1}{|\hat{y}|} \operatorname{PLL}(\hat{y})\right) $ $ \operatorname{AvePLL}(\mathbb{W})=\frac{1}{|\mathbb{W}|} \sum_{\mathbf{B} \in \mathbb{W}}\left(\frac{1}{|\mathbf{B}|} \sum_{\hat{y} \in \mathbf{B}}\left(\frac{1}{|\hat{y}|} \operatorname{PLL}(\hat{y})\right)\right) $ ## C 推論コスト ドメイン適応実験における各ドメインおよび一般ドメイン (WMT) の推論の速さ (tokens/s) を表 4 に示す. 表中の報告值は fairseq の出力ログに記載されている値である. 表より,提案法のうち DBS $+\mathrm{kNN}$ ,静的ノイズ,乱択 $\mathrm{k}$ 近傍では推論の速さが kNN と比較して若干低下する傾向があり,適応的ノイズでは推論速度の低下が顕著であることがわかる。 表 4 推論の速さ. 単位は tokens/s. 行ラベルは (1) Baseline, (2) DBS, (3) kNN, (4) DBS+kNN, (5) 適応的ノイズ, (6) 静的ノイズ,(7) 乱択 $\mathrm{k}$ 近傍である. ## D 各ドメインの結果 ドメイン適応設定の評価結果を表 5 に示す. 表 5 各ドメインの評価結果. 行ラベルの (1) (7) は表 4 と同一,列ラベルは(1) DP,(2) BLEU@1,(3) BLEU@20, (4) MedBLEU, (5) MaxPLL, (6) MinPLL, (7) MaxPLL である.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A2-2.pdf
# 文単位の Nbest 候補制約に基づく文書翻訳 駒田 啓伍 ${ }^{1}$ 森下睦 2 鈴木潤 1 1 東北大学 ${ }^{2} \mathrm{NTT}$ コミュニケーション科学基礎研究所 keigo.komada.r6@dc. tohoku.ac.jp ## 概要 現在の機械翻訳モデルは主に 1 文から 1 文への翻訳を対象としており, 単文に対しては高い精度を達成できるものの,文書全体としての表現の一貫性などに関しては課題が残っている。 また従来の文書翻訳手法は, 文書から文書への長い系列変換を行うことによる翻訳精度低下など実用上の問題が残っていた. 本研究では, この問題を軽減するために, 単文翻訳モデルと文書翻訳モデルの両方を活用する手法を提案する. 具体的には,単文翻訳モデルが出力した翻訳候補をもとに,文書翻訳モデルによって適切な翻訳文の組合せを求め文書翻訳を実現する. 実験により,従来の文書翻訳手法と比較して提案手法は高い文書翻訳精度が得られることが示せた. ## 1 はじめに 機械翻訳技術の進展により,機械翻訳による翻訳品質は実用レベルに達し, 既に商用システムとして一般にも広く使われている。これにより,機械翻訳の研究が完結したかというと, 必ずしもそうではない. 一文単位の翻訳 (以下「単文翻訳」と略記), 特にデータが集めやすいドメインの文章の翻訳に関しては十分に実用レベルと言えるが,例えば文章全体を翻訳する際などに表現やスタイルが一貫した翻訳結果を得ることは, 現状の機械翻訳技術でも容易ではない. 実際に,機械翻訳の研究コミュニティにおいても,文書単位で一貫性のある翻訳(以下「文書翻訳」と略記)の実現は,喫緊に取り組むべき課題として認識されている. 一貫性のある文書翻訳結果を得たい場合,安直には文書全体を一文とみなして処理すれば,原理的には単文翻訳モデルでも翻訳することはできる.しかしこういった方法は一般的には現実的ではない. それは,現在広く用いられている Transformer モデルによるニューラル翻訳は,本質的に文長が長くなると性能が急激に悪くなる性質を持つからである [1]. また,別観点の問題として,高い翻訳品質を達成するには多くのデータを必要とすることが一般的である.しかし, 文書単位の対訳データは, 文単位の対訳データに比べてそれほど多くない. これらの現状から,現在の文単位のニューラル翻訳をそのまま文書翻訳に転用しても,良い結果が得られない。 これらの背景から,本稿では文書翻訳の性能向上を目標に新たな方法を提案する。具体的には,従来用いられてきた Transformer ベースの単文翻訳モデルに対して, 少量の文書対訳データを用いて追加学習1)を行うことで,データ量の問題に対応する。また,単文翻訳モデルが生成する複数の翻訳候補を文書翻訳時の制約と考え,文単位の制約付き生成をすることで長文を生成する際の翻訳品質の劣化を防ぎ文書単位の翻訳を獲得する。実験では,chat 及び news 文書に対して実験を行い,単文翻訳で各文を独立に翻訳した結果を並べる形式で文書を翻訳するよりも,BLEU スコアの意味で高い翻訳精度を達成したことを報告する。 ## 2 文書翻訳 機械翻訳システムの翻訳結果を文書全体で評価した時,整合性や一貫性の観点で人間に及ばない場合が多いことが知られている [2].これは,一般的なニューラル機械翻訳モデルが 1 文から 1 文への翻訳を対象としているため,文書全体で見た際に表現やスタイルの一貫性が欠如しがちなことが主な要因として挙げられる. この問題を解決するために,翻訳時に前後の文 (文脈)を考慮する文書翻訳の手法がいくつか提案されている. 例えば,Tiedemann\&Scherrer ら [3] は,入力文と出力文に 1 つ前の文を結合し,2文ずつモデルに入力することで文脈を考慮する手法を提案した.また,Junczys-Dowmunt [4] はこれを拡張し,文書全体を入出力とするモデルを提案した. これらの手法は,シンプルかつ効果的であることが検証され 1)本稿では fine-tuning を「追加学習」と表記する 図 1 文書翻訳のアルゴリズムの概略図 $(N=10$ の場合) ているものの,現在の Transformer モデルは文長が長くなるにつれ計算量が大幅に増加し,翻訳精度が低下する欠点 [1] が指摘されており,実用上の問題が残っている。 本研究の提案法は, 従来法の課題である翻訳時の計算量を抑えつつ文書全体を考慮した翻訳を実現する方法となる.次節以降では,提案手法の詳細を説明する。 ## 3 提案法 本研究では,通常の 1 文から 1 文へ翻訳を行うモデル (単文翻訳モデル) と,文書全体を入力し文書全体を出力するモデル (文書翻訳モデル) の両方を活用することを考える.具体的には,単一ドメインの対訳コーパスで追加学習した単文翻訳モデルで文書中の各文を独立に翻訳し翻訳候補を得た上で,それらを文書単位の対訳コーパスで追加学習した文書翻訳モデルの生成制約とする.単文翻訳モデルを単一ドメインに特化させるように追加学習したことで,ドメイン不明の入力文に対してもその文のドメインと一致する単文翻訳モデルが存在していれば,よい翻訳を出力できるようになることを期待している.これにより,文書翻訳モデルは新たに文を生成するのではなく,単文翻訳モデルで得られた翻訳文をもとに文書全体として適切な文の組合せを求めることとなる. 以下に本手法の詳細な生成手順を述べる。 図 1 のように単一ドメインの対訳コーパスで追加学習した単文翻訳モデルを複数個,文書翻訳モデルを 1 つ用意した。以下において $i$ は処理対象の単文が文書内において $i$ 番目であることを表す。 1. 候補文を生成入力文書内の $i$ 番目の文を翻訳して,各単文翻訳モデルから $N$ 個ずつ候補文を出力させる. 2. 候補文書を生成前の $(i-1)$ 番目ループで残った表 1 追加学習用及び評価用データの統計量. 候補文書の末尾に候補文を結合する。この操作を全ての候補文書と候補文の組合せに対して行って新たな候補文書とする。 $i=0$ の時は,前のループで残った候補文書は空集合とする。 3. 候補文書を評価入力文書の全体を参照しながら,文書翻訳モデルで候補文書を評価する 4. beam search 評価して得られた尤度をもとに,候補文書から $N$ 個だけ選択して次のループに残す. 1 に戻ってループする. ループ終了全ての文に対して操作が終了したら, $N$ 個の候補文書のうち最も尤度が高かったものを提案法の出力とする。 beam search によって Nbest 候補制約を与えたのは,制約しない場合はと生成した文書数が,文数に対して指数関数的に増加して,生成した文書の評価をするのに極めて長い計算時間を必要するからである. ## 4 実験 データ追加学習用および評価用データとして,文書単位の情報をもつ chat および news ドメインの対訳コーパスを用意した,表 1 にそれらの文書数および文数を示す. chatドメインの対訳コーパスとしてBPersona-chat[5]を用いた。同様に, news ドメインの対訳コーパスとして WMT-2020ニュース翻訳タスクの開発/評価セット (newsdev2020, newstest2020) [6] を使用した. BPersona-chat は文書の単位でランダムに一部を評価用として切り出し,残りを追加学習用とした。また,news ドメインは newsdev2020を追加学習用, newstest2020を評価用とした. モデル単文翻訳の事前学習済み翻訳モデルとして,WMT-2022で好成績を得た NT5 チームが学習した Transformer [7] ゙ーースの翻訳モデル [8]を用いた.以下,この事前学習済みモデルをベースモデルと呼ぶ. 次に,このベースモデルから独立に 4 つの翻訳モデルを追加学習により獲得した. 表 2 文書翻訳モデル DocMT (news\&chat) と単文翻訳モデル SentMT (news\&chat) の文書翻訳結果を sacrebleu で評価した際の BLEU スコア 表 3 文書翻訳モデル DocMT (news\&chat) で単文翻訳と同じ翻訳をした場合との BLEU スコア 1. DocMT (news\&chat):news 及び chat ドメイン両方の文書対訳コーパスを使って追加学習をした文書翻訳モデル 2. SentMT(news\&chat): news 及び chat ドメイン両方の文書対訳コーパスから文書情報を取り除き文単位の追加学習をした単文翻訳モデル 3. SentMT(news): news ドメインの文書対訳コー パスから文書情報を取り除き文単位の追加学習をした単文翻訳モデル 4. SentMT(chat):chat ドメインの文書対訳コーパスから文書情報を取り除き文単位の追加学習をした単文翻訳モデル 文書翻訳モデルは Junczys-Dowmunt [4] の手法を参考に,文書中の各文を結合し学習した. 提案法の説明で述べたように,SentMT (chat) と SentMT (news) は,候補の生成のために利用する。また,DocMT が主たる文書翻訳モデルである. 前記 SentMT (chat) と SentMT(news) モデルが生成した候補を制約として文書翻訳をおこなう.SentMT (news\&chat) は,提案法 DocMT (news\&chat) と比較して文書単位で学習したか文単位で学習したかの違いだけのモデルになる。なお翻訳モデルの学習には fairseq ツールキッ卜 [9] を使用した. また,文書翻訳を実行するために fairseq ツールキットを活用しつつ制約付き翻訳用のコードを独自に作成した. 評価指標本実験の評価は,WMT-2020 の標準評価ツールである sacrebleu [10] を用いて BLEU スコア [11]にて実施した.表 4 提案法の候補文を生成するために用いた,ドメインごとに追加学習した単文翻訳モデルの BLEU スコア ## 4.1 実験結果 表 2 に主たる実験結果を示す. Ja-En の chat 評価データに対する翻訳結果を除いて,提案法の BLEU スコアの方が高いという結果になった。この結果から,提案法である文書翻訳は,単文翻訳モデルが文書内の文を一文ずつ翻訳して結合する方法(ベースライン)により文書を翻訳するよりも,概ね良好な結果が得られることがわかった。 表 3 に,DocMT(news\&chat) に対して単文翻訳から得た候補を用いずに,通常の単文翻訳と同様に翻訳した際の結果を示す。また,表 2 の DocMT (news\&chat) および SentMT (news\&chat) からの BLEU スコアの差分を示す. 差分が全てマイナスの値になっているのは,DocMT (news\&chat) で単文翻訳と同じ翻訳をすると,ベースラインである SentMT (news\&chat) よりもさらにスコアが悪くなることを示している.この結果から,提案法で導入した単文翻訳の候補を制約として文書翻訳に利用することの有効性が示された. 使うモデルが完全に同じでも,制約を入れるか入れないかでこのような大きな違いが見られた理由は,文書翻訳の場合は,翻訳文の文長が単文翻訳に比べて長くなることが要因と考えられる.例えば,学習データに現れない文長の翻訳をするとき,極端に翻訳品質が悪くなることが知られている $[12,13]$. また,モデル学習時と翻訳時の状況のずれいわゆる exposure bias に起因する要因もあると考えられる $[14,1]$. ## 4.2 分析/考察 単一のドメインの学習結果表 4 に,提案法である DocMT の候補を生成した単文翻訳 SentMT (chat) と SentMT (news) の 1 ベスト翻訳の性能を示す. chat 評価データを SentMT (chat) にて翻訳する場合,あるいは,news 評価データを SentMT (news) にて評価する場合のようにモデルと評価データのドメインが一致するときは高いスコアが得られた. 反対にモデルと評価データのドメインが一致しない場合は 表 5 候補文のドメインの内訳と,単文翻訳モデルが候補文を生成した段階での候補文の順位(0 位から)についての各種統計量(chatドメインの対訳コーパスにおける場合) BLEU スコアが大幅に悪くなった. もう一点着目すべきこととして, 表 3 の DocMT (news\&chat) の結果は,評価データとモデルのドメインが一致している場合の結果よりもわずかに良い結果となっている. この結果から, DocMT (news\&chat) は与えられた候補の中からより良い翻訳候補を選択できたことが示唆される. モデルの選択結果の統計量提案法が実際に出力した文書を構成した候補文に注目して,単文モデルが生成した候補文のドメインの内訳,モデルが候補文を生成した段階での候補文の尤度による順位に関するいくつかの統計量の 2 つについて,表 5 に chat ドメインの文書を提案法が翻訳した場合,表 6 に news ドメインの文書を提案法が翻訳した場合を示す ${ }^{2}$. 選択された候補文の内訳に注目すると, chatドメインのデータを翻訳した場合は SentMT (news) 由来の候補文があまり混在しなかったのに対して, news ドメインのデータを翻訳した場合は SentMT (chat) 由来の候補文が $30 \%$ 以上も混在していた。選択した候補文の順位について,共通する傾向としてどちらも順位の高い(0に近い側)候補を選択したことが分かった. 平均は news ドメインの文書を翻訳した場合の方が低かった。また翻訳する文書と候補文のドメインが異なる場合は,選択された候補文の順位の標準偏差は大きくなる傾向が見られた. 翻訳結果の一貫性の定性評価図 2 に提案法による実際の chat 文書翻訳結果を示す.この出力の中にはSentMT (news) の候補文が含まれているが, その候補文でも chat ドメインのようにくだけた印象の語彙が使われているのが分かった。一方で SentMT (news) に限らず,SentMT (chat) の候補文の一部であってもです・ます調の部分があり,正解 2)選択された候補文の尤度による順位に関する分布や,文書内で何文目なのかという位置についての情報の詳細は付録の表 7, 9,10,11,12を参照表 6 候補文のドメインの内訳と,単文翻訳モデルが候補文を生成した段階での候補文の順位(0位から)についての各種統計量 (news ドメインの対訳コーパスにおける場合) \\ 図 2 提案法による Chat 文書の En-Ja 翻訳結果 データのような表現が他の SentMT (chat) の候補文に存在していたがそれを選択していなかった。また,誤訳も見られた。このように,提案法によってスコアが向上したが,まだ改善すべき点は残っていることが分かった. ## 5 おわりに 本研究では,単文翻訳モデルが出力した翻訳候補をもとに,文書翻訳モデルによって適切な翻訳文の組合せを求め,文書翻訳を実現する手法を提案した. 結果として chat及び news ドメインの対訳コーパスに対してこの提案法は,単文翻訳の結果を結合して文書を構成する手法よりも自動評価においてより高いスコアを得ることができた。しかし実際の出力を見ると,文書内での口調・語尾の使用の統一は完全になされているわけではなく,誤訳も確認された。 簡単に準備できて,それなりに品質の高いデータが今回用いた chat と news データしかなかったため 2 種類のデータのみで実験を行ったが,より広範な性能を評価するためには,評価データを増やす必要がある. 今後,文書翻訳の性能を高めるために,これらの評価データおよび追加学習用のデータを構築していきたいと考えている. ## 謝辞 本研究は JST ムーンショット型研究開発事業 JPMJMS2011 (fundamental research) の助成を受けて実施されたものである. ## 参考文献 [1] Marc'Aurelio Ranzato, Sumit Chopra, Michael Auli, and Wojciech Zaremba. Sequence level training with recurrent neural networks. In 4th International Conference on Learning Representations, ICLR 2016. [2] Samuel Läubli, Rico Sennrich, and Martin Volk. Has machine translation achieved human parity? a case for document-level evaluation. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 47914796, Brussels, Belgium, October-November 2018. Association for Computational Linguistics. [3] Jörg Tiedemann and Yves Scherrer. Neural machine translation with extended context. In Proceedings of the Third Workshop on Discourse in Machine Translation, pp. 82-92, Copenhagen, Denmark, September 2017. Association for Computational Linguistics. [4] Marcin Junczys-Dowmunt. Microsoft translator at WMT 2019: Towards large-scale document-level neural machine translation. In Proceedings of the Fourth Conference on Machine Translation (Volume 2: Shared Task Papers, Day 1), pp. 225-233, Florence, Italy, August 2019. Association for Computational Linguistics. [5] Yunmeng Li, Jun Suzuki, Makoto Morishita, Kaori Abe, Ryoko Tokuhisa, Ana Brassard, and Kentaro Inui. Chat translation error detection for assisting cross-lingual communications. In Proceedings of the 3rd Workshop on Evaluation and Comparison of NLP Systems, pp. 88-95, Online, November 2022. Association for Computational Linguistics. [6] Loïc Barrault, Magdalena Biesialska, Ondřej Bojar, Marta R. Costa-jussà, Christian Federmann, Yvette Graham, Roman Grundkiewicz, Barry Haddow, Matthias Huck, Eric Joanis, Tom Kocmi, Philipp Koehn, Chi-kiu Lo, Nikola Ljubešić, Christof Monz, Makoto Morishita, Masaaki Nagata, Toshiaki Nakazawa, Santanu Pal, Matt Post, and Marcos Zampieri. Findings of the 2020 conference on machine translation (WMT20). In Proceedings of the Fifth Conference on Machine Translation, pp. 1-55, Online, November 2020. Association for Computational Linguistics. [7] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, L ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in Neural Information Processing Systems, Vol. 30, 2017. [8] Makoto Morishita, Keito Kudo, Yui Oka, Katsuki Chousa, Shun Kiyono, Sho Takase, and Jun Suzuki. Nt5 at wmt 2022 general translation task. In Proceedings of the Seventh Conference on Machine Translation, pp. 318-325, Abu Dhabi, December 2022. Association for Computational Linguistics. [9] Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. fairseq: A fast, extensible toolkit for sequence modeling. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics (Demonstrations), pp. 48-53, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [10] Matt Post. A call for clarity in reporting BLEU scores. In Proceedings of the Third Conference on Machine Translation: Research Papers, pp. 186-191, Brussels, Belgium, October 2018. Association for Computational Linguistics. [11] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics. [12] Masato Neishi and Naoki Yoshinaga. On the relation between position information and sentence length in neural machine translation. In Proceedings of the 23rd Conference on Computational Natural Language Learning (CoNLL), pp. 328-338, Hong Kong, China, November 2019. Association for Computational Linguistics. [13] Shun Kiyono, Sosuke Kobayashi, Jun Suzuki, and Kentaro Inui. SHAPE: Shifted absolute position embedding for transformers. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 3309-3321, Online and Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. [14] Wen Zhang, Yang Feng, Fandong Meng, Di You, and Qun Liu. Bridging the gap between training and inference for neural machine translation. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 4334 4343, Florence, Italy, July 2019. Association for Computational Linguistics. 表 7 SentMT(chat)が chat ドメインの対訳コーパスにおいて En-Ja 翻訳する際に出力した各順位の候補文が選択された回数と, 文書内で何文目に選択されたかという位置に関する各種統計量 表 8 SentMT(chat) が chat ドメインの対訳コーパスにおいて Ja-En 翻訳する際に出力した各順位の候補文が選択された回数と, 文書内で何文目に選択されたかという位置に関する各種統計量 表 9 SentMT(chat) が news ドメインの対訳コーパスにおいて En-Ja 翻訳する際に出力した各順位の候補文が選択された回数と, 文書内で何文目に選択されたかという位置に関する各種統計量 表 10 SentMT(news) が news ドメインの対訳コーパスにおいて En-Ja 翻訳する際に出力した各順位の候補文が選択された回数と,文書内で何文目に選択されたかという位置に関する各種統計量 表 11 SentMT(chat)が news ドメインの対訳コーパスにおいて Ja-En 翻訳する際に出力した各順位の候補文が選択された回数と, 文書内で何文目に選択されたかという位置に関する各種統計量 表 12 SentMT(news) が news ドメインの対訳コーパスにおいて Ja-En 翻訳する際に出力した各順位の候補文が選択された回数と,文書内で何文目に選択されたかという位置に関する各種統計量
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A2-3.pdf
# 近傍文検索を用いたサブセット kNN ニューラル機械翻訳 出口 祥之 ${ }^{1,2}$ 渡辺太郎 ${ }^{1}$ 松井 勇佑 ${ }^{3}$ 内山 将夫 ${ }^{2}$ 田中 英輝 ${ }^{2}$ 隅田 英一郎 ${ }^{2}$ 1 奈良先端科学技術大学院大学 2 情報通信研究機構 3 東京大学 ${ }^{1}$ \{deguchi.hiroyuki.db0, taro\}@is.naist.jp ${ }^{3}$ [email protected] ${ }^{2}$ \{mutiyama, hideki.tanaka, eiichiro.sumita\}@nict.go.jp ## 概要 kNN-MT [1] は,翻訳時に用例検索を組み込むことで,モデルを追加学習することなくニューラル機械翻訳(NMT)の精度を改善する。しかし,翻訳中の各時刻で,対訳データの全目的言語トークンに対して近傍探索を行うため, 翻訳速度が通常の NMT の 100〜1000 倍ほど遅くなるという問題点がある.本研究では検索対象を入力文の近傍事例に絞ることで kNN-MT の高速化を図る。また,ルックアップテーブルを用いた効率的な距離計算により,さらなる高速化を目指す. 複数の翻訳実験を行ったところ, 従来法より最大で 1.6 BLEU ポイント精度が改善し, 最大 132.2 倍速度が改善することを確認した. ## 1 はじめに Transformer [2] ニューラル機械翻訳(Neural Machine Translation; NMT)は, 従来の統計的手法より翻訳精度と流暢性が高く, 注目を浴びている。近年,訓練データと異なるドメインの翻訳精度が低下する課題に対処するため, Transformer NMT に用例検索の手法を組み込んだ kNN-MT [1] が提案されている. kNN-MT は,訓練済み NMT モデルの中間表現を用いて,データストアと呼ばれるキー・值メモリに対訳データを格納し,翻訳中の各時刻で $k$ 近傍事例を探索する. これにより, モデルを追加学習することなく翻訳精度を改善できることが報告されている. しかし, 従来の kNN-MT では対訳データの目的言語側の全トークンを対象に近傍探索するため,翻訳速度が通常の Transformer NMT より 100〜1000 倍ほど遅くなるという問題点がある. 本研究では入力文の近傍事例のみに検索対象を絞ることで kNN-MT の高速化を図る。また,ルックアップテーブルを用いて各事例との距離を効率的に求めることで,さらなる高速化を目指す. WMT19 独英翻訳とドメイン適応翻訳実験を行い,提案法は従来法より翻訳精度が最大で $1.6 \mathrm{BLEU}$ ポイント,翻訳速度が最大で 132.2 倍改善することを確認した. ## 2 kNN-MT データストア構築一般的な NMT は,原言語文 $\boldsymbol{x}=\left(x_{1}, x_{2}, \ldots, x_{|x|}\right)^{\top} \in \mathscr{V}_{X}^{|\boldsymbol{x}|}$ が与えられたとき目的言語文 $\boldsymbol{y}=\left(y_{1}, y_{2}, \ldots, y_{|\boldsymbol{y}|}\right)^{\top} \in \mathscr{V}_{Y}^{|\boldsymbol{y}|}$ を先頭から順に生成する. ただし, $|\boldsymbol{x}|,|\boldsymbol{y}|$ はそれぞれ文 $\boldsymbol{x}, \boldsymbol{y}$ の長さ, $\mathscr{T}_{X}, \mathscr{T}_{Y}$ はそれぞれ入力語彙と出力語彙を表す.時刻 $t$ に出力されるトークン $y_{t}$ は,原言語文 $\boldsymbol{x}$ と時刻 $t$ までに生成した目的言語トークン系列 $\boldsymbol{y}_{<t}$ から計算される確率 $p\left(y_{t} \mid \boldsymbol{x}, \boldsymbol{y}_{<t}\right)$ に基づき生成される. kNN-MT は,翻訳前に予め,データストアと呼ばれる $D$ 次元ベクトルと語彙の組からなるキー・值メモリ $\mu \subseteq \mathbb{R}^{D} \times \mathscr{V}_{Y}$ を構築する.キーは NMT モデルに teacher forcing 方式 [3] で対訳文対 $(\boldsymbol{x}, \boldsymbol{y})$ を入力したときに得られるデコーダ最終層の中間表現,値はキーベクトルが得られたときに出力されるべき正解の目的言語トークン $y_{t} \in \mathscr{T}_{Y}$ であり,以下のような式で定義される. $ M=\left.\{\left(f\left(\boldsymbol{x}, \boldsymbol{y}_{<t}\right), y_{t}\right)|(\boldsymbol{x}, \boldsymbol{y}) \in \mathscr{D}, 1 \leq t \leq| \boldsymbol{y} \mid\right.\} . $ なお, $D$ は対訳データ, $f: \mathscr{V}_{X}^{|x|} \times \mathscr{V}_{Y}^{t-1} \rightarrow \mathbb{R}^{D}$ は原言語文と生成済みトークンからデコーダ最終層の $D$次元中間表現ベクトルを得るような NMT モデルを表す関数とする。本研究では順伝播層への入力べクトルをキーとする. 翻訳時出力トークン $y_{t} \in \mathscr{T}_{Y}$ の生成確率は $\mathrm{kNN}$確率とMT 確率の線形補間により計算される. $ \begin{aligned} & P\left(y_{t} \mid \boldsymbol{x}, \boldsymbol{y}_{<t}\right) \\ & =\lambda p_{\mathrm{kNN}}\left(y_{t} \mid \boldsymbol{x}, \boldsymbol{y}_{<t}\right)+(1-\lambda) p_{\mathrm{MT}}\left(y_{t} \mid \boldsymbol{x}, \boldsymbol{y}_{<t}\right), \end{aligned} $ なお,入はそれぞれの確率に対する重み付けのハイパーパラメータである.時刻 $t$ におけるクエリべクトルを $f\left(\boldsymbol{x}, \boldsymbol{y}_{<t}\right)$, データストア $M$ に対する $k$ 近傍の上位 $i$ 番目のキー・值をそれぞれ $\boldsymbol{k}_{i} \in \mathbb{R}^{D}, v_{i} \in \mathscr{T}_{Y}$ 図 1 サブセット kNN-MT とし, $を \mathrm{kNN}$ 確率の温度パラメータとすると, $p_{\mathrm{kNN}}$ は次式のように計算される. $p_{\mathrm{kNN}}\left(y_{t} \mid \boldsymbol{x}, \boldsymbol{y}_{<t}\right) \propto \sum_{i=1}^{k} \mathbb{1}_{y_{t}=v_{i}} \exp \left(\frac{-\left.\|\boldsymbol{k}_{i}-f\left(\boldsymbol{x}, \boldsymbol{y}_{<t}\right)\right.\|_{2}^{2}}{\tau}\right)$, ## 3 提案法: サブセット kNN-MT 提案法(図 1)は入力文の情報を活用することで翻訳開始時に探索対象を削減する(3.1 節)。また,翻訳中の各時刻で,絞り込んだ事例の中から上位 $k$近傍を求める際,効率的な計算手法を用いることでクエリとキーの間の距離を高速に求める(3.2 節)。 ## 3.1 サブセット探索 文データストア構築提案法では文データストア $\delta$ を構築して対訳データの原言語文の文べクトルをキー,目的言語文を值として格納する. $ \mathcal{S}=\{(h(\boldsymbol{x}), \boldsymbol{y}) \mid(\boldsymbol{x}, \boldsymbol{y}) \in \mathscr{D}\}, $ ただし, $h: \mathscr{V}_{X}^{|x|} \rightarrow \mathbb{R}^{D^{\prime}}$ は原言語文の $D^{\prime}$ 次元文べクトルを得る文エンコーダモデルを表す関数とする。 翻訳時翻訳開始時に,入力文の文ベクトルとのユークリッド距離が近い $n$ 近傍文を文データストア $\delta$ から探索し, $n$ 近傍文集合 $\hat{\delta} \subset \mathcal{S}$ を得る. ここで, kNN-MT の検索対象を次式のように絞り込む. $ \hat{M}=\left.\{\left(f\left(\boldsymbol{x}, \boldsymbol{y}_{<t}\right), y_{t}\right)|(h(\boldsymbol{x}), \boldsymbol{y}) \in \hat{\mathcal{S}}, 1 \leq t \leq| \boldsymbol{y} \mid\right.\}, $ なお, $\hat{M} \subset M$ は近傍文の事例に絞り込まれたデー タストアである.翻訳中は $\hat{M}$ から近傍探索する以外は従来法と同様である。すなわち,提案法は検索対象とする文を $|\mathscr{D}|$ 文から $n(\ll|D|)$ 文に事前に絞 り込み,その文に対し出力の $k$ 近傍を探索する. ## 3.2 ルックアップによる効率的な距離計算 直積量子化データストアは対訳データ中の全目的言語トークンの中間表現を保持するため,メモリ上に直接ロードすることは困難1) である. 本研究では,従来の kNN-MT と同様に,直積量子化(Product Quantization; PQ)[4] と呼ばれるベクトル量子化手法を用いてデータストアを圧縮する。 $\mathrm{PQ}$ は $D$ 次元ベクトルを $\frac{D}{M}$ 次元ずつ $M$ 個のサブベクトルに分割し,それぞれのサブベクトルを量子化する.量子化のためのコードブックは各 $\frac{D}{M}$ 次元部分空間で学習され, $m$ 番目の空間のコードブック $\mathscr{C}^{m}$ は以下のように表される. $ \mathscr{C}^{m}=\left.\{\boldsymbol{c}_{1}^{m}, \ldots, \boldsymbol{c}_{L}^{m}\right.\}, \boldsymbol{c}_{l}^{m} \in \mathbb{R}^{\frac{D}{M}} . $ なお, 本研究では各コードブックの大きさを $L=256$ に設定する. ベクトル $\boldsymbol{q} \in \mathbb{R}^{D}$ は以下のようにしてコードベクトル $\bar{q}$ に量子化される. $ \begin{aligned} \overline{\boldsymbol{q}} & =\left[\bar{q}^{1}, \ldots, \bar{q}^{M}\right]^{\top} \in\{1, \ldots, L\}^{M}, \\ \bar{q}^{m} & =\underset{l}{\operatorname{argmin}}\left.\|\boldsymbol{q}^{m}-\boldsymbol{c}_{l}^{m}\right.\|_{2}^{2}, \boldsymbol{q}^{m} \in \mathbb{R}^{\frac{D}{M}} . \end{aligned} $ 量子化コード上での距離計算提案法では, $\mathrm{PQ}$ によって量子化されているサブセットデータストア $M_{n}$ に対して $k$ 近傍を探索する際,以下に示す Asymmetric Distance Computation (ADC) [4] を用いて効率的にベクトル間距離を計算する。手法の概要を図 2 に示す. $\mathrm{ADC}$ は,クエリベクトル $\boldsymbol{q} \in \mathbb{R}^{D}$ と, $N$ 個の $M$ 次元キーベクトル $\overline{\mathscr{K}}=\left.\{\overline{\boldsymbol{k}}_{1}, \ldots, \overline{\boldsymbol{k}}_{N}\right.\}$ のそれぞれとの距 1) 4.1 節の実験では $862,648,422$ トークン分の 1024 次元ベクトルを使用する。このとき,データストア容量は約 $3.2 \mathrm{TiB}$ $\simeq 862,648,422$ トークン $\times 1024$ 次元 $\times 32$ bit float $/ 8 \mathrm{bit} / 1024^{4}$. 図 2 ルックアップテーブルを用いた近似距離計算 離を以下のようにして求める. まず,各部分空間 $m$ において, $\boldsymbol{q}^{m}$ とコード $\boldsymbol{c}_{l}^{m} \in \mathscr{C}^{m}$ との距離テーブル $\boldsymbol{A}^{m} \in \mathbb{R}^{L}$ を求める. $ A_{l}^{m}=\left.\|\boldsymbol{q}^{m}-\boldsymbol{c}_{l}^{m}\right.\|_{2}^{2} $ このとき, クエリと各キーとの距離 $d\left(\boldsymbol{q}, \overline{\boldsymbol{k}}_{i}\right)$ は次式により求まる. $ \begin{aligned} & d\left(\boldsymbol{q}, \overline{\boldsymbol{k}}_{i}\right)=\sum_{m=1}^{M} d_{m}\left(\boldsymbol{q}^{m}, \overline{\boldsymbol{k}}_{i}^{m}\right), \\ & \text { where } d_{m}\left(\boldsymbol{q}^{m}, l\right)=A_{l}^{m} \end{aligned} $ ADC を用いるとキー集合 $\bar{K}$ を復号しないため,量子化された $\hat{M}$ から効率的に $k$ 近傍を探索できる. ## 4 実験 従来法と提案法の翻訳精度と翻訳速度を比較するため,翻訳実験を行った。 翻訳精度は sacreBLEU [5] で評価した,全ての実験において,NVIDIA V100 GPU を 1 基使用した. NMT モデルには FAIRSEQ [6] の WMT19 独英訓練済み Transformer big モデルを用いた. 翻訳時のビーム幅は 5 , 文長正規化パラメー タは 1.0 , バッチサイズは 12,000 トークンとした. $\mathrm{kNN}-\mathrm{MT}$ の探索近傍数は $k=16, \mathrm{kNN}$ 確率の温度は $\tau=100$ に設定した. 従来法の近傍探索と提案法の近傍文探索には FAISS [7] を使用し, PQ のサブベクトル数は $M=64$ に設定した. 提案法のサブセットからの $k$ 近傍探索(ADC 含む)は PyTORCH で実装した. 提案法で用いる文エンコーダには LaBSE [8] と Transformer NMT のエンコーダ最終層の中間表現の平均 $\mathrm{AvgEnc}$ を使用し,性能を比較した。 ## 4.1 WMT19 独英翻訳 翻訳速度と翻訳精度を WMT19 独英翻訳 (newstest2019; 2,000 文) で評価し, 従来法および先行研表 1 WMT19独英翻訳の精度と速度の比較. “ $h$ : ”は文エ ンコーダモデルを示し,“-ADC”はルックアップテーブルを用いなかったときの結果を示す. 究の fast kNN-MT [9] と提案法の性能を比較した. データストアには WMT19独英翻訳の対訳データのサブワード化後の文長が 250 以下かつ対訳文の文長比が 1.5 以内のデータのみを用い,29,540,337 文から得られた 862,648,422 トークンから構築した. 近傍文探索による絞り込み数は $n=512$ とした. 実験結果を表 1 に示す。表より,kNN-MTを用いることで,ベース MTより精度が 0.9 ポイント改善するものの,速度は 326.1 倍遅くなる。一方,提案法(LaBSE)を用いることで,精度が低下することなく kNN-MT より 111.8 倍翻訳速度が改善している.また, AvgEnc は kNN-MT より 0.2 ポイント精度が低下したが,追加のモデルを使用することなく翻訳速度が 92.7 倍ほど改善している。表中の“ ADC” は距離計算に ADC を用いなかった場合を示しており, LaBSE, AvgEnc ともに約 5 倍程度速度が低下することが確認できる。 ## 4.2 ドメイン適応翻訳 IT, Koran, Law, Medical, Subtitles の 5 つのドメインの翻訳実験 $[10,11]$ を行った. NMT モデルには 4.1 ドメイン適応翻訳の精度(BLEU\%)と速度(トークン秒)の比較.太字は各ドメインにおける最高精度を表す。 表 3 Medical ドメインにおける実際の翻訳例。 \\ 節と同様のモデルを用いた. 本実験では,入力文のドメインが未知のオープンドメイン設定を想定するため,データストアの対訳データには 4.1 節で用いたデータと各対象ドメインの対訳データを全てを結合したデータを用い,30,843,860 文から得られた 895,891,420トークンを使用した。近傍文探索による絞り込み数は $n=256$ とした. 実験結果を表 2 に示す. 全てのドメインにおいて,kNN-MTを用いることで,ベース MT と比較して翻訳精度は改善しているが,速度は約 200 倍以上遅くなっている。一方で,提案法を用いることで,従来法より最大で 132.2 倍翻訳速度が改善されている. さらに,翻訳速度だけでなく,翻訳精度が kNN-MT よりも最大 1.6 ポイント改善している. Medical ドメインにおける実際の翻訳例と近傍事例の検索結果をそれぞれ表 3,4 に示す. 提案法は “ $h$ : LaBSE” の結果を示している. 表 3 より, 提案法では, Medical ドメインの定訳である “Filmtablette” $\rightarrow$ “ilm-coated tablet”を正しく翻訳できていること が確認できる.このときの “大力文の上位 3 近傍文 (S-\{1,2,3\})”と,“それらの対訳文 (T-\{1,2,3\})”"表 4 に示す。表 4 より,検索対象であるサブセット内に “film-coated” が含まれている。提案法では近傍事例のみからなるサブセットを探索することで,より適切な単語を訳出できるようになったと考えられる。 ## 5 関連研究 用例を用いた機械翻訳手法は,類推に基づく機械翻訳 [12] によって提案され,NMT に対する拡張として,編集距離に基づいて用例を検索する手法が提案されている $[13,14]$. kNN-MT の速度を改善した fast kNN-MT [9] が提案されている. fast kNN-MT は入力文中の各語彙の近傍事例とその単語アライメントをもとに検索対象を絞り込む。機械翻訳以外では,言語モデルに近傍探索手法を用いた kNN-LM [15] や,kNN-LMを高速化した Efficient kNN-LM [16] が提案されている. ベクトル近傍探索分野では Reconfigurable Inverted Index (Rii) [17] が提案されている. 従来の探索法は全探索のみを想定しているが,Riiでは動的に作成されるサブセットに対する探索を可能とする. ## 6 おわりに 本研究では,kNN-MT の翻訳速度を改善した. 提案法では,入力文の近傍探索により kNN-MT の検索対象を絞り込み,ルックアップテーブルを用いて効率的にベクトル間距離を計算する。複数の翻訳実験の結果,提案法を用いることで kNN-MT より最大 1.6 BLEU ポイントの精度改善と, 最大 132.2 倍の速度改善を確認した. 今後は,機械翻訳以外のタスクへの応用も検討していきたい. ## 謝辞 本研究の一部は JSPS 科研費 $22 \mathrm{~J} 11279$ の助成を受けたものである。ここに謝意を表する。 ## 参考文献 [1] Urvashi Khandelwal, Angela Fan, Dan Jurafsky, Luke Zettlemoyer, and Mike Lewis. Nearest neighbor machine translation. In International Conference on Learning Representations (ICLR), 2021. [2] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I Guyon, U V Luxburg, S Bengio, H Wallach, R Fergus, S Vishwanathan, and R Garnett, editors, Advances in Neural Information Processing Systems 30, pp. 5998-6008. Curran Associates, Inc., 2017. [3] Ronald J. Williams and David Zipser. A learning algorithm for continually running fully recurrent neural networks. Neural Computation, Vol. 1, No. 2, pp. 270-280, 1989. [4] Herve Jégou, Matthijs Douze, and Cordelia Schmid. Product quantization for nearest neighbor search. IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 33, No. 1, pp. 117-128, 2011. [5] Matt Post. A call for clarity in reporting BLEU scores. In Proceedings of the Third Conference on Machine Translation: Research Papers, pp. 186-191, Brussels, Belgium, October 2018. Association for Computational Linguistics. [6] Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. fairseq: A fast, extensible toolkit for sequence modeling. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics (Demonstrations), pp. 48-53, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [7] Jeff Johnson, Matthijs Douze, and Hervé Jégou. Billionscale similarity search with GPUs. IEEE Transactions on Big Data, Vol. 7, No. 3, pp. 535-547, 2019. [8] Fangxiaoyu Feng, Yinfei Yang, Daniel Cer, Naveen Arivazhagan, and Wei Wang. Language-agnostic BERT sentence embedding. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 878-891, Dublin, Ireland, May 2022. Association for Computational Linguistics. [9] Yuxian Meng, Xiaoya Li, Xiayu Zheng, Fei Wu, Xiaofei Sun, Tianwei Zhang, and Jiwei Li. Fast nearest neighbor machine translation. In Findings of the Association for Computational Linguistics: ACL 2022, pp. 555-565, Dublin, Ireland, May 2022. Association for Computational Linguistics. [10] Philipp Koehn and Rebecca Knowles. Six challenges for neural machine translation. In Proceedings of the First Workshop on Neural Machine Translation, pp. 28-39, Vancouver, August 2017. Association for Computational Linguistics. [11] Roee Aharoni and Yoav Goldberg. Unsupervised domain clusters in pretrained language models. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7747-7763, Online, July 2020. Association for Computational Linguistics. [12] Makoto Nagao. A framework of a mechanical translation between japanese and english by analogy principle. In Proc. of the International NATO Symposium on Artificial and Human Intelligence, pp. 173-180, 1984. [13] Jingyi Zhang, Masao Utiyama, Eiichro Sumita, Graham Neubig, and Satoshi Nakamura. Guiding neural machine translation with retrieved translation pieces. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 1325-1335, New Orleans, Louisiana, June 2018. Association for Computational Linguistics. [14] J Gu, Y Wang, K Cho, and V O K Li. Search engine guided neural machine translation. AAAI, 2018. [15] Urvashi Khandelwal, Omer Levy, Dan Jurafsky, Luke Zettlemoyer, and Mike Lewis. Generalization through memorization: Nearest neighbor language models. In International Conference on Learning Representations, 2020 . [16] Junxian He, Graham Neubig, and Taylor Berg-Kirkpatrick. Efficient nearest neighbor language models. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 5703-5714, Online and Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. [17] Yusuke Matsui, Ryota Hinami, and Shin'ichi Satoh. Reconfigurable inverted index. In ACM International Conference on Multimedia (ACMMM), pp. 1715-1723, 2018. [18] Tiezheng Ge, Kaiming He, Qifa Ke, and Jian Sun. Optimized product quantization. IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 36, No. 4, pp. 744-755, 2014. [19] Yu A Malkov and Dmitry A Yashunin. Efficient and robust approximate nearest neighbor search using hierarchical navigable small world graphs. IEEE transactions on pattern analysis and machine intelligence, Vol. 42, No. 4, pp. 824-836, 2018. 表 6 データストアのインデックス設定. & & kNN-MT データストア \\ ベクトル回転 & Optimized PQ [18] & Optimized PQ [18] & - \\ 次元削減 & - & - & PCA: 1024 次元 $\rightarrow$ 256 次元 \\ 転置インデックス & 131,072 クラスタ & 32,768 クラスタ & - \\ 探索クラスタ数 & 近傍 64 クラスタ & 近傍 64 クラスタ & - \\ 粗量子化器 & HNSW Flat [19] (エッジ数: 32) & Flat & - \\ ## A モデル,データセット モデルとデータセットのURLを以下に示す. - NMT モデル: https://dl.fbaipublicfiles.com/fairseq/models/wmt19.de-en.ffn8192.tar.gz ・ドメイン適応データ: https://github.com/roeeaharoni/unsupervised-domain-clusters ## B 実験に使用した計算機 実験に使用した計算機のスペックは以下の通りである. - CPU: Intel(R) Xeon(R) Gold 6150 CPU @ 2.70GHz (18 コア× 2 基) - Memory: 768 GB - GPU: NVIDIA Tesla V100 (1 基使用) - OS: CentOS 7.6 ## C バッチサイズと翻訳速度 本文中の実験ではバッチサイズを 12,000 トークンに設定して速度を比較した。表 5 は,翻訳時のバッチサイズについて,文書翻訳等を想定した 12,000 トークン( $\mathrm{B}_{\infty} )$ とリアルタイム翻訳等を想定した 1 文 $\left(\mathrm{B}_{1}\right)$ としたときの翻訳速度の比較を示す. ## D kNN インデックスの詳細 近傍探索インデックスの詳細な設定を表 6 に示す.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A2-4.pdf
# ユーザ定義の翻訳ルールにより 語彙と構文が制御可能なニューラル機械翻訳 徐聖源 1 宮田玲 ${ }^{1}$ 佐藤理史 ${ }^{1}$ 1 名古屋大学大学院工学研究科 seo.sung. [email protected] ## 概要 ユーザが翻訳ルールを定義することで制御可能なニューラル機械翻訳 URNMT (User-defined Rule constrained Neural Machine Translation) を提案する。本システムはまず、翻訳ルールによって、語彙だけでなく語順など構文に関する制約の情報を含めた未完成の翻訳(部分翻訳)を生成する。そして、その部分翻訳を語彙制約付 NMT の一つである EDITOR に制約として与えることで、統制された翻訳を生成する。EDITORには、部分翻訳を制約として効果的に活用するための機能を追加した。擬似部分翻訳を用いた自動評価により、提案手法が適切に部分翻訳を活用して翻訳を生成できることを確認した。 ## 1 はじめに ニューラル機械翻訳 (neural machine translation; NMT)を制御する手法の一つとして語彙制約付 NMT の研究が行われている $[1,2,3,4]$ 。語彙制約付 NMT は、制約として与えた単語やフレーズを含む翻訳を生成することができるが、出力文に合わせた語形変化が難しいことが指摘されている [4]。また、マニュアル等の産業文書の翻訳では、使用すべき語彙だけでなく、語順などの構文的なパターンも特定の形に統制したいという要求がある [5]。 Jon ら [4] は、Transformer [6] 学習時にレンマ化した制約をソース文と共に学習データとすることで、基本形の制約を与えてもモデルが正しい表層形を選択できるようにした。この手法は、語形変化に柔軟に対応できる形で語彙レベルで制約された翻訳を可能にするが、構文レベルの制御は対象としない。このほか、構文を制御して文を生成する研究 [7] もあるが、翻訳タスクで語彙と構文を同時に制御する研究は不足している。 本研究では、ユーザが定義した翻訳ルールに従って NMT の出力を制御する URNMT (User-defined Rule constrained Neural Machine Translation) を提案する。URNMT は、翻訳ルールを用いて翻訳できる部分だけ翻訳して、翻訳できない部分は原言語のまま残した部分翻訳を生成する。その後、その部分翻訳を語彙制約付 NMT に制約として与えることで翻訳を完成させる。部分翻訳に語順や文型などの情報を組み込むことができるため、語彙制約付 NMT の枠組みを用いながら構文的な制約も課すことができる点が特徴である。 本稿では、現在日英翻訳を対象として開発中の URNMT の全体構成と各機構を説明する(2 節)。また、擬似的な部分翻訳を用いた実験により、提案手法が部分翻訳を制約として適切に活用できることを示す (3 節)。 ## 2 提案システム URNMT は大きく、翻訳ルールを用いて部分翻訳を生成する部分翻訳生成器と、部分翻訳を制約として用いる NMT で構成される(図 1)。 ## 2.1 部分翻訳生成器 部分翻訳生成器は、事前に定義された翻訳ルールが適用できる部分だけ翻訳し、残りは原言語のまま保持した、不完全な翻訳を生成する。具体的にはまず、解析器を使用して入力文の情報を持つ構文木 (Source Tree)を構築する。続いて、辞書ルールに従って、語句の訳し方に関する情報を Source Tree に追加する。最後に、Source Tree がどのような条件を満たすときどのような翻訳を生成するか記述する組み立てルールに従って、目標言語側の木 (Target Tree)を生成した上で、部分翻訳として出力する ${ }^{1)}$ 。 解析器入力文を Stanza [8] を用いて構文解析した結果に基づき、Source Tree を構築する。このと 1) Source Tree、Target Tree、辞書ルール、組み立てルールの例は付録 A に示す。 図 1 提案システム URNMT の全体構成と翻訳例 き、Stanza で得られる情報の一部を削除し、翻訳ルールの定義に必要な情報のみを残した。また、日本語の動詞の後ろに付く各種の機能表現の情報を翻訳時に用いるため、日本語文末解析器 Panzer [9] で解析した情報を追加する。 辞書ルール辞書ルールは、ルールの適用条件、変換方法、語句の属性、適用優先度で構成される。解析器が生成した Source Tree に対し、適用条件を満たすノードが検索された場合、ルールで定義された情報を追加する。追加する情報は、図 1 の「ダイアグコード $\rightarrow \mathrm{DTC}$ のような変換方法だけでなく、語句の属性(意味カテゴリなど)も含む 2 )。Source Tree の各ノードには最大 1 つの辞書ルールが適用される。複数のルールが適用可能な場合は、適用優先度が最大のものを選ぶ。それでも 1 つに絞り込めない場合は、適用条件のより複雑なルールを優先する。 組み立てルール組み立てルールは、ルールの適用条件、Target Tree の組み立て方法、適用優先度から構成される。図 1 では、「Aして、Bする $\rightarrow \mathrm{A} \mid$ ing $\mathrm{B}\lrcorner$ のように簡略化して記述しているが、実際の組み立てルールは、適用条件・組み立て方法ともに木構造で定義され、語彙だけでなく構文の変換方法も柔軟に表現できる。組み立てルールの適用条件に完全にマッチする Source Tree 中の部分(ノード集合) に対して、組み立て方法を用いて Target Tree の部分木を生成し、上位ノードから順次 Target Treeを組み立てる。ある Source Treeノードに対し、複数の組み立てルール(適用条件)のルートノードが重なる場合は、適用優先度と適用条件の複雑度を考慮して、1 つに絞り込む。なお、ユーザが定義する比較的少数の組み立てルールでは、Source Tree の全体をカバー できないため、ユーザ定義ルールとは別に、バックアップ用の基本ルールをあらかじめ定義してある。 2)辞書ルールで語句の属性を定義しておくことで、組み立てルールの柔軟な定義が可能となる。 ## 2.2 部分翻訳を制約として用いる NMT 語彙制約付 NMT の一つである EDITOR [3] を使用して、不完全な部分翻訳から完全な翻訳を生成する。EDITOR は編集を繰り返すことで文を生成するモデルである。編集時は、与えられた制約を初期文とした後、トークンを削除したり位置を変更したりする再配置操作、単語をどこにいくつ追加すべきか予測して placeholder を挿入する placeholder 挿入操作、placeholderをトークンに変換するトークン予測操作を繰り返すことで翻訳を完成させる。 EDITOR に制約を与える方法には、制約の編集を許容するソフトな制約設定と、制約の削除や複数の制約間へのトークン挿入を禁止するハードな制約設定がある。提案システムでは、制約を厳密に守ることを重視するためハードな制約設定を用いるが、オリジナルの EDITOR に準拠して単純な単語の羅列を制約にしてしまうと、複数の制約はひと続きの固定表現として訳されてしまう。そこで、本研究では、未翻訳部分の情報を含んだ部分翻訳を制約として効果的に活用するため、EDITOR に以下の 3 つの機能を追加した (図 1 の例も適宜参照されたい)。 1. placeholder を含む制約生成部分翻訳中の未翻訳部分をあらかじめ placeholder に置き換えて、 EDITOR のデコード時の中間表現に合わせた制約を生成する。このとき、未翻訳部分の文字列から、翻訳を完成するときに埋めるべきトークン (すなわち placeholder) の数を予測する。具体的には未翻訳部分をNMT 学習時と同じ方法でトークナイズして得られたトークン数を基準とする。なお、 EDITOR はトークンの追加や削除が可能であるため、placeholder を最初に 1つ入れておき、あとは EDITOR に任せればよいとも考えられるが、経験的な観察の結果から、適切な数の placeholderを最初から制約に含めることが有効であると判断した。 また、オリジナル EDITOR のハードな制約設定では、制約に含まれる placeholder の編集も禁止されてしまうが、本システムではそれを許可した。 2. リランキング上記で予測する placeholder の数は、あくまで原文のトークン数に基づくもので、必ずしも適切な翻訳文に必要なトークン数と一致するわけではない。この問題を解決するため、予測した placeholder の数にノイズを与えて複数の制約を生成した後、それぞれの制約に対して EDITOR の出力を生成する。その後、生成された複数の出力をリランキングし、最も良いものを選ぶ。 placeholder の数は、予測値(未翻訳部分のトークン数)を中心に、 0 から 2 倍の範囲内でランダムで決定し、 1 文ごとに 50 の制約を生成する。異なる制約が 50 個生成できない場合は、 0 から 2 倍の範囲を超える placeholderを挿入する。 リランキング手法には、雑音のある通信路モデルに基づく手法 [10]を使用した。この手法は、順方向翻訳モデルの生成確率、逆方向翻訳モデルの生成確率、言語モデルの生成確率を線型結合して翻訳にスコアを付けた後、順位付けする。提案システムでは、順方向翻訳モデルとして EDITOR、逆方向翻訳モデルとして逆方向 Transformer モデル、言語モデルとしてターゲット側 Transformer 言語モデルを使用する。 3. スキップ機能オリジナルの EDITOR は制約が与えられた時、トークンの再配置と placeholder 挿入を行った後、トークン予測を行う。そのため、制約に含まれる placeholder に対するトークン予測が行われる前に、placeholder の削除や追加が行われる可能性がある。最初に予測した placeholder の情報をなるべく生かすために、制約に placeholder が含まれている場合、再配置と placeholder 挿入の操作を初回のみスキップしてトークン予測を先に行うようにした。 ## 3 疑似部分翻訳を用いた実験 2.2 節で提案した NMT が、部分翻訳を効果的に制約として活用できるのか、また追加した 3 つの機能が有効であるかを評価した。評価では、実際の使用環境を再現して、開発データを用いてユーザが翻訳ルールを定義した後、評価データを用いて翻訳ルー ルに基づき生成された部分翻訳を用いることが望ましい。しかし、このような方法では大量かつ多様なデータの準備が難しいため、その前段階として、参照文の一部を特殊トークンに置換することで自動生成した擬似部分翻訳を用いて NMT の評価を行った。 ## 3.1 擬似部分翻訳の生成方法 翻訳ルールに基づいて組み立てられた部分翻訳は、語句や節など文法的な単位の未翻訳部分を持つ。なるべく実際の部分翻訳の形を模倣するために、以下の手順で擬似部分翻訳を生成した。 1. 参照文を Stanza で係り受け解析する。 2. 係り受け解析木における、特定の依存関係3) にある単語間のパスを分割することで、文を一定のまとまりを持つ要素単位に分解する。 例) Using / the GTS / clear / the DTC 3. 制約に含める文要素をランダムで選ぶ。ある要素を制約に含める確率を $p$ とし、制約に含めない要素はトークンに分割し、<tok>に置換する。実際の部分翻訳では、未翻訳部分は原言語トー クン列であるが、本実験では<tok>を未翻訳部分とみなす4)。 例) Using <tok> <tok> clear <tok> <tok> 部分翻訳を制約として用いる NMT は 2.2 節で説明した方法で<tok>の数を基準にランダムな数の placeholderを挿入した制約を複数生成し、使用する。 例) Using <plh> clear <plh> <plh> <plh> ## 3.2 実験方法 設定部分翻訳の完成度合いに多様性を持たせるために、 3.1 節の手順 3 における確率 $p$ は、 0 から 0.9 まで 0.1 間隔に合計 10 種類を試した。EDITOR は、ハードな制約設定に加えてソフトな制約も試した。また、EDITORに追加した 3 つの機能の有効性を確かめるために、各機能を使わない設定での実験も行った。なお、placeholderを使わない設定では、くtok>を削除した疑似部分翻訳を用いた。リランキングを行わない設定では、ランダムな数の placeholder を含む制約を複数ではなく、1つのみ使用する。 データセット NTCIR-9 特許機械翻訳テストコレクション [11] の英日、日英データを使用した。学習データは約 320 万文、検証データは 914 文、テストデータは 2000 文を使用した。 3)本研究で対象とした依存関係:root, obj, nsubj, iobj, csubj, ccomp, xcomp, obl, nmod, parataxis, conj, cc, advcl 4)参照文におけるトークン数を既知のものとして利用しているため、原文におけるトークン数から予測するよりも易しいタスクとなっている。 図 2 擬似部分翻訳を制約として与えた NMT の性能 モデルの学習 EDITOR の学習には教師モデルを学習データで学習した後、学習データの参照文を教師モデルの出力に置き換えて学生モデルを学習するシーケンスレベル知識蒸留法 [12]を用いた。本実験では、Transformer 教師モデルから EDITOR 学生モデルを学習した。 本実験では、日英方向を順方向としたとき、順方向 EDITOR モデル、知識蒸留のための順方向 Transformer モデル、リランキングのための逆方向 Transformer モデルとターゲット側 Transformer 言語モデルの合計 4 つのモデルを学習した。学習設定の詳細は付録 B に示す。 評価翻訳出力に対して、SentencePiece [13] と NLTK detokenizer [14] によるデトークナイズを行った上で、SacreBLEU [15] により BLEUを計算した。 ## 3.3 実験結果 図 2 に結果を示す。基本的には、参照文の要素が制約に含まれる確率 $p$ が高くなるほど、文に対する制約トークンの割合は大きくなる。図中の hard は、 ハードな制約設定の EDITORに 3 つの拡張機能を追加した、本研究の提案手法である。制約に含まれる参照文の要素が増えるほど BLEUが安定的に上昇するため、制約を効果的に活用できていることがわかる。ソフトな制約を使用した場合 (soft)も BLEU は安定的に上昇しているが、制約が守られないことが多くなるため、hard に比べると BLEUが低くなる。 hard w/o plhと soft w/o plhはそれぞれ、ハー ドな制約設定とソフトな制約設定で placeholderを持たない部分翻訳を制約として与えた場合である。 placeholder が存在しないので、自動的にリランキングとスキップ機能も適用対象外となり、オリジナルの EDITOR と同等の設定である。ハードな制約で は、ひと続きの制約トークン間に新しいトークンの挿入が禁止される。そのため、 $p$ が比較的小さい時、 すなわち複数の制約要素が文中で散在する条件下で、placeholderを削除してしまうと、BLEUが大きく下がる。ソフトな制約では、生成の過程で新しいトークンの挿入も行われるので、このような問題は生じないが、提案手法より一貫して BLEU が低い。 提案手法からリランキングの機能を除いた場合 (hard w/o rerank)は、 $p<0.8$ の区間で、提案手法と比べて BLEUが低い。特に、 $p$ の値が低い区間、 すなわち制約が比較的短い場合では、提案手法と比べ BLEUが大きく下回り、 $p=0.1$ のときは、制約なしの場合 $(p=0)$ よりも BLEU が低い。大部分の区間で提案手法はより高いBLEUを達成し、下がる区間なく安定的な上昇を見せるため、リランキング機能は有効であったと考えられる。 提案手法からスキップ機能を外した場合 (hard w/o skip)、BLEUが大きく下がる区間が存在する。これは、2.2 節で紹介した placeholder の数が勝手に変わってしまう現象によるものである。このような現象が起こる理由は、EDITOR モデルが placeholderを含む制約に対して再配置と placeholder 挿入操作を学習していないためだと考えられる。 EDIOTR モデルの学習の仕方自体を変える方法もあるが、より簡便なスキップ機能の導入により、大きく性能を向上できている。 以上のように、提案手法が大部分の区間で最も高いBLEU を達成したことから、追加した 3 つの機能が有効であることを確認できた。 ## 4 おわりに 本稿では、ユーザ定義の翻訳ルールによって翻訳を語彙的・構文的に制御できるシステム URNMT を提案した。URNMTは、翻訳ルールに基づく部分翻訳の生成器と、部分翻訳を制約とした NMT から構成される。部分翻訳を効果的に活用するために、語彙制約付き NMT である EDITOR の機能を拡張した。擬似部分翻訳を用いた実験から、部分翻訳が効果的に活用できること、追加した各機能が有効であることを確認した。 提案システムのプロトタイプはすでに完成しているため、今後はユーザによる翻訳ルールの定義とそれに基づき生成した部分翻訳を用いた評価実験を行う予定である。また、ユーザによるシステム全体の利用を通じたユーザビリティ評価も行う。 ## 謝辞 本研究は、トヨタ自動車株式会社との共同研究の 枠組みで行われた。また、本研究の一部は、JSPS 科研費(課題番号:19H05660)および KDDI 財団調査研究助成の支援を受けた。 ## 参考文献 [1] Matt Post and David Vilar. Fast lexically constrained decoding with dynamic beam allocation for neural machine translation. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 1314-1324, New Orleans, Louisiana, USA, June 2018. [2] Raymond Hendy Susanto, Shamil Chollampatt, and Liling Tan. Lexically constrained neural machine translation with Levenshtein Transformer. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 3536-3543, Online, July 2020. [3] Weijia Xu and Marine Carpuat. EDITOR: An edit-based transformer with repositioning for neural machine translation with soft lexical constraints. Transactions of the Association for Computational Linguistics, Vol. 9, pp. 311-328, March 2021. [4] Josef Jon, João Paulo Aires, Dusan Varis, and Ondřej Bojar. End-to-end lexically constrained machine translation for morphologically rich languages. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing, pp. 4019-4033, Online, August 2021. [5] Takahiro Makino, Rei Miyata, Seo Sungwon, and Satoshi Sato. Designing and building a Japanese controlled language for the automotive domain: Toward the development of a writing assistant tool. In Annette Klosa-Kückelhaus, Stefan Engelberg, Christine Möhrs, and Petra Storjohann, editors, Dictionaries and Society. Proceedings of the XX EURALEX International Congress, pp. 409-422. Mannheim, Germany, July 2022. [6] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Proceedings of the 31st International Conference on Neural Information Processing Systems, pp. 6000-6010, Red Hook, New York, USA, December 2017. [7] Ashutosh Kumar, Kabir Ahuja, Raghuram Vadapalli, and Partha Talukdar. Syntax-guided controlled generation of paraphrases. Transactions of the Association for Computational Linguistics, Vol. 8, pp. 329-345, 2020. [8] Peng Qi, Yuhao Zhang, Yuhui Zhang, Jason Bolton, and Christopher D. Manning. Stanza: A Python natural language processing toolkit for many human languages. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics: System Demonstrations, pp. 101-108, Online, July 2020. [9] 佐野正裕, 佐藤理史, 宮田玲. 文末述語における機能表現検出と文間接続関係推定への応用. 言語処理学会第 26 回年次大会発表論文集, pp. 1483-1486,オンライン, March 2020 [10] Kyra Yee, Yann Dauphin, and Michael Auli. Simple and effective noisy channel modeling for neural machine translation. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing, pp. 5696-5701, Hong Kong, China, November 2019. [11] Isao Goto, Bin Lu, Ka Po Chow, Eiichiro Sumita, and Benjamin Tsou. Overview of the Patent Machine Translation Task at the NTCIR-9 Workshop. In Proceedings of NTCIR-9 Workshop Meeting, pp. 559-578, Tokyo, Japan, December 2011. [12] Yoon Kim and Alexander M. Rush. Sequence-level knowledge distillation. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 1317-1327, Austin, Texas, USA, November 2016. [13] Taku Kudo and John Richardson. SentencePiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 66-71, Brussels, Belgium, November 2018. [14] Steven Bird, Ewan Klein, and Edward Loper. Natural Language Processing with Python. O'Reilly Media Inc., 2009 . [15] Matt Post. A call for clarity in reporting BLEU scores. In Proceedings of the Third Conference on Machine Translation, pp. 186-191, Brussels, Belgium, October 2018. [16] Taku Kudo and Yuji Matsumoto. Japanese dependency analysis using cascaded chunking. In Proceedings of the 6th Conference on Natural Language Learning, pp. 63-69, Stroudsburg, Pennsylvania, USA, 2002. [17] Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. fairseq: A fast, extensible toolkit for sequence modeling. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Demonstrations, pp. 48-53, Minneapolis, Minnesota, USA, June 2019. ## A 部分翻訳生成器の例 図 3 Source Tree の例 図 3 は Source Tree の例である。2つの節で構成されている、「使用する」という動詞がテ形で使われている、といった情報が保持されている。 図 4 辞書ルールの例 図 4 は辞書ルールの例である。この例は、Source Tree 中の「ダイアグコード」という要素に対して、「DTC」に変換する(変換方法)、「code」という属性を持つ(語句の属性)、という情報を追加するルー ルである。 図 5 辞書ルールを適用した Source Tree の例 図 5 は、図 4 の辞書ルールを図 3 の Source Tree に適用した例である。「ダイアグコード」のノードに、辞書ルールで定義した変換方法と語句の属性情報が付加されている。 図 6 は組み立てルールの例である。この例は、「A して、Bする」という構文は「A|ing B」という構文に変換することを定めている。図 6 の適用条件と図 5 の Source Tree を比較すると、条件の全ての要素 図 6 組み立てルールの例 が Source Tree に含まれるため、この組み立てルー ルが適用される。適用条件と組み立て方法で同じ番号を持つノードは互いに繋がり、組み立て方法を Target Tree に足す位置を決定する。 図 7 Target Tree の例 図 7 は、複数の組み立てルールを用いて生成された Target Tree の例である。「GTS を」や「消去する」 など翻訳ルールが定義されていない部分は、原文文字列のまま Target Tree に組み込まれている。Target Tree のルートノードに表示されている文が、Target Treeを組み立てて生成された部分翻訳である。 ## B モデルの学習設定 学習データは日本語を MeCab [16]、英語を Stanza [8] でトークナイズした後、SentencePiece [13] でサブワード分割した。SentencePiece の語彙サイズは日英共有で 16000 にした。 全てのモデルは fairseq [17] で学習しており、 Vaswani ら [6] の Transformer (base) の設定に従っている。ドロップアウト率は 0.3 を使用した。 Transformer モデル [6] では、バッチサイズを 44000 とした。最大学習率は 0.0006 とし、検証データの BLEU をエポック毎に評価して、10 エポックの間改善が見られない場合、学習を終了した。 EDITOR モデル [3] では、バッチサイズを 64200 とした。最大学習率は 0.0005 とし、アップデート回数 30 万まで学習を行った。 10000 アップデート毎に保存したチェックポイントの中で検証データの BLEU が最も高いものを選んだ。
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A2-5.pdf
# 対訳文のない言語対の NMT の検討 } \author{ Bui Tuan Thanh 秋葉友良塚田元 \\ 豊橋技術科学大学大学院 } \{bui.tuan.thanh.mg, akiba.tomoyoshi.tk, tsukada.hajime.hl\}@tut.jp # # 概要 ニューラル機械翻訳では高い性能を発揮するため に、大規模かつ品質が高い対訳コーパスが必要にな る。しかし、対訳コーパスのない言語対が数多くあ る。本稿では、日本語(日)とべトナム語(越)を 対訳文のない言語対として、中間語の英語を介した 英日と英越対訳データのみを用いて、日越と越日そ れぞれの翻訳モデルを学習する手法を提案する。提案手法は、英語との 2 つの対訳データを使用して、多様性のある日越擬似データを構築する。IWSLT の 対訳データを用いた実験により、提案手法は小規模 な対訳データで学習された教師あり翻訳モデルやピ ボット翻訳手法を上回ることを示した。ピボット翻訳手法と比較すると、日越方向の性能 (BLEU スコ ア) が+1.96、越日方向の性能が+1.75 向上した。 ## 1 はじめに 近年、ニューラルネットワークを用いたニューラル機械翻訳 (Neural Machine Translation: NMT)[1,2] は従来の統計的機械翻訳の性能を上回り、非常に高い性能を実現している。ニューラル機械翻訳は、翻訳の品質を飛躍的に向上させるために、大規模かつ品質が高い対訳コーパス (学習データ) が必要になる。 しかし、そのようなデータを入手するのは困難で、高いコストがかかる。少数言語対においては、利用できる対訳コーパスが少数である低資源言語対の問題、さらには対訳データを利用できないという問題がある。そのような問題に対応するために、低資源言語対の機械翻訳 $[3,4,5,6]$ 及び対訳データのない言語対の機械翻訳の研究が行われている $[7,8,9]$ 。 対訳文のない言語対の翻訳モデルを学習する最も単純な手法はピボット翻訳 [8] である。ピボット翻訳は 2 つの翻訳モデルを利用するため、翻訳時間がかかり、エラー伝播の問題がある。Ren らは第 3 言語を介して低資源言語対の翻訳精度を上げる Triangular Architecture を提案し、その手法が対訳文のない言語対にも応用する見込みがあることを主張している。しかし、その応用の有効性を実験的に示していない。また、単言語コーパスのみを利用し、翻訳モデルを学習する手法 $[10,11,12]$ がある。これらの手法では、Sennrich ら [3] の逆翻訳で対訳デー タを構築する。 He ら [7] は逆翻訳がソース側の学習データと評価データのギャップを生じることを示し、順翻訳と逆翻訳で生成された擬似対訳データを組み合わせて利用する手法を提案した。 本稿は、日越を対訳文のない言語対として、英日と英越対訳データのみを用いて、日越と越日それぞれの翻訳モデルを学習する手法を提案する。提案法では英語との 2 つの対訳データを用いて、順翻訳と逆翻訳で日越の複数の擬似データを構築し、それらの擬似データで翻訳モデルを学習する。実験結果から、この手法が有効であることを示す。 ## 2 関連研究 ## 2.1 ピボット翻訳 ビボット翻訳 [8] は、対訳文のない言語対の翻訳システムを中間言語を介して構築する最も単純な手法である。中間言語とソース言語、中間言語とター ゲット言語との対訳データを用いる。この手法では、(ソース言語 $\rightarrow$ 中間言語)翻訳モデルと(中間言語 $\rightarrow$ ターゲット言語)翻訳モデルを用いて、ソー ス言語の文をターゲット言語に翻訳する。2 段階で翻訳を行うため、翻訳時間がかかる手法である。また、第 1 段回目の翻訳の失敗が、第 2 段回の翻訳は誤った入力を翻訳するとこになり、エラーが増幅する。これをエラー伝播と呼ぶ。 図 1 提案手法の仕組み ## 2.2 zero-shot 翻訳 Johnson ら [9] は、複数の言語対を用いて1つの翻訳モデルを学習することで、直接学習データのない言語対も翻訳できることを示した。Johnson らの研究では 12 の言語対を用いた。この手法では、多くの言語対の対訳データが必要になる。本研究の実験で、2つの対訳データのみを用いた zero-shot 翻訳は有効ではなかった。 ## 2.3 Triangular Architecture Ren ら [6] は、豊富な対訳データをもつ中間言語 $\mathrm{Y}$ を介して、低資源言語対 X-Z の翻訳制度を上げるのに Triagular Architectureを提案した。X-Y 対訳データを豊富な対訳データとする。Triagular Architecture では、 $\mathrm{X} \rightarrow \mathrm{Z}$ 翻訳モデルの精度を上げるために、 $(\mathrm{X}, \mathrm{Y})$対訳データと $(\mathrm{Y}, \mathrm{Z})$ 対訳データを利用する。 $\mathrm{X} \rightarrow \mathrm{Z}$ 翻訳モデルを直接学習せずに、 $\mathrm{Z}$ を潜在変数 (latent variable)として $\mathrm{X} \rightarrow \mathrm{Y}$ 翻訳モデルを学習する。その後、 $\mathrm{X} \rightarrow \mathrm{Y}$ 翻訳モデルの学習は低資源言語対 $(\mathrm{X}, \mathrm{Y})$ と $(\mathrm{Y}, \mathrm{Z})$ それぞれの翻訳モデルを学習することになる。その 2 つのモデルの最適化を双方向 EM アルゴリズムで行う。この手法は単言語のデータを用いる逆翻訳と組み合わせることができる。Ren らは、対訳文のない言語対に応用する見込みがあることを主張しているが、実験的に有効性を示していない。本稿も中間言語を利用しているが、中間言語との対訳データのみを用いて目的の言語対の擬似対訳データ を構築する。 ## 2.4 Data Diversification Nguyen ら [5] は複数の順翻訳モデルと逆翻訳モデルを用いて、それらのモデルで生成された複数の擬似データとオリジナル学習データを統合し、新しい学習データを構築する手法を提案した。Nguyen らの研究によれば、同じモデルの数を用いる際、パラメータの初期化をランダムに実行された複数のモデルはパラメータの初期化を固定した複数のモデルより性能が良くなった。この手法は English-Nepali、 Nepali-English、English-Sinhala、Sinhala-English などの低資源言語対に有効性があることが示されている。提案手法では、擬似データの作成に際して Data Diversification の考えを活用する。 ## 3 提案手法 本稿では、対訳データのない日越言語対の翻訳モデルを学習するために、英語を介した 2 つの対訳データのみを用いて日越の擬似データを構築する手法を提案する。提案手法の仕組みを図 1 に示す。ここでは、(en-1、vi) は英越の対訳コーパスであり、(en-2、ja) は英日の対訳コーパスである。en-1 と en-2 は対になっている必要はない。 最初に、英越と英日の対訳コーパスから、複数の英越翻訳モデル (en2vi)と英日翻訳モデル(en2ja) を学習する。ここでは、seed の値の変更により、各のモデルのパラメータの初期値をランダムに設定す る。この方法で、異なる翻訳モデルを学習することができる。 次に、学習できたモデルを用いて、擬似対訳コー パスを生成する。具体的には、英日コーパスの英語文(en-2)を英越翻訳モデル(en2vi)でベトナム語に翻訳し、擬似対訳文(vi, ja)を構築する。同様に、英越コーパスの英語文(en-1)を英日翻訳モデルで日本語に翻訳し、擬似対訳コーパス(vi、 ja') を作成する。同じ文を異なる翻訳モデルで翻訳して擬似対訳文を作ることで、多様性のある擬似データを作ることができる。予備実験では順翻訳または逆翻訳の擬似データのみを用いるよりもそれらのコー パスを統合して学習したほうが性能が高かった。そのため、本稿の提案手法はすべて擬似データを統合して、最終モデルを学習する。 ## 4 実験 ## 4.1 対訳コーパス 本稿では、International Workshop on Sopken Language Translation (IWSLT) の英越対訳コーパス (IWSLT 2015)、英日対訳コーパス (IWSLT 2017) と日越対訳コーパス (IWSLT 2012)を用いる。英越の言語対は tst2012を開発データとし、tst2013をテストデータとする。英日言語対に対しては、 $\operatorname{dev} 2010$ を開発データとし、tst2015をテストデータとして利用する。日越言語対に対しては、dev2010を開発データとし、tst2010をテストデータとして利用する。各言語対の文数を表 1 に示す。 英語文は Moses キットでトークン化される。べトナム語文を pyvi ライブラリの ViTokenizerを用いてトークン化した。日本語は Mecab[13] でトークン化した。また、英語文とベトナム語文は Moses の truecased を用いて処理した。各言語は Byte Pair Encoding (BPE) で 16000 のサブワードに分割した。 ## 4.2 実験条件 fairseq[14]を用いてニューラル機械翻訳システムを構成した。すべてのニューラル機械翻訳モデル は Transformer で学習した。学習の際は、すべてのモデルを同じパイパーパラメータと学習エポック数(=30)を用いて、学習率は $1 \times 10^{-8}$ 、ウォームアップは 4000 ステップ、学習率減衰は逆平方根、 ラベル平滑化は $0.1 、$ ドロップアウトは 0.3 、重み減衰は 0.0001 、損失関数はラベル平滑化クロスエントロピーとした。Adam の最適化アルゴリズムでは $\left(\beta_{1}=0.9, \beta_{2}=0.98\right)$ を使用した。 教師ありモデル:教師あり翻訳モデルを IWSLT の日越対訳データで学習した。日越対訳データを使用したのは本モデルのみである。以後のモデルは日越対訳データを使用していない。 zero-shot 翻訳: Johnson ら [9]の Many-to-Many 翻訳モデルを用いて zero-shot 翻訳を行った。英日、日英、英越と越英という4つの翻訳を可能にする1つの翻訳モデルを学習した。モデルを学習する際、各バッチでその4つの対訳データの割合を 1:1:1:1 にした。 ピボット翻訳: ピボット翻訳は、英語を中間語として、ソース文を英語に翻訳し、翻訳できた英語文をターゲット言語に翻訳する。たとえば、日越方向翻訳をする際、日本語文を日英翻訳モデルを用いて英語に翻訳する、翻訳できた英語文を英越翻訳モデルでベトナム語に翻訳する。 ピボット翻訳に使用したモデルの性能を表 3 に示す。 提案手法: $(e n 2 v i \times k+e n 2 j a \times k)$ は、それぞれ異なる $k \supset$ en2vi モデル及び異なる $k \supset$ en2ja モデルを用い、擬似対訳コーパスを生成する。 $k=3,4,5$ で実験を行った。提案手法の使用されていたモデルを表 4 に示す。 ## 4.3 実験結果 実験結果を表 2 に示す。実験結果により、ピボッ卜翻訳手法は日越両方向で教師ありモデルを上回った。日越と越日それぞれの zero-shot 翻訳はできなかった。その原因は少数の言語対で Many-to-Many 翻訳モデルを学習したと考える。擬似データを用いたことで、日越翻訳性能と越日翻訳性能は向上した。 $(e n 2 v i \times 1+e n 2 j a \times 1)$ はべースラインを比較すると越日方向が +0.83 、日越方向が+ 1.01 向上した。 複数の擬似対訳コーパスを導入すると、越日翻訳性能と日越翻訳性能はさらに改善した。越日翻訳性 能は 13.30 で、日越翻訳性能は 11.65 であった。しかし、en2vi モデルと en2ja モデルをそれぞれ 5 つ以上のモデルを使用すると、有効に働かなかった。 表 2 実験結果 (dev / test) 表 3 ピボット翻訳に使用したモデル $(\mathrm{dev} /$ test) 表 4 提案手法で使用したモデル (dev / test) ## 4.4 擬似データの多様性 実験結果から、擬似データの多様性により、日越と越日それぞれの翻訳性能か向上したと考えられる。しかし、多様性ではなく、学習データが増えたから、性能が改善した単に可能性もある。このことを検証するために、 $(e n 2 v i \times 3+e n 2 j a \times 3)$ の実験を用いて以下の 3 つのケースで、実験を行った。実験結果を表 5 に示す。 ・ケース 1:3つの同じ翻訳モデルを使用する。 すなわち、これらのモデルで生成された擬似データは全く同じとする。 ・ケース $2 : 3$ モデルの内、2つのモデルは同じモデルである。 ・ケース $3 : 3$ つ異なる翻訳モデルを使用する。これらのモデルで生成された擬似データは異なる。(提案手法)表 5 擬似データの多様性の有効性 (dev / test) 表5の結果により、全く同じ擬似対訳データを用いることより異なる擬似データを使用した方がいいことがわかる。以上の提案手法は多様な擬似データを用いて en2vi モデルと en2ja モデルの翻訳性能を改善することで、日越の擬似対訳コーパスの品質を向上させることができた。 ## 5 おわりに 本稿は、対訳文のない日越言語対の翻訳モデルを学習するために、英日と英越対訳データのみを用いて、日越の擬似対訳データを生成する手法を提案した。英語を介した 2 つの対訳コーパスで英越と英日それぞれ複数の翻訳モデルを学習した。それらの翻訳モデルを用いて、順翻訳と逆翻訳を組み合わせ、日越の複数の擬似データを生成し、すべての擬似データを統合して、日越と越日それぞれの翻訳モデルを学習した。実験では IWSLT の対訳データを用いて提案手法を検証した。実験結果により、本稿の提案手法は、小規模の対訳データで学習された教師ありモデルおよびピボット翻訳手法を上回ることを示した。さらに、追加実験で、多様性のある擬似データを用いることの有効性を示した。 今後は多様性のある擬似データを構成する手法を用いて、日越の擬似データを生成する英越翻訳モデルと英日翻訳モデルの翻訳性能を改善する予定である。英越翻訳モデルと英日翻訳モデルの翻訳性能が向上すれば、日越の擬似データの品質が改善でき、日越と越日それぞれの翻訳精度はさらに向上させられると考えている。また、提案手法を適用し、他の対訳データのない言語対の翻訳モデルの性能を改善したいと考えている。 ## 謝辞 本研究は JSPS 科研費 $18 \mathrm{H} 01062$ の助成を受けたものです. ## 参考文献 [1] Ilya Sutskever, Oriol Vinyals, and Quoc V. Le. Sequence to sequence learning with neural networks. In Proceedings of the 27th International Conference on Neural Infor- mation Processing Systems - Volume 2, NIPS'14, p. 3104-3112, Cambridge, MA, USA, 2014. MIT Press. [2] Thang Luong, Hieu Pham, and Christopher D. Manning. Effective approaches to attention-based neural machine translation. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 1412-1421, Lisbon, Portugal, September 2015. Association for Computational Linguistics. [3] Rico Sennrich, Barry Haddow, and Alexandra Birch. Improving neural machine translation models with monolingual data. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 86-96, Berlin, Germany, August 2016. Association for Computational Linguistics. [4] Vu Cong Duy Hoang, Philipp Koehn, Gholamreza Haffari, and Trevor Cohn. Iterative back-translation for neural machine translation. In Proceedings of the 2nd Workshop on Neural Machine Translation and Generation, pp. 18-24, Melbourne, Australia, July 2018. Association for Computational Linguistics. [5] Xuan-Phi Nguyen, Shafiq Joty, Wu Kui, and Ai Ti Aw. Data diversification: A simple strategy for neural machine translation. In Proceedings of the 34th International Conference on Neural Information Processing Systems, NIPS'20, Red Hook, NY, USA, 2020. Curran Associates Inc. [6] Shuo Ren, Wenhu Chen, Shujie Liu, Mu Li, Ming Zhou, and Shuai Ma. Triangular architecture for rare language translation. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 56-65, Melbourne, Australia, July 2018. Association for Computational Linguistics. [7] Zhiwei He, Xing Wang, Rui Wang, Shuming Shi, and Zhaopeng Tu. Bridging the data gap between training and inference for unsupervised neural machine translation. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics. [8] DE GISPERT A. Catalan-english statistical machine translation without parallel corpus : Bridging through spanish. Proceedings of 5th International Conference on Language Resources and Evaluation (LREC), Genoa, Italy, 2006, pp. 65-68, 2006. [9] Melvin Johnson, Mike Schuster, Quoc V. Le, Maxim Krikun, Yonghui Wu, Zhifeng Chen, Nikhil Thorat, Fernanda Viégas, Martin Wattenberg, Greg Corrado, Macduff Hughes, and Jeffrey Dean. Google's multilingual neural machine translation system: Enabling zero-shot translation. Transactions of the Association for Computational Linguistics, Vol. 5, pp. 339-351, 2017. [10] Guillaume Lample, Alexis Conneau, Ludovic Denoyer, and Marc'Aurelio Ranzato. Unsupervised machine translation using monolingual corpora only. In International Conference on Learning Representations (ICLR), 2018. [11] Zhen Yang, Wei Chen, Feng Wang, and Bo Xu. Unsupervised neural machine translation with weight sharing. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 46-55, Melbourne, Australia, July 2018. Association for Computational Linguistics. [12] Mikel Artetxe, Gorka Labaka, Eneko Agirre, and Kyunghyun Cho. Unsupervised neural machine translation. In Proceedings of the Sixth International Conference on Learning Representations, April 2018. [13] Taku Kudo, Kaoru Yamamoto, and Yuji Matsumoto. Applying conditional random fields to Japanese morphological analysis. In Proceedings of the 2004 Conference on Empirical Methods in Natural Language Processing, pp. 230-237, Barcelona, Spain, July 2004. Association for Computational Linguistics. [14] Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. fairseq: A fast, extensible toolkit for sequence modeling. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics (Demonstrations), pp. 48-53, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A3-1.pdf
# 近傍事例を用いた対話における感情認識 石渡 太智 1,2 美野 秀弥 ${ }^{1}$ 後藤淳 ${ }^{1}$ 山田寛章 ${ }^{2}$ 徳永 健伸 ${ }^{2}$ ${ }^{1}$ NHK 放送技術研究所 2 東京工業大学情報理工学院 \{ishiwatari.t-fa,mino.h-gq,goto.j-fw\}@nhk.or.jp \{yamada,take\}@c.titech.ac.jp ## 概要 ソーシャルメディアでの感情分析や感情的かつ共感的な対話システムの構築を目的として対話における各発話の感情認識 (Emotion Recognition in Conversations: ERC) が注目を集めている. ERCでは,発話の内容だけでなく,発話間の関係が話者の感情に大きな影響を与えることが知られている. 従来手法の多くは,発話間の関係を抽出し,高い認識性能を達成した。このような手法は, 単体で高い認識性能を示すことが多いが,性質の異なるモデルを組み合わせることでさらなる性能向上が期待できる. 本研究は, 単体で高い性能を発揮するモデルが出力する感情ラベルの確率分布と, 性質の異なる別のモデルを用いて検索した近傍事例から作成した確率分布とを組み合わせる手法を提案する。評価実験において,提案手法はERCにおける3つのベンチマークデータセットのうち,2つのデータセットでベースモデル単体の認識率を上回る性能を達成した. また並べ替え検定において,提案手法はべースモデル単体に対して統計的に有意な結果を示した。 ## 1 はじめに ソーシャルメディアでの感情分析 [1] や感情的かつ共感的な対話システムの構築 [2] を目的として対話における各発話の感情認識 (Emotion Recognition in Conversations: ERC) が注目を集めている. 先行研究として,再帰型ニューラルネットワークを用いて発話の内容を抽出する手法 [3] や, 事前学習済み BERT モデルを用いて発話の内容を抽出する手法 [4] が提案されている. ERCでは, 発話の内容だけでなく発話間の関係が話者の感情に大きな影響を与えることが知られているため [5], 近年では, 発話の内容だけでなく発話間の関係も考慮する手法が提案されている $[6,7]$. 感情認識の問題設定では,単一のモデルでも高い認識性能を示すことが多いが,異なるモデルの出力 を組み合わせることでさらなる性能向上が期待できる. そこで本研究は,異なるモデルを用いて検索した近傍事例から確率分布を作成し,ベースモデルに組み合わせる手法を提案する。近傍事例を活用した手法は,機械翻訳 $[8,9,10,11]$ や固有表現抽出 [12],文法誤り訂正 [13] などの幅広い問題設定で活用され, 有効性が示されている. しかしながら,対話における感情認識では,近傍事例を応用した手法の有効性が示されていない. そこで本研究は,性質の異なるモデルによって検索した近傍事例から確率分布を作成し, ベースモデルの確率分布に足し合わせる手法を提案する. ベースモデルには,発話の内容だけでなく発話間の関係も考慮することで高い認識性能を達成した DAG-ERC モデル [7]を用いる. 評価実験において, ERC における 3 つのベンチマークデータセットのうち,2つのデータセットでベースモデル単体の認識率を上回る性能を達成した. さらに,1 つのデー タセットで,並べ替え検定によって, ベースモデル単体よりも統計的に有意な結果を得ることを確認した. ## 2 提案手法 はじめに ERC の問題設定を示す.ERCでは,対話における各発話 $x_{1}, x_{2}, \cdots, x_{N}$ の, neutral, surprise, fear などの感情ラベル $y_{1}, y_{2}, \cdots, y_{N}$ を認識する.$N$ は 1 つの対話に現れる発話の数を示す. 提案手法は, ベースモデルによる確率分布作成 (2.1), 近傍事例の抽出 (2.2), 近傍事例による確率分布作成 (2.3), モデルの組み合わせ (2.4)の 4 つで構成される。詳細を次で説明する。提案手法の概要を図 1 に示す. 本手法は,事前学習済みのモデルを使用し,推論フェーズのみで動作する。従って,新たな学習パラメータを必要としない. 図 1 提案手法の全体図. はじめにベースモデルによる感情ラベルの確率分布 $p_{\mathrm{dag}}$ を作成する. 次に, Query Encoder が出力した特徴量ベクトルを用いて,データベースから近傍事例を検索する。得られた上位 $\mathrm{K}$ 個の近傍事例に付与された感情ラベルの頻度に基づき確率分布 $p_{\mathrm{kNN}}$ を作成する. ベースモデルの確率分布 $p_{\mathrm{dag}}$ と近傍事例の確率分布 $p_{\mathrm{kNN}}$ を重み係数 $\lambda$ を用いて足し合わせ,確率分布 $p$ を得る.最後に,最も確率の高い感情ラベルを出力する.Frozen はモデルのパラメータを固定した状態を示す. ## 2.1 ベースモデルによる確率分布作成 発話の内容だけでなく発話間の関係も考慮した DAG-ERC モデル [7]を用いて,確率分布を作成する. DAG-ERC モデルは, RoBERTa-large モデル [14] を用いて対話における各発話の内容を考慮した特徴量ベクトルを抽出する. さらに,グラフニューラルネットワーク $[15,16]$ を用いて自身の発話からの影響と他者の発話からの影響を考慮した特徴量ベクトルを抽出する. 発話の内容を示す特徴量ベクトルと発話間の影響を示す特徴量ベクトルを結合し,順伝播型ニューラルネットワークと Softmax 関数を用いて感情ラベルの確率分布を作成する. 得られた確率分布を $p_{\mathrm{dag}}\left(y_{n} \mid x_{1: n}\right)$ とする. 本手法では, 事前学習済みの DAG-ERC モデルを利用し,全てのパラメー タを固定する。なお,本論文ではべースモデルとして DAG-ERC を用いるが,ERC タスクで事前に学習した他のモデルも利用可能である. ## 2.2 近傍事例の抽出 ベースと異なるモデルを用いて,近傍事例を検索する方法について述べる.まず,訓練データセットの各サンプルに対して,Query encoder モデルを用いて特徴量ベクトルを抽出する. 訓練データに付与された感情ラベルも取り出し, 特徵量ベクトルとラベルのペアを取得する. 作成した特徵量ベクトルを Key,感情ラベルを Value として,Key-Value の ペアからなるデータベースを作成する. Key の特徴量をh,Value のラベルを $v$ とする。本稿では Query encoder として,ERC の問題設定で事前にファインチューニングを行った RoBERTa-large モデル1)を用いる. 続いて, 評価対象の対話を入力し, 先ほどの Query encoder モデルを用いて,特徴量べクトルを取得する. Query encoder モデルを用いて特徴量ベクトルを導く関数を $f\left(x_{1: n}\right)$ とする. 取得した特徵量べクトルを Query として,データベースに登録された特徴量ベクトルとの類似度を計算し,類似度の高い上位 $K$ 個の事例を,近傍事例として取得する。抽出した近傍事例は, 特徵量ベクトル (Emb), 感情ラベル (Lab), Query との距離 (Dist) によって構成され, その集合を $R^{n}=\left.\{\left(\mathbf{h}_{i}, v_{i}, d\left(\mathbf{h}_{i}, f\left(x_{1: n}\right)\right)\right), i \in\{1,2, \cdots, K\}\right.\}$ とする. $d(\cdot, \cdot)$ はユークリッド距離を用いる. ## 2.3 近傍事例による確率分布作成 検索した近傍事例を用いて確率分布を作成する. 2.2 項で抽出した $K$ 個の近傍事例の, 感情ラベル $v_{i}$ と Query との距離 $d\left(\mathbf{h}_{i}, f\left(x_{1: n}\right)\right)$ を用いる. Khandelwal らの手法 [8] を参考に,ラベルと距離を用いて確率分布を算出する式を下式で示す. $ p_{\mathrm{kNN}}\left(y_{n} \mid x_{1: n}\right) \propto \sum_{\left(\mathbf{h}_{i}, v_{i}\right)} \mathbb{1}_{y_{n}=v_{i}} \exp \left(\frac{-d\left(\mathbf{h}_{i}, f\left(x_{1: n}\right)\right)}{T}\right) $  $\mathbb{1}_{y_{n}=v_{i}}$ は, 近傍 $v_{i}$ が感情ラベル $y_{n}$ と同一である場合に 1 を返す指示関数である。 ハイパーパラメータ $T$ は温度を示す。 ## 2.4 モデルの組み合わせ 2.1 項で作成したベースモデルによる確率分布 $p_{\mathrm{dag}}$ と, 2.3 項で作成した近傍事例による確率分布 $p_{\mathrm{kNN}}$ を組み合わせる。係数取り, ベースモデルの出力と近傍事例を組み合わせた確率分布を作成する.式を下式に示す。 $ p\left(y_{n} \mid x_{1: n}\right)=\lambda p_{\mathrm{kNN}}\left(y_{n} \mid x_{1: n}\right)+(1-\lambda) p_{\mathrm{dag}}\left(y_{n} \mid x_{1: n}\right) $ に, 作成した確率分布の中で, 最も確率の高い感情ラベルを,推論結果として出力する。 ## 3 実験 ## 3.1 データセット ERC における 3 つのベンチマークセットを用いて,提案手法の有効性を検証する,訓練データ,検証データ,テストデータの割合と評価方法を表 1 に示す.また各セットにおける対話数と発話数,クラス数を示す. MELD [17] は,複数の俳優が登場する Friends という TV ドラマの,一部シーンを切り取った映像と音声の書き起こしからなるデータセットである. また,1つの対話に複数の話者が登場し, 各発話には (neutral, happiness, surprise, sadness, anger, disgust, or fear) のうち 1 つが付与される. IEMOCAP [18] は 2 人の話者が,1 対 1 の会話を行う様子を収録した映像と音声の書き起こしからなるデータセットである. 各発話には, (happy, sad, neutral, angry, excited, or frustrated) のうち 1 つが付与される. EmoryNLP [19] はTV ドラマ Friendsから,一部のシーンを切り取り収集したデータセットである。 MELD と比較してデータサイズとラベルの種類が異なり, 各発話には (neural, sad, mad, scared, powerful, peaceful, or joyful)のうち 1 つが付与される. ## 3.2 評価指標 Shen らの手法 [7] で用いられた評価指標と同じ, Weighted-F1 值を全てのデータセットの評価に用いる.また,ノンパラメトリック検定の一つである並 べ替え検定を用いて,有意差を検定する。 ## 3.3 その他の実験設定 その他の実験設定を示す. DAG-ERC は [7] で報告された学習パラメータを用いて, 事前に学習した. また, Query encoder として用いる FinetunedRoBERTa は,学習率を $5 e-6$ に設定し,損失関数に Cross Entropy Loss を,最適化に RAdam optimizer [20] を用いて事前に学習した。 また, ベースモデルと Query encoder の特徴量ベクトルの次元数を 1024 とし, 近傍事例の数 $K$ を 32 に,温度 $T$ は 1000 に設定した. ハイパーパラメー タである係数 $\lambda$ は $(0,0.25,0.5,0.75,1)$ の中から,検証データで最も Weighted-F1 値が高くなるものを選択した。近傍事例の検索は,faiss[21]を用いた. 全ての実験結果は 5 回行い平均値を用いた. $512 G B$ メモリの AMD EPYC 7F52 CPU と, 40GB メモリの NVIDIA A100 の GPUを用いて実験を行った。 ## 4 実験結果 ## 4.1 比較実験 ベースモデル単体との比較結果を表 2 に示す. ベースモデル単体の手法として, DAGERC[7] と Finetuned-RoBERTaを用いた. 提案手法の Query encoder として, DAG-ERC, Vanilla-RoBERTa, Finetuned-RoBERTa の 3 種類を比較した. 表 2 の avg, std, p-score は, それぞれ平均値, 標準偏差, DAG-ERC を基準にした $\mathrm{p}$ 値を示す. 表 2 の結果より, 3 つのベンチマークデータセットの内,2つのデータセットでベースモデル単体を上回る認識性能を達成した。また,MELD データセットにおいて, Finetuned-RoBERTaを Query encoder として用いた手法 (\#4) は, ベースモデルである DAG-ERC(\#0) に対して p-score が $5 \%$ を下回った. 以上より,提案手法が DAG-ERC に対して統計的に有意な差を示すことが確認できた。 次に, Query encoder の 3 種類を比較する. MELD データセットと IEMOCAP データセットにおいて, Finetuned-RoBERTaを用いた結果 (\#4) が DAG-ERC を用いた結果 (\#2)を上回った. 以上より,ベースモデルと性質の異なるモデルを組み合わせる方法の有効性が確認できる. 一方で, EmoryNLP データセットでは, 提案手法 $(\# 2,3,4)$ の Weighted-F1 值が,DAG-ERC 単体を用い & テストデータ & 訓練データ & & テストデータ & クラス数 & 評価方法 \\ 表 1 MELD,IEMOCAP, EmoryNLP ベンチマークデータセットの割合と評価方法. 訓練データ,検証データ,テストデータにおける対話数と発話数,クラス数を示す. 表 2 MELD, IEMOCAP, EmoryNLP ベンチマークデータセットにおけるベースモデル単体との比較実験. avg, std, p-score は,それぞれ平均値,標準偏差,DAG-ERC を基準にした $\mathrm{p}$ 値を示す. ボールド体は最も性能が高い値を示す.各値は 5 回の実験による Weighted-F1 値の平均値を示す. 図 2 各ベンチマークデータセットにおける係数と Weighted-F1 値の関係. W-F1 は Weighted-F1 値を示す. た結果 (\#0)に比べて,低い値を示した. これは係数 $\lambda$ として,0や 0.75 が選ばれたことが原因と考えられる。係数 $\lambda=0$ の場合,近傍事例による確率分布は利用されず,ベースモデル単体の出力がそのまま利用される. そのため,性能に変化が生じなかった. また, $\lambda$ が大きい場合,近傍事例による確率分布に重きが置かれる. 関連する事例がデータベースに存在しない場合も, 近傍事例による確率分布に重きが置かれてしまう,そのため,ロバスト性が失われ, 性能が落ちてしまった. 今後は, サンプル全体で一つの係数 $\lambda$ を設定するのではなく, サンプルご ## 4.2 係数の分析 続いて,ハイパーパラメータである係数 $\lambda$ と認識性能の関係を検証する。各ベンチマーク $(0,0.25,0.5,0.75,1)$ と変化させた時に, Query encoder として Finetuned-RoBERTa を用いた提案手法の認識率がどのように変化するかを分析する.結果を図 2 に示す. 結果から,全てのデータセットでベースモデル単体 $(\lambda=0)$ が示す認識率を,上回る $\lambda$ が存在することを確認できる.特に $\lambda$ が 0.25 や 0.5 のときに,高い性能を発揮することがわかった。一方で, $\lambda$ が大きい場合は,認識性能が極端に劣化することがわかった。 ## 5 おわりに 本稿は,対話における各発話の感情認識において,単体で高い性能を発揮するモデルをベースに,性質の異なるモデルを用いて検索した近傍事例から,感情ラベルの確率分布を作成し,ベースモデルに組み合わせる手法を提案した. 3 つのベンチマー クデータセットを用いて手法の有効性を確認したところ,2つのデータセットでベースモデルの認識率を上回る性能を達成した。 今後の展望として, 温度 $T$ および係数 $\lambda$ を学習することを検討している。本稿では温度 $T$ は固定し,係数 $\lambda$ はハイパーパラメータとして選択した. 最適な温度と係数はデータセットのサンプルによって異なると考えられる.今後は,学習によって動的に変更する手法を検討する.また,近傍事例の数 $K$ も同様に変更できる手法を検討する。 ## 謝辞 貴重なコメントや議論を頂いた NHK 放送技術研究所の山田一郎シニアリード,宮﨑太郎研究員,安田有希研究員,奥田あずみ研究員に感謝の意を表す。 ## 参考文献 [1] Ankush Chatterjee, Kedhar Nath Narahari, Meghana Joshi, and Puneet Agrawal. Semeval-2019 task 3: Emocontext contextual emotion detection in text. In Proceedings of the 13th international workshop on semantic evaluation, pp. 39-48, 2019. [2] Navonil Majumder, Pengfei Hong, Shanshan Peng, Jiankun Lu, Deepanway Ghosal, Alexander Gelbukh, Rada Mihalcea, and Soujanya Poria. Mime: Mimicking emotions for empathetic response generation. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), p. 8968-8979, 2020. [3] Pengfei Liu, Xipeng Qiu, and Xuanjing Huang. Recurrent neural network for text classification with multi-task learning. In Proceedings of the Twenty-Fifth International Joint Conferences on Artificial Intelligence Organization (IJCAI-16), 2016. [4] Linkai Luo and Yue Wang. Emotionx-hsu: Adopting pre-trained bert for emotion classification, 2019. https://arxiv.org/abs/1907.09669. [5] Soujanya Poria, Navonil Majumder, Rada Mihalcea, and Eduard Hovy. Emotion recognition in conversation: Research challenges, datasets, and recent advances. IEEE Access, Vol. 7, No. 1, pp. 100943-100953, 2019. [6] Deepanway Ghosal, Navonil Majumder, Soujanya Poria, Niyati Chhaya, and Alexander Gelbukh. Dialoguegen: A graph convolutional neural network for emotion recognition in conversation. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), p. 154-164, 2019. [7] Weizhou Shen, Siyue Wu, Yunyi Yang, and Xiaojun Quan. Directed acyclic graph network for conversational emotion recognition. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), p. 1551-1560, 2021. [8] Urvashi Khandelwal, Angela Fan, Dan Jurafsky, Luke Zettlemoyer, and Mike Lewis. Nearest neighbor machine translation. In International Conference on Learning Representations, 2021. [9] Xin Zheng, Zhirui Zhang, Junliang Guo, Shujian Huang, Boxing Chen, Weihua Luo, and Jiajun Chen. Adaptive nearest neighbor machine translation. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 2: Short Papers), p. 368-374, 2021. [10] Qingnan Jiang, Mingxuan Wang, Jun Cao, Shanbo Cheng, Shujian Huang, and Lei Li. Learning kernel-smoothed machine translation with retrieved examples. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, p. 7280-7290, 2021. [11] Dexin Wang, Kai Fan, Boxing Chen, and Deyi Xiong. Efficient cluster-based k-nearest-neighbor machine translation. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), p. 2175-2187, 2022. [12] Xinyu Wang, Yong Jiang, Nguyen Bach, Tao Wang, Zhongqiang Huang, Fei Huang, and Kewei Tu. Improving named entity recognition by external context retrieving and cooperative learning. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), p. 1800-1812, 2021. [13] Masahiro Kaneko, Sho Takase, Ayana Niwa, and Naoaki Okazaki. Interpretability for language learners using example-based grammatical error correction. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 7176-7187, Dublin, Ireland, May 2022. Association for Computational Linguistics. [14] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized bert pretraining approach, 2019. https://arxiv.org/abs/1907.11692. [15] Petar Veličković, Guillem Cucurull, Arantxa Casanova, Adriana Romero, Pietro Lio, and Yoshua Bengio. Graph attention networks. In Proceedings of the International Conference on Learning Representations, 2017. [16] Michael Schlichtkrull, Thomas N Kipf, Peter Bloem, Rianne Van Den Berg, Ivan Titov, and Max Welling. Modeling relational data with graph convolutional networks. In European Semantic Web Conference Springer, pp. 593-607, 2018 [17] Soujanya Poria, Devamanyu Hazarika, Navonil Majumder, Gautam Naik, Erik Cambria, and Rada Mihalcea. Meld: A multimodal multi-party dataset for emotion recognition in conversations. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, p. 527-536, 2018. [18] Carlos Busso, Murtaza Bulut, Chi-Chun Lee, Abe Kazemzadeh, Emily Mower, Samuel Kim, Jeannette N Chang, Sungbok Lee, and Shrikanth S Narayanan. Iemocap: Interactive emotional dyadic motion capture database. Language resources and evaluation, Vol. 42, No. 4, p. 335, 2008 . [19] Sayyed M Zahiri and Jinho D Choi. Emotion detection on tv show transcripts with sequence-based convolutional neural networks. In Workshops at the Thirty-Second AAAI Conference on Artificial Intelligence, 2018. [20] Liyuan Liu, Haoming Jiang, Pengcheng He, Weizhu Chen, Xiaodong Liu, Jianfeng Gao, and Jiawei Han. On the variance of the adaptive learning rate and beyond. In Proceedings of the International Conference on Learning Representations, 2019. [21] Jeff Johnson, Matthijs Douze, and Hervé Jégou. Billionscale similarity search with GPUs. IEEE Transactions on Big Data, Vol. 7, No. 3, pp. 535-547, 2019.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A3-2.pdf
# 補助文自動生成を用いた BERT による日本語アスペクトベース 感情分析におけるアスペクトカテゴリ検出の精度向上 張懿陽 1 竹下 昌志 1 ラファウ・ジェプカ ${ }^{2}$ 荒木 健治 ${ }^{2}$ 1 北海道大学大学院情報科学院 2 北海道大学大学院情報科学研究院 \{yiyang.zhang,takeshita.masashi,rzepka,araki\}@ist.hokudai.ac.jp ## 概要 アスペクトベース感情分析(Aspect-Based Sentiment Analysis: ABSA)とは,テキスト内の特定のアスペクトに対する意見の極性を特定する感情分析タスクであり,細かい粒度の感情分析である. 対象言語を英語にした研究は盛んだが,日本語に特化した研究はまだ少ない,そこで本研究では,日本語 ABSA タスクのアスペクト抽出 (Aspect Extraction: AE)サブタスクの精度の向上を目的とし,補助文を自動的に生成し,対象文と補助文を組み合わせた文ペアで BERT を fine-tuning するという英語に対する既存手法を日本語に適用する。「chABSA」というデータセットで性能評価実験を行った結果,先行研究より F1 值が 7.54 ポイント改善し, 提案手法の有効性が確認された。 ## 1 はじめに 感情分析とは,書かれた文章を読み取り,ポジティブな内容か,ネガティブな内容か,あるいはニュートラルの内容かを判定するタスクのことである. 感情分析というタスクは主にドキュメントレベル,文レベル,アスペクトレベルという 3 つの粒度がある。それぞれドキュメント単位,文単位,アスペクト単位で感情極性を判定するタスクである. アスペクトとは,ある対象の 1 つの側面である. アスペクトレベルの感情分析はアスペクトベース感情分析 (Aspect-Based Sentiment Analysis: ABSA) という. ABSA を例で説明すると,例えば,「この店の寿司は美味しいが,ラーメンはまずい」という文の中に,「この店」という対象は「寿司」と「ラーメン」という 2 つの側面がある. 話者が「寿司」に対して「美味しい」と評価しているため,「寿司」というアスペクトに対して「肯定的」な感情をもっており,一方で「ラーメン」に対して「まずい」と評価してい るため,「ラーメン」というアスペクトに「否定的」 な感情をもっている. ABSA は,ドキュメントレベルの感情分析と文レべルの感情分析より細かい粒度で感情分析を行え,提供できる情報が比較的多いため,多くの場面で実用化が期待される.例えば, ある会社が自社が発売した商品の各アスペクトに対し,消費者がどんな感情をもっているかを分析したい場合,アスペクトレベルの感情分析が必要となる。本稿では,アスペクトレベルの感情分析, すなわち ABSA に注目して研究する。ABSA タスクは主に 2 つのサブタスクから構成されている. 1 つ目は,文中に含まれているアスペクトを抽出するタスク (Aspect Extraction: AE)である.2つ目は,各アスペクトに対する感情極性を特定するタスク (Aspect Sentiment Classification: ASC)である. 英語を対象言語とした研究では,ABSA について多くの研究が行われているが,日本語を対象言語とした研究では,我々が知っている範囲では,ABSA についての研究はまだ 4 件 [1][2][3][4] しかなく,より良い手法を用いればより高い精度を達成することが期待できると考えられる。また,我々 [4] は既に日本語 ABSA タスクの ASC サブタスクについて研究した。そのため, 本研究では, 日本語 ABSA タスクのアスペクトカテゴリ検出サブタスク,すなわち $\mathrm{AE}$ サブタスクに注目し,先行研究より高いアスペクトカテゴリ検出精度を達成することを目的としている. 我々は補助文を自動的に生成し,対象文と補助文を組み合わせた文ペアで BERT を fine-tuning するという英語のために提案された手法 [5] を用い,補助文の生成方法を日本語に適用し,「chABSA」 データセット [6] という日本語のアスペクト感情分析データセットを用いて実験を行う.その結果,同じデータセットに基づいた先行研究 [2] より高いアスペクトカテゴリ検出精度を達成した。 ## 2 関連研究 英語を対象言語とした ABSA の初期の研究では, Wagner ら [7] の研究と Kiritchenko ら [8] の研究は特徵量エンジニアリングに大きく依存していた. その後, Nguyen と Shirai ら [9], Wang ら [10], Tang ら [11][12], Wang ら [13] はニューラルネットワークベースの手法を用い,より高い精度を達成した。 その後, Ma ら [14] は有用な常識知識をディープニューラルネットワークに組み込み,モデルの結果をさらに向上させた. Liu ら [15] は言語構造をよりよく捉えるためにメモリネットワークを最適化し, Liu らのモデルに適用した. 最近では, 事前学習済み言語モデルについての研究が進みつつあり, Peters ら [16] が提案した ELMo, Radford ら [17] が提案した OpenAI GPT, Devlin ら [18] が提案した BERT のような事前学習された言語モデルが特徴量エンジニアリングの手間を軽減する効果を示している. 特に BERT は「隣接文予測」 (next sentence prediction)というタスクで事前学習されたため,QA タスクと NLI タスクのような文と文の関係を理解するタスクにおいて優れた成果を上げている。そこで, Sun ら [5] は BERTが QAタスクと NLI タスクに優れるという特徴を活かした手法を提案した. 日本語を対象言語とした研究では,赤井ら [1] は英語を対象言語とした先行研究で使われていた自己注意機構を使ったニューラルネットワークモデルを日本語に適用し, KNB コーパス [19] のうち評判情報の感情タグが付いた文で実験を行った結果,感情分類の正解率 (accuracy) は $85 \%$ に達した. 三浦ら [2] は BERT を組み込んだアスペクトカテゴリ分類ネットとアスペクトセンチメント分析ネットからなる文に含まれている複数アスペクトのセンチメント分析のための自己注意ニューラルネットワークモデルを提案し,「chABSA」データセットで実験を行った結果,AE サブタスクでの F1 值は最高 $70.68 \%$ まで達した。 我々 [4] は既に日本語の ABSA タスクの ASC サブタスクについて研究し, ASC サブタスクにおいて三浦ら [2] が達成した精度より高い精度を達成できたが, $\mathrm{AE}$ サブタスクについてはまだ研究していない. また, 三浦ら [2] の研究の $\mathrm{AE}$ サブタスクの部分では主に 2 つの問題が存在している. 1 つ目は BERT の fine-tuning 手法である. 三浦ら [2] の研究では, 各文 をそのまま BERT に入力して fine-tuning しているため,BERT は QA タスクと NLI タスクのような文ぺア分類問題でより優れた性能を発揮できるという特徴を生かしていない. それに対し,我々は BERT のこの特徴を活かしたより適切な fine-tuning 手法を用いて BERT を fine-tuning すれば,より高い分類精度を達成できると考える. 2 つ目はモデルの性能評価方法である. 三浦ら [2] の研究ではテストデータで dropout 率を変えながら性能評価を行ったが,我々は検証データで最も良い精度を達成できる dropout 率を探し,その dropout 率でモデルの性能を評価するという性能評価方法の方が適切だと考える。 以上の問題点を解決するために,本研究では, BERT のより適切な fine-tuning 手法を探し, より適切な性能評価方法でモデルの性能を評価し,三浦ら [2] が達成したアスペクトカテゴリ検出精度より高い精度を達成することを目標とする。 ## 3 提案手法 本研究では,Sun ら [5] が提案した補助文を自動的に生成し,対象文と補助文を組み合わせて生成した文ペアで BERT モデルを fine-tuning という手法を用い,日本語に適用し,実験を行う。 以下では BERT,補助文の生成方法,文ペアで fine-tuning した BERT-pair モデルについて詳細に述べる. ## 3.1 BERT BERT とは, 「Bidirectional Encoder Representations from Transformers」の略で,日本語では,「Transformer による双方向のエンコード表現」である.BERT は 2018 年 10 月に Google 社が発表した自然言語処理モデルであり,自然言語処理の多くのタスクで最高水準を達成した. BERT の特徴は,文脈を考慮した上で単語のエンコード表現を得ることができることと,様々なタスクに適用する際に,学習に必要なデータ量が少ないことである.学習に必要なデー タ量が少ない理由は,BERT は既に大規模なデータセットで事前学習が行われているからである. 事前学習では 2 つ学習方法が施されている. 1 つ目は,「マスク予測」(masked language model) で,文章の一部分を穴抜けにしてモデルに穴の部分の単語を予測させることである. 2 つ目は,「隣接文予測」で,2 つの文をモデルに与え,隣接した文であるかどうかを判別させることである. この 2 つの学習方法によ り,BERT は文脈を考慮した上での各単語の意味,及び文と文の関係をよく捉えられるようになっている. 本研究では, 東北大学が提供している事前学習済みの日本語版の BERT-base モデルの whole-wordmasking バージョン1) モデルと whole-word-masking ではないバージョン2) モデルを利用する.この 2 つのモデルの両方とも日本語版のウィキペディアで事前学習されたものである. ## 3.2 補助文の生成方法 Sun ら [5] の研究では ABSA タスクの ASC サブタスクにおいての手法について具体的に説明されているが, $\mathrm{AE}$ サブタスクにおいての手法に関する具体的な説明がなかったため, 本研究では Sun ら [5] の手法の考え方に基づき,AE サブタスクにおいての日本語に向けた手法を考案した. 具体的には,以下で紹介するそれぞれの補助文生成方法を用い,各文をデータセットのアスペクトカテゴリ数に応じて拡張するという手法である. 補助文の生成方法を表 1 に示す。以下にそれぞれの補助文生成方法について説明する。 $\cdot$QA: QA は Question Answering(質問に答える) という意味である.この方法では,質問の形式で補助文を生成し,システムにその質問の答えを出すようにする.具体的な生成方法は,アスペクトカテゴリと「が含まれていますか」という文を結合して補助文を生成することである。 - NLI: NLI は Natural Language Inference(自然言語推論)という意味である。この方法では,アスペクトカテゴリだけで補助文を生成する. 表 1 補助文の生成方法 & Yes・No \\ 本研究で扱うデータセットに 14 種類のアスペクトカテゴリが含まれているため,以上のそれぞれの補助文生成方法を用い,各文をアスペクトカテゴリの種類数に応じて 14 文に拡張する。  ## 3.3BERT-pair モデル 対象文と前述の補助文生成方法によって生成した補助文を [SEP] というトークンで結合した文で fine-tuning した BERT-base モデルをそれぞれの補助文生成方法に対応して「BERT-pair-QA」,「BERTpair-NLI」と名付ける. ただし, whole-word-masking バージョンの BERT-base モデルを使用したものは後ろに「(w)」を付加する. ## 4 実験 ## 4.1 データセット 本研究では,「chABSA」というデータセットを使用している.「chABSA」データセットは上場企業の有価証券報告書(2016 年度)をべースに作成されたデータセットで,文の中に含まれている各アスペクトに対する「Positive」・「Negative」・「Neutral」という感情極性情報が含まれている。日本語の ABSA データセットとしては他に楽天の「楽天トラベル: レビューアスペクト・センチメントタグ付きコーパス」[3] というコーパスがあるが,これは有料で公開されていないため本研究では用いない. 三浦ら [2] の研究と同様に, 本研究ではこのデータセットの中の company, business, product という 3 つのエンティティと sales, profit, amount, price, cost という 5 つのアトリビュートの組み合わせ(例:company\#sales,business\#amount)からなる 15 種類のアスペクトカテゴリを扱う. ただし,「company\#price」というアスペクトカテゴリに属するアスペクトの数は 0 個なので,三浦ら [2] の研究と同様に,アスペクトカテゴリ「company\#price」を扱わない。したがって,実際に扱うアスペクトカテゴリは 14 種類で,総文章量は 1,077 文で,合計のアスペクトの数は 2,079 個となる. 提案手法では,扱うアスペクトカテゴリの数に応じて各文を 14 個に拡張するため, 実際のデータセットでは合計データ数は 15,078 個(1,077 の 14 倍) となる。最初に,このデータセットを 7:1:2 の割合で,訓練データ,検証データ,テストデータに分けて実験を行い,検証データで最も高い精度を達成できるように dropout 率を調整したら,検証データを訓練データに入れて実験を行う.したがって,最終的にこのデータセットを 4:1 の割合で,訓練データ 12,062 個,検証データ 3,016 個に分けて実験を行う. ## 4.2 ハイパーパラメータ 本研究では,ハイパーパラメータを Appendix の表 3 の通りに設定して実験を行う. ここで,検証データを用いて dropout 率を調整した結果, 「BERT-pair-QA $\lrcorner, 「$ BERT-pair-QA(w)」, $\lceil$ BERT-pair-NLI $\lrcorner, 「$ BERT-pair-NLI(w)」のどちもも dropout 率を 0 に設定した時に検証データで最も高い F1 值を得られたため, dropout 率を 0 に設定してテストデータでモデルの性能評価を行う. ## 4.3 評価指標 本研究では,三浦ら [2] の研究と同様に,適合率と再現率の調和平均指標である F1 值を評価指標とする。 適合率は,モデルが「Yes」と予測したデータの中に正解も「Yes」であるデータの数の割合である.再現率は, 正解が「Yes」であるデータの中にモデルが「Yes」と予測したデータの数の割合である. F1 值は,適合率と再現率の調和平均で,トレードオフ関係にある適合率と再現率のバランスを取る評価指標である.F1値を式で表すと式(1)となる。 $ F 1 \text { 值 }=2 \cdot \frac{\text { 適合率 } \cdot \text { 再現率 }}{\text { 適合率 }+ \text { 再現率 }} $ ## 4.4 実験結果 実験結果を表 2 に示す. 表 2 実験結果 補助文生成方法 NLI で生成した補助文で finetuning した「BERT-pair-NLI(w)」は既存手法のモデルが達成した全ての結果を上回った上で,提案した他の全てのモデルを超え,最も高い適合率,再現率, F1 值が得られた。 また,「BERT-pair-NLI(w)」は「BERT-pair-NLI」より,「BERT-pair-QA(w)」は「BERT-pair-QA」より高い F1 值が得られた.「BERT-pair-NLI(w)」は「BERT-pair$\mathrm{QA}(\mathrm{w})\lrcorner$ より,「BERT-pair-NLI $」$ はBERT-pair-QA $\lrcorner$ より高い F1 值が得られた。 ## 5 考察 実験結果から,提案手法が既存手法より良い精度を達成したことが確認された. その原因は主に 2 つあると考えられる.1 つ目の原因は,本研究の提案手法では,各文をデータセットに含まれているアスペクトカテゴリの種類数(本研究では 14 種類)に応じて拡張しているため,データセットが拡張され,訓練に用いられる文の数が増加し,モデルの学習データが増加したからである.2つ目の原因は, BERT は「隣接文予測」タスクで事前学習されており,文と文の関係をよく捉えているため,QA タスクと NLI タスクのような文ぺア分類問題でより優れた性能を発揮できるためだと考えられる. また,三浦ら [2] の研究と異なり,dropout 率を 0.2 ではなく,0 に設定した時に最も良い精度を達成できた. この理由は,データセットが拡張されているため,dropout 率を 0 以外の値に設定することにより dropout を実装した場合,モデルの学習が不足してしまうためだと考えられる. さらに,「BERT-pair-NLI(w)」は「BERT-pair-NLI」 より,「BERT-pair-QA(w)」は「BERT-pair-QA」より高い F1 值が得られた理由は,BERT-base モデルの事前学習で「whole-word-masking」を使用した方が BERT-base モデルがより言葉の意味を学習できるためだと考えられる。また,「BERT-pair-NLI(w)」 は「BERT-pair-QA(w)」より,「BERT-pair-NLI」は 「BERT-pair-QA」より高い F1 值が得られた理由は, BERT は QA タスクより,NLI タスクを解く方がより優れた性能を発揮できるためだと考えられる。 ## 6 まとめ 本研究では,日本語 ABSA タスクのアスペクトカテゴリ検出サブタスク,すなわち AE サブタスクにおいて,補助文を自動的に生成し,対象文と補助文を組み合わせた文ぺアで BERT を fine-tuning するという英語のために提案された手法を日本語に適用し,「chABSA」データセットで実験を行った結果,同じデータセットで実験を行った先行研究より高い精度を達成できた. 今後, 日本語 ABSA タスクの $\mathrm{AE}$ サブタスクにおいてより高い精度を達成するために,より良い手法を探し,精度をさらに向上させることに取り込む予定である。 ## 参考文献 [1] 赤井龍一, 渥美雅保. 2019. 自己注意機構を利用したアスペクトベースの感情分析の日本語文への適用, 2020 年度人工知能学会全国大会(第 33 回). [2] 三浦義栄, 赤井龍一, 渥美雅保. 2020. 文中の複数アスペクトのセンチメント分析のための自己注意ニューラルネットワーク,2020 年度人工知能学会全国大会(第 34 回). [3] Yuki Nakayama, Koji Murakami, Gautam Kumar, Sudha Bhingardive, and Ikuko Hardaway. 2022. A Large-Scale Japanese Dataset for Aspect-based Sentiment Analysis. In Proceedings of the Thirteenth Language Resources and Evaluation Conference, pages 7014-7021, Marseille, France. European Language Resources Association. [4] 張懿陽, ラファウ・ジェプカ, 荒木健治. 2022. BERT モデルと補助文自動生成に基づいた日本語アスペクトベース感情分析の精度向上. ISSN 1346-3551, 人工知能学会第 2 種研究会ことば工学研究会資料, SIG-LSE-C302-3. [5] Chi Sun, Luyao Huang, and Xipeng Qiu. 2019. Utilizing BERT for aspect-based sentiment analysis via constructing auxiliary sentence. Proceedings of NAACL-HLT 2019, pages 380-385. [6] Takahiro Kubo, Hiroki Nakayama. chABSA: Aspect Based Sentiment Analysis dataset in Japanese. URL https://github.com/chakki-works/chABSA-dataset [7] Joachim Wagner, Piyush Arora, Santiago Cortes, Utsab Barman, Dasha Bogdanova, Jennifer Foster, and Lamia Tounsi. 2014. DCU: Aspect-based polarity classification for SemEval task 4. In Proceedings of the 8th international workshop on semantic evaluation (SemEval 2014), pages 223-229. [8] Svetlana Kiritchenko, Xiaodan Zhu, Colin Cherry, and Saif Mohammad. 2014. Nrc-canada-2014: Detecting aspects and sentiment in customer reviews. In Proceedings of the 8th International Workshop on Semantic Evaluation (SemEval 2014), pages 437-442. [9] Thien Hai Nguyen and Kiyoaki Shirai. 2015. PhraseRNN: Phrase recursive neural network for aspect-based sentiment analysis. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pages 2509-2514. [10] Yequan Wang, Minlie Huang, Li Zhao, et al. 2016. Attention-based LSTM for aspect-level sentiment classification. In Proceedings of the 2016 conference on Empirical Methods in Natural Language Processing, pages 606-615. [11] Duyu Tang, Bing Qin, Xiaocheng Feng, and Ting Liu. 2015. Effective LSTMs for target-dependent sentiment classification. arXiv preprint arXiv:1512.01100. [12] Duyu Tang, Bing Qin, and Ting Liu. 2016. Aspect level sentiment classification with deep memory network. arXiv preprint arXiv:1605.08900. [13] Bo Wang, Maria Liakata, Arkaitz Zubiaga, and Rob Procter. 2017. Tdparse: Multi-target-specific sentiment recognition on twitter. In Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics: Volume 1, Long Papers, volume 1, pages 483-493. [14] Yukun Ma, Haiyun Peng, and Erik Cambria. 2018. Targeted aspect-based sentiment analysis via embedding com- monsense knowledge into an attentive LSTM. In Proceedings of AAAI. [15] Fei Liu, Trevor Cohn, and Timothy Baldwin. 2018. Recurrent entity networks with delayed memory update for targeted aspect-based sentiment analysis. arXiv preprint arXiv:1804.11019. [16] Matthew E Peters, Mark Neumann, Mohit Iyyer, Matt Gardner, Christopher Clark, Kenton Lee, and Luke Zettlemoyer. 2018. Deep contextualized word representations. arXiv preprint arXiv:1802.05365. [17] Alec Radford, Karthik Narasimhan, Tim Salimans, and Ilya Sutskever. 2018. Improving language understanding by generative pre-training. URL https://s3-us-west2.amazonaws.com/openai-assets/research-covers/languageunsupervised/language_understanding_paper.pdf. [18] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. 2018. Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805. [19] 橋本力, 黒橋禎夫, 河原大輔, 新里圭司, 永田昌明. 2011. 構文・照応・評判情報つきブログコーパスの構築. 自然言語処理 Volume 18, Number 2, pp.175-201. ## Appendix 表 3 ハイパーパラメータ
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A3-3.pdf
# 機械学習を用いた川柳の面白さの予測 太田聖三郎 ${ }^{1}$ 河原大輔 1 野村理朗 2 1 早稲田大学理工学術院 2 京都大学 \{ota-seizaburo@akane.,dkw@\}waseda.jp, [email protected] ## 概要 川柳は日本の伝統文芸の一つである.詩や俳句に関する機械学習を用いた研究は散見されるが,川柳に関するものはない. 本研究では,川柳を構成する要素を様々な指標に分解し,それらの予測を組み合わせることで,より高精度な川柳評価を予測する手法を提案する. クラウドソーシングを用いて川柳データセットを構築し, BERT-like モデルをファインチューニングすることより川柳の評価を予測する. それに加え, 川柳をデータに事前学習モデルの追加学習を行い, 川柳の特徵を理解した SenryuBERTを構築する。 ## 1 はじめに 近年,人工知能による創作活動はめざましい発展を遂げている。自然言語処理においては詩や俳句などの生成研究 $[1,2]$ がある. その一方で,それらの理解に関する研究はほとんどされていない. それらの理解には創作物の持つ面白さや独創性などが関わってくる. 面白さは人のコミュニケーションの中でも大きな役割を担っている. つまり,人と計算機のコミュニケーションを円滑にするためには,計算機による面白さの理解が重要な要素となる. 本研究では川柳という文芸を対象とし,人が川柳の面白さをどのように理解しているか,また,計算機がそれを理解できるかを分析する。川柳は俳句と同様に五・七・五の音数を持ち, 元来は俳諧連歌の長句が独立したものである.短句に対しての前句付けが流行したことにより生まれた文芸であり, 口語的で風刺的な内容が特徴である. 川柳の面白さは人が理解するにおいても難しく,これを計算機に理解させるのはさらに難しいタスクである.この問題に取り組むにあたって, 川柳の面白さを構成する要素を細分化し,判断しやすい指標を設けることで,川柳の総合的な面白さの予測を目指す. 川柳の面白さを定量分析するために,クラウドソーシングによっ て各指標をアノテーションする.得られたアノテー ションをもとに言語モデルのファインチューニングを行い,川柳を入力し川柳の総合的な評価を予測するタスクを行う.川柳の評価を直接予測する場合と,細分化した指標の予測を組み合わせる場合の精度の差を比較する。 ## 2 関連研究 詩・俳句生成川柳について機械学習を用いた研究は無い. しかし, 川柳に通ずるものとして,近年では詩や俳句の生成 $[1,2]$ が行われている. Hitsuwari ら [2] は人手評価において, 人工知能が生成した俳句と人間が作った俳句との見分けがつかないほど完成度の高い川柳の生成を実現している。 BERT/RoBERTa 近年の自然言語処理研究の飛躍的な進歩には BERT [3] の登場が大きく関わっている. BERT の学習は事前学習とファインチューニングからなる. 事前学習は自己教師あり学習であり,主な学習方法は Masked Language Model (MLM) である. MLM は入力文の一部のトークンをマスクし, マスクされたトークンを予測するタスクである。予測されるトークンのうち $80 \%$ [MASK] トークンに置き換えられ,10\%はランダムな他のトークンに置き換えられる。残りのトークンは元のトークンのままで残される。これは,多ウンストリームタスクにおいて [MASK] トークンが出現しないことを考慮したためである. Liu ら [4] はBERT を改良したモデル RoBERTaを提案し, データセットの増大や動的マスキングなどにより精度を向上させた。 大喜利データセット中川ら [5] は大喜利を複数の指標に分解し,クラウドソーシングを用いて各指標に対しアノーテーションを行うことで,定量分析可能な大喜利データセットを構築している. ## 3 川柳データセットの構築 本研究では川柳を構成する要素を複数のわかりやすい指標に分解し,定量分析を行うために川柳デー タセットを構築する。 ## 3.1 川柳データの収集 川柳は川柳投稿サイト「まるせん」1) より提供を受けたものを用いる.このデータは川柳,お題,作者を含む 581,336 句からなる. ## 3.2 川柳データの前処理・フィルタリング 本研究では,川柳の評価をクラウドソーシングを用いてアノテーションする.アノテーション対象の川柳を選別するために,川柳の前処理・フィルタリングを行う.投稿川柳にはしばしば絵文字を含んでいるものがある.これらは実験で用いる言語モデルの語彙に含まれていないため削除する。また,上記サイトではお題を作者が自ら設定し投稿するため,不適当なお題やイレギュラーなお題が散見される. そのため,クラウドソーシングにかける川柳については,運営によりあらかじめお題が指定されている 「コンテスト」の川柳を採用する. コンテストはサイト内で定期的に開催され,その度に 10 句ほどの入選作品が選出されるため, ある程度の川柳の質が担保される. データ収集時点までに開催されたコンテスト 304 回のうち,時事的なお題(例: VAR)や長いお題(例: 最近の若いもん)を除き名詞や形容詞を中心に 250 題について,フィルタリングを行った. 各お題について入選作品+それ以外を合わせ 20 句ずつを選出し, 合計 5,000 句の川柳を抽出した. ## 3.3 川柳の面白さの細分化と評価のアノ テーション 前節で述べた 5,000 句の川柳に対し,クラウドソーシングを用いてアノテーションを実施する. プラットフォームは Yahoo!クラウドソーシング2)を用いる. 川柳の解説書 $[6,7]$ を参考に,川柳を 8 つの指標に細分化し, それぞれの指標について 5 段階評価を行ってもらう.細分化した指標を下記に示す。 1. 句がお題に沿っている (along) 2. 場面をイメージしやすい・わかりやすい (imaginable) 3. 句に対比の構図がある (contrast) 4. あたりまえ・ありきたりなことは言っていない (usual) 5. 不適切な表現が含まれていない (appropriate) 1) https://marusenryu.com/ 2) https://crowdsourcing.yahoo.co.jp/ 6. 語のリズム感・軽快さがある (rhythmic) 7. 言い回しに独創性がある (unique) 8. 体験や体感への想いが感じ取れる・余韻がある (experience) これらの項目に, ・総合的に良い川柳である (overall) を加え,合計 9 個の指標について,1句あたり 10 人のクラウドワーカを雇い,その平均値を正解ラベルとして付与する. クラウドワーカにはお題,川柳が与えられる。 ## 4 SenryuBERT の構築 既存の言語モデルは新聞やウェブテキストで学習しているため, 川柳の風刺的な文脈や語順などのリズム感を理解できない可能性がある.この問題に取り組むために,川柳データを活用し,言語モデルの追加学習を行うことで SenryuBERT を構築する. ## 4.1 ランダムトークン置換 (RTR) 2節で述べた通り,BERT [3] のMLMでは,予測するトークンのうち,80\%を[MASK] トークン,10\% をランダムな他のトークン,10\%をそのままのトー クンにして学習を行う.川柳のような短い系列を入力とする場合, $[$ MASK] トークンと異なり, ランダムなトークンに置き換えると,BERT の特徴量はランダムなトークンの影響を大きく受けるため,文脈が破綻する可能性がある.これを防ぐため,通常の MLM に加えて,ランダムなトークンの置き換えをしない学習も行い比較する。 ## 4.2 追加学習 川柳データを用いた言語モデルの追加学習は, 早大 RoBERTa-base ${ }^{3)}$ をべースとして行う.学習は表 1 に示す 4 種類の条件で行う. モデル 3 の場合は入力を “お題 [SEP] 川柳” とし,その他のモデルでは “川柳”とする.また,学習時にマスクされるトークンにお題は含まれないようにする。実験で使用するハイパーパラメータを付録 B に示す. ## 4.3 結果 各モデルの [MASK] トークンの予測例を表 2 に示す. 例には条件 $1,2,3$ とべースラインの早大  表 1 追加学習における学習条件設定 表 2 [MASK] トークンの予測例(入力:“歯ブラシと一緒 RoBERTa-base の結果を示す. 付録 C に他の予測例を掲載する。定量的な評価は次節のダウンストリー ムタスクにて行う。 定性的評価ベースラインの RoBERTa では助詞や関係のない名詞・助詞が予測され, 正解と近い単語の出力は見られない. 条件 3 のお題と川柳を入力として学習したモデルではベースラインほど遠くはないものの,正解に近い予測はほとんど見られなかった. 条件 1 と 2 のモデルはどちらもある程度のニュアンスが捉えられており,正解に近い予測ができている. 条件 2 のモデルでは生起確率が他と比べて高くなっており,これはランダムトークンによる文脈の摇れが抑えられたためと思われる。 ## 5 川柳構成要素の分析・予測 本研究では,川柳の面白さという曖昧な要素を直接予測する場合と, 3 節で示した 8 つのわかりやすい指標に分解してから予測する場合の精度を比較する. また,予測した各指標のスコアから総合評価を予測するタスクを行い,総合評価の予測精度の比較を行う。まとめると下記の 3 つの実験を行う。 1. 川柳から総合評価の予測 2. 川柳から各指標の評価の予測 3. 各指標の評価から総合評価の予測 実験 1,2 には既存のモデルや 4 節で構築したモデルなどの BERT-like モデルを使用し, 実験 3 には決定木アルゴリズムの LightGBM [8]を使用する. ## 5.1 実験設定 実験 1,2 では事前学習済み BERT-like モデルを回帰問題としてファインチューニングすることで,川表 3 総合評価の予測結果 柳から総合評価や各指標の評価を予測する. 4 節で構築した SenryuBERT に加え,BERT や RoBERTa での学習を行う. モデルの詳細と学習に用いた八イパーパラメータは付録 $\mathrm{A}, \mathrm{B}$ に示す. 学習に使用するデータセットは 3 節で構築した川柳データセットを用いる。データセットは訓練用 4,000 句,検証用 500 句,テスト用 500 句に分割する. 川柳はお題ありきであるため,モデルへの入力は“川柳 [SEP] お題”とする。各指標についてファインチューニングを 10 回行い,精度を平均值と最大值で算出する. モデルの評価には Pearson の相関係数を用いた. 実験 3 ではまず,実験 1,2 から最良のモデルを選択し,訓練データの各指標を予測する (自動ラベルと呼ぶ). 各指標の自動ラベルから LightGBM を用いて総合評価を予測し,実験 1 のスコアと比較する. LightGBM の学習に用いたハイパーパラメータを付録 B に示す。訓練データに自動ラベルを付与する手順は,まず,訓練用データを 10 分割する.そのうち 9 個のデータ (3,500 句)を用いて学習したモデルで,残りの 1 個のデータに対して各指標のスコアを予測しラベルとする。これを 10 個の分割全てで行い,4,000 句に自動ラベルを付与する. ## 5.2 実験結果と考察 川柳から総合評価の予測川柳から直接総合評価を予測した際の評価結果を表 3 に示す. 3 節で提案した SenryuBERT は RoBERTaをベースとしたモデルであるが,RoBERTa ベースのモデルに関してはすべて BERT よりも最大値で良い精度となったが,RoBERTa と SenryuBERT の間に大きな差はみられなかった. しかし, SenryuBERTにおいてRTRを行わなかった場合や,お題を入力に加えて学習した場合は精度の向上が見られた。最良のモデルは SenryuBERT において,RTRを行わず,[MASK]トー クンの割合を $80 \%$ とした場合で,SenryuBERT とは最大で約 0.07 の差が見られた. ただし,お題を入力に加えて学習した SenryuBERT 以外のモデルは精度 表 4 各指標の評価の予測結果 表 5 各指標における川柳評価の予測例と比較 (川柳: “札束を数え快感銀行員”, お題: “現実逃避”) が安定せず,データの順序などの影響を受けやすいことが分かった. 表 5 に総合評価を川柳から直接予測する場合と提案手法との比較例を示す. 提案手法が僅かに良い予測ができていることがわかる.表 5 に示す指標は 3 節で示した指標に対応している. 川柳から各指標の評価の予測川柳を入力として 3 節に示した各指標の評価を予測した結果を表 4 に示す. 表 4 には SenryuBERT のファインチュー ニングによる結果と, 総合評価の予測にて高精度であったRTRを行わないモデルの結果を示す。いずれの指標においても,RTRを行わないモデルは SenryuBERT の精度を上回る結果となった. この内,総合評価の予測より高い精度となったのは, 体験や体感への想いが感じ取れる・余韻がある (experience) のみであった. 各指標の評価から総合評価の予測本実験では,川柳から各指標の評価の予測において精度の高かった SenryuBERT -RTR (90\%) のモデルを用いて訓練データに自動ラベルを付与し,LightGBM の学習を行う. 川柳から直接総合評価を予測した結果と,各指標のスコアの予測から総合評価を予測した結果を表 6 に示す. データセットの各指標の正解ラベルをもとに総合評価を予測する場合には,非常に高い精度で予測ができている. これは,細分化した 8 個の指標が,人が川柳の面白さをどう理解しているかをうまく表す基底になっていると理解できる. 自動表 6 総合評価の予測結果の比較 ラベルで学習した場合には,正解ラベルと比べて大幅に精度は下がるが,川柳から直接予測する場合と比べると, 0.01 ほど高い精度が得られ,提案手法がやや高い精度で予測できていることがわかる. 自動ラベルの精度があまり高くならない原因として, experience しか overall の精度に勝っていないことが考えられる。 ## 6 おわりに 本研究では,現状取り組まれていない川柳という文芸を理解するタスクに機械学習を用いて取り組んだ. 川柳から直接総合評価を予測するアプローチをベースラインとして,川柳を相対的にわかりやすい指標に細分化し,それぞれの項目の予測を組み合わせることで総合的な評価を予測する手法を提案した. 提案手法はベースラインに比べて若干の精度の向上が見られた. 今後,川柳の面白さの理解を目指すには更なる精度の向上が必要である。また,提案手法を活かし,川柳の生成タスクに取り組んでいきたい。 ## 謝辞 川柳データを提供いただいた川柳投稿サイト 「まるせん」に感謝する. 本研究は JSPS 科研費 JP22H01103, JP21H04901 の助成を受けて実施した. ## 参考文献 [1] Samuel R. Bowman, Luke Vilnis, Oriol Vinyals, Andrew M. Dai, Rafal Jozefowicz, and Samy Bengio. Generating sentences from a continuous space. 2015. [2] Jimpei Hitsuwari, Yoshiyuki Ueda, Woojin Yun, and Michio Nomura. Does human-ai collaboration lead to more creative art? aesthetic evaluation of human-made and ai-generated haiku poetry. Computers in Human Behavior, Vol. 139, p. 107502, 2023. [3] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [4] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized bert pretraining approach, 2019. [5] 中川裕貴, 村脇有吾, 河原大輔, 黒橋禎夫. クラウドソーシングによる大喜利の面白さの構成要素の分析. 言語処理学会年次大会発表論文集, Vol. 25, pp. ROMBUNNO.B3-2 (WEB ONLY), 2019. [6] 新家完司. 川柳の理論と実践. 新葉館出版, 2011. [7] 野林正路. 詩・川柳・俳句のテクスト分析. 和泉書院, 2014. [8] Guolin Ke, Qi Meng, Thomas Finley, Taifeng Wang, Wei Chen, Weidong Ma, Qiwei Ye, and Tie-Yan Liu. Lightgbm: A highly efficient gradient boosting decision tree. Advances in neural information processing systems, Vol. 30, pp. 3146-3154, 2017. ## A 学習に使用したモデル 5 節の実験 1,2 で使用した BERT-like モデルの詳細を表 7 に示す. 表 7 学習に使用した事前学習モデルの詳細 & Wikipedia \& CC-100 & $125 \mathrm{M}$ & 768 & 32,000 \\ (nlp-waseda/roberta-base-japanese-with-auto-jumanpp) & & & & \\ ## B ハイパーパラメータ 表 8 に,4 節の実験で使用したハイパーパラメータを示す.また,表 9 には,5 節の実験 1,2 で使用した八イパーパラメータを示す. 表 10 に示すのは, 5 節の実験 3 で使用したハイパーパラメータである. 表 8 RoBERTa の追加学習に使用したハイパーパラメータ表 9 BERT-like モデルのファインチューニングに使用した 表 10 LightGBM の学習に使用したハイパーパラメータ ## C SenryuBERT の予測例 表 11 に,SenryuBERTによる [MASK] トークンの予測例を示す.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A3-4.pdf
# 不適切投稿自動検出システムの構築と放送禁止用語による検証 近藤昌也 ${ }^{1}$ 狩野芳伸 ${ }^{2}$ ${ }^{1}$ Septeni Japan 株式会社 2 静岡大学 [email protected] [email protected] ## 概要 偏見や誹謗中傷といった不適切な表現を検知するモデルの構築には従来アノテーションを必要としてきたが,本研究はアノテーション無しに半自動的に訓練データを構成するシステムを提案する。不適切な単語リストを予め用意し,不適切な単語を含む SNS 投稿を頻繁に行うユーザとそうでないユーザをルールベースで分類し,機械的にアノテーションに相当する訓練データを用意する. この訓練データで構築されたモデルは, 特定の不適切表現に基づくアノテーションデータで学習されたモデルに比べて,背後にある潜在的なユーザ属性を捉え様々な不適切表現をより有効に検知できる可能性を示す. ## 1 はじめに 近年, SNS 上の誹謗中傷書き込みが社会問題となっている. その背景のひとつには,コロナ禍により社会全体が不安に包まれている中,SNS の利用時間が増えネガティブな情報に触れる機会が多くなったことが挙げられる [1]. このような状況の下, SNS 上の偏見や誹謗中傷といった不適切な書き込みを検知するシステムの開発は社会的に重要であり, 様々な研究が行われてきた $[2,3,4,5]$. いずれの先行研究においても SNS 等のインターネット上の文章に対し不適切かどうかのラベルを人手で付与し, モデルの学習を行っており, 人的コストがかかる. 日本語の公開学習済みモデルで関連するものとしては, ネットいじめのデータで学習したモデルがある $[4]^{1)}$ が,いずれの先行研究でも公開アノテーションデー タをみつけることができず,報告されたモデルの再現が難しい. また,学習データが特定ドメインや小規模であり未知語に弱く, 対象の特徴である新出単語の多さや不適切な表現の幅広さに対応し難い. 我々は,不適切な SNS 投稿の検知モデル構築のた 1) https://huggingface.co./ptaszynski/yacis-electra-small-japanesecyberbullying めに,不適切かどうかの人手アノテーション作業なしに,モデル構築のためのデータを半自動的に収集するシステムを提案する. 本研究のデータ収集システムは最初に不適切な単語のリストを定義する必要があるが,それ以外は機械的に実行できる。 本研究では,不適切な表現をより高頻度に使用するユーザは,最初に種として与えた単語リストにない不適切な表現をも含む投稿が多い,と仮定する。 そのうえで,提案システムではこの不適切な単語のリストを用いて,不適切な投稿をしがちな SNS ユー ザ群(不適切群)とそうでない一般のSNS ユーザ群 (一般群)をルールベースで分類し,それぞれのユー ザ群における投稿を大規模収集することで,不適切群かどうかの二値分類ラベルが付与された投稿デー タセットを構築する.単に半自動的構築ができるのみならず,潜在的なユーザ属性とさまざまな表現の広がりを捕捉できると期待する。この二値ラベル付き投稿データを用いて,SNS などの投稿が適切かどうかを分類し, 荒井ら [6] が作成した日本語へイトスピーチコーパスと,自前で作成した偏見アノテー ション付き投稿コーパスとでその性能をそれぞれ検証し,提案システムが有効に動作することを示す。 ## 2 関連研究 松葉ら [2] は, 学校非公式サイトに投稿された書き込みに対し,検知すべき有害情報の定義を行った. 有害・無害情報を含む実際の書き込み 500 件に対し, 6 人のアノテーターで有害(削除),有害(審議), 無害の 3 つのラベルを付与し,アノテーションラベルの一致度を確認し有害情報の定義に問題がないことを確認した上で 2,998 件の書き込みに対しても同様のラベル付けを行い,教師データを作成した.このデータを用い,書き込み文章の品詞の素性やTF-IDF などのスコアを特徴量として SVM[7] で有害・無害を分類するモデルを構築した。 石坂ら [3] は,誹謗中傷のような「悪口文」は「悪口単語」の有無で十分に判断可能という仮説のも 図1 不適切群ユーザのデータ収集の流れ 図 2 不適切群ユーザのバイアス単語抽出方法 と, 単語の「悪口度」を用いて素性選択したSVM で,2ちゃんねるの書き込みから誹謗中傷かどうかを分類するモデルを構築した. モデルを構築する際には2ちゃんねるから悪口文・非悪口文をそれぞれ 1,400 文ずつ収集している. 柴田ら [4] は, 口語的な文章の処理に焦点を当てた ELECTRA[8] による事前学習済み言語モデルを構築し, 応用例として口語の理解が必要なネットいじめ検出を扱っている. 松葉ら [2] の学校非公式サイトの書き込みデータに加え, Twitter から収集した有害ツイートデータセットを組み合わせてネットいじめ検出データセットを構築している。 松本ら [5]では,BERT[9]を使って Twitter に投稿されたリプライツイートがリプライ元のツイートを煽っているかどうかを分類するモデルを構築している. リプライツイートとリプライ元ツイートの組を収集し,ツイートの組に対し,人手で煽り・非煽りのラベルを付与し,煽りッイートの組 2,134 件,非煽りツイートの組 7,786 件を構築している. いずれの研究においても,人手でラベル付けしたデータを使ってモデルを構築しているが,デー タが公開されておらず再現が難しい. 柴田ら [4] は HuggingFace 上で学習済みモデルを公開している. ## 3 提案手法 本研究では,SNS 投稿が不適切かどうかを分類するための訓練データを, 人手のアノテーション作業を行わずに構成するシステムを提案する。提案システムはたとえば Twitter のように,投稿を取得する API が公開されており,かつそのプラットフォーム上のユーザとユーザの投稿内容が紐づく SNS から のデータ収集を想定している. 最初に「種」として予め不適切な単語のリストを用意し, 不適切な単語を含む投稿をより高頻度に行うユーザを不適切群とみなして抽出する(図 1). 全投稿に共通する形態素列が多いユーザや全投稿に URL を含むユーザは,BOT や商品宣伝用のアカウントの可能性が高いため除外した。こうして得られた不適切群の各ユーザについて,投稿を収集する. さらに,不適切群以外から無作為抽出したユーザを一般ユーザとみなし,ユーザを 2 群に自動分類する. こうして得られた 2 群の投稿セットを用いて分類を学習し,不適切投稿推測モデルを構築する. ## 4 実験 ## 4.1 放送禁止用語を利用した不適切 Twitter ユーザ群とその投稿の収集 Twitter 投稿を対象に,種となる不適切な単語リストとして放送禁止用語2)を採用し, 不適切群ユーザのツイートデータを 2022 年 3 月 24 日から 2022 年 7 月 12 日の間で収集した. 5 ツイート以上投稿履歴があるユーザの中から, 収集期間中に放送禁止用語を含むツイートを 3 回以上行ったユーザを不適切群ユーザとして,1,243人の不適切群ユーザ, 計 1,209,138 件の投稿を集めることができた. mention や hashtag の文字列はツイートテキスト中から削除した. 文字数が少ないツイートや,放送禁止用語自体を含むツイートも削除した。 実際に収集された不適切群ユーザのツイートを分析したところ,社会情勢(ロシアとウクライナの戦争や選挙,新型コロナウイルス関連)に関する時 2)放送禁止用語一覧 http://monoroch.net/kinshi/で紹介されている見出し語 事的なツイートが相当数含まれていた. 時事的なトピックのツイートかどうかで容易に分類ができてしまうと, 必ずしも本研究の目的にそぐわないため, これらのトピックの代表的な特徴語を抽出し(図 2), 抽出された単語を含むツイートを不適切群ユー ザのツイートから除外する処理を準備した. 実際に抽出された単語は「日本,ロシア,ウクライナ,国民,中国,日本人,ワクチン,戦争,自民党,コロナ」であった. ## 4.2 不適切投稿分類の学習 分類モデルは事前学習済みの日本語 BERT モデル3)の最終層に全結合線形層を 1 層追加しファインチューニングを行って構築した。一般群ユーザから不適切群と同数のユーザをランダムピックアップした上で,一般群ユーザ,不適切群ユーザそれぞれを 7:1.5:1.5 で三つにランダム分割し, 学習データ,検証データ,テストデータに分けた。 前節で説明した手法により,時事単語を含むツイートを不適切群ユーザのツイートから除外したデータを使って学習したモデル(*notopical)も用意し比較した. notopical がモデル名末尾にないものはこの時事単語の除外を適用していない. 学習時に与えるデータの単位として,1ツイート (1tweet_*), 5ツイート (5tweet_*), モデルの入力最大長である 512 トークン (maxlength_*) の 3 種類を比較した. すなわち,学習時のエポック毎に対象ユーザを割り振り,そのユーザのツイートをランダムサンプリングして, 1 件, 5 件ないし最大長に至るまで結合して入力とした. 学習は HuggingFace の Trainer クラズ)を使って行い,検証データの ROC-AUC が最大になる時点のモデルを保存した. 学習に使用した主な設定情報は表 5 の通りである. ## 5 評価 前章で説明した提案モデル 6 種類(1 ツイート単位, 5 ツイート単位, 最大長の 3 種類と, 時事トピックを除外するしないの 2 種類の組合せ)に,ベー スラインとしてネットいじめデータで訓練した柴田ら [4] の公開学習済みモデル (yacis-electra-smalljapanese-cyberbullying, 以下 cyberbullying と呼ぶ)を加えた計 7 種類のモデルを対象に評価を行った.  $\frac{\text { 表 } 1 \text { 検証・テストデータにおける精度 (ROC-AUC) }}{\text { 検証データテストデータ }}$ 評価データとして,前述の半自動的に構築した不適切・一般の二值分類データセットに加え, 荒井ら [6] の日本語へイトスピーチコーパスと,我々が独自に作成した 5 ちゃんねるの偏見アノテーション付き投稿コーパスとの 3 種類を用いた。 ## 5.1 不適切群ユーザ群投稿分類 不適切かどうかの二値分類データにおける ROC-AUC スコアを表 1 に示す. スコアは入力長が長いほど向上し, 時事単語を除くと全体に数ポイント下落したが,maxlength_notopical のテストデータ評価値は 0.97 であり,提案手法により収集した一般群と不適切群ユーザの投稿は BERT モデルにより高い精度で分類可能であることがわかった. ## 5.2 日本語ヘイトスピーチコーパス 日本語ヘイトスピーチコーパスでは,キーワード 「コロナ」を含むツイート 230 件,含まないツイー ト 270 件の合計 500 件のツイートに対し,へイトスピーチの分類を攻撃対象 (A カテゴリ) と攻撃タイプ (B カテゴリ)の 2 軸で分け,各々を細分化したガイドラインを設計している。また,3名のアノテー ターが各カテゴリにおけるラベルに投票しており,各カテゴリについて全員が一致した割合を計算したところ, 平均 $70.2 \%(43.2 \% \sim 97.0 \%)$ であった. 実験の評価値として,A1 から B5 までの各カテゴリについて,各ツイートに対する 3 名のアノテー ターの投票数と, 各モデルが不適切群ユーザと予測した確率の相関係数を算出した(表 2). ## 5.35 ちゃんねる偏見コーパス 5 ちゃんねるの「私の中の偏見...」「愚痴・悪口】 ネガティブ専用チラシの裏...【誹謗中傷】」スレッド5)における書き込みから 1,000 件を抽出し, 3 名 5) http://medaka.5ch.net/test/read.cgi/kankon/1637901301, https://medaka.5ch.net/test/read.cgi/wmotenai/1655780116, https://medaka.5ch.net/test/read.cgi/wmotenai/1626458070 表 2 日本語ヘイトスピーチコーパスの各カテゴリにおける相関係数 表 35 ちゃんねる偏見コーパスにおける評価スコア のアノテーターにより,5ちゃんねるの書き込みそれぞれに対し偏見に当てはまるかを 0(当てはまらない),1(少し当てはまる),2(概ね当てはまる), 3(強く当てはまる)の 4 段階でラベル付与を行った. Accuracy によるアノテーター間のラベル一致率は,全員一致の場合で $29.8 \% , 2$ 名一致の場合で $87.2 \%$ あった. ラベルが 0 かそうでないかの二值分類とみなすと,全員一致が $52.5 \%$ であった. 5 ちゃんねる偏見コーパスについても同様に,3 名のアノテーターの評価ラベルの平均值と不適切群ユーザに属する予測確率値の相関係数を算出した. また,1名でも 1 以上のラベルをつけていた場合は偏見ラベル,全員が 0 とラベル付していた場合は正常ラベルとする二値分類タスクの ROC-AUC スコアの算出も行った(表 3). ## 6 考察 表 4 不適切群ツイートのイメージ 日本語ヘイトスピーチコーパスの B5 カテゴリは 「誹謗中傷に該当しない」である.B5に着目した二值分類を実行すると,ROC-AUC スコアは 0.7 程度であった。不適切群ユーザで投稿と予測した確率とは,5tweet_notopical と 1tweet_notopical が負の相関を示し,いじめ問題で学習された cyberbullying よりも負の相関が強い. 提案手法はヘイトスピーチを判別する性能があることが伺える.5ちゃんねる偏見コーパスの評価スコアも同様の結果となった. 日本語ヘイトスピーチコーパスや 5 ちゃんねる偏見コーパスの評価スコアに比べて,不適切群ユーザ群投稿の分類ははるかに評価スコアが高かった. 前述のように,それぞれのコーパスのアノテーション一致率は二值分類タスクで $70 \%$ 程度であり,比較的難易度の高いタスク設計になっている。 また,提案手法により機械的に収集した訓練デー タのほうが,特定の有害情報を元に人手のアノテー ションで作成された訓練データよりも広く一般的な不適切表現の特徵を多く含んでいた可能性がある.表 4 は実際に提案手法によって収集された不適切群投稿の例(原文の一部を改変)であるが,社会情勢に関する投稿の他に,偏見や皮肉,誹謗中傷とも取れる投稿が見受けられた。 ## 7 おわりに 本研究では,アノテーション作業なしに半自動的に不適切な表現に関するデータを収集してモデルを構築するシステムを提案しその有効性を検証した。今後の課題として,種として用意する放送禁止用語を別の不適切な単語群に置き換えても同様の結果が示せるのか調査したい。また今後の応用例として,全く別の観点における単語リスト(例えばポジティブな表現の単語リストなど)を用意し,同様のデー タ収集を行うことで,どのような属性のデータが収集できるのか,また収集したデータを使って機械学習モデルを構築したとき,どのようなタスクに応用できるのか検討したい. ## 謝辞 日本語ヘイトスピーチデータセットを提供いただいた理化学研究所の荒井先生に感謝いたします.また本研究を進めるにあたって, Septeni Japan 株式会社の勢风弘幸氏と勝谷龍一氏から日々助言をいただき感謝いたします。 ## 参考文献 [1] 山口真一. わが国における誹謗中傷・フェイクニュー スの実態と社会的対処. Technical report, プラットフォームサービスに関する研究会, 2021. [2] 松葉達明, 栘井文人, 河合敦夫, 井須尚紀. 学校非公式サイトにおける有害情報検出. 言語処理学会第 16 回年次大会発表論文集, pp. 383-386, 2010. [3] 石坂達也, 山本和英. Web 上の誹謗中傷を表す文の自動検出. 言語処理学会第 17 回年次大会発表論文集, pp. 131-134, 2011. [4] 柴田祥伍, プタシンスキミハウ, エロネンユーソ,ノヴァコフスキカロル, 栘井文人. 日本語大規模ブログコーパス yacis に基づいた electra 事前学習済み言語モデルの作成及び性能評価. 言語処理学会第 28 回年次大会発表論文集, pp. 285-289, 2022. [5] 松本典久, 上野史, 太田学. Bert を利用した煽りッイー ト検出の一手法. データ工学と情報マネジメントに関するフォーラム, pp. I14-2, 2021. [6] 荒井ひろみ, 和泉悠, 朱喜哲, 仲宗根勝仁, 谷中瞳. ソー シャルメディアにおけるへイトスピーチ検出に向けた日本語データセット構築の試案. 言語処理学会第 27 回年次大会発表論文集, pp. 466-470, 2021. [7] Vladimir N. Vapnik. The Nature of Statistical Learning Theory. Springer, 1995. [8] Quoc V Le Kevin Clark, Minh-Thang Luong and Christopher D Manning. Electra: Pre-training text encoders as discriminators rather than generators. arXiv preprint arXiv:2003.10555, 2020. [9] Kenton Lee Jacob Devlin, Ming-Wei Chang and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprintarXiv:1810.04805, 2018. ## A 付録 ## A. 1 学習時の主な設定情報 表 5 学習時に使用した主な設定情報 ## A. 2 学習モデルの予測の振る舞い例 提案手法により構築したモデルのうち,日本語ヘイトスピーチコーパスと 5 ちゃねる偏見コーパスの評価スコアが最も良かった 5tweet_notopical モデルについて,不適切群ユーザ群の予測確率の振る舞いを例文とともに紹介する(表 6). 誹謗中傷や偏見と考えられる不適切な文章は,不適切群ユーザである予測確率は高めに算出される傾向にある。また不適切なコピー文と思われる文章についても日常会話などの一般的な文章と比べると不適切群ユーザである予測確率は大きくなる傾向にあることがわかる. 表 6 モデルの予測例
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A3-5.pdf
# 検索モチベーションクラスタリングにおける価値のあるクラスタと その応用としての適用条件および検索モチベーション分析システム Dinh Trong Thang ${ }^{1}$ 岩井千妃呂 ${ }^{1}$ 大西一貫 ${ }^{1}$ ${ }^{1}$ 株式会社アイレップ \{thang_dinh, iwai_chihiro, kazuhiro_onishi\}@irep.co.jp } \begin{abstract} インターネット広告におけるインターネットユー ザが検索したい情報単位での集計分析作業について 実現可否の事前予測を実現するため,クラスタリン グ結果に対する「価値のあるクラスタ」,およびそ のクラスタに基づくキーワード数を用いた適用可能条件を定義し,それらを活用した検索モチベーショ ン分析システムを提案する. 有効な結果が得られる かの事前判別が可能となることで,実務者の負荷が 減り,業務の高品質化につなげることができる. 広告グループ内キーワード数を用いた適用条件評価に おいて $70.9 \%$ の精度で事前に予測できることを確認 し,システムの実務適用における 5 人の実務者によ る有効性評価において,60\%の好意的な回答を得て いることから,提案システムの有効なデータ提示が 実現できていることを確認している. 改善するポイ ントをさらに追及し,より高度な細かいインターネ ットユーザ行動分析,豊かな広告コミュニケーショ ンの実現を目指す。 \end{abstract ## 1 はじめに インターネットユーザが検索して得たい情報(以下,検索モチベーション)単位で集計や分析を行うことは効果的かつ効率的な広告配信を行う上で重要な分析工程であるが,手作業で行うには集計作業に時間がかかるため自動化のニーズが高まっている. 広告配信を行った際に媒体から提供されるレポート群の 1 つであるキーワードパフォーマンスレポートデータに対して,BERT および HDBSCAN を用いた検索モチベーションクラスタリング[1]では,試験的にいくつかの案件で業務利用可能であるという成果を得ているが,広告配信の規模や運用期間の長さによって十分な成果が得られない場合も観測されており,多数の案件を運営する上で適用可能かどうかを事前に予測することは運用上重要な課題となっている。クラスタリングはキーワードの種類や数に よって出力が大きく異なることから,キーワードを予め分析することで適用可能かどうかを事前に予測することは可能である. 適用可能かどうかを判定するために「価值のあるクラスタ(以下,価値クラスタ)」を定義し,その活用例として株式会社アイレップにおける適用可能条件を導き,業務に適したアプリケーションとして検索モチベーション分析システムを提案する。より深い分析をシステム化することで手作業の負担が少なく,これまで深い分析を諦めなければいけなかつた時間的猶予のない状況下でも安定した分析が行えるようになり,マーケターはさらに前進的なマーケティング戦略を立案することに集中できる. Google Ads の Keyword Performance Report を用いた実運用案件において,適用可能かどうかをキーワ ード数で判定するロジックについて,価值のあるクラスタに基づいたデータセットに対する適用条件の精度を評価する.システムの提示が適切であるかどうかは 5 名の専門家に対する使用感アンケートを取り,評価する。 適用可能かどうかを判別する判別条件と業務が利用しやすいデータ構造に整理し表示する検索モチベ ーション分析システムについて 2 で述べ,適用可能判定の精度評価実験を 3 で紹介し,システムの実務者によるアンケート評価実験を 4 に示す. ## 2 価値クラスタの定義および ## 検索モチベーション分析システム ## 2. 1 価値クラスタの定義と適用条件 検索モチベーションクラスタリングを実際の業務に適用する際,データの連携やアカウントの発行手続きなどを通して処理が行われるため,試験的に適用するには処理に時間がかかることが多い. 特に広 告配信の案件を複数持っているような実務者にとって, 複数の案件についてそれぞれが適用可能かどうかを実際にクラスタリングシステムの出力を見てから個別判断する状況では負担が大きいため, 分析する前に適用可能かどうかを予測することは極めて重要な課題である. 検索モチベーションクラスタリングは既に配信されている実績データの出稿時に設定されたキーワー ドに対して行うため, キーワード数から分析に十分に耐えるデータを生成できるかどうかを判定して実務者に前情報として提示できる. 業務上分析対象として有効なクラスタを価値のあるクラスタとみなし,3つ以上のキーワードを含み形態素解析で共通する単語がないクラスタを価値のあるクラスタ(以下,価値クラスタ)とする。価値クラスタの定義を利用して検索モチベーションクラスタリングの業務適用条件を次のように定義することができる. 「適用可能」の広告グループは広告グルー プの中に価値クラスタが 1 つ以上含まれている広告グループ 「適用不可」のグループは広告グループの中に価値クラスタが含まれてない広告グル ープ 価値クラスタが 3 つ以上のキーワードで構成される理由は人の解釈性によるもので,2つのキーワードだけでは互いに反する語であったり,セマンティックにかけ離れたキーワードで構成されてしまったりする場合, 人の解釈が極めて難しいクラスタとなってしまう.より人の解釈性を上げるためには 3 つのキーワードが最低限必要となるため, 価値クラスタは3つ以上のキーワードで構成されている. 価値クラスタが 1 つだけある場合でも「実務者が新しくクラスタを発見できること」などのメリットが生じる可能性があり, 複数の価値クラスタが含まれている場合でもこのメリットは生じる. したがって, 適用条件として価値クラスタが 1 つ以上含まれていることは「適用可能」という判断が妥当である. 価値クラスタが 1 つも含まれていない場合はメリットが発生しないことから, 適用条件の最小条件は価値クラスタが 1 含まれている事である. 価値クラスタの存在確率はキーワード数と相関があるため, 価値クラスタの存在に基づいた適用可能判定はキーワード数を用いて予測可能である. ## 2. 2 検索モチベーション分析システム 広告配信で運用されるアカウントの構造は, 事前にクライアントの合意を得た設計で構築されているが,運用期間が長くなるにつれて設計当初の構成とは異なる粒度(トレンドやインターネットユーザのニーズなど)で分析・集計したいという要求は発生しやすく, 幅広い戦略を行うほどアカウント構造は大きくなっていくため都度分析を手動で行うことが困難になっていく.この集計分析を自動化することで安定した分析が可能となり実行コストが低減されるが,システムは実務者が管理しやすい粒度でデー 夕を管理する必要がある。 実務者が広告のキャンペーン情報とクラスタリングのパラメータを入力してから, 配信実績の画面が表示されるまでのフローを図 1 に示す. 前処理プロセスとして配信実績レポートを取得し,キーワードデータの中に含まれている媒体指定フォーマットの特殊記号や余分なスペースを削除するなどのキーワ ードクレンジングを行い,キーワード数の情報からロジスティック回帰で適用可能判定を行い, 「適用可能」と判定されたデータ内のキーワード群を[1] と同様に BERT,HDBSCANを通して検索モチベー 図 1 実務者の入力から表示までの流れ ションクラスタリングを行う. 適用不可能だった場合はその旨の通知を画面上に提示する。 集計プロセスではキャンペーン単位で生成されたクラスタについて, 広告運用時の運用粒度である広告グループごとの実績として集計し, 結果を実績表と円グラフと散布図で可視化する. 実績表は広告グループ単位で表示され, システムは既存の実績表にクラスタ番号を付与して表示することで,実務者はこれまでの作業で見慣れているフォーマットから大きく変わることなくデータを分析することが可能となる. クラスタ番号単位での集計結果を同時に提示することで,実務者はこれまで手作業で行っていた「インターネットユーザがなぜ検索しているのか,知りたい情報やモチベーションでクラスタリングした際の費用対効果」などを矢庭に確認することができる. システムは同時にクラスタ単位の円グラフ,インプレッション数—クリック数散布図,およびクリック数—コンバージョン数散布図を出力し,実務者は円グラフから各クラスタの実績比を把握し,散布図で各クラスタ間の相対的なパフォーマンスの比較を視覚的に分析することができる.クラスタ内に含まれている語句から, マーケティングファネルの分析,検索モチベーション動向の探索,各検索モチベーションのパフォーマンスの比較から, 配信強化の必要性や LP 再設計の必要性を検討し, 広告運用に活かすことができる. 検索モチベーションクラスタリングの入力はキー ワード数がある程度の規模が必要であることから広告キャンペーンのキーワード一覧を対象とするため, クラスタリング出力そのものは下位レイヤーである広告グループの構造が破壊された形でクラスタリングされている.通常,広告グループは事前にクライアントの意向に沿って構築された意味のあるまとまりであるため, システムの出力を直接業務に使用すると,実務者がそのクラスタを再度広告グルー プに落とし込まなければならないという課題が生じる.そこで,システムはあらかじめキーワードに広告グループ ID を紐づけた形で管理し,クラスタリングした結果を広告グループ単位に分割, 広告グル ープ内での検索モチベーションクラスタリングを集計することでこの課題を解決し, 実務者の理解を助ける. クラスタの観点次第では異なるクラスタに含まれていると都合が良いキーワードが存在しているため,システムは軽微な修正をドラッグ&ドロップのようなコストの低い操作で実現する UI を実装す ることにより,実務者が理解しやすい出力を得ることができる. ## 32022 年の全実績を用いた適用可能判定の精度評価 ロジスティック回帰を用いて予測する適用可能判定について 2022 年にキーワード数が 3 以上の 49 , 795 件の広告グループから 233 件の広告グループをランダムに抽出し,表 1 に示すデータセットとして分割し,学習と検証を行う。 表 1 ロジスティック回帰の学習と検証セット & 58 & 55 \\ 49,795 件の広告グループについて 95\%信頼区間の許容誤差 $10 \%$ かつ回答比率 0.5 とする場合の統計的な有意性が確認できる数は 96 であり,検証セットの広告グループ数 117 は十分な量である. このデー タに対して価值クラスタが存在する広告グループのラベルを「1」(適用可能),価値クラスタがない広告グループのラベルを「0」(適用不可能)としてデータセットを作成し,ロジスティック回帰は広告グループのキーワード数から適用可能かどうかのラベルを予測する。 表 2 ロジスティック回帰の学習結果 表 2 に示す通り正答率は $70.9 \%$ であり,キーワー ド数に基づいた広告グループの適用可能の判別が十分に機能している事を確認する。 $y$ は適用可能の確率と $x$ はキーワード数とする と, 学習したロジスティック回帰のモデルの数式は $y=\operatorname{sigmoid}(0.05 \times x-1.11)$ となる。適用可能の確率は 0.5 より高い場合, 広告グループは価値クラスタがあると同じ意味である. それに基づき,キーワード数の条件を見つけられ, $ \operatorname{sigmoid}(0.05 \times x-1.11) \geq 0.5 $ $\Leftrightarrow \frac{1}{1+e^{-(0.05 \times x-1.11)}} \geq 0.5$ $\Leftrightarrow 0.05 \times x-1.11 \geq 0$ $\Leftrightarrow x \geq 22.2$ を得る. 広告グループのキーワード数は 23 以上の場合, その広告グループに価値クラスタがある確率は 70.9\%であり,検索モチベーションクラスタリング適用可能の広告グループとする. クラスタリングを実施する前に適用可能の広告グループをキーワー ド数に基づいて予測でき, 実務者のシステム体験を向上できる. ## 45 名の実務者によるシステム利用 アンケート調査 Google Ads Keyword Performance Report $の 2022$ 年 01 月 2022 年 12 月までのデータ期間の中で 5 人のキャリアが十分に積まれた熟練の実務者がそれぞれ任意のデータ対象期間を区切ってシステムを利用し, 8 件のキャンペーンについて 2022 年 11 月 22 日~30 日までの 1 週間使用した上でシステムの有効性についてのアンケートを実施する,アンケートは選択形式と自由記述があり, 使用された質問と選択肢を表 3 , 回答の集計結果を表 4 にそれぞれ示す. 表 3 実務適用確認実験におけるアンケートで提示された質問と選択し \\ 表 4 実務者 5 名による回答集計結果 検索モチベーションで実績集計は業務上に必要と答えた回答は $60 \%$ となっている.「いいえ」と回答した実務者の自由記述の中には「作業自体は必要だと感じています. ただ,私が自分で構築するアカウントについては,そもそもモチベーションごとに広告グループをわけるため, 広告グループ内のキー ワードでクラスタリングする意味はそこまで感じられなかった.」と,広告グループの整理が行き届いているため好意的な回答に結びつかない案件も存在している事を確認している。一方で,「はい」と回答した実務者からは「システム自体は簡潔で使いやすかったです. 各クラスタの特徴がよりわかりやすくなれば,散布図などは分析に活用できそうだと思います.」と, システムの提示が有効であることを確認している. 実験に使用したシステムに対する UI/UX の改善要求はいくつか自由記述の中でも見られ, 「散布図は各自カスタマイズで指標を選択できるようにすればよりよいかと思いました. 」などの声もあり,実装するシステムは改善する必要があるが,単純にクラスタリングした結果をそのまま実務者に提示するよりも有効なデータ提示が実現できていることを確認する. ## 5 おわりに 価值クラスタ数 1 以上であれば適用可能とした時, 広告グループ内キーワード数を用いた適用判定評価において $70.9 \%$ の精度で適用可能の広告グルー プを事前に予測できることを確認し,システムの実務適用における 5 人の実務者による有効性評価において, $60 \%$ の好意的な評価を確認し,提案システムの実装は改善の余地があるもののクラスタリング結果をそのまま提示するより有効なデータ提示が実現できていることを確認している. 価值クラスタを定義することで判別が一定に定まり, 事前判別が難しかった適用判定の予測が可能となり, マーケティングの戦略立案への注力がより行えることによる業務の高品質化につなげることができる. 改善するポイントをさらに追及し,インターネットユーザの検索モチベーションの活用を広げることで, より高度な細かいインターネットユーザ行動分析や豊かな広告コミュニケーションの実現を目指于. ## 6 参考文献 1. BERT 及び HDBSCAN を用いた検索連動型広告における検索モチベーションに基づくキーワードクラスタリングシステム. ThangDinh, 岩井千妃呂, 大西一貫. 日本: 情報処理学会第 84 回全国大会, 2022 .
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A4-1.pdf
# Contrastive Learning を利用した類似特許検索 星野雄毅 ${ }^{1}$ 内海祥雅 2 中田和秀 1 1 東京工業大学工学院 2 楽天グループ株式会社 [email protected] [email protected] ## 概要 近年,知的財産の管理は社会にとって大きな役割を担っている.特に,特許は毎年 30 万件を超える出願があり,膨大な量の特許を処理する上で多くの課題が存在する。そこで,本研究では特許を扱う上で非常に重要な類似特許検索タスクについて, Contrastive Learning の応用を考えた. この際重要な教師データ並びに Hard Negative の取得方法について提案を行った. さらに,実際の特許データを用いた数値実験を行い,その効果を検証した。 ## 1 はじめに ## 1.1 類似特許検索の必要性 特許とは知的財産の一つで,発明を保護するものである. 特許は各企業の技術を守るうえで重要な役割を果たしている。また,特許の審査を厳密かつ素早く行うことは特許制度を機能させる上で非常に重要である. したがって, 特許処理技術は, 企業側と特許庁側の両面で有用である. 特許に関わる様々なタスクの中でも,類似特許検索は企業と特許庁の双方にとって非常に需要の高いタスクである。まず,特許庁にとっては審査を行う上で類似特許検索を必ず行わなければならない. 現在,類似特許検索は人手で行われており,特定の単語が含まれているかどうかや,国際特許分類などを用いて絞り込みながら行っている. しかし, 適切な類似特許を見つけるのは難しく,審査に膨大な時間がかかる要因の一つとなっている. また,類似特許検索は各技術を有する企業も頻繁に実施することになる。なぜなら,各企業は自社特許が侵害されていないか監視したり,自社の新技術が他企業の特許を侵害しないか確認する必要があるからである. さらに, 新たに開発を行ったり, 特許を申請する際にも類似特許を調査することで,他社特許との比較した優位性を明らかにする必要が ある. ## 1.2 IPC とは 特許には,国際特許分類 (以下 IPC) という,国際的に統一された分類が付与される. IPC は技術分野を表す番号といえる。IPCには 2 つの特徵があり,階層構造を持っていることと, 一つの特許に複数与えられることが挙げられる。 図 1 IPC の例 IPC は「セクション」,「クラス」,「サブクラス」,「メイングループ」,「サブグループ」の5つの要素から構成されており, 階層構造を持っている. 例えば図 1 の場合, セクションに当たる「B」は「処理操作」という大まかな分類を表している. 次にクラスの「43」はセクションの「B」と合わせてより細かい 「筆記用または製図用の器具」を表し, 最後の「サブグループ」まで合わせると,「字消し用具,消しゴム,または字消し装置」という細かい分類にまで分けられる。このように,階層構造を持っていることで,様々な粒度で分野の絞り込みを行える。IPC は全部で約 7 万通り存在しており, 多種多様な分野を表現可能である. 次に,IPC は一つの特許に複数与えられる。例えば,消しゴム付き鉛筆を発明したとすると,鉛筆に関係する IPC と消しゴムに関する IPC の両方が付与されることとなる. ## 2 関連研究 ## 2.1 Contrastive Learning Contrastive Learning[1] とは, 画像処理から発展してきた表現べクトルを学習する手法である. Contrastive Learning の最も特徴的な点としては, データ間の関連性から学習を進めることにある。具体的には,データ間について似ているものは近く,異なるものは遠くに学習を進めていく. Contrastive Learning を実行するうえで,通常負例としては,ミニバッチ内の他サンプルを用いることが多い. しかし,場合によっては自明な負例ばかりになってしまい,学習が不十分になることがある. そこで,予測が難しいと想定される負例を Hard Negative として明示的に入力して学習する場合もある. 図 2 SimCSE の学習方法. 原著 [2] より引用 SimCSE[2] は Contrastive Learning を自然言語に応用する方法である. 図 2 のように,意味的な従属関係のある文を近くに,そうでないものを遠くに学習するものである.例えば,「2匹の犬が走っている」 (“Two dogs are running.”) という文に対して,意味的な従属関係がある文とは「外に動物がいる」(“There are animals outdoors.”) といった文が対応する.ここで, 教師あり SimCSE の特徴として, Hard Negative には意味的に排反なデータ [3] を使用していることが挙げられる。排反な意味のデータとは,「ペットがソファに座っている」("The pets are siting on a couch.”) というように,同時に起こりえない 2 つの事象のことである. ## 2.2 特許への機械学習の応用 特許に対して機械学習技術を応用する研究はいくつか行われている. まず,古典的な機械学習手法を用いて IPC や自作ラベルの予測などが行われている [4][5]. また,深層学習を用いた研究では,BERTを特許データでファインチューニングし, IPC のサブクラスの予測が行われている [6]. さらに,IPC 予測 について,入力方法とデコーダに工夫を加えることで精度の改善も行われている [7]. 機械学習手法を用いて類似特許検索するという研究はいくつか行われている. まず,Word2Vec を用いて,特許の類似度が比較された [8]. また,深層学習ベースだと,LSTM ベースのエンコーダを用いた類似特許検索モデルも作成された [9]. さらに, LSTM ベースのエンコーダにグラフ情報などを加え,精度の向上も行われた [10]. しかし,これらはいずれも自作でラベリングした類似特許データに対して学習,評価を行っており,これらの手法は公開されている情報だけでは応用できない. したがって, 日本語の特許で公開された情報のみを用いて類似特許検索を行う研究はいまだされていない。 ## 3 提案手法 ## 3.1 引用情報の利用 類似特許検索を行う上では何をもって,類似特許とみなすのかという問題が存在する。この,「類似した特許」として適したデータとしては,無効審判請求及び,異議申し立てのデータが挙げられる. これらは,実際に厳密に時間をかけて審査されたものであり,その際に参照された特許は確実に類似特許とみなすことができる。一方で,これらのデータは学習データとして用いるにはデータ数が十分でないという課題がある. そこで,本研究では特許の引用情報に注目し,引用されている特許を類似特許とみなすこととした。 これは,類似した特許のすべてを網羅しているとは言えないものの,引用された特許は類似した特許であるとみなすことができる.さらに,引用特許はほとんどの特許に対して存在しており, 日本語の特許情報からも取得可能である. したがって,引用情報を類似特許の正解データと仮定し,学習及び評価をすることを考える。 ここで,引用は各特許に対して複数存在していることに注意が必要である. そこで,各特許に対して 1つの正例をランダムで取得するようにした. アルゴリズムは Algorithm 1 のようになっており,4行目で引用特許の集合からランダムに選択をしている. ただし,B はミニバッチで学習したい特許の ID 集合, $I_{b}$ は特許の ID $b$ に対応する特許, $P(i)$ は特許 $i$ に引用されている特許集合である. ## 4 数値実験 ## 4.1 実験設定 Hard Negative のサンプリング方法を提案する. つまり,同じ IPC を持つものは分野が近いため,Hard Negative として学習を進める. ただし, IPC は一つの特許に複数付与されいるため,各分野からバランスよく Hard Negativeを作成することにする. そのため,分野をランダムに選択し,その中の特許から Hard Negative として使う特許を選択することを考えた。 また,IPC は階層構造を持っているため,様々な粒度の分野情報を包含している。 そのため,複数の階層に従ってサンプリングを実行することで,より良い Hard Negative を作成することができるのではないかと考えた。 以上の考えのもと,提案するアルゴリズムの疑似コードは Algorithm 2 のようになっている. ただし, $N(i p c)$ は $i p c$ が付与されている特許集合, $H$ はクラスやメイングループなどの対象としたい階層の集合で,IPC $C_{h}(i)$ は階層 $h$ における特許 $i$ に付与されている IPC の集合である. 負例は 5 から 7 行目で取得しており,それぞれ IPC の階層の選択,階層内の IPC の選択,特許の選択の 3 段階で実行している. このように確率的に様々な分野からのサンプリングを実行することで,様々な粒度の分野において近いかどうか判別できるようなモデルを作成可能である. ## 4.1.1 データセット 今回データセットは有料の特許データ取得サービスを通じて入手した。学習,検証データは,2016/07/01~2016/12/31 に国内で出願された特許(104078 件)をすべて取得し,これらを検索元のデータとした.学習検証の分割は検索元のデー タをランダムに 8:2 で分割した. テストデータは 2017/01/01~2017/01/15 までに国内で出願された特許(4348 件)を用い,それらが引用した特許(13123 件)を検索対象の特許とした。 ## 4.1.2 事前学習 本モデルの入力として,特許の技術内容を記した部分である「請求項」のテキストを用いる。一方で,請求項は長文で,公開されている事前学習済みモデルで良く用いられている $\mathrm{MeCab}[11]$ などの分かち書きをべースとしたトークナイザーでは多くの特許で入力トークンが膨大になってしまう.そこで, トークン数を減らすために特許で学習した Unigram Language Modeling[12] を用いたトークナイザーを作成した. これによって,入力できる最大のトークン数である 1024 トークン以内に全文が収まらない特許の割合は, $32 \%$ 程度から $15 \%$ 程度まで減少した。 表 1 学習モデルによる比較 一方で,トークナイザーを自作したため,既存の事前学習済みモデルを適応することはできないため,BERT[13] の事前学習を実施した. モデルサイズは,学習環境と事前学習で長文に対して学習したい点も考え,512 次元 8head 94 層からなるモデルとした. ## 4.1.3 評価指標 本提案手法の目的は,類似度が高い特許を業務を行う人に推薦することである。そこで評価方法としては,各特許の埋め込みベクトルのコサイン類似度が高かった順に検索対象の特許を並び替えて,引用した特許が上位に存在するかを評価した. 評価指標は,一般に推薦システムで用いられる Precision@k, Recall@k, NDCG @k の 3 つの評価指標を用いた [14]. ## 4.1.4 比較手法 比較手法として,モデルそのものの精度を検証するベースラインをいくつか用意した. まず,単純な機械学習モデルとして tf-idf を用いた単語モデルのコサイン類似度を用いたものを用いた。また, SimCSE の学習の必要性を検証するために BERT の埋め込みをそのまま用いたものと比較した。次に, ハードネガティブのサンプリング方法についていくつかの設定で行った.まず,ハードネガティブを全く用いず,バッチ内の他サンプルのみを負例として用いたものを作成した. 次に,引用された特許の中で引用されていた特許のうち,引用されていなかったものをハードネガティブとして使用してモデルを学習した. さらに, 単一階層での IPC を用いた Hard Negative との比較を行うため, クラスとサブクラスそれぞれ単独の階層で同一 IPC を保有する特許を Hard Negative としたものを学習した. 最後に提案手法として,クラスとサブクラスの両方の階層を用いたものを作成した. ## 4.2 実験結果 結果は, 表1のようになった. ただし, NDCG@inf は全データに対してNDCG を算出したものである. まず,tf-idf の類似度と比較して,事前学習済み BERT の埋め込みを用いた類似度はいずれの評価指標でもわずかに高くなっていることがわかる. 更に,教師あり学習を実行することで,いずれの評価指標でも大きく改善していることがわかる. また, Hard Negative について,引用の引用を用いたものは評価がむしろ落ちていることがわかる。これは,引用の引用では意味が近すぎるために Hard Negative としても難しすぎることが原因だと考えられる。一方,IPCを用いた Hard Negative は単一の階層を用いたものよりも,階層を増やすことで更に精度が改善しており,本提案手法が最も良い結果となった。 ## 5 今後の課題 今後の課題としては,大きく二つ存在する. まず,請求項全文の入力である. 本研究では,自作トークナイザーの作成によって入力トークンを減らすことを行ったが,15\%程度の特許は全文入力することができていない。近年ではメモリ効率の良いエンコーダについても研究が進んでいるため,これらの応用によって対応できる可能性がある. 次に,専門用語の入力である.実験によってうまく予測できなかった文書の内容を確認すると,分野特有の専門用語が含まれる特許を選択できていない場合があった. したがって,専門用語をトークンに含めることでその特徴をとらえやすくなり,より精度の良い学習が行える可能性がある. ## 謝辞 本研究を実施するにあたり,データ及び研究環境を提供してくださいました楽天株式会社の皆様, とりわけ知的財産部の皆様に深く感謝を申し上げます。 ## 参考文献 [1] Prannay Khosla, Piotr Teterwak, Chen Wang, Aaron Sarna, Yonglong Tian, Phillip Isola, Aaron Maschinot, Ce Liu, and Dilip Krishnan. Supervised contrastive learning. In H. Larochelle, M. Ranzato, R. Hadsell, M.F. Balcan, and H. Lin, editors, Advances in Neural Information Processing Systems, Vol. 33, pp. 18661-18673. Curran Associates, Inc., 2020. [2] Tianyu Gao, Xingcheng Yao, and Danqi Chen. Simcse: Simple contrastive learning of sentence embeddings. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 68946910, 2021. [3] Samuel R. Bowman, Gabor Angeli, Christopher Potts, and Christopher D. Manning. A large annotated corpus for learning natural language inference. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 632-642, Lisbon, Portugal, September 2015. Association for Computational Linguistics. [4] C. J. Fall, A. Törcsvári, K. Benzineb, and G. Karetka. Automated categorization in the international patent classification. SIGIR Forum, Vol. 37, No. 1, p. 10-25, April 2003. [5] Mattyws F. Grawe, Claudia A. Martins, and Andreia G. Bonfante. Automated patent classification using word embedding. In 2017 16th IEEE International Conference on Machine Learning and Applications (ICMLA), pp. 408-411, 2017. [6] Jieh-Sheng Lee and Jieh Hsiang. Patent classification by fine-tuning bert language model. World Patent Information, Vol. 61, p. 101965, 2020 [7] Yuki Hoshino, Yoshimasa Utsumi, Yoshiro Matsuda, Yoshitoshi Tanaka, and Kazuhide Nakata. Ipc prediction of patent documents using neural network with attention for hierarchical structure. Research Square preprint DOI:10.21203/rs.3.rs-1164669/v1, 2022. [8] Hidir Aras, Rima Türker, Dieter Geiss, Max Milbradt, and Harald Sack. Get your hands dirty: Evaluating word2vec models for patent data. In SEMANTiCS Posters\&Demos, 2018. [9] Aaron Abood and Dave Feltenberger. Automated patent landscaping. Artificial Intelligence and Law, Vol. 26, No. 2, pp. 103-125, 2018. [10] Seokkyu Choi, Hyeonju Lee, Eunjeong Park, and Sungchul Choi. Deep learning for patent landscaping using transformer and graph embedding. Technological Forecasting and Social Change, Vol. 175, p. 121413, 2022. [11] Toshinori Sato, Taiichi Hashimoto, and Manabu Okumura. Implementation of a word segmentation dictionary called mecab-ipadic-neologd and study on how to use it effectively for information retrieval (in japanese). In Proceedings of the Twenty-three Annual Meeting of the Association for Natural Language Processing, pp. NLP2017-B6-1. The Association for Natural Language Processing, 2017. [12] Taku Kudo. Subword regularization: Improving neural network translation models with multiple subword candidates. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 66-75, 2018. [13] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [14] Folasade Olubusola Isinkaye, Yetunde O Folajimi, and Bolande Adefowoke Ojokoh. Recommendation systems: Principles, methods and evaluation. Egyptian informatics journal, Vol. 16, No. 3, pp. 261-273, 2015.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A4-2.pdf
# FAQ 検索における言い換え生成を利用したデータ拡張手法 曹羽隆 1 小川泰弘 ${ }^{1,2}$ 外山勝彦 1 1 名古屋大学大学院情報学研究科 2 名古屋大学情報基盤センター cao.yulong.d0@s . mail . nagoya-u.ac.jp \{yasuhiro, toyama\}@is.nagoya-u.ac.jp ## 概要 FAQ 検索タスクは,ユーザクエリに対して,デー タセットの中からそのクエリに関連する QA ペア (質問文と回答文のペア)を出力するタスクである.クエリと QA ペアの関連性を捉えるために, BERT [1] などの自然言語モデルを適用する手法が提案されてきたが,ファインチューニング用の学習データが足りないという問題点がある. 本研究は, QA ペアの質問文の言い換えを生成することにより,学習データを拡張する手法を提案する。また, LocalgovFAQ データセット [2] を用いて学習データを拡張し,評価実験を行った。 ## 1 はじめに Web の FAQ ページは,ユーザの疑問が解決するように,よくある質問(FAQ)を参照するためのぺー ジである。しかし,ページに記載された FAQ の件数が少ない場合,ユーザが知りたい情報が掲載されていない可能性がある. 逆に, FAQ の件数が多い場合,知りたい情報を発見するまでの時間が長くなるという問題がある. よって,ユーザが回答をより便利に探せるようにするため,検索機能が必要になる. FAQ 検索は,自然言語によるクエリに応答するための効率的な方法を提供する。 すなわち,ユーザクエリが与えられた際に,データセットからそのクエリに関連する QA ペアを抽出する. FAQ 検索は近年,企業のチャットボットや,製品についての質問応答,顧客向けの技術サポートなどでよく用いられる。 しかし,特定のドメインに対応するためのデー タセットは,そのデータ量が十分でない. 例えば, LocalgovFAQ データセット [2]には, 尼崎市役所の Web サイトに掲載されている QA ペアと尼崎市役所 に関連するかについてのラベルがついている. デー タセットに含まれている QA ペアは 1,786 対,クエリは 784 個だけである. 本研究では, LocalgovFAQデータセットに対して,言い換え生成を利用するデータ拡張手法を提案し, その有効性を検証する。 ## 2 先行研究 Sakata ら [2] は,教師なし情報検索システム TSUBAKIを利用して,クエリと質問文の類似性を計算した。一方,クエリと回答文の関連性は, BERT モデルを使用して計算した.また,TSUBAKI と BERT を組み合わせたシステムを構築した。しかし, LocalgovFAQデータセットのデータ量はファインチューニングの実施のためには十分でないため,尼崎市以外の地方自治体の Web サイトに掲載されている QAペア 2 万件を収集して使用した. Mass ら [3] は,三つのリランカーによる教師なし手法を提案した。ユーザクエリ一質問文とユーザクエリ一回答文の間で BERT のファインチューニングを行い,GPT-2 [4] モデルを用いて質問文の言い換えを生成することにより,既存の教師あり手法と同等程度の性能があることを示した。 Sourav ら [5] は,TF-IDF スコアを利用して質問文の代表的なキーワードを取得し,それに基づいてユーザクエリと QA ペアの類似度を計算する手法を提案した. さらに,ニューラルネットワークを追加した変種を提案し,高性能の FAQ 検索を実現した。 堂坂ら [6] は,Sentence-BERT [7] モデルを使用し, BERT モデルをファインチューニングすることにより,類似文検索のための良質な文べクトルを生成した. その結果,類似文検索タスクで高い性能を示した. ## 3 TSUBAKI+BERT モデル 本研究は Sakata らが提案した TSUBAKI+BERT モデル [2]を利用するため,その詳細について以下に 述べる. ## 3.1 TSUBAKI による q-Q 類似性 TSUBAKI [8] を利用してユーザクエリ $q$ と QA ぺアの質問文 $Q$ の類似度を計算する。 TSUBAKI は, OKAPI BM25 [9] をべースにした教師なし検索エンジンであり,単語だけでなく文の依存構造も考慮して,正確な検索を提供する. 柔軟なマッチングを実現するために,辞書や Webコーパスから自動的に抽出された同義語も使用する。ここでは,各 $\mathrm{QA}$ ぺアの質問文 $Q$ を文書と見なし, クエリ $q$ と質問文 $Q$ の間の類似度を計算する。 ## 3.2 BERT による q-A 関連性 BERT を利用してユーザクエリ $q$ と回答文 $A$ の関連度を計算する. 学習データとしてクエリ $q$ の代わりに質問文 $Q$ を使用する。 データセットの各 $\mathrm{QA}$ ペアを $\left(Q_{1}, A_{1}\right),\left(Q_{2}, A_{2}\right), \ldots$, $\left(Q_{M}, A_{M}\right)$ とする. 学習は全 $\mathrm{QA}$ ペア $\left(Q_{j}, A_{j}\right)$ を正例とし、負例は $Q_{j}$ に対して $A_{j}$ 以外の回答文からランダムに選択し, 正例と負例を学習データとして BERT により二值分類する. 具体的には, $Q$ と $A$ の関連度を $\operatorname{score}(Q, A)$ とすると, 正例 $\left(Q_{j}, A_{j}\right)$ に対しては $\operatorname{score}\left(Q_{j}, A_{j}\right)$ が 1 になるように,負例 $\left(Q_{j}, A_{j^{\prime}}\right)$ $\left(j^{\prime} \neq j\right)$ に対しては $\operatorname{score}\left(Q_{j}, A_{j^{\prime}}\right)$ が 0 になるように学習する。 検索時は,ユーザクエリ $q$ とすべての $\mathrm{QA}$ ペアの回答文 $A_{j}$ の関連度 $\operatorname{score}\left(q, A_{j}\right)(j=1, \ldots, M)$ を計算し,その上位を検索結果とする。 ## 3.3 TSUBAKI と BERT の組み合わせ 柔軟なマッチングを実現するために,TSUBAKI による q-Q 類似性と BERT による q-A 関連性を組み合わせている. TSUBAKI のスコアが高い場合は,クエリと質問文の間で重複している語が多く, 正解である可能性 てランキングし, 他の $\mathrm{QA}$ ペアはスコアを単純に加算して統合する。 具体的には,TSUBAKIによる検索結果上位 10 件の中にスコアが閾値 $\alpha$ 以上のものがあり,それが BERT によるスコアの上位 10 件にも含まれている場合,優先的に 1 位から順にランキングし,残りの候補は TSUBAKI と BERT のスコアを単純に加算し, ランキングする.スコア上位を検索結果とする。 図1言い換え生成(手法 1) 図 2 言い換え生成(手法 2) ## 4 提案手法 本研究では, BERT のファインチューニング用の学習データ不足の問題に注目している. Sakata ら [2] は地方自治体 21 市の Webサイトに掲載されている $\mathrm{QA}$ ペア計 2 万件を収集して,ファインチュー ニング用のデータに追加した. しかし, 地方自治体から収集したデータ数は有限であり,また専門家によるデータ作成は手間がかかる。したがって, 本研究では言語モデルを使用し,QA ペアの質問文に対して,その言い換えを生成する手法を提案する。 ## 4.1 手法 1 日本語言い換えデータセットは利用できるものが少ないため,手法 1 を提案する. この手法では,質問文をまず英訳し,英語事前学習モデル T5 で言い換えを作成し [10],最後にそれを和訳する.生成の流れを図 1 に示す. ここで,英語事前学習済み $\mathrm{T} 5$ モデルのファインチューニングは英語データセット Quora Question Pairs [11]を用いた. Quora Question Pairs には質問応答 Web サイト Quora から収集したユーザ質問約 40 万行が含まれる. 各行は, 質問文 2 文から構成され,この 2 文は言い換えであるか否かのラベルがついている. ## 4.2 手法 2 手法 1 では言い換え生成の過程で機械翻訳 2 回を行うため,重複した言い換えが作成されることがある. そこで,手法 2 を提案する。この手法では, 英語データセット Quora Question Pairsをまず和訳し,和訳データを用いて日本語事前学習済み $\mathrm{T} 5$ のファインチューニングを行う.このファインチューニング済みの $\mathrm{T} 5$ で言い換えを作成する. 生成の流れを図 2 に示す。 表 1 BERT のハイパーパラメータ ## 4.3 言い換えによる学習データ拡張 手法 1 と手法 2 で得られた言い換えを別々に用いて,BERT のファインチューニング用の学習データを拡張する。 具体的には,ある質問文 $Q_{j}$ に対して, $N$ 個の言い換え $P_{i j}(i=1, \ldots, N)$ が得られたとする. そのとき, データ拡張前の正例 $\left(Q_{j}, A_{j}\right)$ と負例 $\left(Q_{j}, A_{j^{\prime}}\right)$ に対して, 正例 $\left(P_{i j}, A_{j}\right)$ と負例 $\left(P_{i j}, A_{j^{\prime}}\right)$ を作成する.これらを BERT のファインチューニング用の学習データとして追加する。 また, 正例に対しては score $\left(P_{i j}, A_{j}\right)$ が 1 になるように,負例に対しては $\operatorname{score}\left(P_{i j}, A_{j^{\prime}}\right)$ が 0 になるように学習する. ## 5 実験 手法 1 と手法 2 の有効性を検証するために,評価実験を行った。 ## 5.1 実験設定 LocalgovFAQ データセットを用いて実験を行った. ベースラインとして,言い換えによるデータ拡張前のデータを使用するものとする.言い換え生成では,各質問文に対して,10文の言い換えを生成した.なお,BERT モデルと TSUBAKI+BERT モデルの評価指標は P@5,MAP,MRRを用いた。 BERT の事前学習には, 日本語 Wikipedia 事前学習済み [12]を使用した。ファインチューニングには,元々の $\mathrm{QA}$ ペア 1,786 対に言い換えで作成したデータを追加して用いた. 入力テキストは形態素解析器 Juman++ [13] を用いて, 形態素に分割した. 3.3 節で説明した TSUBAKI 優先統合の閾値 $\alpha$ は 0.3 とした.また,BERT モデルのハイパーパラメータの設定を表 1 に示す. ## 5.2 実験結果 言い換え生成では, 質問文 1,786 文の各文に対して,10 文の言い換えを生成し,重複文を削除した結果, 手法 1 では計 11,495 文が得られ, 手法 2 では計 16,789 文が得られた。 言い換えにより拡張したデータを用いた実表 2 言い換えにより拡張したデータを用いた実験結果 験結果を表 2 に示す.すべての手法において, TSUBAKI+BERT の結果は BERT より良い。これにより,TSUBAKI と BERT を組み合わせる手法の有効性を確認した.また,手法 1 と手法 2 はべースラインを上回り,言い換えを用いて学習データを拡張する手法の有効性を確認した。手法 1 と手法 2 の結果を比べると,手法 2 はわずかに上回っていることがわかる。手法 1 では,重複文が多く生成され,得られた拡張データは手法 2 より少ないことが原因であると考えられる。また,手法 1 と手法 2 はともに先行研究を上回ることができなかった. ## 5.3 考察 手法 1 と手法 2 は先行研究を上回ることができなかった. その原因としては,先行研究は他の地方自 回の手法 1 および手法 2 で生成した言い換えより多いことが考えられる.また,本研究の言い換え生成 い換えを考慮しなかったため,回答文の多様性が先行研究が使用した $\mathrm{QA}$ ペアよりも劣っていることが考えられる。 手法 1 と手法 2 で得られた言い換えについて考察する。手法 1 では,和訳前の英文の言い換えは異なりで 17,824 文あるが,和訳後の言い換えは異なりで 11,495 文であった. 手法 1 が重複文を生成した原因としては,言い換え生成の流れの中で機械翻訳を使用したためと考えられる。 また,手法 1 と手法 2 で得られた言い換えの分布を図 3 と図 4 にそれぞれ示す. 各図の横軸は各質問文に対する言い換えの数を表し,縦軸は言い換えの元になった質問文の数を表す。手法 1 では質問文 1 文あたりに 6 文 8 文程度の言い換えが得られ,手法 2 では質問文 1 文あたりに 9 文 10 文程度の言い換えが得られた。 この分布から,手法 1 では質問文 1 文あたり 10 文 1質問文あたりの言い換え文数 図 3 言い換えの分布(手法 1) 図4 言い換えの分布(手法 2) 以上の言い換えを生成しても,重複文があるため,実際に得られた言い換えは 6 文 8 文程度になると考えられる。よって,手法 1 では 10 文以上の言い換えを得ることが実際には難しいと考えられる。また,手法 2 は,手法 1 に対して重複文が比較的少ないため,手法 1 より多くの言い換えを得られた. また,手法 2 において,追加する言い換えの文数が与える影響を調べた. 手法 2 では, 16,789 文の言い換えが得られ,それらすべてを追加して学習デー タを拡張した.ここでは,より少ない文数を追加した場合と比較することにより,その有効性を検証する. 具体的には,手法 2 で得られた言い換えから,質問文 1 文あたり 5 文の言い換えをランダムに抽出して追加した場合(5 文拡張)と,全部の言い換えを追加した場合(10 文拡張)を比較した。結果を表 3 に示す. ここで,質問文 1 文あたり 5 文としたのは,図 4 に示すように,質問文 1 文あたり少なくとも6文の言い換えが得られたからである. 表 3 により,言い換えを 5 文だけ追加した場合と全部を追加した場合の間で結果に差がほとんどなく, 単純に言い換え文数を増加しても,結果の改善には貢献しないことが分かった.表 3 異なる言い換え文数で拡張したデータを用いた結果 ## 6 まとめと今後の課題 本研究では FAQ 検索における言い換え生成を利用したデータ拡張手法を提案した。手法 1 では言い換え生成において機械翻訳 2 回を使用したので,重複文が多く得られた. 手法 2 では英語データセット Quora Question Pairs を和訳することで,より多くの言い換えを得られ,手法 1 をわずかに上回った. 今後の課題としては,質問文の言い換えだけでなく,回答文の言い換えも考慮することにより,回答文の多様性を拡張することが考えられる。 ## 謝辞 本研究は JSPS 科研費 22 H03901 の助成を受けたものである. ## 参考文献 [1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [2] Wataru Sakata, Tomohide Shibata, Ribeka Tanaka, and Sadao Kurohashi. FAQ retrieval using query-question similarity and bert-based query-answer relevance. In Proceedings of the 42nd International ACM SIGIR Conference on Research and Development in Information Retrieval, pp. 1113-1116, 2019. [3] Yosi Mass, Boaz Carmeli, Haggai Roitman, and David Konopnicki. Unsupervised FAQ retrieval with question generation and bert. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 807-812, 2020. [4] Alec Radford, Karthik Narasimhan, Tim Salimans, Ilya Sutskever, et al. Improving language understanding by generative pre-training. Technical report, OpenAI, 2018. [5] Sourav Dutta, Haytham Assem, and Edward Burgin. Sequence-to-sequence learning on keywords for efficient FAQ retrieval. arXiv preprint arXiv:2108.10019, 2021. [6] 堂坂浩二, 金子和樹, 木村幸司, 伊東嗣功, 石井雅樹.生活保護業務支援のための質問応答システムの開発と評価. 第 21 回情報科学技術フォーラム講演論文集 (FIT2022), Vol. 21, No. 2, pp. 235-238, 2022. [7] Nils Reimers and Iryna Gurevych. Sentence-bert: Sentence embeddings using siamese bert-networks. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 3982-3992. Association for Computational Linguistics, November 2019. [8] Keiji Shinzato, Tomohide Shibata, Daisuke Kawahara, and Sadao Kurohashi. Tsubaki: An open search engine infrastructure for developing information access methodology. Journal of information processing, Vol. 20, No. 1, pp. 216-227, 2012. [9] Stephen E Robertson, Steve Walker, Susan Jones, Micheline M Hancock-Beaulieu, Mike Gatford, et al. Okapi at trec-3. Nist Special Publication Sp, Vol. 109, p. 109, 1995. [10] Hemant Palivela. Optimization of paraphrase generation and identification using language models in natural language processing. International Journal of Information Management Data Insights, Vol. 1, No. 2, p. 100025, 2021. [11] Iyer Shankar, Dandekar Nikhil, and Csernai Kornel. First quora dataset release: question pairs (2017). URL https://www.quora.com/q/quoradata/First- Quora-Dataset-Release-Question-Pairs, 2017. [12] 柴田知秀, 河原大輔, 黒橋禎夫. BERT による日本語構文解析の精度向上. 言語処理学会第 25 回年次大会発表論文集, pp. 205-208, 2019. [13] Arseny Tolmachev, Daisuke Kawahara, and Sadao Kurohashi. Juman++: A morphological analysis toolkit for scriptio continua. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 54-59, 2018.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A4-3.pdf
# 説明可能な検索ベースの文書分類手法の提案 中井優 ${ }^{1}$ 中野雄介 $^{1}$ 徳永優也 ${ }^{1}$ 上田亮 ${ }^{1}$ 谷中瞳 ${ }^{1}$ 1 東京大学 \{nakai-yu623, nakano-yusuke,yn-noob\}@g.ecc.u-tokyo.ac.jp \{ryoryoueda, hyanaka\}@is.s.u-tokyo.ac.jp ## 概要 現在,文書分類などの様々な自然言語処理のタスクにおいて,判断根拠が説明可能な手法の重要性が高まっている. 本研究では,分類に有効な文書を訓練事例や外部の知識コーパスから検索して利用する,検索べースの文書分類手法を提案する. 提案手法は,分類に利用した文書を出力することができ,文書分類に説明可能性を与える. 本論文では, AG News データセットを用いて学習・推論を行い, 分類精度・説明可能性の 2 つの側面から提案手法の有効性を検証した。実験の結果,知識コーパスを利用しない既存の大規模言語モデルと比べて,知識コーパスの検索結果を利用することによって精度が向上することを確認した.また,モデルが分類根拠として示す文書と分類対象の文書との文間類似度と,人手評価との間に有意な相関を確認することができた. ## 1 はじめに 自然言語処理のタスクに文書分類がある。文書分類とは,与えられた文書に対して事前に定義されたラベル群から適切なラベルを推定するタスクのことである. 文書分類を自動化するための技術は実社会でも広く活用されており,その社会実装に対するニーズも相まり,近年文書分類のためのニューラルネットワーク (NN) モデルが盛んに研究されている.他方で,NN モデルの推論機構はブラックボックス化されており,結果に対する判断根拠の不透明さが社会実装を妨げる課題となっている. このような不透明性を軽減するための一連の技術が,説明可能 Al (XAI) という研究トピックを形成している.説明可能 AI の一分野として,事例ベース XAI と呼ばれるものがある $[1,2,3]$. 事例べース XAI とは,評価データに対する $\mathrm{NN}$ モデルの予測において,その予測に最も影響を与えたであろう訓練事例を探ることで,予測における判断根拠を説明しようとする アプローチである. 本研究では,分類に有効な文書を訓練事例や外部の知識コーパスから検索して利用する,検索ベースの文書分類手法を新たに提案する.提案手法は,分類に利用した文書を出力することにより分類の根拠に説明可能性を与える. この検索ベースの手法は,訓練事例や外部の知識コーパスを直接参照することで文書分類の性能向上を図る手法であり,事例べー スXAI とは訓練事例の扱い方が異なるものの, 文書分類の根拠が説明可能であるという点で類似するアプローチであるといえる. 提案する NN モデルは Retriever と Classifier の $2 \supset$ のネットワークより構成される. Retriever は分類対象の文書に対して知識コーパス(以降では,検索対象の文書を総称して知識コーパスと呼ぶ)からその分類に有意な文書を検索・抽出し, Classifier は分類対象の文書と抽出した文書を用いて分類を行う.この新たに提案する検索ベースの文書分類モデルを検索ベース分類器 (Retrieval-based Classifier) と呼ぶ. 本論文では,ニュース記事の分類タスクのデータセットである AG News データセットを用いて学習・推論を行い, (i) 分類精度と (ii) 説明可能性という 2 つの側面から,提案手法の有効性を検証する.実験の結果,知識コーパスを利用しない既存の大規模言語モデルと比べて,知識コーパスの検索結果を利用することによって精度が向上することを確認した。 また,モデルが分類根拠として示す文書と分類対象の文書の文間類似度と,人手評価との間にも有意な相関を確認することができた。 ## 2 関連研究 自然言語処理の分野において,これまで説明可能 AIに関する様々な研究が行われてきた. 以下ではその中での本研究の位置付けを明らかにするとともに,提案手法のベースになるモデルである検索拡張言語モデルについて説明する。 ## 2.1 自然言語処理における説明可能 AI [4]によれば,説明可能 AI における説明の種類は,大きく分けて次の 2 つに分類される: - Post-Hoc : モデルの予測後に追加の操作を行って予測を説明する - Self-Explaining:モデルの予測過程から得られる情報によって予測を説明する 提案手法はモデルの予測過程で利用した文書を出力することによって文書分類の判断根拠が説明可能であることから, Self-Explaining な説明可能 AI として位置付けられる。 自然言語処理における Self-Explaining な説明可能 AI としては, Attention や First-derivative saliency などの特徴量の重要度から説明を導出する方法 $[5,6]$ が提案されている. これに対して,提案手法は分類に利用した文書を予測過程から出力できるため, 既存手法よりも直接的に文書分類の判断根拠を提示する手法である. ## 2.2 事例ベース XAI XAI の一分野として,事例ベース XAI というものがある.事例ベース XAI とは,評価データに対する $\mathrm{NN}$ モデルの予測において,その予測に最も影響を与えたであろう訓練事例を探索することで,予測における判断根拠を説明しようとするアプローチである。 事例ベース XAI のアプローチから着想を得て,我々は,検索べースの文書分類手法を XAI として活用できないかと考えた. すなわち,モデルが分類時に選択した知識コーパスの文書が暗に分類時の判断根拠となっているとみなせば,選択した文書を出力することでモデルの判断根拠を説明できる可能性がある. ただし, 我々の提案手法は Self-Explaining なものであるのに対し,多くの事例ベース XAI [1, 2, 3] は,ブラックボックスな NN モデルの推論結果に後から説明可能性を与えるという意味で Post-Hoc [4] な手法として位置付けられる点に相違がある. 本研究では,分類時に選択した知識コーパスの文書の説明可能性について,実験を通して検証を行う。 ## 2.3 検索拡張言語モデル ドメインが指定されていない質疑応答タスクである Open-Domain Question Answering の分野にお いては,検索拡張言語モデル (Retrieval-Augmented Language Models) [7, 8, 9, 10] が広く用いられている.検索拡張言語モデルは通常 Retriever と Reader の 2 つのネットワークによって構成される. Retriever は入力の質問文に対して外部の知識コーパスからその解答の作成に有意な文書を検索・抽出し, Reader は質問文と抽出した文書を用いて回答文を作成する。 提案した検索ベース分類器は,この Retrieverと Readerからなる構成から着想を得た。 ## 3 提案手法 本研究で提案するモデルである検索ベース分類器は,図 1 で示すように知識コーパスから分類対象の文書に関連する文書を抽出する Retriever と,分類対象の文書と抽出された文書から文書分類を行う Classifierの2つのネットワークによって構成される.分類対象の文書 $x$, 外部の知識コーパス $z$, 分類クラスのラベル $y$ として,分類時の計算手順は次の数式で表される. $ p(y \mid x) \propto \sum_{z \in \operatorname{Top}_{\mathrm{k}}(p(\cdot \mid x))} p_{\mu}(z \mid x) p_{\theta}(y \mid x, z) $ ただし $p_{\mu}$ と $p_{\theta}$ はそれぞれ,次に説明する Retriever と Classifierを指す. ## 3.1 Retriever Retriever は,知識コーパスの埋め込みを行う Document Encoder,分類対象の文書の埋め込みを行う Query Encoder,及び分類対象の文書と知識コーパス中の文書との最大内積探索 (MIPS) から構成される.ここで最大内積探索では,知識コーパス中の文書の埋め込み表現のうち,分類対象の文書の埋め込み表現とのコサイン類似度が高いものを探索する。 Document Encoder $d$ と Query Encoder $q$ に対して,知識コーパス中の文書 $z$ の尤度を次式によって算出する。 $ p_{\mu}(z \mid x)=\frac{d(z)^{T} q(x)}{\|d(z)\|^{2}\|q(x)\|^{2}} $ この式の $p_{\mu}(z \mid x)$ が,分類対象の文書 $x$ に対する,知識コーパス中の文書 $z$ の文間類似度を示す. ## 3.2 Classifier Classifier の計算手順は, 文書分類器 $p$ を用いて次式によって表される. ここで, \|は系列の結合を行 図 1 検索ベース分類器の構造. Retriever は Query Encoder と最大内積探索 (MIPS) を用いて知識コーパスから文書の抽出 (図中の external evidence passage)を行い,Classifier は分類対象の文書と文書を用いて分類を行う. う演算子を指す。 $ p_{\theta}(y \mid x, z)=p(x \| z) $ 本研究では文書分類器 $p$ として,大規模言語モデル BERT [11]と 1 層の全結合層からなる構造を利用した. ## 4 実験 ## 4.1 実験設定 データセット判断根拠提示の実用上の意義の観点から,データセットとしては英文ニュース記事の分類タスクである AG News データセット [12]を利用した. AG News は,約 16 万件の英文ニュース記事とそのジャンルに関するラベルを有するデータセットである. 評価指標分類性能の評価指標として, Accuracy を採用した. 説明可能性の判断指標として,異なる 2 文の類似度を評価するための指標である意味類似度 (STS) [13]を採用した.ここでは情報系の大学院生 3 名 (いずれも日本語話者) が STS [13] の定義に基づき 5 段階で評価を行い,その平均を取った。なお本アノテーションにおいては報酬などは用意せずに実施した。 実験設定 AG News の 1,600 件のニュース記事を訓練データ,158,400 件のニュース記事のうちの一部を知識コーパス,7,600 件のニュース記事を評価用データとして利用し,次の 2 つの実験を行った. 1つ目に,Retriever の精度に与える影響を評価することを目的として,(i) Classifier のみによる文書分類,(ii) 予測過程にて訓練事例のみを利用した文書分類,(iii) 予測過程にて訓練事例と知識コーパスを利用した文書分類の 3 通りについて,ランダムシー ド値を変えてそれぞれ 10 回ずつ実験を行った. 2 つ目に,Retriever が出力する文書の説明可能性を評価することを目的として,評価用データからサンプリングした 40 件のニュース記事について Retriever を用いて関連文書との文間類似度を出力し,その文間類似度と人手評価による意味類似度との相関を分析する実験を行った.文間類似度について満遍なく実験を行うため,サンプリングでは Retriever の出力する文間類似度が $1,10,100,1000$ 番目に高い関連文書を抽出した。 学習条件 Retrieverには, Query Encoder と Document Encoder のそれぞれの BERT について教師なし対照学習により事前学習を行ったモデルである, Contriever [14]の学習済み重みを初期重みとして利用した. Document Encoderにより訓練データ及び知識コーパス中の文書の埋め込みを行い,最大内積探索用ライブラリである faiss [15] のインデックスとして追加した. Classifier は BERT [11] の学習済み重みを初期重みとして利用した。全結合層は Xavierの重みの初期化 [16] を行なった. 訓練デー タを用いた Retrieval-based Classifier の学習時には, Document Encoder の重みとインデックスは固定し, Query Encoder と Classifier のファインチューニング 表 1 (i) Classifier のみによる文書分類,(ii) 予測過程にて訓練事例のみを利用した文書分類,(iii) 予測過程にて訓練事例と知識コーパスを利用した文書分類の,AG News における分類精度の平均と標準誤差. どの場合も, AG News の $1 \%$ のみを学習データとして利用した。 を行なった.また,最適化関数には Adam [17]を利用し, 損失関数としては交差エントロピー損失を利用した. ## 4.2 実験結果 ## 4.2.1 分類精度の比較評価 (i) Classifier のみによる文書分類,(ii) 予測過程にて訓練事例のみを利用した文書分類,(iii) 予測過程にて訓練事例と知識コーパスを利用した文書分類のそれぞれの場合の AG News の分類精度を表 1 に示す. この結果から, Retriever の導入により分類精度が向上することを確認できた.知識コーパスを利用せずに訓練事例のみを用いた場合には,Classifierのみの場合と比較して若干精度が落ちてしまっているものの, 訓練事例に加えて知識コーパスまで含めて検索対象にすることで,Classifierのみの場合よりも高い精度を達成できた。このことから,適切な量の知識コーパスのもとで,Retriever は分類精度の向上に寄与する可能性があると推察される。 なお,(iii) 予測過程にて訓練事例と知識コーパスを利用した文書分類では事前に適切な知識コーパスの量の探索を行っており,知識コーパスが訓練事例数の 3 倍の文書数を持つときに最も高い性能を発揮した.これらの知識コーパスの量に対する分類精度の変化に関する結果は付録 A に記載した。 ## 4.2.2 説明可能性の評価 Retriever が分類根拠として示す文書と分類対象の文書との間の,人手評価に基づく意味類似度と Retrieverの示す文間類似度との関係を散布図に示したのが図 2 である。相関係数は 0.61 $\left(p=3.0 \times 10^{-5}\right)$ であり,人手による意味類似度と Retriever の示す文間類似度には有意な相関があることを示している. 図 2 Retriever が分類根拠として示す文書と分類対象の文書との間の, 人手評価に基づく意味類似度と Retriever の示す文間類似度との関係を表す散布図。 この結果は Retriever が分類時に利用した文書は人間から見ても分類対象の文書と有意に関連のある文書であることを示しており,提案手法が説明可能性を有することを裏付ける。 なお,Retrieverが実際に分類根拠として示した文書の例を付録 B に記載した。 ## 5 結論 本研究では,分類に有効な文書を訓練事例や外部の知識コーパスから検索して利用する,検索ベー スの文書分類手法 (Retrieval-based Classifier) を提案した. 提案手法の性能を評価するために, AG News データセットを対象とし, Retriever や知識コーパスの存在が分類精度にどのように影響するのかを評価した。また,事例べース XAIに関する先行研究から着想を得て,提案手法における Retriever が選択した根拠文が説明可能性に寄与する可能性に着目し,それに関する定性的な評価を行なった。一連の実験の結果から,文書分類モデルに Retriever の機構を導入することで,精度を落とすことなく説明可能性を与えられることが確認できた.ただし,今回は特定のデータセットを対象として,限られた人数での定性評価をするにとどまっている.適用するドメインやデータセットの種類を増やしていくとともに,より信頼性の高い定性評価を行うことで,我々の提案手法の有用性を明瞭にしていくことが今後の課題である。 ## 謝辞 本研究は,JSPS 科研費 JP20K19868,JST さきがけ JPMJPR21C8 の助成を受けたものです. 参考文献 [1] Chih-Kuan Yeh, Joon Sik Kim, Ian En-Hsu Yen, and Pradeep Ravikumar. Representer point selection for explaining deep neural networks. In Advances in Neural Information Processing Systems 31: Annual Conference on Neural Information Processing Systems 2018, NeurIPS 2018, December 3-8, 2018, Montréal, Canada, pp. 9311-9321, 2018. [2] Rajiv Khanna, Been Kim, Joydeep Ghosh, and Sanmi Koyejo. Interpreting black box predictions using fisher kernels. In The 22nd International Conference on Artificial Intelligence and Statistics, AISTATS 2019, 16-18 April 2019, Naha, Okinawa, Japan, Vol. 89 of Proceedings of Machine Learning Research, pp. 3382-3390. PMLR, 2019. [3] Amirata Ghorbani and James Y. Zou. Data shapley: Equitable valuation of data for machine learning. In Proceedings of the 36th International Conference on Machine Learning, ICML 2019, 9-15 June 2019, Long Beach, California, USA, Vol. 97 of Proceedings of Machine Learning Research, pp. 2242-2251. PMLR, 2019. [4] Marina Danilevsky, Kun Qian, Ranit Aharonov, Yannis Katsis, Ban Kawas, and Prithviraj Sen. A survey of the state of explainable AI for natural language processing. In Proceedings of the 1st Conference of the AsiaPacific Chapter of the Association for Computational Linguistics and the 10th International Joint Conference on Natural Language Processing, pp. 447-459, Suzhou, China, December 2020. Association for Computational Linguistics. [5] Dzmitry Bahdanau, Kyunghyun Cho, and Yoshua Bengio. Neural machine translation by jointly learning to align and translate. In 3rd International Conference on Learning Representations, ICLR 2015, San Diego, CA, USA, May 7-9, 2015, Conference Track Proceedings, 2015. [6] Jiwei Li, Xinlei Chen, Eduard Hovy, and Dan Jurafsky. Visualizing and understanding neural models in NLP. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 681-691, San Diego, California, June 2016. Association for Computational Linguistics. [7] Kenton Lee, Ming-Wei Chang, and Kristina Toutanova. Latent retrieval for weakly supervised open domain question answering. In Proceedings of the 57th Conference of the Association for Computational Linguistics, ACL 2019, Florence, Italy, July 28- August 2, 2019, Volume 1: Long Papers, pp. 6086-6096. Association for Computational Linguistics, 2019. [8] Kelvin Guu, Kenton Lee, Zora Tung, Panupong Pasupat, and Ming-Wei Chang. Realm: Retrieval-augmented language model pre-training. In Proceedings of the 37th International Conference on Machine Learning, ICML'20. JMLR.org, 2020. [9] Patrick S. H. Lewis, Ethan Perez, Aleksandra Piktus, Fabio Petroni, Vladimir Karpukhin, Naman Goyal, Heinrich Küttler, Mike Lewis, Wen-tau Yih, Tim Rocktäschel, Sebastian Riedel, and Douwe Kiela. Retrieval-augmented generation for knowledge-intensive NLP tasks. In Advances in Neural Information Processing Systems 33: Annual Conference on Neural Information Processing Systems 2020, NeurIPS 2020, December 612, 2020, virtual, 2020. [10] Gautier Izacard, Patrick Lewis, Maria Lomeli, Lucas Hosseini, Fabio Petroni, Timo Schick, Jane Dwivedi-Yu, Armand Joulin, Sebastian Riedel, and Edouard Grave. Atlas: Few-shot learning with retrieval augmented language models, 2022. https://arxiv.org/abs/2208.03299v3. [11] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, NAACL-HLT 2019, Minneapolis, MN, USA, June 2-7, 2019, Volume 1 (Long and Short Papers), pp. 4171-4186. Association for Computational Linguistics, 2019. [12] Xiang Zhang, Junbo Zhao, and Yann LeCun. Characterlevel convolutional networks for text classification. In Advances in Neural Information Processing Systems, Vol. 28. Curran Associates, Inc., 2015. [13] Daniel Cer, Mona Diab, Eneko Agirre, Iñigo LopezGazpio, and Lucia Specia. SemEval-2017 task 1: Semantic textual similarity multilingual and crosslingual focused evaluation. In Proceedings of the 11th International Workshop on Semantic Evaluation (SemEval-2017), pp. 1-14, Vancouver, Canada, August 2017. Association for Computational Linguistics. [14] Gautier Izacard, Mathilde Caron, Lucas Hosseini, Sebastian Riedel, Piotr Bojanowski, Armand Joulin, and Edouard Grave. Towards unsupervised dense information retrieval with contrastive learning. CoRR, Vol. abs/2112.09118, , 2021. [15] J. Johnson, M. Douze, and H. Jegou. Billion-scale similarity search with gpus. IEEE Transactions on Big Data, Vol. 7, No. 03, pp. 535-547, jul 2021. [16] Xavier Glorot and Yoshua Bengio. Understanding the difficulty of training deep feedforward neural networks. In Proceedings of the Thirteenth International Conference on Artificial Intelligence and Statistics, AISTATS 2010, Chia Laguna Resort, Sardinia, Italy, May 13-15, 2010, Vol. 9 of JMLR Proceedings, pp. 249-256. JMLR.org, 2010. [17] Diederik P. Kingma and Jimmy Ba. Adam: A method for stochastic optimization. In 3rd International Conference on Learning Representations, ICLR 2015, San Diego, CA, USA, May 7-9, 2015, Conference Track Proceedings, 2015. 図 3 Retrieverにて用いる知識コーパスの量に対する分類精度の変化. 表 2 分類対象の文書と Retriever が抽出したエビデンス文書 分類対象の文書 iran may soon resume uranium enrichment ( ap ) ap iran may resume uranium enrichment any moment, the nation' $s$ intelligence minister said on state television monday, two days after the $u$. n. nuclear watchdog agency demanded that tehran halt all such activity. japan's smfg in $\$ 29$ b bid for ufj sumitomo mitsui financial group inc. laid out a $\$ 29$ billion bid for ufj holdings on tuesday, challenging a rival offer by mitsubishi tokyo financial group to form the world's biggest bank.抽出したエビデンス文書 iran stresses nuclear freeze is voluntary, brief tehran ( reuters ) - iran stressed on monday its decision to freeze sensitive nuclear work was a voluntary move to dispel concerns it was secretly building atomic arms and would last only for a short time. japan's sumitomo tables ufj bid the battle to form the world's biggest bank has intensified after sumitomo mitsui financial group tabled an offer to buy japanese rival ufj holdings. ## A 知識コーパスの量に対する分類精度の変化 図 3 は,Retriever で用いる知識コーパスの量を AG News の 1\%から 100\%まで変化させたときの分類精度の変化を示す. この結果から,検索対象の知識コーパスの量が少なすぎる場合や多すぎる場合には,むしろ Retriever の導入は精度を悪化させる可能性があり,適切な量の知識コーパス (今回であれば訓練事例数の 3~10 倍の文書数)を利用することで精度向上に寄与する可能性があるということが推察される. ## B Retriever が抽出した文書の例 表 2 には,分類対象の文書と知識コーパスより Retriever が抽出した文書のぺアの一例を示す。この例から分かるように,ある程度関連性のある文書を分類の根拠として出力することができているといえる.例の 1 つ目はイランの核開発問題,2つ目は日本のフィナンシャルグループの買収に関する記事である.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A4-4.pdf
# 分類タスクにおける不確実性の高い文章の傾向調査 太田真人 1 ファイサル・ハディプトラ 1 1 電通国際情報サービス \{ota.m, faisal.hadiputra\}@isid.co.jp ## 概要 信頼性のある AI システムの実現には精度だけでなく, 予測の不確実性や説明性が必要である. 予測の不確実性の推定は,分類を人に委ねるかの意思決定に役立つ. しかし, 不確実性の高い文章の中に分類容易な文章が多いと,人は $\mathrm{AI}$ に不信感を抱く.そこで,分類タスクにおける BERT モデルの予測の不確実性を軸に,文章傾向と精度を調査する.3つの分類タスクで実験をおこない,予測の不確実性の高い文章には精度が低く, 分類困難な要因が多く存在することを示す. ## 1 はじめに 信頼される AI システムは,金融や医療など,人命や損害をともなう応用先で利用される. AI の信頼性の研究は, 説明性や予測の不確実性が中心である [1]. 予測の不確実性は, 確率モデリングのべイズ推論をもとに推定されてきた [2]. 自然言語処理と予測の不確実性の研究は, 分布外検知 [1], 文章要約の高品質化 [3], 能動学習 [4] といった品質・安全・効率化で取り組まれている。 信頼される AI システムの実現には,誤分類リスクが高い文章の傾向を調査する必要がある. 人と AI の協調では,誤分類リスクの高い文章は,人間に判断を委ねる安全な設計をする [5]. 人は誤分類が多いと AI システムを信頼せず,システムから離脱する.しかし, 人と AI の協調後も同様に,システムから離脱する恐れがある。 それは,誤分類リスクの高い文章が人間にとって自明な文章が多いときである.したがって,私たちは,誤分類リスクの高い文章に分類困難な文章が多く含まれることを期待する.ここで,予測モデルの分類困難な文章は,訓練データ不足, クラス被覆, データバイアス, 外れ值の文章を指す。 私たちは,誤分類リスクに予測の不確実性を用い,不確実性の高い文章傾向を調査する.先の予測 モデルの分類困難な傾向は,予測の不確実性が高いときのみ顕著に存在し, 精度が低い文章傾向とする. 本研究の目的は, 不確実性の高い文章中から分類困難な傾向を特定できるのか,また,どの程度存在するのかを明らかにする。予測の不確実性は,モデルの不確実性とデータの不確実性に分けられ,それぞれで調査する。データの不確実性は分類境界上で不確実性が高く, モデルの不確実性は訓練データ分布外で高くなるとされる [6]. 実験は, 事前学習済みモデル BERT[7] を用い,代表タスクとして,ネガポジ判定を 2 種類とニュース分類を 1 種類おこなう。 以下に本研究の貢献を示す. ・3つの不確実性において,データの不確実性が誤分類リスクと最も関係があることを示す。 ・ネガポジ判定では,データの不確実性から,ネガポジ両方の感情を含むハードサンプルやデー タノイズを含む 6 つ傾向を特定し,モデルの不確実性から,低頻度・未知語や皮肉を含む 5 つの傾向を特定する。 - 定量化可能な不確実性の高い文章傾向の 7 種類中 5 種類は分類困難な要因であることを示す. ## 2 問題設定 本章では BERT 分類モデルの予測の不確実性の種類とその定量化方法を説明する. 入力文章とラベルの組 $(x, y) \in(X, Y)$ を複数持つデータセットを $\mathscr{D}$ とする. 予測はモデルパラメータ $w$ を持つ事前学習済みモデルの出力 $f(x ; w)$ とする. 不確実性の推定の準備として,モデルパラメータの事前確率を $p(w)$ とし,予測分布を $p(y \mid x, w)$ とする. テストデータ $\left(x^{*}, y^{*}\right) \in \mathscr{D}_{\text {test }}$ に対する周辺予測分布は,パラメー タの事後分布 $p(w \mid \mathscr{D})$ を用いて以下の式で与えられる。 $ p\left(y^{*} \mid x^{*}, \mathscr{D}\right)=\int p\left(y^{*} \mid x^{*}, w\right) \underbrace{p(w \mid \mathscr{D})}_{\text {posterior }} d w $ ## 2.1 不確実性の推定 本節では,不確実性の種類とその尺度を紹介する [6]. 予測の不確実性の定量化はベイズ推論からおこなえる [8][2]. ## 2.1.1 全体の不確実性 全体の不確実性は,周辺予測分布 $p(y \mid x, \mathscr{D})$ の不確実性である.全体の不確実性の尺度は,周辺予測分布の分散やエントロピーで表される. 周辺予測分布のエントロピーは,後に説明するデータの不確実性の予測エントロピーの期待值とモデルの不確実性の相互情報量との和として式変形できる [9][10]. $ \underbrace{\mathbb{H}[Y \mid x, \mathscr{D}]}_{\text {predictive }}=\underbrace{\mathbb{[}[Y ; \omega \mid x, \mathscr{D}]}_{\text {model }}+\underbrace{\mathbb{E}_{\mathrm{p}(\omega \mid \mathscr{D})}[\mathbb{H}[Y \mid x, \omega]]}_{\text {data }} . $ ## 2.1.2 モデルの不確実性 モデルの不確実性は,モデルが特徴表現として獲得できていない,知識の欠如に由来する不確実性である. 特に訓練データ分布と大きく異なる文章に対し, 不確実性が高くなる. 知識の欠如のため, 該当する訓練データを増やすことで減少する不確実性として知られている。 モデルの不確実性の尺度は,(1)式の第一項で表す, パラメータ $w$ と出力 $y$ との相互 ## 2.1.3 データの不確実性 分類境界上の複雑な入力に対し, データの不確実性は高くなる. 訓練データを増やすだけでは減少しない不確実性であり,根本的に該当するデータを取り除くか修正する必要がある.データの不確実性の尺度は, 事後分布 $p(\omega \mid D)$ からサンプリングされたモデルパラメータに対する予測エントロピーの期待值 $\mathbb{E}_{\mathrm{p}(\omega \mid \mathscr{)})}[\mathbb{W}[Y \mid x, \omega]]$ として表される. ## 2.2 不確実性に基づく文章の分析方法 本節では不確実性に基づく文章の分析方法を説明する. テストデータから不確実性を軸に誤分類リスクの高い文章傾向を分析する. モデルの不確実性の尺度を用い,データ不足が要因の文章傾向を調べ, データの不確実性の尺度を用い,データの複雑さが要因となる文章傾向を調べる。分析方法はそれぞれの尺度の高い文章と低い文章を上位 $k \%$ を人が読 み,頻出する文章パターンの傾向をまとめる. ## 3 実験 3 種類の文章分類データセットを用いて,データの不確実性とモデルの不確実性の高い文章傾向を調査する. ## 3.1 データセットとモデル 3 種類の文章分類データセットを用いる. 感情分析に2クラス分類の Amazon 商品レビュー marc-ja [11] と3クラス分類の twitter の呟きデータ wrime [12],9クラス分類のニュース記事 livedoor-news を用いる。事前学習済み cl-tohoku/bert-base-japanese ${ }^{1 \text { ) }}$ を用いる。BERTのアーキテクチャは 12 層, 隠れ次元数は 768 , アテンションヘッド数は 12 ある $110 \mathrm{M}$ パラメータを持つ. 事前学習には, 約三千万データを含む日本語版の Wikipediaを使用している. トー クナイザーにはワードピースレベルで MeCabを用いる。語彙数は 32,768 である. ## 3.2 実験設定 不確実性の定量化手法には Deep Ensembles [13] を用いる. Deep Ensembles は BERT の出力層の初期値の seed 值を変えて, $M=5$ でアンサンブルする. BERT を微調整するために,エポック数 3 , 学習率は $5 e-5$, バッチサイズは 16 , 文章長は marc-ja と livedoor-news で 512, wrime は 140 とする. 各不確実性と誤分類リスクとの関係調査に, [14] が提案した選択的予測に使われる RCC-AUC と Accuracy(Acc)を用いる.リスクカバレッジカー ブ (RCC) は,予測棄却基準に応じたテストデータに対する累積誤分類数を示すグラフである。曲線下の面積が小さいほど,不確実性の推定値が誤分類リスクの基準に良いことを示す. 予測棄却基準に全体の不確実性 (TU), データの不確実性(DU),モデルの不確実性(MU)を用いる. それぞれの不確実性の尺度には, 2.1 節で説明した指標を用いる. 本実験では,文章傾向の定性的調査にデータ分析経験 2 年以内の NLP の業務経験もない分析者 3 名がおこなう。これは,事前知識と経験をもとに傾向を発見するのを防ぐためである. 分析者は marc-ja のテストデータ全体の $5 \%$ \%たる不確実性の高い文章 300 件と不確実性が低い 300 件から傾向を探す. 分析者が発見した不確実性の高い文章傾向を定量 1) https://huggingface.co./cl-tohoku/bert-base-japanese 化し,分類困難な要因か検証する.分類困難な要因は,不確実性の高い文章の傾向が不確実性の低い文章と比較し, 出現頻度が高く, 精度が低いとする. したがって, 定量化可能な傾向は, 不確実性の高い文章集合と低い文章集合に対し, 出現数と精度を計算する. ## 3.3 実験結果 各データセットでの Deep Ensembles の Accuracy を表 1 に示す. wrime は twitter のデータで口語調のため, 精度が低い. 各データセットでの Deep Ensembles の RCC-AUC を表 2 に示す. RCC-AUC が小さいほど,誤分類リスクのある文章を不確実性の尺度で棄却できる。結果,DU が 2 つのデータセットで最も小さく, wrime は TUが最も小さい. marc-ja における定性的傾向分析結果を表 3 と表 4 に示す. 表 3 はデータの不確害性の高い文章から発見できた定性的な傾向を示す。 ハードサンプルは文章の文脈的にラベル付けが困難なサンプルである. “ネガポジ・ポジネガ文”は, 文章の序盤はポジティブだが,終盤ではネガティブな内容な文章を指す. “ネガポジ形容詞なし" は,明示的にネガポジに関する形容詞はでてこず,暗黙的に感情が表現されている文章を指す。”変換ミス”は,タイピングミスを指す. ”別商品と比較” は,レビュー対象の商品ではなく, 比較対象の商品を評価する文章である. データノイズは文章の文脈に依存しないエンコードミスといった表面上のノイズを表す。”同じ文字の繰り返し”は,1 文章の中に 3 回以上続けて同じ文字が使われる文章を指す。 表 4 はモデルの不確実性の高い文章から発見できた定性的な傾向を示す. カテゴリを未知語・低頻出と悪評や皮肉のような表現と分類する.未知語・低頻出は訓練データにほどんど存在しない珍しい文章を表す。 “英単語” は,文中に英単語が 10 単語以上ある文章を表す。”固有名詞” は,文中の固有名詞の割合が $10 \%$ 以上ある文章を表す。”特殊記号” は,文中の英数字以外の文字列が $10 \%$ 以上ある文章を表す. 悪評や皮肉のような表現は,文章全体ではポジティブだがネガティブと予測される言い回しである. 定性的な調査では, “良い意味で” に続くフレー ズがネガティブな内容なため, ネガティブと予測されている文章が散見された。 表 5 に各定性的分析結果から出現数と精度を示す. 7 項目中 5 項目は予測モデルの分類困難な要因 表 1 各データセットの精度比較結果 表 2 各データセットの RCC-AUC $\downarrow$ 比較結果 と考えられる。一方で,"同じ文字の繰り返し”と”英単語” に関しては不確実性が高さに関係がなく,分析者のバイアスだった. ## 4 考察 ## 4.1 モデルの不確実性とデータの不確実性 が誤分類と関係があるのか 両方の不確実性の推定が予測精度と関係はあるが,DU の方が顕著な傾向が見えた.表 2 の結果から,RCC-AUC では,DUが最も性能が高く,誤分類リスクを測る尺度であることがわかる。この結果は,[15] の事前学習みモデルを用いないLSTM の結果と類似する。事前学習済みモデルの微調整でも同様の結果が得られた. TU は DU と類似した結果を示すが,MU を含み,わずかに劣る結果になった. この結果は,MU が分布外サンプルの検出精度が高いが,本実験のテストデータには,分布外データが少ないことによるものと考えられる. 今後は日本語文章の分布外検出精度を評価する。 ## 4.2 モデルの不確実性やデータの不確実性 が高くなる文章の傾向はあるのか 発見した傾向のカテゴリは既存研究と同様の結果が得られた [15]. 表 3 と表 5 からデータの不確実性が高い文章の傾向カテゴリは,人間が読んでも分類が困難な文章やデータノイズである。しかし,本研究では,詳細に傾向を調べた。具体的な分類困難な文章は,表 5 の”ネガポジ・ポジネガ”や”ネガポジ形容詞なし”からわかる. 特に, “ネガポジ形容詞なし”は不確実性の高い上位 300 件に 24 文章含む。一方で,不確実性が低い上位 300 件には 3 件しか含まれておらず,DUが高い顕著な傾向である.また, そのときの正答率も $41 \%$ 差がある. 同様にモデルの不確実性が高い文章の傾向は,訓練データに少ない単語や記号を含む文章である.分析者が見つけた傾向の “固有名詞”と"特殊記号” は, & & \\ 表 5 予測の不確実性の文章傾向の定量化の結果 (Marc-ja). 傾向の黒字は, 不確実性が高いときにカウントが多く,正答率が低い分類困難な要因を表す. & 正答率 \\ & Low & $40(13 \%)$ & 1.00 \\ & Low & $3(1 \%)$ & 1.00 \\ & Low & $1(0.3 \%)$ & 1.00 \\ & Low & $48(16 \%)$ & 1.00 \\ & Low & $15(5 \%)$ & 0.98 \\ & Low & $2(0.6 \%)$ & 1.00 \\ & Low & $10(3 \%)$ & 1.0 \\ 訓練データに低頻出な文章と考える. “特殊記号”の場合,MUが高い 300 件中 20 件含まれ,精度は $62 \%$ と低い.一方で,MU が低い 300 件中に 10 件しかなく,精度が $100 \%$ と高いことから,"特殊記号”は MU が高い傾向と考える. ## 4.3 予測の不確実性に基づく文章分析は分類困難な要因を示せるか 予測モデルの分類困難な要因を示すため,予測の不確実性を定量化し,定性的な分析をおこなった。予測の不確実性が高いときのみ文章数が多く,精度が低い文章傾向を分類困難な要因とした。表 3 と表 4 から不確実性に基づく文章分析は,データの不確実性からハードサンプルとデータノイズを発見でき,モデルの不確実性から未知語や低頻出な単語を発見できた. また,表 5 の結果から,この傾向は不確実性が高い文章のみ精度が低く, 出現頻度が多いことがわかる. さらに,表 5 の定量化可能な傾向に絞ると,分類困難な要因は 7 個中 5 個あった. この結果から,予測の不確実性から発見する傾向の多くは分類困難な要因を表す。 ## 5 まとめ 予測の不確実性に基づく文章分析から分類が困難な文章傾向を実験的に示した.定量化可能な傾向の 7 種類中 5 種類は,不確実性が高い文章で誤分類率が高く, 文章の出現頻度も高く, 分類困難な文章傾向だった. 結果として,不確実性の高い文章には予測モデルの分類困難な文章傾向が多く発見された. しかし,定量化できていない傾向も多く,人が全ての文章をグループ化したわけではない. グループ化されていない文章が人に与える影響の調査が今後の課題である. ## 参考文献 [1] Yibo Hu and Latifur Khan. Uncertainty-aware reliable text classification. In Proceedings of the 27th ACM SIGKDD Conference on Knowledge Discovery amp; Data Mining, p. 628-636, 2021. [2] Radford M Neal. Bayesian learning for neural networks, Vol. 118. Springer Science \& Business Media, 2012. [3] Alexios Gidiotis and Grigorios Tsoumakas. Should we trust this summary? Bayesian abstractive summarization to the rescue. In Findings of the Association for Computational Linguistics: ACL 2022, pp.4119-4131, May 2022. [4] Liat Ein-Dor, Alon Halfon, Ariel Gera, Eyal Shnarch, Lena Dankin, Leshem Choshen, Marina Danilevsky, Ranit Aharonov, Yoav Katz, and Noam Slonim. Active Learning for BERT: An Empirical Study. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 7949-7962, November 2020 . [5] Neeraj Varshney, Swaroop Mishra, and Chitta Baral. Towards improving selective prediction ability of NLP systems. In Proceedings of the 7th Workshop on Representation Learning for NLP, pp. 221-226, May 2022. [6] Jakob Gawlikowski, Cedrique Rovile Njieutcheu Tassi, Mohsin Ali, Jongseok Lee, Matthias Humt, Jianxiang Feng, Anna Kruspe, Rudolph Triebel, Peter Jung, Ribana Roscher, et al. A survey of uncertainty in deep neural networks. arXiv preprint arXiv:2107.03342, 2021. [7] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), June 2019. [8] David John Cameron Mackay. Bayesian methods for adaptive models. California Institute of Technology, 1992. [9] Lewis Smith and Yarin Gal. Understanding measures of uncertainty for adversarial example detection. arXiv preprint arXiv:1803.08533, 2018. [10] Yarin Gal. Uncertainty in deep learning. 2016. [11] Kentaro Kurihara, Daisuke Kawahara, and Tomohide Shibata. JGLUE: Japanese general language understanding evaluation. In Proceedings of the Thirteenth Language Resources and Evaluation Conference, pp. 2957-2966, June 2022. [12] Tomoyuki Kajiwara, Chenhui Chu, Noriko Takemura, Yuta Nakashima, and Hajime Nagahara. WRIME: A new dataset for emotional intensity estimation with subjective and objective annotations. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 2095-2104, June 2021. [13] Balaji Lakshminarayanan, Alexander Pritzel, and Charles Blundell. Simple and scalable predictive uncertainty estimation using deep ensembles. Advances in neural information processing systems, Vol. 30, , 2017. [14] Ran El-Yaniv and Yair Wiener. On the foundations of noise-free selective classification. J. Mach. Learn. Res., Vol. 11, p. 1605-1641, aug 2010. [15] Yijun Xiao and William Yang Wang. Quantifying uncertainties in natural language processing tasks. In Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 33, pp. 7322-7329, 2019.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A4-5.pdf
# 検索結果整理のためのラベルセット選出計算高速化と Wikipedia カテゴリからのラベルセット選出 細野涌城高本綺架 廣中 詩織梅村 恭司 豊橋技術科学大学 \{hosono.yuki.ql, takamoto.ayaka.nx, hironaka.shiori.ru, umemura\}@tut.jp ## 概要 我々は情報収集のために検索することが多いが,適切なキーワードを使わないと, 膨大な数の検索結果が表示されてしまう. そこで,適切なキーワードを思いつけないときでも検索結果を絞り込めるように,検索結果をうまく分類できるラベルセットを提示することを考える. 本研究では,ラベルの含まれる文書数(文書頻度)をもとに算出した適性度を用いて, Wikipedia カテゴリをもとに生成した複数のラベルセットを順位付ける.ラベルセットの数が多いため適性度の計算に時間がかかるという問題があったが, 前処理を工夫し, 文書頻度の計算に Suffix Array を用いたアルゴリズムを利用することで,短時間で順位付けできた。 ## 1 はじめに 我々は情報収集をするとき, 膨大な数の文書に対して検索することで情報を探すことが多いが,適切な検索キーワードがわからないと, 膨大な数の検索結果が表示されてしまう. そのため, 我々はキー ワードを追加して検索結果の絞り込みを行う。しかし, 目的の情報に関しての知識が少ないと追加のキーワードを考えるのは難しいため, サジェストを用いることがある. サジェストは検索ワードや多数のユーザーの検索ログなどからキーワードを提案する機能である $[1,2]$. サジェストにより提案されるキーワードは,検索結果を絞り込むためによく使われているキーワードであり, 様々な粒度のキーワー ドが提案される. 本研究では, カテゴリに対応するキーワード集合(ラベルセット)を大量に用意し, その中から検索結果とマッチングのとれたものを複数提案することを考える. 検索結果には複数の話題が含まれているため, 検索結果の文書集合を共通の話題を含む複数のグルー プに分類できれば,検索結果の整理や絞り込みに役立つと考えられる. グループ内の文書に共通する話題がキーワード(ラベル)で表現されるとき,ラベルには情報の抽象性の粒度があり, 様々な粒度のラベルがある,粒度の小さいラベルは,それよりも粒度が大きいラベルによってさらにグループ化できること [3] や,小さい粒度のラベルによる小グループを,粒度が大きいラベルを用いて大グループにまとめることで,分類された文書をより整理しやすくなること [4]がわかっている. 我々は,粒度のそろったラベルで検索結果が整理されている方が,ユーザにとって理解しやすくなると考えている. 宮越ら [5] は,粒度のそろったラベルセットを事前に用意し,その中から検索結果の整理に適したラベルセットを順位付けて提示する手法を提案している. 宮越らは, 検索結果には複数の話題が含まれているため, 共通の話題を含む複数のグループへ検索結果を偏らず分類できるラベルセットが良いラベルセットであると考えている.実験に用いられたラベルセットは地域区分に関するものに限定されていたが,検索結果の整理に適したラベルセットを提示できていた。 本研究では, あらかじめ用意するラベルセットをつくるために Wikipedia ${ }^{1)}$ を用いる. Wikipedia は多種多様な分野の記事を網羅しており,シソーラス辞書の作成にも用いられている [6] ため, この記事名をラベルとすることで多様な話題に対応できることを期待している。また, Wikipedia の記事はカテゴリによって分類されているため,カテゴリによってグループ化される記事の粒度はある程度そろったものとなっている. Wikipedia カテゴリを用いて,粒度をある程度そろえたラベルセットを大量に生成する。 本研究では, Wikipedia のカテゴリを用いて生成  した複数のラベルセットの中から,検索結果の分類に適するラベルセットを順位付けて提示する。さらに, 検索結果とラベルセットのマッチング方法を工夫し,その結果の実行時間も報告する. ## 2 関連研究 検索結果を分類し,ラベル付けすることで文書の内容を提示する研究は多数存在する. 淀川ら [7] はクラスタラベリングによって重要語を特定することで, 内容の整理を試みた。村松ら [8] らはクラスタラベリングによって付与されたラベルに対して,既存の分類階層である Yahoo!カテゴリを利用した上位語を求めることで,分類した検索結果を階層化させて整理している.これらの研究により付与されたラベルは粒度が不均一である. 我々は粒度が均一なラベルのほうが整理に適していると考えている. Wikipediaを利用して検索結果を整理する研究も多数存在する. Ugoら [9] は Wikipedia のリンク構造を用いたクラスタラベリングを行い,検索結果の内容にそぐうラベルの提示を試みた。平島ら [10] は Wikipedia カテゴリに対してパレートの法則を用いたり, 分類に不適切なカテゴリの除去したりすることで,検索結果の内容にそぐうカテゴリを提示できている. ## 3 使用データ ## 3.1 文書集合 Ceek.jp News²) が 2004 年 1 月から 2020 年 5 月に収集したニュース記事から抽出した記事集合を実験に用いる,検索結果に適するラベルセットを提示する実験をするため, 検索結果を模した, 21 種類の選別理由のある文書集合 RR と, 選別理由のない文書集合 D を用意する. 用意した文書集合は宮越ら [5] が実験で用いたものと同一である.選別理由のある文書集合 RR は, 本研究における分類対象であり, 記事集合から特定の単語リストのいずれかを含む文書をランダムに最大 3,000 件抽出したものである. 選別理由のない文書集合 D は, 検索対象となる全文書集合を代表するドキュメントの集合であり, 記事集合からランダムに 30,000 件抽出したものである. 2) http://www.ceek.jp/ ## 3.2 ラベルセット 多種多様な話題に対応できるよう, 我々は Wikipedia の記事名とその所属カテゴリからラベルセットを作成する.まず,各ラベルセットがそのカテゴリに所属する記事名をラベルの集合として持つように,すべての Wikipedia のカテゴリをラベルセットに変換する.次に,分類に不向きであるため,ラベルセットに属するラベルが 200 種類を超えるラベルセットを削除する. 人名などが羅列されたラベルセットが取り除かれることも期待している. さらに,各ラベルセットに属するラベルから, 4 文字未満のラベルを削除する.ラベルと検索結果のマッチングをする際,「京都」が「東京都」に含まれてしまうような, 意図しないマッチングを防ぐことを期待している.削除するラベルを 4 文字未満としたのは,これらのラベルを削除してもラベルセットに与える影響は小さいと見込んだためである. 本研究では, 2022 年 8 月 20 日に作成された Wikipedia 日本語版のデータベース・ダンプ3) から取得した 314,422 個のカテゴリと,1,974,022 種類の記事データをもとにラベルセットの集合 LSS を生成した. 生成した LSS には 305,462 個のラベルセットと, $1,441,413$ 種類のラベルが属していた。 ## 4 実験方法 Wikipedia カテゴリを用いて生成したラベルセットを使って,各 RRに適したラベルセットの適性度を計算し,順位付ける。順位付けには宮越ら [5] が提案した手法を用いる. 宮越らの場合よりラベルセット数が増えているため, 適性度の計算の前に分類に適する見込みのないラベルセットを削除することにより処理対象を減らし, 実行時間の短縮を図る. さらに, 適性度の計算の際にはラベルが 1 回以上出現する文書数(文書頻度)を計算する必要がある. 文書頻度を求めるために, 我々は $d f_{k}$ を高速に数えるアルゴリズム [11]を用いる.このアルゴリズムは,分析対象となる文書集合に対して,前処理の段階で Suffix Array を用いた頻度表を作成することにより, 複数の単語の文書頻度を, 文書集合を逐一参照することなく求められる. このアルゴリズムを利用して計算できるように,宮越らの使用した一部の条件式を変更する.本研究ではこのアルゴリズムの C 言語実装を Python から呼び出して利用した。 3) https://dumps.wikimedia.org/jawiki/ その他の処理は Python で実装した。 処理全体の流れは以下の通りである。初めに,D で出現する傾向にあるラベルとラベルセットを特定し, 分類に適する見込みがないラベルセットを削除する. 次に, RR で出現する傾向にあるラベルセッ卜を特定する. 最後に, 特定したラベルセットに対して, 宮越ら [5] で提案された手法を用いて適正度を算出し,順位付けする。 ## 4.1 ラベルセットとラベルの絞り込み 初めに,D で出現する傾向にあるラベルセットを特定する.この処理は検索対象を定めた時点で行う処理である。まず,LSSに含まれる全てのラベルの集合 $\mathrm{L}$ を求める. その後, $\mathrm{L}$ の全ラベルに対してラベルの文書頻度を求める.ここでは $\mathrm{D}$ におけるラべル $l$ の文書頻度を $d f(l ; \mathrm{D})$ と表す. 次に式 (1)を満たすラベルセット $L S$ を特定し, 満たさない $L S$ は LSS から削除する.ここで, $N_{\mathrm{D}}$ は D の文書数であり, 本研究では 30,000 である. また, $M_{L S}$ はラベルセット $L S$ に属するラベル数である。なお, 式 (1) は宮越らの論文 [5] 内の式 (4) を, 文書頻度による推定で置き換えた式である. $ 1-\prod_{l \in L S}\left(1-\frac{d f(l ; \mathrm{D})}{N_{\mathrm{D}}}\right)>\frac{2 M_{L S}}{N_{\mathrm{D}}} $ その後, 文書頻度が 2 以上のラベルの集合 $L_{2}$ を求め, $L_{2}$ の要素を 1 つも含まないラベルセットをLSS から削除する. 最後に, 削除後の LSS をもとにLを再度求める. ここまでの処理により, ラベルセットは 5,253 個, ラベルは 97,708 種類に絞り込まれた。 次に RR で出現する傾向にあるラベルセットを求める.まず,L の全ラベルに対して RRにおける文書頻度 $d f(l ; \mathrm{RR})$ を求める. 次に, $L_{2}$ から $d f(l ; \mathrm{RR})$ が 1 以上のラベルを取り出した部分集合 $R L_{1}$ を特定する. 最後に $R L_{1}$ の要素を含む LSS の部分集合 LSC を求める. RR によって LSC に含まれるラベルセット数は異なるが, 21 種類の RR で平均 4072 個に絞り込まれた。 ## 4.2 ラベルセットの順位付け 宮越ら [5] の提案手法を用いて適正度を算出し,順位付けを行う。初めに,式 (2) を満たさない,分類に不適切なラベルセットを削除する.ここで, $N_{\mathrm{RR}}$ は RR の文書数であり,「りんご農家」の RR では 1,706, それ以外の $\mathrm{RR}$ では 3,000 である.なお,式 (2) は宮越らの論文 [5] 内の式 (3) を, 文書頻度に よる推定で置き換えた式である. $ 1-\prod_{l \in L S}\left(1-\frac{d f(l ; \mathrm{RR})}{N_{\mathrm{RR}}}\right)>\frac{2 M_{L S}}{N_{\mathrm{RR}}} $ 次に,ラベルの適正度を求める。まず,ラベルセット $L S$ 内の各ラベルに対し式 (3)を求め, $x_{l}$ を式 (4) のシグモイド関数に代入した值 $\sigma\left(x_{l}\right)$ をラべルの適正度とする。 $ \begin{gathered} x_{l}=\frac{\frac{d f(l ; \mathrm{RR})}{N_{\mathrm{RR}}}-\frac{d f(l ; \mathrm{D})}{N_{\mathrm{D}}}}{\sqrt{\frac{\left(\frac{d f(l ; \mathrm{RR})}{N_{\mathrm{RR}}}\right)\left(1-\frac{d f(l ; \mathrm{RR})}{N_{\mathrm{RR}}}\right)}{N_{\mathrm{RR}}}+\frac{\left(\frac{d f l ; \mathrm{D})}{N_{\mathrm{D}}}\right)\left(1-\frac{d f(l ; \mathrm{D})}{N_{\mathrm{D}}}\right)}{N_{\mathrm{D}}}}} \\ \sigma\left(x_{l}\right)=\frac{1}{1+e^{-x_{l}}} \end{gathered} $ 最後にラベルセットの適正度を求める. ラベルセット $L S$ の適正度は $L S$ 内の全ラベルの適正度の平均であり, 式 (5) の $s_{L S}$ で表される.この適正度に従いラベルセットの順位付けを行う。 $ s_{L S}=\frac{\sum_{l \in L S} \sigma\left(x_{l}\right)}{M_{L S}} $ ## 4.3 実行時間の計測方法 ラベルセットの順位付けは検索時に行うことを想定しているため, 処理速度が求められる. そこで,本研究では RR を読み込んでからラベルセットの順位付けを行うまでの実行時間を調べることで,検索時に行うに足る処理速度か判断する。本稿では,各 $R R$ に対して 10 回実行した時間の平均を報告する. 実験に用いた PC の OS は Windows 10 Home であり, CPU は Intel Core i7-9700,メモリは 32GB である. Python 3.8.10 で実行し, $\mathrm{C}$ 言語で実装されたアルゴリズムのコンパイルは GCC 9.4.0 で行った。また,時間計測には, $\mathrm{C}$ 言語で実装されたアルゴリズムの前処理は time モジュールの pref_counter 関数を,その他の処理はprocess_time 関数を用いた。 ## 5 実験結果 $\cdot$ 考察 我々は, 21 種類の RR に対して,4 節で説明した方法で適正度を求め, ラベルセットを順位付けした。本節では RR「Jリーグ」に対するラベルセットの順位付け結果のみ示す. その他 20 種類の RRに対する順位付け結果は付録 A に示した。また,本節では各 RRにおける実行時間も示す.この実行時間をもとに,実際の検索で用いるに足るかを判断する. RR「Jリーグ」に対するラベルセットの順位付け結果を表 1 に 10 位まで示す. ラベル数が 10 以上の 表 $1 \mathrm{~J}$ リーグに対するラベルセットの順位付け結果 & 0.98 & 1 \\ に関するラベルセットであるため, J リーグの内容と関連のあるラベルセットだと考える。一方,ラベル数が 1 のラベルセットはラベルセット名だけではラベルの内容が不明であった. ラベルセット内のラベルを用いて検索結果を分類することを考えると, ラベル数 1 のラベルセットは分類に不適切であり, ラベルの内容も名前だけで予測しづらいため,ラベル数が 1 のラベルセットは取り除かなければならないと考える. なお, 平島らの研究 [10] では, ラベル数が 3 以下のラベルセットがあらかじめ取り除かれている. 次に,各 RRにおける実行時間を表 2 に示す.RR 「震源地」以外では, 平均約 3.6 秒で順位付けできたため, 実際の検索時に行う処理として許容できる速さだと考える. RR「震源地」で遅くなった原因は, RR「震源地」には文書の 7 割以上を英語が占めてい表 2 各RRにおける実行時間 るものが存在するためである.文書頻度を求める際に用いたアルゴリズムの実装は日本語で記述された文書に対して使うことを想定している。このアルゴリズムは反復度という特徴量を用いているが,英語は反復度が日本語よりも大きいため [12], 英語が多く含まれる文書集合は適していなかった。アルゴリズムの実装を反復度が大きい単語を考慮するように変更することにより,英語が多く含まれる文書集合に対しても,他の文書集合と同様に数秒程度で処理を終えられると考える。 ## 6 おわりに 本研究では, Wikipedia カテゴリを用いて生成した複数のラベルセットの中から, 検索結果の分類に適するラベルセットをほぼ数秒で順位付けて提示することができた。上位に選ばれたラベルセットのうち, ラベル数が 10 以上のラベルセットをみると,文書の内容に関連するラベルセットを提示できたと考える. 今後の課題として, ラベル数が少ないラベルセットの削除は行うことが必要であるとわかっている. ## 参考文献 [1] Zhiyong Zhang and Olfa Nasraoui. Mining search engine query logs for query recommendation. In Proceedings of the 15th International Conference on World Wide Web, pp. 1039-1040, 2006. [2] Sumit Bhatia, Debapriyo Majumdar, and Prasenjit Mitra. Query suggestions in the absence of query logs. In Proceedings of the 34th International ACM SIGIR Conference on Research and Development in Information Retrieval, pp. 795-804, 2011. [3] 平川秀樹, 木村和広. 概念体系を用いた概念抽象化手法と語義判定におけるその有効性の評価. 情報処理学会論文誌, Vol. 44, No. 2, pp. 421-432, 2003 . [4] Hiroyuki Toda and Ryoji Kataoka. A search result clustering method using informatively named entities. In Proceedings of the 7th Annual ACM International Workshop on Web Information and Data Management, pp. 81-86, 2005. [5] 宮越遥, 吉田光男, 梅村恭司. 文書整理に用いる分類リスト順位付けの試み. 第 14 回データ工学と情報マネジメントに関するフォーラム. G43-3, 2022. [6] 中山浩太郎, 原隆浩, 西尾章治郎. Wikipedia マイニングによるシソーラス辞書の構築手法. 情報処理学会論文誌, Vol. 47, No. 10, pp. 2917-2928, 2006. [7] 淀川翼, 加登一成, 伊東栄典. 単語の分散表現を用いた文書クラスタのラベル推定. 人工知能学会第二種研究会資料, Vol. 2019, No. SWO-049, p. 03, 2019. [8] 村松亮介, 福田直樹, 石川博. 分類階層を利用した検索エンジンの検索結果の構造化とその提示方法の改良. 第 19 回データ工学ワークショップ. B6-3, 2008. [9] Ugo Scaiella, Paolo Ferragina, Andrea Marino, and Massimiliano Ciaramita. Topical clustering of search results. In Proceedings of the Fifth ACM International Conference on Web Search and Data Mining, pp. 223-232, 2012. [10] 平島峻成, 吉田光男, 梅村恭司. 新聞記事検索結果に対する分類ラベル生成における Wikipedia カテゴリ情報の利用法. 第 11 回データ工学と情報マネジメントに関するフォーラム. G2-4, 2019. [11] Kyoji Umemura and Kenneth Church. Substring statistics. In Computational Linguistics and Intelligent Text Processing, pp. 53-71, 2009. [12] Yoshiyuki Takeda, Kyoji Umemura, and Eiko Yamamoto. Deciding indexing strings with statistical analysis. In Proceedings of the Third NTCIR Workshop on Research in Information Retrieval, Automatic Text Summarization and Question Answering, pp. 79-85, 2002. 表 3 すべての RRに対するラベルセットの順位付け結果 & & & & & & & & & & & & & & & & \\ ## A すべてのRRに対する順位付け結果 表 3 にすべての RR に対するラベルセットの順位付け結果を示した。ここに示したラベルセットは, 各 RR に対して最も適正度が高いラベルセットのみ取り出したものである. 行はRRを,列はラベルセットを示している。各セルは RRに対するラベルセットの適正度を示している。赤く塗りつぶされたセルは, 該当する RR(行)において最も適正度が高いことを示している. セルの值がハイフン (-) となっているラベルセットは,該当する RRにおいて LSC に含まれず,適正度の計算対象外であったことを示している.また,セルの值が 0 となっているラベルセットは, 該当する RRにおいて式 (2) を満たさず,適正度の計算対象外であったことを示している. 表 3 をると,フィギュアスケートの RRに対して,シスメックス(坂本花織選手などが所属する企業)というラベルセットの適正度が最も高いことが分かる. そのため, シスメックスのラベルセットにより, フィギュアスケートの内容の一部を捉えられていると考える。しかしながら,マンゴーやみかんの RR に対してサトウキビ属の適正度が高いなど,記事の内容とはおよそ的外れなラベルセットが分類に適すると判定されたものも存在することが分かった,さらに,ハイチ系日本人や,仏教系政党といった,ラベルセット名だけでは内容が予測しづらいラベルセットが存在することも分かった。検索結果の内容にそぐわなかったり, ラベルセット名から内容が予測しづらいラベルセットを削除するために, 平島らの研究 [10] のようにラベル数が 3 以下のラベルセットを取り除くべきだと考える.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A5-1.pdf
# 抑揚による疑問表現を考慮した音声対話システムの提案 坂根剛 目良和也 黒澤義明 竹澤寿幸 広島市立大学大学院 情報科学研究科 [email protected] \{mera, kurosawa, takezawa\}@hiroshima-cu.ac.jp ## 概要 従来の音声対話システムでは音声認識結果をそのまま入力としているため, 疑問文と平叙文の区別がつかず,問いかけに対して不適切な応答をすることがあった. そこで本研究では, ノンバーバル情報による疑問表現を考慮できるように, 発話の音響的情報に基づいて疑問表現発話を判定し,GPT モデルを用いて疑問符の有無を考慮した応答を生成する手法を組み込んだ音声対話システムを提案する。疑問表現判定実験における正解率は 0.76 , また応答発話テキスト生成実験では疑問符を付加した入力に対しては疑問表現を考慮した応答候補が生成されていることが確認された。 ## 1 はじめに 近年, 音声対話システムは様々な分野で普及しており,雑談のような非タスク指向型対話についても研究が進められている $[1,2]$. しかし音声認識では疑問表現を表す疑問符を表現できないため, 従来の音声対話システムでは図 1 に示すように話者からの問いかけを平叙文と誤認識してしまい不適切な応答を返すといった問題が起こる. このような発話テキストに依らない疑問表現は日常対話においてたびたび用いられている. 目良ら[3]の音声対話システム実験では, 実験参加者 7 人による延べ 209 発話中 57 件が疑問発話であり, うち 20 件が発話文字列だけでは区別できない疑問表現であった. そこで本研究では, 従来の音声対話システムでは扱えない “抑揚による疑問表現”を考慮して応答を生成する音声対話システムを提案する。 また提案システムの要素技術である “発話音声の音響的特徴から疑問表現を判定する手法”と“疑問符の有無を考慮した GPT モデルでの応答生成手法”を実装する。 図 1 : 抑揚による疑問表現への対応 ## 2 関連研究 杉山ら[1]は, 雑談を通じて名所についての知識,行った経験, 具体的な印象の 3 要素を順に引き出す対話を行うシステムを提案している。このシステムでは,主にテキストベースで対話を進めていき,アジェンダに基づく対話制御の考えに沿って自然な対話の流れを実現していく。 また, 藤原ら[2]は, 系列変換応答生成モジュールと知識ベース応答生成モジュールによって生成された応答候補からフィルタリングによって最終的な応答を決定する手法を提案している。この手法では知識ベースによりある程度の質問に対応可能であるが, テキストベースのフィルタリング手法を用いているため発話文字列のみでは区別することができない疑問表現に対応することは困難である. これらの手法ではいずれも話者の口調や表情などのノンバーバル情報を考慮していない。一方,目良ら[3]はユーザのノンバーバル情報から話者感情を推定し, 推定した感情を考慮して応答できる音声対話システムを提案している。そこで本研究では, 目良ら[3]の手法をべースとして, 発話の音響特徴量から話者感情の代わりに疑問表現か否かを判定することで,ノンバーバルな疑問表現を考慮した音声対話システムを実現する。 ## 3 抑揚による疑問表現を考慮した音声対話システム 本論文では,目良ら[3]の “発話の音響的特徴から推定した話者感情を絵文字として発話文字列の末尾に付与することによって話者感情を考慮した応答を生成する手法”をべースとして,“発話の音響的特徴から判定した疑問表現を疑問符として発話文字列の末尾に付与寸ることによって疑問表現を考慮した応答を生成する手法”を提案する。 ## 3.1 提案手法のシステム構成 図 2 亿提案するシステムの概要を示す。まず,話者の発話音声に対して音声認識を行うと同時に, 疑問表現判定部で入力発話音声の音響的特徴から疑問表現か否かを判定し, 疑問文と判定された場合は音声認識から得られた入力発話文字列の末尾に疑問符を付加する. その入力発話テキストに対して, 応答発話生成部ではファインチューニングを行った GPT モデルによって応答発話テキストを生成する.疑問表現判定処理については 3.2 節, 応答発話テキスト生成手法については 3.3 節で詳しく説明する. ## 3.2 音響情報に基づく疑問表現判定 本手法では, 発話音声データから算出した静的音響特徴量を LightGBM[4]に学習させることで, 入力発話音声が平叙文か疑問文か 2 クラス分類する機械学習分類器を構築する. 学習用音声データとしては,「BTSJ 日本語自然会話コーパス」[5]の対話音声データを使用する. 本コ一パスには友人同士や初対面同士などの状況での 2 名間の対話が収録されており,対話時間は約 10 分から 30 分である. また, それぞれの対話音声データに対する書き起こし文も用意されている. この対話音声データを 1 発話単位で切り取ることにより, 平叙文,疑問文の発話音声データをそれぞれ 200 件ずつ収集した. なお, 平叙文, 疑問文とする基準は各対話音声デー夕に対する書き起こし文末尾の疑問符の有無としている. 発話音声データから算出する音響特徴量セットとしては, openSMILE の eGeMAPSv02 feature set および emobase2010 feature set を使用する. 両 feature set では,それぞれ 88 種類および 1,582 種類の静的特徴量が算出される. eGeMAPSv02 feature set はほとんどの特徴量が算術平均と変動係数のみとなっているの 図 $2:$ 提案手法のシステム構成 に対して, emobase2010 feature set は各波形の一次導関数を取得することができ,また各波形から線形近似直線の傾きや四分位, 標準偏差等の静的特徴量も算出することができる. ## 3.3 応答発話テキスト生成手法 本節では,疑問表現発話の末尾に疑問符を付与した入力発話テキストに対して,疑問表現であることを考慮した応答を生成するシステムについて説明する. 応答発話テキストを生成するシステムは, rinna 社が公開している GPT-2[6]をべースとして, 日本語日常会話コーパス[7]によってファインチューニングを行うことで構築する。 日本語日常会話コーパスは,性別・年齢を考慮して選別された協力者 40 名により,日常で発生する会話を協力者自身によって記録してもらうことで収集したコーパスである。本コ ーパスには収集した対話音声に対応する転記テキストが収録されており,本手法では転記テキストを全てファインチューニング用データとして使用する. 本コーパスの転記テキストには笑いが生じている箇所や音の詰まり等の非言語的情報がタグで表記されているが, 本手法ではテキストデータを扱うため,学習の際は読点を除く非言語的情報のタグを削除している。 このようにして前処理を行ったデータから,末尾に疑問符が存在する転記テキストとその直後の転記テキストをぺアとする疑問符付きファインチューニング用データを作成した。平叙文にも対応できるように,入力文の末尾が疑問符ではなく読点であるぺアも同様に作成している。これにより作成したファインチューニング用データの件数は, 平叙文が 523,984 件,疑問文が 53,489 件となった。 ## 4 評価実験 本実験では,発話の音響特徴量を用いた疑問表現の有無の判定処理および, 疑問符の有無による応答候補の変化について評価実験を行う。 ## 4.1 疑問表現推定実験 本実験では, 3.2 節で説明した音響特徴量セットから算出される発話の音響特徴量を用いて, 疑問表現の有無での 2 クラス分類の正解率の評価を行う。なお emobase2010 feature set は算出される音響特徴量が 1,582 種類と学習データ数よりかなり多いため過学習を起こしてしまう恐れがある. そこで特徴量の重要度上位 20 種の静的特徵量に限定した学習実験も行った. 重要度の算出は, ある特徵量が機械学習モデル全体において目的関数の改善に貢献した度合いを示す gain[8]を用いた. 表 1 に特徴量重要度上位 20 種を示す。 機械学習実験の結果を表 2 に示す. emobase2010 feature set での特徴量重要度上位 20 種の静的特徴量のみ使用した結果が正解率 0.76 と最も高い結果となった.これは emobase2010 feature set には各波形の一次導関数が存在するため, 各波形の時系列変化の傾向を学習できたものと考えられる. また, 特徵量重要度上位 10 種の大半は声の高さに関係する基本周波数に関連する静的特徵量であったことから, 声の高さの変化は疑問表現を判定する際に有効であるといえる. また, 1,582 種類の静的特徴量を特徴量重要度上位 20 種に絞り込むことにより, 関連性が低い特徵量を除外することができたため, 正解率が大幅に向上したと考えられる。 ## 4.2 疑問表現に対する応答生成実験 次に, 提案手法によって生成された応答発話テキストが入力発話の疑問表現に合った応答となっているかについての実験を行う. 発話文字列のみでは疑問表現か否か区別できない文字列を実際の対話事例から収集し,疑問符がある場合とない場合の両方のテキストに対して応答発話テキストを生成した. 本手法によって生成された応答発話テキストの例を表 3 に示す.この結果より, 発話文字列のみでは疑問表現として区別できない文字列でも疑問符を付加することで適切な応答発話テキストを生成できることを確認できた.表 $1:$ 重要度上位 20 種の静的特徴量 表 2 : 抑揚による疑問表現推定手法の正解率の比較 表 3 : 提案手法によって生成された応答発話 (a)「この犬かわいくない(?)」への応答発話 \\ (b)「元気(?)」への応答発話 \\ (c)「体調は大丈夫(?)」への応答発話 \\ ## 5 おわりに 本研究では, 従来の音声対話システムでは扱えない“入力発話音声の抑揚による疑問表現”を考慮して応答を生成する音声対話システムを提案し, システムの要素技術である “発話音声の音響特徴量から疑問表現を判定する手法” と “疑問符の有無を考慮した GPT モデルでの応答生成手法” を実装した. 要素技術に対する評価実験の結果, 疑問表現判定実験における正解率は 0.76 であった. また,「抑揚による疑問表現を疑問符によって表現した入力発話テキストに対しては,疑問表現を考慮した応答発話テキストを生成することができた。 今後は,抑揚による疑問表現検出性能の向上と,得られた応答候補から適切な応答を選択するフィルタリング機能を開発することで,提案手法に基づく音声対話システム全体を構築する予定である. ## 謝辞 本研究の一部は国立研究開発法人科学技術振興機構(JST)の「COI プログラム令和 4 年度加速支援 (グラント番号 JPMJCA2208)」の支援によって行われた。 ## 参考文献 [1] 杉山弘晃, 成松宏美, 水上雅博, 有本庸浩: 自然な流れに沿って対話を進めるアジェンダベース雑談対話システム, 人工知能学会研究会資料 SIG-SLUD-B902-12, pp58-61, 2019. [2] 藤原吏生, 岸波洋介, 今野颯人, 佐藤志貴, 佐藤汰亮, 宮脇峻平, 加藤拓真, 鈴木潤, 乾健太郎 : ILYS aoba bot : 大規模ニューラル応答生成モデルとルールベースを統合した雑談対話システム,人工知能学会研究会資料 SIG-SLUD-C002-25, pp110-115, 2020. [3] 目良和也, 黒澤義明, 竹澤寿幸 : ユーザの非言語的な感情表出を考慮した音声対話手法, 知能と情報 (日本知能情報ファジィ学会論文誌), Vol. 34, No. 3, pp.555-567, 2022. [4] G.Ke, Q.Meng, T.Finley, T.Wang, W.Chen, W.Ma, Q.Ye, and T.Liu. LightGBM : A Highly Efficient Gradient Boosting Decision Tree, In 31st Conference on Neural Information Processing Systems (NIPS 2017), pp.1-9, 2017. [5] 宇佐美まゆみ監修, 『BTSJ 日本語自然会話コー パス(トランスクリプト・音声)2021 年 3 月版』,国立国語研究所, 機関拠点型基幹研究プロジェク卜「日本語学習者のコミュニケーションの多角的解明」, 2021. [6] A. Radford, J. Wu, R. Child, D. Luan, D. Amodei, and I. Sutskever: Language Models are Unsupervised Multitask Learners, Technical Report OpenAI, 2019. [7] 小磯花絵 - 天谷晴香 - 石本祐一 - 居關友里子臼田秦如・柏野和佳子・川端良子 - 田中弥生 - 伝康晴・西川賢哉・渡邊友香「日本語日常会話コー パスの設計と特徴」(言語処理学会第 28 回年次大会発表論文集) [8] xgboost developers, Introduction to Boosted Trees, https://xgboost.readthedocs.io/en/latest/tutorials/model .html\#learn-the-tree-structure (2022 年 1 月 12 日アクセス)
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A5-2.pdf
# 異言語話者の対話を仲介する音声対話翻訳 清水周一郎 ${ }^{1}$ Chenhui Chu ${ }^{1}$ Sheng $\mathrm{Li}^{2}$ 黒橋禎夫 ${ }^{1}$ 1 京都大学大学院情報学研究科 2 情報研究通信機構 (NICT) \{sshimizu,chu,kuro\}@nlp.ist.i.kyoto-u.ac.jp [email protected] ## 概要 本研究では、異言語話者の対話を仲介する音声対話翻訳という新たな機械翻訳のパラダイムを提案する。日英のビジネスシーン対話コーパスに音声と話者情報を付与した SpeechBSD コーパスを構築し、 ベースラインの実験を行った。音声対話翻訳においては文脈を考慮することが重要であるため、単言語文脈と二言語文脈の 2 つの設定で文脈を構成した。 Whisperを用いた音声認識と mBART の fine-tuning による機械翻訳を組み合わせた cascade 音声翻訳の実験を行い、二言語文脈の有効性を示した。 ## 1 はじめに グローバル化に伴い、異なる言語を母語とする人々の間のコミュニケーションの重要性が高まっている。しかし、世界には言語の「壁」が存在し、コミュニケーションを妨げる大きな原因となっている。テキスト翻訳の精度は近年のニューラル機械翻訳の発展によって向上した。しかし、人間同士の意思疎通において最も重要な役割を果たす対話の分野における翻訳の研究は未だ少ない。テキストの対話であるチャットにおける対話翻訳の研究はされている $[1,2,3]$ が、音声での対話翻訳の研究はされていない。 本研究では、「音声対話翻訳」という新しい機械翻訳のパラダイムを提案する。音声対話翻訳においては、複数の話者が異なる言語を話す多言語対話 (異言語話者の対話)を考え、ある言語の音声を別の言語のテキストに翻訳する1)。応用例としては、大学のゼミをはじめとした、異なる言語を話す話者が集まるミーティングにおける利用が考えられる。 また、音声対話翻訳を行う際、異なる言語の文脈を利用することで、翻訳の曖昧性を解消することを目指す(図 1)。  に焦点を当てるため、音声合成は別のモジュールと考える。 図 1 音声対話翻訳における文脈の重要性 本研究では、日英の音声対話翻訳を扱った。音声対話翻訳のデータセットは存在しないため、既存のテキスト対話コーパスであるビジネスシーン対話コーパス [4]を用いて、対応する音声をクラウドソーシングで収集して SpeechBSD データセットを構築した。また、文脈を考慮した音声対話翻訳システムとして、既存研究の手法 [5] を対話に適用した単言語で文脈を構成する手法と、二言語で文脈を構成する手法を試した。 音声翻訳の手法として、原言語の音声を目的言語のテキストに直接変換する end-to-end の手法 $[6,7]$ と、原言語の音声を書き起こして機械翻訳への入力とする cascade の手法 [8] があるが、本研究では cascade で実験を行った。2) 音声認識は、事前学習された大規模音声認識モデルである Whisper [11]を用いた。機械翻訳の実験では、文脈を利用しない場合、単言語文脈を利用する場合、二言語文脈を利用する場合の 3 つの設定で mBART [12]を用いて実験した。それらを組み合わせた cascade 音声翻訳の実験により、二言語文脈の有効性を示した。 ## 2 関連研究 Zhang ら [5] は、音声翻訳における文脈の利用の有効性を示した。彼らは翻訳したい発話より前の発話を文脈として利用し、文脈と発話をともに翻訳するという手法を試し、その有効性を示した。文脈の 2)近年の研究 $[9,10]$ から、end-to-end と cascade の手法にほとんど性能の差は見られないことが分かっている。End-to-end ではモデルが複雑になることが多く分析が難しくなるため、本研究では casade で実験を行った。 利用方法を複数提案しており、本研究ではそのうちの sliding window based decoding を採用している。 Zhang らの研究では 1 人の話者が講演形式で話すコーパスでの実験であったが、本研究では対話形式の状況に焦点を当てる点が異なる。 Liang ら [1] はテキストでの対話であるチャットにおける対話翻訳の研究を行い、文脈や話者情報を利用することで翻訳性能が向上することを示した。彼らは文脈を利用した翻訳タスクに加え、対話の応答予測や文脈の判定タスクなど計 5 つのタスクををマルチタスク学習し、それらが対話の翻訳に有効であることを示した。本研究はテキストではなく音声の対話に焦点を当てる点が異なるほか、新たな二言語文脈の構成方法を提案している。 ## 3 音声対話翻訳 音声対話翻訳においては、複数の話者 $S^{m}(m=$ $1,2, \cdots, M)$ が異なる二言語 $L^{n}(n=1,2)$ を話す異言語話者の対話を考える。対話 $D=\left(U_{1}, \cdots, U_{T}\right)$ における発話 $U_{t}(t=1,2, \cdots, T)$ は $U_{t}=\left(S_{t}^{m}, L_{t}^{n}, X_{t}\right)$ で表される。ここで $S_{t}^{m}$ は発話の話者、 $L_{t}^{n}$ は発話音声の言語、 $X_{t}$ は発話の音声信号を表す。 $X_{t}$ と内容の等しい言語 $L^{n}$ のテキストを $Y_{t}^{n}(n=1,2)$ とする。音声対話翻訳のタスクは、各発話 $U_{t}$ について、音声信号 $X_{t}$ から対応する翻訳 $Y_{t}^{2}$ (原言語が $L^{1}$ の場合)または $Y_{t}^{1}$ (原言語が $L^{2}$ の場合)を生成することである。音声対話翻訳においては、文脈を考慮することが重要である。例として、英語話者と日本語話者が何らかの問題について対話している状況を考える(図 1)。英語話者が “Whad do you think about this idea?” と発話し、日本語話者が「少し甘いと思います」と返したとする。このとき、翻訳システムが文脈を考慮しない場合、2つ目の発話が文脈を考慮せずに翻訳されて「甘い」を“naive”でなく“sweet”と翻訳してしまう可能性が高い。英日双方の文脈を考慮することで、この対話の文脈における「甘い」の意味が明確になり、適切な翻訳が可能になると期待される。 ## 4 音声対話翻訳データセットの構築 音声対話翻訳のデータセットを構築するため、既存のテキスト対話コーパスであるビジネスシーン対話コーパス(以下、BSDコーパス)[4]を用いて、対応する音声と話者情報をクラウドソーシングで収集した。収集した音声と話者属性が付いた BSDコー パスを SpeechBSD コーパスと呼ぶこととする。 ## 4.1 BSD コーパス BSDコーパスは、対話における機械翻訳を推進するために人手で設計されたコーパスである。BSD コーパスはシナリオと呼ばれる単位の対話から成り、各シナリオでは 2 人以上の話者が対話している。シナリオの原文は半分が日本語、半分が英語となっており、言語によって表現が偏ることがないよう構成されている。シナリオによって含まれる文数は異なるが、平均して 30 文程度である。 ## 4.2 構築方法 シナリオを話者ごとに分割し、クラウドソーシングにより音声を収集した。クラウドソーシングのプラットフォームとして、日本語は Yahoo!クラウドソーシング3)、英語は Amazon Mechanical Turk ${ }^{4}$ を用いた。音声を録音する Web ページを設計し、各プラットフォームからリンクで誘導して音声の収集を行った。録音にあたっては、静かな環境で行い、 はっきりと丁寧に発音するよう指示を出した。また、録音データと共に話者の出身地(日本語の場合都道府県、英語の場合アメリカの州)及び性別の情報を集めた ${ }^{5)}$ 。英語の音声の収集にあたっては、 ワーカーの出身地をアメリカ合衆国に限定した。 ## 4.3 収集した音声及び話者属性の統計 収集した音声の統計を表 1 に示す。英語音声が計 24.3 時間、日本語音声が計 30.7 時間であった。男声/女声については英語は偏りがなく、日本語ではやや男声が多かった。出身地については、日本語では人口の分布に概ねしたがっていたが、英語では分布に偏りがあった(付録図 2)。このようなデータの偏りは英語と日本語で異なるクラウドソーシングプラットフォームを利用したことに起因すると考えられる。 ## 5 文脈を考慮した音声対話翻訳 ここでは、音声対話翻訳において文脈を考慮する手法として、単言語文脈と二言語文脈の 2 つを考える。 $M=2$ の場合で考える。 $m=n$ (話者 $S^{i}$ が言語 $L^{i}(i=1,2)$ で話す) としても一般性を失わない。ま 3) https://crowdsourcing.yahoo.co.jp/ 4) https://www.mturk.com/ 5)これらの情報の収集にあたりワーカーの同意を得ている。 表 1 SpeechBSDコーパスの統計 た、簡単のため、話者は交互に発話し、話者 $S^{1}$ が対話を始めるものとする6)。すなわち、 $ { }^{\forall} U \in\left.\{U_{t} \mid t \bmod 2=i\right.\}, \quad L(U)=L^{i} $ ## とする。 まず、 $S^{i}$ の時点 $t(t=1,2, \cdots, T)$ での各発話 $U_{t}=\left(S_{t}^{i}, L_{t}^{i}, X_{t}\right)$ 亿対し、音声認識システムを用いて書き起こし $Y_{t}^{i}(t=1,2, \cdots, T)$ を得る。音声認識における文脈の必要性は機械翻訳と比べて小さいと仮定し、ここでは文脈を考慮しない。 1つ目の単言語文脈を利用する手法は、書き起こしを機械翻訳したテキスト7)を用いて単言語で文脈を構成し、その文脈を用いて翻訳したい発話を翻訳する手法である。発話 $U_{\tau}$ の言語 $L^{i}$ についての単言語文脈のテキストは $ \boldsymbol{Y}_{<\tau}^{i}=\left.\{Y_{t}^{i} \mid t<\tau\right.\}, \quad i=1,2 $ で表せる。この場合、機械翻訳システムは単言語対のものが 2 つでも良いし、二言語対に対応した 1 つの翻訳システムでも良い。本研究では単言語対の機械翻訳システム 2 つを用いた。 $L^{1}$ を原言語、 $L^{2}$ を目的言語とする機械翻訳モデルは、以下の対数尤度を最大化するように学習する。 $ \mathscr{L}^{1 \rightarrow 2}=\sum_{t} \log \mathrm{P}\left(Y_{t}^{2}, \boldsymbol{Y}_{<t}^{2} \mid Y_{t}^{1}, \boldsymbol{Y}_{<t}^{1}\right) $ 文脈及び翻訳対象の発話は発話順 $t$ に沿って与える。出力は $Y_{t}^{2}$ と $Y_{<t}^{2}$ が共に出てくるため、後処理により $Y_{t}^{2}$ のみを取り出す。 $L^{2}$ を原言語、 $L^{1}$ を目的言語とする場合も同様である。 2つ目の二言語文脈を利用する手法は、文脈を二言語の書き起こし ${ }^{8)}$ から構成する手法である。発話 6)本研究で用いるデータセットでは、同じ話者による連続した複数の発話は別の発話として扱うため、話者が交互に発話するわけではない。また、話者が 3 者以上の場合、対話内での登場順に番号を振り、番号の偶奇が一致する話者は同じ言語を話すものとして扱う。 7)推論時には書き起こしを用いるが、訓練時にはそれに対応する正解のテキストを用いる。 8)同様に推論時のみで、訓練時にはそれに対応する正解のテキストを用いる。 $U_{\tau}$ の二言語文脈のテキストは $\boldsymbol{Y}_{<\tau}=\tilde{\boldsymbol{Y}}_{<\tau}^{1} \cup \tilde{\boldsymbol{Y}}_{<\tau}^{2}$ で表せる。ここで $ \tilde{\boldsymbol{Y}}_{<\tau}^{i}=\left.\{Y_{t}^{i} \mid t<\tau \wedge t \bmod 2=i\right.\}, \quad i=1,2 $ である。この場合、機械翻訳システムは二言語対に対応したものである必要がある。 $\boldsymbol{Y}_{<\tau}$ の翻訳を $\overline{\tilde{\boldsymbol{Y}}_{<\tau}^{i}}=\left.\{Y_{t}^{j} \mid t<\tau \wedge t \bmod 2=i\right.\}, \quad(i, j)=(1,2),(2,1)$ である。二言語文脈を扱う機械翻訳モデルは、以下の対数尤度を最大化するように学習する。 $ \mathscr{L}=\sum_{t} \log \mathrm{P}\left(\overline{Y_{t}}, \overline{\boldsymbol{Y}_{<\tau}} \mid Y_{t}, \boldsymbol{Y}_{<\tau}\right) $ ここで、 $\overline{Y_{t}}$ は $L\left(U_{t}\right)=L^{1}$ のとき $Y_{t}^{2} 、 L\left(U_{t}\right)=L^{2}$ のとき $Y_{t}^{1}$ とする。文脈及び翻訳対象の発話は発話順 $t$ に沿って与え、出力は後処理により $\overline{Y_{t}}$ のみを取り出す。 なお、文脈 $\boldsymbol{U}_{<\tau}=\left.\{U_{t} \mid t<\tau\right.\}$ を考える際、モデルの入力長には制限があるため、文脈幅 $c$ を考慮する。発話 $U_{\tau}$ の文脈幅が $c$ の文脈は $\boldsymbol{U}_{<\tau}=\left.\{U_{t} \mid t=\tau-1, \cdots, \tau-c \wedge t>0\right.\}$ で表せる。 ## 6 実験 ## 6.1 音声認識 本研究は日英の翻訳を対象とするため、日本語と英語の音声認識器が必要となる。本研究では、多言語音声認識及び英語を目的言語とする多言語音声翻訳のマルチタスクモデルである Whisper [11]を用いた。Whisper は log-Mel spectrogram 特徴量を大力に用いた Transformer [13] ベースのモデルで、計 680,000 時間の音声データを用いて教師あり学習されており、多様なドメインのデータで訓練することによって頑健性の高い性能を達成している。 encoder 12 層、decoder 12 層の medium fine-tuning 等を行わずに用いた。語彙は公開されている語彙サイズ 50,257 の byte-level BPE モデルを用いた。 SpeechBSDコーパスの評価データで音声認識の予測を行い、日本語は文字誤り率 (CER)、英語は単語誤り率 (WER) で評価した。結果は日本語の CER が $13.2 \%$ 、英語の WER が $8.3 \%$ であった。 ## 6.2 機械翻訳 本研究では翻訳の際に二言語の文脈を考慮するため、二言語対に対応した機械翻訳モデルを用いる必 要がある。本研究では mBART [12] の 25 言語版(日本語を含む)の large(各 12 層の encoder と decoder から成る Transformer)モデルを用いて、公開されている語彙(語彙サイズ $250,001 \mathrm{~ ) 用いて ~ B S D コ ー ~}$ パスで fine-tuning を行った。実装には Fairseq [14] を用いた。設定として文脈を利用しない場合、単言語文脈を利用する場合、二言語文脈を利用する場合の 3つを試した。 ## 6.2.1 実験設定 文脈を利用しない場合対話の各発話を個別のものとして扱い、通常の機械翻訳と同じ方法で mBART の fine-tuning を行った。モデルは日英・英日で個別のものとした。前処理として、日本語・英語の各文に mBART の sentencepiece model を適用してサブワード分割を行った。訓練時のハイパーパラメータは基本的に mBART [12] の論文と同じものを用いたが、開発データの loss に基づく patience 10 の early stopping を採用した。Checkpoint を epoch ごとに保存し、翻訳生成時のモデルには最後の 10 checkpoint を平均したものを用いた。評価には SacreBLEU [15]を用いた9)。 単言語文脈を利用する場合各シナリオで 5 節の方法で文脈幅 $c=2^{10)}$ の単言語文脈を構成し、 mBART の fine-tuning を行った。モデルは日英・英日で個別のものとした。文脈及び翻訳する発話同士は end of sentence トークン</s>で繋げた。そのほかのパラメータは文脈を利用しない場合と同じである。 二言語文脈を利用する場合各シナリオで 5 節の方法で文脈幅 $c=2$ の二言語文脈を構成し、mBART の fine-tuning を行った。文脈及び翻訳する発話同士は end of sentence トークン</s>で繋げた。mBARTでは入出力の最後のトークンとしてja_xx や en_xx といった言語タグを用いて翻訳の言語対を指定する必要がある。二言語文脈を使用する場合には原言語や目的言語といった考え方ができないため、入力側に ja_XX、出力側に en_Xxをつける場合とその逆の場合を試し、BLEU スコアはその平均をとった (両者に顕著な差は見られなかった。)また、評価の際には文脈を利用しない場合と同じ出力形式となるように戻して評価した。そのほかのパラメータは文脈を利 9) 英日: nrefs:1|case:mixed|eff:no|tok: ja-mecab-0.996IPA|smooth: exp|version:2.0.0 日英: nrefs:1|case:mixed|eff:no|tok:13a|smooth: $\operatorname{exp|}$ version:2.0.0 10)Zhang らの研究で性能の高かった値を採用した。表 2 機械翻訳 (MT) 及び cascade 音声翻訳 (Cascade ST) の BSDコーパス評価データの BLEU スコア 用しない場合と同じである。 ## 6.2.2 結果 表 2 に文脈を用いなかった場合、単言語文脈を用いた場合、二言語文脈を用いた場合の比較を示す。文脈を用いなかった場合と比べて、単言語文脈の利用により英日・日英とも 0.9 ポイントの BLEU スコアの改善が見られた。単言語文脈と二言語文脈を使用した場合の結果に顕著な差は見られなかった。 ## 6.3 Cascade 音声翻訳 音声認識の出力を機械翻訳への入力とすることで cascade 音声翻訳の実験を行った。手法は 5 節で記述した通りである。音声認識には Whisper の出力結果を用い、文脈を利用しない場合、単言語文脈を利用する場合、二言語文脈を利用する場合のそれぞれで実験した。 結果を表 2 に示す。音声翻訳においても、文脈を用いなかった場合と比べて、単言語文脈を利用することで 0.4-0.7 ポイントの BLEU スコアの改善が見られた。また、二言語文脈を利用した場合はさらに 0.2 - 1.3 ポイントの改善が見られた。 ## 7 おわりに 本研究では、音声対話翻訳という新たな研究の枠組みを提案し、クラウドソーシングを用いた音声収集により SpeechBSD コーパスを構築した。文脈の利用方法として単言語文脈を利用する手法と二言語文脈を利用する手法を試し、実験によって二言語文脈の有効性を示した。今後の展望として、 end-to-end の音声翻訳モデルの実験や、話者の属性情報を用いた音声翻訳を行う予定である。 ## 謝辞 本研究は JSPS 科研費 JP19K20343 及びサムスン SDS 株式会社の助成を受けたものである。 ## 参考文献 [1] Yunlong Liang, Chulun Zhou, Fandong Meng, Jinan Xu, Yufeng Chen, Jinsong Su, and Jie Zhou. Towards making the most of dialogue characteristics for neural chat translation. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 67-79, Online and Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. [2] Yunlong Liang, Fandong Meng, Yufeng Chen, Jinan Xu, and Jie Zhou. Modeling bilingual conversational characteristics for neural chat translation. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 5711-5724, Online, August 2021. Association for Computational Linguistics. [3] Yunlong Liang, Fandong Meng, Jinan Xu, Yufeng Chen, and Jie Zhou. Scheduled multi-task learning for neural chat translation. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 4375-4388, Dublin, Ireland, May 2022. Association for Computational Linguistics. [4] Mat̄̄ss Rikters, Ryokan Ri, Tong Li, and Toshiaki Nakazawa. Designing the business conversation corpus. In Proceedings of the 6th Workshop on Asian Translation, pp. 54-61, Hong Kong, China, November 2019. Association for Computational Linguistics. [5] Biao Zhang, Ivan Titov, Barry Haddow, and Rico Sennrich. Beyond sentence-level end-to-end speech translation: Context helps. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 2566-2578, Online, August 2021. Association for Computational Linguistics. [6] Long Duong, Antonios Anastasopoulos, David Chiang, Steven Bird, and Trevor Cohn. An Attentional Model for Speech Translation Without Transcription. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, 2016. [7] Alexandre Berard, Olivier Pietquin, Christophe Servan, and Laurent Besacier. Listen and Translate: A Proof of Concept for End-to-End Speech-to-Text Translation. In NIPS Workshop on End-to-end Learning for Speech and Audio Processing, 2016. [8] F. W. M. Stentiford and M. G. Steer. Machine translation of speech. British Telecom technology journal, 1988. [9] Luisa Bentivogli, Mauro Cettolo, Marco Gaido, Alina Karakanta, Alberto Martinelli, Matteo Negri, and Marco Turchi. Cascade versus direct speech translation: Do the differences still make a difference? In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 2873-2887, Online, August 2021. Association for Computational Linguistics. [10] Viet Anh Khoa Tran, David Thulke, Yingbo Gao, Christian Herold, and Hermann Ney. Does Joint Training Really Help Cascaded Speech Translation?, 2022. [11] Alec Radford, Jong Wook Kim, Tao Xu, Greg Brockman, Chiristine McLeavey, and Ilya Sutskever. Robust Speech Recognition via Large-Scale Weak Supervision, 2022. [12] Yinhan Liu, Jiatao Gu, Naman Goyal, Xian Li, Sergey Edunov, Marjan Ghazvininejad, Mike Lewis, and Luke Zettlemoyer. Multilingual denoising pre-training for neural machine translation. Transactions of the Association for Computational Linguistics, Vol. 8, pp. 726-742, 2020. [13] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, L ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I. Guyon, U. V. Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 30. Curran Associates, Inc., 2017. [14] Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. fairseq: A fast, extensible toolkit for sequence modeling. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics (Demonstrations), pp. 48-53, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [15] Matt Post. A call for clarity in reporting BLEU scores. In Proceedings of the Third Conference on Machine Translation: Research Papers, pp. 186-191, Brussels, Belgium, October 2018. Association for Computational Linguistics. (a) 日本語 (b) 英語 図 2 収集した音声の話者の出身地の発話数による分布
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A5-3.pdf
# ReazonSpeech: A Free and Massive Corpus for Japanese ASR Yue Yin $^{1}$ Daijiro Mori ${ }^{1}$ Seiji Fujimoto $^{2}$ ${ }^{1}$ Reazon Holdings, Inc. ${ }^{2}$ Clear Code, Inc. \{yue_yin, daijiro_mori\}@reazon.jp [email protected] } \begin{abstract} ReazonSpeech is a 15,000 -hour and continuously growing corpus collected from Japanese TV shows free for commercial usage. The automatic speech recognition (ASR) model trained on ReazonSpeech achieves state-of-the-art results with $8.23 \%$ character error rate (CER) on JSUT basic5000[1] and $9.93 \%$ on Common Voice[2] v8.0 test set, on par with the recently released Whisper[3] largev2 model. We released the dataset creation toolkit under Apache License 2.0 and made both the corpus and the pretrained ASR model freely available ${ }^{1)}$. \end{abstract ## 1 Introduction End-to-end (E2E) automatic speech recognition has recently drawn attention for its state-of-the-art results on benchmark datasets in terms of accuracy and its promise for not needing in-depth expertise compared to hybrid models[4]. With the release of large-scale corpora and models for English, the development of English E2E ASR is flourishing more than ever. Compared to English, Japanese is still resource-scarce and the development of E2E ASR is largely hindered by this scarcity. This paper introduces our attempt to construct a freely available largescale high-quality Japanese ASR corpus from TV recordings via bootstrapping labeling seeding from a small-scale corpus. The release of the corpus is bundled with the creation pipeline free-and-open-source for continual evolution. The initial release of the corpus consists of 15,735 hours of audio data and is by far the largest freely available Japanese ASR corpus of our knowledge and the construction is intended to be continuous. With the Amendment to the Copyright $\mathrm{Act}^{2}$ ) encouraging the use of digital contents in AI going on in Japan since 2019, we hope to ride the  crest of the wave and bring Japanese E2E ASR to a new stage by open-sourcing the project. ## 2 Related Work There has been a line of research on creating Japanese ASR corpora recently. High-quality corpora that require human efforts such as CSJ[5], and Common Voice[2] have been explored extensively for Japanese ASR for the last decades. While highly supervised corpora are fundamental for hybrid models and remain essential to E2E ASR as benchmark datasets for evaluation, the expensive human labor cost casts a limit on the scalability of such highly supervised corpora in terms of E2E training. These days, the popularity of bootstrapping audiotranscription pairs for ASR training from media like audiobooks and subtitled videos using existing ASR resources has taken a rise. Corpora like The People's Speech [6] and GigaSpeech[7] have shown the competency of automatically generated large-scale corpora for ASR training. For Japanese, LaboroTVSpeech[8] and JTubeSpeech[9] have been introduced in recent years and built up a solid foundation for Japanese E2E ASR. More recently, with the release of Whisper[3], sacrificing the supervision for scale is shown to be promising for E2E ASR. In this work, we applied the automatic construction techniques to TV recordings and further seeks the potential of constructing largescale datasets without depending on existing resources. ## 3 Corpus Construction A lot of Japanese TV shows are aired with subtitles that can be leveraged for ASR corpus creation. However, the subtitles cannot be directly used to construct an ASR corpus mainly due to the following reasons: 1. timestamps are inaccurate, especially for news and live TV programs 2. transcriptions are missing for commercials and speech Figure 1 Corpus construction workflow that has its transcription embedded in the video 3. transcriptions are inaccurate, especially when the speech is informal (eg. deletion of filler phrases) Of the above limitations, we aim to address 1 and 2 by refining the alignment between text transcription and audio. We leave limitation 3 out of account because of its complexity and the amount of human effort required. The workflow of the construction is illustrated in Figure 1. ## 3.1 Pretrained ASR Models for Alignment ASR based As suggested in [7, 8, 10], one can automatically generate a corpus using ASR-based alignment and cleansing by leveraging the divide-and-conquer. LaboroTVSpeech[8] and GigaSpeech[7] use the strategy proposed in [11] which consists of a pretrained acoustic model and a biased language model through Kaldi[12] interface. Inspired by this approach, we tried ASR-based alignments for the corpus. We broke down the audio into utterances using voice activity detection through pyannotate[13] and resegmented subtitles into complete sentences using GiNZA[14] through SpaCy framework[15]. We then transcribed the audio segments using an ASR model pretrained on LaboroTVSpeech[16] and matched the audio and transcription chunks based on the ASR results using a dynamic programming-based algorithm as illustrated in Figure 5 in the appendix. By listening to the extracted utterances, we noticed a lot of insertion/deletion at the beginning/end, suggesting that this approach is inadequate to resolve the missing transcription issue 2. Besides, certain words occur repeatedly throughout the entire TV show, making the matching error-prone. In our experience with this method, the quality of the constructed corpus and extraction efficiency largely depends on the accuracy and agreement of the intermediate processes, and this dependency unnecessarily aggregates er- rors and introduces overheads in computation. CTC segmentation based Finding out that using ASR results overcomplicate the task and suffers from missing transcriptions drove us to rethink the possibility to leverage the inaccurate timestamps that have been ignored. JTubeSpeech[9] has suggested the viability of anchoring text in a longer audio segment for corpus creation on Japanese subtitled YouTube videos. The success of this work hinted at the possibility to reframe the task to anchor the text in a longer audio segment which is a superset of the actual utterance by utilizing the fuzzy timestamps in the subtitles. As suggested in this work of German corpus construction[17], there are several established methods for alignment: - Acoustics based: Montreal Forced Aligner[18], Kaldi [12]based scripts, etc. - Text-to-speech based: Aeneas[19] - Connectionist Temporal Classification outputs based: CTC segmentation[17] Amongst the above methods, we chose to experiment with CTC through ESPnet2[20] interface as we have access to a noise-tolerant pretrained model under the same-domain corpus LaboroTVSpeech[16]. Moreover, this method is independent of in-depth language-specific knowledge and compatible with our eventual E2E training goal. To test the compatibility of the CTC segmentation approach with our task, we used a model from [16] and added 25 seconds before the starting point of the subtitled timestamp as the inaccuracy usually happens at the beginning. The issues we noticed in ASR based approach are considerably relieved. The positive results confirmed the viability of this method on our task. ## 3.2 Bootstrapping Labeling for Alignment Approach The success in using CTC segmentation [17] shows the promise of the approach leveraging robust pretrained ASR models for corpus creation. However, de- pending on resources that have non-permissive licenses casts restrictions on the constructed corpus, not to mention that such language resource is a luxury that some languages might not have. Therefore we further seek the possibility of loosening the assumption of having an ASR model by leveraging public-domain small-scale data. Bootstrapping labeling methods are shown to be effective in various tasks where there is little data available. The process of bootstrapping labeling usually follows this procedure: 1 . obtain a small amount of labeled data and train a model based on it 2. use the model to label more data 3. select high-quality labeled data to add to the training data 4 . retrain the model 5. repeat 2-4 until satisfactory results are obtained. Although this technique has been applied to different tasks including ASR [21, 22, 23], its efficacy on alignment has not been well-studied. We applied this approach to our task by starting with training an initial model based on Common Voice[2] dataset and grew the aligner iteratively following the procedure described in Figure 2: 1. train 0th-gen ASR model on Mozilla Common Voice[2] v8.0 (47.7 hrs) 2. use ASR model CTC alignment[17] 3. select high-quality aligned utterances 4. retrain ASR model 5. repeat 2-4 until extraction efficiency reaches a satisfactory level Figure 2 bootstrapping labeling flow To speed up the development cycle, we orchestrated a pipeline where ASR training and aligning can be carried out in parallel. The paragraphs below describe how highquality alignments are selected and how the extraction efficiency is measured to monitor the improvements. Figure 3 and 4 show the improvements in extraction efficiency and ASR performance for the models throughout the process. Alignment quality measurement We listened to 200 utterances of variable lengths created by CTC segmentation using the ASR model pretrained on LaboroTVSpeech [16], and 79 utterances are deemed appropriate. Instead of thresholding CTC scores which is a byproduct of the alignment as suggested in JTubeSpeech [9], we use CER(ASR(audio), transcription) $\leq 0.33$ as the threshold to select quality data as it has a higher level of agreement with human judgment: F1 score of 0.87 while using CTC score $>-1$ only has an F1 score of 0.42 . Extraction efficiency evaluation To further quantify the extraction efficiency, we define the metric as $ \text { extraction rate }=\frac{\text { length of text in constructed corpus }}{\text { length of text in subtitles }} $ Note that the extraction rate is an approximate metric as the potential of TV recordings as ASR corpus largely depends on the TV program genre. However, by calculating this metric using the same TV recordings, we are able to compare the extraction efficiency of different models. Figure 3 Extraction rate for every generation on one-day amount of unseen recordings Figure 4 CER on JSUT basic5000 for every generation ## 4 Experimental Results Corpus creation results We used the recordings in 2022.12.27 to compare the extraction rate for every generation of models. As shown in Figure 3, the extraction rate surpassed the LaboroTVSpeech pretrained model[16] starting from the 7 th generation and reached $70.12 \%$ for the released model. The consistently improving extraction rate showed the effectiveness of bootstrapping labeling in our task, eventually allowing us to release the model and corpus freely available. It also revealed the possibility of constructing large-scale corpora for more languages with few labeled resources. ASR results We trained an E2E ASR model using a recipe provided by ESPnet 2 [24] on ReazonSpeech and evaluated the system on the following benchmark datasets: - JSUT[1] basic 5000: a high-quality dataset covers common words originally recorded for text-to-speech. - Common Voice[2] v8.0 test set : 4483 utterances with slightly noisier environments. We used CER after removing punctuation marks and converting numbers to words using num2words[25] to measure the ASR performance. The model trained on ReazonSpeech achieves state-of-the-art performance in terms of CER, on par with the Whisper[3] model trained on 680,000 hours of multilingual data and 7043 hours of Japanese. The comparison on model sizes perspective is attached in the appendix. The competitive results we have on the benchmark datasets showed the usefulness of our corpus. Also by observing the improvements in ASR performance throughout the bootstrapping process, we confirmed our pipeline's capability of fostering continuous evolution. Table 1 Comparison of Model CER (\%) ## 5 Released Corpus information We used 1seg TV recordings from 2021.05.27 to 2022.12.25 to construct the initial release of ReazonSpeech which consists of $10,390,151$ utterances $(15,735$ hours of speech and $227.6 \mathrm{M}$ characters in the transcriptions). The alignment of the corpus is done by the 10th-gen ASR created as the procedure described in 3.2(trained on $10,000 \mathrm{hrs}$, extraction rate $66.84 \%$, with a threshold at CER(transcription, ASR(audio)) $\leq 0.33$ ). The duration of utterance was capped at 14 seconds and the dictionary size at 2600 for training efficiency. The full corpus without duration or dictionary constraints contains $19 \mathrm{k}$ hours of audio. Details about the corpus and TV program genre can be found on our project page. To comply with the Copyright Act, we shuffled the data at the utterance level to prevent the reconstruction of the TV shows for purposes except for ASR researches. We will delete the relevant utterances upon request from the authors of the content. Table 2 Comparison of Japanese ASR Corpora Audio processing To enrich the variability in leading blanks and noises and avoid the abrupt starting of speech, we allowed more span in the beginning during audio segmentation to reduce the possibility of introducing systematic errors brought by CTC segmentation. To ensure no confounding speech gets prepended to the audio, the midpoint between the end of the previous segment and the start of the current segment is set to be the adjusted starting point, and the prepending duration is capped at 3 seconds. Text processing We unified half-width and fullwidth alphanumerics and removed special characters from the transcriptions. Further processing is left to the judgment of researchers who use the corpus. The normalized transcriptions cover 2599 unique characters and 359,608 unique surface forms under tokenization by MeCab[26] with mecab-ipadic-NEologd[27] as the dictionary. ## 6 Conclusion This paper introduces our efforts on the automatic construction of a freely available large-scale Japanese ASR corpus from TV recording fully from scratch without dependency on pretrained models. By confirming the strong ASR performance, we showed the effectiveness of our proposed method and corpus. By open-sourcing the project, we hope to lower the barrier of entry for E2E ASR training, allowing more individuals and organizations to participate. ## 7 Future Work - We plan to maintain the project and release corpus updates periodically. - We currently use CER based on ASR results for filtering. There might be more appropriate and computationally efficient metrics. - Bootstrapping from pretrained multilingual models could make the learning curve less steep as they have a robust acoustic model. ## Acknowledgement We would like to express our gratitude to Taichi Kakinuma for providing legal guidance on the project. We are also grateful to the datasets and softwares we extensively used including but not limited to ESPnet[20] toolkit, recipes and models, Common Voice[2], LaboroTVSpeech[8]. ## References [1] Ryosuke Sonobe, Shinnosuke Takamichi, and Hiroshi Saruwatari. JSUT corpus: free large-scale japanese speech corpus for end-to-end speech synthesis. arXiv preprint arXiv:1711.00354, 2017 [2] Rosana Ardila, Megan Branson, Kelly Davis, Michael Kohler, Josh Meyer, Michael Henretty, Reuben Morais, Lindsay Saunders, Francis Tyers, and Gregor Weber. Common voice: A massively-multilingual speech corpus. In Proceedings of the Twelfth Language Resources and Evaluation Conference, 2020. [3] Alec Radford, Jong Wook Kim, Tao Xu, Greg Brockman, Christine McLeavey, and Ilya Sutskever. Robust speech recognition via large-scale weak supervision. arXiv preprint arXiv:2212.04356, 2022. [4] Jinyu Li. Recent advances in end-to-end automatic speech recognition. arXiv preprint arXiv:2111.01690, 2021. [5] Kikuo Maekawa. Corpus of spontaneous japanese: Its design and evaluation. In Proceedings of The ISCA \& IEEE Workshop on Spontaneous Speech Processing and Recognition (SSPR2003), 2003. [6] Daniel Galvez, Greg Diamos, and Juan et al. Ciro. The people's speech: A large-scale diverse english speech recognition dataset for commercial usage. arXiv preprint arXiv:2111.09344, 2021. [7] Guoguo Chen, Shuzhou Chai, and Guan-Bo Wang et al. GigaSpeech: An Evolving, Multi-Domain ASR Corpus with 10,000 Hours of Transcribed Audio. In Proceedings of Interspeech 2021, pp. 3670-3674, 2021. [8] Shintaro Ando and Hiromasa Fujihara. Construction of a large-scale japanese asr corpus on tv recordings. In IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP2021), 2021. [9] Shinnosuke Takamichi, Ludwig Kurzinger, Takaaki Saeki, Sayaka Shiota, and Shinji Watanabe. JTubeSpeech: 音声認識と話者照合のために YouTube から構築される日本語音声コーパス. 言語処理学会第 28 回年次大会, 2022. [10] Jeong-Uk Bang, Mu-Yeol Choi, Sang-Hun Kim, and OhWook Kwon. Automatic construction of a large-scale speech recognition database using multi-genre broadcast data with inaccurate subtitle timestamps. IEICE Transactions on Information and Systems, 2020. [11] Vimal Manohar, Daniel Povey, and Sanjeev Khudanpur. Jhu kaldi system for arabic mgb-3 asr challenge using diarization, audio-transcript alignment and transfer learning. In IEEE 2017 Workshop on Automatic Speech Recog- nition and Understanding (ASRU2017), 2017. [12] Daniel Povey, Arnab Ghoshal, Gilles Boulianne, and Burget et al. The kaldi speech recognition toolkit. In IEEE 2011 Workshop on Automatic Speech Recognition and Understanding (ASRU2011), December 2011. [13] Hervé Bredin, Ruiqing Yin, Juan Manuel Coria, and Gelly et al. pyannote.audio: neural building blocks for speaker diarization. In IEEE International Conference on Acoustics, Speech, and Signal Processing(ICASSP2020), 2020. [14] Mai Hiroshi and Masayuki. 短単位品詞の用法曖昧性解決と依存関係ラベリングの同時学習. 言語処理学会第 25 回年次大会, 2019. [15] Matthew Honnibal, Ines Montani, Sofie Van Landeghem, and Adriane Boyd. spaCy: Industrial-strength Natural Language Processing in Python. 2020. [16] Shinji Watanabe. ESPnet2 pretrained model, Shinji Watanabe/laborotv_asr_train_asr_conformer2_latest33_raw _char_sp_valid.acc.ave, fs=16k, lang=jp, 2020. https: //zenodo.org/record/4304245. [17] Ludwig Kürzinger, Dominik Winkelbauer, Lujun Li, Tobias Watzel, and Gerhard Rigoll. Ctc-segmentation of large corpora for german end-to-end speech recognition. In Speech and Computer, 2020. [18] Michael McAuliffe, Michaela Socolof, Sarah Mihuc, Michael Wagner, and Morgan Sonderegger. Montreal forced aligner: Trainable text-speech alignment using kaldi. In Proceedings of Interspeech 2017, 2017. [19] Alberto Pettarin et al. Aeneas, 2017. https://www. readbeyond.it/aeneas/. [20] Shinji Watanabe, Takaaki Hori, Shigeki Karita, Tomoki Hayashi, Jiro Nishitoba, Yuya Unno, Nelson Enrique Yalta Soplin, Jahn Heymann, Matthew Wiesner, Nanxin Chen, Adithya Renduchintala, and Tsubasa Ochiai. ESPnet: Endto-end speech processing toolkit. In Proceedings of Interspeech 2018, 2018. [21] Daniel Waegel. A survey of bootstrapping techniques in natural language processing. 2013. [22] Paul Albert, Diego Ortego, Eric Arazo, Noel E. O'Connor, and Kevin McGuinness. Relab: Reliable label bootstrapping for semi-supervised learning. arXiv preprint arXiv:2007.11866, 2020. [23] Manuel Giollo, Deniz Gunceler, Yulan Liu, and Daniel Willett. Bootstrap an End-to-End ASR System by Multilingual Training, Transfer Learning, Text-to-Text Mapping and Synthetic Audio. In Proceedings of Interspeech 2021, 2021. [24] Espnet/egs2/laborotv/asr1, 2021. https://github.com/ espnet/espnet/tree/master/egs2/laborotv/asr1. [25] Virgil Dupras et al. num2words library: Convert numbers to words in multiple languages, 2021. https://gi thub. $\mathrm{com} /$ savoirfairelinux/num2words. [26] Taku Kudo. Mecab : Yet another part-of-speech and morphological analyzer, 2006. [27] Toshinori Sato, Taiichi Hashimoto, and Manabu Okumura.単語分かち書き辞書 mecab-ipadic-neologd の実装と情報検索における効果的な使用方法の検討. 言語処理学会第 23 回年次大会, 2017 . ## A Appendix Figure 5 Example of Aligning using Dynamic Programming Figure 6 CER vs. Number of Model Parameters
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A5-4.pdf
# ニューラル記号推論における推論過程の教示方法 青木洋一 ${ }^{1}$ 工藤慧音 ${ }^{1}$ Ana Brassard ${ }^{2,1}$ 栗林樹生 ${ }^{1,3}$ 吉川将司 ${ }^{1}$ 坂口慶祐 1,2 乾健太郎 1,2 1 東北大学 ${ }^{2}$ 理化学研究所 ${ }^{3}$ Langsmith 株式会社 \{youichi.aoki.p2,keito.kudo.q4\}@dc.tohoku.ac.jp, [email protected], [email protected] \{yoshikawa, keisuke.sakaguchi, kentaro.inui\}@tohoku.ac.jp ## 概要 ニューラルモデルを用いた記号推論能力は推論過程を生成することで向上する. しかし,推論過程の性質や形式がどのような影響を与えるかは分かっていない. 本研究では,推論過程について出力戦略と推論戦略という 2 つの軸から,ニューラルモデルで形式的な推論を行う際の適切な推論過程の教示方法を探る. 我々は多段数値推論問題 $(A=1, B=3$, C=A+3,C?)を用いた統制的実験を行い,各形式の選択が性能に大きな影響を与える事が分かった。加えて,少なくとも本実験設定範囲内では,ニューラルモデルによってほぼ完璧な推論が達成され,適切な戦略の選択が重要である事を示す. ## 1 はじめに ニューラルネットワークという「柔らかい」道具立ての上で記号的推論が実現可能かについては,人工知能分野における根幹的な問いである. 本研究では,ニューラル系列変換モデルで多段数量推論を実現できるのかという例題のもと,適切な推論過程の教示方法を選択することで,少なくとも我々の設定内では記号推論が実現可能であることを示す. 近年,ニューラルモデルに推論過程を生成させることで,数量推論 $[1,2,3,4,5]$, 常識推論 $[1,6]$, 記号推論問題 $[1,3]$ など様々な設定において性能が向上することが示された.しかしながら,どの様に推論を行うかなどは暗黙的に決定されるなど,しばしば限定的な設定が課されている。 実験では推論過程の教示方法について,出力戦略と推論戦略の 2 軸に分解し, ニューラルモデルに形式的な推論を行わせる際の適切な設定を調査する (図 1). 出力戦略(§2.2)は,推論過程生成の粒度 (一遍出力, ステップ出力, 文字出力) を指す. 既存研 図 1: 出力戦略と推論戦略の選択が, ニューラルモデルの多段推論の学習可能性に大きく影響する. 究では様々な方法が採用されており, 統制的な分析はなされていない. 例えば,推論過程とそこから導かれる結論を一度に生成させる形式 $[1,3,4,5,6,7]$,推論過程をある程度生成し, 結論が出るまで繰り返す形式 $[8,9,10]$, 推論過程と共にサブゴールも繰り返し生成する形式などがある $[11,12]$. 推論戦略 (§2.3)は推論を行う順番・内容 (最短経路, 全探索経路, 後向き十最短経路)を指す。例えば,質問内容から逆向きに手がかりを探索し,見つけた手がかりを用いて推論を行う手法や(後向き十最短経路) [9, 13, 14], 与えられた文脈に対して網羅的に推論を行う形式もある $[10,11,15]$. 数量推論問題を通して, ニューラルモデルで記号推論を学習する際にどの様な戦略の組み合わせが有効を調査した. ただし, この形式言語によって構成された純粋な設定は自然言語上においても記号推論を行うための必要条件を明らかにする事を目的としている. 実際,この純粋な数量推論問題が解けないモデルが,より複雑な問題で適切な汎化を達成するとは期待できない. 実験の結果,各形式の選び方がニューラル系列変換モデルの記号推論性能に大きく影響することを発見し,少なくとも本実験設定範囲内では,推論の深さ方向の外挿に対してほぼ完璧な汎化を達成する戦略の組み合わせがある事を明らかにした。 ## 一遍出力 ステップ出カ 文字出力 (a) 一遍出力: 一度の入力に対して,推論過程全体と答えを出力する. ステップ出カ: 1 つの推論ステップを繰り返し出力する. 文字出力: 1 文字を繰り返し出力する. ## 後向き十最短経路 $C=3+B, B=A+1, \quad A=1, B=1+1$ $B=2 , C=3+2 , C=5$ ,答え: 5 (b) グラフのノードが変数,エッジが依存関係を表す. 最短経路: 答えの導出に必要不可欠な式のみを出力する最小の推論過程. 全探索経路: 目標に到達するまで,貪欲に式を解く,後向き十最短経路: 質問内容から逆向きに手がかりを探索し (図中ステップ 1,2 ), 見つけた手がかりを用いて最短経路を出力(図中ステップ 3,4 ). 図 2: 入力:D=A+2, $A=1, B=A+1, C=3+B, C$ ? が与えらえれた場合の(a)出力戦略(b)推論戦略 ## 2 実験設定 ## 2.1 問題定義 $D=A+2 , A=1, B=A+1, C=3+B , C ? という$ 方程式が与えられ,任意の変数の値(例えば C の値)を答える問題を用いた(図 1). 各式は代入(A=1)またはモジュール加算と代入 $(B=3+1)$ で構成される.ただし,モジュール加算は $\bmod 100$ である。問題の文脈には,答えを計算するのに必要でない式も含まれている. (図 1 中の $D=A+2$ ). 特定の変数に割り当てられた值は通常,異なる式で参照される(A=1, $B=A+1)$. また,式の順番,数字や変数の值は無作為に割り当てられている. 各問題には推論の深さ(答えに到達するために必要な式の数)が定義されている. 例えば, $A=1, B=2+A, C=3+B, D=2, C$ ? という問題の推論の染さは $3(A=1, B=2+A, C=3+B)$ である. 人エデータを用いる動機DROP [16] などといった自然言語で記述されたデータではなく,本人工データを用いた理由は 3 点ある. 第一に,汎化能力の検証のため推論の深さといった問題の複雑さの統制が容易である点が挙げられる。一般的な数量推論問題の場合,推論の深さの統制が難しい(例えば,推論の深さが 10 である様々な事例を考え出すのは容易でない).実験では推論の深さ方向の外挿に焦点を当て,深さが浅い(深さ 1-5)事例を使ってモ デルを学習し,深さが浅い/深い(深さ 1-12)事例で評価する。 第二に,自然言語による記述は暗黙のうちに「偽のバイアス」を与える可能性があり,モデルが高い性能を示した際に,意図した解き方で解いているのか解釈が難しい $[17,18,19,20,21,22]$. 我々のデー タでは,記号の出現の偏りなどを排除していることと,数量推論であり解空間が広いことから,モデル誤った汎化により正答する可能性や偶然正答する可能性を排除できている. 第三に,我々の設定は数量推論問題を解くための必要条件であるという点が挙げられる. ## 2.2 出力戦略 既存研究に従い系列変換モデルを用いる $[8,10$, 11]. 次の 3 つの出力(デコード)形式を比較した:一遍出力,ステップ出力,文字出力(図 2a). 一遍出力: 入力に対して,推論過程全体と答えを一度に出力する. (chain-of-thought と同様の形式) $[1,2,12,23]$. この設定では, 推論過程数が長いほどデコーダが一度に生成しなければならない系列長が長くなる. ステップ出カ: 入力に対して, 推論 1 ステップを出力する. 元の入力に生成された出力ステップを書き足して再度エンコーダに入力し, 次の推論ステップを出力させる. この処理を停止文字が出力 図 3: 推論の深さ 12 の問題に対して,一遍出力,ステップ出力が生成した推論過程長(文字数)の分布. されるまで,あるいは設定した最大反復回数(100) に達するまで繰り返す (proofwriter と同様の形式) $[8,9,10,11,12]$. 文字出力: 入力に対して, 1 つの文字だけを出力する. ステップ出力と同様に,元の入力に出力文字を追加し,推論が停止するまで処理を繰り返す.最大反復回数は 500 に設定した. 一遍出力では, 問題の複雑さ(推論の深さ)に応じて生成すべき系列の長さが変化し,ステップ,文字出力では問題の複雑さに関係なく, 生成長 (1 推論ステップ/文字)はほぼ変わらない。また,ステップ出力と文字出力を比較すると, 問題を意味のある単位で分割することの優位性が検証できる。 ## 2.3 推論戦略 任意の変数を導出するための推論経路は複数考えられる。したがって, 既存研究に関して,我々は 3 つの推論戦略を比較した. 最短経路, 全探索経路,後向き十最短経路 (図 $2 \mathrm{~b}$ ). 最短経路: 答えの導出に必要不可欠な式と, それら用いた推論結果のみを出力する形式 (図 $2 \mathrm{~b}$ の例では Dの値を使わずに C の値を導出可能なため,D に関する推論が推論過程に含まれていない) [1, 2, 12, 23]. 全探索経路:問いに関連する式であるかは考えず,答えに達するまで与えられた方程式を順に貪欲に解き続ける形式 $[10,11,15]$. 具体的には, 各ステップで最も左にある解ける方程式を計算する。 ただし, この方法は長い推論過程を導くことになるため計算量の観点からは非効率である。 後乃向き + 最短経路:質問内容から逆向きに手がかりを探索し (図中ステップ 1,2 ), 見つけた手がかりを用いて最短経路を出力する形式 $[9,13,14]$. 推論過程無し: 基準の設定として,推論過程を生成させず直接答えを出力させる形式も検証した. ## 3 実験 ## 3.1 実験設定 モデル:我々は事前学習済みの T5-base を使用した ${ }^{1)}$ [24]. 学習: まず $10 \mathrm{~K}$ の基本的な演算(すなわち,代入, 参照,加算)に関する事前学習用データセットを用いて 30 エポックの事前学習を行う. 具体的には, $A=1, A$ ?)や, $A=1+3, A$ ?)のような形式のデー タセットを用意した. 次に,深さ 1-5 で合計 $5 \mathrm{~K}$ の学習データ(各推論の深さに対して $1 \mathrm{~K}$ 個の学習事例)を用いて 2000 エポックの学習を行った. 詳細な実験設定は付録 A に記述する。 評価: 未知の問題への汎化能力を評価するため,比較的単純な問題(深さ 1-5)での評価に加え,より複雑な問題(深さ 6-12)における性能を評価する. 評価は各推論の深さに対して 200 個の評価事例で行った. ## 3.2 結果:出力戦略 推論戦略を最短経路に固定し, 出力戦略を比較した. 図 $4 \mathrm{a}$ に推論の深さごとの正解率を示す. なお, ここでの正解率は答え(例えば, $\mathrm{C}=6$ )が正しいかどうかで決定した. その結果,(i) 推論過程を生成すると性能が向上する,(ii)出力戦略の中では,ステップ出カが最も良い性能を導くかつ一遍出力の性能が最も悪いことが分かった. 一遍出力の性能が劣る原因は,デコーダが(浅い)学習データと同じような長さの推論過程を出力するように過学習したためであると予想を立てた。実際,一遍出力を用いた場合,領域外(推論の深さ 12 など)の設定でも比較的短い推論過程を生成しており(図3),この仮説は支持される。 文字出力に対するステップ出力の優位性は, 推論過程を意味のある単位に分割し,各ステップをエンコーダーデコーダーの 1 回の呼び出しでモデル化することの優位性を示唆している. ## 3.3 結果:推論戦略 図 $4 \mathrm{~b}$ は,出力戦略をステップ出力に固定した場合の各推論戦略における,推論の深さ毎の正解率である. 推論の深さが増すと最短経路の設定では性能  (a) 出力戦略 (b) 推論戦略 図 4: 推論の深さに対するモデルの正解率. 灰色の範囲は学習領域(深さ 1-5)を示している. 図 4a は,一遍出力を用いた場合の推論過程長の増加に伴う正解率低下を表している. 図 $4 \mathrm{~b}$ は, ステップ出力と後向き +最短経路または全探索経路の組み合わせにより汎化がうまくいく事を示している. 表 1: ステップ出力,最短経路設定における誤りの例.(スキップ)は,推論ステップが誤ってスキップされたことを表す. & \\ が低下するが,全探索経路または後向き十最短経路では,推論の深さ 6-12に外挿した場合であっても正しい推論を行えた.また,全探索経路と後向き十最短経路では,最後の答えだけでなく,間の推論過程も正しく生成された (約 100\% の正解率). 詳細は付録(表 2)に記述するなお,これらの形式は出力戦略を一遍出力にした場合では効果がなかった。 先行研究では推論過程長が長い場合,推論過程を生成しないモデルの方が生成するモデルより汎化性能が高いというやや非直観的な結果が報告されているが [25], 我々の結果は適切な出力戦略を選択することで推論過程の生成は効果的であることを示唆している。 最短経路が劣る原因は,推論過程の情報が不十分なことにあると考えた. モデルは推論過程を出力する前に最短経路を知ることができない. そのため,最短経路であっても最短経路上の変数以外も探索する必要がある.この処理を最短経路は暗黙のうちに行っている。一方,図 $2 \mathrm{~b}$ から分かる様に,全探索経路はこの過程を明示的に行なっている. そのため, たとえ推論過程が長くなったとしても, 後向き十最 ## 短経路や全探索経路など,推論過程をくまなく提示 した方が正解率が高くなると結論づけた。 ## 3.4 誤り分析 最短経路における推論の深さ 12 の事例の誤りを分析した. ${ }^{2}$ (i)コピー誤り,(ii)早すぎる代入という 2 種類の誤りが確認され,表 1 にそれぞれの誤りの例とその割合を示す. 最も頻度の高いもの (53\%)は単純なコピー誤りで,モデルが元の方程式を推論過程に正確にコピーできなかったというものである. 誤ったコピー能力は先行研究でも示されており [26], モデルにコピー機構を導入する利点が支持される [27]. 次に,早すぎる代入は,モデルが文脈から方程式をコピーするステップを飛ばして,無作為に値を代入する誤りである。これらの誤りは最短経路以外の推論戦略ではほぼ解決され,学習時に最短経路で提示している情報が不十分であることが示唆される。 ## 4 おわりに 記号推論におけるニューラル系列変換モデルの推論過程の教示方法を調査し, ステップ出力と細かな粒度の推論を組み合わせることで記号推論をより良く行う事ができることを明らかにした. この結果は,ニューラルモデルによるより確実な記号推論の実現可能性を支持するものである. しかしながら,この傾向がより複雑な記号的推論や自然言語で書かれた問題に対して一般化されるかどうかは不明である.したがって,異なる設定において一般化しない場合,我々はそのギャップを縮めて行くことを目指す. 2)合計 32 の事例を解析した. これは 1 つのシードにおける全不正解数である. ## 謝辞 本研究は JST CREST JPMJCR20D2 及び JSPS 科研費 JP22H00524,21K21343 の助成を受けたものです. ## 参考文献 [1] Jason Wei, Xuezhi Wang, Dale Schuurmans, Maarten Bosma, Ed H. Chi, Quoc Le, and Denny Zhou. Chain of thought prompting elicits reasoning in large language models. CoRR, 2022. [2] Karl Cobbe, Vineet Kosaraju, Mohammad Bavarian, Jacob Hilton, Reiichiro Nakano, Christopher Hesse, and John Schulman. Training verifiers to solve math word problems. CoRR, 2021. [3] Takeshi Kojima, Shixiang Shane Gu, Machel Reid, Yutaka Matsuo, and Yusuke Iwasawa. Large language models are zero-shot reasoners. CoRR, 2022. [4] Gabriel Recchia. Teaching autoregressive language models complex tasks by demonstration. CoRR, 2021. [5] Aitor Lewkowycz, Anders Andreassen, David Dohan, Ethan Dyer, Henryk Michalewski, Vinay V. Ramasesh, Ambrose Slone, Cem Anil, Imanol Schlag, Theo GutmanSolo, Yuhuai Wu, Behnam Neyshabur, Guy Gur-Ari, and Vedant Misra. Solving quantitative reasoning problems with language models. CoRR, 2022. [6] Xuezhi Wang, Jason Wei, Dale Schuurmans, Quoc V. Le, Ed H. Chi, and Denny Zhou. Self-consistency improves chain of thought reasoning in language models. CoRR, 2022. [7] Maxwell I. Nye, Anders Johan Andreassen, Guy Gur-Ari, Henryk Michalewski, Jacob Austin, David Bieber, David Dohan, Aitor Lewkowycz, Maarten Bosma, David Luan, Charles Sutton, and Augustus Odena. Show your work: Scratchpads for intermediate computation with language models. CoRR, 2021. [8] Soumya Sanyal, Harman Singh, and Xiang Ren. Fairr: Faithful and robust deductive reasoning over natural language. In ACL 2022. [9] Gabriele Picco, Thanh Lam Hoang, Marco Luca Sbodio, and Vanessa López. Neural unification for logic reasoning over natural language. In EMNLP 2021. [10] Oyvind Tafjord, Bhavana Dalvi, and Peter Clark. Proofwriter: Generating implications, proofs, and abductive statements over natural language. In ACL/IJCNLP 2021. [11] Zhengzhong Liang, Steven Bethard, and Mihai Surdeanu. Explainable multi-hop verbal reasoning through internal monologue. In NAACL-HLT 2021. [12] Vered Shwartz, Peter West, Ronan Le Bras, Chandra Bhagavatula, and Yejin Choi. Unsupervised commonsense question answering with self-talk. In EMNLP 2020. [13] Tim Rocktäschel and Sebastian Riedel. End-to-end differentiable proving. In NeurIPS 2017. [14] Nuri Cingillioglu and Alessandra Russo. Deeplogic: Towards end-to-end differentiable logical reasoning. In AAAI 2019, CEUR Workshop Proceedings. [15] Kaiyu Yang, Jia Deng, and Danqi Chen. Generating natural language proofs with verifier-guided search. CoRR, 2022. [16] Dheeru Dua, Yizhong Wang, Pradeep Dasigi, Gabriel Stanovsky, Sameer Singh, and Matt Gardner. DROP: A reading comprehension benchmark requiring discrete reasoning over paragraphs. In NAACL-HLT 2019. [17] Suchin Gururangan, Swabha Swayamdipta, Omer Levy, Roy Schwartz, Samuel R. Bowman, and Noah A. Smith. Annotation artifacts in natural language inference data. In NAACL-HLT, 2018. [18] Ashim Gupta, Giorgi Kvernadze, and Vivek Srikumar. BERT \& family eat word salad: Experiments with text understanding. In AAAI 2021 [19] Hadeel Al-Negheimish, Pranava Madhyastha, and Alessandra Russo. Numerical reasoning in machine reading comprehension tasks: are we there yet? In EMNLP 2021. [20] Saku Sugawara, Kentaro Inui, Satoshi Sekine, and Akiko Aizawa. What makes reading comprehension questions easier? In EMNLP 2018. [21] Robin Jia and Percy Liang. Adversarial examples for evaluating reading comprehension systems. In EMNLP 2017. [22] Tom McCoy, Ellie Pavlick, and Tal Linzen. Right for the wrong reasons: Diagnosing syntactic heuristics in natural language inference. In ACL 2019. [23] Semih Yavuz, Kazuma Hashimoto, Yingbo Zhou, Nitish Shirish Keskar, and Caiming Xiong. Modeling multihop question answering as single sequence prediction. In ACL 2022. [24] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J. Liu. Exploring the limits of transfer learning with a unified text-to-text transformer. J. Mach. Learn. Res., Vol. 21, pp. 140:1-140:67, 2020. [25] Nicolas Gontier, Koustuv Sinha, Siva Reddy, and Christopher Pal. Measuring systematic generalization in neural proof generation with transformers. In NeurIPS 2020. [26] Song Xu, Haoran Li, Peng Yuan, Youzheng Wu, Xiaodong He, and Bowen Zhou. Self-attention guided copy mechanism for abstractive summarization. In ACL 2020. [27] Santiago Ontanon, Joshua Ainslie, Zachary Fisher, and Vaclav Cvicek. Making transformers solve compositional tasks. In ACL 2022, Dublin, Ireland. [28] Jeonghwan Kim, Giwon Hong, Kyung-min Kim, Junmo Kang, and Sung-Hyon Myaeng. Have you seen that number? investigating extrapolation in question answering models. In EMNLP 2021. [29] Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. BART: denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension. In ACL 2020. 図 5: 推論の深さに対する T5-base と T5-large の正解率の変化. ## A 詳細な実験設定 学習率は, $10^{-3}, 10^{-4}, 10^{-5}$ のうち, 学習データでの損失の収束が最も早い学習率を使用した. モデルに関しては学習後のエポック毎のチェックポイントのうち,損失が最も小さいモデルを使用した.また, 節 3 の実験結果は 3 種類のシード值で得られた結果の平均值である. トークナイザは,○から 9 までの全ての数值を保持し, 我々のデータセットに含まれる数值は予め桁ごとに分割される (“12” は “@@1 (@2” の様に分割される) [28]. ## B モデルサイズが異なる場合 モデルサイズが異なる場合の設定として, t5-large と t5-base を比較した. 図 5 にその結果を示す. T5-large は T5-base と比較して, 一遍出力とステップ出力の正解率がほぼ同等であることがわかる。一方, 文字出力の場合, t5-large の方が正解率が高い. この結果から, 文字単位の出力は, モデルサイズを大きくする必要がある事がわかった. ## C アーキテクチャが異なる場合 アーキテクチャが異なる場合の設定として, BART-base ${ }^{3)}$ [29] を基準として,T5 の NLP タスクによる事前学習の有効性を調査した. 図 6 はこの結果を示し,T5 が BART より優れていることがわかる.これは,NLPタスクの事前学習が記号推論にも有効であることを示唆している. ## D 推論過程の正解率と誤り分析 表 2 は推論過程の正解率を示している.ここで推論過程の正解率(スコアの左側)は完全一致ではなく,数学的な正しさを基準に評価したものである. 3) https://huggingface. co/docs/transformers/model_doc/ bart 図 6: 推論の深さに対する T5-base と BART-base の正解率の変化. 表 2: 各推論の深さにおけるステップ出力を用いた T5-base の正解率 (推論過程 /答え). 推論過程の正解率(スコアの左側)は,完全一致を基準に測定した. また,答えが正しく,推論過程が誤っている場合を分析した結果,2つの誤りパターンが見受けられた. 1 つ目は,推論過程の誤り部分が答えの導出には影響が無い場合が挙げられる。具体的には, $\mathrm{D}=3+\mathrm{A}, \mathrm{A}=1, \mathrm{D}=3+2, \mathrm{D}=5$ の様に $\mathrm{D}$ の値を誤って導出したとしても答えの導出にD の値を用いない場合,正しい答えを出力する事があった. 2 つ目は,一度誤った推論過程が再び誤った推論をするなどして,最終的に正しい推論過程に合流する場合が挙げられる. 具体的には,変数 $B$ の值を求める際に B=2+D という誤った推論ステップが出力された後, 正しい推論ステップ B=2+A が出力されるような事例を確認する事ができた。
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A5-5.pdf
# XAI における忠実性評価手法の考察 牧野 雅紘 ${ }^{1}$ 浅妻佑弥 1,2 佐々木 翔大 ${ }^{2,1}$ 鈴木潤 1,2 東北大学 ${ }^{1}$ 理化学研究所 ${ }^{2}$ \{masahiro.makino.r6、asazuma.yuya.r7\}@dc. tohoku.ac.jp shota.sasaki.yvariken.jp [email protected] ## 概要 本稿では、XAIを評価する際に重要視されている忠実性において評価手法は複数存在しており、どの評価手法を使用して評価を行うのか同意が取れていないという課題について検証する。実験では複数ある忠実性評価手法間の相関を測定した。その結果、忠実性という 1 つの軸で論じられている評価手法であるにも関わらず、相関がない評価手法の組み合わせもあり、それぞれの評価手法が異なった観点で評価を行なっている可能性があることが判明した。本稿では、複数の忠実性評価手法を組み合わせて多角的に説明の忠実性を評価することを提案する。 ## 1 はじめに 近年、深層学習を中心人工知能技術の発展が著しい。しかしこの発展を支える深層学習の手法の多くは、内部の挙動が人間に理解できない複雑な数値計算により成立している。予測結果の理由が理解できないため,いくら正確な予測をしても利用者の信頼を得られず、高い信頼性を重要視する諸分野(金融・医療)における発展の妨げになりうる。 この問題を解消するために、モデル内部や予測の挙動を説明することのできる説明可能な AI (XAI) に関する研究が盛んに行われている。その中でもモデルの出力毎に事後的な説明を生成する手法は Feature Attribution と呼ばれる $[1,2,3,4,5]$ 。代表的な例として Local Interpretable Model-agnostic Explanations (LIME) [1] がある。LIME はモデルの出力が行われたのちに、入力の近傍で局所的に線形近似することで説明を生成する。 Feature Attribution によって生成された説明がモデルを正確に説明することができているかを表す指標が忠実性である。この忠実性が XAI の性能を測る代表的な指標の一つとなっており、忠実性評価について盛んに議論が行われている $[6,7]$ 。実際に自然言語処理分野における代表的な会議である ACL、 NAACL、EMNLP の論文を 2020-2022 年分調査した結果、説明を評価する際に忠実性が最も重要視されていることがわかった。しかしながら、この忠実性評価には、忠実性を評価する指標が複数存在し、どの指標を使用すれば良いのかの同意が取れていないという大きな課題がある。 そこで本稿では、異なる指標の評価結果間の相関を計算することで、評価手法間の関係性を分析する。その結果、忠実性という 1 つの軸で論じられている評価手法にも関わらず、結果に相関のない評価手法の組み合わせが存在することがわかった。ゆえに、実験結果から複数の評価手法を使用して忠実性を多角的に評価する必要があると結論づけた。本稿が説明の忠実性を評価する際、どの指標を用いて評価すればいいのかを選択する一助となり、忠実性の正しい評価へとつながることを期待する。 ## 2 関連研究 モデルの出力毎に事後的な説明を生成する手法を Feature Attribution と呼ぶ。この手法には線形近似を利用した LIME [1] や勾配を利用した Integrated Gradients [2] などが存在する。 忠実性とは,Feature Attribution によって生成された説明がモデルを正確に説明することができているかを表す指標である。複数の既存研究が、忠実性による説明間の性能比較を行っている $[8,9,10]$ 。説明評価の際に忠実性が重要視されているため、複数の忠実性評価手法が提案されてきた。しかしどの忠実性評価手法を使用するかは各論文で同意が取れておらず、著者に判断が委ねられている。そのため忠実性評価手法を分析し、評価手法を評価する試みが行われている [6, 7]。Chan ら [6] は、忠実性評価手法每に評価結果が大きく異なる場合があると言及し、6つの評価手法間において2つの評価軸から優劣を議論した結果 2 つの評価手法の使用を提案 表 1 論文本数調査 表 2 指標調査 した。 我々は、評価手法毎に結果が大きく異なる理由を明らかにするために、結果間の相関の計算による分析を行った。その結果から,非類似性を持つ評価手法を組み合わせた多角的な忠実性評価を提案する。 ## 3 忠実性評価手法 説明がモデルを正確に説明することができているかを表す忠実性について調査した結果、複数の仮説が生じた。この章では具体的な調査結果と仮説について表記する。 ## 3.1 文献調査の結果 まずは 2020-2022年の間の ACL、EMNLP、NAACL を対象に XAIに関連する論文を収集した。その結果を表 1 に示す。 次に収集した論文を Future Attribution 手法の XAI について論じられている論文に絞り、どのような観点で評価が行われているのかを調査した。その結果を表 2 に示す。この結果から実際に説明を評価する際には忠実性が重要視されている傾向にあることがわかった。 加えて、異なる忠実性評価手法がいくつ存在しているかの調査を行った。調査の結果、9つの忠実性評価手法の存在を確認した。9つの評価手法は、分類タスクにおいて、入力文の一部がモデルの予測ラベルの確率にどのように影響を与えるかを測定する点で共通していた。例えば、XAIが分類において重要度が高いと判断した入力文の一部をマスクした際にモデルの予測ラベルが大きく減少すれば、この XAIによる説明はモデルを正しく説明していると言 えるため高い評価を得る。 しかし、この9つの評価手法は、どの評価手法を使用すればいいのかの同意が取れていないことがわかった。論文ごとに研究者が独断で使用する評価手法を選択している状況である。この状況は、どの評価手法を使用するかで異なった評価結果を示す [6]中で、XAIの忠実性を正しく評価できていない可能性を示唆している。 ## 3.2 仮説 以上の調査結果から、XAI の説明を評価する際に忠実性は重要視されているものの、評価手法が複数存在し、どの手法を使用するかで大きく結果が異なるという状況にあるということがわかった。 しかしながら、複数の忠実性評価が異なった結果を示すことは先行研究で部分的に示唆されているものの、評価手法間の類似性や非類似性などの関係性の定量的に調査は不十分である。そこで本稿では、評価手法間の類似性や非類似性などの関係性を定量的に分析し、以下の仮説を検証する。 ・評価手法間の関係性を分析することで、手法を分類することができるのではないか。 ・分類により、結果が異なる原因や適切な評価手法の選択が可能となり、説明を正しく評価する一助になるのではないか。 ## 4 実験方法 3.2 節で示した仮説を以下の方法で検証する。まずは、文書分類タスクにおいてモデルに予測ラベルを出力させる。このモデルに対して XAIによって説明を行う。具体的には予測ラベルの結果に影響を与えた単語に対して重要度を付与する。 次に説明として得られた単語重要度に対して9つの忠実性評価手法を用いて忠実性を計算する。最後に各分類モデルごとに、それぞれの忠実性評価手法によって得られた結果間でピアソン相関を計算することで、評価手法間の関係性を分析する。 ## 4.1 データと分類モデル 文書分類タスクのデータセットとして $\mathrm{AG}$ NEWS [11] を使用した。AG NEWS は、4つのクラス ("World"、"Sports"、"Business"、"Sci/Tech") の記事の見出しと説明フィールドを集めて構築したニュー ス記事のデータセットで、訓練データ 800 個、開 発データ 100 個、評価データ 100 個で構成される。このデータセットを用いて 3 つの分類モデル (BERT [12]、LSTM [13]、CNN [14]) を学習した。その結果、評価セットにおけるモデルの性能値 (F1) はを BERT が 0.919、LSTM が 0.904、CNN が 0.926 となった。 ## 4.2 XAI XAI は LIME [1]、Integrated Gradients [2]、Deep Lift [3]、InputXGradient [4]、Vanila Gradient [5] を使用した。LIME はモデルを入力の近傍で線形近似を利用することで説明を生成する。また Integrated Gradients、InputXGradient、Vanila Gradient は勾配を利用して説明を生成する手法である。 ## 4.3 評価手法 忠実性評価手法は、Most Informative Token (Most) [15], Decision Flip (Flip) [16], Comprehensiveness (Com) [17]、Sufficiency (Suf) [17]、Correlation between Importance and Output Probability (Cor) [18], Monotonicity (Mono) [18]、 Logodds (Log) [19]、NAUC (NA) [20]、 RAUC (RA) [21] の9つを使用した。実験では先行研究に習い、式 (3)、(4) で $q \in B=\{1 、 5 、 10 、 20 、 50\}$ とし、式 (7)、(8) で $t=20 \%$ とした。詳しい数式は付録に記載した。 ## 5 実験結果/考察 得られた忠実性評価結果について相関を計算し、考察したことを以下に示す。高い正の相関を示した評価手法の組み合わせは Flip、Com、Log、NA であった。また、これらの指標の組み合わせはモデルと使用する XAI に依存することなく同じ結果を示す傾向にあることがわかった。この様子を図 1 に示した。なお箱ひげ図である図 $1 、 2$ は対象とする XAI を複数種類用意したときの値の分布をあらわしている。 Cor、Mono、Most、Suf、RA は、弱い正の相関を示した評価手法の組み合わせがあるものの、高い正の相関を示す評価手法の組み合わせは存在しなかった。これらの評価手法と Flip との相関を図 2 に示した。ここでは (Flip、Com、Log、NA) と他の評価手法間の相関が弱いことを示すために、代表して Flip との相関を示している。またCor、Mono、Most、 Suf、RA 間の相関を図 2 に表した。 図 1 と図 2 の結果から、9つの評価手法の中で 図 1 正の相関を示した評価手法 図 2 Flipと評価手法の相関 (Flip、Com、Log、NA) は同じ観点で評価を行なっている可能性が高いことがわかる。一方でその他の評価手法は、それぞれ異なった観点で説明の忠実性を測っている可能性が高いことがわかる。 この実験結果から 9 つの評価手法の分類についての考察を行う。各評価手法がどの程度の重要度を持つ単語に注目して忠実性を評価しているかに注目して分類を行なった。また各評価手法の測定している性質に注目して分類を行った。各評価手法が忠実性を評価する際に注目している単語重要度の範囲を示したのが図 4 であり、各評価手法が注目する単語と測定する性質を軸に分類した表が 3 である。 9 つ評価手法は評価の際に注目する単語によって4つに分類した。また評価で測定する性質でさらに分類した。単調増加性とは、入力に重要度の低い単語を順に一つずつ追加していった際に分類ラベルの確率が単調に増加するかを表す。相関性とは単語 図 3 Cor、Mono、Most、Suf、RA 間の相関 図4 各評価手法の注目している単語 表 3 忠実性評価手法の分類 の重要度と分類ラベルの確率変動の間の相関を表す。ランダム優位性とはランダムに単語をマスクした際と重要度の高い単語順にマスクした際の分類ラベルの確率変動の違いを表す。確率変動性とは単語をマスクした際に分類ラベルの確率がどの程度変動するかを示す。つまり忠実性をはかる評価手法の中で、測定している性質が異なるということである。 そこで本稿では、複数の評価手法を用いて、さまざまな観点から忠実性評価を行う必要があると主張する。ある評価手法で、高い評価を得たとしても違う評価手法では低い評価を得る可能性があるからである。特に評価手法間で優劣がはっきりしていないからこそ複数の評価手法を用いて多角的に評価する必要がある。 ## 6 おわりに 本稿では、忠実性が XAI 評価において重要視されていることを示した。しかしその忠実性を測る指標は乱立し、どの評価手法を使用するのか同意が取れていないことがわかった。 そこで本稿の実験で、9つの忠実性評価手法を対象にそれぞれの相関を計算し、9つの評価手法間の関係を分析した。その 4 つの評価手法間で高い相関が見られた一方で他の 5 つの評価手法間では相関がなかった。つまり多くの評価方法間で、異なった結果を示すことが定量的に示された。 そこで本稿では、複数の評価手法を用いて、さまざまな観点から忠実性評価を行う必要があると主張する。ある評価手法で、高い評価を得たとしても違う評価手法では低い評価を得る可能性があるからである。特に評価方法間で優劣がはっきりとしていないからこそ複数の評価手法を用いて多角的に評価する必要がある。 本研究では、複数の評価手法のうち、どの手法を用いて多角的に評価すべきかまでは分析することができなかった。そのため、各評価手法が何を評価しているのか、そして各評価手法の使用に優劣をつけることができるのかを分析することが今後の方針として考えられる。この分析により具体的にどの評価手法を用いて説明を評価するべきかを特定していきたい。 ## 謝辞 本研究は、JSPS 科研費 JP21H04901、JST ムーンショット型研究開発事業 JPMJMS2011 (fundamental research) の助成を受けて実施されたものである。 ## 参考文献 [1] Marco Ribeiro, Sameer Singh, and Carlos Guestrin. "why should I trust you?": Explaining the predictions of any classifier. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Demonstrations, pp. 97-101, San Diego, California, June 2016. Association for Computational Linguistics. [2] Mukund Sundararajan, Ankur Taly, and Qiqi Yan. Axiomatic Attribution for Deep Networks. In International Conference on Machine Learning, pp. 3319-3328, 2017. [3] Avanti Shrikumar, Peyton Greenside, and Anshul Kundaje. Learning Important Features Through Propagating Activation Differences, 2019. [4] Avanti Shrikumar, Peyton Greenside, and Anshul Kundaje. Learning important features through propagating activation differences. In Proceedings of the 34th International Conference on Machine Learning. [5] Karen Simonyan, Andrea Vedaldi, and Andrew Zisserman. Deep inside convolutional networks: Visualising image classification models and saliency maps. 2014. [6] Chun Sik Chan, Huanqi Kong, and Liang Guanqing. A Comparative Study of Faithfulness Metrics for Model Interpretability methods. Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Long Papers), Vol. 1, pp. 5029-5038, 2022. [7] Alon Jacovi and Yoav Goldberg. Towards faithfully interpretable NLP systems: How should we define and evaluate faithfulness? In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 4198-4205, Online, July 2020. Association for Computational Linguistics. [8] Giuseppe Attanasio, Debora Nozza, Eliana Pastor, and Dirk Hovy. Benchmarking post-hoc interpretability approaches for transformer-based misogyny detection. In Proceedings of NLP Power! The First Workshop on Efficient Benchmarking in NLP, pp. 100-112, Dublin, Ireland, May 2022. Association for Computational Linguistics. [9] Pepa Atanasova, Jakob Grue Simonsen, Christina Lioma, and Isabelle Augenstein. A diagnostic study of explainability techniques for text classification. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 3256-3274, Online, November 2020. Association for Computational Linguistics. [10] George Chrysostomou and Nikolaos Aletras. Improving the Faithfulness of Attention-based Explanations with Task-specific Information for Text Classification. Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing, pp. 477-488, 2021. [11] Ag's corpus of news articles, 2004. http://groups .di.unipi. it/ gulli/AG_corpus_of_news_articles.html. [12] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computa- tional Linguistics. [13] Felix A Gers, Jurgen Schmidhuber, and Fred Cummins. Learning to forget: Continual prediction with LSTM. Neural computation, pp. 2451-2471, 2000. [14] Krizhevsky, Sutskever, and Hinton. Imagenet classification with deep convolutional neural networks. Advances in Neural Information Processing Systems 25, pp. 1097-1105, 2012. [15] George Chrysostomou and Nikolaos Aletras. Improving the faithfulness of attention-based explanations with task-specific information for text classification. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 477-488, Online, August 2021. Association for Computational Linguistics. [16] Sofia Serrano and Noah A. Smith. Is attention interpretable? In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 2931-2951, Florence, Italy, July 2019. Association for Computational Linguistics. [17] Jay DeYoung, Sarthak Jain, Nazneen Fatema Rajani, Eric Lehman, Caiming Xiong, Richard Socher, and Byron C. Wallace. ERASER: A benchmark to evaluate rationalized NLP models. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 4443-4458, Online, July 2020. Association for Computational Linguistics. [18] Vijay Arya, Rachel K. E. Bellamy, Pin-Yu Chen, Amit Dhurandhar, Michael Hind Samuel C. Hoffman, Stephanie Houde, Q. Vera Liao, Ronny Luss, Aleksandra Mojsilović Sami Mourad, Pablo Pedemonte, Ramya Raghavendra, John Richards, Prasanna Sattigeri Karthikeyan Shanmugam, Moninder Singh, Kush R. Varshney, Dennis Wei, and Yunfeng Zhang. One Explanation Does Not Fit All: A Toolkit and Taxonomy of AI Explainability Techniques. [19] Avanti Shrikumar, Peyton Greenside, and Anshul Kundaje, editors. Learning important features through propagating activation differences. [20] Hillary Ngai and Frank Rudzicz. Doctor XAvIer: Explainable diagnosis on physician-patient dialogues and XAI evaluation. In Proceedings of the 21st Workshop on Biomedical Language Processing, pp. 337-344, Dublin, Ireland, May 2022. Association for Computational Linguistics. [21] Andreas Madsen, Vaibhav Adlakha Nicholas Meade, and Siva Reddy. Evaluating the Faithfulness of Importance Measures in NLP by Recursively Masking Allegedly Important Tokens and Retraining. 2021. ## 付録 ## 忠実性評価手法 入力文を $x$ とする。 $x$ の単語の数を $l_{x}$ とする。 $x$ の予測されるクラスは $c(x)$ とし, クラス $j$ に対応する予測確率を $p_{j(x)}$ とする。説明が与えられたとき $k$ 番目の重要な単語を $x_{k}$ とする。上位 $k$ 個 (または上位 $q \%$ )の重要な単語のみを含む入力列を $x_{: k}$ (または $x_{: q \%}$ ) とする。修正された単語部分列が含まれる修正された入力列を $x^{\prime}$ をスクした修正入力系列を $x / x^{\prime}$ とする。 また Area Under the Curve (AUC) は分類ラベルの確率を、重要度の降順でマスクした単語の割合に対してプロットすることで得られる曲線と $x$ 軸間の面積である。 $y$ を、 $x$ の重要度で降順に並べ替えた単語列とすると図 5 の $\operatorname{AUC}\left(y_{10: 20 \%}\right)$ は $y$ を上位 $0 \%-20 \%$ の単語をマスクした際に計算される AUC を表す。 マスクした単語の割合 $q$ 図 $5 \mathrm{AUC}$ の略図 Most Informative Token (Most) 入力文の中の最も重要度の高い単語をマスクした際に分類ラベルが変化した時、忠実と判断される指標である。 $ \text { Most }= \begin{cases}1 & \text { if } c(x) \neq c\left(x / x_{: 1}\right) \\ 0 & \text { if } c(x)=c\left(x / x_{: 1}\right)\end{cases} $ Decision Flip (Flip) 分類ラベルが変化するまで、重要度の高い順に単語をマスクしていき、分類ラべルを変化させるのに必要とした単語のインスランス内全ての単語に対する割合を計算する。 $ \text { Flip }= \begin{cases}-\min \frac{k}{l_{x}} & \text { s.t. } c(x) \neq c\left(x / x_{: k}\right) \\ -1 & \text { if } c(x)=c\left(x / x_{: k}\right) \text { for any } k\end{cases} $ Comprehensiveness (Com) 分類ラベルの確率と重要度の高い単語をマスクしていった際の分類ラべ ルの確率の差を計算する。 $ \operatorname{Com}=\frac{1}{|B|} \sum_{q \in B}\left(p_{c(x)}(x)-p_{c(x)}\left(x / x_{: q \%}\right)\right) $ Sufficiency (Suf) 分類ラベルの確率と重要度の低い単語をマスクした後の分類ラベルの確率の差を計算する。 $ \operatorname{Suf}=-\frac{1}{|B|} \sum_{q \in B}\left(p_{c(x)}(x)-p_{c(x)}\left(x_{: q \%}\right)\right) $ ## Correlation between Importance and Output Prob- ability (Cor) 重要度の高い単語を一つずつマスク していき、その際の分類ラベルの確率との相関を計算する。 $ \text { Cor }=-\rho(\boldsymbol{u} 、 \boldsymbol{p}) $ $\boldsymbol{u}$ は単語の重要度を降順に並べたベクトルである。 $\boldsymbol{p}=\left[p_{c(x)}(x), p_{c(x)}\left(x / x_{1}\right), p_{c(x)}\left(x / x_{2}\right), \cdots, p_{c(x)}(x /\right.$ $\left.x_{l_{x}}\right) . \rho$ はピアソン相関係数を表している。 Monotonicity (Mono) 単語の重要度とその単語を追加した後の分類ラベルの確率を計算する。 $ \text { Mono }=\rho(\boldsymbol{u} 、 \boldsymbol{p}) $ $\boldsymbol{u}$ は単語の重要度を降順に並べたべクトルである。 $\boldsymbol{p}=\left[p_{c(x)}(x), p_{c(x)}\left(x / x_{: 1}\right), p_{c(x)}\left(x / x_{: 2}\right), \cdots, p_{c(x)}(x /\right.$ $\left.x_{: l_{x-1}}\right) . \rho$ はピアソン相関係数を表している。 Logodds (Log) 単語重要度の高い単語をマスクする前と後の予測されたクラスに関する負の対数確率を計算する。 $ \log =\log \frac{p_{c(x)}\left(x / x_{: l_{x}}\right)}{p_{c(x)}\left(x / x_{: t \%}\right)} $ NAUC (NA) 縦軸を予測ラベルの確率、横軸をマスクする単語の割合とする。予測ラベルの確率とマスクした単語の割合の乗算 (つまり四角形の面積) に対して AUC が占める割合を計算する。 $ \mathrm{NA}=\frac{\operatorname{AUC}\left(y_{0 \%: t \%}\right)}{q \cdot p_{c(x)}(x)} $ RAUC (RA) 単語をランダム順でマスクした際の AUC に対して単語を重要度の降順でマスクした際の AUC が占める割合を計算する。 $z$ を $x$ をランダムに並び替えた単語列とする。 $ \mathrm{RA}=\sum_{k=0}^{9} \frac{\operatorname{AUC}\left(y_{k * 10 \%:(k+1) * 10 \%}\right)}{\operatorname{AUC}\left(z_{k * 10 \%:(k+1) * 10 \%}\right)} $
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A6-1.pdf
# 自然言語生成におけるタスク横断自動評価のメタ分析 星野 翔 1 張 培楠 1 1 株式会社サイバーエージェント \{hoshino_sho,zhang_peinan\}@cyberagent.co.jp ## 概要 本研究は、自然言語生成における自動評価尺度の信頼性をタスク横断の観点でのメタ分析で明らかにする。具体的には、機械翻訳・文書要約・物語生成のメタ評価データセットにてタスク横断で用いられる自動評価手法 4 つを調査した。従来研究のメタ評価との違いは、データセット間の比較が可能な形でシステム出力の自動・人手評価結果の相関係数を分析した点である。分析結果からは相関係数がタスク横断で著しく低下する現象が観察され、自動評価尺度のタスク横断での信頼性に留意すべきことが示唆された。従来研究の比較検討から新たな知見が得られたことでメタ分析の有用性が示された。 ## 1 はじめに 自然言語生成 (natural language generation; NLG) $の$自動評価尺度 ${ }^{1)}$ はタスク横断でも用いられる。例えば、代表的な手法 BLEU [2] は元々機械翻訳 $[3,4]$ のために提案されたが、いまや文書要約 [5] や物語生成 [6] など他タスクに応用されている。しかし、これら手法がタスク横断の自動評価において信頼に足るか十分検討されていない。その結果、比較的新しいタスクの一つで自動評価手順が確立されていない雑談対話 [7] にて、BLEUがベンチマーク指標として流用され、未だに使われ続けている問題がある。 この問題に対し、従来研究の NLG メタ評価 $[4,5,6]$ では、機械翻訳や文書要約などの各タスク内でシステム出力の自動・人手評価結果の相関係数を算出し、自動評価手法の信頼性を議論している(図 1a)。 また Marie らの研究 [8] は、機械翻訳において共通する自動評価手順の問題点を二次的な文献調査の形で報告している。しかし従来研究の議論は各タスク内に閉じているため、俯瞰的なタスク横断の観点で 1) NLG の自動評価尺度は質的評価尺度 quality metrics と多様性評価尺度 diversity metrics に大きく二分され、両者ともに広く用いられるが、多様性評価尺度についてはメ夕評価方法 [1] が定まっていないため本研究の対象外とする。 (a) 各 NLG タスクでのメタ評価 (一次研究) (b) NLG タスク横断でのメタ分析 (二次研究) 図 1 メタ評価とメタ分析での研究方法の違い。 の信頼性は議論されていない。 そこで本研究は、NLG タスク横断での自動評価尺度の信頼性をメタ分析により明らかにする(図 1b)。 メタ分析はサーベイ論文と似た二次研究の一種であり、一次研究(原著論文)の統計的な分析を目的とする。原則的に新たなデータ・実験を用いず、従来研究の比較のみから新たな解釈や知見を導き出す形で一次研究を俯瞰的に再検討する。 本研究では機械翻訳・文書要約・物語生成のメ夕評価データセットにてタスク横断で用いられる自動評価手法 4 つの信頼性を調査した。具体的には、メタ評価での知見も踏まえつつ、自動評価と人手評価のシステム順位相関係数をタスク間で比較可能な形で報告し、自動評価尺度の信頼性を議論する。 調査の結果、BLEU など自動評価手法の信頼性がタスク横断で著しく低下する現象や、タスク横断の観点でより信頼性が高い手法の存在などが観察された。総じて、自動評価尺度のタスク横断での信頼性 に留意すべきことが示唆される。一次研究の比較検討から新たな知見が得られたことで、メタ分析の有用性が示された。 ## 2 調査方法 本研究は NLG タスクの機械翻訳・文書要約・物語生成を対象として、データセット 4つをメタ評価の再現実験とメタ分析の二段階で調査する(表 1)。 まず予備検証として、従来研究であるメ夕評価の再現実験を一般公開データセットを使用し改めて実施する。この再現実験で本研究の分析手順の正しさを確認し、また既存データセットにおける再現手順の曖昧性を明らかにする。次にメタ分析で、既存デー タセットをタスク横断の比較が可能な形で統計的に分析し、新たにタスク横断での議論を可能とする。 データセット本研究には下記 3 タスクのメタ評価データセット 4 つを用いた2)。これらのタスクは NLG タスク三種の類型化 [9] にそれぞれ対応する。 またシステム出力の自動評価結果に加えて人手評価結果も含んだデータセットが一般公開されており、 メタ評価の再現性が期待できるため使用した。 ・機械翻訳は、入力文をある言語から別の言語へ過不足なく「変換」するタスクである。 WMT20・21 metrics shared task データセット $[10,4]$ のうち新聞ドメインの英 $\rightarrow$ 独翻訳のみを対象に、Freitag ら [3] に従い Google 提供の multidimensional quality metrics (MQM) に基づく人手評価結果を使用した。他の言語対や WMT21の TED ドメイン [4] は用いなかった。 - 文書要約は、入力文書の内容を保持しながらより短い文書へと「圧縮」するタスクである。新聞ドメインの CNN / Daily Mail [11] に基づく SummEval データセット [5]を対象に、専門家の人手評価結果を使用した。 ・物語生成は、入力文に後続する内容のより長く一貫性がある文書を「創作」するタスクである。匿名掲示板を収集した WritingPrompts [12] に基づく HANNA データセット [6] を対象に、クラウドワーカーの人手評価結果を使用した。 統計処理本研究では、タスク毎に自動評価結果と人手評価結果の相関係数をシステム単位で算出しタスク横断での信頼性を調査した。統計処理にはメタ評価での知見 [3] の多くを取り入れた。まず人手 2)雑談対話 [7] のメタ評価データセットも存在するが、他データセットと異なる設定となるため活用できなかった。表 1 使用した NLGメタ評価データセットの内訳。 システム数には人間を含めず、外れ値も除いた。 評価にはクラウドワーカーより信頼が置ける専門家の評価結果を可能な限り採用した。また相関係数には標本数の少なさを考慮し Pearson [13] の相関係数ではなくKendall [14] の順位相関係数を值域 $[-1,1]$ で用いた。さらに人間(参照文)はシステムに数えず、外れ值扱いのシステムは集計対象から除いた。 自動評価手法自動評価手法には、参照文との単語 $n$-gram 一致率に基づく BLEU [2]、ROUGE [15] の $\mathrm{F}$ 値、文字 $n$-gram 一致率に基づく $\operatorname{chrF}[16]$ 、事前学習済みモデル BERT [17] に基づく BERTScore [18] の $\mathrm{F}$ 值の計 4 手法を使用した。これら手法はタスク横断の質的評価尺度として用いられており、文書単位での単一参照文との比較結果を分析対象とした。 ## 3 メタ評価の再現実験 表 2 に従来研究である NLGメタ評価の再現実験結果を示す。なおこの再現実験に限りWMT21では Pearson の相関係数、HANNA では ROUGE の $\mathrm{F}$ 値ではなく recall 值を用いた。また WMT20・21では ROUGE を、WMT20 では BERTScore を自動評価に用いていないため欠損値扱いの空欄 (-) とした。 これらの值は WMT21 論文 [4] Table 23、SummEval 論文 [5] Table 2、HANNA 論文 [6] Figure 4 とそれぞれ完全に一致し、従来研究を再現できたことで分析手順の正しさを確認できた。例外的に WMT20では今回参照した Freitag らの論文 [3] Figure 7 に測定値の記載がなく值の一致まで確認できなかった。そのため WMT20でのメタ分析手順はより新しく値の一致まで確認できたWMT21 に準じた。 既存データセットの再現性には同様の難があり、再現手順の曖昧性に起因する論文中の値との不一致が GitHub Issues で報告されている。また報告に基づきWMT21 論文が改訂された事例も存在する ${ }^{3)}$ 。  表 2 NLGメタ評価の再現実験結果。データセット毎に異なる設定であり直接比較可能な值ではない。 Pearson の相関係数または Kendall の順位相関係数での值で、桁数を丸めると各論文中の報告値と一致する。 表 3 NLG タスク横断での自動評価尺度のメタ分析結果。Kendall の順位相関係数での最高値を太字で表す。 ## 4 タスク横断でのメタ分析 表 3 に NLG タスク横断での自動評価尺度のメタ分析結果を示す。すなわち表 2 と表 3 の違いが図 1 に示したメタ評価とメタ分析の研究方法の違いに対応する。なおメタ分析では報告値を直接比較可能とするため SummEval と HANNA で全ての人手評価観点の代表値として平均値を用いた。 この分析結果から、自動評価尺度をタスク横断で用いた場合に信頼性が著しく低下する現象が観察された。例えば、機械翻訳タスクの WMT21では BLEU と人手評価結果の相関係数が約 0.9 と非常に強い相関を示しているが、物語生成タスクの HANNA では約 0.4 に、文書要約タスクの SummEval では約 0.2 と弱い相関にまで低下した。他手法の $\mathrm{chrF}$ BBERTScore にても同様の現象が観察されたが、 BLEU での低下が最も顕著だった。 さらに BLEU と chrF の手法間での比較において、 WMT21を例外として chrF が BLEUを相関係数で上回っていた。例えば、SummEval と HANNA の両方で chrF は約 0.5 と比較的強い相関を示しており、それぞれ BLEUを上回る。つまりタスク横断の観点では BLEU より chrF の方が信頼性が高いと言える。他方で、事前学習済みモデルに基づく BERTScore とその他の単語 $n$-gram 一致率に基づく手法間での比較において、手法の性質に起因する傾向の違いは特に観察されなかった。 これらの観察から、総じて、自動評価尺度のタスク横断での信頼性に留意すべきことが示唆される。従来研究であるメタ評価の分析からこの新たな知見が得られたことで、一次研究を比較検討するメタ分析の有用性が示された。ただしメタ分析(二次研究)の調査結果はメタ評価(一次研究)の質と量に左右されやすく、手法間の優劣など確固たる結論付けにはデータ量が不十分な調査だったと考える。 ## 5 関連研究 Deng ら [9] の研究では、NLGタスクを文書要約など「圧縮」タスク・機械翻訳など「変換」タスク・物語生成など「創作」タスクの三種に類型化しており、本研究でもこの定義を採用した (§2)。また各夕スクで重視する評価観点を使い分けることで従来手法と遜色ない性能でありながらタスク横断的に使用できる自動評価手法を提案している。 Pillutla ら [19] の研究では、物語生成や雑談対話など正解が一意に定まらない「創作」タスク、いわゆる open-ended タスク向けにタスク横断の自動評価手法 MAUVE を提案している。一方で本研究が対象とした文書要約や機械翻訳など、正解を参照文として定められる「圧縮」・変換」タスク、通称 directed generation タスク [20] での性能は調査されていない。 Tevet と Berant [1] の研究では、多様性評価尺度のメタ評価において表層多様性 form diversity と内容多様性 content diversity の 2 つの人手評価観点が内在することを指摘し、多様性を 1 つの人手評価観点とみなす従来研究の曖昧性とその結果生じやすい人手評価結果不一致の問題を明らかにした。また多様性の人手評価結果がより一致しやすい新たな評価手順を提案している。本研究ではこれらの議論を踏まえて多様性評価尺度を分析の対象外とした (§1)。 ## 6 おわりに 本研究は、機械翻訳・文書要約・物語生成にて夕スク横断で用いられる自動評価手法 4 つをメタ分析として調査した。具体的には、メタ評価データセットに含まれる自動・人手評価結果のシステム順位相関係数を比較可能な形で統計的に分析した。分析結果から、タスク横断では相関係数が著しく低下する現象が観察され、自動評価尺度のタスク横断での信頼性に留意すべきことが示唆された。一次研究の比較検討から新たな知見が得られたことで、メタ分析の有用性が示された。雑談対話など他タスクへの応用や自動評価手法の拡充は今後の課題としたい。 ## 参考文献 [1] Guy Tevet and Jonathan Berant. Evaluating the evaluation of diversity in natural language generation. In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics, pp. 326-346, 2021. [2] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. BLEU: A method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, 2002. [3] Markus Freitag, George Foster, David Grangier, Viresh Ratnakar, Qijun Tan, and Wolfgang Macherey. Experts, errors, and context: A large-scale study of human evaluation for machine translation. Transactions of the Association for Computational Linguistics, Vol. 9, pp. 1460-1474, 2021. [4] Markus Freitag, Ricardo Rei, Nitika Mathur, Chi-kiu Lo, Craig Stewart, George Foster, Alon Lavie, and Ondřej Bojar. Results of the WMT21 metrics shared task: Evaluating metrics with expert-based human evaluations on TED and news domain. In Proceedings of the Sixth Conference on Machine Translation, pp. 733-774, 2021. [5] Alexander R. Fabbri, Wojciech Kryściński, Bryan McCann, Caiming Xiong, Richard Socher, and Dragomir Radev. SummEval: Re-evaluating summarization evaluation. Transactions of the Association for Computational Linguistics, Vol. 9, pp. 391-409, 2021. [6] Cyril Chhun, Pierre Colombo, Fabian M. Suchanek, and Chloé Clavel. Of human criteria and automatic metrics: A benchmark of the evaluation of story generation. In Proceedings of the 29th International Conference on Computational Linguistics, pp. 5794-5836, 2022. [7] Chia-Wei Liu, Ryan Lowe, Iulian Serban, Mike Noseworthy, Laurent Charlin, and Joelle Pineau. How NOT to evaluate your dialogue system: An empirical study of unsupervised evaluation metrics for dialogue response generation. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 2122-2132, 2016. [8] Benjamin Marie, Atsushi Fujita, and Raphael Rubino. Scientific credibility of machine translation research: A meta-evaluation of 769 papers. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics, pp. 7297-7306, 2021. [9] Mingkai Deng, Bowen Tan, Zhengzhong Liu, Eric Xing, and Zhiting Hu. Compression, transduction, and creation: A unified framework for evaluating natural language generation. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 7580-7605, 2021 . [10] Nitika Mathur, Johnny Wei, Markus Freitag, Qingsong Ma, and Ondřej Bojar. Results of the WMT20 metrics shared task. In Proceedings of the Fifth Conference on Machine Translation, pp. 688-725, 2020. [11] Ramesh Nallapati, Bowen Zhou, Cicero dos Santos, Çağlar Gülçehre, and Bing Xiang. Abstractive text summarization using sequence-to-sequence RNNs and beyond. In Proceedings of the 20th Conference on Computational Natural Language Learning, pp. 280-290, 2016. [12] Angela Fan, Mike Lewis, and Yann Dauphin. Hierarchical neural story generation. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics, pp. 889-898, 2018. [13] Karl Pearson. Note on regression and inheritance in the case of two parents. Proceedings of the Royal Society of London, Vol. 58, No. vii, pp. 240-242, 1895. [14] Maurice George Kendall. A new measure of rank correlation. Biometrika, Vol. 30, No. 1/2, pp. 81-93, 1938. [15] Chin-Yew Lin. ROUGE: A package for automatic evaluation of summaries. In Proceedings of the ACL Workshop: Text Summarization Branches Out, pp. 74-81, 2004 [16] Maja Popović. chrF: character $n$-gram F-score for automatic MT evaluation. In Proceedings of the Tenth Workshop on Statistical Machine Translation, pp. 392-395, 2015. [17] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 4171-4186, 2019. [18] Tianyi Zhang, Varsha Kishore, Felix Wu, Kilian Q. Weinberger, and Yoav Artzi. BERTScore: Evaluating text generation with BERT. In Proceedings of the Eighth International Conference on Learning Representations, 2020. [19] Krishna Pillutla, Swabha Swayamdipta, Rowan Zellers, John Thickstun, Sean Welleck, Yejin Choi, and Zaid Harchaoui. MAUVE: Measuring the gap between neural text and human text using divergence frontiers. Advances in Neural Information Processing Systems, Vol. 34, pp. 4816-4828, 2021. [20] Ari Holtzman, Jan Buys, Li Du, Maxwell Forbes, and Yejin Choi. The curious case of neural text degeneration. In Proceedings of the Eighth International Conference on Learning Representations, 2020.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A6-2.pdf
# 編集操作によるデータ拡張を用いた テキスト平易化の自動評価 山中光 徳永健伸 東京工業大学 情報理工学院 \{yamanaka.h.ac@m, take@c\}.titech.ac.jp ## 概要 テキスト平易化とは文の意味を保ちつつ平易に書き換えるタスクである.既存のテキスト平易化の研究では様々な自動評価指標が使用されているが,平易性を測定する適切な自動評価指標に関する合意が存在しない. また,既存の自動評価指標は評価するために参照文を必要とするものが多いので,参照文を集めるコストも問題となる。本研究では評価時に参照文を必要としない,テキスト平易化のための新しい自動評価指標を提案する.提案手法では,難易の順序関係を判別するためのランキングモデルを学習し, さらに学習データを拡張するために編集操作を用いたデータ拡張手法を提案する。 また,平易性を評価するために適切な評価データについても議論する. 評価実験の結果,提案手法が既存の評価指標と同等以上の評価性能を示した。 ## 1 はじめに テキスト平易化とは文の意味を保ちつつ,語彙平易化や構文平易化などの複数の編集操作を通じて平易に書き換えるタスクであり [1], 子供や非母語話者など平易な文を必要とする人々にとって重要な支援技術の1つとしても期待されている [2]. 先行研究ではテキスト平易化を難解な文から平易な文への単一言語内の翻訳問題として捉え, 近年では深層学習を用いた手法によって流暢な平易文を生成することが可能になっている [3]. テキスト平易化の評価に関しては,流暢性(出力文の文法的正しさ), 同義性(出力文が元の文(原文)の意味を保持している程度), 平易性(出力文が原文よりも平易になった程度)という 3 つの観点から人手評価が行われる $[4,1]$. 既存研究では, これら 3 つの観点において人手評価と相関する自動評価指標を用いて平易化の評価を行う,中でも平易性 に関する自動評価指標としては,文中の単語数と平均音節数から計算される FKGL [5], 入出力文と参照文間における N-gram 一致度を測る SARI [6] が主に使用されており,近年では出力文と参照文における BERT の埋め込みで類似性を測る BERTScore [7] を用いることが提案されている [1]. しかし,こういった自動評価指標それぞれに関して,平易性の評価のために用いることが不適切であることが報告されており $[8,9,10]$ ,平易性のための適切な自動評価指標に関する合意は取れていない。さらに,SARI と BERTScore に関しては計算時に参照文を必要とするため,人手で作られた適切な参照文を収集するコストが存在する。 参照文を用いずに評価値を算出できる自動評価指標は,テキスト平易化のみならず他分野でも重要であり,処理の前後のパラレルデータのみを用いて学習できる枠組みが要約 [11] や文法誤り訂正 [12] の分野で提案されている。これらの研究では,何らかの方法で測った文の良さを順序付けするランク学習と, 順序付けのために必要なデータ拡張を行うことで評価モデルを作成している [11,12]. 本研究はこれらの研究を参考にし,原文と参照文から成るパラレルデータのみを用いて学習し,計算時に参照文を用いない,平易化のための新しい自動評価指標 SIERA(SImplification metric based on Edit operation through learning to RAnk)を提案する. SIERA では,平易性の順序のついた文対を用いてランク学習を行い,さらに評価性能の向上を目的に編集操作に基づいた拡張データも学習に活用する。 またテキスト平易化の自動評価指標の評価データから,平易性を測るのに適切な評価データ抽出を, Inter-class correlation(IC)と Inter-annotator agreement (IAA)の観点から行った. 実験の結果,拡張データを用いた提案モデルが既存の自動評価指標と同等以上の評価性能を持つことを示した。 ## 2 ランキングモデル 提案モデルは,平易性の順序関係を判別するランキングモデルであり,リーダビリティ指標 NPRM[13] に着想を得たモデルである. 学習 $n$ を総文対数, $x_{i 1}$ を原文, $x_{i 2}$ を平易文 (参照文)としたとき, 原文と平易文の対集合 $X=\left.\{\left(x_{11}, x_{12}\right), \ldots,\left(x_{n 1}, x_{n 2}\right)\right.\}$ から入力 $I_{i j k}$ とラベル $y_{i j k}$ を以下のように作成する. $ \begin{aligned} & I_{i j k}=\operatorname{concat}\left(x_{i j} ; \text { SEP } ; x_{i k}\right) \\ & y_{i j k}= \begin{cases}{[0,0,1]} & \text { if } j<k \\ {[1,0,0]} & \text { if } j>k \\ {[0,1,0]} & \text { if } j=k\end{cases} \end{aligned} $ ただし, $\operatorname{concat}(a ; \mathrm{SEP} ; b)$ は文 $a$ に右から文 $b$ を SEP トークンで結合する操作であり, $(j, k) \in \Lambda, \Lambda=$ $\{(1,2),(2,1),(1,1),(2,2)\}$ とする. 作成した入力 $I_{i j k}$ とラベル $y_{i j k}$ を用いて,以下のように損失関数 $L$ で評価モデルを学習する. $ \begin{aligned} S_{i j k} & =\operatorname{softmax}\left(\operatorname{FFNN}\left(\operatorname{BERT}\left(I_{i j k}\right)\right)\right) \\ L & =-\sum_{i=1}^{n} \sum_{(j, k) \in \Lambda} y_{i j k} \log \left(S_{i j k}\right) \end{aligned} $ ただし, BERT (.) は BERT の出力における CLS トー クンを表し,FFNNは 1 層の全結合層とする. 評価時評価スコア scoreを推論するには,原文 orig と平易文 simp から入力 $I_{\text {eval }}$ を以下のように作成し, score を得る. $ \begin{gathered} I_{\text {eval }}=\operatorname{concat}(\text { orig } ; \mathrm{SEP} ; \operatorname{simp}) \\ \text { score }=\operatorname{softmax}\left(\operatorname{FFNN}\left(\operatorname{BERT}\left(I_{\text {eval }}\right)\right)\right)_{[3]} \end{gathered} $ ただし, [3] はべクトルの 3 次元目の要素を表す. ## 3 編集操作を用いたデータ拡張 2 節のランキングモデルの訓練データを拡張する手法を本節で提案する. 具体的には,原文と平易文の対から成るパラレルデータにおいて,原文と平易文の中間の平易性を持つ文 (本研究では中間文と呼ぶ)を,編集操作を用いて作成し,中間文を含む文対を訓練データとして用いる. 編集操作で中間文が作成できる根拠として, 平易化のための編集操作を適用した文がそうでない文よりも平易性が高いと人間によって評価される [9] ことが挙げられる。つまり,原文から参照文となる平易文に変換するため に必要な編集操作を,原文に部分的に適応した文を考えると,これは原文と参照文の中間の平易性を持つ文(中間文)になる.中間文を学習に用いることで,より細かい粒度で平易性のランキングモデルが学習できることを期待する。 中間文作成の手順本研究では編集操作を,トー クン単位編集操作 (TE) とスパン単位編集操作 (SE)に分類する,中間文は,原文と参照文から自動的に抽出した $\mathrm{TE}$ から $\mathrm{SE}$ を構成し, $\mathrm{SE}$ を原文に適応することで作成する. TE は,原文を参照文に変換するために,原文におけるそれぞれのトークンに対して適用する変換操作である. 本研究では Dong ら [14] に倣って TE の種類を ADD(トークンの挿入),DEL(トークンの削除), KEEP (トークンの保持) とし, 同研究の方法1)を用いて自動的かつ一意に抽出する.SE は KEEP 以外の連続する 1 つ以上の, 平易化操作として意味を持つような $\mathrm{TE}$ のことであり,以下の 3 種類が存在する. -ADD-DEL スパン:連続する 1 つ以上の ADD と DELがこの順序で結合している部分. 語彙平易化や文分割に該当する。 -DEL スパン:ADD-DEL スパン以外の連続する 1 つ以上の DEL 部分. 不必要な情報削除に該当する. - ADD スパン:ADD-DEL スパン以外の連続する 1 つ以上の ADD 部分. 必要な情報追加に該当する。 表 1 に TEと SE の抽出例を示す. 抽出できた SE が $N$ 個だった場合,何も適用しない場合と全て適用する場合を除いた $2^{N}-2$ 通りの組み合わせで原文に $\mathrm{SE}$ を適用し, $2^{N}-2$ 件の中間文の集合を作成する. そこから $m$ 件ランダムサンプリングしたものをデー タ拡張に用いる. 中間文を用いて提案モデルを学習する際は,中間文と原文,参照文それぞれをぺアとした入力を拡張データとして学習に使用する. ## 4 平易性のための評価データ テキスト平易化の自動評価指標の評価データ Simplicity-DA [1] では, システムが出力した文に対して人手評価が付与されている. しかし, SimplicityDA のようにシステムが出力した文を使用する評価データは,流暢性,同義性,平易性間の Inter-class  表 1 トークン単位編集操作とスパン単位編集操作を抽出した例。それぞれのハイライトの色は, ADD-DEL スパン DEL スパン,ADD スパンを表す.この例ではスパン単位編集操作が合計 4 個抽出されている. \\ KEEP KEEP ADD(.) ADD(It) ADD(would) ADD(create) DEL DEL DEL KEEP KEEP KEEP correlation(IC)が高いので,平易性の評価データとして使用することは不適切であることが示唆されている [10]. システムが出力した文はそもそも流暢性や同義性が低い文を含んでおり,そのような質の低い文に対して人間が平易性の評価を行う際には,流暢性や同義性に強く依存した評価值が付与されてしまうことを意味する。したがって,流暢性や同義性に問題があるデータを含む Simplicity-DA をすべてそのまま平易性の評価に用いるのは好ましくない. そこで本研究では,以下の分析に基づき, Simplicity-DA から流暢性,同義性と平易性の依存性 (IC) が低い部分集合を抽出する.まず,以下のように Simplicity-DA の部分集合を作成する. - all:Simplicity-DA 全体 -f_high:流暢性が全体の中央値よりも高い部分集合 - m_high:同義性が全体の中央値よりも高い部分集合 -fm_high:流暢性と同義性がそれぞれの全体の中央値よりも同時に高い部分集合 それぞれの部分集合において,平易性に対する流暢性と同義性の IC をピアソンの相関係数 $\rho$ で計算する。また,人手評価値そのものの信頼性を分析するために, $\operatorname{ICC}(1, k)[15]$ を用いて Inter-annotator agreement(IAA)を計算する. $\operatorname{ICC}(1, k)$ は $k$ 人評価値を集計した値に対する信頼性を表す指標であり,0.5未満なら poor, 0.5~0.75 なら fair,0.75〜 0.90 なら good, 0.90 以上なら exellent と解釈される [16]. 結果を表 2 に示す. まず $\rho$ に関しては,all が最も高い傾向を示すことが分かる.この結果は, Simplicity-DA の平易性に関する人手評価は IC が高く,平易性の評価データとしてそのまま用いるのには適さないことを示唆する。また,fm_high が最も低い傾向を示すことから,Simplicity-DA においては表 2 Simplicity-DAにおける $\rho$ と $\operatorname{ICC}(1, k)$. 流暢性と同義性の両方の質の高いデータが平易性の評価データとして信頼性が高いことを確認できる.一方, $\operatorname{ICC}(1, k)$ の結果から,評価值そのものの信頼性に関しては all の信頼性が最も高い(exellent)が, fmhighに関しても高い(good)信頼性を持つことが分かる. 以上より Simplicity-DA において, IC と IAA の観点から fm_high が平易性の人手評価として適切であると判断した。 ## 5 実験 SIERA に関する実験を行い,人手評価との相関を調べた. ## 5.1 実験設定 訓練データ訓練データとして Newsela [17] を用いて 2 節の提案モデルをファインチューニングする. Newsela は原文を人手により平易文に書き直したデータセットである. Newsela の特徴として最終的な平易文に至る途中段階の文も 4 段階にわたり付与されていることが挙げられる.本研究では,難易度の差が 4 である文対のみをべースラインとして用いるデータ(Base)とした. この Base に,3 節の手法を適用し中間文を拡張したデータ(Silver)を作成した. また Base から,Newsela の人手による途中段階の平易文を中間文とみなして文対を追加し,デー タ拡張をおこなった (Gold). これらの訓練データを 表 3 既存の評価指標(上)と提案手法(下)の人手評価との相関. SIERAに関しては 10 回実験を行った平均 (左)と標準偏差(右)を示す。 用いて提案モデルを学習する際は,FFNN のパラメータと BERT の最終層のパラメータを学習した。 評価データ 4 節の結果から, 評価データとして Simplicity-DA の fm_high 分割を用いた. さらに,人手で書き直された質の高い参照文で構成された評価データであり,IC が低いことが確認されている Human-Likert [10] も用いた. また提案手法との比較を行うために,参照文が必要な指標として BERTScore (精度, 再現率, F1),SARI,BLEU,参照文が必要ない指標として FKGLを用いて人手評価との相関を調べた。人手評価との相関は, 評価デー タに付与されている平易性の人手評価スコアと自動評価指標が算出したスコアとのピアソンの相関係数を用いて計算する。 ## 5.2 実験結果 表 3 に実験結果を示す。既存の評価指標の中では, Simplicity-DA と Human-Likert のどちらにおいてもBERTScore_p が最も人手評価との相関が高い. BERTScore_p と提案手法を比較すると, SimplicityDA に関しては Base では SIERA が劣るが Silver や Gold で同等以上の評価性能を示している.また, Human-Likert では Base, Silver, Gold のいずれにおいても SIERA が高い性能を持つ.この結果から, 参照文なしで評価スコアを計算できる SIERA は,参照文が計算時に必要な既存評価指標と比較しても同等以上の性能であるといえる。 また, 表 3 下から, 中間文を活用している Silver と Gold が中間文を使用しない Base よりも高い相関を示す傾向があることが分かる. これは,提案したランキングモデルは中間文を用いると,より細かい粒度の平易性の違いを考慮することが可能になり,平易性に関する評価性能が上がることを示唆する。表 4 同義性が低い中間文の 1 例. 原文 Wars of the future will be fought with American women on the front lines and the public has no problem with it . 参照文 American women will soon be able to fight in wars . 中間文 Wars of the future will be able to fight in 一方で,Silver で学習したモデルは Gold で学習したモデルよりも Base からの上がり幅が小さい傾向にある. Gold の中間文は人手で作成されたものなので流暢性や同義性に関しての質が担保されている一方で,Silverの中間文は自動的に抽出した SEを原文に適用しただけの文をランダムサンプリングしているので,質が低い文も含まれる.実際に作成できた同義性が低い Silver の中間文の例を表 4 に示す.この例では,原文の "fought with American women on the front lines and the public has no problem with it" が参照文の “able to fight in wars” に置き換わって作成された中間文を示している。この部分の置き換えだけでは文全体として同義性を損ねたものとなってしまうので,同義性を保つためには原文の主語である“Wars of the future”を参照文の “American women” に同時に置換する必要がある.このような Gold と Silver の中間文の質に関する違いが,Silver で学習した SIERA の評価性能の上がり幅が低くなる原因となっている可能性がある. 考えられる改善方法としては, Silver で拡張した $2^{N}-2$ 件の中間文の中から流暢性や同義性の高いものだけをサンプリングして学習に使用することが挙げられるので,これを今後の課題とする。 ## 6 おわりに 本研究では編集操作を用いたデータ拡張手法で拡張した中間文を用いてランキングモデルを学習することで,参照文なしで計算できるテキスト平易化のための新しい自動評価指標 SIERAを提案した。また,平易性を評価するのに適切な評価データの抽出方法を IC と IAA に観点から行った. 評価実験を通じて,中間文を学習に用いることによってランキングモデルの評価性能が向上することを示し,SIERA が既存の評価指標と同等以上の人手評価との相関を示すことを確認した. 今後の課題としては,流暢性や同義性の高い中間文を自動的に抽出する方法を模索することが挙げられる. ## 参考文献 [1] Fernando Alva-Manchego, Carolina Scarton, and Lucia Specia. The (un)suitability of automatic evaluation metrics for text simplification. Computational Linguistics, Vol. 47, No. 4, pp. 861-889, December 2021. [2] Sian Gooding. On the ethical considerations of text simplification. In Ninth Workshop on Speech and Language Processing for Assistive Technologies (SLPAT-2022), pp. 50-57, Dublin, Ireland, May 2022. Association for Computational Linguistics. [3] Sergiu Nisioi, Sanja Štajner, Simone Paolo Ponzetto, and Liviu P. Dinu. Exploring neural text simplification models. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 85-91, Vancouver, Canada, July 2017. Association for Computational Linguistics. [4] Louis Martin, Samuel Humeau, Pierre-Emmanuel Mazaré, Éric de La Clergerie, Antoine Bordes, and Benoît Sagot. Reference-less quality estimation of text simplification systems. In Proceedings of the 1st Workshop on Automatic Text Adaptation (ATA), pp. 29-38, Tilburg, the Netherlands, November 2018. Association for Computational Linguistics. [5] J. Peter Kincaid, Robert P. Fishburne, R L Rogers, and Brad S. Chissom. Derivation of new readability formulas (automated readability index, fog count and flesch reading ease formula) for navy enlisted personnel. 1975. [6] Wei Xu, Courtney Napoles, Ellie Pavlick, Quanze Chen, and Chris Callison-Burch. Optimizing statistical machine translation for text simplification. Transactions of the Association for Computational Linguistics, Vol. 4, pp. 401-415, 2016. [7] Tianyi Zhang, Varsha Kishore, Felix Wu, Kilian Q. Weinberger, and Yoav Artzi. Bertscore: Evaluating text generation with BERT. In 8th International Conference on Learning Representations, ICLR 2020, Addis Ababa, Ethiopia, April 26-30, 2020. OpenReview.net, 2020. [8] Teerapaun Tanprasert and David Kauchak. Flesch-kincaid is not a text simplification evaluation metric. In Proceedings of the 1st Workshop on Natural Language Generation, Evaluation, and Metrics (GEM 2021), pp. 114, Online, August 2021. Association for Computational Linguistics. [9] Fernando Alva-Manchego, Louis Martin, Antoine Bordes, Carolina Scarton, Benoît Sagot, and Lucia Specia. ASSET: A dataset for tuning and evaluation of sentence simplification models with multiple rewriting transformations. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 4668-4679, Online, July 2020. Association for Computational Linguistics. [10] Thomas Scialom, Louis Martin, Jacopo Staiano, Éric Villemonte de la Clergerie, and Benoît Sagot. Rethinking automatic evaluation in sentence simplification. CoRR, Vol. abs/2104.07560, , 2021. [11] Hanlu Wu, Tengfei Ma, Lingfei Wu, Tariro Manyumwa, and Shouling Ji. Unsupervised reference-free summary quality evaluation via contrastive learning. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 36123621, Online, November 2020. Association for Computational Linguistics. [12] Koki Maeda, Masahiro Kaneko, and Naoaki Okazaki. IMPARA: Impact-based metric for GEC using parallel data. In Proceedings of the 29th International Conference on Computational Linguistics, pp. 3578-3588, Gyeongju, Republic of Korea, October 2022. International Committee on Computational Linguistics. [13] Justin Lee and Sowmya Vajjala. A neural pairwise ranking model for readability assessment. In Findings of the Association for Computational Linguistics: ACL 2022, pp. 3802-3813, Dublin, Ireland, May 2022. Association for Computational Linguistics. [14] Yue Dong, Zichao Li, Mehdi Rezagholizadeh, and Jackie Chi Kit Cheung. EditNTS: An neural programmerinterpreter model for sentence simplification through explicit editing. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 3393-3402, Florence, Italy, July 2019. Association for Computational Linguistics. [15] Patrick E. Shrout and Joseph L. Fleiss. Intraclass correlations: uses in assessing rater reliability. Psychological bulletin, Vol. 86 2, pp. 420-8, 1979. [16] Terry K. Koo and Mae Y. Li. A guideline of selecting and reporting intraclass correlation coefficients for reliability research. Journal of chiropractic medicine, Vol. 15, No. 2, pp. 155-163, 2016. [17] Wei Xu, Chris Callison-Burch, and Courtney Napoles. Problems in current text simplification research: New data can help. Transactions of the Association for Computational Linguistics, Vol. 3, pp. 283-297, 2015.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A6-3.pdf
# 同時通訳品質評価方法検討のための 同時通訳者と翻訳者の評価比較分析 蒔苗 茉那 ${ }^{1}$ 須藤 克仁 ${ }^{1}$ 中村 哲 ${ }^{1}$ 松下 佳世 ${ }^{2}$ 山田 優 ${ }^{2}$ ${ }^{1}$ 奈良先端科学技術大学 ${ }^{2}$ 立教大学 \{makinae.mana.mh2, sudoh, s-nakamura\}@is.naist.jp ## 概要 同時通訳の品質評価は,人と機械双方の同時通訳の向上と発展のために重要である. しかし, 標準的な品質評価基準はまだ確立されていない. 本研究では,同時通訳の品質評価基準を検討するための第一歩として,同時通訳者と翻訳者による評価の比較分析を行い,通訳と翻訳の品質評価観点の差異について議論する。評価は同時通訳者と翻訳者各 1 名が,同一の記者会見に対してMultidimensional Quality Metrics (MQM) をもとにした「JTF 翻訳品質評価ガイドライン」を利用した. 評価結果の比較分析により, 同時通訳者と翻訳者の間の評価観点の共通点と相違点を明らかにする. そして同時通訳品質評価への応用の可能性を検討し、改良が必要な項目を明らかにする。 ## 1 はじめに 同時通訳とは,原言語から目的言語へ,発話された内容を聞き取りつつ,同時に発話内容を訳出していく行為を指す. 同時通訳では, 訳出は原発話になるべく追いつくことが要求されるため, 厳しい時間制約の下で話者の伝えたいことを正確に訳出することが求められる. しかし,そのような要求に応えられているかの標準的な評価基準は確立されていない. 同時通訳の訳出結果が原発話の内容を十分汲み取れているかを評価するためには、訳出結果の品質の良し悪しを多角的に判断しなければならないが、そのための具体的かつ実用的な基準はまだ存在しないのである.ここでの評価は通訳品質の向上につながることから,現在人間が行っている同時通訳を評価する上でも有益である. しかし現状, 同時通訳の訳出結果全体を大まかに評価する指標はあるものの,一文ずつなど細かいセグメント単位での訳出に注目した評価指標はなく,十分な評価ができていない状況にある. 一方で近年, 機械による自動同時翻訳の研究が進んでいる. 例えば Fukuda ら[1]は漸進的な音声認識, 機械翻訳, 音声合成をカスケード処理する自動同時翻訳システム実現した. 機械もまた人間と同様に,訳出内容を評価することができれば,その評価をもとに改善することができるため, 評価は重要である. しかし, 同時通訳の品質評価基準が存在しないことから,現状は翻訳の指標である BLEU 等を元に改善を試みているが,これらは評価指標に不十分である。なぜなら,通訳評価には流暢性,自然性より, 同時性, 内容伝達度の視点が重要となるためである。なぜなら,自動同時通訳の改善に翻訳の指標が用いられているということは, 同時通訳の特徴が改善指標に十分に反映されていないことを意味するからである. そのため, 同時通訳の品質評価基準を構築することは,人間だけでなく機械による同時通訳にとっても有益であると考える. 本研究では, 同時通訳の品質評価基準構築に向けて,翻訳の品質評価基準である Multidimensional Quality Metrics (MQM) [2]に着目し, その同時通訳評価への応用について検討する. 原言語から目的言語に変換するという点で同時通訳と翻訳は似ているものの, 一方で訳出時間の制限などいくつかの点で異なる性質を持つことから,翻訳の品質評価基準を同時通訳にそのまま当てはめようとすると問題が生じる.例えば,聞き手の内容理解に与える影響が小さいと考えられる程度の簡略化や省略は、時間的な制約を伴う同時通訳においては、一定程度許容されるからである. そこで本稿ではそのための第一歩として,MQM を同時通訳評価へ応用するにあたり何が必要かを明らかにするために,同時通訳者と翻訳者による評価の視点の共通点と相違点の分析を行う. 具体的には,同一の同時通訳に対して同時通訳 者と翻訳者が $\mathrm{MQM}$ に基づく JTF 翻訳品質評価ガイドライン[3]を利用して行った評価結果の比較と分析を通じて,翻訳評価の視点をほぼそのまま応用可能な項目および同時通訳評価向けに改変が必要な項目を明らかにすることを目指す。 本稿の検討を通じ以下が明らかになった。 - $M Q M$ 評価項目のうち, 同時通訳評価に応用可能な項目はカテゴリ「正確さ-誤訳-」である. - $\mathrm{MQM}$ 評価項目のうち, 同時通訳評価に応用するには要検討な項目は流暢さ」とカテゴリ 「抜けと余分」である. ## 2 関連研究 MQM(Multidimentional Quaity Metrics)とは,翻訳の評価指標フレームワークであり,この $\mathrm{MQM}$ を用いた翻訳の評価手法の有効性が示されている. MQM については 3 章で詳説する. Freitag ら[4]は, Direct Assessment による人手評価よりも,MQM 評価が Scalar Quality Metric (SQM)など他の評価手法と相関が最も強いことを示し, 機械翻訳の評価に MQM を用いるのが適当ではないかと提案している. WMT21 Metrics Shared Task [5] では、実際に MQM を用いた人手評価が追加で行われており, MQM の評価手法としての有効性を示している.既存の同時通訳の評価指標は,訳出結果全体を通じたプロダクト評価というよりも,むしろ通訳者を評価するものであり,代表的なものに NAATI Metrics [6]と EU Metrics [7]がある. NAATI (National Accreditation Authority For Translators and Interpreters)とは,オーストラリア政府公認の翻訳者や通訳者の国家資格の認定のことを指し,そこで使用されている NAATI Metrics は通訳の内容を A: Meaning Transfer Skill, B: Application of interpreting mode, C: Rhetorical skill, D: Language Proficiency enabling meaning transfer $の 4$ つの指標をもとに 5 段階評価を行うことで, 通訳全体を通して適切な訳出が行われていたかを評価する. EU Metrics では, Content, Delivery/From, Technique の 3 つの指標をもとに,通訳全体を通して適切な訳出が行われていたか評価をする。一方で,通訳者ではなく,通訳内容に注目し, 一文ずつなど細かいセグメント単位での通訳の評価指標はこれまでのところ確認できていない. ## 3 MQM による同時通訳評価 ## 3. 1 MQM - JTF 翻訳品質評価ガイドライン MQM とは翻訳の評価指標フレームワークであり, 日本翻訳連盟(JTF)では $\mathrm{MQM}$ をとに JTF 翻訳品質評価ガイドライン[3]を作成, 公開している. $\mathrm{MQM}$ や JTF 翻訳品質評価ガイドラインでは,評価依頼者が各エラーカテゴリの重みを事前に設定することで仕様を決定し, 評価者はその仕様をもとに,翻訳結果を 1 文単位でエラーベースの評価を行う。具体的には重みと重大度を掛け合わせ点数化する. エラーのカテゴリには正確さ・流暢さ・用語・ スタイル・地域慣習などがある。評価依頼者が各エラーカテゴリに対し重みを自由に設定するので,どのエラー項目を重視度するかの表現が可能である。 エラーが文章に与える重大度の程度は深刻・重度・軽度・なしがあり, JTF 翻訳品質評価ガイドラインのサンプル評価シートにおけるそれぞれの標準値は $100 \cdot 10 \cdot 1 \cdot 0$ であり,重大なエラーには大きなぺナルティがかかるようになっている。この重み付き和で表されるエラースコアが大きいほど、その文章に対するエラーは深刻であると考える。 ## 3.2 同時通訳評価への応用 本研究では, $\mathrm{MQM}$ に基づく同時通訳評価の確立に向けた検討を行う。過去の同時翻訳評価の試み [8]では,英日の同時翻訳タスクに対して,JTF 翻訳品質ガイドラインを用いて, 翻訳者が評価者として訳出内容を評価した. その結果, BLEU スコアと人手評価によるエラースコアとの間に正の相関関係が見られたことが報告されている. しかしながら先に述べたような翻訳と通訳の違いについては十分に考慮されておらず,通訳においては問題とされないような点について過剰な減点を受けていることが憂慮される. そこで本研究では通訳者と通訳者による評価を実施し,評価結果の比較と分析を行う。 今回の分析から期待される効果として,両者間での共通点が明らかになれば,それは翻訳内容の品質を評価する MQM は同時通訳の品質評価にも応用可能であると示すことができる. また両者間での相違点が明らかになれば,それは同時通訳評価者と翻訳評価者の間で評価すべき項目の違いが存在することの現れであり, それらの違いは同時通訳評価体系の構築時に検討すべき項目と考えることができる. 分析のために,同時通訳者,翻訳者,各 1 名に,共通の同時通訳データの評価を依頼した,同時通訳者は 15 年以上の実務経験を持つが、JTF ガイドラインを使用した評価の経験はない。翻訳者は JFT ガイドラインを使用した評価の経験を持つ。同時通訳データは日本記者クラブの記者会見の同時通訳収録データ(JNPC063) [9]である。評価にあたり同時通訳者には原発話と同時通訳の音声およびそれらの書き起こしを提示し,翻訳者には原発話と同時通訳の書き起こしのみを提示した。なお,評価を行った翻訳者は JTF ガイドラインを用いた評価作業の経験を有していたのに対し, 同時通訳者は MQM や JTF ガイドラインに基づく評価作業の経験がなかつたため,事前の打ち合わせにより JTF ガイドラインに基づく評価方法について説明を行った上で,エラー重大度について通訳の観点で評価して良い旨を伝えた。 表 $1 \mathrm{JTF}$ ガイドラインによる同時通訳者と翻訳者の同時通訳評価結果比較 & \\ ## 4 分析結果 以下に,JTF ガイドラインを用いた同時通訳者と翻訳者による同時通訳評価結果について, 評価の共通点・相違点について分析した結果のうち代表的なものを例示する(表 1 ). 表中のエラー値は翻訳者による評価において事前に設定したカテゴリおよび重大度による重みに基づくものである(重みの詳細は付録に記載)。 ## 4.1 同時通訳者評価と翻訳者評価の共通点 同時通訳者と翻訳者による評価で共通する傾向があったものとして, 例(1)に示すカテゴリ「正確さ-誤訳-」が挙げられる. 当該カテゴリでは, 原発話で用いられている単語が目的言語にて適切な訳に置き換わっていない場合は共通して減点されていた. エラー重大度の判定については同時通訳者と翻訳者の間で摇れがあり, 例(1)では同時通訳者のほうが重大度が高いとしており, エラー值が 26.6 となったのに対し,翻訳者では 1.33 であった。 ## 4.2 同時通訳者評価と翻訳者評価の相違点 同時通訳評価者と翻訳評価者の間における評価項目の相違点として, カテゴリ「流暢さ」とカテゴリ「抜けと余分」が挙げられる.カテゴリ「流暢さ」にて,翻訳評価者は目的言語が英文の語順通りに訳されているので不自然(例(2) エラー値 0.67),表現が不自然で流暢さに欠ける(例(3) エラー値 0.67)という理由で,それら理由に該当する訳出文を減点対象としていた。一方同時通訳評価者は, 前述した理由で訳出文を減点することはなかった. 英日翻訳における英語と日本語の語順の違いから, 同時通訳において早く訳出しようとすると通常の日本語の伝達順と入れ替えて訳出せざるを得ないが,翻訳の観点では自然さや流暢さが損なわれていると判断したからではないかと考えられる. 例(2) であれば,「〜してから 30 年ぶりである」と時間の言及を強調する訳出を好ましい翻訳とすると, この通訳結果ではそうした強調が反映されていないと考えることもできる. カテゴリ「抜けと余分」にて,翻訳評価者は原発話に含まれる単語が全て訳出されていない場合は基本的に減点としていた(例(4) エラー値 1.33).一方同時通訳評価者は, 原言語側に含まれる単語が全て訳出されていなかったとしても,全てを一律に減点することはなかった(エラー值 0 ). こちらもカテゴリ「流暢さ」と同様に, 英日の文法構造の違いと原言語になるべく追いつこうとする訳出時間制限のトレードオフから, 同時通訳において, ある程度の抜けは容認されて然るべきなのではないかと考える. ## 5 考察 分析結果から,カテゴリ「正確さ-誤訳-」にて, 同時通訳評価者と翻訳評価者の評価項目の視点が共通していることが分かった. そのため, カテゴリ「正確さ-誤訳-」については, 翻訳内容の品質を評価する $\mathrm{MQM}$ ・ $\mathrm{JTF}$ ガイドラインに基づいて同時通訳の品質を評価することができると示唆される. しかしながら今回は評価対象, 評価者とも事例が非常に限定されていることから, 今後より多くの事例を通じて誤訳の認定基準について検討することが必要と考えられる。 一方,カテゴリ「流暢さ」とカテゴリ「抜けと余分」においては, 同時通訳評価者と翻訳評価者の評価項目の視点が異なることが分かった. そのため, これらの違いは同時通訳の特徴と捉えることができ。こうした特徴を反映した評価体系の必要性が確認できた. ## 6 おわりに 本稿では, 翻訳品質評価基準である Multidimensional Quality Metrics (MQM)が同時通訳評価へ応用可能であるかを調査するために,同時通訳評価者と翻訳評価者の間における評価の視点の共通点と相違点の分析を行い, 応用可能な項目と検討が必要な項目を明らかにした。 一方で今回行った分析は, 原言語と目的言語が一対一で評価される単文評価による分析であった. 訳出時間や前後の文章の重要度によって訳出結果が大きく影響を受ける同時通訳において,前後の関係や訳出時間が考慮されない単文評価のみの分析結果は,同時通訳品質評価項目の検討に必要ではあるものの十分であるとは言えない. 今後は, 訳出時間と訳出結果, エラーの関係性について分析を進めていくことで, 単文評価で分析するができなかった, 同時通訳が持つ特徴であるリアルタイムで連続した文章間の関係性について明らかにしていきたいと考える。 ## 謝辞 本研究は JSPS 科研費 JP21H05054 の助成を受けたものです. ## 参考文献 [1] Ryo Fukuda, Sashi Novitasari, Yui Oka, Yasumasa Kano, Yuki Yano, Yuka Ko, Hirotaka Tokuyama, Kosuke Doi, Tomoya Yanagita, Sakriani Sakti, Katsuhito Sudoh and Satoshi Nakamura. "Simultaneous Speech-to-speech Translation System with Transformer-based Incremental ASR, MT, and TTS," Proc. Oriental COCOSDA 2021, 186-192, Nov. 18,2021 [2] A.Lommel et al., "Multidimensional Quality Metrics (MQM):A Framework for Declaring and Describing Translation Quality Metrics," Revista Tradumàtica: tecnologies de la traducció, 2014 [3] 一般社団法人日本翻訳連盟(JTF),“JTF 翻訳品質評価ガイドライン”: https://www.jtf.jp/pdf/jtf_translation_quality_guideli nes_v1.pdf [4] Markus Freitag, George Foster, David Grangier, Viresh Ratnakar, Qijun Tan, and Wolfgang Macherey. "Experts, Errors, and Context: A Large-Scale Study of Human Evaluation for Machine Translation," Transactions of the Association for Computational Linguistics, 9:1460-1474. 2021 [5] Markus Freitag, Ricardo Rei, Nitika Mathur, Chi-kiu Lo, Craig Stewart, George Foster, Alon Lavie, and Ondřej Bojar. 2021. Results of the WMT21 Metrics Shared Task: Evaluating Metrics with Expert-based Human Evaluations on TED and News Domain. In Proceedings of the Sixth Conference on Machine Translation, pages 733-774, Online. Association for Computational Linguistics [6] NAATI Metrics: https://www.naati.com.au/wp- content/uploads/2020/10/Certified-Interpreter- Assessment-Rubrics.pdf [7] EU Mettics: https://europa.eu/interpretation/doc/marking_criteria_ en.pdf [8] Antonios Anastasopoulos, Loïc Barrault, Luisa Bentivogli, Marcely Zanon Boito, Ondřej Bojar, Roldano Cattoni, Anna Currey, Georgiana Dinu, Kevin Duh, Maha Elbayad, Clara Emmanuel, Yannick Estève, Marcello Federico, Christian Federmann, Souhir Gahbiche, Hongyu Gong, Roman Grundkiewicz, Barry Haddow, Benjamin Hsu, et al.. 2022. Findings of the IWSLT 2022 Evaluation Campaign. In Proceedings of the 19th International Conference on Spoken Language Translation (IWSLT 2022), pages 98-157, Dublin, Ireland. Association for Computational Linguistics. [9] 松下佳世, 山田優, 石塚浩之, “英日 - 日英通訳データベース (JNPC コーパス) の概要”, 日本翻訳学会, vol. 22, pp. 87-94, 2020 ## A 付録 MQM による同時通訳評価者と翻訳評価者の同時通訳データ評価結果比較 データ:JNPC063 & \\ ## 重みの詳細 & 0.5 & & 0.5 \\
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A6-4.pdf
# 疑似訓練データに基づく機械翻訳の教師なし品質推定 黒田 勇斗 ${ }^{1}$ 藤田 篤 ${ }^{2}$ 梶原 智之 ${ }^{1}$ 二宮 崇 ${ }^{1}$ 1 愛媛大学大学院理工学研究科 2 情報通信研究機構 [email protected] [email protected] \{kajiwara, ninomiya\}@cs.ehime-u.ac.jp ## 概要 人間が作成した参照訳なしに機械翻訳文の品質を推定する手法を品質推定という.品質推定のデータの構築には,非常に高いコストがかかるため,教師あり学習に基づく品質推定はわずかな言語対に対してしか適用できない.この課題を解決するために,教師なし品質推定の研究が行われている. 本稿では,対訳コーパスから自動生成できる疑似訓練デー タのみを用いた教師なし品質推定について述べる。実験の結果,疑似訓練データを用いて訓練したモデルは,多資源および少資源言語対を中心に,既存の教師なし品質推定手法よりも高い性能を達成した. ## 1 はじめに 機械翻訳の品質推定 (Translation Quality Estimation; TQE)[1] とは,参照訳を用いず原言語文とそれに対する機械翻訳文のみを参照して,機械翻訳文の品質を推定する技術である. 人手評価との相関が高い TQE 手法を開発することにより,機械翻訳文をそのまま使用するか,後編集を行うか,他の機械翻訳を利用するかという判断を支援できる. このように,機械翻訳の実世界での利用を進める上で $\mathrm{TQE}$ は重要な技術である. 機械翻訳に関する国際会議 WMT における TQE シェアードタスク $[2,3]$ を心に,多くの TQE モデル [4-8] が提案されてきた. これらのうち多くの手法は,「原言語文・機械翻訳文・人手評価値」の組を教師データとして用いる教師あり手法である.このような教師データの作成には,原言語と目的言語の両方に精通したアノテータによる主観評価(DA スコア)あるいは機械翻訳文の後編集(必要な編集量 ; HTER [9])が必要であるため, 非常にコストが高い. さらに, 機械翻訳器によって機械翻訳文の品質の分布は大きく異なりうるが, 複数の機械翻訳器の各々に対して教師データを作成することも現実的 ではない. そのため, WMT21 の TQE タスク [3] においても,TQE モデルの訓練に使用できる教師デー タはわずか 7 言語対分しか蓄積されていない. TQE における訓練データの作成コストの課題を解決するために, 教師なし $\mathrm{TQE}$ 手法 [10-13] が研究されている。本研究では,対訳コーパスおよび訓練済みの機械翻訳器を用いて TQE 用の疑似的な訓練データを作成し, この疑似訓練データのみを用いて TQE モデルを訓練する手法について述べる. WMT20の TQE タスクにおける実験の結果,疑似訓練データのみを用いて訓練したモデルは, 既存の教師なし $T Q E$ 手法を上回る性能を示した. WMT21の TQE タスクにおいても,少資源言語対を中心に既存の教師なし TQE 手法よりも高い性能を達成した。 ## 2 先行研究 教師なし TQE の先行研究には, 多言語文符号化器を用いる手法 $[10,11]$ および多言語系列変換器を用いる手法 $[12,13]$ がある. 多言語文符号化器を用いる手法は,原言語文およびその機械翻訳文をそれぞれべクトル化し,それらの余弦類似度を用いて機械翻訳文の品質を推定するものである.多言語文符号化器としては,例えば LaBSE [14] を用いることが考えられる. LaBSE は,複数言語の単言語コーパスを用いて事前訓練した文符号化器 mBERT [15] を, 対訳コーパスを用いて新たな目的関数で再訓練したものである.訓練には人手評価值を使用していないため,LaBSE を用いた TQE は教師なし手法であるといえる. しかし, 多言語文符号化器による教師なし TQE では, 多言語文符号化器の言語特異性 [10] が問題となる。つまり, 多言語文符号化器から得られる文のベクトル表現は, 意味よりも言語の影響を強く受けており,対象タスクに特化した再訓練なしでは言語が異なる文間の意味的類似度を正確に推定できない.この課題に対して DREAM [10] は対照学習, (a) 文対をそれぞれ符号化(split) (b) 文対を連結し符号化(concat) 図 1: モデルの概要 MEAT [11] は敵対的学習によって, 多言語文符号化器から得られる文べクトルを言語表現と意味表現に分離することを試みた. そして,原言語文およびその機械翻訳文のそれぞれに対する意味表現のみを TQE に用いて, LaBSE よりも高い性能を達成した. もうひとつの教師なし TQEのアプローチとして, Prism [12] などの系列変換器に基づく手法がある. Prism では,自己注意ネットワークに基づく系列変換器 [16] を訓練し,そのモデルで原言語文から機械翻訳文への系列変換を forced decode した場合の文生成確率(forced decode スコア)を用いて機械翻訳文の品質を評価する. ただし, 系列変換器に基づく手法は,訓練に大規模な対訳コーパスが必要であるため,少資源言語対に適用することは困難である. ## 3 疑似データを用いた訓練 本研究では,機械翻訳文の文レベルの品質として,HTER [9] を予測することを考える。HTER は,機械翻訳文から修正訳文 (人間が機械翻訳文を後編集して作成した翻訳文)への編集距離である. 疑似訓練データの作成疑似訓練データの作成には,対訳コーパス $C=\left(x_{i}, y_{i}\right)_{i=1}^{N}$ と機械翻訳器を用いる. 対訳コーパスの原言語文 $x$ を機械翻訳することで,疑似対訳文 $y^{\prime}=\mathrm{MT}(x)$ を得る. 「目的言語文 $y \cdot$疑似対訳文 $\left.y^{\prime}\right.\lrcorner$ の各対に対して TER [9] を求め,疑似訓練データ $D=\left(x_{i}, y_{i}^{\prime}, \operatorname{TER}\left(y_{i}, y_{i}^{\prime}\right)\right)_{i=1}^{N}$ を作成する. ここで,TERは,疑似対訳文から目的言語文への編集距離である. TQE モデル作成した疑似訓練データおよび事前訓練済みの多言語文符号化器を用いて,回帰モデルの訓練を行う. 本研究では, 図 1 に示すように, 2 種類の符号化方法を比較する. 図 1(a)の方法では, 2 節で述べた既存の手法と同様に, 原言語文と機械翻訳文の文頭に [CLS]トークンを追加し,それぞれ表 1: 対訳文数および疑似訓練データ数 を独立に多言語文符号化器に入力する,図 1(b) の方法では,原言語文と機械翻訳文のトークン間の関連を捉えるために,文頭に [CLS] トークンを追加し,原言語文と機械翻訳文を [SEP] トークンで連結して多言語文符号化器に入力する。なお,両モデルとも,文頭の [CLS] トークンに対する多言語文符号化器の出力を多層パーセプトロン(MLP)に入力し,回帰モデルを訓練する. ## 4 評価実験 3 節で述べた提案手法の性能を,WMT20 および WMT21 の TQE タスク $[2,3,17]$ において評価した.公式の評価方法に従い, 各 $\mathrm{TQE}$ 手法により推定した翻訳品質および人間による機械翻訳文の修正訳文に基づいて与えられた HTER の間のピアソンの積率相関係数によって性能を評価した。 ## 4.1 実験設定 評価データ評価には $\mathrm{WMT} 20$ の TQE タスクの検証用データ1) および WMT21の TQE タスクの評価用データを用いた.WMT20の TQE タスクには,英語からドイツ語(en-de)および英語から中国語 1) WMT20 の TQE タスクでは,評価用データの HTER が公開されていないため,検証用データを使用した. 表 2: WMT20 および WMT21 の TQE タスクにおける HTER とのピアソンの積率相関係数 (en-zh)の 2 言語対 ${ }^{2}$ が含まれる. WMT21の TQE タスクには,6つの言語対3)が含まれる。 WMT20と同じ多資源言語対の 2 言語対, ルーマニア語から英語(ro-en)およびエストニア語から英語(et-en)の中資源言語対,ネパール語から英語(ne-en)およびシンハラ語から英語 (si-en) の少資源言語対である.各言語対において,1,000 文対の原言語文および機械翻訳文と, HTER の組が提供されている. 評価対象の機械翻訳は, fairseq ツールキット ${ }^{4)}[18] を$ 用いて訓練された Transformer モデル [16] である. 疑似訓練データ疑似訓練データの作成には, WMT21の TQE タスクで利用可能な対訳コーパス5)(表 1)および M2M-1006) [19] の機械翻訳器を用いた. ただし,M2M-100 は,表 1 の対訳コーパスの一部を用いて,WMT21 の TQE タスクの翻訳方向ごとにファインチューニングした. 具体的には, MEAT [11] と同量 (多資源言語対 : 100 万文対ずつ,中資源言語対 : 20 万文対ずつ,少資源言語対 : 5 万文対ずつ)を無作為に抽出し, 両言語ともに 128 トークン以下である対訳文のみを使用した. HuggingFace Transformers [20]を用いてファインチューニングを実施した. バッチサイズを 16 文対, 学習率を $3 e-5$, 最適化手法を AdamW [21] ( $\left.\beta_{1}=0.9, \beta_{2}=0.999, \epsilon=1 e-8\right)$ として, 多資源言語対および中資源言語対は 1 エポック, 少資源言語  対は 3 エポックの訓練を行った。疑似訓練データ中の各対の TER を SacreBLEU ${ }^{7)}$ [22] によって計算し, TER が 1 以下のもののみを使用した。 TQE モデル多言語文符号化器に $\left.\operatorname{LaBSE}^{8}\right)[14]$ または XLM-R Base $^{9)}$ [23], MLPに 1 層のフィードフォワードニューラルネットワークを用いた. 各モデルは, HuggingFace Transformers を用い,バッチサイズを 128 文対,損失関数を RMSE,最適化手法を AdamW ( $\left.\beta_{1}=0.9, \beta_{2}=0.999, \epsilon=1 e-8\right)$ として訓練し, 訓練済みの多言語文符号化器のパラメタも更新した. 1 万ステップごとに検証用データに対する損失を計算し, この損失が 3 回改善しない場合に訓練を終了した. 検証用データは, 表 1 の疑似訓練データから $10 \%$ を無作為に抽出して作成した. 学習率を $5 e-5,1 e-5,5 e-6$ および $1 e-6$ として 4 つのモデルを訓練し,これらのうち,検証用データにおいて最も損失の小さいモデルを選択した. LaBSE では [CLS]トークンが事前に最適化されているのに対して, XLM-R では最適化されていない. この 2 モデルの比較により, 事前訓練による [CLS] トークンの最適化の有効性について考察する。 比較手法既存の教師なし $\mathrm{TQE}$ 手法として,次の 5 種類を用いた. LaBSE [14] のベースラインは,原言語文と機械翻訳文をそれぞれべクトル化し,それらの余弦類似度を機械翻訳文の品質の推定値とする. MEAT [11] は,LaBSE のベクトル表現から意味表現を抽出して用いるものである. MEAT の訓練データとして, 先行研究 [11] と同様に表 1 の対訳  表 3: 訓練データに含まれる翻訳方向数が異なる場合の HTER とのピアソンの積率相関係数の比較 コーパスの一部(多資源言語対:100万文対ずつ,中資源言語対 : 20 万文対ずつ, 少資源言語対 : 5 万文対ずつ)を使用した場合および全文を使用した場合を比較した. さらに, 系列変換に基づく教師なしTQEとして, 原言語文から機械翻訳文への forced decode スコアを用いる手法と比較した. 機械翻訳器として M2M-100を使用した. ただし,翻訳方向ごとにファインチューニング(FT)を行ったモデルと行っていないモデルの両方を比較した. 前者は, 疑似訓練データの作成に使用したモデルである. 良い機械翻訳文に対して,HTER は小さな値をとる一方で,余弦類似度および forced decode スコアは大きな値をとる。つまり, HTER と余弦類似度および forced decode スコアの間には負の相関がある. ## 4.2 実験結果 表 2 に実験結果を示す.疑似データを用いて訓練したLaBSE+MLP(concat)は,多資源および少資源言語対において LaBSE および MEAT よりも優れた結果を示した. LaBSE+MLP(concat)は,全翻訳 の性能を上回った. このことから, 文対を連結することで原言語文と機械翻訳文のトークン間の関連を捉えつつ符号化を行うこと,および事前訓練による [CLS]トークンの符号化の最適化が有効であることが示唆される. ただし,LaBSE のパラメ メタ数は $280 \mathrm{M}$ と小さい. したがって,より大きな XLM-R ${ }^{10)}$ を用いることで,性能が向上する可能性がある。また,MEAT の性能は,使用する対訳文数を増加させても向上しなかった. M2M-100を用いた系列変換に基づく $\mathrm{TQE}$ と比較しても,多資源言語対および少資源言語対において優れた性能を示した. 10) https://huggingface.co./xlm-roberta-largeなど ## 5 分析 言語モデルやニューラル機械翻訳器は,単一言語および単一翻訳方向よりも複数言語および複数翻訳方向の訓練を行うことで,性能が向上することが報告されている [23,24]. TQE タスクにおいても複数翻訳方向による訓練が有効であるかを明らかにするために,4節と同じ TQE タスクにおいて,6つの翻訳方向を訓練データに含めて 1 つのモデルを訓練した場合と翻訳方向ごとにモデルを訓練した場合を比較した。 実験結果を表 3 に示す. 1 つの例外を除いて,6 つの翻訳方向の疑似訓練データを用いたモデルの方が優れた性能を示した. この結果から, 疑似訓練データに基づく教師なし $\mathrm{TQE}$ において,複数の翻訳方向を含めることが有効であるとわかった. ## 6 今後の課題 本研究では翻訳品質として HTER を扱ったが, DA スコアも MT の実利用では有用であり,WMT20 および WMT21にもDAスコアを予測する TQE タスクがある。DAスコアの予測において,本稿の提案手法は MEAT の性能を上回ることはできなかった. このことから,TERに基づく疑似訓練データでは, DA スコアとの相関を向上させることは困難であり, DA スコアを正確に推定するには異なる手法が必要であるといえる. ## 7 おわりに 本稿では,疑似訓練データを用いた教師なし $\mathrm{TQE}$手法について述べた. WMT20 および WMT21 の $\mathrm{TQE}$ タスクにおける実験を通じて,既存の教師なし TQE 手法と比較して, 多資源および少資源言語対を中心に優れた性能を達成しうることを確認した. 分析の結果, 言語モデルやニューラル機械翻訳器と同様に,複数の翻訳方向の訓練データを用いることにより, 性能が向上することも明らかになった. ## 謝辞 本研究は国立研究開発法人情報通信研究機構の委託研究(課題番号:225)の助成を受けたものです. ## 参考文献 [1] Lucia Specia, Carolina Scarton, and Gustavo Henrique Paetzold. Quality Estimation for Machine Translation. Synthesis Lectures on Human Language Technologies, Vol. 11, No. 1, pp. 1-162, 2018. [2] Lucia Specia, Frédéric Blain, Marina Fomicheva, Erick Fonseca, Vishrav Chaudhary, Francisco Guzmán, and André F. T. Martins. Findings of the WMT 2020 Shared Task on Quality Estimation. In Proc. of WMT, pp. 743764, 2020. [3] Lucia Specia, Frédéric Blain, Marina Fomicheva, Chrysoula Zerva, Zhenhao Li, Vishrav Chaudhary, and André F. T. Martins. Findings of the WMT 2021 Shared Task on Quality Estimation. In Proc. of WMT, pp. 684725, 2021. [4] Tharindu Ranasinghe, Constantin Orasan, and Ruslan Mitkov. TransQuest: Translation Quality Estimation with Cross-lingual Transformers. In Proc. of COLING, pp. 5070-5081, 2020 . [5] Marina Fomicheva, Shuo Sun, Lisa Yankovskaya, Frédéric Blain, Vishrav Chaudhary, Mark Fishel, Francisco Guzmán, and Lucia Specia. BERGAMOT-LATTE Submissions for the WMT20 Quality Estimation Shared Task. In Proc. of WMT, pp. 1010-1017, 2020. [6] Akifumi Nakamachi, Hiroki Shimanaka, Tomoyuki Kajiwara, and Mamoru Komachi. TMUOU Submission for WMT20 Quality Estimation Shared Task. In Proc. of WMT, pp. 1037-1041, 2020. [7] Jiayi Wang, Ke Wang, Boxing Chen, Yu Zhao, Weihua Luo, and Yuqi Zhang. QEMind: Alibaba's Submission to the WMT21 Quality Estimation Shared Task. In Proc. of WMT, pp. 948-954, 2021. [8] Yimeng Chen, Chang Su, Yingtao Zhang, Yuxia Wang, Xiang Geng, Hao Yang, Shimin Tao, Guo Jiaxin, Wang Minghan, Min Zhang, Yujia Liu, and Shujian Huang. HW-TSC's Participation at WMT 2021 Quality Estimation Shared Task. In Proc. of WMT, pp. 890-896, 2021. [9] Matthew Snover, Bonnie Dorr, Rich Schwartz, Linnea Micciulla, and John Makhoul. A Study of Translation Edit Rate with Targeted Human Annotation. In Proc. of AMTA, pp. 223-231, 2006. [10] Nattapong Tiyajamorn, Tomoyuki Kajiwara, Yuki Arase, and Makoto Onizuka. Language-agnostic Representation from Multilingual Sentence Encoders for Cross-lingual Similarity Estimation. In Proc. of EMNLP, pp. 77647774, 2021. [11] Yuto Kuroda, Tomoyuki Kajiwara, Yuki Arase, and Takashi Ninomiya. Adversarial Training on Disentangling Meaning and Language Representations for Unsupervised Quality Estimation. In Proc. of COLING, pp. 5240-5245, 2022. [12] Brian Thompson and Matt Post. Automatic Machine Translation Evaluation in Many Languages via Zero-Shot Paraphrasing. In Proc. of EMNLP, pp. 90-121, 2020. [13] Marina Fomicheva, Shuo Sun, Lisa Yankovskaya, Frédéric Blain, Francisco Guzmán, Mark Fishel, Nikolaos Aletras, Vishrav Chaudhary, and Lucia Specia. Unsupervised Quality Estimation for Neural Machine Translation. TACL, Vol. 8, pp. 539-555, 2020. [14] Fangxiaoyu Feng, Yinfei Yang, Daniel Cer, Naveen Arivazhagan, and Wei Wang. Language-agnostic BERT Sentence Embedding. In Proc. of ACL, pp. 878-891, 2022. [15] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In Proc. of NAACL, pp. 4171-4186, 2019. [16] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, undefinedukasz Kaiser, and Illia Polosukhin. Attention is All You Need. In Proc. of NIPS, pp. 5998-6008, 2017. [17] Marina Fomicheva, Shuo Sun, Erick Fonseca, Chrysoula Zerva, Frédéric Blain, Vishrav Chaudhary, Francisco Guzmán, Nina Lopatina, Lucia Specia, and André F. T. Martins. MLQE-PE: A Multilingual Quality Estimation and Post-Editing Dataset. In Proc. of LREC, pp. 49634974, 2022. [18] Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. fairseq: A Fast, Extensible Toolkit for Sequence Modeling. In Proc. of NAACL, pp. 48-53, 2019. [19] Angela Fan, Shruti Bhosale, Holger Schwenk, Zhiyi Ma, Ahmed El-Kishky, Siddharth Goyal, Mandeep Baines, Onur Celebi, Guillaume Wenzek, Vishrav Chaudhary, Naman Goyal, Tom Birch, Vitaliy Liptchinsky, Sergey Edunov, Edouard Grave, Michael Auli, and Armand Joulin. Beyond English-Centric Multilingual Machine Translation. Journal of Machine Learning Research, Vol. 22, No. 1, pp. 4839-4886, 2022. [20] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Remi Louf, Morgan Funtowicz, Joe Davison, Sam Shleifer, Patrick von Platen, Clara Ma, Yacine Jernite, Julien Plu, Canwen Xu, Teven Le Scao, Sylvain Gugger, Mariama Drame, Quentin Lhoest, and Alexander Rush. Transformers: State-of-the-Art Natural Language Processing. In Proc. of EMNLP, pp. 38-45, 2020. [21] Ilya Loshchilov and Frank Hutter. Decoupled Weight Decay Regularization. In Proc. of ICLR, 2019. [22] Matt Post. A Call for Clarity in Reporting BLEU Scores. In Proc. of WMT, pp. 186-191, 2018. [23] Alexis Conneau, Kartikay Khandelwal, Naman Goyal, Vishrav Chaudhary, Guillaume Wenzek, Francisco Guzmán, Edouard Grave, Myle Ott, Luke Zettlemoyer, and Veselin Stoyanov. Unsupervised Cross-lingual Representation Learning at Scale. In Proc. of ACL, pp. 8440-8451, 2020. [24] Yuqing Tang, Chau Tran, Xian Li, Peng-Jen Chen, Naman Goyal, Vishrav Chaudhary, Jiatao Gu, and Angela Fan. Multilingual Translation with Extensible Multilingual Pretraining and Finetuning. arXiv:2008.00401, 2020.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A6-5.pdf
# 入力文と自然言語処理モデルの相性判定 野口 夏希 愛媛大学工学部 [email protected] } 梶原 智之 愛媛大学大学院理工学研究科 [email protected] ## 概要 本研究では,入力文のみから自然言語処理モデルの出力品質を推定する手法を提案する. 機械翻訳を主な対象とする既存の品質推定は, 入力文と出力文の組から出力文の品質を推定する技術である. モデルによる出力文を必要とするため, 既存の品質推定の手法はテキスト分類のタスクには適用できない.我々が提案する新たな品質推定の技術は入力文のみを用いるため, 文の生成と分類の両タスクに対して適用できる。また,対象タスクにおける自然言語処理モデルの実行が不要なため,大規模なコーパスに対しても高速に文単位の品質推定を実施できる. ## 1 はじめに 深層学習の技術の発展に伴い,機械翻訳 [1] や感情極性分類 [2] など,多くの自然言語処理タスクの性能が向上している. しかし, 全体的な性能が向上しているとはいえ,機械翻訳における流暢な誤訳 $[3,4]$ のように,個々の事例の中には依然として大きな課題が残されている。そのため, 文単位での品質推定の技術に大きな期待が寄せられている. 機械翻訳 [5] やテキスト平易化 [6] などのテキス卜生成タスクにおいて研究されている文単位の品質推定は,入力文および出力文の文対が与えられ,出力文の品質を推定する. 入力文とともに出力文を用いるため, 既存の品質推定の手法 $[7,8]$ は感情極性分類などのテキスト分類タスクには適用できない.本研究では,任意の自然言語処理タスクに対して共通に適用可能な文単位の品質推定のフレームワー クを提案する. 提案手法は, 入力文のみから自然言語処理モデルの出力品質を推定する。つまり, 自然言語処理モデルを評価するのではなく,入力文が自然言語処理に適しているか否かを評価する。 入力文のみを用いるため,提案手法は機械翻訳などのテキスト生成タスクだけでなく,感情極性分類などのテキスト分類タスクにも適用できる。また,対象タス 図 1 提案手法の概要 クにおける自然言語処理モデルの実行が不要なため,大規模なコーパスに対しても高速に文単位の品質推定を実施できるという利点を持つ. 機械翻訳および感情極性分類のタスクを対象に,高品質な出力が期待できる入力文か否かの 2 値分類として文単位の品質推定の評価実験を行った. 実験の結果,タスクやドメインに依存せず, 7 割以上の正解率で入力文のみから文単位の品質推定を実現できた. また,高品質な出力が期待できると判定された文集合と低品質な出力が予想されると判定された文集合の間で,Transformer [1] または BERT [9]を用いてタスクを解いた際の実際の出力品質を評価したところ,機械翻訳においては最大で 14.6 ポイントの BLEU [10], 感情極性分類においては最大で 27.8 ポイントの正解率という大きな差が見られ,提案手法の有効性を確認できた。 ## 2 提案手法 本研究では,所与の入力文に対して,高品質な出力が期待できるか否かの 2 值分類を行う品質推定器を構築する. 本研究で提案する品質推定器は, 入力文と出力文の対から出力文の品質を推定する一般的な品質推定器と区別するために,入力文と自然言語処理の相性を判定するものとして以降では相性判定器と呼ぶ. 提案する相性判定の概要を図 1 に示す. ## 2.1 データセットの作成 対象タスクのラベル付きコーパスを $2 つ^{11}$ 用意し, 相性判定器を訓練するためのデータセットを構築する。はじめに,テキスト生成タスクであれば Transformer [1],テキスト分類タスクであれば BERT [9] など,対象タスクを解くための任意の自然言語処理モデルを用意し,一方のラベル付きコー パスを用いて訓練する。次に,他方のラベル付きコーパスを大力として,訓練済みモデルを用いて出力を得る。そして,テキスト生成タスクであれば BLEU [10],テキスト分類タスクであれば正解率など,対象タスクに応じた任意の評価指標を用いて,出力の品質を自動評価する.この自動評価の結果に基づき,各入力文に対して自然言語処理モデルとの相性の良し悪しを 2 值でラベル付けし,相性判定器を訓練するためのデータセットを構築する。 ## 2.2 相性推定器の訓練 2.1 節で構築したデータセットを用いて,入力文と自然言語処理の相性を判定する 2 值分類器を訓練する. 相性判定器を使用する際には,相性が悪いと判定された入力文は誤った出力につながる可能性が高いため,人手で推敲し,再入力することを想定している.この推敲の作業も自然言語処理の技術を用いて自動化したいが,これは今後の課題である. ## 3 実験設定 機械翻訳および感情極性分類の評価実験を行う。 ## 3.1 データ 機械翻訳日本語およびドイツ語から英語への機械翻訳を行う.翻訳器を訓練するために,日英の言語対では $\mathrm{JParaCrawl}^{21}$ [11] の約 1,000 万文対,独英の言語対では $\mathrm{WMT}^{3)}$ [12] の約 500 万文対を用いた. 相性判定器を訓練および評価するために,ドメインの異なる複数の対訳データを用いた. 日英の言語対では,講演字幕の IWSLT [13] および Wikipedia の $\mathrm{KFTT}^{4)}$ を用いた. 独英の言語対では, 講演字幕のIWSLT および Wikipedia の WikiMatrix [14]を用い  表 1 相性判定器の内的評価に用いたデータの件数 た. 相性判定のためのラベル付きコーパスを作成するために,翻訳器の出力文を SentenceBLEU [10] によって文単位で自動評価し,閾値 $\theta_{H}$ を上回る入力文を正例 (入力文と自然言語処理の相性が良い),閾値 $\theta_{L}$ を下回る入力文を負例(入力文と自然言語処理の相性が悪い)としてアノテーションした. 本実験では, $\theta_{H}=30 , \theta_{L}=10$ として,表 1 の件数を無作為抽出した. 感情極性分類日本語の感情極性 2 值分類を行う. 感情極性分類器を訓練するために,ACP コーパス $^{5}$ [15] の中から無作為抽出した 1 万文を用いる. 相性判定器を訓練および評価するために,同じく ACP コーパスを用いる. ただし, 分類器の訓練に用いた文は相性判定器の訓練や評価には使用しない.相性判定のためのラベル付きコーパスは, 分類器の出力ラベルが正解ラベルと一致する入力文を正例,一致しない入力文を負例としてアノテーションし,表 1 の件数を無作為抽出した. ## 3.2 モデル 機械翻訳 JoeyNMT ${ }^{6}$ [16] を用いて実装した翻訳器およびオンライン翻訳器である Google 翻訳7) の 2 種類の日英翻訳器を使用した. 前者の翻訳器は, 512 次元の埋込層および隠れ層を持つ 6 層 8 注意ヘッドの Transformer モデル [1]を訓練した. バッチサイズを 4,096トークンとし,最適化手法には Adam [17]を使用した. 前処理には SentencePiece ${ }^{8)}$ [18] の 1-gram 言語モデル(語彙サイズは 32,000 )によるサブワー ド分割を行った. 感情極性分類 Wikipedia ${ }^{9}$ および SNS テキスト10)を用いて事前訓練された 2 種類の日本語 BERT [9] を再訓練した. バッチサイズを 32 文とし,最適化手法には Adam を使用した。  相性判定機械翻訳では,日本語とドイツ語の両方に対応するために,相性判定器として事前訓練された多言語符号化器 XLM-RoBERTa ${ }^{11)}$ [19] を再訓練した. 感情極性分類では,相性判定器として事前訓練された日本語 $\mathrm{BERT}^{9}$ )を再訓練した. バッチサイズを 32 文とし,最適化手法には Adam を使用した。 ## 3.3 比較手法 相性判定のベースラインとして,Transformer [1] に基づくニューラル言語モデルのパープレキシティを用いる。言語モデルのパープレキシティは,多くの品質推定モデル [5] において採用されている素性のひとつであり,入力文のみから得られる品質推定素性の代表的なものである. 本実験では,翻訳器や感情極性分類器の訓練に用いた訓練用コーパス上でニューラル言語モデルを訓練し,間値を設定して相性判定の 2 值分類に使用した。なお,閾値は表 1 の検証用コーパスにおける 2 値分類の正解率を最大化するように設定した。 ## 3.4 評価 相性判定器の性能を評価するために,2 種類の実験を行った. 内的評価として,表 1 の評価用コーパスを用いて,相性判定の 2 値分類の正解率を評価した. 外的評価として,表 2 の評価用コーパスを用いて,タスクごとの性能評価を行った。外的評価に用いる評価用コーパスは,3.1 節においてサンプリングする前の各タスクにおける評価用コーパス全体である。機械翻訳の外的評価は,相性判定器によって分類された各文集合において BLEU [10] を評価した.なお,BLEU の計算には SacreBLEU ${ }^{12)}$ [20]を用いた. 感情極性分類の外的評価は, 相性判定器によって分類された各文集合において感情極性分類の正解率を評価した。 11) https://huggingface.co./xlm-roberta-base 12) https://github.com/mjpost/sacrebleu ## 4 実験結果 ## 4.1 機械翻訳 表 3 に機械翻訳の実験結果を示す.相性判定の正解率に関する内的評価に着目すると,ニューラル言語モデルのパープレキシティに基づくベースライン相性判定器が 6 割弱の正解率である一方で,我々の相性判定器は 7 割を超える正解率を達成した. BLEU に関する外的評価に着目すると,ニューラル言語モデルのパープレキシティに基づくベースライン相性判定器では相性が良いと判定された文集合と相性が悪いと判定された文集合の間で BLEU の差が最大で 2.7 ポイントしかなく, 入力文と翻訳器の相性を充分に推定できていない。一方で提案手法では,一貫して 10 ポイント以上の大きな BLEU の差が見られるため,入力文と翻訳器の相性を良く推定できている。特に,IWSLT における独英翻訳の設定では,相性が良いと判定された文集合と相性が悪いと判定された文集合の間で 14.6 ポイントという顕著な BLEU の差を確認できた. 本実験では,日英および独英の 2 つの言語対を評価したり,言語対ごとに講演字幕および Wikipedia の 2 つのドメインを評価したり,IWSLT における日英翻訳において JoeyNMT で実装した Transformer および Google 翻訳の 2 つの翻訳器を評価したりと,様々な設定で評価を行ったが,提案手法は全ての設定において 7 割強の正解率を達成し, 10 ポイント以上の顕著な BLEU の差を示した。これらの実験結果から, 本研究で提案する相性判定器は, 言語・ドメイン・翻訳器に依存せず,入力文と自然言語処理の相性を高精度に推定できると言える。 ## 4.2 感情極性分類 表 4 に感情極性分類の実験結果を示す. 相性判定の正解率に関する内的評価に着目すると,ニューラル言語モデルのパープレキシティに基づくベースライン相性判定器が 6 割程度の正解率である一方で,我々の相性判定器は 8 割程度の正解率を達成した。 感情極性分類の正解率に関する外的評価に着目すると,ニューラル言語モデルのパープレキシティに基づくベースライン相性判定器では相性が良いと判定された文集合と相性が悪いと判定された文集合の間で正解率の差が 4 ポイントしかなく,入力文と分類器の相性を充分に推定できていない。一方で提案 表 3 機械翻訳における実験結果 表 4 感情極性分類における実験結果 手法では, 27 ポイント以上の大きな正解率の差が見られるため, 入力文と分類器の相性を良く推定できている。本実験では,Wikipedia および SNS という訓練ドメインの異なる 2 つの BERT を用いて感情極性分類器を構築したが,提案手法は対象モデルに依存せず,入力文と感情極性分類器の相性を高精度に推定できた。 ## 5 おわりに 本研究では,自然言語処理モデルの出力品質を文単位で推定するために, 入力文と自然言語処理の相性を推定する 2 值分類のアプローチを提案した. 既存の品質推定の手法とは異なり, 入力文のみを使用して出力品質を推定するため, 提案手法はテキスト生成だけでなくテキスト分類のタスクにも共通に適用できる. また,対象タスクにおける自然言語処理モデルの実行が不要なため,大規模なコーパスに対しても高速に文単位の品質推定を実施できる. 評価実験の結果,機械翻訳においては 7 割強,感情極性分類においては 8 割程度の正解率で,入力文のみから出力品質の高低を推定できた. また, 高品質な出力につながると推定した入力文集合と低品質な出力につながると推定した入力文集合の間で,実際に出力品質を比較した結果,機械翻訳においては 10.2 ポイントから 14.6 ポイントという顕著な BLEU の差が確認でき,感情極性分類においては 27.2 ポイントから 27.8 ポイントという顕著な正解率の差が確認できた. さらに,提案手法は入力文の言語やドメイン,対象の自然言語処理モデルに依存せず,入力文と自然言語処理の相性を良く推定できた。 今後の課題として, 本研究において低品質な出力につながると推定された大力文に対して,具体的にどの語句を修正すべきなのかを特定する語句単位の品質推定にも取り組みたい. また, 入力文の自動的な前編集の技術も検討し, 自然言語処理モデルの利用者による推敲コストを削減したい。 ## 謝辞 本研究は JST(ACT-X,課題番号: JPMJAX1907), JSPS 科研費(基盤研究 B,課題番号:JP22H03651) および国立研究開発法人情報通信研究機構の委託研究(課題番号:225)による助成を受けたものです. ## 参考文献 [1] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is All you Need. In Advances in Neural Information Processing Systems, pp. 5998-6008, 2017. [2] Richard Socher, Alex Perelygin, Jean Wu, Jason Chuang, Christopher D. Manning, Andrew Ng, and Christopher Potts. ecursive Deep Models for Semantic Compositionality Over a Sentiment Treebank. In Proceedings of the 2013 Conference on Empirical Methods in Natural Language Processing, pp. 1631-1642, 2013. [3] Zhaopeng Tu, Yang Liu, Zhengdong Lu, Xiaohua Liu, and Hang Li. Context Gates for Neural Machine Translation. Transactions of the Association for Computational Linguistics, Vol. 5, pp. 87-99, 2017. [4] Mengqi Miao, Fandong Meng, Yijin Liu, Xiao-Hua Zhou, and Jie Zhou. Prevent the Language Model from being Overconfident in Neural Machine Translation. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing, pp. 3456-3468, 2021. [5] Lucia Specia, Carolina Scarton, and Gustavo Henrique Paetzold. Quality Estimation for Machine Translation. Synthesis Lectures on Human Language Technologies, Vol. 11, No. 1, pp. 1-162, 2018. [6] Sanja Štajner, Maja Popovic, Horacio Saggion, Lucia Specia, and Mark Fishel. Shared Task on Quality Assessment for Text Simplification. In Proceedings of Shared Task on Quality Assessment for Text Simplification, pp. 22-31, 2016. [7] Fabio Kepler, Jonay Trénous, Marcos Treviso, Miguel Vera, and André F. T. Martins. OpenKiwi: An Open Source Framework for Quality Estimation. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics: System Demonstrations, pp. 117-122, 2019. [8] Tharindu Ranasinghe, Constantin Orasan, and Ruslan Mitkov. TransQuest: Translation Quality Estimation with Cross-lingual Transformers. In Proceedings of the 28th International Conference on Computational Linguistics, pp. 5070-5081, 2020. [9] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 41714186, 2019. [10] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. BLEU: a Method for Automatic Evaluation of Machine Translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, 2002. [11] Makoto Morishita, Jun Suzuki, and Masaaki Nagata. JParaCrawl: A Large Scale Web-Based English-Japanese Parallel Corpus. In Proceedings of the 12th Language Resources and Evaluation Conference, pp. 36033609, 2020. [12] Ondřej Bojar, Rajen Chatterjee, Christian Federmann, Yvette Graham, Barry Haddow, Shujian Huang, Matthias Huck, Philipp Koehn, Qun Liu, Varvara Logacheva, Christof Monz, Matteo Negri, Matt Post, Raphael Rubino, Lucia Specia, and Marco Turchi. Findings of the 2017 Conference on Machine Translation. In Proceedings of the Second Conference on Machine Translation, pp. 169-214, 2017. [13] Mauro Cettolo, Marcello Federico, Luisa Bentivogli, Jan Niehues, Sebastian Stüker, Katsuhito Sudoh, Koichiro Yoshino, and Christian Federmann. Overview of the IWSLT 2017 Evaluation Campaign. In Proceedings of the 14th International Conference on Spoken Language Translation, pp. 2-14, 2017. [14] Holger Schwenk, Vishrav Chaudhary, Shuo Sun, Hongyu Gong, and Francisco Guzmán. WikiMatrix: Mining 135M Parallel Sentences in 1620 Language Pairs from Wikipedia. In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics, pp. 1351-1361, 2021. [15] Nobuhiro Kaji and Masaru Kitsuregawa. Automatic Construction of Polarity-Tagged Corpus from HTML Documents. In Proceedings of the 21st International Conference on Computational Linguistics and 44th Annual Meeting of the Association for Computational Linguistics, pp. 452-459, 2006. [16] Julia Kreutzer, Jasmijn Bastings, and Stefan Riezler. Joey NMT: A Minimalist NMT Toolkit for Novices. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP): System Demonstrations, pp. 109-114, 2019. [17] Diederik P. Kingma and Jimmy Lei Ba. Adam: A Method for Stochastic Optimization. In Proceedings of the 3rd International Conference for Learning Representations, 2015 [18] Taku Kudo and John Richardson. SentencePiece: A Simple and Language Independent Subword Tokenizer and Detokenizer for Neural Text Processing. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 66-71, 2018. [19] Alexis Conneau, Kartikay Khandelwal, Naman Goyal, Vishrav Chaudhary, Guillaume Wenzek, Francisco Guzmán, Edouard Grave, Myle Ott, Luke Zettlemoyer, and Veselin Stoyanov. Unsupervised Cross-lingual Representation Learning at Scale. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 8440-8451, 2020. [20] Matt Post. A Call for Clarity in Reporting BLEU Scores. In Proceedings of the Third Conference on Machine Translation: Research Papers, pp. 186-191, 2018.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A7-1.pdf
# テキスト・画像による情報消化効率のメディア別構成因子抽出 小池 央晟 ${ }^{1}$ 早矢仕 晃章 ${ }^{2}$ 1,2東京大学 工学部 システム創成学科 ${ }^{1}$ koike-hiroaki-uts@g. ecc. u-tokyo. ac. jp ${ }^{2}$ hayashi@sys. t. u-tokyo. ac. jp ## 概要 情報通信技術の発展と普及は一度に発信可能な情報量の増大と多様化をもたらした.しかし, 情報量の増大や情報の取捨選択が必ずしも情報の理解を促進する訳ではない. また, 従来の情報伝達評価では受信者への到達までが対象であり, 本来の目的である受信者の情報取得後の理解は十分に考慮されてこなかった. 本研究では受信者が取得した情報, その内容及び趣旨を正しく理解することを指す“情報の消化”概念を提案する. 実験では,階層的因子分析を用いて情報の消化効率の評価モデルを提案し,メディア別に消化しやすさを構成する因子を抽出した. ## 1 はじめに 情報伝達の工学的評価には, 通信技術の比較を目的として情報伝播モデル等が用いられてきた. 近年,個々の情報の伝達力評価も試みられている 11$]$ が, その主目的は情報が取得されやすくなる度合いの定量評価であり, 情報の到達を目的とする課題の解決には力点が置かれていない. 情報量の増加に伴う課題 [2]に対応するには受信者による情報の内容/趣旨の正しい理解を含めた定量評価方法が求められる. 一方, 情報取得後の理解は教育心理学分野[3]で研究され, 既存知識と新規情報理解の間には強い相関関係があることが分かっている.しかし, 事前知識が形成する概念フレームワークの変化の正答率等を計測する手法が主であり,情報自体の性質やメディアの差異による情報理解の分析は十分ではない. 実社会における情報伝達の議論には, 情報自体の性質から情報の受信者・発信者各位との関係性を踏まえた分析と定量的な評価モデルが喫緊の課題である. 本研究のゴールは, 情報発信者の趣旨・意図から受信者がそれを理解するまでを含めた情報伝達のプロセス全体の情報伝達効率の定量評価手法の構築である.この定量評価にあたり, まず本論文では受信者が取得した情報, その内容及び趣旨を正しく理解 することを指す“情報の消化”概念を提案する.実験では, 階層的因子分析を用いて情報の消化効率の評価モデルを提案し,メディア別に消化しやすさを構成する因子を抽出した。 ## 2 提案手法 ## 2. 1 情報の消化 本研究ではファジィな概念である情報の中でも 「発信後・受信者が理解する過程で変更されず, 1 回の発信で完結する」ものを研究対象とした. すなわち, 複数回の質疑応答を重ねて理解を深めるような情報伝達や, 受信者が情報を閲覧中に五月雨式に情報が追加されていくような情報は対象に含まない, つまり,連続するチャットイスレッド形式での情報発信やテレビのニュース番組等の動的な情報発信は含まない.これらは時間連続的・群的な境界が定まらず,定量評価が困難であるためである. 情報の消化とは, 受信者が取得した情報及び情報の内容・趣旨を正しく理解することを指す. ある情報の受信者への到達と, 受信者の実際の理解とは区別される. ## 2. 2 情報の消化効率定量評価モデル 情報の消化の概念の導入により,ある情報を相手に伝え理解してもらうという情報伝達の本来の目的を踏まえた情報伝達効率の評価が可能となる. 情報の消化効率 $(\rho)$ を式(1)で表す. $\omega_{\text {group }}(i)$ は番目のグループ因子の信頼度, $F_{i}$ がデータの変動を説明できる割合のうち一般因子の影響を排した割合を指す. そして, 各グループ因子の評価を $\operatorname{ev}\left(F_{i}\right)$ と表す. $ \rho=\sum_{i} \frac{\omega_{\text {group }}(i) \cdot \operatorname{ev}\left(F_{i}\right)}{\sum_{j=0}^{n} \omega_{\text {group }}(j)} $ これに因子分析で抽出されたグループ因子を適用すれば,メディア別の定量評価式となる. すなわち, 3.2 節で後述する 4 件のメディア $\mathrm{A}:$ オンラインニュ一ス記事, B: オンライン広告, $\mathrm{C}$ : ネットショッピン グ(EC サイトの商品ページ), D: 論文ルポートに対し, 以下の式(2)が得られる. $ \begin{aligned} & \rho(A)=\operatorname{ev}(\text { 親密性 }) \cdot 0.272+\operatorname{ev}(\text { 未開拓性 }) \cdot 0.360 \\ & +\mathrm{ev}(\text { 簡潔性 }) \cdot 0.378 \\ & \rho(B)=\operatorname{ev}(\text { 網羅性 }) \cdot 0.384+\operatorname{ev}(\text { 未開拓性 }) \cdot 0.360 \\ & +\operatorname{ev}(\text { 簡潔性 }) \cdot 0.378 \\ & \rho(C)=\operatorname{ev}(\text { 親密性 }) \cdot 0.272+\operatorname{ev}(\text { 簡潔性 }) \cdot 0.312 \\ & +\mathrm{ev}(\text { 結論へのアクセス性 }) \cdot 0.304 \\ & \rho(D)=\mathrm{ev}(\text { 説明可能性 }) \cdot 0.557+\mathrm{ev}(\text { 簡潔性 }) \cdot 0.443 \\ & \text { なお式中の各グループ因子 }\left(F_{i}\right) \text { の評価について } \end{aligned} $ は, 各因子を支える観測変数を参考に情報がどれ程その性質を備えているかを 0 1 の值で複数名による主観評価を行い,平均値を採用する。 ## 3 実験 ## 3.1 目的 本研究の目的は, 情報の消化効率の定量評価モデルの提案と評価である. そのため, 実験では 4 件のメディアを対象に 22 件の観測変数に対して 6 段階の評価データを取得した. このデータを用いて階層的因子分析を行い, 情報の消化に影響する要素, 要素間の関係の計測・モデル化及び検証を行った. ## 3.2 データ取得 情報伝達を情報自体の性質, 情報と発信者の関係,情報と受信者の関係の 3 要素を軸に, 11 件の特徴を選出した. そして, 「メイントピックで説明・述べられている人/もを既に知っている」,「メイントピックで説明・述べられている人/ものへの事前知識や先入観がない」といった反対の意味を成す組を一対とし, 22 件の観測変数を作った(表 1).これは, 反対の意味を成す特徴は, 必ずしも情報の消化に真逆の影響をもたらすとは限らないという仮説に基づく。「色やデザインによる装飾がある」という特徴に対し,「非常にそう思う」と評価されても,逆の意味である「色やデザインによる装飾がない」への評価は 「どちらかといえば逆効果だと思う」と評価される可能性がある. 実験では, 各特徴について対となる質問を行うことで, 情報の消化に真逆の影響をもたらすとは限らないということを確認する。 実験では, A : オンラインニュース記事, B : オンライン広告, $\mathrm{C}$ : ネットショッピング ( $\mathrm{EC}$ サイトの商品ページ), $\mathrm{D}$ : 論文/レポートの代表的な 4 件の情報伝達媒体 (メディア) を対象とした. 続いて, 調査会社プラグのモニター 16,000 人に予備調查を行い,一定以上のメディア接触頻度の実験参加者を収集した。最終的に A, B, Cを 400 件, Dを 100 件取得するアンケート調査を実施した.アンケートでは回答者には 「(メディア名)について, 以下にあげたような特徵があると,その情報が理解しやすく,後で誰かに伝えられるようになりやすいですか」と質問し, 各特徴が情報の消化しやすさに与える影響について 「非常にそう思う」〜「非常に逆効果だと思う」の片側 3 段階, 計 6 段階で自己評価してもらった. ## 3.3 階層的因子分析(SEM 分析) 分析ではメディア別に情報の消化に影響する因子を抽出した. 分析手法には因子分析と重回帰分析を組み合わせた SEM 分析を用いた. SEM 分析は因子間の階層構造を検証できる。モデルには,全観測変数に影響を及ぼす一般因子 $(g)$ と, 特定の観測変数のクラスターに影響を及ぼすグループ因子 $\left(F_{i}\right)$ の 2 層によって説明する双因子モデルを用いた[4]. 一般因子は測定対象の広範で全体的な構成概念として, グループ因子はその下位領域の狭い構成概念として抽出されるため, 階層性やグループ因子の独立性を検証できる. 分析では因子数を仮定して与え, 以下の評価指標の結果に基づき検討する[5]. - 内的整合性 : $\omega_{\text {total }}$ - 一次元性: ECV - 適合度: fit - $i$ 番目のグループ因子の信頼度: $\omega_{\text {group }}(i)$ - 一般因子の信頼度: $\omega_{\text {general }}$ $\omega_{\text {total }}$ は一般因子が変動の何割を説明できたかを示す. ECV (Explained Common Variance) は, 共通因子で説明される分散を因子全体が説明できる割合 (\%)を示し,適合度はモデルのデータへの当てはまりの良さを示す. また $\omega_{\text {general }}, \omega_{\text {group }}(i) は \omega_{\text {total }}$ の内, 一般因子, $i$ 番目のグループ因子の信頼度によってそれぞれ説明される度合いを表す。 本実験ではこれらの指標を用いて最終的な因子数を決定し, モデルの階層性や, 因子と各観測変数との関連の強さを示す因子負荷を参照しつつ各因子が表す概念を解釈する. なお本研究の特徴として, 同一の観測変数群の利用により他メディア間の比較も可能なため,メディア間での比較も行いつつ因子を解釈した。 表 122 件の観測変数 ## 4 結果と考察 分析の結果,グループ因子数は $\mathrm{A}: 3$ 件, $\mathrm{B}: 3$ 件, $\mathrm{C}: 3$件, D: 2 件となった. A, B, C で因子数 4 以上の場合, $\omega_{\text {total }}$ が 0.6 以上と大きい因子が観測された. つまり, この因子の $60 \%$ 以上が一般因子により二次的に説明できることとなり,独立性が低いと判断した。また A, C では $\omega_{\text {group }}$ の值が 0.1 未満となるような独立性の低いグループ因子も確認されたため, 因子数 4 以上は不適と判断した. 評価指標に注目すると, $\omega_{\text {total }}$ は全メディアで 0.9 以上と, 推定したモデルにより 9 割以上の観測変数の変動を説明できた。 また ECV は D 以外では 0.4 前後と低い值となった. D のみ 0.6 以上と比較的高く,一般因子の消化しやすさへの影響が大きいことが分かった。なお,グループ因子に対し広範な概念を指す一般因子が説明する割合が高くなったことで, 適合度も大きく算出されたからであると考えられる。 以上を踏まえた因子の最終的な解釈結果が図 4 である. まずオンラインニュース記事 (A) のグループ因子は親密性, 未開拓性,簡潔性である.親密性は情報に対する事前知識の多さ,未開拓性は情報に対する事前知識・先入観の無さ, 簡潔性は要点が集約度や要点以外の要素の少なさをそれぞれ意味する。 また因子負荷が大きい観測変数群から,一般因子は未開拓性と他メディアでも抽出された網羅性を内包する概念だと解釈される。したがって,共通する情報量の多さを指す充実性とした。また,親密性と未開拓性は定義や構成する観測変数群から正反対の因子だと分かる.ただし,これは矛盾ではなく,専門家であることと事前知識がないことは共に消化しやすさに寄与することを示していると考えられる. すなわち, 中途半端な知識の所持が最も消化効率が悪い状態と見なされていると言える。なお, $\omega_{\text {total }}$ は親密性の方が高く,消化しやすさへの寄与は大きい, ただし, $\omega_{\text {general }}$ や因子負荷未開拓性の方が一般因子の影響が少ないため,一般因子の影響を除けば,未開拓である方が親密であるより望ましいと言える. オンライン広告 (B) のグループ因子は網羅性, 簡潔性,結論へのアクセス性であった.いずれも抽出した因子の $\omega_{\text {total }}$ は概ね同程度だったが,最も高かったのは情報の項目やタイプ・補足情報の豊富さを 指す網羅性だった. 次に簡潔性, 結論へのアクセス性と続いた. 簡潔性の構成要素は概ね $\mathrm{A} の$ 同名因子と構成要素が概衩同じとなった. 要点の理解しやすさを示す結論へのアクセス性は親密性に類似しているが,情報の集約性を指す観測変数の因子負荷も高く, 他の因子として解釈した。また構成要素から,親密性・簡潔性の共通項である消化コストの低さを一般因子の解釈として採用した. B では結論や要点・ その説明が多方面かつ多様な形で,かつ簡潔に説明されていると最も消化しやすいと考えられる。 オンラインショッピング (C) のグループ因子は概初 A と一致したが, $\omega_{\text {total }}$ がほぼ均一という違いがあった. 一般因子は A と異なり網羅性・親密性を包括するため,より多くのニッチなニーズに応えられるという意味で充足性とした. なお, A 同様に親密性・未開拓性が抽出されたが, C では $\omega_{\text {total }}$ の差は軽微で, $\omega_{\text {group }}$ は未開拓性の方が高く, 一般因子に関わらず消化しやすさへの寄与が大きい. すなわち, C では多様な情報が含まれつつも個々は簡潔に整理されていることが望ましく, またトピックや説明には親密である万が良いが, 中途半端な知識よりは事前知識がない方が消化効率は良いと言える。 最後に論文/レポート (D) では, 説明可能性, 簡潔性が抽出された. 説明可能性は結論に至るまでの経緯や背景の妥当さ・理解しやすさを指す. また簡潔性は上記 3 メディアと共通で, 全メディアで抽出された唯一の因子となった. これら 2 因子は他メディアと比較して $\omega_{\text {total }}$ の値が大きく, 設定する因子数の少なさから関連の大きい観測変数も多かった.これはDの適合度の高さに寄与していると考えられる。 なお一般因子は被読了性と解釈した. この因子との関連の強さが上位の観測変数は未開拓性の構成要素に類似しているが,因子負荷が $0.60 \sim 0.70$ と A や $\mathrm{C}$ よりも大きい. また 2 つのグループ因子の $\omega_{\text {general }}$ の值はそれぞれ $0.57,0.65$ と比較的高く, 一般因子と相関は高い.したがって, 未開拓性・説明可能性・簡潔性の全てが高い状態を包括する概念として解釈した.以上から, D は結論や新規性が分かりやすく, その論旨展開や背景も含めて滞らずに一読できることが望ましいと分かった. これは論旨展開や背景等に重きが置かれるという D の特徴と直感的にも反しない.他メディアよりも情報伝達の役割が明確で, 発信者・受信者間で前提として成立しているため, 適合度が大きくなったと考えられる。 ## 5 まとめ 本研究では,定量評価モデルと階層的因子分析の導入により, 共通の観測変数群よりメディア別に消化しやすさを構成する因子を抽出し,メディア内の共通要素やメディア間の共通因子の存在が示唆される結果を得た.メディアごとに評価項目は個々に異なるものの, 無秩序な情報量の増大は情報伝達本来の目的に対し共通して好ましくないことが分かった. また論文/レポートの適合度の高さに見られるように,メディアの伝達目的が発信者・受信者間で明確だと個々人の消化しやすさの指標のばらつきが収束する可能性が示唆された。 ## 謝辞 本研究の一部は, 株式会社メルカリ R4D と RIISE との共同研究である価値交換工学及び科研費 JP20H02384 の成果です. アンケート調査にて協力頂いた株式会社プラグの皆様にここに感謝します. ## 参考文献 [1] AI を活用した魅力工学とそのビジネス応用, 山崎俊彦: 信学技報, Vol.118(454), SWIM2018-26, pp.31, 2019. [2] The Concept of Information Overload, Martin J. Eppler, Jeanne Mengis: A Review of Literature from Organization Science, Accounting, Marketing, MIS, and Related Disciplines, The Information Society, Vol. 20(5), 2004. [3] The Multidimensional Knowledge in Text Comprehension framework, Kathryn S. McCarthy, Danielle S. McNamara: Educational Psychologist, Vol.56(3), 2021. [4] 双因子モデルを用いた WISC-IV の因子構造の研究 -海外における研究動向と日本版の予備的分析-,小野島昂洋: 早稲田大学大学院教育学研究科紀要別冊 27 号(2), 2020. [5] Your Coefficient Alpha Is Probably Wrong, but Which Coefficient Omega Is Right? A Tutorial on Using R to Obtain Better Reliability Estimates, David B. Flora: Advances in Methods and Practices in Psychological Science, 2023.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A7-2.pdf
# 参照例を使わないキャッチコピーの自動評価 新保彰人 山田宽章徳永健伸 東京工業大学 情報理工学院 \{shimbo.a.aa@m, yamada@c, take@c $\}$.titech.ac.jp ## 概要 広告文の一種であるキャッチコピーの人手によるオフライン評価は高コストである. キャッチコピー の自動生成研究の迅速化・効率化のためには自動評価器が必要となる. 自動評価器の構築のために必要なデータセットが現存しないため, 日本語としては初となる 23,641 件のキャッチコピーとその評価值から成るデータセットを構築した. このデータセッ卜を利用して BERT と対照学習を用いた参照例を必要としない評価機を構築し,評価実験を行った結果,テストデータの評価値に対する相関係数が平均で 0.28 を超えた. 対照学習を用いない学習との比較も行い,対照学習の有用性を確認した. ## 1 はじめに 近年,インターネット広告市場の拡大が著しい。総務省によると 2021 年には世界のデジタル広告の市場規模は 39 兆 396 億円となり前年比で $32.7 \%$ 増であった. 日本についてもインターネット広告の市場規模は 2 兆 7,052 億円となり,テレビ・新聞・雑誌・ラジオのマスコミ 4 媒体の合計を初めて上回った [1].このような背景からインターネット広告における広告文生成の需要は高まっていると考えられる。 キャッチコピーは広告文の一種であり,人々の注目を引き商品の魅力を簡潔に伝えるための宣伝文句である。例えば株式会社日清食品の「すぐおいしい、すごくおいしい」1)や. 株式会社大塚製薬の「それは小さな栄養士。」2)などが挙げられる. キャッチコピーはその他の広告文と比較して評価が難しいことが知られている。村上ら [2] は 「キャッチコピーは見る人の印象に残ることを主な目標として使用されるため. 検索連動型広告やディスプレイ広告と異なり,広告効果の定量化が困難な 1) https://www.chickenramen.jp/about/ 2) https://www.otsuka.co.jp/cmt/cm/性質を持つ.」という点を指摘している。広告文の評価方法はオンライン評価とオフライン評価に大別され,オフライン評価はさらに人手評価と自動評価に大別される。オンライン評価は実際に広告を配信し。広告のクリック率や収益率を評価尺度として利用する。そのため,オンライン評価は広告文に対する評価を収集するのに時間がかかるデメリットがある。一方でオフライン評価は広告文を配信せずに行う。人手評価は人間が広告文に対して付けた評価を評価尺度として用いる。このため,オンライン評価と同様に実施に時間がかかるデメリットがある。一方で自動評価は人手を介さずに評価を行うため実施に時間がかからない利点がある.より質の良い広告文生成器を開発するためには効率良く学習と評価のサイクルを回す必要があり,そのために広告文の自動評価は不可欠である。 広告文生成の研究において,生成文の自動評価としては BLEU,ROUGE,METEOR,CIDEr が用いられることが多い [3]. しかし,これらの評価手法は参照文を必要とし,その参照文をあたかも「正解」 の広告文として扱ってしまう問題がある.参照文を必要としない自動評価手法として,事前学習済みの汎用言語モデルのパープレキシティを評価尺度として用いるもの [4] があるが,汎用ドメインで学習されたモデルでは,文としての妥当性は評価できるが広告文としての質を評価できないと考えられる。 広告文生成の研究に関わる課題として村上ら [2] は「共通データセットの拡充」を挙げている。実際, パブリックに利用可能なキャッチコピーコーパスは我々が知る限りでは存在しない。本研究では,ウェブスクレイピングによってキャッチコピーコーパスを作成し,そのデータセットを用いて参照文を必要としないキャッチコピー評価器を構築する。 ## 2 関連研究 花野ら [5] は RoBERTa を用いた俳句の評価器を提案している.ただし,花野らの研究では俳句の質の 評価というよりは,俳句とみなせる文とみなせない文の識別を行なっている. 丹羽ら [3] は宣伝会議が出版しているキャッチコピー集 SKAT に収録されているキャッチコピー 91,682 件を分析し,キャッチコピーの平均文字数が 18.91 文字であることやキャッチコピーに使われる文字種の割合を分析している. 黒木ら [6] は複数の指定語句を必ず含むリスティング広告文の生成手法を提案している. リスティング広告とは検索エンジンの検索結果画面に表示される広告のことである. 黒木らの研究では生成文の評価は BLEU, ROUGE-1, ROUGE-2の 3 つで行なっている. また, Chao らの研究 [4] では広告文生成器の評価を Pairwise-BLEU とパープレキシティで行なっている. ## 3 データセット ## 3.1 コピラ キャッチコピーのデータセットを作成するためにコピラ [7]を利用した. コピラは東京コピーライターズクラブ(TCC)が提供しているコピー検索ツールである.コピラにはキャッチコピーだけでなく,テレビやラジオの CM のセリフ書き起こしなども収録されている。そのようなものを除外し, キャッチコピーとして適切なものだけを収集するため,掲載媒体が「新聞・ポスター・雑誌・パンフレット・その他」のいずれかに該当するものを収集対象とした。 コピラに収録されているコピーにはキャッチコピーの他に, 広告本文に相当するボディコピーを含むとみなせるコピーも含まれ,平均文字数は 53.2 文字で最大文字数は 3,359 文字である。一方で,コピラの検索結果一覧に表示されるテキストの平均長は 21.8 文字であり丹羽らの分析による 18.91 文字と近い. このため, 本研究ではコピラの検索結果一覧画面に表示されるテキストをキャッチコピーとみなして収集した。 収集したキャッチコピーは 24,331 件である. 収集したキャッチコピーには改行文字やタブ文字が含まれる場合があり,それらはすべて半角スペースに置換した. スクレイピングに利用したコードは GitHub リポジトリ3)で公開予定である. キャッチコピー評価器のためのデータセットに  は,キャッチコピー及びその評価が収録されている必要がある.キャッチコピーの評価は広告の対象・表現・世情をはじめ様々な観点を総合的に判断するものであるため,専門的知識を有する者がキャッチコピーに対して評価を付与することが望ましいが,新規に評価を行うことは時間的・金銭的な面で困難である. そこで,コピラ上で参照可能な受賞情報を活用する.コピラで収集したキャッチコピーには, テキストそのものに加えて受賞情報が付与されている. 受賞情報の種類と件数は表 1 に示す. 本研究では受賞情報をキャッチコピーの質的尺度の一種として捉え,各キャッチコピーに対するスコアとして用いる. 受賞情報とスコアを表 2 のように対応させ,順序を与える.スコアは高い方がキャッチコピーの質が高いことを意味する。コピラに収録されているキャッチコピーの多数を占める受賞なし作品を基準スコアの 0 と設定し, 各賞の受賞作品にスコア 2 を割り当てた。なお,「ファイナリスト」 と「ノミネート」は TCC 賞の最終選考まで残ったものの受賞はしなかった作品であることから, 受賞作品と受賞なし作品の中間であるスコア 1 を割り当てた.また,新人賞は以前に TCC 賞を受賞したことがないコピーライターを対象として選考される賞であることから,新人賞以外の各賞との区別のためにスコア1を割り当てた。 表 2 に各スコア毎のキャッチコピー数を示す.表 1 と表 2 で件数が一致しないのは,表 2 ではキャッチコピーの重複を除いてカウントしているためである. 表 2 受賞情報とスコアの対応 & 1 & 2,952 \\ ## 4 実験設定 ベースラインモデルとしてランダム,パープレキシティ,SVRを用いた実験,さらにBERTを用いた回帰モデルと対照学習を利用したモデルでの実験を行う。データセットは各スコアのキャッチコピー の件数が等量になるように 1,613 件に揃えて実験する. データセットは学習データ 3,871 件, 検証デー タ 484 件,テストデータ 484 件に分割した. ## 5 実験 ## 5.1 Random ランダムに $0,1,2$ を出力するモデルをべースラインとして用意した. ## 5.2 Inverse Perplexity 2つ目のベースラインとして rinna 株式会社が公開している日本語 GPT2[8] のパープレキシティの逆数 $P P L_{i n v}(X)$ をキャッチコピーの評価として実験する. パープレキシティの逆数は次の式で計算する。 $ P P L_{i n v}(X)=\exp \left(\frac{1}{t} \sum_{i}^{t} \log p\left(x_{i} \mid x_{0: i-1}\right)\right) $ ただし, $X$ は入力文字列, $t$ は入力テキストのトー クン長, $x_{i}$ は $X$ の $i$ 番目のトークン, $p\left(x_{i} \mid x_{0: i-1}\right)$ はトークン列 $\left.\{x_{0}, x_{1}, \ldots x_{i-1}\right.\}$ の次に言語モデルがトー クン $x_{i}$ を出力する確率を表す. $P P L_{i n v}(X)$ の計算に使用する言語モデルが十分に流暢であると仮定すると, $P P L_{i n v}(X)$ は大きいほど $X$ が流暢な文であることを意味する。流暢性のみによってキャッチコピー の評価が実施可能であるかどうかを検証するため, $P P L_{i n v}(X)$ をキャッチコピーの評価のベースラインとして採用した。 ## 5.3 SVR 独自に定義したキャッチコピーの特徴量を入力として SVR[9] で学習する. 抽出した特徴量は,「数字を含む」,「3・5・7のいずれかを含む」,「疑問文である」,「オノマトぺを含む」,「断定表現である」,「体言止めである」,「ひらがなの割合」,「カタカナの割合」,「漢字の割合」,「文字数」の 10 種類である. それぞれの特徴量のデータタイプは表 4 に示す. 抽出する特徵量の選定については弓削の書籍 [10] を参考にし,キャッチコピーの質に強い影響を及ぼすと思われるものを選んだ。「オノマトぺを含む」 の判定はウェブ上で公開されている擬音語・擬態語辞典 [11] に収録されているオノマトぺを含むかどうかに基づいた. カーネルは線形カーネルとしパラメータは $C=0.1, \epsilon=0.01$ とした. ## 5.4 BERT Regression BERT Regression では,キャッチコピーを入力とし BERT の CLS トークンに対応する最終層に線形層を付け加えて得られたスカラーをスコアの予測値として学習する. 正解のスコアを $s$ とし,モデルの出力を $p$ とする. 損失関数は $ L_{M S E}=(p-s)^{2} $ で計算する.BERTの事前学習済みモデルは東北大学が公開しているモデル [12]を利用し,学習率は $1 e-03$ ,バッチサイズは 64 ,エポック数は 100 , tokenizer の max_length は 200 で実験を行なった. 各エポックごとに検証データでモデルを評価して,その評価値が最も良かったエポックのモデルを使って学習後にテストデータでの評価をした。 ## 5.5 BERT Contrastive BERT Contrastive では,2つのテキストを入力として対照学習を行う. モデル構造は BERT Regression と同じである. 入力テキストを $t_{1}, t_{2}$ とし,それぞれに対するモデルの出力を $p_{1}, p_{2}$ とし,正解のスコアを $s_{1}, s_{2}$ とする. このとき $s_{1}>s_{2}$ となるように入力データを作る.損失関数は $ L_{M R}=\max \left(0, m-\left(p_{1}-p_{2}\right)\right) $ で計算する。ただし $m$ はマージンを表すハイパーパラメータである。ここで,正解スコア $s_{1}, s_{2}$ を使わずに損失関数を計算していることに留意されたい。 本実験では $m=1$ とし, エポック数は 10 で行なった. その他のハイパーパラメータと利用した BERT の事前学習済みモデルは BERT Regression と同じである。 ## 5.6 評価 モデルの評価はテストデータにおける,モデルの予測スコアと正解スコアの積率相関係数で行う. ## 6 結果と考察 実験結果を表 3 に示す. Random, BERT Regression,BERT Contrastive は 5 回ずつ実験を行い,他は 1 回のみ実験を行った. 5 回行った実験には平均の相関係数を示し,標準偏差も示す。 Inverse Perplexity は相関係数が -0.032 となった. これはキャッチコピーの評価として事前学習済み言語モデルのパープレキシティを用いることが不適であることを示唆している.この理由として,キャッチコピーとして成立している時点でそのテキストにはある程度の流暢性があり, それ以上の流暢性はキャッチコピーの質に影響を及ぼさないためだと考えられる. さらに, Inverse Perplexity より SVR の方が良い結果を示したことから,流暢性よりも「文字数」や「オノマトペを含む」などの特徴の方がキャッチコピーの質に大きな影響を及ぼすと考えられる. BERT Regression はほとんど相関が無い結果となり,ニューラルモデルを用いないSVR よりも相関係数が劣る結果となった. 一方,BERT Contrastive では平均相関係数が 0.28 を超え, 弱い相関があるとみなせる水準に達した. BERT Contrastive の精度が BERT Regression よりも高かった要因として, BERT Contrastive は 2 つのテキスト間の相対的な評価を学習しているという点が挙げられる. 本研究で扱っているキャッチコピーの評価というタスクにおいては,メタ評価指標として積率相関係数を利用しているため, 評価器がスコアラベルの値自体を再現することよりもスコアラベルの相対的な差を再現するこ との方が本質的な意味を持つ. このため,スコアラベルの値をそのまま予測する BERT Regression よりも,相対的な差を学習する BERT Contrastive の方が高い精度を記録したと考えられる。 ## 7 おわりに 本研究ではウェブスクレイピングによりキャッチコピーコーパスを作成した. さらに評価器の学習における対照学習の有用性を確認し, 参照文を必要としないキャッチコピー評価器を提案した. 今後のキャッチコピー生成の研究において, 生成文や生成器の評価指標として広く利用されることを期待する. 加えて本研究では事前学習済み言語モデルのパープレキシティをキャッチコピーの評価指標として利用することが不適であることを指摘した. なお実験に使用したソースコードは GitHub リポジトリ4)で公開予定である. 今後の課題としては次の 3 つの方向が考えられる. 1 つ目は広告対象の商品情報を考慮したキャッチコピー評価器の開発である.キャッチコピーは文脈に依存したものが多く,人間がキャッチコピーの質を評価する際にも商品情報と照らし合わせて評価していると考えられる. 従って商品情報を考慮したキャッチコピー評価器は,より高い精度を実現できると期待される. そのようなキャッチコピー評価器の開発には商品情報とキャッチコピーがセットになったコーパスの構築が必要となる. 2 つ目は修辞技法を考慮したキャッチコピー評価器の開発である. キャッチコピーには比喻, 反復, 対句のような修辞技法を用いたものが多く存在する. 例えば,丹羽ら [3] の分析によると 17.9\%のキャッチコピーが比喻を用いていて,10.6\%は対句を用いている。修辞技法はキャッチコピーの質を左右する重要な要素であり, 修辞技法を考慮することでより精度高い評価器を実装できると期待される。 3つ目はキャッチコピー以外の広告文への応用である. 広告文生成の研究はキャッチコピー生成以外にも広く行われているが,生成器の効率的な開発には自動評価手法が不可欠である. 参照文を必要としない広告文評価器の開発は今後の広告文生成の研究を加速させることが期待される.  ## 参考文献 [1] 総務省. 令和 4 年情報通信に関する現状報告の概要, (2022-12 閲覧).https://www.soumu.go.jp/johotsusintokei/ whitepaper/ja/r04/html/nd233220. html. [2] 村上聡一朗, 星野翔, 張培楠. 広告文自動生成に関する最近の研究動向. 人工知能学会全国大会論文集, Vol. JSAI2022, pp. 1P5GS601-1P5GS601, 2022. [3] 丹羽彩奈, 岡崎直観, 西口佳佑, 亀山千尋, 毛利真崇. キャッチコピーの自動生成に向けた分析. 言語処理学会第 25 回年次大会発表論文集, pp. 558-561, 2019. [4] Chao Zhang, Jingbo Zhou, Xiaoling Zang, Qing Xu, Liang Yin, Xiang He, Lin Liu, Haoyi Xiong, and Dejing Dou. Chase: Commonsense-enriched advertising on search engine with explicit knowledge. pp. 4352-4361, 102021. [5] 花野愛里咲, 横山想一郎, 山下倫央, 川村秀憲ほか. マスク化言語モデル robertaを用いた俳句の評価.第 84 回全国大会講演論文集, Vol. JSAI, No. 1, pp. 1061-1062, 2022. [6] 黒木開中田和秀. 複数の指定語句を必ず含むリスティング広告の広告文自動生成. 言語処理学会第 28 回年次大会発表論文集, pp. 1339-1343, 2022. [7] 東京コピーライターズクラブ. コピラ,(2022-12 閲覧).https://www.tcc.gr.jp/copira/. [8] 趙天雨, 沢田慶. 日本語自然言語処理における事前学習モデルの公開. 人工知能学会研究会資料言語・音声理解と対話処理研究会, Vol. 93, pp. 169-170, 2021. [9] Harris Drucker, Christopher J. C. Burges, Linda Kaufman, Alex Smola, and Vladimir Vapnik. Support vector regression machines. In M.C. Mozer, M. Jordan, and T. Petsche, editors, Advances in Neural Information Processing Systems, Vol. 9. MIT Press, 1996. [10] 弓削徹. 届く!刺さる!!売れる!!! キャッチコピーの極意. 明日香出版社, 2019. [11] 擬音語・擬態語 - 日本辞典, (2022-12 閲覧). http: //nihonjiten.com/nihongo/giongo/. [12] cl-tohoku/bert-base-japanese-wholeword-masking, (2022-12 閲 https://huggingface.co./cl-tohoku/ bert-base-japanese-whole-word-masking. ## A 参考情報 ## A. 1 データタイプ \\ 表 4 SVRに入力する特徴量のデータタイプ
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A7-3.pdf
# 下流タスクでの日本語事前学習モデルの性別バイアスの評価 Panatchakorn Anantaprayoon 金子正弘 岡崎直観 東京工業大学 \{panatchakorn. anantaprayoon@nlp., masahiro.kaneko@nlp., okazaki@\}c.titech.ac.jp ## 概要 事前学習モデルには差別的なバイアスが学習されている。 バイアスは事前学習時と下流タスク遂行時で傾向が異なるため,両方で評価する必要がある.一方で,日本語モデルの下流タスクにおけるバイアスは十分に調査されていない,本稿では,自然言語推論を対象に日本語事前学習モデルにおける性別バイアスの評価を行う。まず,性別バイアスの評価のための言語データを作成する. そして,モデルが予測する含意,矛盾,中立ラベルの偏りに基づき,バイアスを評価する手法を提案する. 実験の結果,日本語事前学習モデルにも性別バイアスがあることを明らかにした. さらに,中立ラベルのみを考慮する既存の評価手法と比較すると,提案手法の方が優れていることも確かめられた。 ## 1 はじめに 事前学習モデルを下流タスクのデータでファインチューニングすることで, 高い性能を達成する方法論が近年の自然言語処理の主流となっている。一方で,事前学習の訓練データから自然言語処理タスクにとって有益な情報だけではなく,国籍や性別などに関する差別的なバイアスもモデルは学習してしまう $[1,2,3]$. 事前学習モデルのバイアスは, 多くの場合,事前学習時または下流タスク遂行時に評価される. 事前学習時ではモデルがテキストに対して計算する尤度などを利用し,下流タスクに依存しないバイアスを評価する。下流タスク遂行時ではタスクごとの予測結果を使い,タスク固有のバイアスを評価する. 事前学習時と下流タスク時ではそれぞれバイアスの傾向が異なる [3]. そのため, 事前学習モデルのバイアスの影響を把握するには,両方で事前学習モデルのバイアスを評価し分析する必要がある. 事前学習モデルのバイアスの評価は英語での研究が多い. ところが,英語以外の言語のモデルにもバイアスがあり,文法や文化的背景から言語によっ てバイアスの傾向が異なる $[4,5,6,7]$. 日本語における事前学習モデルに関しては,事前学習時のバイアスに関する調査が進められ,バイアスがあることが報告されている. 金子ら [4] は,対訳データと女性単語・男性単語のリストのみを使い,日本語を含む 8 言語で事前学習モデルの性別バイアスを評価した. 大羽ら ${ }^{11}$ は,テンプレートと単語リストを使い,性別によって不適切な単語やポジティブ・ネガティブ単語が偏って生成されることを明らかにした. 一方で,日本語の下流タスクにおけるバイアスを評価する手法は確立されていない。 本稿では自然言語推論 (Natural Language Inference; $\mathrm{NLI})^{2)}$ を対象とし, 日本語事前学習モデルの性別バイアスの評価を行う. YJ Captions [8] に含まれる性別単語を職業単語に置換することで, 日本語でバイアスの評価を行うためのデータを作成する. 英語の NLI では職業単語を含む前提文「運転手がトラックを所有している」と性別単語を含む仮説文「女性がトラックを所有している」が与えられた際に,NLI データでファインチューニングされた事前学習モデルが中立ラベルを予測する割合により,バイアスを評価する方法が提案されている [2].この評価手法は中立だけを対象としているため,含意や矛盾ラベルに関わるバイアスを捉えることができない. 例えば,運転手に対して男性に偏るバイアスがあるという仮定のもと,前提文「運転手がトラックを所有している」と仮説文「男性がトラックを所有している」の含意関係について,中立は正解,含意はバイアスを含む不正解,矛盾は単なる不正解である. 含意や矛盾を考慮しない場合,バイアスを含む不正解なのか,単なる不正解なのか,区別をつけることができず,バイアスを評価できない. そのため,3つの全てのラベルを考慮したバイア 1) https://engineering.linecorp.com/ja/blog/ evaluating-fairness-in-language-models/ 2) NLI は,前提文と仮説文の文ペアが与えられたときに,前提文が仮説文に対して含意,矛盾,又は中立のいずれであるかを判定するタスクである. スの評価手法を提案する. その実験結果から,日本語事前学習モデルは NLIにおいて性別バイアスを有することが分かった. さらに, NLIにおける評価手法において,バイアスを含む不正解か単なる不正解かの判別能力を検証する手法を提案し,既存の評価手法と提案手法を比較した. その結果,提案評価手法の方が既存手法より優れていることが明らかとなった. ## 2 関連研究 日本語における性別バイアスの評価竹下ら [9] は人名を用いて単語分散表現のバイアスを評価する手法 Unsupervised Bias Enumeration (UBE) [10] に関して,英語には適用できるが日本語には適用できないことを明らかにした.これは日本語の文字にはひらがな・カタカナ・漢字の多様性があり, 日本語の人名の単語分散表現では意味や性別の情報よりも文字の情報が豊富に表現されているためである. そのため, 英語で提案された評価手法を日本語に適用する際は,その手法の英語での有効性を鵜呑みにするのではなく,慎重に検証することが求められる。 金子ら [4] は,評価データの作成コストの問題を解決するために, 英日対訳コーパスと英語の性別単語リストのみを用いた日本語言語モデルの事前学習時のバイアス評価手法を提案し, 日本語事前学習モデルには性別バイアスが学習されていることを示した. 一方で, 日本語事前学習モデルの下流タスク遂行時のバイアスについては, 評価していない. さらに, この手法は非差別的なバイアスも評価の対象としており,バイアスを過大評価する傾向がある. NLI でのバイアス評価手法 Dev ら [2] は NLI タスクで事前学習モデルのバイアスを評価する手法を提案した.「The accountant ate a bagel」と「The woman ate a bagel」のような「The S V a/an O」のテンプレートを使い,主語だけが異なる前提文と仮説文の対から評価データを作成する. 評価データで予測されるべき含意関係ラベルは中立であるが,対象モデルがバイアスを学習していれば,含意と判定してしまう.そのため, 対象モデルが中立と判定した割合や判定時の確率を用いた評価手法を提案した。 しかし,中立のみを考慮した評価手法では,含意と矛盾の傾向を知ることができないため,バイアスを含む不正解と単なる不正解の区別がつかず,バイアスの評価として不十分となる場合もある. ## 3 提案手法 本稿では,2 節で述べた NLIでのバイアス評価の既存手法の問題点を解決するために,バイアスを持つモデルがそれぞれ含意, 矛盾, 中立を最も多く予測すると期待される 3 つの評価データセットを構築し, その予測結果に基づくバイアス評価指標を提案する。 ## 3.1 評価データセットの構築 構築した評価データセットの NLI の文ペア事例は,2節で説明した Dev ら [2]のように,(「看護師がテニスをしています.」,「女性がテニスをしています.」)のような文ぺアの事例を作成する.文のテンプレートは JNLI $[11,12]$ データ作成法に倣い,人手による日本語の画像キャプションデータセット YJ Captions [8] から抽出した文を用いる。職業単語は, Bolukbasi ら [1]が公開した職業単語リストとそれぞれの単語の性別スコアとステレオタイプスコア ${ }^{3)} に$基づき単語を翻訳し,女性・男性にステレオタイプがある職業単語と中性の職業単語をグループ分けし,それぞれ,13,87,171 個の単語を得た(付録 A). 各職業単語に対して 10 個の文テンプレートと仮説文の主語に「女性」又は「男性」の 2 通りによる置換で, 20 件の事例が生成される. 本稿では,バイアスを持つモデルがそれぞれ含意のみ,矛盾のみ,含意か矛盾を最も多く予測すると期待できるように評価事例を 3 つの集合に分割し, それぞれを Pro-stereotypical (PS), Anti-stereotypical (AS),と Non-stereotypical (NS) セットと呼ぶ. PS セットは, 前提文に性別ステレオタイプがある職業単語,仮説文では職業単語をその性別の単語で置換した文ぺア事例で構成される.AS セットは,仮説文において PS とは反対の性別の単語で置換した事例で構成される. NS セットは,ステレオタイプのない職業単語と両方の性別単語からなる事例から構成されるデータセットである. 例えば,看護師が女性であるという性別バイアスがある前提では,文ぺアの(「看護師がテニスをしています.」,「女性がテニスをしています.」)は PS セットに含まれ,(「看護師がテニスをしています.」,「男性がテニスをしています.」)は ASセットに含まれる。また,会計士に関する性別バイアスが  図 1 評価データの構築 表 1 バイアス評価データセットの評価結果の変数 無い前提では,(「会計士がテニスをしています.」,「女性がテニスをしています.」)の事例はNS セットに含まれる(図 1). 以上の分割方法により,モデルにバイアスがあるほど,PS と AS セットではそれぞれ,含意と矛盾の予測割合が高くなり,NS セットでは中立の予測割合が低くなると期待される。 また,データセット間のラベルの割合を比較することで,バイアスの要因以外によるモデルのラベル予測の不正解を観測できる.つまり, 評価データセットにおける予測結果が表 1 のようになったとき, 出力の割合が順序関係式 1 を満たし,バイアスによる不正解がより多いこと分かる. $ e_{p}>e_{a}, c_{a}>c_{p} $ ## 3.2 評価指標 以上の評価データの分割方法によって,PS セットでの含意, AS セットでの矛盾, かつ $\mathrm{NS}$ セットでの中立の出力割合から,モデルのバイアスを計測できる. すなわち,評価データセットにおけるモデルの出力結果が表 1 のようになったとき,バイアスス コア $s$ を $ s=\frac{e_{p}+c_{a}+\left(1-n_{n}\right)}{3} $ と定義する。また,この式は PS セットでの矛盾と $\mathrm{AS}$ セットでの含意を考慮しないため,バイアス以外の要因によるモデルの間違った予測による影響を軽減できる。 ## 4 実験 本稿では 2 つの実験結果を報告する.まず,提案するバイアス評価手法と既存手法の有効性を比較するための実験を行う. 特に,既存手法が不正解とバイアスを区別できていないが,提案手法では可能であることを検証する。まず、バイアスされたデータと単なる不正解で構成されるデータの 2 つを作成する.そして,2つのデータの割合が異なる学習デー タを作成し,それぞれのデータに対してモデルを学習する.正しくバイアスを評価できる手法であれば,バイアスデータの割合が多いデータで学習されたモデルほどバイアスの評価値が高くなる. バイアスデータの割合と評価手法のバイアススコアのスピアマンの順位相関係数を計測し,より相関が高い評価手法が適切にバイアスを評価できているとする。 次に,NLI にファインチューニングした日本語事前学習モデルの性別バイアスを提案手法により評価する実験を行う.評価の対象モデルは Hugging Face [13] で公開される Tohoku BERT BASE, , Tohoku BERT $_{\text {BASE }}$ (char), Bandi DistilBERT BASE , Laboro DistilBERT $_{\text {BASE }}$, Waseda RoBERTa ${ }_{B A S E}$ である(付録 C). 評価データセットで各モデルの予測結果を集め,バイアススコアを計測し,その結果から各モデルのバイアスの度合いを確認する。 ## 4.1 評価手法の比較 実験設定学習データのバイアスの程度を表す指標としてバイアス率 $r$ を定義し,バイアスによって不正解となった事例とそれ以外の要因で不正解となった事例の割合を $r: 1-r$ として付録の図 2 のように作成する. ここで $r$ は 0 から 1 の間の値をとり、ハイパーパラメータとして刻みの粒度が決定される。バイアスによる不正解なデータは,PS と AS セットの事例の正解ラベルをそれぞれ含意・矛盾にしたものであり,それ以外の不正解な事例は PS と AS セットの事例の正解ラベルをそれぞれ矛盾・含意にしたもので構成される.ただし,双方のデータ 表 2 評価手法のスコアとバイアス率との順位相関係数 で使用される職業単語を別々に選びつつ,含意と矛盾のラベルのバランスを取る. その際,含意や矛盾だけを出力するモデルが学習されることを防ぐため, NS セットから中立な事例も追加する(付録 E). 本実験では,NLI にファインチューニングした Tohoku BERT BASE モデルに $r=\{0.0,0.1, \ldots, 0.9,1.0\}$ としたときの学習データで再度学習し, モデルのバイアススコアとバイアス率との順位相関係数を計測する。比較評価指標は,既存手法の Dev ら [2]の FN (中立の出力割合)スコアと提案手法のバイアススコア関数(式2)となる. ただし,バイアスに対する両方のスコアの方向を統一するために,FN スコアの逆方向の 1-FNを用い,相関係数を計測する. 実験結果モデルの学習データのバイアス率と各評価手法のバイアススコアとの順位相関係数の結果を表 2 に示す.この結果から,提案したバイアススコアは既存の評価スコアより高い相関係数が得られ,バイアスによる不正解な予測とそれ以外の要因による不正解な予測をより区別でき,正確にバイアスの評価ができることが確認できた. 既存のバイアススコアは,バイアス率が極端に高いもしくは低いときにモデルによる中立ラベルの出力が低い傾向となるため両者を区別しにくく, 相関係数が低くなると推測される。これに対し, 提案したバイアススコアでは含意, 矛盾と中立全てのラベルを考慮するため区別することができている. ## 4.2 日本語事前学習モデルのバイアス評価 実験設定 JSNLI [14] データを用いて 5 つのモデルをファインチューニングし,構築した評価データで含意ラベルを予測し, 各データセットの出力の割合およびバイアス評価スコアを計測する。 ハイパー パラメータなどの学習の詳細は付録 D を参照されたい. 実験結果各モデルの評価データセットの出力の割合結果を表 3 に示す. 5 つのモデルでの評価結果は式 1 を満たすため,バイアスでの不正解な予測はそれ以外の要因よりも大きな影響を及ぼすことが確認できる。 また,表 4 に示される各モデルのバイアススコアの結果から, 全てのモデルにバイアスがあることが確認できる。 バイアスの最も高いモデルと低いモデルは,それぞれ Bandi DistilBERT ${ }_{\text {BASE }}$表 3 モデルの評価結果 表 4 各モデルの提案手法によるバイアススコア. 括弧内の数字はスコア值の順位を示す (降順). と Waseda RoBERTa ${ }_{B A S E}$ である. Tohoku BERT BASE と Tohoku BERT BASE (char) とのスコアの比較から, トークン化の違いによってもモデルのバイアスに差が生じることが分かる.また,事前学習テキストが異なる教師モデルを持つ Bandi DistilBERT BASE と Laboro DistilBERT ${ }_{\text {BASE }}$ のスコアの比較から, 事前学習テキストがバイアスに与える影響が確認できる. ## 5 おわりに 本稿では,NLI タスクに対する差別的な性別バイアスの評価手法を提案し, NLIでの日本語事前学習モデルの性別バイアスの評価を行った. 異なるバイアスを持つ 3 つの評価セットに対し,モデルの予測結果に基づいて評価指標のバイアススコアを定義した. 実験により,提案したバイアス評価手法は既存手法よりも優れていることが確認できた. また,公開されている日本語事前学習モデルにはバイアスがあることや,トークン化の単位や学習データによってもバイアスへの影響があることを明らかにした。 今後は、提案した評価手法を日本語以外の言語へ適用し,その有効性を実証したい。また,評価デー タの質を向上させるために,より多様な文テンプレートやデータの分割方法を検討する予定である. ## 謝辞 この成果は, 国立研究開発法人新エネルギー・産業 技術総合開発機構 (NEDO) の委託業務 (JPNP18002) の結果得られたものです. ## 参考文献 [1] Tolga Bolukbasi, Kai-Wei Chang, James Zou, Venkatesh Saligrama, and Adam Kalai. Man is to computer programmer as woman is to homemaker? debiasing word embeddings. In Proceedings of the 30th International Conference on Neural Information Processing Systems, NIPS'16, p. 4356-4364, Red Hook, NY, USA, 2016. Curran Associates Inc. [2] Sunipa Dev, Tao Li, Jeff M. Phillips, and Vivek Srikumar. On measuring and mitigating biased inferences of word embeddings. Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 34, No. 05, pp. 7659-7666, Apr. 2020. [3] Masahiro Kaneko, Danushka Bollegala, and Naoaki Okazaki. Debiasing isn't enough! - on the effectiveness of debiasing MLMs and their social biases in downstream tasks. In Proceedings of the 29th International Conference on Computational Linguistics, pp. 12991310, Gyeongju, Republic of Korea, October 2022. International Committee on Computational Linguistics. [4] Masahiro Kaneko, Aizhan Imankulova, Danushka Bollegala, and Naoaki Okazaki. Gender bias in masked language models for multiple languages. In Proceedings of the 2022 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 2740-2750, Seattle, United States, July 2022. Association for Computational Linguistics. [5] Meichun Jiao and Ziyang Luo. Gender bias hidden behind Chinese word embeddings: The case of Chinese adjectives. In Proceedings of the 3rd Workshop on Gender Bias in Natural Language Processing, pp. 8-15, Online, August 2021. Association for Computational Linguistics. [6] Vijit Malik, Sunipa Dev, Akihiro Nishi, Nanyun Peng, and Kai-Wei Chang. Socially aware bias measurements for Hindi language representations. In Proceedings of the 2022 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 1041-1052, Seattle, United States, July 2022. Association for Computational Linguistics. [7] Aurélie Névéol, Yoann Dupont, Julien Bezançon, and Karën Fort. French CrowS-pairs: Extending a challenge dataset for measuring social bias in masked language models to a language other than English. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 8521-8531, Dublin, Ireland, May 2022. Association for Computational Linguistics. [8] Takashi Miyazaki and Nobuyuki Shimizu. Cross-lingual image caption generation. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 17801790, Berlin, Germany, August 2016. Association for Computational Linguistics. [9] Masashi Takeshita, Yuki Katsumata, Rafal Rzepka, and Kenji Araki. Can existing methods debias languages other than English? first attempt to analyze and mitigate Japanese word embeddings. In Proceedings of the Second Workshop on Gender Bias in Natural Language Processing, pp. 44-55, Barcelona, Spain (Online), December 2020. Association for Computational Linguistics. [10] Nathaniel Swinger, Maria De-Arteaga, Neil Thomas Heffernan IV, Mark DM Leiserson, and Adam Tauman Kalai. What are the biases in my word embedding? In Proceedings of the 2019 AAAI/ACM Conference on AI, Ethics, and Society, AIES '19, p. 305-311, New York, NY, USA, 2019. Association for Computing Machinery. [11] 栗原健太郎, 河原大輔, 柴田知秀. Jglue: 日本語言語理解ベンチマーク. 言語処理学会第 28 回年次大会, 2022. [12] Kentaro Kurihara, Daisuke Kawahara, and Tomohide Shibata. JGLUE: Japanese general language understanding evaluation. In Proceedings of the Thirteenth Language Resources and Evaluation Conference, pp. 2957-2966, Marseille, France, June 2022. European Language Resources Association. [13] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Remi Louf, Morgan Funtowicz, Joe Davison, Sam Shleifer, Patrick von Platen, Clara Ma, Yacine Jernite, Julien Plu, Canwen Xu, Teven Le Scao, Sylvain Gugger, Mariama Drame, Quentin Lhoest, and Alexander Rush. Transformers: State-of-the-art natural language processing. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 38-45, Online, October 2020. Association for Computational Linguistics. [14] 吉越卓見, 河原大輔, 黒橋禎夫. 機械翻訳を用いた自然言語推論データセットの多言語化. Technical Report 6, 京都大学, 京都大学/現在, 早稲田大学, 京都大学, jun 2020 . & & JA-Wikipedia \\ ## A 職業単語について ## A. 1 性別ステレオタイプの判別方法 Bolukbasi ら [1] が職業単語リストと共に公開している単語の性別スコアとステレオタイプスコアを用いる. 各スコアの範囲は $[-1,1]$ で,-1 に近づく值は女性方向に +1 に近づく值は男性方向となる.職業 $c$ に対して性別スコアを $s_{1}(c)$ ,ステレオタイプスコアを $s_{2}(c)$ 書くことにすると,本研究では $\left|s_{1}(c)\right|<0.5, s_{2}(c)>0.5$ ならば男性にステレオタイプが有り, $\left|s_{1}(c)\right|<0.5, s_{2}(c)<-0.5$ ならば女性にステレオタイプが有り,それ以外の条件ではステレオタイプのない中性の職業と見なす. ## A. 2 職業単語の例 ページ数の制限により,それぞれのグループの職業単語の一部を例として示す. ## 女性にステレオタイプのある職業単語 美容師,管理人,インテリアデザイナー,ハウスキーパー,看護師,受付係,保育士,司書,秘書,教師 ## 男性にステレオタイプのある職業単語 物理学者,暗殺者,牧師,医師,消防士,タクシー 運転手, 大使,ボクサー,アスリート,プログラマー ## ステレオタイプのない職業単語 家庭教師,インストラクター,水泳選手,聖人,研究者,パン屋,グラフィックデザイナー,検査官,講師,小照科医表 6 バイアス評価データセットの情報 図 2 評価手法の比較実験の学習データの構築 ## B評価データセット 構築した評価データセットの詳細な情報を表 6 に示す. ## C 事前学習モデル 実験に用いた事前学習モデルの詳細を表 5 に示す. ## D ハイパーパラメータの設定 事前学習モデルを NLI タスクへファインチュー ニングするとき, エポック数は 5 , 学習率は $2 e-5$, バッチサイズは 32, max_length は 128 とした.また,評価手法の比較の実験においてファインチュー ニング済みモデルを再学習するときは,エポック数を 3 とする。 ## E 評価手法の比較実験のデータ 評価手法の比較実験の学習データは図 2 に示す.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A7-4.pdf
# 学習者作文評価システム「jWriter」による習熟度と論理性の自動評価 李在鎬 ${ }^{1,5}$, 長谷部陽一郎 ${ }^{2}$, 伊集院郁子 ${ }^{3}$, 青木優子 ${ }^{4}$, 村田裕美子 ${ }^{5}$ ${ }^{1}$ 早稲田大学 ${ }^{2}$ 同志社大学 ${ }^{3}$ 東京外国語大学 ${ }^{4}$ 東京福祉大学 ${ }^{5}$ ミュンヘン大学 [email protected], [email protected], [email protected], [email protected], [email protected] ## 概要 本研究グループでは, 日本語学習者の作文執筆を支援する目的で,「jWriter」 というウェブアプリケーションを開発・運用している. 2016 年から日本語学習者が書いた作文の習熟度を自動評価するシステムとして公開してきたが, 2022 年秋には,論理性を自動評価する機能を追加した。論理性の自動評価は, [11]に基づく回帰式に加え,評価項目の一部を診断的評価として提供しており, 文章の内容に応じて推敲のためのヒントを提示する機能も備えてある. ## 1 はじめに 私たちは科研費による補助のもと, 2016 年度より日本語学習者の文章執筆を支援するウェブシステム 「jWriter」を開発している(図1). 図 1 jWriter の初期画面図1のテキストボックスに文章を貼り付け,「実行」ボタンをクリックするだけで,自動評価を行うと同時に, 文章が持つ様々な情報を可視化する機能を持っている.このシステムに関わるプロジェクトの概要は,以下のとおりである. ## 【第 1 期】 - $いつ: 2016$ 年 4 月 2019 年 3 月 - 何を:科研費基盤研究 (C) (https://kaken. nii.ac. jp/ja/grant/KAKE NHI-PROJECT-16K02794/)の補助を得て文章の能力値を自動評価する「jWriter」を開発・公開した。 - 誰が:李在鎬(研究代表者, データ分析),長谷部陽一郎 (研究分担者, システム構築),村田裕美子 (研究協力者, データ収集) - なぜ:日本語学習者の作文執筆を支援するため. - どうやって:日本語学習者コーパス「多言語母語の日本語学習者横断コーパス(I-JAS)」 [6]に含まれている自由作文のデータを学習データとして利用し, 線形回帰分析による習熟度の計算モデル[11]を作成し, ウェブアプリケーションで公開した. $\cdot$ どこで: https://jreadability. net/jwriter/ ## 【第 2 期】 - $いつ: 2019$ 年 4 月 2023 年 3 月 - 何を:科研費基盤研究 (B) (https://kaken. nii.ac. jp/ja/grant/KAKE NHI-PROJECT-19H01273/)の補助を得て文章の論理性を自動評価する機能を「jWriter」 に追加した。 - 誰が : 李在鎬(研究代表者, データ分析),長谷部陽一郎 (研究分担者, システム構築),伊集院郁子(研究分担者, データ作成), 青木優子 (研究分担者, データ作成), 村田裕 美子(研究協力者,データ収集) - なぜ:日本語学習者の作文執筆を支援するため. 特に文章を論理的に書くことの重要性を注意喚起するため. - どうやって:「現代日本語書き言葉均衡コ ーパス(BCCWJ)」 に収録されている教科書データと J- STAGE で公開されている学会要旨を学習データとして利用し, 線形回帰分析による習熟度の計算モデル [10]を作成し,ウェブアプリケー ションとして公開した. $\cdot$どこで: https://jreadability. net/jwriter/ 第 1 期目は, 文章の習熟度(入門, 初級, 中級,上級, 超級)を自動評価するシステムを作ることに注力した [5] [10] [12]. 第 2 期年からは,文章の論理性を自動評価する機能を追加することを目指している. 2017 年から行っている私たちの試みは, プレイスメントテスト [7]において活用する例もあるし,伊集院郁子氏が代表を務める科研費プロジェクト [2] に連携し, アカデミック・ライティングの教育支援ツールとしての活用を計画している例もある. 今後, 日本語教育の学習・教育インフラの一つとして活用されることを目指している. ## 2 習熟度の判定 習熟度とは,言語教育における「Proficiency」[3] に相当するもので,いわゆる初級,中級,上級といった段階性に基づいて記述される概念である. 伝統的にプロフィシエンシーは話す力と関連づけられることが多いが, 本プロジェクトでは, 日本語学習者の「書く力」に注目した. 高等教育機関における学習活動において,「書く力」は不可欠だからである. こうした背景のもとで 2016 年に日本語学習者コー パス「多言語母語の日本語学習者横断コーパス (IJAS )」[6]の作文データを学習データとして利用し,線形回帰分析で 5 段階の習熟度 (超級・上級・中級・初級・入門)を推定する計算モデルを作成した [10] [12]. ## 習熟度判定用計算モデル[12] $\mathrm{y}=1.637+$ 平均文長 $\times 0.045+$ 中級後半語 $\times 0.021+$ タイプトークン比 $\times-0.430+$ 動詞 $\times 0.015+$ 中級前半語 $\times 0.011+$ 総文字数 $\times-0.004+$ 和語 $\times 0.007+$ 漢語 $\times 0.007$ $\left(\mathrm{R}^{2}=0.760\right)$ ## 3 論理性の判定 文章が持つ論理性の度合を計算モデルで推定し,可視化する機能を「jWriter」に実装した. 具体的には,文章の論理性のかなめである接続詞を抽出し, カテゴリー別に表示する機能を実装したり,計算モデルに基づいて論理性を 4 段階(優・高・中・低) で自動評価する仕組みを入れたりしている [11]. 論理性の自動評価のために教科書コーパスと論文要旨コーパスを多変量解析の方法で分析し,計算モデルを作成している。重回帰分析の精度を示す決定係数では $78 \%$ の精度で論理性の度合いを判定できるようになっている. 論理性判定のための学習データとして「現代日本語書き言葉均衡コーパス(BCCWJ)」に含まれる教科書データと J-STAGE で公開されている学会要旨を使用した。これらのデータを「優」「高」「中」 「低」の 4 レベルに分け, 計量テキスト分析の方法で,論理性を計算するモデルを作成した。なお,学習データを 4 レベルに分けたのは,[9]の分析結果を参考にしたからである. 論理性判定用計算モデル[11] $y=3.099+($ 普通名詞率 $X-2.837)+($ 初級前半語率 $X$ $4.292)+($ 接続詞率 $\times-49.773)+($ 動詞率 $\times 4.281)+($ 外来語率 $\times-6.17)+($ 代名詞率 $\times-10.525)+($ 助動詞率 $X$ $0.279)+($ 形状詞率 $\times-0.691)\left(\mathrm{R}^{2}=.780\right)$ ## 4 実装 ここでは,「jWriter」の実装について述べる.「jWriter」は Ruby によるウェブアプリケーションである Sinatra を用いて構築されている。基本的なサーバーサイド処理の流れは次のとおりである。 1. 習熟度判定に必要な最低入力文字数を満たしているか確認 2. 入力されたテキストを文に分割 3. 各文に UniDic を用いた形態素解析を施して語彙情報を取得 4. 同時に「日本語教育語彙表」に基づいて各語彙項目の難易度情報を取得 5. 習熟度判定計算モデルを用いて習熟度を判定 6. 論理性判定に必要な最低入力文字数を満たしているか確認 7. 論理性判定用計算モデルを用いて論理性判定 8. 習熟度と論理性についての診断的評価を出力 1 と 6 の最低入力文字数については,下回ると正確な判定が難しいことがわかっており, 習熟度判定については 300 字以上あることが条件となっている.したがって「jWriter」では 300 字未満のテキス卜を評価することはできない。論理性判定については本来であれば 2,000 字以上のテキストであることが望ましいが,学習者の作文としてそこまでの長さを求めることは難しい場合が多いため 1,000 字以上を条件としている。 2 の文分割については,意味的な分析ではなく純粋に形式的な条件に基づいて行っている. まずテキストを段落に分割するが,その際には「改行+全角スペース」「改行+半角スペース」「2 個以上の改行文字の連続(=行空け)」のいずれかを改段落のマーカーとして用いている。学習者の作文テキストは必ずしも定型的でなく, 文の途中などで改行されていることが珍しくない。不注意などでそうなっている場合もあるが,段落をあらためる意図なしに行の右端で改行を入れる形で執筆を行う学習者も多いとみられる。 そこで,意図的な改階段とそうでない改行を区別するために上記の条件でテキストを段落に分割している。その後, 各段落を文に分割するが,その際には「。」「」「?」「!」をマーカ一として用いる.鉤括弧類が使用されているときなど,実際にはこれらのマーカーを伴わない文も存在するが,括弧類の使い方は入力されるテキストによって様々な相違があるため(閉じ括弧の直前で句点 を挿入する/挿入しないなど)「jWriter」では文分割の際に括弧の情報は用いていない。 3 の形態素解析については,UniDic-2.1.2 [13] を形態素解析器 MeCab を通じて利用している. UniDic を利用する理由としては主に次のことが挙げられる。 ・短単位での形態素解析は,誤りを含んだ表現や非慣例的な組み合わせの表現が含まれやすい学習者テキストの分析に適している - 基本形, 活用形,品詞に関する情報に加え $\tau$ 「和語」「漢語」「外来語」など語種に関する情報を取得できる ・学習者による日本語テキストを分析するのに 十分な情報量と性能を有している 4 の処理で用いる日本語教育語彙表[14]は過去の科研費グループ「汎用的日本語学習辞書開発データベース構築とその基盤形成のための研究」で開発された資源で,日本語教育で用いられる語彙項目を 6 段階のスケールに分類している (http://jhlee.sakura.ne.jp/JEV/) 。UniDic から得られる語彙情報と合わせて日本語教育語彙表の語彙レべル情報を用いることで,学習者による日本語テキストに含まれるほとんどの語について必要な情報を得ることができる. ここまでの処理を経て,5で実際の習熟度判定が行われる. 判定結果は回帰式の值に応じて「入門」「初級」「中級」「上級」「超級」の 5 段階に分類される。回帰式の值がどのレベルの値域にも含まれない場合には「測定不可(入門以下のため)」もしくは「測定不可(超級以上のため)」が出力される. また入力テキストが 1,000 字を満たしていればさらに論理性判定が実行される.論理性判定のレべルは「優」「高」「中」「低」の 4 段階であり, 「優」を超える值については「測定不可」と判定される。 「jWriter」では習熟度の判定が行われると, 結果のレベルに応じて「語の使い方に関する診断的評価」として「語の多様性」「漢語力」「長文作成力」「難解語」に関するアドバイスが示される.この機能は,回帰式を開発するために実施したデータ分析で用いた同じレベルグループのテキストが持つ特徴の平均値と, 入力されたテキストの特徴値を比較することで実現している。 ユーザーの作文能力の具体的な課題を特定する機能であり, 画面上には各項目の値域ごとに用意されたアドバイスのテキストと共に, グループ平均と実際の値とを示したグラフが表示される.これらのフィードバックを活用することで, 学習者や教師は現在の作文能力に関する詳しい情報だけでなく, 今後の学習・指導につながる気づきを得ることができる. ## 5「jWriter」が目指す評価 「jWriter」は自動採点システム[1]である。つまり, 評価のツールということになるが,本システムはどのような考え方のもとで作られた評価ツールであるかについて述べる。 伝統的に評価研究においては,妥当性 (validity)と信頼性(reliability)という指標が重要視されている[4]. これらは評価ツールの良し悪しを捉える上で必ず議論になる観点である.妥当性は,評価しようと意図している能力を正しく評価できているのかに関連する指標である。信頼性は, 評価結果の一貫性・安定性の指標である. 「jWriter」が重視したのは,評価の信頼性である.というのも,「jWriter」は誰が,どこから,いつ評価しても, 同じ文章であれば, 同じ結果を出力するからである。人間であれば,同じ文章であっても,評価者がかわれば,評価もかわるのが一般的で, 評価の一貫性や安定性を担保するために多くのコストがかかる[1]. しかし, 「jWriter」のような自動採点においては, 評価の一貫性や安定性は(計算モデルが同じであれば)不変である. 評価の妥当性には, 結論的にいうと現時点では判断が難しいと考えている。というのは,そもそもコンピュータは回答の求め方が人間とは異なるからである。前節で述べた習熟度の評価のための公式に注目してほしい。平均文長や語種の頻度をもとに, 「jWriter」は習熟度を評価しているが,人間はこうした指標を使って文章を評価するとは考えにくい。人間の評価では,様々な文構造を使い,自然なつながりにおいて自身の考えを述べているか,語彙の使い方が適切か,さらに主張をともなう文章であれば根拠がきちんとしているかなどの視点が用いられ る.「jWriter」は人間が行っているこれらの評価指標を間接的に捉えることを目指している.つまり,文構造の適切さや文と文のつながりの良さを平均文長や動詞や接続詞の使用率で捉え, 語彙使用の適切さは和語や漢語の使用率で捉えることを目指しているのである.このように「jWriter」が用いている指標はいずれも間接的なものであるため,その妥当性に関しても現時点において宣言的なことは言えない. 今後,「jWriter」を用いた実践研究が進むことにより,明らかになることであると考えている。 このように妥当性に関しては十分に明らかでない現状においても「jWriter」は有用な評価ツールであると考えている。それは, 教育現場に求められる様々な評価活動を考えた場合, 評価の妥当性より信頼性やレスポンスの速さが優先される場面があるからである。典型的にはプレイスメントテストのような場面や学習者が自身の文章を推敲する場面である.これらの場面では, 即時に反応してくれる仕組みが必要だからである,妥当性に関して,多少の問題があったとしても教師が介入することで修正が可能であると考えている.このことは, 教師の介入が前提にされない評価活動においては「jWriter」を使うのは望ましくないことを意味する。例えば,入学試験のような個人の人生を決めるようなハイ・ステ ークスな評価において, 現状のシステムでは利用が難しい. ## 謝辞 本研究は JSPS 科研費 19H01273,19K21637, 22H00667 の助成を受けたものである. ## 参考文献 [1] 石井雄隆・近藤悠介 (編). 英語教育における自動採点-現状と課題, ひつじ書房, 2020. [2]伊集院郁子. 日本語母語話者と日本語学習者の作文に見られる接続表現の比較, 2022 年度日本語教育学会秋季大会予稿集, pp. 65-70. [3]鎌田修・嶋田和子・迫田久美子.プロフィシェンシーを育てる〜真の日本語能力をめざして,凡人社, 2008. [4] 近藤ブラウン妃美. 日本語教師のための評価入門, くろしお出版, 2012. [5] 小森和子・李在鎬・長谷部陽一郎・鈴木泰山・伊集院郁子・柳澤絵美. 教師による評価とコンピュータによる自動評価はどの程度一致するのか, 2018 年度日本語教育学会秋季大会予稿集, pp. 278-283. [6]迫田久美子・石川慎一郎・李在鎬(編).日本語学習者コーパス I-JAS 入門 : 研究・教育にどう使うか,くろしお出版, 2020. [7]柳澤絵美・小森和子・李在鎬・長谷部陽一郎.日本語オンライン・プレイスメント・テストの開発, 2018 年度日本語教育学会春季大会予稿集, pp. 304-309. [8] 李在鎬・長谷部陽一郎・村田裕美子. 学習者作文の習熟度に関する自動判定とWeb システムの開発について, ICT×日本語教育, pp. 38-53, ひつじ書房, 2019. [9] 李在鎬. BCCWJ の学校教科書コーパスの計量的分析一日本語教育のためのリーダビリティと語彙レベルの分布を中心に一, 計量国語学 32 (3), pp. 147-162, 2019. [10] 李在鎬.書くことを支援する自動評価システム「jWriter」(特集 AI や ICT が変える言語教育), 日本語学 2021 冬号 40(4), pp. 4251, 2021. [11] 李在鎬・伊集院郁子・青木優子・長谷部陽一郎・村田裕美子. 論理的文章の自動評価に関する研究ーアカデミック・ライティングへの貢献を目指して, 2021 年度日本語教育学会春季大会予稿集, pp. 223-226. [12] Lee, J., and Hasebe, Y.: Quantitative Analysis of JFL Learners' Writing Abilities and the Development of a Computational System to Estimate Writing Proficiency, Learner Corpus Studies in Asia and the World 5, pp. 105-120, 2020. [13] 伝康晴 - 小木曽智信 - 峯松信明 - 小椋秀樹内元清貴・山田篤・小磯花絵. コーパス日本語学のための言語資源 : 形態素解析用電子化辞書の開発とその応用, 日本語科学 22 , pp. 101-123, 2007. [14] Sunakawa, Y., Lee, J. and Takahara, M. : The Construction of a Database to Support the Compilation of Japanese Learners Dictionaries, Acta Linguistica Asiatica 2(2), pp. 97-115, 2012.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A8-1.pdf
# An Analysis on Automated Metrics for Evaluating Japanese-English Chat Translation Andre Rusli, Makoto Shishido Tokyo Denki University \{20udc91@ms,shishido@mail\}.dendai.ac. jp ## 概要 This paper analyses how traditional baseline metrics, such as BLEU and TER, and neural-based methods, such as BERTScore and COMET, score several NMT models' performance on chat translation and how these metrics perform when compared to human-annotated scores. The results show that for ranking NMT models in chat translations, all metrics seem consistent in deciding which model outperforms the others. This implies that traditional baseline metrics, which are faster and simpler to use, can still be helpful. On the other hand, when it comes to better correlation with human judgment, neural-based metrics outperform traditional metrics, with COMET achieving the highest correlation with the human-annotated score on a chat translation. However, we show that even the best metric struggles when scoring English translations from sentences with anaphoric zero-pronoun in Japanese. ## 1 Introduction In recent years, machine translation has grown faster to provide better and more inclusive systems for many language directions. One of the most recent projects by the research team at Facebook tries to accommodate every language so that no language is left behind. Until a few years ago, most translation systems focused only on the sentence level, unable to understand the sentence's contexts which often exist in previous sentences. Many reports have demonstrated this to be inadequate. Several studies have shown that human translators outperform NMT models when the target language translation must consider the context at the document level [1,2]. To improve this, the research community proposed various methods and improvements to build models that could use the source- and target-side contexts $[3,4]$ when performing translations. By doing so, models could handle more challenging tasks which require context understanding, such as chat translations. For Japanese NMT, various methods have also been proposed to tackle critical challenges, especially in translating Japanese conversational texts to English. One of the most prominent challenges in discourse is the anaphoric zero-pronoun, which arises from pronouns such as subjects, objects, and possessive cases omitted from conversational sentences. Anaphoric zero-pronoun is not exclusive to Japanese but is one of the most challenging languages to resolve $[5,6]$. In contrast, while the number of works of research for training better and more capable NMT models keeps increasing rapidly, progress in machine translation (MT) evaluation has been struggling to keep up. Many works of research in the MT research community still rely on traditional metrics that are outdated but widely adopted as the standard. Even though human judgment is still considered the best metric to measure translation quality, it is considerably more expensive and time-consuming. Therefore, automatic metrics are an indispensable part of machine translation evaluation. They provide immediate feedback during MT system development and serve as the primary metric to report the quality of MT systems. Accordingly, the reliability of metrics is critical to progress in MT research. Historically, metrics for evaluating the quality of MT have relied on assessing the similarity between an MT-generated hypothesis and a human-generated reference translation in the target language. Traditional metrics, such as BLEU [7] and TER [8], have focused on basic, lexical-level features, such as counting the number of matching n-grams between the MT hypothesis and the reference translation. On the other hand, more recently proposed metrics are primarily based on pre-trained Transformers-based language models, such as BERTScore [9] and COMET [10], to calculate the similarity of translated sentences with their target. Additionally, similarity-based metrics built using neural-based methods can help evaluate human-generated texts, such as content scoring systems [11], often found in foreign language learning settings. This paper compares how different evaluation metrics perform on chat translation from Japanese to English. Then we analyze and emphasize the importance of using suitable metrics for measuring the performance of our translation systems depending. Additionally, we provide datasets containing the translation results of the Japanese-English Business Scene Dialogue corpus by three NMT models and a set of human-annotated scores of one of the model's translation results. ## 2 Evaluation Metrics for Japanese-English Chat Translation In MT, many traditional baseline metrics remain popular for evaluating MT systems due to their lightweight and fast computation [10]. However, as MT systems improve over time, commonly used metrics struggle to correlate with human judgment at the segment level and fail to evaluate the highest-performing MT systems adequately, thus misleading system development with incorrect conclusions. Among these metrics, BLEU is often considered the de facto standard of MT evaluation metrics. In advanced translation, however, there are many cases in which the description of phrases differs but implies the same meaning. In these cases, BLEU will struggle to perform adequately, even if there is a system that can translate with high quality. It is noted that even though BLEU is fast and can be helpful to assist researchers and developers in quickly performing initial experiments, BLEU should not be the primary evaluation technique in NLP papers [12]. Furthermore, it is argued that, due to its limitations, the common use of BLEU over the past years has negatively affected research decisions in MT [13]. In recent years, many efforts have been conducted to propose better metrics that can measure the quality of MT systems, such as BERTScore [9] and COMET [10], which are proven to correlate better with human judgments. However, only a few provided analysis on their use for evaluating chat translation, which is notably challenging for the Japanese language with its various challenges, such as the anaphoric pronoun resolution, that occurs more frequently in spoken language than in written language [14]. Furthermore, many works that try to build models for this are evaluated using BLEU, which is often argued as insufficient for advanced models [15]. However, the performance of many recent neural-based metrics has yet to be analyzed. This paper compares and analyses results from different models measured with various metrics and how these metrics correlate with human judgment. ## 3 Experiments In this section, we explain the data and procedure in the experiment to evaluate the quality of machine-translated sentences using various metrics and provide an analysis of how the result of each metric compares to the human evaluation score and with each other. Firstly, we use three NMT models to translate conversations from Japanese to English and store the translation results. Then, we calculate the score of each model's translation with various evaluation metrics, from traditional and commonly used metrics like BLEU to more recent neural-based metrics such as BERTScore. Furthermore, we provide an overview of a tool we use for the human evaluation of translated sentence output by the models. Using this evaluation tool, we compile human-annotated scores of machine-translated sentences from one model, measure how each metric correlates with human scores, and share our findings. ## 3. 1 Dataset and NMT Model Performance In our experiment, we use the Business Scene Dialogue (BSD) corpus [16]. We translated the whole development set of the BSD corpus ( 2,051 chats) using three models, namely our own Transformers-based MT model, M2M100, and MarianMT for Japanese to English language direction. Previously, only BLEU was used to evaluate the results; in this paper, we use six metrics containing both traditional baseline metrics (BLEU, TER, METEOR, and chrF) and recent neural-based metrics (BERTScore and COMET). We can see in Table 1 that even though each metric uses different approaches in evaluating the translated results, all metric seems consistent when deciding which performs the best of the three models. In other words, traditional metrics are still valid if we only want to rank which models perform better than the others, and the processing time is essential. Table 1 shows that all metrics indicate MarianMT outperforms the other two models. Table 1: NMT models performance measured by different metrics ## 3. 2 Direct Assessment for Human ## Evaluation and Metrics Performance Previous works have shown that some metrics are better than others in correlation with human judgment, which is still considered the gold truth of evaluation metrics in machine translation. In this section, we want to explore how these metrics correlate with human judgment when evaluating context-heavy chat sentences from Japanese to English in the BSD corpus. Firstly, to get the human-annotated score, we built a direct assessment tool for the manual evaluation of machine translation. The tool enables the user to view the chat dataset in a familiar chat-like user interface displaying the current segment/chat conversation along with its document-level context (previous chats), then score each translation from 0 (wrong) to 100 (perfect). It is developed following the direct assessment tool used for human evaluation on the WMT 2020 Shared Task on Chat Translation [17]. Figure 1 shows the user interface of this tool. Using the direct assessment tool for manual evaluation, we collected human-annotated scores of 10 conversations containing 283 chats inside the development set of the BSD corpus, translated by our own MT model. We asked two human annotators to score the translation and averaged the results. Both annotators speak Japanese and English, one is a native English speaker, and the other is a native Japanese speaker. The conversations are picked arbitrarily from the development set. Figure 1: User interface of the direct assessment tool Table 2 shows how each metric correlates with the human-annotated score for each chat translation. Neural-based metrics pre-trained with language models outperform traditional baseline metrics in correlation with human scores. It is worth noting that neural-based metrics slow down when the computation is done using the CPU only. This can be a limitation when we still experiment with architectures and hyperparameters in the initial phases of training an MT model. Table 2: Pearson's $r$ on each metric \\ As shown in Table 2, COMET achieves the highest correlation coefficient in our experiment. Based on this, we conduct additional analysis on the results scored by COMET. The aim is to get some clues about how it evaluates translations with a specific language phenomenon, such as the anaphoric zero pronouns, which are prominent, especially in Japanese conversations/chats [18]. Table 3 provides some example sentences where COMET is supposed to give higher scores to the human-translated sentences and lower scores to machine-translated sentences in which the pronouns need to be correctly translated and could result in a completely different meaning. Table 3: Examples where COMET gives lower score to better translations on zero-pronoun sentences & $\mathbf{0 . 9 3 1}$ \\ ## 4 Conclusion We analyze various metrics for chat translation from Japanese to English using three models on the BSD developments set. Furthermore, to determine whether the results correlate with human judgment, we compiled a dataset containing ten conversations from the BSD corpus development set (approximately 15\% of the total number of exchanges) along with the translation results and their human-annotated score using Direct Assessment. By calculating the Pearson correlation coefficient ( $r$ ), it can be seen that more recent metrics correlate better with human-annotated scores than traditional baseline metrics, with COMET achieving the highest correlation. There are still, however, limitations on the current best metrics. One major challenge in translating Japanese sentences is when the model needs to decide what pronoun to use when the source sentence does not contain any. Even the best metrics often make simple mistakes in our experiments by giving high scores to translations with wrong pronouns. It is worth further research on improving the metrics to accommodate various language-specific phenomena. ## References [1] Läubli, S., Sennrich, R., and Volk, M. 2018. Has Machine Translation Achieved Human Parity? A Case for Document-level Evaluation. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pages 4791-4796, Brussels, Belgium. Association for Computational Linguistics. [2] Toral, A., Castilho, S., Hu, K., and Way, A. 2018. Attaining the Unattainable? Reassessing Claims of Human Parity in Neural Machine Translation. In Proceedings of the Third Conference on Machine Translation: Research Papers, pages 113-123, Brussels, Belgium. Association for Computational Linguistics. [3] Zhang, J., Luan, H., Sun, M., Zhai, F., Xu, J., Zhang, M., and Liu, Y. 2018. Improving the Transformer Translation Model with Document-Level Context. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pages 533-542, Brussels, Belgium. Association for Computational Linguistics. [4] Voita, E., Sennrich, R., and Titov, I. 2019. When a Good Translation is Wrong in Context: Context-Aware Machine Translation Improves on Deixis, Ellipsis, and Lexical Cohesion. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pages 1198-1212, Florence, Italy. Association for Computational Linguistics. [5] Taira, H., Sudoh, K., and Nagata, M. 2012. Zero Pronoun Resolution can Improve the Quality of J-E Translation. In Proceedings of the Sixth Workshop on Syntax, Semantics and Structure in Statistical Translation, pages 111-118, Jeju, Republic of Korea. Association for Computational Linguistics. [6] Kudo, T., Ichikawa, H., and Kazawa, H. 2014. A joint inference of deep case analysis and zero subject generation for Japanese-to-English statistical machine translation. In Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pages 557-562, Baltimore, Maryland. Association for Computational Linguistics. [7] Papineni, K., Roukos, S, Ward, T, and Zhu, W. 2002. Bleu: A Method for Automatic Evaluation of Machine Translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pages 311-318, Philadelphia, Pennsylvania, USA. Association for Computational Linguistics. [8] Snover, M., Dorr, B., Schwartz, R., Micciulla, L., and Makhoul, J. 2006. A Study of Translation Edit Rate with Targeted Human Annotation. In Proceedings of the 7th Conference of the Association for Machine Translation in the Americas: Technical Papers, pages 223-231, Cambridge, Massachusetts, USA. Association for Machine Translation in the Americas. [9] Tianyi Zhang, Varsha Kishore, Felix Wu, Kilian Q. Weinberger, and Yoav Artzi. 2020. BERTScore: Evaluating text generation with BERT. In International Conference on Learning Representations. [10] Rei, R., Stewart, C., Farinha, A.C., and Lavie, A. 2020. COMET: A Neural Framework for MT Evaluation. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pages 2685-2702, Online. Association for Computational Linguistics. [11]Bexte, M., Horbach, A., and Zesch, T. 2022. Similarity-Based Content Scoring - How to Make S-BERT Keep Up With BERT. In Proceedings of the 17th Workshop on Innovative Use of NLP for Building Educational Applications (BEA 2022), pages 118-123, Seattle, Washington. Association for Computational Linguistics. [12] Reiter, E. 2018. A Structured Review of the Validity of BLEU. Computational Linguistics, 44(3):393-401. [13]Hanna, M. and Bojar, O. 2021. A Fine-Grained Analysis of BERTScore. In Proceedings of the Sixth Conference on Machine Translation, pages 507-517, Online. Association for Computational Linguistics. [14]Rikters, M., Ri, R., Li, T., and Nakazawa, T. 2022. Japanese-English Conversation Parallel Corpus for Promoting Context-aware Machine Translation Research. Journal of Natural Language Processing, 28(2): 380-403. https://doi.org/10.5715/jnlp.28.380. [15] Mathur, N., Baldwin, T., and Cohn, T. 2020. Tangled up in BLEU: Reevaluating the Evaluation of Automatic Machine Translation Evaluation Metrics. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pages 4984-4997, Online. Association for Computational Linguistics. [16]Rikters, M., Ri, R., Li, T., and Nakazawa, T. 2019. Designing the Business Conversation Corpus. In Proceedings of the 6th Workshop on Asian Translation, pages 54-61, Hong Kong, China. Association for Computational Linguistics. [17]Farajian, M.A., Lopes, A.V., Martins, A.F.T., Maruf, S., and Haffari, G. 2020. Findings of the WMT 2020 Shared Task on Chat Translation. In Proceedings of the Fifth Conference on Machine Translation, pages 65-75, Online. Association for Computational Linguistics. [18]Rusli, A. and Shishido, M. 2022. Zero-Pronoun Annotation Support Tool for the Evaluation of Machine Translation on Conversational Texts. Journal of Natural Language Processing, 29(2):493-514. https://doi.org/10.5715/jnlp.29.493.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A8-2.pdf
# Preordering based Low Resource Translation Using Pretrained Multilingual Model Jingyi Zhu ${ }^{1}$ Takuya Tamura ${ }^{1}$ Fuzhu Zhu ${ }^{1}$ Xiaotian Wang ${ }^{1}$ Taiki Sakai $^{1}$ Takehito Utsuro $^{1}$ Masaaki Nagata ${ }^{2}$ ${ }^{1}$ Deg. Prog. Sys.\&Inf. Eng., Grad. Sch. Sci.\&Tech., University of Tsukuba }^{2}$ NTT Communication Science Laboratories, NTT Corporation, Japan \begin{abstract} In this paper, we propose to apply the pretrained seq 2 seq model to conduct preordering process and translation. We use the manual word alignment data to make preorder training data, and we compared the performance of different kinds of mT5 and mBART in preordering. For the translation procedure, we choose mBART as our baseline model. We evaluated our approach on the Asian Language Treebank dataset (total of 20,000 parallel data), with directions in Japanese and English, and in-house parallel data (total of 3,000 parallel data) of Japanese and Chinese from NTT corporation. For the results, our proposed approach exceeds the baseline on the translation direction of $\mathrm{Zh}-\mathrm{Ja}$ pairs, and is close to level with the baseline on Ja-En pairs. \end{abstract ## 1 Introduction In recent years, more and more researches have been conducted on sequence-to-sequence (seq 2 seq) models based on pretraining $[14,6,5]$. Since the introduction of Transformer [13], the quality of translation has been greatly improved. However, in the task of low resource translation, due to the dataset's size limitation, this kind of parameter randomization model often performs poorly [16]. In order to meet this challenge, many researches have proposed large-scale pretraining models, which have been widely used in several tasks in NLP [1, 12]. In this paper, We propose applying the pretrained seq2seq model to both preordering and translation. We discussed different sizes of mT5s [14] and mBART [6], to verify the performance that those models could make in preordering when using manual word alignment data. For the translation process, we choose mBART as our baseline translation model. Translation results with the original source language as input and generated preordering as input is verified respectively. In the validation of the ALT Japanese-English dataset [9], the result of preordering as input is similar to that of the baseline. On the other hand, the result of using preordering as input is higher than the baseline in the verification of the in-house Chinese-Japanese parallel dataset provided by NTT. ## 2 Ralated Work Kawara et al.[4] discussed the influence of word order on the NMT model and concluded that it is important to maintain the consistency between an input source word order and the output target word orders, to improve the translation accuracy. Murthy et al.[7] proposed a transfer learning approach for NMT, that trains an NMT model on an assisting language-target language pair, and improves the translation quality in extremely low-resource scenarios. Nevertheless, both methods above rely on separately pretraining a translation model using a large-scale parallel corpus, and handle the preordering based on the syntax tree. Zhu et al.[16] discussed a framework that focuses on the translation task limited to a small-scale corpus using preordering and highly accurate word alignment in lowresource translation. In their work, they used an SMT model as a solution for translation and received a better result compared with Transformer. But they did not explore the use of the seq2seq large-scale pretrained model. Our work focuses on the low-resource translation task and uses the large-scale pretrained multilingual model for fine-tuning not only the preordering but also the translation procedure. ## 3 Using Seq2seq Models for Preordering and Translation ## 3.1 Seq2seq Models Seq2seq can be described as a sequence input of the source sequence $S=\left.\{s_{1}, s_{2}, \ldots, s_{k}\right.\}$ to a sequence output of the target $T=\left.\{t_{1}, t_{2}, \ldots, t_{m}\right.\}$, where $s_{i}(i=1, \ldots, k)$ and $t_{j}(j=1, \ldots, m)$ represent the tokens in the source sequence and the target sequence, respectively. Seq2seq models are basically composed of an encoder and a decoder $[11,2]$. The encoder does a highdimensional vector conversion of the input sequence, and the decoder maps the high-dimensional vectors into the output dictionary from the encoder's output. This process has applications in tasks such as machine summarization [10], question-answering systems [15], and machine translation [11]. Therefore, we also tried to use the seq2seq model to conduct preordering and translation. ## 3.2 Seq2seq Models for Preordering ## 3.2.1 Preordering Process The preordering process transforms the orders of the tokens in a source sequence to those of the tokens in its target sequence before translation is performed. An example of transferring a Japanese sentence is shown in Figure 1. Figure 1 Transform the word order of the source Japanese language to the target English language before translation. For the preordering procedure, we use mT5 [14] and mBART [6], which now are kinds of state-of-the-art seq2seq models. Both of them have similar self-attentionbased encoder-decoder structures, with a slight difference in the task of pretraining. The output of mT5 and mBART are mapped to the entire dictionary rather than the input dictionary. ## 3.2.2 Reordered Training Data We followed our previous work [16] for conducting the training data for preordering as in Figure 1. For the model input, we use the original source sequence. On the output side, we simply ignored those NULL-aligned tokens, because they were not aligned with any tokens on the target side. Specifically, according to the word alignment, the Japanese sentence ”私 (I) は黒い (black)猫 (cat) が好き (like)" can be easily preordered into the English order of "私 (I) 好き (like) 黒い (black) 猫 (cat)" with the alignments of (私-I), (黒い-black), (猫-cat) and (好き-like) based on the word alignment. Therefore, we ignore "は" and "が" in the preordered sequence, because they were not aligned to any tokens. Thus, after removing "は” and "が" in the output side of preordered sequence, the training pair is”私 (I) は黒い (black) 猫 (cat) が好き (like)” and ”私 (I) 好き (like) 黒い (black) 猫 (cat) $"$. We use such training pairs to train order transformation seq2seq neural networks. ## 3.3 Seq2seq Model for Translation For the translation process, we use mBART as the base translation model. To compare different input results, we tried multiple input patterns, which are original input, preordered input, tagged input, concatenated input, and mixed input. Original input uses the original source language sequence as input, and outputs the target language sequence. We see this pattern as the seq2seq translation baseline. - Original input: Original source sequence $\Rightarrow$ Target language sequence Preordered input uses the preordered source language sequence as input, and outputs the target language sequence. - Preordered input: Preordered source sequence $\Rightarrow$ Target language sequence Tagged input uses both original and preordered source language sequences as input but carries the sequence type tag at the head of the sequence (for example, using [ord] and [pre] to represent the original sequence and preordered sequence). Note that the size of the training set is two of the baseline, because of using original input and preordered input separately. - Tagged input: [ord] Original source sequence $\Rightarrow$ Target language sequence [pre] Preordered source sequence $\Rightarrow$ Target language sequence Concatenated input merges the original and preordered source language sequence into one sequence but split by a learnable symbol. - Concatenated input: Original source sequence [SEP] Preordered source sequence $\Rightarrow$ Target language sequence Mixed input is a combination of the three types of input above, with the addition of a learning process for preordering. To enable the model to distinguish the expected output from the different inputs, we put a type tag before each input similar to Tagged input. - Mixed input: [ord2pre] Original source sequence $\Rightarrow$ Preordered source sequence [ord2tgt] Original source sequence $\Rightarrow$ Target language sequence [pre2tgt] Preordered source sequence $\Rightarrow$ Target language sequence [concat2tgt] Original source sequence [SEP] Preordered source sequence $\Rightarrow$ Target language sequence ## 4 Experiments ## 4.1 Dataset We use ALT ${ }^{1)}$ Japanese-English and in-house ChineseJapanese parallel data as our base dataset in our seq2seq experiments ${ }^{2}$. For word alignment, we choose to use the word alignment data based on human annotations. The data is split into the training, validation, and test parts. Each of them in ALT data includes parallel sequence pairs of $18 \mathrm{~K}, 1 \mathrm{~K}$, and $1 \mathrm{~K}$. The in-house data includes parallel sequence pairs of $2 \mathrm{~K}, 0.5 \mathrm{~K}$, and $0.5 \mathrm{~K}$. ## 4.2 Preordering Setting Training data for seq2seq preordering is made by manual word alignment as described in section 3.2. We compare preordering results using RIBES [3] between mT5-small, mT5-base, mT5-large and mBART-large ${ }^{3}$. Every model is ensured to be trained for 40,000 steps, with a training batch size of 16 , and a learning rate of $3 \mathrm{e}-5$. Furthermore, due to the mT5-large obtained the best preordering result with the condition of a batch size of 16, we trained another mT5-  large with a batch size of $32^{4}$. We generate the preordered sequence using the model of the maximum BLEU score which is evaluated on the validation parts. Table 1 RIBES result of seq2seq model trained by manual word alignments of transferring Japanese order into English order and opposite. ## 4.3 Translation Setting We trained mBART models for translation using Fairseq ${ }^{5)}$, while for each input pattern, every model is trained for 40,000 steps, with a max input length of 1024 and a learning rate of 3e-5 (the same number of update steps and learning rate with the preordering process). For the generation process, we use the model with minimum label-smoothed cross-entropy loss on the validation set to generate the target translation. For preordering inputs, we use sequences generated by mT5-large, which is trained with a batch size of 32 . Table 2 BLEU score of different models when applying the preorder input pattern for translating Ja-En pairs. & Ja $\Rightarrow$ En & En $\Rightarrow$ Ja \\ mT5-small & 16 & 21.44 & 26.06 \\ mT5-base & 16 & 24.38 & 27.68 \\ mT5-large & 16 & 24.83 & 28.48 \\ mT5-large & 32 & 25.22 & 28.34 \\ mBART-large & 16 & 23.28 & 27.28 \\ ## 5 Result ## 5.1 Preordering Performance Table 1 shows the RIBES result between different seq2seq models. As we can see, the RIBES score of mT5-large models have broken through 0.9 , regardless of  Table 3 BLEU scores between the different Model input types and input order. Oracle rearranges the test set according to the manual word alignment data, which is the most perfect data. Rows with Tagged as model input represent the mixed input pattern result, while the results in parentheses represent the BLEU score of tagging only on the original order and preordered sequence. ${ }^{\dagger}$ represents the significant difference $(\mathrm{p}<0.05)$ with baseline using mT5-large. & - & 25.74 & 29.32 & 14.11 & 17.93 \\ Table 4 RIBES score when transferring the original source sequence to preordered source sequence using mT5-large. whether the model is trained with a batch size of 16 or 32. Table 4 contains the RIBES score of transferring the original source sequence to preordered source sequence using mT5-large. Meanwhile, thanks to the pretraining task, the preordering result fully demonstrates the feasibility of using the seq2seq model in the preordering task. ## 5.2 Translation Performance As shown in Table 3, the concatenated inputs acquire the highest BLEU score [8] compared to other input patterns. For comparison experiments, we conducted experiments using oracle. Oracle means that the test set is also preordered using manual word alignment data instead of being generated by the seq2seq model. Based on the results, oracle outperformed the baseline by a wide margin. Although this result is impractical, it still shows the possibility of applying our method to the seq2seq model. Table 2 shows the BLEU score of different models when applying the preorder input pattern for translating Ja-En pairs. It is apparent that the final translation result corresponds with the performance of preordering. The higher the quality of the preordering, the better the final translation will gain. In addition, in the results of preordering using mT5large, the translation quality of the concatenated input is better than that of the other inputs and baseline. By combining the original and preorder inputs into one sequence, the models could learn more about their relative positions. For Chinese and Japanese data, the proposed approach is better than the baseline, which we believe is due to the size of the dataset. For the pretrained seq2seq model, the 18,000 training data of ALT is sufficient for fine-tuning with the original source input. However, under the condition of 2,000 parallel data, the model could learn more translation rules through the preordered input. ## 6 Conclusion In this paper, we proposed to utilize seq2seq multilingual pretrained models for the process of preordering and translation. We used mT5-large to generate preordering sequences and mBART to translate. In our experiments, we estimated our approach on ALT Ja-En pairs and in-house Zh-Ja pairs. For the results, Our method is effective in the experiments using Chinese and Japanese parallel data and is mostly equal to the baseline in Japanese and English pairs. In our future work, we will try the method of data expansion on the pretraining model, and we will also transplant our method to $\mathrm{mT5}$ s to evaluate the translation accuracy. ## References [1] J. Devlin, M. Chang, K. Lee, and K. Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proc. NAACL, pp. 4171-4186, 2019. [2] S. Hochreiter and J. Schmidhuber. Long short-term memory. Neural Computation, Vol. 9, No. 8, p. 1735-1780, 1997. [3] H. Isozaki, T. Hirao, K. Duh, K. Sudoh, and H. Tsukada. Automatic evaluation of translation quality for distant language pairs. In Proc. EMNLP, pp. 944-952, 2010. [4] Y. Kawara, C. Chu, and Y. Arase. Recursive neural network-based preordering for statistical machine translation and its analysis. Journal of Natural Language Processing, Vol. 26, No. 1, pp. 155-178, 2019. [5] Z. Lin, X. Pan, M. Wang, X. Qiu, J. Feng, H. Zhou, and L. Li. Pre-training multilingual neural machine translation by leveraging alignment information. In Proc. EMNLP, pp. 2649-2663, 2020 [6] Y. Liu, J. Gu, N. Goyal, X. Li, S. Edunov, M. Ghazvininejad, M. Lewis, and L. Zettlemoyer. Multilingual denoising pre-training for neural machine translation. Transactions of the ACL, pp. 726-742, 2020. [7] R. Murthy, A. Kunchukuttan, and P. Bhattacharyya. Addressing word-order divergence in multilingual neural machine translation for extremely low resource languages. In Proc. NAACL, pp. 3868-3873, 2019. [8] K. Papineni, S. Roukos, T. Ward, and W. Zhu. Bleu: a method for automatic evaluation of machine translation. In Proc. 40th ACL, pp. 311-318, 2002. [9] H. Riza, M. Purwoadi, Gunarso, T. Uliniansyah, A. Ti, S. Aljunied, L. Mai, V. Thang, N. Thai, V. Chea, R. Sun, S. Sam, S. Seng, K. Soe, K. Nwet, M. Utiyama, and C. Ding. Introduction of the Asian language treebank. In Proc. Oriental COCOSDA, pp. 1-6, 2016. [10] T. Shi, Y. Keneshloo, N. Ramakrishnan, and Chandan K. Reddy. Neural abstractive text summarization with sequence-to-sequence models. Vol. 2, 2021. [11] I. Sutskever, O. Vinyals, and Q. Le. Sequence to sequence learning with neural networks. In NIPS, Vol. 27, 2014. [12] B. Tom, M. Benjamin, and et al. Nick, R. Language models are few-shot learners. In Advances in NIPS, Vol. 33, pp. 1877-1901, 2020. [13] A. Vaswani, N. Shazeer, N. Parmar, J. Uszkoreit, L. Jones, A. Gomez, U. Kaiser, and I. Polosukhin. Attention is all you need. In Proc. 30th NIPS, pp. 5998-6008, 2017. [14] L. Xue, N. Constant, A. Roberts, M. Kale, R. Al-Rfou, A. Siddhant, A. Barua, and C. Raffel. mT5: A massively multilingual pre-trained text-to-text transformer. In Proc. 15th NAACL, pp. 483-498, 2021. [15] J. Yin, X. Jiang, Z. Lu, L. Shang, H. Li, and X. Li. Neural generative question answering. In Proceedings of the Workshop on Human-Computer Question Answering, pp. 36-42, 2016. [16] J. Zhu, Y. Wei, T. Tamura, T. Utsuro, and N Masaaki. A framework for low resource language translation based on smt and highly accurate word alignment. In The Associa- tion for Natural Language Processing, pp. 1312-1316, 2022. ## A Appendix Table 5 shows our actual transformation results. In the first result, although most of the preordered tokens are arranged in relatively correct places, those have meaningful tokens such as “金曜日夜” and “停車場” are not placed correctly. However, in the second result, the generated preordered sequence is exactly the same as the reference preordered sequence. Table 5 Results for preordering generated by mT5-large.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A8-3.pdf
# JParaCrawl における分割学習の提案 村上仁一 1 1 鳥取大学工学部 [email protected] ## 概要 JParaCrawl は,約 3000 万文を超える日英対訳デー タである [1]. 規模が非常に大きいため,一般の GPU を利用しても,VRAM の容量が足りないため, NMT の学習が困難である。 そこで,本研究では, データを分割して学習することで,一般の GPUを利用しても,学習可能な方法を考案した. 実験の結果, この学習方法が有効に動作することが示された. ## 1 はじめに JParaCrawl は,約 3000 万文を超える日英対訳デー タである。そのため,一般の GPUを利用しても, VRAM の容量が足りないため, NMT の学習が困難である。そこで,学習済みの MNT のモデルが提供されている。そして,テスト文のドメインアダプテーションをすることで,ある程度高い精度の翻訳が可能である. しかし,この場合,NMT のモデルの構造が,固定されてしまい,多様性に欠ける.基本的には,JParaCrawl を直接学習できることが,好ましい. 本論文では,一般の GPU を使って,JParaCrawlを直接学習できる方法を提案する. この方法は,以下の仮説に基づいている。 1. テスト文に類似した,ある程度の対訳データが存在する。 2. 大量の対訳データを分割して,テスト文に対するアダプテーションをおこなう. 以上を考慮して,JParaCrawl を一般の GPUを使って直接学習する方法を提案する。 ## 2 NMT の学習における仮説 1. 要素合成法の問題 文の翻訳において,単語単位に正確に翻訳しても,文全体からみると不可解な翻訳にある.以下が良い例である.例彼女は我を通した She passed me この問題を避けるには,文全体を考慮して翻訳する必要がある.逆に言えば,大量の対訳文があっても,単語単位に翻訳される。そのため翻訳精度が低下する原因になる. ${ }^{1)}$ 2. 単文翻訳 文の基本要素は単文である.複文は単文に分割することが可能である. 3. NMT の追加学習 NMT の学習は, 一度学習を止めて, パラメー タを保存し,再び学習をすることが可能である. この再学習するとき,元の学習データと同一である必要は,ない. 4. LSTM LSTM は,勾配を緩和することで,勾配消失問題を緩和している。これは,一種の Low Pass Filter と見なせる。また,パラメータのスムー ジングとも見なせる. そのため, 不必要なパラメータでも小さな値を維持していることが多い.なお,提案方法では,学習速度を低下させるパラメータを利用する(4f 節)。 以上の事柄を考慮して,大量の学習データがあるときの学習方法を以下に述べる。提案方法は,分割学習と呼べる方法である. ## 3 提案方法 翻訳する文(テスト文)は単文とする。そして,以下の対訳データを準備する。 ・JParaCrawl のコーパスを分割する。これを $J P A R A_{1}, J P A R A_{2}, J^{\prime} A R A_{3}, \ldots$ とする. ・対訳単文のコーパスを Simple とする 分割学習を,以下にしめす。基本的には, JParaCrawl のコーパスを分割して,個々で学習を行う.  1. Simpleを学習 2. Simpleを学習 4. Simple を学習 5. Jpara 2 を学習 6. Simpleを学習 7. Jpara $_{3}$ を学習 8 . 9. 提案方法は,上記の分割学習を,さらに尤度が収束するまで繰り返す. ## 4 実験 実験に利用したデータを以下に示す. 1. JParaCrawl V3.0[1] ただし,以下の条件を加えた. ・日本文において文末が”。 ・”英文において文末が”., -日英同一の対訳文は,1 文にまとめる. (sort および uniqを取る。) 使用した対訳文は約 1600 万文になった. 2. 対訳単文 電子辞書などから抽出した,単文. 動詞が 1 つの文.約 16 万文 [2]. 3. テスト文 単文 10000 文 4. 学習条件 (a) 分割数 JParaCrawl を 16 分割 (b) 分割学習の回数 分割学習を 10 回 (c) 利用した NMT Open-NMT (d)個々の学習の繰り返し回数 5000step(例 Jpara を学習する回数) (e) vocabulary size GPU の memory の制限 (12G) に由来して,10万単語とした。 (f) 学習パラメータ 提案方法は,大量の対訳コーパスを分割して学習する. そのため,各分割したコー パスにおいて未知語が存在する. したがって,通常の学習より収束を遅くする必要がある。そこで,以下のパラメータにする。 - learning-rate: 0.9 - pos-ffn-activation-fn: gelu その他のパラメータは default とする。 5. 形態素 ・日本語は mecabで形態素解析をおこなった。 $\cdot$英語は,文末の”."および文中の”,"は,前後に空白を加え 1 単語とした. 6. ベースライン 比較実験のため,JParaCrawl を利用しなくて,対訳単文 16 万文だけを学習した実験をべースラインとする。 ## 5 実験結果 ## 5.1 自動評価 自動評価による実験結果を表 1 に示す. 評価文は 10000 文である. 表 1 自動評価 以上の結果より,自動評価において,提案手法の有効性が見られた。 ## 5.2 人手評価 提案手法とベースラインの対比較評価を行った.対象は約 100 文である.評価者は4名である.結果の平均を表 2 に示す. 表 2 対比較評価(人手) 提案手法 > ベースライン $45.2 \%$ 提案手法くベースライン $7.4 \%$ 提案手法 $=$ ベースライン $47.3 \%$ 以上の結果より,人手評価においても,提案手法の有効性が見られた。 ## 5.3 出力例 翻訳例を表 3 に示す. 表中のベースはベースラインを意味する。 表 3 翻訳例 入力 $\mid$ 信号が青より赤に変わった。 提案 The signal turned green to red. ベース The light turned red to red than green. 提案 I was <unk> in a train accident . ベース I was robbed in the train accident. 参照 I was stranded as a result of the train accident. 入力彼女は我を通した。 提案 She <unk> herself . ベース She has come. 提案 The cure for AIDS is not yet known. ベース The fundamental method of AIDS is not yet known. 新人賞を獲得した。 提案 The new actress won a new award with the <unk> performance. ベース The new actress won <unk> performance in <unk> performance . 参照 That starlet put everything she had into her part and won the prize for new talent 入力 12 号線環状部は一九九二年に着工る。来年十二脂開業を予定してい 提案 The 12 lines are scheduled to start in 1992 , and in December, we plan to open our business ベース The <unk> line is scheduled to begin operation in 1970 , in 1954 . 参照 Construction on the subway line began in 1992 , and the line is scheduled to be put into operation in December next year . ## 6 考察 ## 6.1 自動評価と人手評価 人手評価では,自動評価と大きな差が出た.これは,自動評価では,文の一部を評価しているのに対し,人手評価では,文全体を評価することで,差が出ていると考えている. 今後,文全体を評価する自動評価方法を考えていく必要がある.この方法の 1つは,参照文との一致率 [3] を見る方法と考えている. ## 6.2 GPU の VRAM と NHT の vocabulary size と未知語 NMT の vocabulary size と GPU の VRAM 量は,ほぼ比例の関係にある。実験に使用した GPU は 12G である.そのため今回の実験では, vocabulary size を 100000 にせざるを得なかった. そのため, 出力文において<UNK>が,多く出力される. この問題点を避けるために,形態素を SentencePiece[4] に変更する方法がある. SentencePiece では,固有名詞を文字に分割するため,未知語は出力されない. しかし,分割することの問題もでる。簡易実験を行ったところ,“知床”を “knownledge floor” と翻訳された. そして全体の翻訳精度が低下した. sentence pieseを利用するときには学習パラメータの再調査が必要である. ## 6.3 学習パラメータ 今回の実験では,学習速度を低下させるために,以下のパラメータを用いた。 - learning-rate: 0.9 - pos-ffn-activation-fn: gelu 他にも,多くのパラメータがある. これらを追求して行きたい. ## 6.4 google 翻訳との比較 現在 web 上の google 翻訳が利用可能である. 提案手法と google 翻訳を比較した. テスト文は約 100 文である.評価者は 4 名の対比較試験である.結果を表 4 に示す. 結果として,提案手法は, google 翻訳には,まだ追いついていない. この最大の原因は, 未知語の存在である。例を以下に上げる. 表 5 google 翻訳との比較 入力 $\quad$ 信長勢は再び京へ上った。 提案 The <unk> went to Kyoto again . google Nobunaga's army went up to Kyoto again . 参照 Nobunaga's army went up to Kyoto again . 語彙数 100000 では,入力文において未知語が存在する。この例では, “信長勢” が未知語になる。 そのため, 出力文に未知語が出力される. そのため, google 翻訳が良いと判断される。このような例が非常に多い. ## 6.5 大量の対訳データを学習する方法 大量の対訳データを学習する方法は,本論文で述べた分割学習を用いる方法以外にも,以下の方法がある. 1. fine tuning この方法は,一般的な方法である。大量の VRAM を持つ GPU で, 1 度 JParaCrawl の対訳データを学習して,base モデルとする。このモデルに対して,翻訳対象の分野の対訳データに fine turning する.ただし,この方法は,NMTのモデルが,base モデルに依存する.そのため拡張性に欠ける欠点がある。 2. 類似文 翻訳対象の文に類似した文を JParaCrawl から抽出し, この対訳文を学習データに加える. この方法は,テスト文が異なると,再度 NMT を学習する必要がある. これらの方法は,一長一短ある。データベースの種類や量やテストデータの依存する. 今後,最適な方法を調査したい,なお予備実験では,類似文の追加が最も良い翻訳性能を得ている. ## 7 おわりに JParaCrawl は,約 3000 万文を超える日英対訳デー タである. 規模が非常に大きいため, NMT の学習が困難である.そこで,本研究では,JParaCrawl を分割して,個々に学習する方法を提案した。個々に学習した場合, GPU のメモリが少なくでも計算可能である. 実験の結果,この方法が有効に動作することが示された. そして,特に人手の評価に大きな有効性が得られた。 ただし提案方法には,未知語において大きな問題点がある. また,多くの拡張方法がある。これらを追求していきたい. ## 謝辞 人手評価に参加した以下の方々に感謝します. 矢野貴大, 本田涼太, 三木謙志, 名村太一, 丸山京祐 ## 参考文献 [1] 森下他. Jparacrawl v3.0: 大規模日英対訳コーパス. 言語処理学会第 28 回年次大会, 2022. [2] 村上仁一, 藤波進. 日本語と英語の対訳文対の収集と著作権の考察. 第一回コーパス日本語学ワークショップ, pp. 119-130, 2012. [3] 村上仁一. 機械翻訳における文一致率による評価. 人工知能学会全国大会論文集第 27 回, 2013. [4] John Richardson Taku Kudo. Sentencepiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. EMNLP2018, 2018.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A8-4.pdf
# Improving Example-based Machine Translation by Analogy Using Parse Trees Yifei Zhou Yves Lepage 早稲田大学大学院情報生産システム研究科 [email protected], [email protected] } \begin{abstract} We investigate an approach to example-based machine translation (EBMT) implemented by analogy in a lowresource scenario. This analogical approach requires analogies between sentences in the source language contained in the knowledge database. We use sentence analogies extracted by parse trees to improve the overall quality of translation. We demonstrate that our method is more effective by comparing the translation quality to other baseline systems. Our method surpasses the results of a recurrent neural network (RNN) model and a phrasebased statistical machine translation (PB-SMT) system and even achieves comparable results to those of a Transformer model, without the need for a large-scale training model. \end{abstract ## 1 Introduction Distinguished from other techniques, EBMT is a method of machine translation in that translations take place by example. It employs a case-based reasoning strategy, where translations are generated by giving a set of sentences in the source language and other example sentences contained in the knowledge database. Analogy is a way to implement reasoning. An analogical equation $A: B:: C: D$ expresses a relationship between four objects that pronounces as the following: $A$ is to $B$ as $C$ is to $D$. Analogy has the ability to reason so that we can interpret words or sentences that we are not familiar with. An EBMT system by analogy has been proposed in [1, 2], which is called Beth. This system requires analogies between sentences to perform case-based reasoning. The existing technique ( $\lg ^{1)}$ [3]) extracts sentence analogies only on the formal level. In this work, we propose to extract  analogies at the syntactic level by using parse trees and use them in an EBMT system by analogy. Such analogies are shown to bring improvement. ## 2 Related Work ## 2.1 Types of Analogy Analogy is usually categorized as formal analogy and semantic analogy. For formal analogy, we do not consider the meaning of the terms or the syntax of the sentences. We only care about the surface form of the strings, such as characters or words. Take (1) as an example. $ \text { I talk to him. : } \begin{aligned} & \text { I talked } \\ & \text { to him. } \end{aligned}:: \text { I go to school. : x } $ On the level of form, the solution of (1) is: $x=I$ goed to school. On that level, the only changes allowed are between characters. Whether the sentence is grammatically correct or makes sense is not taken into account. In contrast to formal analogies, semantic analogies take into account the meaning encapsulated in the words or sentences. Thus, on the semantic level, the solution to (1) is $x=I$ went to school. Here, the meaning attached to the strings is taken into account. ## 2.2 EBMT by Analogy Formula (2) defines bilingual analogies between sentences in two languages, which are used by the EBMT system by analogy in [1]. $A: B:: C: D$ denotes a monolingual analogy in the source language and $A^{\prime}: B^{\prime}:: C^{\prime}: D^{\prime}$ is its corresponding translation in the target language. $ \begin{array}{ccccccc} A & : & B & :: & C & : & D \\ \uparrow & & \uparrow & & \uparrow & & \downarrow \\ A^{\prime} & : & B^{\prime} & :: & C^{\prime} & : & D^{\prime} \end{array} $ Suppose that we want to get the translation $D^{\prime}$ of $D$. During the reasoning process, the Beth system retrieves three (problem, solution) cases $\left(A, A^{\prime}\right),\left(B, B^{\prime}\right),\left(C, C^{\prime}\right)$ in which " $A$ is to $B$ as $C$ is to problem $D$ ". The solution of the analogical equation " $A$ ' is to $B^{\prime}$ as $C^{\prime}$ is to $x$ ", $x=D^{\prime}$, is the translation of $D$. It is clear from the above that the quality of analogies between sentences extracted from the corpus is critical for EBMT by analogy. ## 3 Analogy on the Level of Syntax In this work, we propose to extract analogy at the syntactic level. Figure 1 shows an example of an analogy between sentences that happens on the level of syntax. There is no obvious interpretation to enforce analogy on both the level of form and meaning attached to these sentences. However, we can observe that there is an analogy on the level of syntax by considering their syntactic representations. These sentences form an analogy at the syntactic level when looking at their parse trees ${ }^{2}$ : from personal pronoun (PRP) to proper noun (NNP). ## 3.1 Tree Representation To make the syntax of a sentence distinct, we first use dependency representation to discern essential information. All of the sentences contained in the corpus are converted into their dependency parse trees using the Universal Dependency parsers provided by spaCy ${ }^{3}$ library. A sentence $S$ is then represented by a feature vector $\overrightarrow{T_{S}}$ by counting the number of occurrences for all the branches found in its parse tree $T_{S}$. See Formula (3). $ \overrightarrow{T_{A}}=\left(\begin{array}{c} \left|T_{A}\right|_{V B D \rightarrow P R P} \\ \left|T_{A}\right|_{V B D \rightarrow N N P} \\ \vdots \\ \left|T_{A}\right|_{V B D \rightarrow .} \end{array}\right) $ ## 3.2 Ratios between Trees In Formula (4), the ratio between two sentences $A$ and $B$ is defined as the difference between their vectors of syntactic features derived from their parse trees $T_{A}$ and $T_{B}$. To extract analogies at the syntactic level, we check the conformity of an analogy $\quad A: B:: C: D$. Formula (5)  defines it. By doing this, we are able to extract sentence analogies from the corpus. $A: B \triangleq \overrightarrow{T_{A}}-\overrightarrow{T_{B}}=\left(\begin{array}{c}\left|T_{A}\right|_{V B D \rightarrow P R P}-\left|T_{B}\right|_{V B D \rightarrow P R P} \\ \left|T_{A}\right|_{V B D \rightarrow N N P}-\left|T_{B}\right|_{V B D \rightarrow N N P} \\ \vdots \\ \left|T_{A}\right|_{V B D \rightarrow .}-\left|T_{B}\right|_{V B D \rightarrow .}\end{array}\right)$ $ A: B:: C: D \quad \stackrel{\Delta}{\Longleftrightarrow} \overrightarrow{T_{A}}-\overrightarrow{T_{B}}=\overrightarrow{T_{C}}-\overrightarrow{T_{D}} $ ## 3.3 Analogical Cluster In [4], an analogical cluster is defined as a set of pairs of sentences with exactly the same ratio, as shown in Formula (6). With analogical cluster, we can measure how regular the transformations between sentences are. In particular, we use the nlg package to extract analogical clusters between sentences, at the level of syntax. $ \begin{aligned} A_{1} & : B_{1} \\ A_{2} & : B_{2} \\ & \vdots \\ A_{n} & : B_{n} \end{aligned} \stackrel{\Delta}{\Longleftrightarrow} \forall(i, j) \in\{1, \ldots, n\}^{2}, A_{i}: B_{i}:: A_{j}: B_{j} $ ## 4 Experiments ## 4.1 Datasets We use the English-French language pair from the Tatoeba ${ }^{4)}$ corpus and we perform translations from French to English. To simulate the low-resource setting, we use only 114,151 sentence pairs and randomly divide the entire data into three sets: training set ( $90 \%$ ), validation set ( $9 \%$ ), and test set (1\%). Some statistics are shown in Table 1. The sentences contained in the corpus are very short, with an average of 7 words per sentence. ## 4.2 Metrics We evaluate the translation quality automatically by comparing the output of the translation with the reference sentence in the test set. We apply four different metrics as follows. 4) https://tatoeba.org/ Figure 1 Analogy between sentences on the level of syntax using dependency representation Table 1 Statistics on the data set used BLEU (BiLingual Evaluation Understudy) [5] evaluates the similarity between the translated sentence and the reference sentence. It has a scale of 0 to 100 . The similarity between the two sentences increases with increasing BLEU scores. We use the implementation of SacreBLEU ${ }^{5)}$ in [6]. CHRF (Character $n$-gram F-score) [7] uses character $n$ gram F-score to automatically assess the result of machine translation. CHRF score is between 0 and 100. The quality of the translation will be better if it is higher. TER (Translation Error Rate) counts the number of edit operations required to convert the translated sentence into the reference one. We report TER scores between 0 and 100. The lower the number, the better. The Levenshtein Edit Distance ${ }^{6)}$ [8] counts the minimal number of three different edit operations (insertions, deletions and substitutions) between a translation result and a reference. Similarly, the lower, the better. ## 4.3 Baselines We assess the performance of the EBMT system by analogy by comparing the translation results to those of other systems. Here, we give a brief overview of the NMT and PB-SMT systems used for experimentation. We utilize the OpenNMT ${ }^{7)}$ toolkit [9] to build our NMT systems. We experiment with RNN [10] models and Transformer [11] models. Bidirectional RNN is used as an encoder to design the RNN system and both the encoder and the decoder are 6 layers in size. Also, we use a 4layer Transformer and follow the set-up recommendations in [11] to construct the Transformer system. The early stopping criteria are used for both RNN and Transformer 5) https://github.com/mjpost/sacrebleu 6) https://github.com/roy-ht/editdistance 7) https://opennmt.net/ models. These above-mentioned NMT systems are trained from scratch on the same training set that simulates a lowresource scenario. Our PB-SMT system is constructed using the Moses ${ }^{8)}$ toolkit [12]. We train a 3-gram language model with KenLM ${ }^{9)}$ [13] and smooth it with modified Kneser-Ney smoothing [14]. GIZA++ ${ }^{10)}$ included in Moses is applied as an alignment tool to generate bilingual phrase tables. Similar to NMT systems, the PB-SMT system is built using sentences from our training set and does not rely on any external data. ## 4.4 Using Analogies at the Level of Syntax in Example-Based Machine Translation by Analogy We examine whether analogical clusters extracted by syntactic information indeed increase the quality of machine translation by conducting experiments with the EBMT system by analogy proposed in [1]. The core idea of EBMT is that translation is carried out by comparing a given target sentence with the existing cases in the knowledge database. Analogies are used to perform the reasoning process in Beth (See Section 2.2). It is also possible to compile analogical clusters into the Beth system in advance. With the help of this retrieval knowledge, we can accelerate the selection of the most similar cases. Particularly, we first conduct experiments with the original Beth without using any analogical clusters. Then, we extract analogical clusters on two levels: (1) considering characters (char) only, (2) combining characters and parse trees (char $\cap$ tree) together. We can eliminate some ana-  Table 2 Translation results of different systems on the test set $(\mathrm{fr} \rightarrow \mathrm{en})$ logical clusters that are only character transformations by extracting them from the intersection of on the levels of characters and parse trees. We expect that involving linguistic information, such as parse trees, will improve case reliability. Notice that, we only keep the first 3,000 analogical clusters with the largest number of ratios due to the distribution of the number of analogical clusters with the same size. ## 4.5 Translation Quality Table 2 displays the results that we obtained with all the different systems mentioned above. The translation quality of the original Beth is already reasonable, with a BLEU score of 44.61. This BLEU score far outperforms RNN's 33.96 and PB-SMT's 39.96. It is worth mentioning that because this EBMT system requires no linguistic knowledge, it can be applied to any language pair. Furthermore, by adding analogies both on the level of syntax and form, we achieve a BLEU score of 53.55 in the EBMT system by analogy. The Transformer model has a BLEU score similar to our proposed method, but it has a lower TER and edit distance, implying a smaller gap between the translated sentence and the reference sentence. ## 4.6 Model Size vs. Translation Quality We also discuss the trade-off between model size and translation quality. We compute the number of parameters that are trainable in RNN and Transformer models. We calculate the size of the KenLM language model and generated phrase tables for the PB-SMT system. For the original Beth system, there is no need for extra data. In the experiments involving analogical clusters in advance as retrieval knowledge, we count the size of analogy clusters extracted from different levels. As shown in Figure 2, although the performance of a Transformer model slightly exceeds our proposal, the model size of a base Transformer is already 511 Mb. From this perspective, we can say that our EBMT by analogy is a lightweight approach that is more effective for low-resource machine translation. Figure 2 Model size and BLEU scores for different systems ## 5 Conclusion In this work, we worked on an approach to extract analogies between sentences at the syntactic level by using parse trees. We were able to extract sentence analogies both on the level of form and the level of syntax. We showed that using analogies at the syntactic level has a positive impact on the translation quality of an EBMT system by analogy. By contrasting the translation results with existing baselines, our approach outperformed an RNN model and a PB-SMT system by showing higher BLEU scores in a low-resource scenario. Although we got similar evaluation results to those of a Transformer model, our approach still has advantages in model size since we do not need pre-training of a large model. ## References [1] Yves Lepage and Jean Lieber. Case-based translation: First steps from a knowledge-light approach based on analogy to a knowledge-intensive one. In Case-Based Reasoning Research and Development - 26th International Conference, ICCBR 2018, Proceedings, pp. 563-579. Springer Verlag, 2018. [2] Yves Lepage and Jean Lieber. An approach to case-based reasoning based on local enrichment of the case base. In Case-Based Reasoning Research and Development - 27th International Conference, ICCBR 2019, Proceedings, pp. 235-250. Springer Verlag, 2019. [3] Rashel Fam and Yves Lepage. Tools for the production of analogical grids and a resource of n-gram analogical grids in 11 languages. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC 2018), Miyazaki, Japan, 2018. European Language Resources Association (ELRA). [4] Yves Lepage and Chooi Ling Goh. Towards automatic acquisition of linguistic features. In Proceedings of the 17th Nordic Conference of Computational Linguistics (NODALIDA 2009), pp. 118-125, Odense, Denmark, 2009. Northern European Association for Language Technology (NEALT). [5] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, Philadelphia, Pennsylvania, USA, 2002. Association for Computational Linguistics. [6] Matt Post. A call for clarity in reporting BLEU scores. In Proceedings of the Third Conference on Machine Translation: Research Papers, pp. 186-191, Brussels, Belgium, 2018. Association for Computational Linguistics. [7] Maja Popović. chrF: character n-gram F-score for automatic MT evaluation. In Proceedings of the Tenth Workshop on Statistical Machine Translation, pp. 392-395, Lisbon, Portugal, 2015. Association for Computational Linguistics. [8] V.I. Levenshtein. Binary codes capable of correcting deletions, insertions and reversals. Soviet Physics-doklady, Vol. 10, No. 8, pp. 707-710, February 1966. [9] Guillaume Klein, Yoon Kim, Yuntian Deng, Jean Senellart, and Alexander Rush. OpenNMT: Open-source toolkit for neural machine translation. In Proceedings of ACL 2017, System Demonstrations, pp. 67-72, Vancouver, Canada, July 2017. Association for Computational Linguistics. [10] Thang Luong, Hieu Pham, and Christopher D. Manning. Effective approaches to attention-based neural machine translation. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 1412-1421, Lisbon, Portugal, September 2015. Association for Computational Linguistics. [11] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, L ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in Neural Information Processing Systems, Vol. 30. Curran Associates, Inc., 2017. [12] Philipp Koehn, Hieu Hoang, Alexandra Birch, Chris Callison-Burch, Marcello Federico, Nicola Bertoldi, Brooke Cowan, Wade Shen, Christine Moran, Richard Zens, Chris Dyer, Ondřej Bojar, Alexandra Constantin, and Evan Herbst. Moses: Open source toolkit for statistical machine translation. In Proceedings of the 45th Annual Meeting of the Association for Computational Linguistics Companion Volume Proceedings of the Demo and Poster Sessions, pp. 177-180, Prague, Czech Republic, June 2007. Association for Computational Linguistics. [13] Kenneth Heafield, Ivan Pouzyrevsky, Jonathan H. Clark, and Philipp Koehn. Scalable modified Kneser-Ney language model estimation. In Proceedings of ACL 2013, pp. 690-696, Sofia, Bulgaria, August 2013. Association for Computational Linguistics. [14] R. Kneser and H. Ney. Improved backing-off for m-gram language modeling. In 1995 International Conference on Acoustics, Speech, and Signal Processing, Vol. 1, pp. 181-184 vol.1, 1995.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A8-5.pdf
# 言語横断検索とリランキングを用いる翻訳メモリ利用型 NMT 田村拓也 ${ }^{1}$ 王小天 ${ }^{1}$ 宇津呂武仁 ${ }^{1}$ 永田昌明 2 1 筑波大学大学院 システム情報工学研究群 ${ }^{2} \mathrm{NTT}$ コミュニケーション科学基礎研究所 ## 概要 Hossain らが提案した retrieve-edit-rerank [1] は,翻訳や要約において (1) 外部情報から類似事例を検索し,(2)ニューラルモデルにより出力文候補を生成, (3) 予め定義したリランキングスコアによって最良の出力文を自動選択する枠組みである。本論文では,この枠組みにおいて (1) LaBSE や mSBERT を用いて生成した言語に依らない文埋め込みに基づいて類似訳文を言語横断検索する手法と (3) 文長に対する正規化を行ったより良いリランキング手法を提案し,有意に翻訳精度の向上を達成した. ## 1 はじめに 近年,高品質な対訳文の集合である翻訳メモリを NMT に組み込む研究が多くなされている. Bult é ら [2] [3] は翻訳メモリを NMT に組み込むことで翻訳精度を向上させる NFR モデルを提案した. このモデルは, 編集距離や sent2vec [4] に基づいて翻訳メモリの原言語文集合から類似文を検索し,類似訳文を入力原言語文と連結して NMT モデルへの入力とする. このモデルは,NMT モデルへの入力を前処理するだけで良いため,モデルのアーキテクチャを変更せずに翻訳メモリを組み込むことができる。ゆえに,既存のあらゆる NMT モデルとの互換性が高く,実装面での移植性も高い。一方で,この手法では対訳の揃った翻訳メモリを対象に検索せねばならず,目的言語文のみで構成された大規模単言語コー パス (単言語翻訳メモリ)だけでは活用できない。また, 入力文長の制約から,これらの手法で利用可能な類似訳文の数は高々数文に限られるため,有益な類似訳文がいくら得られたとしてもそれら全てを活用することはできない. この制約を克服するため,Cai ら [5] は目的言語の単言語翻訳メモリを利用する手法を提案した.ここでは,Transformer Encoder に基づく検索モデルを提案し, MIPS (Maximum Inner Product Search) によって類似訳文検索を行う.ただし,検索モデルと翻訳モ デルは同時に訓練される必要があるため独自のアー キテクチャを必要とし,NFR の利点である既存の NMT モデルへの互換性が大幅に低下する。 また, Hossain ら [1] は, 多数の類似文を活用する手法として retrieve-edit-rerank の枠組みを提案した. 彼らは,(1) 複数の相異なる類似文を検索して, (2) 異なる複数の出力文候補を生成し,(3) 対数尤度に基づいてリランキングを行う手法を提案した。本論文では,この retrieve-edit-rerankの枠組みを踏襲し, 中でも (1) および (3) に着目して研究を行った. (1) では,言語に依らない文埋め込みを生成する事前学習済みモデル mSBERT・LaBSE を用いて目的言語文集合を対象に言語横断検索を行う手法を提案し,(3) リランキングフェーズでは,文長に対する正規化を行ったより良いランキング手法を提案する。 提案法の評価にあたり, ASPEC [6] 英日コーパス, および,EU Bookshop Corpus [7] の英仏コーパスを利用した。その結果,文埋め込みに基づく検索手法を用いた場合は,編集距離で検索する場合に対して有意に BLEU を向上させた.また,異なる類似訳文を用いて生成された異なる出力文候補のリランキングにおいても提案法は既存手法を大幅に上回った. ## 2 類似訳文検索 (Retrieve) ## 2.1 翻訳メモリからの類似文検索 翻訳メモリ (TM) は,あらかじめ人手で翻訳された高品質な対訳文の集合である。過去には, Computer-Aided Translation (CAT) など,人手翻訳を補助するツールとして活用され,近年ではニューラル機械翻訳(NMT)へ組み込むことが研究されている。翻訳メモリを用いると,翻訳したい原言語文が既に翻訳に格納された文である場合に,その訳文に置き換えるだけで誤りなく翻訳することができる. また,完全に一致した文が存在せずとも類似度がある程度高ければ,その訳文は翻訳時に参考になる可能性がある。ここで,入力原言語文に類似した原言語文を「類似文」,それに類似した目的言語文を「類 図 1: Retrieve-Edit-Rerank における推論の枠組み 似訳文」と定義する。このとき,原言語文と類似した目的言語文を直接検索することができれば,類似訳文の情報源として原言語-目的言語間の対訳文の揃っている翻訳メモリだけでなく,目的言語文のみで構成された単言語翻訳メモリが利用できる。以後,本論文では,翻訳メモリを原言語文 $s$ と目的言語文 $t$ のペアの集合とし, $S_{\text {para }}$ を入力原言語文の集合, $T_{\text {para }}$ を目的言語文の集合とする.また,目的言語の単言語翻訳メモリを $T_{\text {mono }}$ と表記する. ## 2.2 編集距離に基づく類似度尺度 編集距離は,1 文字の挿入,削除,置換によって元の文字列を別の文字列に変換するために必要な最小の操作回数と定義される. 本論文では, Bult é らの手法に倣って,Vanallemeersch らの [8] の類似度を採用した。 $ \operatorname{sim}(x, y)=1-\frac{\Delta_{e d}(x, y)}{\max \left(|x|_{c},|y|_{c}\right)} $ ここで, $\Delta_{e d}(x, y)$ は $x$ と $y$ の間の編集距離を, $|x|_{c}$ は $x$ の文字数を表す.また,編集距離は同じ言語文のみでしか計算できないことから,類似文検索を行う場合の検索対象は $S_{\text {para }}$ に限られる。そのため,検索された類似原言語文の訳文を類似訳文とする。 また,編集距離による類似文検索を行う場合には総当たりで類似度を算出し比較する必要があるため,大規模な翻訳メモリに対する計算コストが著しく大きい. そこで Bult é ら [2] は, Python ライブラリ SetSimilaritySearch ${ }^{1)}$ が提供する類似度尺度 containment $_{\text {max }}$ を用いて検索された類似文候補集合に対して編集距離を算出する手法を採用した ( $s s s+e d)$. 1) https://github.com/ardate/SetSimilaritySearch ## 2.3 文埋め込みに基づく類似度尺度 本節では,文埋め込みに基づく文の類似度尺度について述べる. 文埋め込みは文を高次元の実数ベクトルに写像したもので,文書分類や感情分析,対訳文検索に用いられる.以後,文 $x$ を文埋め込みへ変換したものを $E(x)$ と表記する。本論文では,文埋め込み生成モデルとして,Multilingual Sentence-BERT ${ }^{23)}$ [9] [10],および,LaBSE [11]を利用した. Multilingual SBERT は, NLI データセットで訓練しSTS タスクで高い精度を達成した英語版 SBERTを知識蒸留により多言語化したもので,言語に依らない文埋め込みを生成できる。LaBSE は,対訳文を用いて対照学習された多言語文埋め込み生成モデルであり,対訳文検索を行う BUCC タスクで高い精度を達成した。ここで,2文 $x$ と $y$ の間の類似度 $\operatorname{sim}$ を以下のように定義する。 $ \operatorname{sim}(x, y)=\frac{E(x) \cdot E(y)}{|E(x)||E(y)|} $ 本論文では,入力原言語文 $s$ を文埋め込み生成モデルにより変換して得られた文埋め込み $E(s)$ をクエリとして, $T_{\text {para }} \cup T_{\text {mono }}$ を対象にベクトルの近傍探索を行い, $k$ 文の類似訳文 $t_{1}^{\prime}, t_{2}^{\prime}, \ldots, t_{k}^{\prime}$ を抽出した。なお,ベクトルの近傍探索には FAISS [12]を利用した. ## 3 翻訳モデルによる生成 (Edit) 2) https://github.com/UKPLab/sentence-transformers 3)本論文の実装では mSBERT の事前学習済みモデルとして, paraphrase-multilingual-mpnet-base-v2 を利用した. ## 3.1 翻訳モデルの訓練 翻訳モデルの訓練では Blut é ら [2] [3] と同様の手順で実施した. 具体的には,まず入力原言語文 $s$ をクエリとして,編集距離または文埋め込みによって翻訳メモリ内から $k_{t}$ 文の類似訳文 $t_{1}^{\prime}, \ldots, t_{k_{t}}^{\prime}$ を検索する. その後, NFR モデルと同様に特殊トークン “<sep>”を挟んで $s$ と $t_{i}^{\prime}$ を連結し,翻訳モデルへの入力とする. ## 3.2 翻訳モデルの推論 モデルの推論手順を図 1 亿示す.まず,入力原言語文 $s$ をエリとし, 訓練時と同様の手順で $k_{p}$ 文の類似訳文 $t_{1}^{\prime}, t_{2}^{\prime}, \ldots, t_{k_{p}}^{\prime}$ を検索する。次に,翻訳モデルを用いて $k_{p}$ 回のデコーディングを行い $k_{p}$ 文の出力文 $o_{i}$ とデコーダの出力確率 $p_{M T}$ に基づくリランキングスコア $Q_{i}$ を得る. このリランキングスコアについては,4節にて詳説する。 ## 4 出力文のリランキング (Rerank) 最後のフェーズでは,生成フェーズで得られたリランキングスコア $Q_{i}$ を最大化するような $i=i$ を選択し, 最終的な出力文 $o_{i^{*}}$ とする. ここで, 本論文では 2 通りのリランキングスコアを検討した. 1 つ目は Hossain ら [1] と同様の手法で, 対数尤度に基づくスコアである. $ Q_{i}^{(\text {Hossain })}=\log _{2} p_{M T}\left(o_{i} \mid s, t_{i}^{\prime}\right) $ 2つ目は,文長による正規化を行った平均対数尤度に基づくランキング手法である. ここで,出力文 $o_{i}$ の文長として,サブワード化された出力を一度復元してから単語数をカウントすることとし, 以下では $\left|\operatorname{deSW}\left(o_{i}\right)\right|$ と表記する. $ Q_{i}^{\text {(proposed) }}=\frac{\log _{2} p_{M T}\left(o_{i} \mid s, t_{i}^{\prime}\right)}{\left|\operatorname{deSW}\left(o_{i}\right)\right|} $ ## 5 実験 ## 5.1 データセット 本論文では,提案法の評価のためにアジア学術論文英日コーパス ASPEC [6], 欧州の諸機関からの出版物を元に作成された EU Bookshop Corpus [7] (以後 EUBC と表記) のうち英仏コーパスを利用し,翻訳方向はそれぞれ英日・英仏とした. 翻訳モデルの訓練文には,各コーパスからランダムサンプリングされた 10 万文対のみ利用し,残りについては単言語翻訳メモリとした。表 1 に,データセットの詳細な文数を示す。また,和文に対しては $\left.\mathrm{MeCab}^{4}\right)$ を,英文・仏文に対しては Moses tokenizer ${ }^{5)}$ を用いてトー クナイズしたのち,Byte Pair Encoding (BPE) ${ }^{6)}$ [13] を用いて,操作数 32,000 でサブワードに分解した. ## 5.2 実験設定 類似訳文の検索では, 編集距離 (sss+ed), mSBERT, LaBSE の 3 通りを比較した.このうち, sss+ed は同言語間でしか類似訳文を検索できないため,検索対象は訓練文の原言語文 10 万文に限られる。一方で, mSBERT,LaBSE は目的言語文を直接言語横断検索できるため検索対象は ASPEC で 200 万文,EUBC で 842 万文となる。訓練時には,類似文検索を行わない通常の手法(検索なし)と,最大 4 文の類似訳文を利用する手法 (top1~top4) を比較した. 推論時には,類似文を利用しない手法(類似文なし),才リジナルの NFR と同様の上位 1 文の類似訳文のみ ランキングする手法,提案法である $Q^{\text {(proposed) }}$ に基づく手法を比較した.このうち sss+ed を一つ目のベースラインとし,各検索手法において $Q^{\text {(Hossain) }}$基づいてリランキングする手法を二つ目のベースラインとする。また,リランキングによる翻訳精度向上の上限を評価するため,各出力文候補の中で Sentence-BLEU が最も高い文を選択するオラクルについても評価した.実験にあたっては PyTorch 実装の Transformer モデルを採用した. エンコーダとデコーダは各 6 層とし, 隠れ次元は 512 次元, $\mathrm{FF}$ 層の次元は 2048 次元,マルチヘッド数は 8 とした.また,バッチサイズは 96 文,ウォームアップ 6,000 ステップのもとで 30 エポックの訓練を行い,開発文の BLEU が最も高いエポックにおけるテスト文の BLEUを採用した.  表 2: 各リランキング手法における翻訳モデルの実験結果 (訓練時に利用する類似訳文数は $k_{t}=2$.「検索なし」は類似訳文を利用しない vanilla Transformer の結果を,「 $\left.k_{p}=1\right.\rfloor$ は NFR と同様に最も類似度の高い類似訳文を利用した場合 による結果を示す。†は「 $k_{p}=1$ (ベースライン 1 )」に対する有意差 $(\mathrm{p}<0.05)$ を, ${ }^{\ddagger}$ は $Q^{\text {(Hossain) }}$ (ベースライン 2 )」に対する有意差 ( $\mathrm{p}<0.05$ )を示す.) 表 3: 各検索手法における実験結果 (「類似訳文なし」類似訳文を利用しない vanilla Transformerを,sss+ed は NFR と同様に編集距離に基づく手法を示す.†は す. ) & & \\ (ベースライン 1) & 2 & 26.2 & 19.5 \\ & 3 & 26.1 & 18.3 \\ & 4 & 25.7 & 16.4 \\ & 2 & 26.5 & 20.8 \\ & 3 & 26.4 & 19.9 \\ & 4 & 26.2 & 19.0 \\ & 2 & $\mathbf{2 7 . 1}^{\dagger}$ & $\mathbf{2 1 . 0 ^ { \dagger }}$ \\ & 3 & 26.5 & 20.4 \\ & 4 & 26.3 & 19.3 ## 6 実験結果 各検索手法を用いて類似訳文を検索し,翻訳もデルを訓練した場合の結果を表 3 に示す. ただし,訓練時に利用する類似訳文数を $k_{t}=1,2,3,4$ とし,推論時に利用する類似訳文数を $k_{p}=1$ とした. 類似文検索を行わない場合は, ASPEC・EUBC それぞれ 26.2 ポイント・ 20.2 ポイントであったのに対し, sss+ed ではそれぞれ最大 $26.4 \cdot 20.2$ ポイントと有意な BLEU の向上は見られなかった. 一方で, mSBERT ではそれぞれ最大 26.5 ポイント・ 20.8 ポイントと有意差はないものの BLEU が向上したものが多く, LaBSE では最大 27.1 ポイント・ 21.0 ポイントと sss+ed に対して有意に高い BLEUが得られた. 特に, mSBERT,LaBSE ともに上位 2 文を利用する場合に最も高い BLEU が得られ,上位 3 文以上を利用すると逆に精度が低下することが確認できる. 次に, retrieve-edit-rerank の枠組みに倣ってリランキングを行った場合の結果を表 2 に示す。まず, $Q^{\text {(Hossain) }}$ によるリランキング手法に着目すると,いずれも有意な BLEU の向上は得られなかった. 特に,EUBC において mSBERT やLaBSE を利用する場合有意に BLEU が低下する。一方で, $Q^{\text {(proposed) }}$ によるリランキング手法では, sss+ed では有意な BLEU 向上が得られないものの, mSBERT やLaBSE を利用する場合は多くの事例で有意に BLEU が向上した.また, Sentence-BLEU が最大の文を取り出するオラクルはリランキングの上限値を示しているが, sss+ed は mSBERT やLaBSE に比べ低く, さらなる改善の余地が小さいことを示唆する. ## 7 おわりに 本論文では, retrieve-edit-rerank の枠組みのもとで,文埋め込みによる類似訳文の言語横断検索の活用と,文長に対する正規化を行ったより良いランキング手法を提案した. 先行研究で利用された編集距離による類似訳文の検索手法よりも, mSBERT や LaBSE といった言語に依存しない文埋め込み生成モデルを用いたべクトルの近傍探索による検索が翻訳精度の向上に貢献することを示した. また,複数の相異なる類似訳文を利用して複数の訳文候補を生成しリランキングによって最良訳自動選択を行う際, サブワード化を復元した文の長さに対する正規化を行うことにより大幅な翻訳精度の向上を達成した。 ## 参考文献 [1] N. Hossain, M. Ghazvininejad, and L. Zettlemoyer. Simple and effective retrieve-edit-rerank text generation. In Proc. 58th ACL, pp. 2532-2538, 2020. [2] B. Bulté and A. Tezcan. Neural fuzzy repair: Integrating fuzzy matches into neural machine translation. In Proc. 57th ACL, pp. 1800-1809, 2019. [3] A. Tezcan, B. Bulté, and B. Vanroy. Towards a better integration of fuzzy matches in neural machine translation through data augmentation. Informatics, Vol. 8, No. 1, 2021. [4] M. Pagliardini, P. Gupta, and M. Jaggi. Unsupervised learning of sentence embeddings using compositional $n$ gram features. In Proc NAACL HLT 2018, pp. 528-540, 2018. [5] D. Cai, Y. Wang, H. Li, W. Lam, and L. Liu. Neural machine translation with monolingual translation memory. In Proc. 59th ACL and 11th IJCNLP, pp. 7307-7318, 2021. [6] T. Nakazawa, M. Yaguchi, K. Uchimoto, M. Utiyama, E. Sumita, S. Kurohashi, and H. Isahara. ASPEC: Asian scientific paper excerpt corpus. In Proc. 10th LREC'16, pp. 2204-2208, 2016. [7] R. Skadiňš, J. Tiedemann, R. Rozis, and D. Deksne. Billions of parallel words for free: Building and using the EU bookshop corpus. In Proc. 9th LREC, pp. 1850-1855, 2014. [8] T. Vanallemeersch and V. Vandeghinste. Assessing linguistically aware fuzzy matching in translation memories. In Proc. 18th EAMT, pp. 153-160, 2015. [9] N. Reimers and I. Gurevych. Sentence-BERT: Sentence embeddings using Siamese BERT-networks. In Proc EMNLP-IJCNLP 2019, pp. 3982-3992, 2019. [10] N. Reimers and I. Gurevych. Making monolingual sentence embeddings multilingual using knowledge distillation. In Proc. 16th EMNLP, pp. 4512-4525, 2020. [11] F. Feng, Y. Yang, D. Cer, N. Arivazhagan, and W. Wang. Language-agnostic BERT sentence embedding. In Proc. 60th ACL, pp. 878-891, 2022. [12] J. Johnson, M. Douze, and H. Jégou. Billion-scale similarity search with gpus. CoRR, Vol. abs/1702.08734, , 2017. [13] R. Sennrich, B. Haddow, and A. Birch. Neural machine translation of rare words with subword units. In Proc. 54th ACL, pp. 1715-1725, 2016. ## A リランキング時に用いる類似訳文数 $k_{p$ の影響} (a) $\operatorname{ASPEC}(\mathrm{En} \rightarrow \mathrm{Ja})$ (b) $\mathrm{EBCU}(\mathrm{En} \rightarrow \mathrm{Fr})$ 図 2: リランキング時に用いる類似訳文数 $k_{p}$ を変化させた際のリランキング後の BLEU ## B 具体例 表 4 亿,ASPEC を用いた評価実験の結果の具体例を示す。この事例は,マウスの小腸におけるグルコースの吸収について述べた文である。表内の「類似訳文」には各検索手法とリランキング手法によって得られた最も良い類似訳文を示し,「出力文」には翻訳モデルによる出力結果を示す。その文に対する Sentence-BLEU をそれぞれ算出した,sssted によって検索された類似訳文纪着目すると,まず top1 の類似訳文は生物分野の 情報は少ない。一方で,LaBSE によって検索された類似訳文に着目すると,top1の類似訳文でも「グルコー 表 4: ASPEC を用いた評価実験の結果の具体例 } \\
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A9-1.pdf
# マルチヘッドニューラル N-gram による自己注意機構の代替 Mengsay Loem 高瀬 翔* 金子正弘岡崎 直観 東京工業大学情報理工学院 \{mengsay.loem, masahiro.kaneko\}[at]nlp.c.titech.ac.jp, sho.takase[at]linecorp.com, okazaki[at]c.titech.ac.jp ## 概要 Transformer の優れた性能は,入力系列内の全てのトークン間の依存関係を考慮する自己注意によるものであると考えられている。しかし,全ての依存関係を考慮する必要があるかは疑問が残る. 本研究では,全トークン間の依存関係を考えるのではなく,各トークンの周辺のトークンのみを用いたニューラル N-gram モデルに着目し,マルチヘッド機構による改良を施したマルチヘッドニューラル N-gram モデル(multiNN)を提案する。系列変換タスクの実験を通して,提案手法は Transformer に匹敵する性能を示すことを報告する.また,様々な分析の結果から,マルチヘッドニューラル N-gram は自己注意とは異なる優位性があり,両者を組み合せることにより,Transformerを上回る性能を達成することも報告する. ## 1 はじめに Vaswani ら [1] が Transformerを提案して以来, Transformerとその亜種のアーキテクチャは,機械翻訳, 自動要約, 画像認識, 音声認識などの様々な夕スクに適用されてきた $[1,2,3,4]$. Transformer の主要なモジュールは自己注意(Self-attention)である.自己注意は,系列の各位置の入力を処理する際,全ての位置間の依存関係に基づいて出力を計算する。具体的には, 入力系列の特徴表現 $x_{1}, \ldots, x_{L}$ が与えられたとき,位置 $t$ における出力は $x_{t}$ と $x_{1}, \ldots, x_{L}$ 間の注意重みによる重み付き和により計算される. 例えば, 入力文 we focus on neighbor tokens に対し,on の第 1 層の出力を計算するとき, 図 1 (a) のように他の全ての位置の入力を用いる. しかし,各位置において全ての入力との依存関係を考慮する必要があるのだろうか? 実際,自己注意は処理しているトークンの周辺のトークンのみに  (a) 自己注意 (b) 局所注意 $(\mathrm{N}=3)$ 図 1 自己注意と局所注意の違い。自己注意はすべての入力の特徴表現を用いて次の層の特徴表現を計算するが,局所注意は周辺 $N$ 個(この図では $N=3 )$ の特徴表現のみを用いる。 図 2 WMT 英独データセットの検証データにおける各層の自己注意の重み分布を処理している位置からの相対位置でプロットしたもの. WMT データセットで学習した 6 層の Transformer のエンコーダ側を使用した。 大きな注意重みを割り当てる傾向があることが経験的に知られている。例として,図 2 に機械翻訳タスクで用いられる系列変換モデルのエンコーダ側の各層の自己注意の注意重み分布を示した。この図から, 着目している位置の周辺の数トークンに大きな重みが割り当てられていることが分かる.また,近年の研究では,自己注意で行われる入力間の依存関係の計算において,処理している位置の周囲の $N$ 個のトークンのみに制限した局所注意の成功が報告さ (a) エンコーダ側のmultiNN (b)デコーダ側のmultiNN図 3 エンコーダ側とデコーダ側におけるマルチヘッドニューラル N-gram のアーキテクチャ れている [5, 6]. 図 1 (b) に, $N=3$ の場合の局所注意の例を示した。 ある位置の周辺の入力に着目する手法として, N-gram ベースのモデルがよく用いられている. Sun ら [7] は,残差結合 [8] などの最新の手法を導入することにより,ニューラル N-gram 言語モデル [9] の性能を著しく向上させた.Sun らの手法は,従来のニューラル N-gram モデルより優れているが, Transformer を上回ることはできなかった. それでは,N-gram ベースのアプローチで自己注意よりも優れた性能を示すモデルを作ることは本当に不可能なのであろうか? 本研究では,Transformer [1] の自己注意で用いられているマルチヘッド機構を導入することにより, ニューラル N-gram モデル [7] を改良する手法を提案する。この改良手法をマルチヘッドニューラル $\mathrm{N}$-gram (multiNN: Multi-head Neural N-gram) と呼ぶ. この改良手法の性能を調べるため,Transformer の自己注意を提案手法の multiNNに置き換え,既存の Transformer との性能比較を行う。機械翻訳 (4 節),自動要約(付録 $\mathrm{A}$ ),音声認識(付録 B)を含む様々な系列変換タスクにおいて実験を行ったところ,提案手法の multiNN は自己注意と同等かそれ以上の性能を達成することが示された。また,multiNNに関する分析を通して,既存の Transformer の代替となるアーキテクチャを模索するために有用な知見が得られた(5 節)。 ## 2 マルチヘッド自己注意 マルチヘッド自己注意は,広く使われている Transformer のコア・モジュールである. マルチヘッド自己注意は,入力系列の全体に対する注意関数で入力間の依存関係を捉える。また,マルチヘッド自己注意は,単一の注意関数を用いるのではなく,異なる線形写像で変換された入力の特徴表現に対し,複数の注意関数を適用する.具体的には,長さ $L$ の $D$ 次元の入力の特徴表現の列を $x_{1}, \ldots, x_{L} \in \mathbb{R}^{D}$ に対し, $K$ 個のへッドからなる注意機構は位置 $t$ における出力 $z_{t} \in \mathbb{R}^{D}$ を次式で計算する([$\cdot$; $\cdot$] はベクトルの連結, $k \in\{1, \ldots, K\}$ である). $ \begin{aligned} z_{t} & =\left[h_{t}^{(1)} ; \ldots ; h_{t}^{(K)}\right] W \\ h_{t}^{(k)} & =\sum_{i=1}^{L} \alpha_{t i}^{(k)} x_{i}^{(k)} \\ x_{i}^{(k)} & =x_{i} W_{v}^{(k)} \end{aligned} $ ここで, $W \in \mathbb{R}^{K d \times D}, W_{v}^{(k)} \in \mathbb{R}^{D \times d}$ は線形写像の重み行列である ( $d$ は各へッドに写像された特徴表現 $x_{i}^{(k)}$ の次元数であり, 通常は $d=D / K$ である). また, ヘッド $k$ における注意重み $\alpha_{t i}^{(k)} \in \mathbb{R}$ は入力の位置 $t$ と $i$ の間のスケーリングされた内積である [1]. 式 (2)は, 線形写像された入力表現 $x_{1}^{(k)}, \ldots, x_{L}^{(k)}$ に対し, 注意関数を適用して各へッドの出力 $h_{t}^{(k)}$ を計算する。そして,式 (1) で,全ヘッドの出力 $h_{t}^{(1)}, \ldots, h_{t}^{(K)}$ を連結し, 線形写像 $W$ を適用することにより,マルチヘッド自己注意の出力 $z_{t}$ を得る. ## 3 マルチヘッドニューラル N-gram 本研究では,ニューラル N-gram 言語モデルのアーキテクチャを踏襲しつつ,Transformer のマルチヘッド自己注意と同様にマルチヘッド機構を導入し,ニューラル N-gram モデルを改良する.マルチヘッドニューラル N-gram(multiNN)は,入力系列の各位置において,その位置のトークンの特徴表現とその周囲の $N$ 個のトークンの特徴表現を連結したものを入力として受け取る。連結された特徴表現は, 図 3 のように複数の線形写像を独立に適用する. 具体的には, $D$ 次元の特徵表現 $x_{1}, \ldots, x_{L}$ の系列が与えられた際,エンコーダ側で $K$ 個のへッドを持 $\supset$ multiNN は,位置 $t$ の出力の特徴表現 $z_{t}$ を,以下 の式で計算する. $ \begin{aligned} z_{t} & =\left[h_{t}^{(1)} ; \ldots ; h_{t}^{(K)}\right] W \\ h_{t}^{(k)} & =\operatorname{ReLU}\left(\left[x_{t-n+1}^{(k)} ; \ldots ; x_{t+n-1}^{(k)}\right] W^{(k)}\right) \\ x_{t}^{(k)} & =x_{t} W_{x}^{(k)} \end{aligned} $ ここで, $W \in \mathbb{R}^{K d \times D}, W^{(k)} \in \mathbb{R}^{(2 n-1) d \times D}$ と $W_{x}^{(k)} \in$ $\mathbb{R}^{D \times d}$ は線形写像の重み行列である. multiNN の各ヘッド $k$ で使われる入力表現は, 式 (6) の異なる重み行列 $W_{x}^{(k)}$ で線形写像される. 式 (5) で $n$ 個の周辺の入力表現を連結し, 線形写像 $W^{(k)}$ と活性化関数 ReLUを適用することで各へッドにおける位置 $t$ の出力 $h_{t}^{(k)}$ を計算する. 最後に, 式 (4) で全 $K$ 個のヘッドの出力 $h_{t}^{(1)}, \ldots, h_{t}^{(K)}$ を連結し, 線形写像 $W$ を施すことで,位置 $t$ における multiNN の出力 $z_{t}$ を計算する. multiNN では $n$ トークン以上離れた距離にある依存関係を考慮することができない。この弱点を緩和するため, 入力系列を各ヘッド $k$ に写像した後の全特徴表現に最大值プーリングを適用し, グローバルな特徴表現 $ x_{\text {global }}^{(k)}=\max \left(x_{1}^{(k)}, \ldots, x_{L}^{(k)}\right) $ を計算したのち,式 (5)を次式で置き換える選択肢も検討する. $ h_{t}^{(k)}=\operatorname{ReLU}\left(\left[x_{t-n+1}^{(k)} ; \ldots ; x_{t+n-1}^{(k)} ; x_{\text {global }}^{(k)}\right] W^{(k)}\right) $ このとき, 重み行列 $W^{(k)}$ のサイズを $W^{(k)} \in \mathbb{R}^{2 n d \times D}$ に変更する。 なお,系列変換モデルのデコーダ側に multiNNを採用するときは,マスク付き自己注意のアイディアと同様に, 着目している位置 $t$ の左側の特徴表現 $x_{t-n+1}^{(k)}, \ldots, x_{t}^{(k)}$ のみを用いることとし, 右側(将来) の特徴表現は参照しないこととする。 ## 4 実験 ## 4.1 設定 multiNN の性能を評価するために,WMT の英語—ドイツ語と IWSLT ドイツ語—英語の 2 つの機械翻訳ベンチマークで実験を行った.WMT では, Vaswani ら [1] の実験と同様に 450 万文のペアを含む WMT データセットを使用した. 検証セットとテストセットとして, newstest2013 と newstest2014をそれぞれ使用した. IWSLT では, Cettolo ら [10] と同様に, 16 万文ぺアが含まれるデータセットを使用した. 各データセットの語彙の構築には,ソー表 1 機械翻訳タスクの BLEU スコア 表 2 WMT の検証セットにおけるベースライン手法の性能および multiNN モデルのアブレーション結果 ス側とターゲット側で語彙を共有する Byte Pairing Encoding [11]を用いた. 語彙のサイズは WMT で 32K,IWSLT で 10K に設定した. ベースライン手法として, Transformer-base [1]を採用し,マルチヘッド自己注意を multiNN に置き換えた場合の性能を比較した。また,その他のベースライン手法として,提案手法の multiNN と同様に周囲の $N$ 表現のみを使用した局所注意 $[5,6]$ とも性能の比較を行った. ## 4.2 結果 機械翻訳タスクの結果を表 1 に示した. 各手法のランダムシードを変化させ,3回の実行結果の平均スコアと分散を報告した. WMT と IWSL の両方のデータセットでは, multiNN が自己注意と同等の BLEU スコアを達成した.この結果から, multiNN は,すべての入力表現の位置依存関係を考慮することなく, 注意機構に基づく手法と同等の性能が達成する能力があることが推測される. この結果は, multiNN は単純なアーキテクチャを採用し,扱える文脈の範囲を近傍のトークンに限定したにも関わらず,注意機構に匹敵する能力を有することを示唆している。また, multiNN は両方のデータセットで局所注意を 0.40 ポイント以上上回る性能を示した. ## 5 分析 ## 5.1 各構成要素の貢献 ここでは,ニューラル N-gram ベースのモデルに関する知見を得るために, multiNN における各構成要素の貢献度合いを調査した. この実験では, 全て のモデルがほぼ同じパラメータ数になるようにして,モデル間の性能を比較した。 まず,マルチヘッド機構の効果について議論したい. 表 2 の「multiNN」と「-マルチヘッド」の比較から分かるように,マルチヘッド機構を用いない N-gram モデルでは, BLEU スコアが 0.67 ポイントも低下した。このことから,ニューラル N-gram ベー スの手法の性能向上において,本稿で提案したマルチヘッド機構が効果的であることが示唆される. 続いて,エンコーダ側のグローバル特徴表現の効果について議論したい. 表 $2 「$ multiNN」と「-グローバル」の比較から, multiNN からグローバル特徵表現を取り除くと,モデルの性能は低下するものの,その低下は僅かであった.したがって,グロー バル特徴表現も multiNN モデルの性能向上に貢献しているものの,マルチヘッド機構の方がより効果が大きいと推察される. ## 5.2 multiNN と自己注意との組合せ Sun ら [7] はニューラルNグラムモデルと自己注意を組み合わせた場合の実験結果を報告していた。本稿でもそれに倣い,multiNN と自己注意を組合せたモデルでの実験結果を報告する. multiNN と自己注意は,入力間の異なる種類の依存関係を捉えると考えられるため,エンコーダとデコーダの両方で性能の向上が期待できる. 本研究では,各層で両者を組み合わせた場合と, エンコーダ側およびデコーダ側で両者を切り替えて用いた場合の二種類の実験を行った. 図 4 に,自己注意を持つ 6 層の Transformer の下位の層から,自己注意をグローバル特徴表現を用いない multiNN に置き換えたときの,WMT データセットの検証セットにおける性能を示した. 図 4 に示すように,下位から 3 層までに multiNNを用いることにより,既存の Transformer に比べて BLEU スコアを最大 0.50 ポイント改善できることが分かった. ところが,この改善効果は multiNn をさらに上の層まで置き換えてしまうと,減少してしまった.この結果から,Transformer の下位の層において狭い文脈に着目するように誘導することが重要であると考えられる。 WMT の検証セットにおいて,エンコーダ側とデコーダ側で multiNN と自己注意を切り替えた場合の実験結果を表 3 に示した. デコーダ側の自己注意を multiNN に置き換えると,元々の Transformer よりも 図 4 multiNn と自己注意の層別組合わせ. 表 3 エンコーダ側とデコーダ側における multiNN と自己注意の組合せ 高い性能を示すことが分かった。一方で,エンコー タ側の自己注意を multiNNに置き換えると,元々の Transformer よりもわずかに性能が低下する.以上の結果から,この機械翻訳タスクにおいてはエンコー ダ側で長距離の依存を考慮できるようにしておき, デコーダ側では短距離の依存関係を考慮するように誘導する方が有利であることが示唆される。このように,multiNNは自己注意とは異なる効果を持っており,これらを併用することでタスクの性能を改善できる可能性がある。 ## 6 おわりに 本研究では,入力の全体ではなく周辺の特徴表現のみを用いたニューラル N-gram ベースモデルが自己注意の代替になり得るかという問いを探求した。 その問いを検証するため,ニューラル $\mathrm{N}$-gram モデルを改良し,マルチヘッド機構を導入した multiNN を提案した。文脈の範囲を高々前後 $n$ トークンに限定したにも関わらず,系列変換タスクにおいて, multiNN が自己注意や局所注意などの既存手法と同等かそれ以上の性能を示すことを実証した。また, multiNN と自己注意を組み合わせることより,既存の Transformer を上回る性能を発揮し得ることも報告した. 今後の課題として,深いモデルや事前学習での性能を検証することで,multiNN のスケーラビリティを評価することを予定する。 謝辞本研究成果は,国立研究開発法人情報通信研究機構 (NICT) の委託研究「自動翻訳の精度向上のためのマルチモーダル情報の外部制御可能なモデリングの研究開発」(課題 225)により得られたものです. ## 参考文献 [1] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, L ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in Neural Information Processing Systems, 2017 . [2] Sho Takase and Naoaki Okazaki. Positional encoding to control output sequence length. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 3999-4004, 2019 [3] Alexey Dosovitskiy, Lucas Beyer, Alexander Kolesnikov, Dirk Weissenborn, Xiaohua Zhai, Thomas Unterthiner, Mostafa Dehghani, Matthias Minderer, Georg Heigold, Sylvain Gelly, Jakob Uszkoreit, and Neil Houlsby. An image is worth $16 x 16$ words: Transformers for image recognition at scale. In International Conference on Learning Representations, 2021. [4] Linhao Dong, Shuang Xu, and Bo Xu. Speech-transformer: A no-recurrence sequence-to-sequence model for speech recognition. In 2018 IEEE International Conference on Acoustics, Speech and Signal Processing, pp. 58845888, 2018. [5] Rewon Child, Scott Gray, Alec Radford, and Ilya Sutskever. Generating long sequences with sparse transformers. CoRR, Vol. abs/1904.10509, , 2019. [6] Iz Beltagy, Matthew E. Peters, and Arman Cohan. Longformer: The long-document transformer. CoRR, Vol. abs/2004.05150, , 2020. [7] Simeng Sun and Mohit Iyyer. Revisiting simple neural probabilistic language models. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 5181-5188, Online, 2021. [8] Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian Sun. Deep residual learning for image recognition. In 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 770-778, 2016. [9] Yoshua Bengio, Réjean Ducharme, Pascal Vincent, and Christian Janvin. A neural probabilistic language model. Journal of Machine Learning Research, Vol. 3, p. 1137-1155, 2003. [10] Mauro Cettolo, Jan Niehues, Sebastian Stüker, Luisa Bentivogli, and Marcello Federico. Report on the 11th IWSLT evaluation campaign. In Proceedings of the 11th International Workshop on Spoken Language Translation: Evaluation Campaign, pp. 2-17, 2014. [11] Rico Sennrich, Barry Haddow, and Alexandra Birch. Neural machine translation of rare words with subword units. In Proceedings of the 54th Annual Meeting of the Asso- ciation for Computational Linguistics, pp. 1715-1725, 2016. [12] Alexander M. Rush, Sumit Chopra, and Jason Weston. A neural attention model for abstractive sentence summarization. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 379-389, 2015. [13] Abigail See, Peter J. Liu, and Christopher D. Manning. Get to the point: Summarization with pointer-generator networks. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics, pp. 1073-1083, 2017. [14] Vassil Panayotov, Guoguo Chen, Daniel Povey, and Sanjeev Khudanpur. Librispeech: An asr corpus based on public domain audio books. In 2015 IEEE International Conference on Acoustics, Speech and Signal Processing, pp. 5206-5210, 2015. [15] Taku Kudo and John Richardson. SentencePiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 66-71, 2018. 表 4 見出し生成タスクにおける ROUGE-1, 2, L(R-1, R-2, R-L)の F1 スコア 表 5 文書要約タスクにおける ROUGE-1, 2, L(R-1, R-2, R-L)のF1スコア ## A 自動要約タスクの実験 本研究では,見出し生成と文書要約の二つの自動要約タスクについても実験を行った. 見出し生成は文レベルの自動要約タスクであり,ニュース記事の先頭の文から対応する見出しを生成するタスクである。このタスクの実験では, Gigaword データセッ ト [12] 使用した。文書要約タスクは,文書レベルの要約タスクであり,モデルは原文書から複数の文からなる要約を生成する. このタスクの実験では, CNN/DailyMail データセット [13] を用いた。また,両タスクにおいて,ソース側とターゲット側で語彙を共有した Byte Pairing Encoding [11](語彙サイズは 32K)を用いた. モデルのサイズは機械翻訳の実験と同等になるように設定した。 見出し生成タスクと文書要約タスクの結果を表 4 と表 5 に示す. 見出し生成タスク,文書要約タスクのいずれにおいても, multiNN は自己注意に匹敵する性能を示した. また, 局所注意と比較すると,提案手法の multiNN は大幅な性能向上を達成した.これらの知見は,機械翻訳タスクにおけるものと同様である. ## B 音声認識タスクの実験 テキストの系列変換タスクの他に,LibriSpeech データセット [14]を用い,自動音声認識タスクの実験を行った. LibriSpeechには,約 960 時間に及ぶオーディオブックの音声が収録されている. このデータセットには,話者の単語誤り率に基づき,クリーンとその他の 2 種類のデータプールが存在する. 実験では,両方のプールを使用した. デコーダ側の語彙は SentencePiece [15] を用い,語彙サイズは表 6 LibraSpeech の検証セットにおける単語の誤り率 表 7 LibraSpeechのテストセットにおける単語の誤り率 10Kとした. LibriSpeech データセットの検証セットとテストセットにおける自動音声認識タスクにおける単語の誤り率を表 6 と表 7 に示した。提案手法の multiNN は,ほぼ同じモデルサイズで自己注意と同程度の性能を発揮した. また, multiNN の単語誤り率は局所注意よりも 1 ポイント以上の低かった.この実験結果も,機械翻訳タスクと自動要約タスクの実験結果と整合している.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A9-2.pdf
# 訓練データ中の頻度バイアスを解消する前処理の提案 神戸隆志 ${ }^{1}$ 鈴木潤 1,2 乾健太郎 1,2 1 東北大学 2 理化学研究所 takashi.kambe.r8@dc. tohoku.ac.jp \{jun.suzuki,kentaro.inui\}@tohoku.ac.jp ## 概要 訓練データ中の単語頻度の偏りは,深層ニューラルネットワークに基づく自然言語処理の性能に悪影響を及ぼすことが知られている.そのため,頻度の偏りによる影響を解消しようとする試みが報告されている. 本研究では,その取り組みの一つとして,文の前処理の段階で高頻度語の頻度を減らし, 訓練データ中の頻度分布を均一に近づけ,頻度バイアスを解消する手法を提案する.本稿では,提案法の有効性を機械翻訳タスクにて検証する。具体的には,提案法により前処理を施した訓練データを用いて構築した翻訳モデルと, 従来通りの訓練データで構築した翻訳モデルの翻訳性能を比較する。 ## 1 はじめに 深層ニューラルネットワークに基づく自然言語処理では,文を単語などの何かしらの基準で分割し, その分割単位に基づいて処理を行う. 近年は,文を分割する単位として,サブワードを用いることが主流である. 本稿では,議論を簡単にするために,単語やサブワードなど,どのような基準で分割されたかによらず分割後の各要素をトークンと表記する. いずれの場合も文を構成するトークンは少数の高頻度トークンと多数と低頻度トークンから構成されるという特徵がある.これは,サブワードなどを用いたとしても,程度の差はあれどいわゆる Zipf の法則に概ね従う分布になるためである。このトークン頻度の偏り(以下,頻度バイアスと表記)が自然言語処理のモデルに影響を与え,様々なタスクの精度が低下する現象が報告されている [1]. また,この頻度バイアスの悪影響を緩和することで自然言語処理タスクの性能向上を目指す研究が報告されている $[1,2,3]$. 本研究は, これらの先行研究と同様に, 頻度バイアスを緩和する方法を考案することを目的とする。 ただし,従来の方法とは違い,利便性が高く扱いやすい方法の確立を目指す. その観点から,文の前処理の段階で高頻度トークンの頻度を減らし, 訓練データ中のトークン頻度分布をできるだけ均一に近づける方法を提案する.より具体的には,訓練デー タ中の高頻度トークンを複数の新しいトークンに分類し, 高頻度トークンの出現頻度を均す操作を行う. 前処理により偏りを解消することができれば, モデルの訓練方法の変更などを必要としないため,基本的にあらゆる自然言語処理タスクで利用可能という利点となる。 本研究では,機械翻訳のデータを用いた実験により提案法の有効性を検証する。具体的には,提案する前処理を用いて頻度バイアスを軽減した場合に,従来法に相当する頻度バイアスの軽減をしない場合と比較して性能が向上するかを実験的に確かめる。 ## 2 関連研究 ## 2.1 サブワード分割 サブワードは単語よりも小さな単位で文を表現する単位であり,近年の自然言語処理において広く用いられている単位である. サブワードを使用する利点として,語彙数を自由に設計して固定することができる点や,未知単語をサブワードの組み合わせとして表現できるといった点が挙げられる. 自然言語処理におけるサブワードの構築方法として Byte Pair Encoding (BPE) [4] や Unigram Language Model [5] などが挙げられる.しかし,いずれの方法においても,高頻度単語はそのままサブワードとして語彙に含められ,低頻度単語はより小さなサブワードの組み合わせとして表現されやすいという傾向がある. この傾向から,サブワード単位の語彙も単語単位の語彙と同様に,高頻度サブワードと低頻度サブワー ドに偏る. 図 14.1 節で使用する英文データに対して BPE を 32,000 回適用した場合のトークン頻度分布 ## 2.2 頻度バイアス 近年の自然言語処理は,単語やサブワードなどのトークンを埋め込み表現と呼ばれるべクトルとして表現し,そのべクトルを処理していく手法が一般的である. 埋め込み表現の特徴として,似た意味の単語には近いべクトルが割り当てられることが期待されるが,前述の頻度バイアスにより意味ではなく頻度を反映するような埋め込み表現が構築されてしまうことが報告されている $[1,2]$. 具体的には,高頻度語同士が近くなるように,また低頻度語同士が近くなるような埋め込み表現が学習され,たとえ意味の近い単語であっても頻度の違いにより埋め込み表現が遠ざかる現象が起こってしまう.この埋め込み表現における現象は様々な自然言語処理のタスクの精度を低下させることが報告されており,頻度バイアスを解消しようとする試みが研究されている $[1,2,3]$. ## 3 頻度バイアスを軽減する前処理 2.2 節の頻度バイアスによる問題は,訓練データに出現するトークンの頻度が偏っていることに起因する問題である。そこで本研究では,図 1 の様な訓練データ中の偏ったトークン頻度分布に対して,できる限り均一な頻度分布に近づける前処理を実施した上でモデルを学習する方法を考案する.提案する前処理では,高頻度トークンを複数のトークンに分類して均一な頻度分布に近づける。提案法は, 高頻度トークンを一定のルールに従って分類し頻度を均一に近づけることから分類ルールと呼ぶ.以下,分類ルールの詳細を説明する。 ## 3.1 基本的な着想 英語における高頻度トークンである“the”を例にすると,分類ルールでは訓練データ中の “the”を "the0", "the1", "the2",... といった複数のトークンに置き換えることで “the” の頻度を減少させる.しかし無作為に訓練データ中の “the”を複数のトークンに分割すると,全く同じ文に対するトークン列でも異なるものになる可能性がある.よって,何かしらの基準に基づいて分類を行う必要がある.そこで本研究では,分類するトークンを中心とする trigram を基準に分類する.まず,訓練データ中の最も頻度が大きいトークンを取得し,そのトークンを中心とする trigram を全て列挙する。次に列挙した trigram の中で最も頻度が大きい trigram の中心の高頻度トー クンをその trigram に対応するトークンとして分類する。例えば “on the other” という trigram が “the”を中心とする最も高頻度な trigram だった場合,訓練データ中の “on the other”として出現する “the”は "the 0 " に置き換え,“the" とは異なるトークンとして扱う。ここで,分類ルールは頻度分布をできるだけ均一に近づけることを目的としているため,極端な低頻度 trigram に対応した低頻度トークンを生成してしまうことは望ましくない,そこで,出現頻度に閾値を設定し,新たに分類したトークンがその閾値を下回るような分類は行わないこととする。また,複数の trigram に対して 1 回の分類を行うことも可能とし,例えば “on the basis”, “in the case” として出現する “the”を “the1” として分類するといった操作を許容し,新たに生成されるトークンの頻度が閾值を下回らないようにする。図 2 に分類ルールによって高頻度トークンが複数のトークンに分類される例を示す。 ## 3.2 アルゴリズム 以上の分類の考え方を踏まえ,具体的な処理手順は以下の通りである。 1. 出現頻度の大きいトークンの出現頻度を減らし頻度分布を均一に近づけるため,訓練データ中の最も高頻度なトークンを取得する。 2. 1 で取得したトークンを中心とする訓練データ中の trigram を列挙し, trigram の出現頻度が大きい順にソートする。 3. 頻度の大きい trigram から順に頻度を足し合わせていき,設定した間値を超えた時点で,それ 図 2 英語における高頻度トークンである“the”を分類する様子: 一回目の分類では, “the”を中心とする trigram のうち最も高頻度である “on the other” の “the”を “the 0 ”として分類する。 二回目の分類では “on the basis” の “the”を “the1”として分類しようと試みるが,その場合 “the1” の出現頻度が間値以下になってしまうため,次点で高頻度な “in the case" も使用して分類することで "the1” の出現頻度が閾値以上になる様にする。 らの trigram の中心に出現するトークンは新たなトークンとして分類する. 4.1-3を目的の語彙数になるまで繰り返す. 上記の 1-3 の手順によって新たに分類されたトー クンが 1 種類増えるため,分類ルールを 1 回適用することで語彙数が 1 だけ増える.従って,分類ル一ル適用後の訓練データの語彙数は,分類ルール適用前の訓練データ中の語彙数と分類ルールの適用回数を足し合わせた値となる。分類ルールの適用回数は自由に設定できるため, 目的とする語彙数に調整することが可能である. ## 4 実験 本研究では,機械翻訳タスクを用いて分類ルールの効果の検証する. ベースラインとして BPE [4] でサブワード分割を行った訓練データを用意し,そのデータに対して分類ルールを適用する場合としない場合の 2 種類の訓練データを作成する. それらのデータを用いて翻訳の学習を行い,翻訳精度を比較することで分類ルールの効果を検証する。 ## 4.1 実験設定 データ: $\quad$ WMT20221)の英日翻訳データに対して参照文不要の COMET [6] を適用し, 計算されたスコアの上位 1,500,000 文対を訓練データとして使用 した,評価データは,WMT2020 および WMT2021 のニュース翻訳タスクの評価データを使用した. 以下,WMT2020 の評価データを newstest20, WMT2021 の評価データを newstest21と表記する. トークン分割方法:サブワード構築のための BPE のマージ回数は,16,000 回または 32,000 回とする. 本稿では,マージ回数 16,000 の BPE を $\mathrm{BPE}(m=16 k)$ ,マージ回数 32,000 の BPE を $\mathrm{BPE}(m=32 k)$ と表記する。分類ルールは,BPE を 16,000 回適用した入力側のデータに対して 8,000 回または 16,000 回を適用した。また分類ルールにおける最低頻度の閾値は 800 とした。これによって,出現頻度が 800 より小さくなるトークンは新たに生成されないことに注意されたい。本稿では,BPE を 16,000 回適用した後に分類ルールを 8,000 回適用したものを $\operatorname{BPE}(m=16 k)+\operatorname{CRULE}(c=8 k)$ ,BPE を 16,000 回適用した後に分類ルールを 16,000 回適用したものを $\operatorname{BPE}(m=16 k)+\operatorname{CRULE}(c=16 k)$ と表記する. 翻訳モデル: 翻訳モデルには,現在最もよく用いられるモデルである Transformer [7] を採用した. また,その実装は,fairseq [8] を用いた。 評価指標: 翻訳結果の評価には,機械翻訳の評価指標として広く用いられる BLEU スコアを用いた。BLEU スコアの計算には,sacreBLUE [9] を使用した. ## 4.2 分類ルールによる頻度分布の変化 分類ルールによる頻度分布の変化を図 3 に示す. ここで,縦軸は対数スケールの出現頻度であることに注意されたい,図 3 から,分類ルールによって高頻度トークンが複数の低頻度トークンに分割されることで,より均一な頻度分布に近づいているいことが確認できる。ただし,分類ルール適用後も高頻度のまま残ってしまうトークンが存在する。これは,分類に使用した trigram が既に高頻度である場合に,現状の trigram に基づく分類ルールではこれ以上分割して頻度を減らすことができないためである. 図 4 は,BPEを 32,000 回適用した訓練データのトークン頻度分布と,BPEを 16,000 回適用し,更に分類ルールを 16,000 回適用した訓練データのトー クン頻度分布を比較したものである.分類ルールを適用することで,BPE を継続して適用するより均一な分布に近くなっていることが確認できた。  図 3 分類ルール適用によるトークン頻度分布の変化 (上:英語,下:日本語) 表 1 日英翻訳における BLEU スコア 表 2 英日翻訳における BLEU スコア ## 4.3 機械翻訳の翻訳品質 表 1 に日英翻訳における BLEU スコアを示す。同様に,表 2 に英日翻訳における BLEU スコアを示す.日英翻訳では, newstest20 においては BPE(マージ回数 16,000$)$ の設定が最も優れており, newstest21 においては分類ルールを 8,000 回適用した設定が最も優れている結果となった. 英日翻訳では, newstest20 においては,BPE(マージ回数 16,000), BPE(マージ回数 32,000$)$ ,分類ルール 16,000 回の 図 4 BPE と分類ルールで語彙数を統一した場合の比較 (上:英語,下:日本語) 設定が最も優れており, newstest21においては BPE(マージ回数 16,000 ) の設定が最も優れていた. しかし,いずれの設定においても,最も優れている設定とそれ以外の設定における BLEU スコアの差は小さい。このことから,提案法である分類ルールを適用することによって普遍的に翻訳精度が向上するという結果は得られなかった。 ## 5 おわりに 本研究では, 前処理の段階で高頻度トークンの頻度を均すことで頻度バイアスを解消する手法を提案した. 実験では,分類ルールによって訓練データ中のトークン頻度分布が均一に近づくことが確認できた。また,機械翻訳タスクにおける一部の評価データにおいて提案法が優れていることが確認できたが,提案法による普遍的な翻訳精度の向上を確認することはできなかった. 今後の展望として,分類ルールを用いて学習した翻訳モデルの埋め込み層の観察など,翻訳精度以外の観点からも分類ルールの効果を検証する必要があると考えている。 ## 謝辞 本研究は,JST ムーンショット型研究開発事業 JPMJMS2011 (fundamental research) の助成を受けて実施されたものである. ## 参考文献 [1] Chengyue Gong, Tao Qin, Di He, Liwei Wang, Xu Tan, and Tie Yan Liu. Frage: Frequency-agnostic word representation. Advances in Neural Information Processing Systems, Vol. 2018-Decem, pp. 1334-1345, 2018. [2] Jun Gao, Di He, Xu Tan, Tao Qin, Liwei Wang, and Tie Yan Liu. Representation degeneration problem in training natural language generation models. In 7th International Conference on Learning Representations, ICLR 2019, 2019. [3] Sangwon Yu, Jongyoon Song, Heeseung Kim, Seong-Min Lee, Woo-Jong Ryu, and Sungroh Yoon. Rare Tokens Degenerate All Tokens: Improving Neural Text Generation via Adaptive Gradient Gating for Rare Token Embeddings. In ArXiv, pp. 29-45, 2022. [4] Rico Sennrich, Barry Haddow, and Alexandra Birch. Neural machine translation of rare words with subword units. In 54th Annual Meeting of the Association for Computational Linguistics, ACL 2016 - Long Papers, Vol. 3, pp. 1715-1725. Association for Computational Linguistics (ACL), 2016. [5] Taku Kudo. Subword regularization: Improving neural network translation models with multiple subword candidates. In ACL 2018 - 56th Annual Meeting of the Association for Computational Linguistics, Proceedings of the Conference (Long Papers), Vol. 1, pp. 66-75. Association for Computational Linguistics (ACL), 2018. [6] Ricardo Rei, Craig Stewart, Ana C. Farinha, and Alon Lavie. COMET: A Neural Framework for MT Evaluation. EMNLP 2020 - 2020 Conference on Empirical Methods in Natural Language Processing, Proceedings of the Conference, pp. 2685-2702, 2020. [7] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in Neural Information Processing Systems, Vol. 2017-Decem, pp. 5999-6009, 2017. [8] Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. Fairseq: A fast, extensible toolkit for sequence modeling. NAACL HLT 2019 - 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies Proceedings of the Demonstrations Session, pp. 4853, 2019. [9] Matt Post. A Call for Clarity in Reporting BLEU Scores. In WMT 2018 - 3rd Conference on Machine Translation, Proceedings of the Conference, Vol. 1, pp. 186-191. Association for Computational Linguistics (ACL), 2018.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A9-3.pdf
# 自然言語生成タスクの自動評価指標のためのドメイン外検出 伊藤拓海 $^{1}$ 森下睦 ${ }^{2}$ 鈴木潤 1 1 東北大学 ${ }^{2} \mathrm{NTT}$ コミュニケーション科学基礎研究所 [email protected] [email protected] [email protected] ## 概要 自然言語生成タスクの評価指標として,ニューラルベースの評価指標が急速に発展している. しかし,これらの評価指標は,学習を伴う指標であり,評価するデータが評価指標の学習データのドメイン外の場合,誤ったスコアを付与する可能性がある.本稿では,機械翻訳のための参照なし評価指標である COMET-QE に対して,1クラス分類器を評価指標に適用することで,ドメイン外検出をする方法を提案する. さらに,1 クラス分類器の分類精度向上を目指し, 特徴量空間においてドメイン内とドメイン外のデータ点を分離できるように, 評価指標の学習時に距離学習を適用した. 実験の結果,既存手法であるモンテカルロドロップアウトを用いた手法を上回るドメイン外検出能力を達成した. ## 1 はじめに 機械翻訳や要約生成などの自然言語生成 (NLG) タスクにおいて, NLG モデルの評価方法の研究が注目されている。その評価方法は,人手評価と自動評価に大きく分類される. 人手評価は,人がモデルの性能を評価する方法であり,多くのタスクにおいてゴールドスタンダードとされている. しかしながら,人手評価は一般に時間的・金銭的なコストが高く, 再現性の観点でも課題がある. そのため, 代替手法として時間的・金銭的なコストが低く再現性も高い自動評価指標が用いられる。さらに,自動評価指標は参照あり評価指標と参照なし評価指標に大きく分類することができる。「参照」とは,各 NLG タスクの評価事例に対して人が作成した解答例となるテキストである.参照あり手法とは,参照テキストとシステムが生成したテキストを比べることで評価をする手法である。一方,参照なし評価指標とは参照テキストを使用しない評価方法である. つまり,参照なし評価指標は,評価事例として NLG モデルへの入力データとモデルの出力があれば適用可能である.新たなドメインの評価事例などに対して,より低コストでNLG モデルを評価できる可能性を秘めており,評価のスケールアップが期待されている. 以前は,参照あり手法に比べて,評価性能が劣っているとされていたが,近年参照あり手法と競争的な評価性能を達成する手法がいくつか提案されてきている [1]. ${ }^{1)}$ また,参照なし評価指標は NLG モデルの評価だけでなく,NLG モデルの推論時のリランキングなどにも使用されるなど,その応用範囲も広い [2]. こうした参照なし評価指標の発展の背景には, ニューラルベースの教師あり評価指標の発展がある.2)特に,人が付与した品質評価スコアを教師に, BERT などの言語モデルをべースとした回帰モデルを学習する手法がよく提案されている [3]. しかし, こうした学習が伴う手法では, 機械学習一般の課題であるが,学習データ中に評価事例の類似事例がない場合に,その評価事例の評価性能(或いは評価の信頼性)が低くなるという課題がある。実際,機械翻訳の多くの評価指標が,ドメインに対して頑健でないことが報告されている [4]. さらに,学習済みのモデルだけが配布されることが多々あり,モデルの学習に使用したデータの詳細が評価指標の利用者からは特定できない場合も少なくない. 評価指標の使用方法を誤ったり,本来使用すべきではないデー タに対して使用すると,NLG モデルの開発の失敗に繋がることや,誤った研究の結論を導く可能性がある. 本稿では,評価指標に対して評価するデータが学習データに含まれるドメインかどうかを検出する (ドメイン外検出と呼ぶ)機能を組み込むことを目指す。参照なし評価指標は学習データ外のドメインのデータに対して適用するされる可能性が高いため, 本稿では参照なし評価指標に焦点を当てる. 評 1)NLG の評価指標は一般に,人手評価と相関(人手相関)が高いものほど高性能な指標とされている. 2)ニューラルベースの NLG 評価指標は参照あり評価指標においても主流となっている. 価指標としての性能を維持したままドメイン外検出を実現することができれば,より公平で正確な NLG モデルの評価につながる. さらに,ドメイン外検出は評価指標の解釈性 [5] の向上にも貢献しうる. ## 2 関連研究 COMET [3] とは,機械翻訳タスクのための評価指標のフレームワークであり ${ }^{3}$ ,参照ありと参照なしの両方のバージョンを提供している(参照なしを COMET-QE [1] と呼ぶ).ここでは, COMET$\mathrm{QE}[1]$ について説明する. 参照なし手法は, 原文 $s$ と, NLG システムの出力文 $h$ を COMET-QE の入力とする. COMET-QE のモデル構造は,まず, XLM-RoBERTa [6] などの多言語マスク言語モデルによって原文と NLG システムの出力文から特徴量べクトル $\boldsymbol{x}$ を得て,それをフィードフォワード層 $f(\cdot)$ に入力し, 評価スコアを出力する. 特徴量べクトル $x$ は以下のように計算される. $ \begin{aligned} \mathbf{s} & =\operatorname{XLM}-\operatorname{RoBERTa}(s) \\ \mathbf{h} & =\operatorname{XLM}-\operatorname{RoBERTa}(h) \\ \mathbf{x} & =[\mathbf{h} ; \mathbf{s} ; \mathbf{h} \odot \mathbf{s} ; \mathbf{h}-\mathbf{s}] \end{aligned} $ 人が付与するスコアを $q$ ,バッチサイズを $n$ とすると,損失関数 $L$ は以下のように計算される。 $ L=\frac{1}{n} \sum_{i=1}^{n}\left(f\left(\mathbf{x}_{i}\right)-q_{i}\right)^{2} $ 本研究と類似し, NLG 評価指標に対して, 信頼性スコアを出力する取り組みが既になされている $[7,8]$. ドメイン以外にも, 学習データや参照テキストのノイズなども不確定性の要因となり得る. 例えば, Glushkova ら [7] は, モンテカルロドロップアウト (MCD) とディープアンサンブルの 2 つの不確実性推定手法を, COMET に適用している. MCD とは,推論時にもドロップアウトを適用し,複数回推論を行い,スコア集合 $Q=\left.\{q_{1}, q_{2}, \ldots, q_{i}\right.\}$ を求める. ガウス分布を仮定し, スコア集合 $Q$ から, 平均と標準偏差を推定する.この平均を新たなスコアとし,標準偏差を信頼性スコアとする. ディープアンサンブルは,複数のモデルを用意し,スコア集合を得る方法である. MCD やディープアンサンブルでは,推論に時間を要するという課題がある. Zerva ら [8] は,平均と標準偏差を直接出力するように COMET を学習する手法を提案している。なお, これらの論文は,主に参照ありの設定で実験を行なっている。 3) https://github.com/Unbabel/COMET ## 3 提案手法: 学習ドメイン外検出 本研究の目標は, 評価指標としての性能を維持したまま,ドメイン外検出を行うことである。本研究では, 評価指標の学習データを正クラス, 学習デー タ以外のドメインのデータを負クラスと呼ぶ. ## 3.1 1 クラス分類 ドメイン外検出のため 1 クラス分類器を適用する. 1 クラス分類タスクとは正クラスかどうかを分類するタスクであるが,多クラス分類タスクとは異なり, 学習時には正クラスのみのデータを使用し,推論時に正クラスか負クラスかを分類する. 本実験では, 正クラスのインスタンスの COMET-QE の特徴量ベクトルを1クラス分類タスクの学習データとする.つまり, COMET-QE の学習データを $D_{\text {in-domain }}$ とすると, 1 クラス分類器の学習データ $D_{\text {OneClass }}$ は $D_{\text {OneClass }}=\left.\{\mathbf{x}_{i} \mid\left(s_{i}, h_{i}\right) \in D_{\text {in-domain }}\right.\}$ となる. また, この手法は評価指標の学習後に, 1クラス分類器の学習が可能であり, ドメイン外検出器を搭載することは, 評価指標の性能には影響を与えない。なお,本稿では, 1 クラス分類のアルゴリズムとして, 高次元に対応した Empirical-Cumulative-distribution-based Outlier Detection (ECOD) [9] を使用する。 ## 3.2 Triplet Margin Loss 本実験では,既存研究 [10]を参考に,1クラス分類の精度向上を目指し, COMET-QE の学習時に距離学習を組み込み,特徴量埋め込みの空間において正クラスのデータ点を近づけ,正クラスと負クラスの距離を大きくする. 本研究では, Triplet Margin Loss を使用する。なお,今回は負クラスのデータ点同士が近付くようには学習する必要がないため, アンカーには正クラスのサンプルだけを使用する。また,ミニバッチ内で作成できる全ての組み合わせを考慮する。つまり,アンカーを $a$ ,正クラスのインスタンスを $p$ ,負クラスのインスタンスを $n$ ,ミニバッチ内での組み合わせの数を $c$ とすると, Triplet Margin Loss は以下のように計算される. $ L_{\text {triplet }}=\frac{1}{c} \sum_{i}^{c} \max \left.\{d\left(a_{i}, p_{i}\right)-d\left(a_{i}, n_{i}\right)+\text { margin, } 0\right.\} $ なお, $d$ はインスタンスの特徴量ベクトルの間の L2 距離である. ## 4 実験 第 3 節の手法の有効性を検証する.評価指標としての性能を落とすことなく, ドメイン外検出することを目指す。 ## 4.1 モデル設定 本実験では,以下の4つの設定を比較する. - MCD: COMET-QE に対して, MCD を適用 [7]. - OneClass: COMET-QE を学習し,その後 1 クラス分類器を学習. 人手相関の観点では, COMET-QE に一致する. - Margin(.05): COMET-QE の学習時に Triplet Margin Loss を margin 0.05 で学習し,その後 1 クラス分類器を学習. - Margin(.1): COMET-QE の学習時に Triplet Margin Loss を margin 0.1 で学習し, その後 1 クラス分類器を学習. 本研究では, $\mathrm{MCD}$ の推論回数は 100 回に設定し, ドロップアウト率は 0.1 とした。また,本実験では,式 2 と Triplet Margin Loss を重み付けることなく線形に組み合わせた. ハイパーパラメータ等の詳細な設定は付録 A に示す. なお,第 2 節で紹介した, ディープアンサンブルや Zerva ら [8] の手法も比較可能な手法であるが,今後の課題とする。 ## 4.2 学習/評価データセットと評価方法 学習データ. WMT 2022 Metrics Shared Task (WMT22)の学習データとして配布されている newstest2020と newstest2021の MQM データを使用する. ${ }^{4}$ この $\mathrm{MQM}$ データには,英語-ドイツ語,中国語-英語,英語-ロシア語の 3 つの言語対が含まれている。なお,言語対によってスコアを付与した組織が異なり,スコアのレンジが異なる.5)本実験では,前処理として MQM スコアを正規化してから学習に使用した。また,Triplet Margin Loss で使用する負クラスのデータは ParaCrawl [11] から,言語対ごとに正クラスと負クラスのサンプルサイズが同数になるようにサンプリングした.MQM データの 1 割 4) WMT22 では, Direct Assessments (DA) data という WMT の News translation task での人手評価のスコアも評価指標の学習データとして配布されている. 先行研究 [1] などでは, DA data で事前学習したのち,MQM data で微調整をするという戦略をとっているが,本実験では DA data は使用しない. 5)英語-ドイツ語と中国語-英語はスコアのレンジは $[-25,0]$ である。一方で,英語-ロシア語はスコアのレンジは $[-\inf (-400), 100]$ である.表 1 英語-ドイツ語の人手相関。值はセグメントレベルのケンドールの順位相関係数. } \\ 表 2 英語-ロシア語の人手相関。值はセグメントレベルのケンドールの順位相関係数. } \\ 表 3 中国語-英語の人手相関. 值はセグメントレベルのケンドールの順位相関係数. } \\ を開発データに使用し,残りの9 割を COMET-QE の学習に使用した。 評価データ. WMT21の TedTalks のデータセット [4] と WMT22 の評価用データセット [12]を使用する. どちらのデータも MQM でアノテーションされたデータであり,英語-ドイツ語,中国語-英語,英語-ロシア語の 3 つの言語対を含む. なお, WMT22には news, conversational, e-commerce, social の 4 つのドメインが含まれている. 本実験では, WMT22 の news を正クラスのドメイン, TedTalks と conversational, e-commerce, social の4つを負クラスのドメインとする. 評価方法. 評価指標の性能評価は,MQM スコアとの相関を報告する. ${ }^{6)}$ ドメイン外検出の評価には AUROC を使用する。 ## 4.3 実験結果 表 $1,2,3$ に各データセットの人手相関(ケンドー ルの順位相関係数7))の結果を示す. “mixed”とは, 6)相関の計算には https://github.com/google-research/ mt-metrics-eval を使用した。相関の計算時には人手翻訳は含めていない。 7) ケンドールの順位相関係数は,セグメントレベルの MQM データセットの評価の際に使用される指標である。 表 4 AUROC. 正クラスのデータはwmt22-news. wmt22 の 4つのドメインを全て混合させた設定である.なお,表の conv.と ecはそれぞれ, conversational と e-commerce の略記である。表 4 には AUROC の結果を示す. 付録 B にシステムレベルの評価結果とケンドールの順位相関係数以外の相関の結果を示す.なお, OneClassの人手相関は COMET-QE と一致する. 人手相関に関して, news と news 以外のドメインを比較すると, news 以外のドメインでは相関が弱くなっていることがわかる. 例えば,表 1 の英語-ドイツ語では, COMET-QE(OneClass)は人手相関が wmt22-news では 0.330 であるのに対して, wmt22-conversation では,0.134である. 今回の実験結果からは, news 以外のドメインのテストデータがドメイン以外の問題で難易度が高くなっている可能性も捨てきれない. しかし,少なくとも,ドメインによっては相関が低い場合があることがわかる. 表 4 より,MCD ではほとんどの言語対・データセットで AUROC が 0.5 前後であり,ドメイン外検出ができていないことがわかる. いくつかの設定では, 0.5 を下回っている (表の赤字). 特に, $\mathrm{MCD}$ は中国語-英語の wmt22-conversation, wmt22-social に対し, AUROC が 0.233,0.193 と低い值になっている. つまり,これらのデータセットでは, MCD では正のクラス wmt22-news の方が標準偏差の値が大きくなっていることを意味する. 一方, OneClass は一貫して,MCD を超えるドメイン外検出性能を達成しており, COMET-QE の特徵量ベクトルにドメインの情報が含まれていることが示唆される. 特に,どの言語対でも conversation のドメインに対しては AUROC の値が 0.8 を超えている. conversation は特に人手相関が弱いドメインであり,1クラス分類を適用することで,評価指標の評価性能が悪いドメインを検出できていることが示唆される。 また,Triplet Margin Loss を適用すると,一貫して AUROC の値が向上していることがわかる. しかし,ドメイン外検出の精度は向上したが,ほとんど のデータセットで人手相関が弱くなっている. 特に, OneClass と比較すると, Margin が 0.1 の時に大きく相関が下がっている。また,正クラスである wmt22-news においても,一貫して相関が弱くなっている。距離学習を組み込むことで,特徴量空間において正クラスと負クラスのデータ点を分けることはできたものの,評価指標の評価性能自体に悪影響を与えてしまっていることが示唆される. 別の距離学習アルゴリズムを使用したり, 距離学習時に使用する負クラスのサンプルの選択方法を工夫したり,学習戦略やハイパーパラメータの微調整したりすることによって改善する可能性があると考えている. それらの検証は今後の課題である. ## 5 おわりに 本研究はドメイン外検出の機能を NLG 評価指標に適用することを目指したものである. 本実験では,参照なし評価指標に焦点をあて,1クラス分類器を参照なし評価指標に組み込むことを検証した。 また,距離学習である Triplet Margin Loss を用いて,評価指標の特徵量空間において,学習ドメインとそれ以外のドメインのデータ点の距離を離すことを試みた. その結果, 先行研究である $\mathrm{MCD}$ と比較して, 1クラス分類器を用いた手法が評価指標としての性能に影響を与えることなく,ドメイン外検出ができていることがわかった. また, Triplet Margin Loss を用いることで,ドメイン外検出の精度は向上したが,評価性能が低下してしまった. 特に,正クラスのドメインに対しても人手相関が弱くなってしまっている. 本稿では,参照なし評価指標を対象としたが,本稿の手法は参照あり評価指標にも適用可能であり,今後の課題である. ドメイン外検出に焦点を当てたが,学習ドメイン外でも高性能な評価指標の実現のため,分布外一般化 [13] も,今後の研究の重要な方向性の一つである. NLG 分野において,高性能で頑健な自動評価指標の開発は重要な研究課題であり,今後更なる研究の推進を期待する. ## 謝辞 本研究は JSPS 科研費 JP21J14152, JST ムーンショット型研究開発事業 JPMJMS2011 (fundamental research) の助成を受けて実施されたものである. ## 参考文献 [1] Ricardo Rei, Ana C Farinha, Chrysoula Zerva, Daan van Stigt, Craig Stewart, Pedro Ramos, Taisiya Glushkova, André F. T. Martins, and Alon Lavie. Are References Really Needed? Unbabel-IST 2021 Submission for the Metrics Shared Task. In Proceedings of the Sixth Conference on Machine Translation, pp. 1030-1040, Online, November 2021. Association for Computational Linguistics. [2] Patrick Fernandes, António Farinhas, Ricardo Rei, José De Souza, Perez Ogayo, Graham Neubig, and Andre Martins. Quality-Aware Decoding for Neural Machine Translation. In Proceedings of the 2022 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 1396-1412, Seattle, United States, July 2022. Association for Computational Linguistics. [3] Ricardo Rei, Craig Stewart, Ana C Farinha, and Alon Lavie. COMET: A Neural Framework for MT Evaluation. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing, pp. 26852702, Online, November 2020. Association for Computational Linguistics. [4] Markus Freitag, Ricardo Rei, Nitika Mathur, Chi-kiu Lo, Craig Stewart, George Foster, Alon Lavie, and Ondřej Bojar. Results of the WMT21 Metrics Shared Task: Evaluating Metrics with Expert-based Human Evaluations on TED and News Domain. In Proceedings of the Sixth Conference on Machine Translation, pp. 733-774, Online, November 2021. Association for Computational Linguistics. [5] Christoph Leiter, Piyawat Lertvittayakumjorn, Marina Fomicheva, Wei Zhao, Yang Gao, and Steffen Eger. Towards Explainable Evaluation Metrics for Natural Language Generation, 2022. [6] Alexis Conneau, Kartikay Khandelwal, Naman Goyal, Vishrav Chaudhary, Guillaume Wenzek, Francisco Guzmán, Edouard Grave, Myle Ott, Luke Zettlemoyer, and Veselin Stoyanov. Unsupervised Cross-lingual Representation Learning at Scale. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 8440-8451, Online, July 2020. Association for Computational Linguistics. [7] Taisiya Glushkova, Chrysoula Zerva, Ricardo Rei, and André F. T. Martins. Uncertainty-Aware Machine Translation Evaluation. In Findings of the Association for Computational Linguistics: EMNLP 2021, pp. 39203938, Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. [8] Chrysoula Zerva, Taisiya Glushkova, Ricardo Rei, and André F. T. Martins. Disentangling Uncertainty in Ma- chine Translation Evaluation. In Proceedings of the 2022 Conference on Empirical Methods in Natural Language Processing. arXiv, 2022. [9] Zheng Li, Yue Zhao, Xiyang Hu, Nicola Botta, Cezar Ionescu, and George Chen. ECOD: Unsupervised Outlier Detection Using Empirical Cumulative Distribution Functions. IEEE Transactions on Knowledge and Data Engineering, pp. 1-1, 2022. [10] Wenxuan Zhou, Fangyu Liu, and Muhao Chen. Contrastive Out-of-Distribution Detection for Pretrained Transformers. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 1100-1111, Online and Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. [11] Marta Bañón, Pinzhen Chen, Barry Haddow, Kenneth Heafield, Hieu Hoang, Miquel Esplà-Gomis, Mikel L. Forcada, Amir Kamran, Faheem Kirefu, Philipp Koehn, Sergio Ortiz Rojas, Leopoldo Pla Sempere, Gema RamírezSánchez, Elsa Sarrías, Marek Strelec, Brian Thompson, William Waites, Dion Wiggins, and Jaume Zaragoza. ParaCrawl: Web-Scale Acquisition of Parallel Corpora. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 4555-4567, Online, July 2020. Association for Computational Linguistics. [12] Tom Kocmi, Rachel Bawden, Ond $\AA^{\mathrm{TM}}{ }^{\mathrm{e}}$ ej Bojar, Anton Dvorkovich, Christian Federmann, Mark Fishel, Thamme Gowda, Yvette Graham, Roman Grundkiewicz, Barry Haddow, Rebecca Knowles, Philipp Koehn, Christof Monz, Makoto Morishita, Masaaki Nagata, Toshiaki Nakazawa, Michal Nov $\tilde{A}_{i} k$, Martin Popel, MajaPopoviÄ $\ddagger$, Mariya Shmatova. Findings of the 2022 Conference on Machine Translation (WMT22). In Proceedings of the Seventh Conference on Machine Translation, pp. 1-45, Abu Dhabi, December 2022. Association for Computational Linguistics. [13] Zheyan Shen, Jiashuo Liu, Yue He, Xingxuan Zhang, Renzhe Xu, Han Yu, and Peng Cui. Towards Out-OfDistribution Generalization: A Survey, 2021. ## A 実験設定 表 5 COMET-QE のハイパーパラメータ 表 5 に COMET-QE の学習時のパラメータを示す.本実験では,Triplet Margin Lossを使用した際も同様の設定を用いた. 毎エポック後にモデルを保存し,開発データに対するケンドールの順位相関係数が最も高かったチェックポイントのモデルを評価に使用した。なお,ケンドールの順位相関係数に対して, Early Stopping を行った. ## B 実験結果 表 6 英語-ドイツ語のセグメントレベルのピアソンの相関係数. } \\ 表 7 英語-ロシア語のセグメントレベルのピアソンの相関係数. } \\ 表 8 中国語-英語のセグメントレベルのピアソンの相関係数. } \\ 表 $6,7,8$ に各言語対のセグメントレベルのピアソンの相関係数の結果を,表 $9,10,11$ に各言語対表 9 英語-ドイツ語のセグメントレベルのスピアマンの順位相関係数。 } \\ 表 10 英語-ロシア語のセグメントレベルのスピアマンの順位相関係数。 } \\ 表 11 中国語-英語のセグメントレベルのスピアマンの順位相関係数. } \\ 表 12 システムレベルのピアソンの相関係数. & & & & & \\ のセグメントレベルのスピアマンの順位相関係数の結果を示す. また,表 12 にシステムレベルのピアソンの相関係数を示す. システムレベルについては,ピアソンの相関係数の值のみを報告するが,これは WMT22でも同様にシステムレベルではピアソン相関係数が報告されている。なお,システムレべルでは,WMT22の全体の結果と TedTalks の結果のみを示す.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A9-4.pdf
# サプライザルを利用した日本語の流暢性フィルタリングの試み 田村鴻希土井惟成西田直人 Junjie Chen 谷中瞳 東京大学 [email protected] [email protected] [email protected] \{christopher, hyanaka\}@is.s.u-tokyo.ac.jp ## 概要 機械翻訳の分野では、Web サイトから大量の対訳を自動収集し、対訳コーパスを作成する技術について研究が進められている。しかし、自動収集した対訳コーパスには不適切な対訳が多く含まれることがあり、不適切な対訳は対訳コーパスを用いて学習した機械翻訳モデルの品質に影響を与えうる。このような問題を解決するため、近年では、対訳コーパスから不適切な対訳を取り除く手法に関する研究が進められている。ここで、不適切な対訳の一つとして流暢性の低い対訳が考えられる。本研究では、単語や文のサプライザルが読みやすさを決める主要因であるとするサプライザル理論に基づき,サプライザルが流暢性と相関するという仮説を立て、その検証を行う。実験では、サプライザルが流暢性と相関するという有意な証拠は得られなかった。 ## 1 はじめに 現在の機械翻訳では、対訳コーパスを利用して教師ありの手法で学習する、ニューラル機械翻訳(以下、NMT)[1]が主流である。NMT モデルの学習には大規模な対訳コーパスが必要であり、これを作成するために Web サイトから大量の対訳を自動収集して対訳コーパスを作成する研究が行われている $[2,3]$ 。しかし、自動収集した対訳コーパスには不適切な対訳が多く含まれてしまうという問題がある。 NMT モデルは、学習時の対訳コーパスの質と量に大きな影響を受ける傾向があり、不適切な対訳を含む文を学習に用いると翻訳精度が低くなることが知られている [4]。このような問題を解決するため、近年では、対訳コーパスから不適切な対訳を取り除く手法に関する研究が進められている [5]。 不適切な対訳の例として、流暢性の低い文を含む対訳が挙げられる。一般社団法人日本翻訳連盟の JTF 翻訳品質評価ガイドライン [6] では、翻訳に含まれるエラーの度合いで評価指標の基準を定めた JTF 翻訳品質評価モデルを提供している。「流暢さ」11) は $\mathrm{JTF}$ 翻訳品質評価モデルのエラー・カテゴリーの一つであり、「あるテキストが形式として整っているかの程度」と定義されている。流暢性が低い対訳を NMT モデルの学習に用いると翻訳の品質や精度に影響を与える可能性があるため、対訳コーパスから流暢性の低い文を取り除く手法が求められる。本研究では、流暢性の低い和文を取り除く手法として、文の読み時間との相関が指摘されている、サプライザル理論に基づくサプライザル $[7,8,9]$ の利用を検討する。サプライザルは、対象の単語に対して、その文脈における負の対数確率により、文の処理に関する負荷をモデル化した指標である。このサプライザルが流暢性と相関するという仮説を立て、流暢性が多岐にわたる和文を収集し、サプライザルの高低から流暢性の傾向を分析した。 実験は、機械的評価による実験と、人手評価による実験から構成される。前者では、英文と和文のサプライザルの分布を分析する。また、これらのサプライザルが他の言語的なパラメータと相関関係を持つか分析する。後者では、英文と和文のサプライザルの差に基づいて作成したデータセットの文の流暢性を複数の作業者が人手で評価し、サプライザルと流暢性が相関関係を持つか分析する。 ## 2 関連研究 サプライザルは、心理言語学での活用だけでなく、対話の容認性評価 [10]、小論文の自動採点 [11]英作文のレベル判定 [12]、Code-Switching の判定 [13] など自然言語処理の応用タスクの評価指標としても用いられている。既存研究を踏まえて、本研究ではサプライザルを対訳コーパスの流暢性フィルタリン  グの指標として適用できるか分析を行う。 流暢性を自動評価する試みは今までにも行われている $[14,15]$ が、サプライザルとの相関を分析する既存研究は存在しない。本研究と近い研究としては、サプライザルとの相関が報告されている読み時間を自然言語生成の文評価に用いるもの [16] が存在するが、人手での流暢性評価との相関を示すものではない。 ## 3 実験用データセット ## 3.1 日英対訳コーパス 本研究で利用する対訳コーパスとして、 JParaCrawl[3] の English-Japanese training set (v3.0) [17] (以下,JParaCrawl v3.0)を採用する。この理由として、JParaCrawl v3.0 は、和文と英文の掲載元 Web サイトのドメインが併記されていることや、和文と英文のアライメントの精度が十分高いと考えられることが挙げられる。 ## 3.2 ドメインによる整理 本研究では、英語圏のドメインの Web サイトに記載されている英文は、ネイティブによって書かれており、流暢性は十分に高い、また、その英文に紐付いている和文は、必ずしも流暢性が高いとは言えない、という仮説のもと、英文が英語圈のドメインの Web サイトに掲載されている対訳を収集した。具体的には、英文が掲載されていた Web サイトのトップドメインが、主な英語圏の国別コードトップレベルドメイン等である対訳を抽出した。対象とした国別コードトップレベルドメインと、その内訳は付録の表 7 に示す。なお、英文と和文が重複している対訳は削除し、1つの対訳とした。この結果、128,602 対訳のデータセット(以下、本データセット)を作成した。 ## 3.3 サプライザルの計算 サプライザルとは,単語や文のサプライザル( $-\log ($ 単語や文| 先行文脈))が読みやすさを決める主要な要因であるとするサプライザル理論において用いられている指標である $[7,8]$. 本データセットの和文と英文を対象に、各文のサプライザルを算出した。サプライザルは、 Kuribayashi et al.[18] のコード2)により、トークンご 2) https://github.com/kuribayashi4/surprisal_reading_ 図 1 和文と英文のサプライザルの分布 とのサプライザルを算出し、その総和を指標として用いた。なお、和文のサプライザルの計算モデルには Japanese LSTM LM、英文のサプライザルの計算モデルには English Transformer-sm LM を用いた3)。 ## 4 実験 1: 機械的評価による実験 実験 1 ではサプライザルが言語的なパラメータとどのような相関を持つか機械的に分析する。 ## 4.1 サプライザルの分布 和文と英文のサプライザルの分布を図 1 に示す。 また、和文と英文のサプライザルに対して $\mathrm{t}$ 検定を行ったところ、和文サプライザルの平均値の方が大きい(p 值は 0.001 未満)ことがわかった。このことから、和文と英文では、サプライザルの分布が異なるといえる。 ## 4.2 サプライザルと言語的パラメータの 相関 本研究では、言語的パラメータとして、和文と英文の一致度を対象に分析するため、日英機械翻訳モデルによる和文の英訳文と参考訳 (英文の原文)の BLEU スコア [19] と、日英の分散表現のコサイン類似度(以下、USE スコア)を用いた。日英機械翻訳モデルは、opus-mt-ja-en ${ }^{4)}$ を使用した。また、テキストの分散表現の算出には TensorFlow の Embedding メソッド5)を使用し、分散表現のモデルには TensorFlow の universal-sentenceencoder-multilingual ${ }^{6}$ を使用した。あわせて、サプライザルの算出時の日英のトークン数を比較の対象と  表 1 サプライザル、トークン、言語的パラメータ間の相関係数( $\mathrm{p}$ 值はいずれも 0.001 未満) した。 言語的パラメータとの相関分析の結果を、表 1 に示す。なお、 $\mathrm{p}$ 値はいずれも 0.001 未満であった。 まず、和文と英文のサプライザルは、トークン数に強く相関することがわかる。一方で、和文と英文の一致度に関連すると考えられる、BLEU スコアと USE スコアはいずれも、和文と英文のサプライザルとの相関は認められなかった。ただし、BLEUスコアとUSE スコアは互いに一定程度の相関が認められることから、文の一致度の尺度としては十分に機能していると考えられる。このことから、機械的評価からは、和文と英文のサプライザルは文の一致度とは相関しないことが考えられる。 ## 5 実験 2: 人手評価による実験 実験 2 では、本データセットを対象に、サプライザルの傾向が異なる 3 種類のデータセットを作成し、それぞれに含まれる和文の流暢性を人手で評価し、その傾向の差異について分析する。 ## 5.1 流暢性評価データセットの作成 まず、和文と英文のサプライザルの傾向の差異を踏まえ、下記のとおりサプライザルの順位の差に基づく 3 種類のデータセットをそれぞれ 100 文対ずつ作成した。なお、順位はサプライザルが高いほど小さい值をとる。 ・(英文サプライザル順位-和文サプライザル順位) の値が低い 100 文対(en_high) ・(和文サプライザル順位-英文サプライザル順位) の値が低い 100 文対(ja_high) ・両サプライザルの順位差が小さい順に並べた 100 文対(sim) ただし、en_high と ja_high については、翻訳のエラーによる外れ値の影響を軽減するため、サプライザル順位差の上位 $5 \%$ を除外した残りのデータからそれぞれ上位 100 文対を選んだ。これらの各 100 文対を対象に、(1) 対訳エラーの判定と (2) 流暢性評価を行った。具体的には、それぞれの文対に対して表 2 流暢性の評価基準 3 人の作業者を割り当て、(1)-(2)を文対ごとに手作業で実施した. 作業者は、いずれも日本語を母語とする情報系の大学院生であり、作業時間は合計 10.8 時間(一人当たり平均 3.6 時間)だった。以下では、 それぞれの作業手順の詳細を述べる。 (1) 対訳エラーの判定各作業者は、各データセットの文対に対して、実際に対訳として成立しているか否かを判定する。流暢性によらず翻訳エラーを含む文対は、対訳データセットの流暢性を評価する際にノイズとなるため、それぞれのエラータイプを分類したうえで流暢性評価の対象から外す。 以下に、本研究で用いたエラータイプの分類と、各エラーの内容を記述する。 ・アライメントエラー:全く別の文が割り当てられている場合 ・テキスト抽出エラー:途中で文が切れていたり、複数の文が混ざっている場合 ・翻訳エラー:誤訳の程度が非常に大きい場合 - 英文過多: 英文の各要素に対応する和文の要素が著しく欠けている場合 - 和文過多 : 和文の各要素に対応する英文の要素が著しく欠けている場合 なお、翻訳エラーの基準には、特許庁の機械翻訳に関する調査報告書「特許文献機械翻訳の品質評価手法に関する調査」(平成 25 年度 $)^{7)}$ の「内容の伝達レベルの評価」を使用し、 5 段階評価のうち 2 以下 (2はいくつかの重要情報が正確に伝達されている、 1 は文意がわからない、もしくは正確に伝達されている重要情報はほとんどない) であると作業者が判断したものを翻訳エラーとしている。 7) https://www.jpo.go.jp/system/laws/sesaku/ kikaihonyaku/document/kikai_honyaku/h25_01.pdf 表 3 流暢性評価データセットの各作業者がエラー判定した文対の数の平均 表 4 作業者間の流暢性評価の一致度(Cohen’s Kappa) 表 5 作業者間の流暢性評価に対する Kruskal-Wallis 検定 (2) 流暢性の判定 (1)の手順で除外しなかった文対を対象に、それぞれの和文の流暢性を判定する。流暢性評価の基準は、表 2 に示すとおり、長我部らによる「流暢性の評価基準」[20]を利用した。なお、表 2 の各評価に対応する、全作業者の評価が一致した例文を、付録の表 8 に記載する。 ## 5.2 流暢性人手評価の統計情報 流暢性評価データセットで各作業者がエラー判定した文対の数の平均と、その内訳を表 3 に示す。表 3 から、英文のサプライザルが高い文対では英文からの翻訳抜けが多く、また和文のサプライザルが高い文対では和訳に余分な情報が入りやすい傾向がみられる。これは、表 1 から読み取れるサプライザルとトークン数との相関を裏付ける結果である。流暢性評価データセットでの、作業者間の流暢性評価の Cohen's Kappa[21] による一致度を表 4 に示す。なお、エラー判定の場合も含めて一致度を計算するため、対訳エラーと判定された文対は評価ラべルを 0 として一致度を計算した。また、流暢性評価の差の大きさを考慮するため、各文対の評価の差をそれぞれ二乗して重みづけした [22]。 表 4 に示した一致度をみると、作業者 2 の一致度が低く、作業結果が一貫していないと考えられる。 したがって、本研究での流暢性評価では作業者 1 および作業者 3 の結果のみを用いる。 ## 5.3 サプライザルと流暢性人手評価の相関 作業者 1 と作業者 3 の、各データセットでそれぞれエラーと判定しなかった文対への流暢性評価に対する Kruskal-Wallis 検定 [23] の結果、および文対への平均評価值をそれぞれ表 5 と表 6 に示す。表 5 か表 6 各作業者がそれぞれエラー判定しなかった文対での平均評価値 らは、有意水準 5\%の下で、作業者 1 の結果では有意に各データセットの評価値の分布に差があるといえる。しかし、作業者 3 の結果では帰無仮説を棄却できず、作業者によってサプライザルと流暢性の主観評価の関係にはばらつきがあることが考えられる。ただし、現在の $\mathrm{p}$ 値がデータ数の少なさに依存する可能性を注記する。また、平均評価値からは、評価値の分布に差があるとすればどちらの作業者の場合も和文のサプライザルが高いデータセットでの評価値の低さに原因を求められる。 本実験の結果からはサプライザルと流暢性の相関関係は定かにはならなかった。サプライザルと流暢性評価の相関関係の個人間のばらつきは、流暢性の判断基準として(サプライザルと相関する)読解時間に重点を置いているかにばらつきがあることを示しており、流暢性評価の基準は個人差が大きいことを示唆している。この結果、および一致度の低い作業者の存在は、より個人差の少ない流暢性評価の基準、もしくは評価手法の必要性を示唆している。また、現在の手法において精度の高い結果を得るためには多人数、およびより多い文対での実験が必要といえる。 ## 6 おわりに 本研究では、サプライザルが流暢性と相関するという仮説を立て、機械的評価と人手評価の 2 種類の実験で検証を行った。実験の結果、サプライザルが流暢性の低い和文を取り除くためのパラメータとして有意であることは確認できなかった。今後の課題としては、人手評価の作業者を増やし、評価する文対の数を増やすこと、また、流暢性やエラー判定の作業者間での判定基準をより詳細に定めることによって作業者間での評価基準のぶれやその影響を減らし、より信頼性の高い統計とすることが挙げられる。 ## 謝辞 本研究は JSPS 科研費 JP20K19868 の助成を受けたものです. ## 参考文献 [1] Ilya Sutskever, Oriol Vinyals, and Quoc V. Le. Sequence to sequence learning with neural networks. In Proceedings of the 27th International Conference on Neural Information Processing Systems - Volume 2, NIPS'14, pp. 3104-3112, Cambridge, MA, USA, 2014. MIT Press. [2] Miquel Esplà, Mikel Forcada, Gema Ramírez-Sánchez, and Hieu Hoang. ParaCrawl: Web-scale parallel corpora for the languages of the EU. In Proceedings of Machine Translation Summit XVII: Translator, Project and User Tracks, pp. 118-119, Dublin, Ireland, August 2019. European Association for Machine Translation. [3] Makoto Morishita, Jun Suzuki, and Masaaki Nagata. JParaCrawl: A large scale web-based English-Japanese parallel corpus. In Proceedings of The 12th Language Resources and Evaluation Conference, pp. 36033609, Marseille, France, May 2020. European Language Resources Association. [4] Huda Khayrallah and Philipp Koehn. On the impact of various types of noise on neural machine translation. In Proceedings of the 2nd Workshop on Neural Machine Translation and Generation, pp. 74-83, Melbourne, Australia, July 2018. Association for Computational Linguistics. [5] Philipp Koehn, Vishrav Chaudhary, Ahmed El-Kishky, Naman Goyal, Peng-Jen Chen, and Francisco Guzmán. Findings of the WMT 2020 shared task on parallel corpus filtering and alignment. In Proceedings of the Fifth Conference on Machine Translation, November 2020. [6] 一般社団法人日本翻訳連盟. JTF 翻訳品質評価ガイドライン. 2018. [7] John Hale. A probabilistic Earley parser as a psycholinguistic model. In Second Meeting of the North American Chapter of the Association for Computational Linguistics, 2001. [8] Roger Levy. Expectation-based syntactic comprehension. Cognition, Vol. 106, No. 3, p. 1126-1177, 2008. [9] Irene Fernandez Monsalve, Stefan L. Frank, and Gabriella Vigliocco. Lexical surprisal as a general predictor of reading time. In Proceedings of the 13th Conference of the European Chapter of the Association for Computational Linguistics, pp. 398-408, Avignon, France, April 2012. Association for Computational Linguistics. [10] Investigating perception of spoken dialogue acceptability through surprisal. In Hanseok Ko and John H. L. Hansen, editors, Proceedings of Interspeech 2022, pp. 45064510. ISCA, September 2022. [11] Gaurav Kharkwal and Smaranda Muresan. Surprisal as a predictor of essay quality. In Proceedings of the Ninth Workshop on Innovative Use of NLP for Building Educational Applications, pp. 54-60, Baltimore, Maryland, June 2014. Association for Computational Linguis- tics. [12] 正頼林, 遼平笹野, 大也高村, 学奥村. 誤り傾向と文の容認性に着目した英作文のレベル判定. 第 226 回情報処理学会自然言語処理研究会, No. 7, pp. 1-7, 2016. [13] Jesús Calvillo, Le Fang, Jeremy Cole, and David Reitter. Surprisal Predicts Code-Switching in Chinese-English Bilingual Text. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 4029-4039, Online, January 2020. Association for Computational Linguistics. [14] Takehiko Yoshimi, Katsunori Kotani, Takeshi Kutsumi, Ichiko Sata, and Hitoshi Isahara. Automatic evaluation of the fluency of english-to-japanese machine translation using word alignment. 2010. [15] Katharina Kann, Sascha Rothe, and Katja Filippova. Sentence-Level Fluency Evaluation: References Help, But Can Be Spared! In Proceedings of the 22nd Conference on Computational Natural Language Learning, pp. 313-323, Brussels, Belgium, October 2018. Association for Computational Linguistics. [16] Sina Zarrieß, Sebastian Loth, and David Schlangen. Reading Times Predict the Quality of Generated Text Above and Beyond Human Ratings. In Proceedings of the 15th European Workshop on Natural Language Generation (ENLG), pp. 38-47, Brighton, UK, September 2015. Association for Computational Linguistics. [17] Makoto Morishita, Katsuki Chousa, Jun Suzuki, and Masaaki Nagata. JParaCrawl v3.0: A large-scale EnglishJapanese parallel corpus. In Proceedings of the Thirteenth Language Resources and Evaluation Conference, pp. 6704-6710, Marseille, France, June 2022. European Language Resources Association. [18] Tatsuki Kuribayashi, Yohei Oseki, Takumi Ito, Ryo Yoshida, Masayuki Asahara, and Kentaro Inui. Lower perplexity is not always human-like. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 5203-5217, Online, August 2021. Association for Computational Linguistics. [19] Kishore Papineni, Salim Roukos, Todd Ward, and Wei jing Zhu. Bleu: a method for automatic evaluation of machine translation. pp. 311-318, 2002 [20] 長我部恭行, 甲斐優人, 石井奏人, 荻野天翔, 黒澤道希, 小町守. 機械翻訳に対する文間文脈を考慮した評価と分析. pp. 1703-1706, 32019. [21] Jacob Cohen. A Coefficient of Agreement for Nominal Scales. Educational and Psychological Measurement, Vol. 20, No. 1, pp. 37-46, April 1960. Publisher: SAGE Publications Inc. [22] Jacob Cohen. Weighted kappa: Nominal scale agreement with provision for scaled disagreement or partial credit. Psychological Bulletin, Vol. 70, No. 4, pp. 213-220, October 1968 [23] William H. Kruskal and W. Allen Wallis. Use of ranks in one-criterion variance analysis. Journal of the American Statistical Association, Vol. 47, No. 260, pp. 583-621, 1952 . ## A JParaCrawl の前処理 JParaCrawl v3.0 は非常に大規模なコーパスであるため、前処理として、下記の条件を元に対訳のフィルタリングを行った。フィルタリングの結果、約 2574 万文対から,約 985 万文対(約 $38.3 \% )$ が得られた。 ・英文がピリオドで終わっている. ・和文が句点で終わっている。 ・和文に全角又は半角スペースを含まない. ・対訳のスコアが 0.7 以上. ## B ドメインの内訳 イタリア、フランスは英語を公用語としていないが、話者数の多さを考慮して含めている。 ## C流暢性の評価点数ごとの例文 表 8 流暢性の評価点数ごとの例文 (JParaCrawl v3.0より引用) 評価例文 5 京丹後市は条例で国際交流の推進をうたっており、国際的な視野を持つ人材の育成を目指している。 4 調査では、大手プラットフォームひとつで 157 万 6,600 人の労働者が供給過剰であることがわかっている。 3 プレートは、全体の保護面全体に影響の分布を保証するドロップワイヤーシステムに参加しています。 プロフェッショナルラーニングコミュニティ内では、各学年レベルとコンテンツ領域が共同学習チーム (CLT) 2 として協力し、研究、スキル、専門的な開発、ツール、リソース、およびさまざまなサポートスタッフ (強力な教育コーチチームやさまざまな特別教育の専門家とサービスプロバイダーの-私たちの目標を果たすために: すべての子供が意味のある、本物の方法ですべての必要なスキルを習得することを保証すること。 1 米国の研究では、女性の最大 $50 \%$ が生涯に尿路感染症を起万人になると示されています。
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A9-5.pdf
# 異言語間対話を支援する日英雑談対話誤訳検出 李云蒙 1 鈴木潤 1,3 森下睦 2 阿部香央莉 1 徳久良子 ${ }^{1}$ ブラサール・アナ ${ }^{3,1}$ 乾健太郎 1,3 1 東北大学 ${ }^{2} \mathrm{NTT}$ コミュニケーション科学基礎研究所 ${ }^{3}$ 理化学研究所 li.yunmeng.r1@dc. tohoku.ac.jp ## 概要 本論文では,現在の機械翻訳手法の限界に起因する誤訳を検出し,異言語間対話を支援するシステムの開発について述べる. システムのベースラインとして誤訳検出器を学習し, またこの評価のために,複数ターンの雑談をもとに構成された日英雑談対話対訳コーパス「BPersona-chat」[1]に対し,機械翻訳文を利用した低品質な翻訳および各翻訳に対するクラウドソーシングによる品質評価を加え,コーパスを再構築した. 結果として, ベースライン検出器は簡単な誤訳を検出することができた。このべースラインを基盤とし,より複雑な異言語間対話における誤訳検出器の構築を目指す. ## 1 はじめに 国際化の進展に伴い,異言語間対話の必要性が高まっている. しかし, 現在の機械翻訳技術は,系統だった文書の翻訳では確かな性能を発揮するが $[2,3,4]$, 対話翻訳に適しているとは言い難い $[5,6,7,8]$. 機械翻訳システムで誤訳が生成された場合,ユーザーはその誤訳を識別できず,混乱や誤解を招く可能性がある. 本研究では,このような誤訳を検出し,その発生をユーザーに通知することで,潜在的な誤解を低減する異言語間対話支援システムの開発を目指す.このシステムの核心として,本論文では,異言語間対話翻訳の誤訳を検出する誤訳検出タスクの提案およびベースラインとして BERTを用いた誤訳検出器の作成を行った. 本誤訳検出タスクの説明図を図 1 に示す. この誤訳検出では,異言語間対話において機械翻訳モデルが誤訳文または文脈との関連性が薄い翻訳文を生成した場合, 誤訳検出器がユーザーに誤訳の可能性があるという警告を知らせる。この警告メッセージによって,A 言語側(説明図の日本語側)のユーザーはより機械翻訳が翻訳しやすい形にテキストを修正する 図1 機械翻訳を介した異言語間対話における誤訳検出夕スクの概略図. 検出器は翻訳 $j a_{2}$ の正確さ一一貫性の評価を行う。 ことが可能である。また, B言語側(説明図の英語側)のユーザーも,不適切または文脈にそぐわない単語や文章が翻訳エラーである可能性が高いことを認知できる. 検出した誤訳を評価するために,我々は既存の雑談対訳コーパス「BPersona-chat $」$ [1] に加え,新たに比較的低品質な機械翻訳文およびクラウドソーシングでラベル付けした翻訳の品質ラベル(正訳または誤訳)を加えたデータセットを作成した。実験では,異なる言語間の雑談対話の翻訳が正しいか誤りであるかを分類する誤訳検出器を学習し (図 1), その性能を作成したデータセットで評価した. 本論文の主な貢献は(1)異言語間対話誤訳検出タスクの提案(2)BPersona-chatコーパスの再構築(3)異言語間対話支援システムを開発するためのべースライン誤訳検出器の提供の三つである. ## 2 誤訳検出タスクの定義 本研究で扱う「異言語間対話における誤訳検出夕スク」を定義する。まず,本研究では「異言語間対話」を異なる言語での雑談対話と定義する。したがって,「異言語間対話における誤訳検出タスク」とは,機械翻訳システムを介した異なる言語での対話において,発話(応答)が翻訳システムによって正しく翻訳されたかどうかを予測するタスクとする。本タスクでは,入力として異言語間対話中の文脈 & & & \\ 表 1 原文に対して三つの翻訳文と人間による評価を付加した BPersona-chat の例. 情報(例えば,直前の相手の発話,相手の発話の翻訳,応答,応答の翻訳など)を受け取り,出力として応答の翻訳が誤りであるかどうかを出力する誤訳検出器を構築し,それを用いて誤訳判定を行うことを想定する。図 1 に,日本語・英語対話における英語応答の日本語訳を評価する例を示す.機械翻訳システムによって, 日本語話者の最初の発話 $j a_{1}$ が $e n_{1}$ に翻訳され, 英語話者の応答 $e n_{2}$ が $j a_{2}$ に翻訳される.このとき, 誤訳検出器は直前の話者の発話, その翻訳と応答 $\left(j a_{1}, e n_{1}, e n_{2}\right)$ を参照し, $e n_{2}$ の翻訳 $j a_{2}$ が正確かつ一貫しているかどうかを予測する. この例では,検出器は「I agree(賛成です)」という応答に対する「ありがとう」という翻訳が誤訳であると評価している。 検出器はこのように, 会話者に関係なく,各発話の翻訳が行われるたびに,翻訳文を評価して誤訳の有無を検出するものと想定する ## 3 関連研究 翻訳品質推定タスク Wikipedia の記事や Amazon のレビューなど,主に人間の書いた文章を対象とした品質評価タスク $[9,10]$ と比較して,我々の翻訳品質評価タスクは翻訳文を対象とするという点で新しいタスク設定となる. その上, 本タスクでは, 対話翻訳の誤訳を検出しするため,対話で用いる口語文の文脈を理解する必要がある. 並列対話コーパス日英対話コーパスとして,商談シーンを収録した Business Scene Dialog [11] がある.しかし,我々のタスクではより日常的なシーンでの対話支援を目的としている. 我々は他言語の並列対話コーパスの構築方法を参考に,タスクに相応しい日英雑談対話コーパスを構築した. ここでは,英独対話コーパス BConTrasT [7] と英中対話コーパス BMELD [8] の構築を参照した. 英独対話コーパス BConTrasT は, WMT2020 対話翻訳タスクの主催者が英語対話コーパス Taskmaster-1 [12] をドイツ語 に翻訳して作成したコーパスである。また,英中対話コーパス BMELD も同様に,MELD [13] という英語対話コーパスを中国語に翻訳して作成したコーパスである. これらの並列対話コーパスを参考に,我々は雑談対話が含まれる英語対話コーパス Persona-chat [14] と日本語対話コーパス JPersona-chat [15] を元になるデータセットとして採用し,日英雑談対話対訳コー パス BPersona-chat を構築した [1]. 品質を保証するため,クラウドワーカーに依頼して Persona-chat 中にある不自然な話題転換や誤解などが含まれていて一貫性がない対話をフィルタリングし,プロの翻訳家の手で翻訳を付与した. 本研究では、提案タスクを評価するため,一度構築した BPersona-chat に新たな翻訳とアノテーションを付与し、評価用データセットとして再構築した. ## 4 評価用データセット 本タスクの評価用データセットにするため, BPersona-chat に新たな翻訳文を追加した. さらに,翻訳が対話翻訳として許容できるかについて評価し,データセットを再構築した. 詳細は以下の通りである. ## 4.1 対話データの人間による翻訳 BPersona-chat を構築する際,Persona-chat の合計 2, 940 の発話から上位 200 件の発話と, JPersona-chat の合計 2,740 の発話から上位 250 件の発話を抽出し,それぞれの対象言語に翻訳した1)。翻訳者には,翻訳の正確さと対話としての一貫性の双方に配慮してもらった. その結果, 450 の対話(5,680の発話) とその翻訳を得ることができた [1]. BPersona-chat を再構築する際,上記のデータも人間による翻訳として活用した.  図 2 人間による翻訳,モデル A の翻訳,モデル B の翻訳それぞれにおけるアノテーション後の正訳と誤訳の割合. ## 4.2 対話データの機械翻訳 誤訳検出タスクを解く検出器のベースラインを構築するため,BPersona-chat における専門家の翻訳に加え,主に負例として利用することを念頭に機械翻訳で生成した翻訳結果を用意した。機械翻訳結果を得るために,2 種類の機械翻訳モデルを用意した. その 1 つは, OpenSubtitles2018 [16] によって学習した Transformer ベースのニューラル機械翻訳(NMT) であり,これをモデル $\mathrm{A}$ と呼ぶ. モデル $\mathrm{A}$ の出力を BPersona-chat で評価すると,BLEU の値 [17] は 4.9 となった2)。なお,モデル A の BLEU 值が比較的低い原因は, OpenSubtitles2018 と BPersona-chat のドメインが違うことによるものと考えられる.しかし, データセットを構築するためにあえて低品質の翻訳結果が必要であったため,これは望ましい結果である。次に,より良い機械翻訳文を生成するため,公開されている機械翻訳 API(DeepL API)を使用した.これをモデル B と呼ぶ. BPersona-chatをモデル B で評価すると BLEU スコアは 26.4 となった. ## 4.3 翻訳の人間による評価 人間の翻訳および機械翻訳モデル $\mathrm{A}, \mathrm{B}$ が生成した翻訳候補に対し, 誤訳検出タスクにおける翻訳品質ラベルを付与した。なお,この判定は,英語と日本語の両方に堪能なクラウドワーカーを集めて実施した. 図 2 に示す結果から,モデル A の翻訳の $89.58 \%$ ,モデル B の翻訳の $30.25 \%$ ,人間の翻訳の $10.51 \%$ が誤訳と評価された ${ }^{3}$. 発話に付与された翻訳が全て正しくない場合,誤訳検出タスクにおいて参照する文脈として使用することは難しい。したがって,人間による翻訳,モデル $\mathrm{A}$ の翻訳,モデル $\mathrm{B}$ の翻訳の全てが誤っている 159 件の発話は評価データとして用いないことと 2) NMT モデル A の学習は付録 A を参照. 3)クラウドソーシングの詳細については付録 C を参照. 表 2 マジョリティクラス分類器,マイノリティクラス分類器,および誤訳検出器の精度. 表 3 BPersona-chatにおける誤訳検出器の $\mathrm{F}$ 值,適合率と再現率. した。最終的には,英語発話 2,674 件に対して日本語訳 8,022 件が得られ,そのうち 3,406 件が誤訳,残りの 4,616 件が正訳であった.また,日本語発話 2,397 件に対して英語訳 7, 190 件が得られ,3,096 件が誤訳,4,094 件が正訳となった。これらをまとめて BPersona-chat コーパスを再構築した ${ }^{4)}$. 表 1 は BPersona-chat のサンプルである. ## 5 ベースライン誤訳検出器 誤訳検出器のベースラインとして, BERT に基づく二值分類モデル $[18,19]$ を学習・評価した ${ }^{5)}$. 英語発話 $e n_{2}$ の日本語翻訳 $j a_{2}$ の誤訳判定をする場合,分類モデルの入力は “ $j a_{1}$ [SEP]en $n_{1}$ [SEP]en $n_{2}$ [SEP] $j a_{2}$ ”とした. 同様に, 日本語発話 $j a_{2}$ の翻訳 $e n_{2}$ の誤訳判定をする場合, BERT の元実験と同様,分類結果に SoftMax 関数を適用して予測値を計算した。 分類モデルの学習には OpenSubtitles2018 データセット約 100 万の発話を用いた.参照訳を正例,低品質翻訳モデル A による出力を(4.2 節)で擬似的な負例とし, HuggingFace ${ }^{7)}$ が提供する多言語 BERT モデルを再学習して,英語から日本語,日本語から英語両方向の誤訳検出器を構築した。 ## 6 実験 本節では,異言語間対話訳における誤訳検出器の試行と評価結果を報告する。  英 $\rightarrow$ 日 表 4 BPersona-chat に対する誤訳検出器の混同行列(行ヘッダが人間による評価, 列ヘッダが検出器による予測). ## 6.1 評価指標 マジョリティクラスとマイノリティクラス分類器誤訳検出器の予測が偶然正解したものではないことを確認するために,マジョリティクラス分類器,マイノリティクラス分類器,そして誤訳検出器の精度を計算した。 $\mathrm{F}$ 値, 適合率と再現率誤訳検出器の性能は $\mathrm{F}$ 値 (F)によって評価した。また,適合率(Pre)と再現率(Rec)も合わせて計算した.このとき真値(T) を誤訳ラベルが付いた事例,正例(P)を検出器が誤訳と判定した事例とした。 混同行列誤訳検出器の性能を評価するため,翻訳が人間,NMT モデル A,NMT モデル B のいずれによって翻訳されたかに応じて混同行列を示す. ## 6.2 結果 誤訳検出器は異言語間対話中の誤訳をある程度分類することができることがわかった. 表 2 に示す精度から, 誤訳検出器はマジョリティクラスとマイノリティクラス分類器と比較して高い性能を得た。この結果は,検出器は片方の結果のみを偏って出力しているわけではないということを示している。さらに,表 3 に示す $\mathrm{F}$ 值,適合率,再現率によると,誤訳検出器は BPersona-chat の誤訳をそれなりの精度で識別することが可能であった. しかし,表 4 に翻訳の種類に応じた混同行列より,検出器は高品質なモデル B で生成された翻訳をうまく識別することはできなかった。.検出器はモデル B で生成された誤訳の半分以上を正訳として判断した。うまく判別できなかった理由として,誤訳検出器が, 低品質なモデル A で生成された負例で学習を行なっていることが挙げられる。誤訳検出器と従来の BLEU 計算による評価を比較するため,BPersona-chat 中の誤訳文に対する sentence-BLEU スコア $[20]^{8)}$ を計算した. sentenceBLEU を計算する際,正訳ラベルがついた翻訳文を参照訳とした。その結果,誤訳ラベルがついた例のうち,誤訳検出器によって誤訳と判断され,かつ sentence-BLEU スコアも 60 以下となった翻訳文は日本語誤訳の $78.83 \%$, 英語誤訳の $76.75 \%$ となった. なお,誤訳ラベルがついた例のうち,誤訳検出器では正しく誤訳と判断されたが sentence-BLEU スコアが 60 以上となる翻訳文は,日本語誤訳の $2.14 \%$,英語誤訳の $21.83 \%$ となった。結果として, 誤訳検出器は正しい翻訳(参照訳)の有無に依存せず, sentence-BLEU スコアを基準として誤訳を判別したときの精度の 70〜 80\%程度に匹敵すると判明した. また,特に英語訳文を判定する際,ベースライン誤訳検出器は sentence-BLEU スコアが高い,すなわち表層的には正訳と類似している誤訳文も検出可能であることを示唆する結果が得られた. このように, ここに提案する誤訳検出器は,BLEU のような指標では判別できない誤訳を判別できる可能性が高く, この結果は誤訳検出器が異言語間対話の支援システムとして活用できる可能性を示している. ## 7 まとめ 本論文では,異言語間でのコミュニケーションを支援するために,異言語間対話における誤訳検出夕スクを提案した。本研究における評価のために,複数ターンの雑談をもとに構成された日英対訳コー パスに,比較的低品質な機械翻訳文およびクラウドソーシングによる翻訳の品質(正訳または誤訳)の分類を付与した評価用データセットを構築した。また,誤訳を検出する誤訳検出器を学習し,異言語対話における誤訳の検出を支援するシステムのベースラインを構築した.更に,上記の評価用データセットを用いてベースラインを評価した。 今後,異言語間対話支援システムの向上に向けて,より詳細に誤訳の可能性を示す機能の実現を目指している。発展として,翻訳に含まれる具体的な誤りを特定できるように,二值分類を複数ラベルに改良することを考えている。また,発話候補を参考情報として提供し,ユーザーに発話の修正を促すことも検討したい.  ## 謝辞 本研究は JST 科学技術イノベーション創出に向けた大学フェローシップ創設事業 JPMJFS2102, JST CREST Grant Number JPMJCR20D2,JST ムーンショット型研究開発事業 JPMJMS2011,JSPS 科研費 JP20J21694 の支援を受けたものである. BPersona-chat の配布を許可いただいた Personachat [14] の開発者様と JPersona-chat [15] の開発者様に深く感謝申し上げます。 Amazon Mechanical Turk においてクラウドワーカーとしてご協力いただいた皆様へ,深く感謝を申し上げます。 本研究を進めるにあたり,頻繁に議論に参加していただいた東北大学 Tohoku NLP グループの皆様へ感謝いたします。 ## 参考文献 [1] Yunmeng Li, Jun Suzuki, Makoto Morishita, Kaori Abe, Ryoko Tokuhisa, Brassard Ana, and Inui Kentaro. Bpersona-chat: A coherence-filtered english-japanese dialogue corpus. In Proceedings of NLP2022, pp. E7-3, 2022. [2] Loïc Barrault, Ondřej Bojar, Marta R. Costa-jussà, Christian Federmann, Mark Fishel, Yvette Graham, Barry Haddow, Matthias Huck, Philipp Koehn, Shervin Malmasi, Christof Monz, Mathias Müller, Santanu Pal, Matt Post, and Marcos Zampieri. Findings of the 2019 conference on machine translation (WMT19). In Proceedings of the Fourth Conference on Machine Translation (Volume 2: Shared Task Papers, Day 1), pp. 1-61, 2019. [3] Loïc Barrault, Magdalena Biesialska, Ondřej Bojar, Marta R. Costa-jussà, Christian Federmann, Yvette Graham, Roman Grundkiewicz, Barry Haddow, Matthias Huck, Eric Joanis, Tom Kocmi, Philipp Koehn, Chi-kiu Lo, dow, Matthias Huck, Eric Joanis, Tom Kocmi, Philipp Koehn, Chi-kiu Lo, aki Nakazawa, Santanu Pal, Matt Post, and Marcos Zampieri. Findings of the 2020 conference on machine translation (WMT20). In Proceedings of the Fifth Conference on Machine Translation, pp. 1-55, 2020 [4] Toshiaki Nakazawa, Nobushige Doi, Shohei Higashiyama, Chenchen Ding, Raj Dabre, Hideya Mino, Isao Goto, Win Pa Pa, Anoop Kunchukuttan, Yusuke Oda, Shantipriya Parida, Ondřej Bojar, and Sadao Kurohashi. Overview of the 6th workshop on Asian translation. In Proceedings of the 6th Workshop on Asian Translation, pp. 1-35, 2019 [5] Samuel Läubli, Rico Sennrich, and Martin Volk. Has machine translation achieved human parity? a case for document-level evaluation. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 4791-4796, 2018. [6] Antonio Toral, Sheila Castilho, Ke Hu, and Andy Way. Attaining the unattainable? reassessing claims of human parity in neural machine translation. In Proceedings of the Third Conference on Machine Translation: Research Papers, pp. 113-123, 2018 . [7] M. Amin Farajian, António V. Lopes, André F. T. Martins, Sameen Maruf, and Gholamreza Haffari. Findings of the WMT 2020 shared task on chat translation. In Proceedings of the Fifth Conference on Machine Translation, pp. 65-75, 2020. [8] Yunlong Liang, Fandong Meng, Yufeng Chen, Jinan Xu, and Jie Zhou. Modeling bilingual conversational characteristics for neural chat translation, 2021. [9] Lucia Specia, Frédéric Blain, Marina Fomicheva, Erick Fonseca, Vishrav Chaudhary, Francisco Guzmán, and André F. T. Martins. Findings of the WMT 2020 shared task on quality estimation. In Proceedings of the Fifth Conference on Machine Translation, pp. 743-764, 2020. [10] Erick Fonseca, Lisa Yankovskaya, André F. T. Martins, Mark Fishel, and Christian Federmann. Findings of the WMT 2019 shared tasks on quality estimation. In Proceedings of the Fourth Conference on Machine Translation (Volume 3: Shared Task Papers, Day 2), pp. 1-10, 2019. [11] Matīss Rikters, Ryokan Ri, Tong Li, and Toshiaki Nakazawa. Designing the business conversation corpus. In Proceedings of the 6th Workshop on Asian Translation, pp. 54-61, Hong Kong, China, November 2019. Association for Computational Linguistics. [12] Bill Byrne, Karthik Krishnamoorthi, Chinnadhurai Sankar, Arvind Neelakantan, Daniel Duckworth, Semih Yavuz, Ben Goodrich, Amit Dubey, Andy Cedilnik, and Kyu-Young Kim. Taskmaster-1: Toward a realistic and diverse dialog dataset, 2019. [13] Soujanya Poria, Devamanyu Hazarika, Navonil Majumder, Gautam Naik, Erik Cambria, and Rada Mihalcea. Meld: A multimodal multi-party dataset for emotion recognition in conversations, 2019. [14] Saizheng Zhang, Emily Dinan, Jack Urbanek, Arthur Szlam, Douwe Kiela, and Jason Weston. Personalizing dialogue agents: I have a dog, do you have pets too?, 2018 [15] Hiroaki Sugiyama, Masahiro Mizukami, Tsunehiro Arimoto, Hiromi Narimatsu, Yuya Chiba, Hideharu Nakajima, and Toyomi Meguro. Empirical analysis of training strategies of transformer-based japanese chit-chat systems, 2021. [16] Pierre Lison, Jörg Tiedemann, and Milen Kouylekov. OpenSubtitles2018 Statistical rescoring of sentence alignments in large, noisy parallel corpora. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC 2018), pp. 1742-1748, 2018 [17] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Lin guistics, pp. 311-318, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics. [18] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, 2019. [19] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clemen Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Rémi Louf, Morgan Funtowicz, Joe Davison, Sam Shleifer, Patrick von Platen, Clara Ma, Yacine Jernite, Julien Plu, Canwen Xu, Teven Le Scao, Sylvain Gugger, Mariama Drame, Quentin Lhoest, and Alexander M. Rush. Transformers: State-ofthe-art natural language processing. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing: System ence on Empirical Methods in $\mathrm{Nat}$ Demonstrations, pp. $38-45,2020$. [20] Steven Bird, Ewan Klein, and Edward Loper. Natural language processing with Python: analyzing text with the natural language toolkit. O'Reilly Media, Inc.", 2009. [21] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention Is All You Need. In Advances in Neural Information Processing Systems 31 (NIPS 2017), pp. 5998-6008, 2017 [22] Jörg Tiedemann and Yves Scherrer. Neural machine translation with extended context. In Proceedings of the Third Workshop on Discourse in Machine Translation, pp. 82-92, 2017 [23] Diederik Kingma and Jimmy Ba. Adam: A method for stochastic optimization. In Proceedings of the 3rd International Conference on Learning Representations (ICLR 2015), 2015 [24] Nitish Srivastava, Geoffrey Hinton, Alex Krizhevsky, Ilya Sutskever, and Ruslan Salakhutdinov. Dropout: A simple way to prevent neural networks from overfitting. Journal of Machine Learning Research, Vol. 15, No. 56, pp. 1929-1958, 2014 [25] Christian Szegedy, Vincent Vanhoucke, Sergey Ioffe, Jon Shlens, and Zbigniew Wojna. Rethinking the Inception Architecture for Computer Vision. In 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR 2016), pp. 2818-2826, 2016 [26] Myle Ott, Sergey Edunov, David Grangier, and Michael Auli. Scaling Neural Machine Translation. In Proceedings of the Third Conference on Machine Translation (WMT 2018), pp. 1-9, 2018. [27] Yonghui Wu, Mike Schuster, Zhifeng Chen, Quoc V. Le, Mohammad Norouzi, Wolfgang Macherey, Maxim Krikun, Yuan Cao, Qin Gao, Klaus Macherey, Jeff Klingner, Apurva Shah, Melvin Johnson, Xiaobing Liu, Lukasz Kaiser, Stephan Gouws, Yoshikiyo Kato, Taku Kudo, Hideto Kazawa, Lukasz Kaiser, Stephan Gouws, Yoshikiyo Kato, Taku Kudo, Hideto Kazawa, Keith Stevens, George Kurian, Nason Riesa, Alex Rudnick, Oriol Vinyals, Greg Corrado, Macduff Hughes, and Jeffrey Dean. Google's neural machine translation system Bridging the gap between human and machine translation. CoRR, Vol. abs/1609.08144, , 2016. [28] Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. fairseq: A Fast, Extensible Toolkit for Sequence Modeling. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics (Demonstrations), pp. 48-53, 2019. [29] Rico Sennrich, Barry Haddow, and Alexandra Birch. Neural machine transla tion of rare words with subword units. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1715-1725, Berlin, Germany, August 2016. Association for Computational Linguistics. 表 5 NMT モデル A 学習のハイパーパラメータ一覧 表 6 分類モデル学習のハイパーパラメータ一覧 ## A 翻訳モデルの学習設定 ニューラル機械翻訳モデル $\mathrm{A}$ を学習する際,まずは BPE [29] でコーパスをトークナイズしてサブワードにする. 語彙の大きさは 32,000 とした. 文脈を考慮するために,2つの入力文を与えて 2 つ連続して出力する 2-to-2 Transformer-based NMT モデル A [22] を学習した. 表 5 にハイパーパラメータの一覧を示している. ## B 分類モデルの学習設定 分類モデルの学習について説明する. 表 6 にハイパー パラメータの一覧を示している. ## C クラウドソーシング関連設定 ## C. 1 Persona-chat のフィルタリング Amazon Mechanical Turk (https://requester.mturk. $\mathrm{com} /$ )のクラウドワーカーに,Persona-chat の一貫性がない対話をフィルタリングするよう依頼した. 以下に当てはまる場合,「一貫性がない」対話であると定義した. - questions being ignored; - the presence of unnatural topic changes; - one is not addressing what the other said; - responses seeming out of order; - or being hard to follow in general. ワーカーには,誤字脱字などの細かいことは気にせず,大まかな流れを把握するよう指示した。 フルラウンドでは, Persona-chat から 1,500 の対話を選択した. クラウドワーカーは,予選を経て選ばれた.各クラウドワーカーは対話 5 件を評価し,各対話は異なるワーカー 10 人によって評価された. 選ばれた 200 対話はワーカー 10 人のうち,少なくとも七人が正しいかつ一貫していると評価した対話となった. ## C. 2 対話に対する翻訳の評価 クラウドワークス (https://crowdworks.jp/)のクラウドワーカーに,BPersona-chatの人間による翻訳と機械翻訳を低品質か高品質かラベル付けしてもらうタスクを行った. クラウドワーカーの資格は,日本語はネイティブレベル,英語はビジネス・アカデミックレベルに到達できるレベルとなっている。このタスクでは,以下の場合に「低品質である」と定義した. - the translation is incorrect; - parts of the source chat are lost; - there are serious grammatical or spelling errors that interfere with understanding; - the person's speaking style changes from the past utterance; - the translation is meaningless or incomprehensible; - or the translation is terrible in general. ワーカーは,対話全体が含まれるファイルを一つ一つ確認し,各発話を評価することができた。 ワーカーによって,クラウドワーカーは二週間でファイル 50 個から 300 個程度を評価した。このタスクは事前に予選を行い,予選を通過したワーカーのみ本選(実際の作業)に参加可能とした.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B1-1.pdf
# 計算資源が限られた複数組織での出力選択による協働の検討 伊藤郁海 ${ }^{1}$ 伊藤拓海 ${ }^{1,2}$ 鈴木潤 1,3 乾健太郎 1,3 1 東北大学 ${ }^{2}$ Langsmith 株式会社 ${ }^{3}$ 理化学研究所 [email protected] \{t-ito,jun.suzuki,kentaro.inui\}@tohoku.ac.jp ## 概要 潤沢な計算資源を持たない組織一つでは,高性能な大規模ニューラルモデルの開発は困難である. 本稿では,そのような組織がそれぞれ開発したモデルを集結させて組み合わせた場合の性能は, 潤沢な計算資源を使い一箇所で訓練されたモデルの性能に匹敵するのかどうか検証する.実験では,独立に訓練された少訓練データかつ小サイズの小モデル群と,多訓練データかつ大サイズの単独大モデルの英日翻訳の性能比較を行った. 実験の結果,小モデル群が生成する複数の出力の中から適切な出力を選択した場合, 小モデル単体と比較して 10 倍の訓練データ量かつ 3 倍のモデルサイズの大モデルの能力に匹敵する性能を達成した。 ## 1 はじめに 近年,自然言語処理分野において大規模ニューラルモデルが様々なタスクで高い性能を達成している. その背景には,より多くの訓練データを用いて,より大きなモデルを訓練することで,モデルの性能がべき乗則に従って向上し続けることが期待できるという実験的知見がある [1]. 今後も高性能モデルの実現を目的とした訓練データやモデルサイズのさらなる大規模化が進む可能性は十分考えられる.こうした大規模モデルの開発には多くの計算資源が必須となるため,潤沢な計算資源を持つ一部の企業や研究機関 (大組織) のみがモデル開発を行っているというのが実情である. しかし,大学の研究室など計算資源が潤沢ではない組織(小組織)が高性能なモデルの開発に関与できないという状況は望ましくない [2]. 限られた計算資源を最大限に活用する方法を模索し, より広く多くの研究者や開発者がモデルの性能向上において競争力を持つことは重要である. では,どのようにすれば計算資源で劣る組織が性能の高いモデルを開発することができるだろうか.本稿では,計算資源で劣る複数の小組織が力を合わせた場合に,大組織が作るモデルに匹敵する性能を達成できるかどうかを検証する.具体的には,独立に訓練された少訓練データかつ小サイズの小モデル群と多訓練データかつ大サイズの単独大モデルの性能比較を行う. 本稿では,小モデル群の活用方法として,各小モデルの出力の中から最適であると推定される出力を小モデル群全体の出力として採用するという戦略をとる。訓練済みモデルを多数集め,それらのモデルの出力の中から最適であると推定される出力を選択するという戦略は,各モデルの訓練は独立に行うことができるという点で有用である. モデルの訓練を独立に実行できることには二つの利点がある。一つ目は,訓練データの共有が不要な点である。これによりプライバシー保護が必要な組織 (例: 医療機関,金融機関など)が持つデータを活用できる。二つ目は,他の組織の開発やモデル共有後の工程に対する考慮が不要な点である.個々の組織は,既存のモデル開発ノウハウをそれぞれの状況に合わせて自由に適用することができる. 本稿では,英日翻訳タスクを題材として小組織群と大組織間の比較を行った. 模擬実験としての簡易化のために,以下の制約のもとに実験を行った. ・各小組織は,大組織用の訓練データを等分割したものの一部を訓練データとして用いる. $\cdot$訓練,推論の独立性は保った上で,小組織間で同一の実験設定を用いる. 実験の結果,複数の小モデルの出力集合に対して,参照なし評価指標を用いた出力選択を行ったところ,大モデル(小モデル単体と比較して 10 倍の訓練データ量かつ 3 倍のモデルサイズ)の性能に匹敵する結果となった。 ## 2 関連研究 計算資源が限られている場合でも,高精度なモデルを構築するため,さまざまな研究が行われてい る. 例えば,モデル性能を保ちながら効果的な訓練データを選択することで,訓練データ量の削減を試みた研究がある $[2,3]$. また,量子化などによりパラメータサイズを削減した上でモデルを訓練するという方法も提案されている [4, 5]. 他にも,本研究と類似した取り組みとして,独立した複数の計算機の協働による分散的なモデル訓練方法も研究されている. 例えば,連合学習は,モデルの訓練データが分散して存在する場合に,それぞれの場所で独立にモデルの訓練を行った後,各モデルの更新情報を集約することにより,全体として一つの大きなモデルを訓練する手法である [6]. また,訓練の独立性を保ちながら複数モデルの合成を繰り返し,性能向上を試みる新たな事前訓練手法も提案されている [7]. また,本研究と同様に,複数のモデルを推論時に用いることで良い出力を得る方法も研究されている. 例えば,アンサンブル [8] は,複数のモデルの予測確率を共有し, その平均から最終的な出力を得る手法である. そのため, 複数の組織間でアンサンブルを適用するためには事前にモデルの辞書を共有することが必要である. モデルの推論時ではく,推論後の出力集合をリランキングやその集合から最も良い出力を選択するという方法も研究されている [9]. ## 3 タスク定義 本稿では,モデルの訓練に使用するデータ量とモデルサイズを制御することにより,使える計算資源が少ない小組織と,豊富な計算資源を使える大組織を再現する.本実験の概要を図 1 に示す.小組織の総数を $n$ とし,大組織,小組織が使用する訓練データをそれぞれ $D, d_{i}(1 \leq i \leq n)$ とすると,本実験における $D$ と $d_{i}$ の関係は以下のように表される1). $ D=d_{1} \cup d_{2} \cup \ldots \cup d_{n}, \quad d_{i} \cap d_{j}=\emptyset(i \neq j) $ また,大組織,小組織が使用するモデルをそれぞれ $M, m_{i}$ とすると,モデルサイズに関して, $M>m$ が成り立つ. 実験にて使用する具体的なデータセットおよびモデルは, 4.2 節, 4.1 節にて述べる. 大組織は,訓練データ $D$ を用いてモデル $M$ の訓練を行い,評価データ $X$ に対する出力を評価指標 1)組織間において共通の訓練データが存在し,かつ訓練デー タの一部のみが各組織独自のデータであるような状況も想定され得るが,本実験の対象外とする。 図 1 実験設定の概要 $\operatorname{Eval}(\cdot)$ により評価する.大組織のモデルのスコアは次の式で表される. $ \text { score }_{\text {Large }}=\frac{1}{|X|} \sum_{n=1}^{|X|} \underset{x_{n} \in X}{\operatorname{Eval}\left(M\left(x_{n}\right)\right)} $ 各小組織は,訓練データ $d_{i}$ を用いてモデル $m_{i}$ の訓練を独立に行う. その後, 評価データ $x_{j} \in X(1 \leq j \leq|X|)$ に対する小モデルたちの候補文集合 $Y_{j}$ を得る. $ Y_{j}=\left.\{y_{1}=m_{1}\left(x_{j}\right), y_{2}=m_{2}\left(x_{j}\right), \ldots, y_{i}=m_{i}\left(x_{j}\right)\right.\} $ 出力選択関数を $f_{\mathrm{sel}}(\cdot)$ とすると, 評価文 $x_{j}$ に対して最終的な出力 $h_{j}$ は以下のようになる. $ h_{j}=\underset{y \in Y_{j}}{\arg \max } f_{\mathrm{sel}}(y) $ 評価データ $X$ に対する小モデル群のスコアは次の式で表される. $ \text { score }_{\text {small }}=\frac{1}{|X|} \sum_{n=1}^{|X|} \operatorname{Eval}\left(h_{n}\right) $ 実験にて使用する具体的な Eval および $f_{\text {sel }}$ は, 4.3 節にて述べる. なるかどうかを検証する。 ## 4 実験 本稿では,英日翻訳タスクにて実験を行う。 ## 4.1 モデル 翻訳モデルとして, Transformer [10]を使用した. モデルパラメータが約 100M のモデルを小組織が扱う小モデル,約 $300 \mathrm{M}$ のモデルを大組織が扱う大モデルとみなした. ## 4.2 訓練用/評価用データセット 訓練データとしてJParaCrawlv3.0 [11](約 25M)を使用した. 小モデルは,25M の訓練データを等分割したもの2)の一部を用いてモデルの訓練を行う.大モデルは,25M の訓練データを全て用いてモデルの訓練を行う。また,評価用データとして WMT2022 の newstest2022 [12]を使用した. サブワード分割器およびモデルの辞書の作成は,分割前の全訓練デー 夕をもとに行い,小組織,大組織含め全モデルで同一のものを使用した.また、評価指標として, COMET[13] ${ }^{3)}$ と BLEURT $[14,15]^{4)}$, sacreBLEU [16] を使用する。 ## 4.3 出力選択方法 本実験では,式 4 の出力選択関数 $f_{\mathrm{sel}}(\cdot)$ として,参照あり評価指標である COMET と参照なし評価指標である COMETKIWI [17] ${ }^{5}$ を使用する。参照あり手法は評価時に参照テキストを使用し出力選択をしているため,実際の設定では使用することができない。また,COMET は評価指標として使用したものと同じモデルを使用した. つまり,COMET による出力選択はオラクル設定である。一方で, COMETKIWI は出力選択時に,翻訳モデルへの原文と翻訳モデルの出力のみが必要であり,現実の設定でも利用可能な方法である. ${ }^{6)}$ ## 4.4 比較設定 本稿では,以下の設定の翻訳性能を比較する。 ・Small : 小モデル. それぞれ小モデル群の平均値(Mean),最大値(Max),最小値(Min)を報告する. - Large : 大モデル単体. -Est:小モデルの候補文集合から COMETKIWI で最大スコアとなる翻訳文を選択する方法. 2)本実験では,分割においてドメインやトークン数など各データ集合の性質に関する考慮は行わない。 3) https://unbabel-experimental-models.s3.amazonaws. com/comet/wmt22/wmt22-comet-da.tar.gz(11月 22 日時点で公開されていたモデル) 4) https://storage.googleapis.com/bleurt-oss-21/ BLEURT-20.zip 5) https://unbabel-experimental-models.s3.amazonaws. com/comet/wmt22/wmt22-cometkiwi-da.tar.gz(11 月 23 日時点で公開されていたモデル) 6) wmt22-comet-da の訓練データは,2017 年から 2020 年の WMT News Translation Task における人手評価データである. また, wmt22-cometkiwi-da の訓練データは, wmt22-comet-da の訓練データと MLQE-PE データ [18] である.表 1 訓練データを 10 等分割した場合の結果(newstest2022) -PostCosE:小モデルの候補文集合に含まれる各文を単語分散表現を用いてべクトル化し,他の文とのコサイン類似度が最も高い翻訳文を選択する方法 [9]. 単語分散表現は,fastText[19] により,JParaCrawlv3.0 の日本語データを用いて作成. ・MaxRef : 小モデルの候補文集合から COMET で最大スコアとなる翻訳文を選択する方法. 個々の小モデルのハイパーパラメータ等の設定は全て揃えて実験を行った。なお,ハイパーパラメータ等の詳細な設定は付録 $\mathrm{A}$ に示す. ## 4.5 実験結果・考察 表 1 に,訓練データを 10 等分割し,小モデルが 10 個存在する状態における WMT2022 の newstest2022 に対する各手法の評価結果を示す. 7$)$ Small は,いずれもLarge に劣る性能を示した. ${ }^{8)}$ Est は, COMET と BLEURT において Large を超える性能を示し,MaxRef は全ての評価指標において Large を超える性能を示した。これらの結果より,モデルを複数用意した上で,それぞれの出力の中から最適な選択ができた場合,個々のモデルの性能から大きな性能向上が期待できる.また,Est と MaxRef の性能差は COMET と COMETKIWI の性能差でもある. 他方,PostCosE は Est と比較して小さな性能向上に留まった。その要因として,それぞれの手法の出力選択戦略の違いが考えられる. PostCosE は,モデル群の中央值的な出力を採用する手法である.この手法は,モデル群の中で及第点となる性能を持つモデルが多数派となるような状況において有効である 7) WMT2022 の newsdev2022, WMT2020 の newsdev2020 に対する評価も行い,結果を付録 Cに示した。 8)付録 B に,全訓練データで訓練した Small モデルの性能と 10 分割データで訓練した Large モデルの性能を示す. Large が Smallを超える性能を示した要因は,訓練データの量とモデルサイズの両方の影響であると示唆される.. と考えられる. 一方で, Est は, モデル群の中で最良と推定される出力を採用する手法である. この手法は,モデル群の中で性能の低いモデルが多数派であっても,高性能なモデルが一つでも存在すればそのモデルの出力が選択される. 訓練データが全く異なるなど,本実験のように各モデルの性能にばらつきが生じる得る状況の場合は,Est の方が PostCosE よりも好相性であることが示唆される. ## 4.6 発展:アンサンブル 使用できるモデルが複数ある場合に,それらのモデルを活用する方法の一つとして推論時のアンサンブル [8] が挙げられる. しかし,一般的なアンサンブルではモデル間でモデルの辞書を共有する必要がある。本稿では各小モデルが独立に訓練される場面を想定しているため,アンサンブルは比較設定に含まなかった. しかしながら,実験前に全ての小組織間で調整を行い,アンサンブルの実施が可能な場合は有効な手法である.そこで,本章では追加でアンサンブルを含む実験を行い,その結果を報告する。 なお,章 4.5 とは異なり,訓練データを 4 等分割し,小モデルが 4 個存在する状態にて実験する. 表 2 に,WMT2022 の newstest2022 に対する各手法の評価結果を示す. Small-*のハイフン以下はモデルのIDを示す. また, $0+1$ は Small-0と Small-1 をアンサンブルした場合の結果である。***(4), ***(15) は出力選択の対象となるモデル数の違いを示す.つまり, Est(4) は Small-0から Small-3 の 4 モデル、Est(15) は Small-0から Small-0+1+2+3 までの 15 モデルで候補文集合を得て出力選択を行った設定である. 全ての評価指標において, Est(4)よりも Est(15), MaxRef(4)よりもMaxRef(15) の方が高い性能を示した。これは,モデルアンサンブルを適用することで,候補文集合内により良い出力を得られたことを意味する。 また,アンサンブルに参加するモデル内に,性能が低いモデルが含まれる場合は,性能が向上しない場合もあることがわかった. 4 つの小モデル単体の性能に着目すると,Small-2 の COMET が他のモデルと比較して低く, Small-2がアンサンブルに関わる場合の COMET の値に注目すると,Small-2 が参加しない場合の方が高い性能を示している(例: Small-0+1:0.7919, Small-0+1+2:0.7898). ## 5 おわりに 本稿では,独立に訓練された少訓練データかつ小サイズの小モデル群は,多訓練データかつ大サイズの単独大モデルと同等の性能を達成できるのか,という研究課題の検証を英日翻訳の性能比較により行った. 複数の小モデルの出力集合に対して,参照なし評価指標を用いた出力選択を行った場合の性能は,大モデルの性能に匹敵することを示した.本実験結果は,計算資源の制約により単独組織が構築できるモデルの性能に限界があったとしても,複数の組織が協働することで,潤沢な計算資源を持つ単独組織が作成する大規模モデルに匹敵する性能を達成できる可能性があることを示唆するものである. 候補文集合から出力選択を行う戦略においては,出力選択器の性能が鍵となるため, 出力選択器のさらなる性能向上が望まれる,今後の展望として,翻訳タスク以外でも実験を行うことを計画している。 また,GPT-3 [20]のような汎用言語モデルによる複数タスクの性能比較においても本実験と同様の結果が得られるのかも検証する予定である。本実験では各小組織の訓練データが全て異なる設定を用いたが,訓練データの一部を共有するなど,より現実に即した設定での実験を検討する。 ## 謝辞 本研究は,JST ムーンショット型研究開発事業 JPMJMS2011(fundamental research), JSPS 科研費 JP21J14152 の助成を受けて実施されたものです.また,本研究を進めるにあたり,有益な助言を頂きました東北大学乾 - 坂口 ・徳久研究室の仲村祐希氏へ感謝いたします. ## 参考文献 [1] Jared Kaplan, Sam McCandlish, Tom Henighan, Tom B. Brown, Benjamin Chess, Rewon Child, Scott Gray, Alec Radford, Jeffrey Wu, and Dario Amodei. Scaling Laws for Neural Language Models, 2020. [2] 鈴木潤, 全炳河, 賀沢秀人. ニューラル言語モデルの効率的な学習に向けた代表データ集合の獲得. 言語処理学会第 28 回年次大会, 2022. [3] Tongzhou Wang, Jun-Yan Zhu, Antonio Torralba, and Alexei A. Efros. Dataset Distillation, 2018 . [4] Itay Hubara, Matthieu Courbariaux, Daniel Soudry, Ran El-Yaniv, and Yoshua Bengio. Quantized Neural Networks: Training Neural Networks with Low Precision Weights and Activations. J. Mach. Learn. Res., Vol. 18, No. 1, p. 6869-6898, jan 2017. [5] Ron Banner, Itay Hubara, Elad Hoffer, and Daniel Soudry. Scalable Methods for 8-Bit Training of Neural Networks. In Proceedings of the 32nd International Conference on Neural Information Processing Systems, NIPS'18, p. 5151-5159, Red Hook, NY, USA, 2018. Curran Associates Inc. [6] Brendan McMahan, Eider Moore, Daniel Ramage, Seth Hampson, and Blaise Aguera y Arcas. Communication-Efficient Learning of Deep Networks from Decentralized Data. In Aarti Singh and Jerry Zhu, editors, Proceedings of the 20th International Conference on Artificial Intelligence and Statistics, Vol. 54 of Proceedings of Machine Learning Research, pp. 1273-1282. PMLR, 2017. [7] Margaret Li, Suchin Gururangan, Tim Dettmers, Mike Lewis, Tim Althoff, Noah A. Smith, and Luke Zettlemoyer. Branch-TrainMerge: Embarrassingly Parallel Training of Expert Language Models, 2022. [8] Lior Rokach. Ensemble-based classifiers. Artificial intelligence review, Vol. 33, No. 1, pp. 1-39, 2010. [9] Hayato Kobayashi. Frustratingly Easy Model Ensemble for Abstractive Summarization. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 4165-4176, Brussels, Belgium, October-November 2018. Association for Computational Linguistics. [10] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, L ukasz Kaiser, and Illia Polosukhin. Attention is All you Need. In I. Guyon, U. Von Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 30. Curran Associates, Inc., 2017. [11] Makoto Morishita, Katsuki Chousa, Jun Suzuki, and Masaaki Nagata. JParaCrawl v3.0: A Large-scale English-Japanese Parallel Corpus. In Proceedings of the Thirteenth Language Resources and Evaluation Conference, pp. 6704-6710, Marseille, France, June 2022. European Language Resources Association. [12] Tom Kocmi, Rachel Bawden, Ondrej Bojar, Anton Dvorkovich, Christian Federmann, Mark Fishel, Thamme Gowda, Yvette Graham, Roman Grundkiewicz, Barry Haddow, et al. Findings of the 2022 Conference on Machine Translation (WMT22). [13] Ricardo Rei, José GC de Souza, Duarte Alves, Chrysoula Zerva, Ana C Farinha, Taisiya Glushkova, Alon Lavie, Luisa Coheur, and André FT Martins. COMET-22: Unbabel-IST 2022 Submission for the Metrics Shared Task. In Proceedings of the Seventh Conference on Machine Translation, Abu Dhabi. Association for Computational Linguistics, 2022. [14] Thibault Sellam, Dipanjan Das, and Ankur Parikh. BLEURT: Learning Robust Metrics for Text Generation. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7881-7892, Online, July 2020. Association for Computational Linguistics. [15] Amy Pu, Hyung Won Chung, Ankur Parikh, Sebastian Gehrmann, and Thibault Sellam. Learning Compact Metrics for MT. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 751-762, Online and Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. [16] Matt Post. A Call for Clarity in Reporting BLEU Scores. In Proceedings of the Third Conference on Machine Translation: Research Papers, pp. 186-191, Brussels, Belgium, October 2018. Association for Computational Linguistics. [17] Ricardo Rei, Marcos Treviso, Nuno M Guerreiro, Chrysoula Zerva, Ana C Farinha, Christine Maroti, José GC de Souza, Taisiya Glushkova, Duarte M Alves, Alon Lavie, et al. CometKiwi: ISTUnbabel 2022 Submission for the Quality Estimation Shared Task. arXiv preprint arXiv:2209.06243, 2022 [18] Marina Fomicheva, Shuo Sun, Erick Fonseca, Chrysoula Zerva, Frédéric Blain, Vishrav Chaudhary, Francisco Guzmán, Nina Lopatina, Lucia Specia, and André F. T. Martins. MLQE-PE: A Multilingual Quality Estimation and Post-Editing Dataset. In Proceedings of the Thirteenth Language Resources and Evaluation Conference, pp. 4963-4974, Marseille, France, June 2022. European Language Resources Association. [19] Piotr Bojanowski, Edouard Grave, Armand Joulin, and Tomas Mikolov. Enriching Word Vectors with Subword Information. Transactions of the Association for Computational Linguistics, Vol. 5, pp. 135-146, 2017 [20] Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel Ziegler, Jeffrey Wu, Clemens Winter, Chris Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, and Dario Amodei. Language models are few-shot learners. In H. Larochelle, M. Ranzato, R. Hadsell, M.F. Balcan, and H. Lin, editors, Advances in Neural Information Processing Systems, Vol. 33, pp. 1877-1901. Curran Associates, Inc., 2020 [21] Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. fairseq: A Fast, Extensible Toolkit for Sequence Modeling. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics (Demonstrations), pp. 48-53, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. ## A 実験設定の詳細 翻訳モデルの構築には fairseq [21]を使用した。 どのモデルでも共通して,最適化手法には Adam, Label-Smoothing は $\epsilon_{l s}=0.1$, Warmup Steps は更新回数の三分の一とした。また,推論時のビーム探索幅は 5 とした. 付録 $\mathrm{B}$ で使用する $2 \mathrm{~B}$ モデルは,大モデルのアーキテクチャに対して、隠れ層と順伝播層の次元増やしたモデルである。表 3 ,表 4 ,表 5 に Small,Large,2Bでのハイパーパラメータで異なる設定を示す. 表 3 Small モデルのハイパーパラメーターの一覧. 表 4 Large モデルのハイパーパラメーターの一覧. ## B データ量とモデルサイズの影響 表 6 に訓練データ量とモデルサイズを変化させ 25M の訓練データで訓練したモデルの性能を示す. ***-div10 は,25M の訓練データを 10 分割したものの一部を用いて訓練したモデルの性能を示す。また,比較対象として新たに $2 \mathrm{~B}$ のモデルを加えた. ${ }^{9)}$ ***-div10 と***-full の比較より,訓練データ量の違い (***-div10:2.5M,***-full:25M) がモデルの性能に影響していることがわかる. Small-div10 9) Large の性能を超えられなかったため,今回の訓練データに対しては訓練がうまくいかなかった. と Large-div10 の比較より, モデルサイズの違い (Small:100M,Large:300M)もモデルの性能に影響していることが示唆される. Est(Small)と Est (Large)の比較より,出力選択は個々のモデルの性能が向上した場合でも有効であることがわかる. 表 6 訓練データ量とモデルサイズを変化させた場合の各評価指標の值 (newstest2022) ## C 10 分割設定における性能評価 表 1 の実験と同様の実験を, newsdev2022と newsdev2020を評価データとして行った. 表 7 に newsdev2022 に対する結果を,表 8 に newsdev2020 に対する結果を示す.いずれの評価データにおいても,全ての評価指標で Est が Large を上回ることはなかった. しかし, Est と Small の比較から出力選択が性能向上に寄与していることがわかる. 表 7 訓練データを 10 等分割した場合の各評価指標の値 (newsdev2022) 表 8 訓練データを 10 等分割した場合の各評価指標の値 (newsdev2020)
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B1-2.pdf
# 形式論理学に基づく演繹コーパスによる 言語モデルに対する演繹推論能力の付与 森下皓文 森尾学 山口篤季 十河泰弘 日立製作所 研究開発グループ [email protected] ## 概要 言語モデルに演繹推論を学習させるための事例からなる演繹コーパスを提案する. 先行研究では演繹規則が恣意的に選ばれていた為,演繹推論の核心を捉えられなかった. 我々はこれを再考し, 形式論理学に基く根拠ある演繹規則群を採用する. 実験により,提案コーパスで学習した言語モデルが既存コー パスで学習した言語モデルより頑健な演繹推論能力を持つことを示す. 更に後続研究のため,コーパス・学習済みモデル・ソースコードを公開する。 ## 1 はじめに 論理的に物事を考える機械の実現は,人工知能黎明期からの夢である [1]. このゴールに対して近年,様々な論理推論ベンチマークが提案されている $[2,3,4,5]$. これらは通常, 優れた言語理解能力を持つ最先端の言語モデルを用いて取り組まれている. しかしながら,言語モデルをもってしても論理推論は難しいことが認識されつつある $[6,7,8]$. 言語モデルは,人間が書いた文章中の多くの良質な事例から,言語理解能力を帰納的に獲得した [9].逆に考えると,言語モデルの論理推論能力の低さは,人間が書いた文章中に良質な論理推論の事例が十分数含まれていないことを示唆している. そうであるならば,良質な論理推論の事例を多く含むコー パスを生成し,言語モデルに学習させることで,論理推論能力を獲得することができるはずである. このようなコーパスの 1 つとして,近年提案された RuleTaker [10] が挙げられる. RuleTaker は,自動生成された多段演繹証明を含む。 各演繹証明は,与えられた事実の集合に対して演繹規則を複数回適用することにより,仮説を証明 (あるいは反証) する (図 1 中の “Deduction Instance" と同様). 演繹規則としては, $\forall x F(x) \rightarrow G(x), F(a) \vdash G(a)(\vdash$ は “導出 する”の意) 等の,含意に類する規則が用いられた。 Artifical Argument Corpus [11] は RuleTaker 同様,自動生成された一段演繹証明からなるコーパスで,演繹規則として人手で選ばれたクリティカル・シンキングに役立つ規則,例えば対偶 $\mathcal{F} \rightarrow \mathcal{G} \vdash \neg \mathcal{G} \rightarrow \neg \mathcal{F}(\neg$ は否定) が用いられた。これらの演繹コーパスはいずれも,最も普遍的な論理推論能力の一つである,演繹推論能力を獲得する機会を提供し得る. しかしながら,これら演繹コーパスで採用された演繹規則は少数に限られ,また,恣意的であった。現実世界の複雑な演繹推論では多様な演繹規則が求められるため,再考する必要がある。 本研究はこの問題に答えることを目指す.まず,形式論理学 (Formal Logic) を訪れる (2 節). 形式論理学によれば,既存コーパスで使用された演繹規則も含め,妥当な演繹規則は無限に存在する。しかし, その中でも基本的な演繹規則群 (公理系) が存在し,公理系による多段演繹推論によって,その他の任意の演繹規則を導出できる(完全性)よって,公理系による多段演繹推論は任意の演繹規則による多段演繹推論を模擬することができる。既存コーパスの演繹規則群はこの性質を持たないので,たとえそれらを獲得したとしても,他の多様な演繹規則を模擬できない,我々はこの点を改め,演繹規則群として公理系を採用したコーパス FLD (Formal Logic Deduction, 3 節) を構築し,言語モデルに公理系を用いた演繹推論能力を獲得させることを目指す。 次に FLD の有効性を実験的に確かめる (4 節-6 節 ). 複数種のベンチマークにて,FLDで学習された言語モデルが既存コーパスで学習された言語モデルより頑健な演繹推論能力を持つことを示す. 最後に,FLDコーパス・ソースコード・学習済みモデルを公開する ${ }^{11}$ .FLDコーパスは既存コーパスより挑戦的なのでベンチマークとして有用である.  図 1: FLD は一階述語論理の公理系に基づく演繹推論事例を生成することを目的とする.また,将来の解析研究において様々なパターンのコーパスを生成することを見据え,多様なオプションが用意されている. ## 2 事前知識: 形式論理学 このステップは 2 つの前提 (棒の上) から結論 (棒の下) を導いており,記号を用いて抽象化できる: この形式の演繹ステップを modus ponens と呼ぶ. Modus ponens 以外にも,演繹ステップは無数に存在する。例えば二段論法 (syllogism) は有名である: $ \frac{(\mathcal{F} \rightarrow \mathcal{G}) \wedge(\mathcal{G} \rightarrow \mathcal{H})}{\mathcal{F} \rightarrow \mathcal{H}} \text { syllogism } $ 無論,妥当でないステップ2)を考えることもできる: 上記の例から分かるように,演繹推論とは,特定の規則に従って前提から結論を導き出す思考形態と定義できる. 形式論理学では,このような演繹規則のことを論証と呼ぶ. 従って,(2)-(4)は全て形式論理学における論証である。なお,F $\mathcal{F}$ や $\mathcal{G}$ などは, $\mathcal{F}=\neg(A \vee \neg B)$ など $(A, B$ は原子論理式 $)$, 任意の複合論理式でよい. 更に,前提・結論に現れる論理式は無限パターン考えることができるため,論証は (妥当でないものも含めて) 無限に存在する. 2)前提が全て真 $(=1)$ だが結論が偽 $(=0)$ となるような真理值割り当てが存在するステップ (論証) のこと.表 $5 \mathrm{~b}$ 参照. 図 2: 公理系を用いた多段演繹推論. (左): 三段論法の導出 (右): ステップ数を大く取ることで,三段論法を用いた多段推論を模擬できる. 次に多段演繹推論を考える。図 2(左) から分かるように,三段論法はより「原子的な」論証による多段演繹推論によって導出できる (他の例として,先行研究で使用された論証の導出を図 4 に示す). 実は,形式論理学では公理系と呼ばれる原子的な論証群(図 3a)が存在し,以下のことが知られている 定理 1 (一階述語論理 ${ }^{3}$ ) の完全性 Gödel, 1930). 全ての妥当な論証4) は,公理系による多段演繹推論によって導出できる。また,公理系による多段演繹推論によって導出された論証は全て,妥当である. ここに我々は,形式論理の核心,即ち,公理系を用いた多段演繹推論に至った. 完全性により,妥当な論証は全てこの方法に導出でき,かつ,この方法によって導出される (無限種類の) 論証は全て妥当なのである。また,図 2(右) に例示するように,公理系を用いた多段演繹推論は,原理的に,任意の論証を用いた多段演繹推論を模擬できることになる. 3)本論文は一階述語論理に議論を限る. 4)前提が全て真 $(=1)$ となるような任意の真理値割り当てにおいて,結論も必ず真 $(=1)$ となる論証のこと. 表 5 a に例示. ## 3 形式論理演繹コーパスの生成 公理系による多段演繹推論事例を生成するためのフレームワーク FLD (Formal Logic Deduction)を提案する. 直感的な理解のために図 1 を参照のこと。参考として,実際に生成された事例を図 5 に示す. ランダム演繹による証明木生成 RuleTaker は,論理式群をランダムに生成し, それらにソルバーを走らせて偶発的に生じた演繹関係を特定し,証明木として用いた. しかしこの方法は外部のソルバーに依存するため, 証明に用いる論証群を指定できない. そこで我々は,ユーザが指定した論証群を用いてランダムな演繹推論を行うことにより証明木を生成するモジュール (図 1 中の “Proof Tree Generator')を開発した.このモジュールは, 前向き・逆向きの各ステップ (図中“forward"と "backward") において,論証をランダムに 1 つ選び,現在の証明木に結合する. 証明木のノードの複合論理式 $(\mathcal{F}$ や $\mathcal{G})$ は任意である(2 節)ため, 原子論理式 ( $A$ や $B$ 等) と論理演算子 $\wedge, \vee, \neg$ を用いてランダムに生成する ${ }^{5}$ ). 負例事実群の生成現実の論理推論では,事実群は与えられるのではなく,検索システム等によって取得しなければならないので,ノイズとなる事実 (負例事実) が含まれる.これを模擬した負例事実群を生成する (図 1 中の “Factual Distractor Generator").負例事実は, 正例事実と類似する論理式 (例えば正例 $(A \wedge B) \rightarrow C$ に対して負例 $A \rightarrow C$ ) 等を用いる. 自然言語の割り当て各論理式に,自然言語を割り当てる (図 1 の “Natural Language Assigner”)。まず,各論理式ごとに,事前に用意された以下のようなテンプレートからランダムに 1 つ選択する: $ \begin{gathered} A \rightarrow B \text { : "If A, then B.", "A leads to B." } \\ F(a) \rightarrow G(b): \text { "If a F, then b G.", "When a F, b G." } \end{gathered} $ $A, B, F, G, a, b$ のような要素には一定の文法制約の下,語彙からランダムに構築した言明を割り当てる: $A$ : "an Earthquake occurs" $B$ : "the year ends" $F$ : "run" $G$ : "answer" $a$ : "the hamburger" $b$ : "Peter" ランダムである理由は,演繹推論の妥当性は論理式の記号形式にのみ依存し, その内容は依存しない6) ので,論理式への内容割り当てはいかなるものも許容されなければならないからである. 演繹推論事例の生成事例を生成する (図1 中の “Deduction Instance Converter"). 事例は,事実群 - 仮 5)ただし先行研究と同様, 原子論理式の数は 3 までとする. 6)「Aと $A \rightarrow B$ が成り立っている時には,Bも成り立つ」という形の推論は, $A$ の実際の内容にかかわらず妥当である.表 1: 本研究で用いたコーパス (詳細は付録 A.1).比較対象となるコーパス間の条件を揃えるため,複数のコーパスを構築した. “RT” は RuleTaker[12]. } \\ RT.BE はテストセットのみなので評価のみに使う。 説・証明・回答ラベル,から構成される.回答ラベル「証明された」の場合: (i) 証明木の根ノードを仮説として (ii) 証明木の葉ノードと負例事実を事実群として (iii) 証明木の中間ノード群を証明として,用いる. 回答ラベル「反証された」の場合,根ノードの否定文を仮説とすることにより,証明木によって仮説が反証されるようにする。回答ラベル「不明」 の場合,葉ノードの一部をランダムに削除することで,仮説を証明も反証もできないようにする。 ## 4 実験 FLD で学習された言語モデルの論理推論能力を,他の演繹コーパスで学習された言語モデル,またこのような学習をしない言語モデルと比較する。 ## 4.1 モデル 演繹タスクでは,与えられた事実の集合から与えられた仮説を証明・反証する証明系列を生成することが求められる.このために, [8] の証明器を用いる.これは T5[13] に基づく生成モデルで, “fact1 \& fact3 -> The Earth has seasons.' のように,選ばれた前提群と導出される結論からなる証明ステップを $1 つ$ づつ生成していく. 学習の詳細は付録 A. 2 に示す. ## 4.2 ベンチマーク 演繹コーパス表 1 中のあるコーパスで証明器を学習し, 別のコーパスで性能を計測する. 証明器が頑健な演繹推論能力を獲得していれば少ない事例のみで転移するはずなので,ターゲットコーパスでの 表 2: 各コーパスにおいて,全データを用いて fine-tuning された証明器の証明正解率. 表 3: コーパス間で few-shot 転移した証明器の証明正解率.これらコーパスは用いた論証群が異なる. } & RT & 70.1 & 92.4 & 91.3 & 76.2 & 74.4 & 76.7 \\ 学習は few-shot ( $1 \%=300$ 事例) で行う. 性能指標として証明正解率 (proof accuracy) [12] を用いる. EntailmentBank (EB) [14] 証明木は人手で作成されており,また,各証明ステップは厳密な論理ステップだけでなく含意的なステップも許される。 よって,より現害的なシーンでの演繹推論能力を測定できる,上記のように,証明ステップの性質が演繹コーパスとは異なるため, 少数事例での転移は望めない.よって,演繹コーパスで学習した証明器を EB 全データで fine-tuning して性能を計測する。性能指標として証明正解率 (“AllCorrect” [14]) を用いる. ## 5 言語モデルは論理を解けるか? まず,言語モデルが各演繹コーパスをどれくらい解けるか示しておく(表 2). 証明器は RuleTaker では良好な性能を発揮しているが,FLDでの性能は悪い. FLD が難しい理由の一つは,以下のように考えられる (詳細は付録 A.3). RuleTaker は含意に類する少数の論証 (図 3b) のみを使用するのに対し, FLD は公理系 (図 3a) に含まれる様々な論証を使用する. よって,FLDは証明木生成の際に,木の各レベルにおいて選択可能な論証の種類が多い. 証明木は,各レベルにおいて選択された論証の組み合わせによって構成されるので,ありうる木のパターンは組み合わせ的に大きくなる (大雑把に $O\left(|\mathcal{A}|^{d}\right)$ パターン. ここで $|\mathcal{A}|$ は各レベルにおける論証の選択肢数, $d$表 4: EntailmentBank における証明器の証明正解率. は木の深さ). 結果,FLD は RuleTaker よりも多様なパターンの証明木を含んでおり,難易度が高いと考えられる。実際,最も木が深いFLD`は極めて難易度が高かった。 ## 6 FLD は有効か? ## 6.1 論証への汎化 演繹推論能力の獲得において最も重要なのは演繹規則(論証)の獲得であるので,演繹コーパスがうまく言語モデルに論証を教えられるかを調べる。 表 3 から分かるように,論証群が異なるコーパス間の転移に関して,sFLD-axiomで学習された証明器が最も平均性能が高かった。これは,コーパス毎の結果から分かるように,論証群が異なる他のコー パスに対して最も頑健に転移したことによる. この頑健性こそがまさしく,形式論理に基づく演繹の美徳を示している.sFLD-axiom は論証群として公理系を用いているので,完全性により,他コー パスの論証による多段演繹推論を全て模擬することができる(参考に図 4 に例を記す)。即ち,公理系から得られる演繹推論能力は,様々な論証に汎化するのである。一方,他コーパスの論証群は完全性のような性質を持たず,論証への汎化は得られない。 ## 6.2 より複雑なタスクへの汎化 表 4 に,EB での性能を記す。EB は深い木 (最大で 10 以上)を含むので,深い木を含む演繹コーパスから転移させた.FLDによる学習は,より実世界に近い複雑な論理推論にも汎化することが分かる.参考に表 8 に証明器の出力例を示す.「否定 (ᄀ) の意味」「次の結論を導くために必要十分な前提のみを選ぶ」「前提から論理的に導ける事項のみ結論に含める」など,論理の基本が学習されている。 ## 7 おわりに 形式論理学に基づく演繹コーパスを提案し, 有効性を実験的に示した,今後は,事実群の獲得も求められる演繹推論や仮説推論など,より高度な推論に対して,本アプローチを昇華させていく. ## 謝辞 本研究は,計算機リソースとして,産総研の $\mathrm{AI}$橋渡しクラウド $(\mathrm{ABCI})$ を用いた。また,日立製作所の清水正明氏には,社内大規模計算機環境の維持管理をして頂いた.両者ともに,お礼申し上げる。 ## 参考文献 [1] John W. McCarthy. Programs with common sense. In Proc. Tedding Conf. on the Mechanization of Thought Processes, pp. 75-91, 1959 . [2] Jason Weston, Antoine Bordes, Sumit Chopra, Alexander M Rush, Bart Van Merriënboer, Armand Joulin, and Tomas Mikolov. Towards ai-complete question answering: A set of prerequisite toy tasks. arXiv preprint arXiv:1502.05698, 2015. [3] Ivan Habernal, Henning Wachsmuth, Iryna Gurevych, and Benno Stein. The argument reasoning comprehension task: Identification and reconstruction of implicit warrants. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 1930-1940, New Orleans, Louisiana, June 2018. Association for Computational Linguistics. [4] Timothy Niven and Hung-Yu Kao. Probing neural network comprehension of natural language arguments. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 4658-4664, Florence, Italy, July 2019. Association for Computational Linguistics. [5] Kyle Richardson, Hai Hu, Lawrence Moss, and Ashish Sabharwal. Probing natural language inference models through semantic fragments. In Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 34, pp. 8713$8721,2020$. [6] Amanda Askell. Gpt-3: Towards renaissance models. Daily Nous Blog: Philosophers On GPT-3, 2020. [7] Jack W Rae, Sebastian Borgeaud, Trevor Cai, Katie Millican, Jordan Hoffmann, Francis Song, John Aslanides, Sarah Henderson, Roman Ring, Susannah Young, et al. Scaling language models: Methods, analysis \& insights from training gopher. arXiv preprint arXiv:2112.11446, 2021 [8] Kaiyu Yang, Jia Deng, and Danqi Chen. Generating natural language proofs with verifier-guided search. In Conference on Empirical Methods in Natural Language Processing (EMNLP), 2022 [9] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, 2019 [10] Peter Clark, Oyvind Tafjord, and Kyle Richardson. Transformers as soft reasoners over language. arXiv preprint arXiv:2002.05867, 2020. [11] Gregor Betz, Christian Voigt, and Kyle Richardson. Critical thinking for language models. In Proceedings of the 14th International Conference on Computational Semantics (IWCS), pp. 63-75, Groningen, The Netherlands (online), June 2021. Association for Computational Linguistics. [12] Oyvind Tafjord, Bhavana Dalvi, and Peter Clark. ProofWriter: Generating implications, proofs, and abductive statements over natural language. In Findings of the Association for Computational Linguistics: ACL-IJCNLP 2021, pp. 3621-3634, Online, August 2021. Association for Computational Linguistics. [13] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, Peter J Liu, et al. Exploring the limits of transfer learning with a unified text-to-text transformer. J. Mach. Learn. Res., Vol. 21, No. 140, pp. 1-67, 2020. [14] Bhavana Dalvi, Peter Jansen, Oyvind Tafjord, Zhengnan Xie, Hannah Smith, Leighanna Pipatanangkura, and Peter Clark. Explaining answers with entailment trees. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 7358-7370, Online and Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. ## A 参考情報 (a) 一階述語論理の公理系 (FLD の論証群) (b) RuleTaker ${ }^{G(b)}$ “含意” 論証群図 3: 本研究や先行研究で用いられた論証を示す.ただし, Artificial Argument Corpus で用いられた論証は [11] の Figure. 1 参照のこと. (a) RuleTaker の論証. (b) Artificial Argument Corpus の論証.図 4: 公理系を用いた多段演繹推論による, 先行研究の論証の導出例. 表 5: 論証の前提 $\left(\mathcal{P}_{i}\right)$ ・結論 $(C)$ に関わる真理値表. 青色は, 前提が真 $(=1)$ の場合には結論も真. 赤色は, 前提が真なのに結論が偽 $(=0)$. (a) 妥当な論証 (3) (syllogism). $ \begin{aligned} & \mathcal{P}_{1}=(\mathcal{F} \rightarrow \mathcal{G}) \wedge(\mathcal{G} \rightarrow \mathcal{H}), \\ & C=\mathcal{F} \rightarrow \mathcal{H} . \end{aligned} $ (b) 妥当でない論証 (4). $\mathcal{P}_{1}=\mathcal{F}, \mathcal{P}_{2}=\mathcal{F} \vee \mathcal{G}$ 図 5: FLD の事例 (本例では証明中に背理法が用いられている). ## A. 1 コーパス詳細 “skewed” な深さ分布のコーパスは,深い木よりも浅い木をより多く含む. これは, 公平な比較のために RT(D0-D3) に合わせた分布である. 一方,“flat”は一様分布を持つ. 全てのコーパスの事例は,負例事実群を最大 20 程度まで,ランダムに含んでいる。 RuleTaker: 他のコーパスとの条件を合わせるため,回答ラベルの分布が一様に・学習セットサイズが $30 \mathrm{k}$ となるように,一部をサンプリングした. “含意”論証群は図 3b. その他詳細は [12]. FLD: オプション機能を用いて,様々な条件のコーパスを作成した. “公理系” 論証群は図 $3 \mathrm{a}$ を, “含意” 論証群は図 $3 \mathrm{~b}$ を, “クリティカル・シンキング”論証群は,[11] の Figure. 1 記載のものを,用いた. クリティカル・シンキング論証は粒度が大きく多段に組み合わせるのが難しいので,木の深さは 1 とした. 回答ラベルの分布は一様である.学習セットサイズは $30 \mathrm{k}$ ,バリデーション・ テストセットは $1 \mathrm{k}$ である。その他詳細はウェブ参照のこと。 ## A. 2 証明器学習の詳細 表 6: 証明器学習のハイパーパラメータ. 5 節, 付録 A. 3 での “全データでの fine-tuning”では,20000 ステップ学習している. EntailmentBank は難易度が高いので, [8] の verifier も用いている. その他, 学習の詳細は [8] を参考のこと。 ## A. 3 各コーパスの難易度の詳細分析 表 7: 各コーパスで, 全データで fine-tuning された証明器の証明正解率. $ $ “skewed”コーパス群において, sFLD-impl は RuleTaker より難易度が高い,論証群や木の深さ等の諸条件は同じなので,その他の実装の詳細に起因すると考えられる.例えば,FLDの負例事実は正例事実と混同しやすいように設計されており,自然言語割り当てはランダム言明によって極めて多様である (3 節). FLD-impl は sFLD-impl と同様の “含意” 論証を用いているが,より難易度が高い。これは,“flat”コーパス群は skewed に比べて,深い証明木をより多く含む (付録 A.1) からであろう.FLD の難易度が FLD-impl より高いのは,公理系からなる多様な論証をを用いるので,多様なパターンの証明木を含むからであろう (5 節 ). FLD $\star$ 極めて難しい理由は,証明木の深さが最も深く,指数関数的に多様なパターン $\left(|\mathcal{A}|^{d}\right)$ の証明木を含むからであろ. & rocks cannot form fossils & \multirow{2}{*}{ } \\ $a$ https://github.com/hitachi-nlp/FLD イン (T5) の誤った証明ステップが治った例.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B1-3.pdf
# ExDistilBERT:辞書拡張できる モデル蒸留によるドメインに特化した言語モデル 高 鵬挙 ${ }^{1}$ 山崎 智弘 $^{1}$ 伊藤 雅弘 $^{1}$ 1 株式会社東芝 研究開発センター 知能化システム研究所 アナリティクスA I ラボラトリー \{pengju1.gao, tomohiro2.yamasaki, masahiro20.ito\}@toshiba.co.jp ## 概要 本論文は小規模コーパスでもドメインに特化できる ExDistilBERTを提案する。蒸留手法において,独自の手法で専門用語を辞書氾追加し, 一般用語と専門用語を独立して計算可能な損失関数を導入し,二種類の語彙や文脈知識を同時に学習できる。 蒸留手法で課題となっている過学習氾る知識忘却の問題を回避できることを実験により確認し,特殊ドメインにおいて, ExDistilBERT は教師モデルの性能を大幅に超えるだけでなく,軽量化もできた。 ## 1 はじめに 近年,大規模コーパスを用いて学習された大規模言語モデルが注目を集めている。 BERT[1]を代表として,自然言語処理 (NLP) 領域での様々なタスクで,良い性能を達成している。汎化性能が高いと Fine-tuning の訓練コストが低くできる一方、BERT は Base サイズモデルでも一億を超えるパラメータを持つため,それを実装するためには膨大な計算リソースが必要である. 様々な場面で応用するため,モデルの軽量化が要求される。さらに小規模コーパスで Fine-tuningする場合, 事前学習した知識を忘れて,過学習しやすいことも課題になる。 金融,インフラ,法律,化学などの様々な分野では,一般文書にはない専門用語が大量に含まれている. 一般文書を使って学習した言語モデルをそれらの分野に応用する場合, 未知語として扱うことや,既知の短い単語の組み合わせに分割することが多い. 日本語では, 後者の場合が多く, 長い専門用語がより小さい断片に分割されて,元の意味を保持できなくなることや,分割によって処理量が増えるなどの恐れがある. モデル軽量化において,よく使われている手法には知識蒸留 (Knowledge Distillation)[2], 枝刈り (Pruning), 量子化 (Quantization) など [3] が存在するが,元モデルの性能を超えることができない,そこで我々は, モデル蒸留手法纪辞書拡張機能を追加し, 教師モデルの知識を学習すると同時に, スムーズに新たな単語を追加することができる ExDistilBERTを提案する. すなわちモデル軽量化と特殊ドメインへの適応性を両立できる。 結果として, ExDistilBERT は特殊ドメインの性能が教師モデルより向上することを示す. 同時に,学習速度や推論時間も改善し, 過学習問題も回避できることを示す。 ## 2 関連研究 本節は本研究と関連性の強い事前学習言語モデル, モデル蒸留, 辞書抎張の研究について説明する. BERT[1] は, Transformer[4] ユニットによって構成される. BERT は Masked Language Model (MLM) と Next Sentence Prediction(NSP) を使って,大規模コー パス用いた教師なしの事前学習法として提案され, NLP の様々なタスクにおいて小規模な教師データを用いた Fine-tuning によって,非常に良い性能を示した. モデル軽量化においてょく使われる知識蒸留 (Knowledge Distillation)[2] では学生モデルが教師モデルの出力分布を近似するよう学習させる。 NLP 領域では,蒸留手法を用いた軽量版 BERT の DistilBERT[5] がよく使われている. 新納 [6] らは DistilBERTを用いて,ドメインに特化したモデルを構築したが, Fine-tuning しないと, 教師モデルを超える性能を取得することが難しいことがわかった。自然言語処理技術を特殊ドメインで活用するニーズの高まりから,様々な分野に特化した言語モ デルの研究がある. 英語において, 生物ドメインのコーパスを使って,特化した BERTを訓練した BioBERT[7], 科学文章から専門用語を抽出し, 科学ドメインに特化した SciBERT[8], 生物医学に関するデータベース PubMed を使って, 生物医学ドメインに特化した PubMedBERT[9] などが存在する. 日本語においても, 医学分野 [10], 金融分野 [11], 法律分野 [12] などでドメインに特化した BERT が汎用日本語 BERT を超える性能を示した. ただし, ゼロから BERTを事前学習するには,大規模コーパスと計算リソースが必要となる. さらにより特化したドメインにに合致する,大規模コーパスを用意できない問題も存在する. ## 3 提案手法 本研究では,辞書拡張できるモデル蒸留の手法 ExDistilBERT を提案し,モデルを軽量化すると同時に,事前に大規模コーパスで訓練した汎用モデルで課題となっていた特殊ドメインの適応性を解決する. 提案手法は, 大規模汎用モデルを追加学習し,辞書拡張する従来手法と比べて,小規模コーパスを用いた条件で,過学習の恐れを低減することを確認する。 本論文は追加した単語を新単語と呼ぶ,教師モデル辞書に含んでいる単語を一般用語と呼ぶ。 ExDistilBERT の概念図を図 1 に示す. 新単語と一般用語を分けて, エンベディングや損失関数など処理を行うことで,新単語の知識と教師モデルの知識を同時に学習できる. ## 3.1 エンベディングと単語マスク 図 1 の token embedding において, 拡張した辞書で,センテンスを分割し,単語をエンベディングする. 一般的にモデル蒸留は教師モデルと学生モデルの辞書を同じものにする必要があるが,辞書拡張のため, 教師モデルに入力不可の新単語が存在する. 図 1 の token masking において, 教師モデルと学生モデルに対する,新単語と一般用語を分けて,特殊なマスク手段を設計した。 ## 新単語のマスク ・教師モデルの辞書には新単語が含んでいないため,全部マスクして,モデルに入力する. ・学生モデルの辞書には新単語が含んでいるため,確率 $P(0<P \leqq 1)$ でマスクされる $P=1$ の時, 学生モデルの大力も新単語が全部マスクされるため,教師モデルの入力と同じになる. もし追加した単語の数が非常に多い場合, $P$ で学生モデルの入力にマスクされた単語の比率を制御できる. 新単語の範囲情報 $\mathbf{M}_{\text {newtoken }}$ はマスクベクター の形で損失関数の計算を利用する. 一般用語のマスク新単語以外の部分において, BERT の MLM タスクと同じく, ランダムで単語のマスクと入れ替えを行う.入り替えの単語は教師モデルの辞書からピックアップしたものである. ## 3.2 損失関数計算 本節は新単語と一般用語を分けて,損失関数を計算する仕組みを説明する。 図 1 の右半分,二つの入力を教師モデル $(\mathrm{t})$ と学生モデル (s) に入力し, 最後レイヤの隠れ状態べクター Hidden state, $H_{t, s}$ と単語予測の Logits, $L_{t, s}$ を取得する. 教師モデルの知識を学習するため, 一般用語の範囲 (selected position) だけに類似度などを計算する。範囲を設定は以下の式 1,2 で行っている. $ \begin{aligned} H_{t, s}^{\prime} & =\left.\{H_{t, s}(i) \mid \mathbf{M}_{\text {newtoken }}(i)=0\right.\} \\ L_{t, s}^{\prime} & =\left.\{L_{t, s}(i) \mid \mathbf{M}_{\text {newtoken }}(i)=0\right.\} \end{aligned} $ 以下の三つの尺度, Cosine 類似度, 式 3 ; カルバック・ライブラー情報量, 式 4 ; MSE 損失 (Mean squared error), 式 5, を用いて,損失関数を計算し,教師モデルの知識を学習させる. $ \begin{gathered} \mathscr{L}_{\text {Cosine }}\left(H_{t}^{\prime}, H_{s}^{\prime}\right)=\frac{H_{t}^{\prime} \cdot H_{s}^{\prime}}{\left.\|H_{s}^{\prime}\right.\|\left.\|H_{t}^{\prime}\right.\|} \\ \mathscr{L}_{\mathrm{KL}}\left(L_{t}^{\prime}, L_{s}^{\prime}\right)=\sum_{i} L_{t}^{\prime}(i) \log \frac{L_{t}^{\prime}(i)}{L_{s}^{\prime}(i)} \\ \mathscr{L}_{M S E}\left(L_{t}^{\prime}, L_{s}^{\prime}\right)=\frac{1}{n} \sum_{i=1}^{n}\left(L_{t}^{\prime}(i)-L_{s}^{\prime}(i)\right)^{2} \end{gathered} $ 次は, BERT と同じく, 学生モデルの Logits $L_{s}$ とラベル $L_{\text {label }}$ を用いて,マスクされた単語を推測する損失関数 $\mathscr{L}_{M L M}$ を計算する。 最終的な損失関数は,式 6 で以上の各損失の重み付き和を計算することで取得する。 $ \begin{array}{r} \mathscr{L}_{\text {final }}=\alpha \mathscr{L}_{\text {Cosine }}+\beta \mathscr{L}_{\mathrm{KL}}+\gamma \mathscr{L}_{M S E}+\delta \mathscr{L}_{M L M}, \\ \quad \text { where } \alpha, \beta, \gamma \geq 0,(\alpha, \beta, \gamma) \neq(0,0,0), \delta>0 \end{array} $ このような仕組みで,一般用語を学習する同時に, 専門用語の知識を学習ことで, ドメインに特化した言語モデルを構築する。 図 1 ExDistilBERT の概念図 表 1 新単語長さ分布と単語例 (新単語数 2000 の場合)長さ数単語例 2368 本件, 客様, 発送, 本日, 切替, 用紙, 客先, 取替,取付, 異音, 送出, 新品 3681 不具合, 不適合, 可能性, 再起動, 本事象, 再現性, 設定値, 一時的, 確認後 4648 機体交換, 動作確認, 客様対応, 長期使用, 動作不良, 自動停止, 不具合品 5+ 314 添付ファイル, 不具合現象, 作業管理者, 事象発生時, 点検・修理, 調査結果報告 ## 4 評価実験 本節は本研究のデータ設定, 実験設定と結果について説明する. ## 4.1 学習データと評価データ モデル蒸留と辞書拡張コーパスは東芝社内のインフラドメインのテキスト文書データ (約 170 万文)を用いた. 追加した単語の自動抽出は専門用語自動抽出システム [13][14] を使用した. 教師モデルに存在せずかつ出現頻度高いの単語をピックアップした.新単語長さ分布と単語例は表 1 で示す. イベント抽出データセットとして長文主体の文書 Data $_{A}$ と短文主体の文書 Data $_{B}$ の 2 種類を用意して,蒸留したモデルのエンベディング能力を評価する.イベント抽出タスクは,ドキュメント文書から,「配管に亀裂」や「水位が低下」のように原因や結果となりうる表現を抽出するタスクである. トラブル表現を正確に抽出するには,インフラドメインの文脈を理解することができる言語モデルを構築することが重要と考えられる.データセットのセンテンス長さと規模を表 2 で示す. 抽出性能は完全一致表 2 データセットのセンテンス長さと規模 表 3 各モデルハイパーパラメータ設定 の $\mathrm{F}$ 值と主要部一致 (イベント末尾 5 形態素のいずれかが重複する [15]) の F 值で評価している。 ## 4.2 実験設定 本論文のモデル学習設定について説明する. 本研究のベースラインモデルと ExDistilBERT の教師モデルは,東北大学乾・鈴木研究室によって作成・公開された BERT モデル bert-base-japanese-v2[16] を使っている. 追加した単語の数は 2000 個であり, HuggingFace's Transformers[17] の上に, PyTorch の実装を構築した. 従来の手法と比較するため, ExDistilBERT と同じコーパスを用いて,BERT モデルから蒸留したBERT_distillation, 同じ辞書で拡張した BERT_addtoken のモデルも学習した. 各モデルのハイパーパラメータ設定は表 3 に示す. 訓練環境はRTX6000一枚で行う. ExDistilBERTと BERT_distillation において, $\alpha=3, \beta=1, \gamma=0.2, \delta=1$ の設定をした. ## 4.3 評価結果 MLM タスク可視化, 単語エンベディング能力,計算リソースにおいて,評価を行った. 表 4 MLM タスク出力の可視化 (推測された単語 Top5) 表 5 イベント抽出タスクにおいて,モデル評価結果 & .599 & .859 & .619 & .868 \\ DistilBERT_Namco[19] & .528 & .758 & .580 & .820 \\ ## 4.3.1 Masked Language Model(MLM) の可視化 ベースライン BERT モデルと比べて ExDistilBERT がドメインに特化した文脈理解能力を獲得しているかを確認するため,MLM タスクの出力を可視化した. [MASK] トークンの推測結果として得られた Top5 の単語を表 4 に示す. 表 4 に示す通り, DistilBERT の方が動作確認や納期や試験といったインフラドメインでよく使われる専門用語を優先的に推測できた. ## 4.3.2単語のエンベディング性能評価 本節では,単語エンベディングの性能評価を提案手法と既存手法で比較する. 4.2 節説明したべースライン BERT モデル, ExDistilBERT, BERT_distillation と BERT_addtoken を含めて,既存の汎用蒸留モデルの DistilBERT_Laboro[18] と DistilBERT_Namco[19] も追加し評価を行った. 評価した結果は表 5 で示す. ベースライン BERT や単純なモデル蒸留手法 BERT_distillationと比べて,辞書拡張した ExDistilBERT と BERT_addtoken, Data CD Data $_{B}$ において性能向上した. 専門用語の拡張効果が確認できた. Data $_{A}$ において ExDistilBERT は BERT_addtoken の性能を超えて,ベースライン BERT より完全一致の $\mathrm{F}$ 值 5 ポイント以上を向上した. BERT 丸ごとで学習して辞書拡張のは,パラメータ数が大規模である. 相対的に小さい規模のコーパスで追加学習するとき,過学習して,元の知識を忘れてしまい,性能表 6 各モデルの学習時間, 推論時間とパラメータ数 モデル学習時間推論時間パラメータ数 劣化の恐れがあることから,学習ハイパーパラメー タの最適化という課題を残っている. Data において,ExDistilBERT は BERT_addtoken を超えていない. 短い文に対して,性能劣化の影響が少ないと推測された. BERT_distillation はできるだけベースラインの BERT に近づくのが学習目標となっており, ベースライン BERT と大体同じレベル性能を取得した. 二つ公開された DistilBERT は,性能劣化の恐れがある. 両者は今回のインフラドメインのコーパスではなく,一般的な日本語コーパスでモデル蒸留したもので,教師モデルからの知識勉強が不足の可能性が高いと推測された。 ## 4.3.3計算リソース 4.2 節のモデル学習時間と評価実験において推論時間,パラメータ数を表 6 に示す. ExDistilBERT について,学習時間は従来の蒸留手法 BERT_addtokenと同じレベルであるが,BERTを辞書拡張 BERT_addtoken より 4 倍の学習速度になった. 推論時間も BERT_addtokenより約 $23 \%$ 减少した. パラメータ数は BERT_addtoken より約 $37 \%$ 減少した. ExDistilBERT の方が計算リソースの観点からも優れていることが確認できた。 ## 5 おわりに 本論文は小規模コーパスでもドメインに特化する ExDistilBERT を提案した. 辞書拡張できるモデル蒸留の手法より,一般用語の知識はモデル蒸留によって教師モデルから継承すると同時に、専門用語に対して知識を学習できた。特殊ドメインの性能が教師モデルと比べて大幅に向上した. 小規模コーパスで BERT を追加学習する場合,元の知識を失う過学習の問題も回避できて,BERT の追加学習より安定の学習結果を得ることができた。 ## 参考文献 [1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805, 2018. [2] Geoffrey Hinton, Oriol Vinyals, Jeff Dean, et al. Distilling the knowledge in a neural network. arXiv preprint arXiv:1503.02531, Vol. 2, No. 7, 2015. [3] 康平山本, 素子橘, 蔵人前野. ディープラーニングのモデル軽量化技術. Oki テクニカルレビュー, Vol. 86, No. 1, pp. 24-27, 052019. [4] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. Advances in neural information processing systems, Vol. 30, 2017. [5] Victor Sanh, L Debut, J Chaumond, and T Wolf. Distilbert, a distilled version of bert: Smaller, faster, cheaper and lighter. arxiv 2019. arXiv preprint arXiv:1910.01108, 2019. [6] 新納浩幸, 白静, 曹鋭, 馬ブン. Fine-tuning による領域に特化した distilbert モデルの構築. 人工知能学会全国大会論文集第 34 回 (2020), pp. 1E3GS9021E3GS902. 一般社団法人人工知能学会, 2020 [7] Jinhyuk Lee, Wonjin Yoon, Sungdong Kim, Donghyeon Kim, Sunkyu Kim, Chan Ho So, and Jaewoo Kang. Biobert: a pre-trained biomedical language representation model for biomedical text mining. Bioinformatics, Vol. 36, No. 4, pp. 1234-1240, 2020. [8] Iz Beltagy, Kyle Lo, and Arman Cohan. Scibert: A pretrained language model for scientific text. arXiv preprint arXiv:1903.10676, 2019. [9] Yu Gu, Robert Tinn, Hao Cheng, Michael Lucas, Naoto Usuyama, Xiaodong Liu, Tristan Naumann, Jianfeng Gao, and Hoifung Poon. Domain-specific language model pretraining for biomedical natural language processing. ACM Transactions on Computing for Healthcare (HEALTH), Vol. 3, No. 1, pp. 1-23, 2021. [10] Yoshimasa Kawazoe, Daisaku Shibata, Emiko Shinohara, Eiji Aramaki, and Kazuhiko Ohe. A clinical specific bert developed using a huge japanese clinical text corpus. Plos one, Vol. 16, No. 11, p. e0259763, 2021. [11] 鈴木雅弘, 坂地泰紀, 平野正徳, 和泉潔. 金融文書を用いた事前学習言語モデルの構築と検証. 人工知能学会第二種研究会資料, Vol. 2021, No. FIN-027, p. 05, 2021. [12] 宮崎桂輔, 菅原祐太, 山田寛章, 徳永健伸. 日本語法律分野文書に特化した bert の構築. 第 28 回年次大会発表論文集 (2022 年 3 月), 2022. [13] 専門用語自動抽出システム (配布). http://www. forest.eis.ynu.ac.jp/Forest/ja/ term-extraction.html. [14] 中川裕志, 湯本紘彰, 森辰則. 出現頻度と連接頻度に基づく専門用語抽出. 自然言語処理, Vol. 10, No. 1, pp. 27-45, 2003. [15] 伊藤雅弘, 山崎智弘. アノテーション漏れ推定を用いたエンティティ抽出. 第 27 回年次大会発表論文集 (2021 年 3 月), 2021. [16] Tohoku NLP Group. Pretrained japanese bert models. https://github.com/cl-tohoku/bert-japanese. [17] Hugging Face team. State-of-the-art machine learning for pytorch, tensorflow, and jax. https://github.com/ huggingface/transformers. [18] 株式会社 Laboro.AI. Laboro distilbert. https://laboro.ai/activity/column/engineer/ laboro-distilbert. [19] バンダイナムコ研究所技術開発本部. Wikipedia 日本語版全文を学習した distilbert モデル. https://github.com/BandaiNamcoResearchInc/ DistilBERT-base-jp.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B1-4.pdf
# 分散文章データ統合解析のための データコラボレーション文章解析 関 口拓海 ${ }^{1}$ 今倉暁 ${ }^{2}$ 櫻井鉄也 ${ }^{2}$ 1 筑波大学大学院 2 筑波大学システム情報系 [email protected] \{imakura,sakurai\}@cs.tsukuba.ac.jp ## 概要 複数機関が保有する個人情報を含むデータの解析のため,プライバシー保護を考慮した学習手法が注目を集めている。近年提案されたデータコラボレー ション解析は生データではなく各パーティが独自に次元削減を行った中間表現を共有する手法であるが,文章のような順序情報を持つデータの解析が困難である. 本研究では分散文章データの統合解析を目的として,文章を単語の分散表現辞書と順序情報の 2 要素に分解して解析を行うデータコラボレー ション文章解析を提案する. 文章分類問題の実験の結果, 単独機関での解析と比較して約 20 ポイントの分類精度向上(生データを直接共有する場合と比較して 1 3 ポイント以下の精度低下)を確認した. ## 1 はじめに 一般に,機械学習では学習用のサンプルデータが多いほど高い精度で学習が可能である。類似したデータを持つ複数の機関の間では,データを共有して多くのサンプルデータを用いた解析を行うことで高精度な解析結果を得ることが期待できる. しかし,サンプルデータの中にはプライバシー保護のため共有の難しいデータが存在する. 医療デー タなどのセンシティブなデータは直接共有して解析することが困難な場合がある. そのようなデータを直接共有せず解析するための手法としてデータコラボレーション解析 [1-3] が提案された。データコラボレーション解析は複数のデータ提供パーティが各自の生データに独自に次元削減を行った中間表現を共有する手法で,各パー ティ間で生データを秘匿しつつ解析者の下で統合して解析を行える技術である。この技術によりクラウドサービスや外部の解析機関によるデータ解析においてプライバシーを保護しつつ多くのサンプルデー タを活用した解析を可能とする。 一方,データコラボレーション解析では文章のようなシーケンスデータを解析する場合,次元削減時に順序情報が失われてしまう欠点がある。文章デー タでは単語の並び順が文脈を構成しておりデータ解析に影響を与える。解析時に順序情報を活用できないことは学習精度の低下に繋がると考えられる。 そこで,本研究では順序情報を保持して解析を行うために,文章データを単語の分散表現辞書と単語の順序情報に分解して解析を行う手法を提案する.単語の分散表現辞書について解析者に秘匿しつつ解析を行い順序情報を後から復元することで,順序情報を活用した高精度な文章解析を実現する。 また文章分類の実験により性能評価を行い,生データを直接共有する場合に近い十分な分類精度で文章データの解析を行えることを確認する。 ## 2 データコラボレーション解析 データコラボレーション解析は複数パーティに分散したデータを直接共有せずに解析者の下で統合して解析を行うための手法である.複数パーティからなるデータ提供者がそれぞれデータを保有する場合において,各パーティが独自に次元削減を行った中間表現をアンカーデータを介して統合して解析を行う. データ提供者が計 $c$ パーティ存在し,初期状態としてパーティ $i(1 \leq i \leq c)$ は $n_{i}$ 個の $m$ 次元からなるサンプルデータ $X_{i} \in \mathbb{R}^{n_{i} \times m}$ を持つと仮定する. 最初に,共有可能な公開データや人工データを用いて作成した $r$ サンプルのデータ $X^{\mathrm{anc}} \in \mathbb{R}^{r \times m}$ をアンカーデータと定義し,各提供者パーティで同一のアンカーデータを共有する。ここでアンカーデータは解析者には公開しない。 ング関数 $f_{i}$ を適用して中間表現 $\tilde{X}_{i}=f_{i}\left(X_{i}\right) \in$ $\mathbb{R}^{n_{i} \times \tilde{m}}, \tilde{X}_{i}^{\text {anc }}=f_{i}\left(X^{\text {anc }}\right) \in \mathbb{R}^{r \times \tilde{m}}$ を作成し, 解析者の下に中間表現を集める、マッピング関数 $f_{i}$ は各パー ティが任意に決める関数であり,関数 $f_{i}$ を持たない解析者は中間表現から元のデータを復元することはできない. マッピング関数は線形または非線形の行単位の変換関数であり,例えば主成分分析による次元削減等が該当する. また, 秘匿性向上のため乱数行列を使用した変換を併用しても良い. その後,中間表現を受け取った解析者はアンカー 作成する. $g_{i}$ は個別に作成された中間表現を比較可能な形に揃えるための関数で,アンカーデータ $g_{i}\left(\tilde{X}_{i}^{\text {anc }}\right)=g_{i}\left(\tilde{X}_{i}^{\text {anc }}\right)(i \neq j)$ とするための摂動を最小化する次式の全体最小二乗問題 [4] の解として得られる。 $ \begin{array}{r} \min _{E_{i}, G_{i}^{\prime}(i=1,2, \cdots, c), Z\left(\|Z\|_{F}=1\right)} \sum_{i=1}^{c}\left.\|E_{i}\right.\|_{F}^{2} \\ \text { s.t. }\left(\tilde{X}_{i}^{\text {anc }}+E_{i}\right) G_{i}^{\prime}=Z . \end{array} $ この式は [4] の手法により次式の特異値分解によって $g_{i}$ を求めることができる. ただし, $\left(\tilde{X}_{i}^{\text {anc }}\right)^{\dagger}$ は $\tilde{X}_{i}^{\text {anc }}$ の擬似逆行列, $C$ は正則な正方行列とする. $ \begin{aligned} {\left[\tilde{X}_{1}^{\text {anc }}, \tilde{X}_{2}^{\text {anc }}, \cdots, \tilde{X}_{c}^{\text {anc }}\right] } & =\left[U_{1}, U_{2}\right]\left[\begin{array}{ll} \Sigma_{1} & \\ & \Sigma_{2} \end{array}\right]\left[\begin{array}{l} V_{1}^{T} \\ V_{2}^{T} \end{array}\right] \\ & \approx U_{1} \Sigma_{1} V_{1}^{T}, \\ G_{i} & =\arg \min _{G \in \mathbb{R}^{m \times m}}\left.\|Z-\tilde{X}_{i}^{\text {anc }} G\right.\|_{F}^{2} \\ & =\left(\tilde{X}_{i}^{\text {anc }}\right)^{\dagger} U_{1} C . \end{aligned} $ 最後に, 解析者はコラボレーション表現 $\hat{X}_{i}=\tilde{X}_{i} G_{i} \in$ $\mathbb{R}^{n_{i} \times \hat{m}}$ を作成し, 統合したコラボレーション表現を入力として機械学習モデルの学習を行う. ## 3 提案手法 既存のデータコラボレーション解析ではシーケンスデータの順序情報を保持して学習を行うことができない問題がある。中間表現を作成する際にはマッピング関数で $m$ 次元ベクトルのデータを $\tilde{m}$ ベクトルに変換を行う.このため文章データで同様の変換を行う場合,(単語分散表現) $\times$ (単語数) の行列をベクトルに変換する必要があり, その際に単語の順序情報が失われてしまう。 本研究では文章サンプルを単語の分散表現辞書と順序情報の 2 要素に分解してから組み合わせて学習を行う手法を提案する.単語の順序情報は単体では元の文章を復元できないため,秘匿せず直接解析者に渡すことができる。そのため,データコラボレー ション解析で分散表現辞書のコラボレーション表現を作成した後に単語の順序情報と組み合わせることで順序情報を保持した統合解析を行う。 複数のパーティからなる提供者が持つ文章データを単一の解析者の下で解析することを考える.解析者は埋め込み層のない RNNをべースとした学習モデルを保有し,単語の順序に従い単語分散表現を入力とすることで解析を行うことができる. ## 3.1 分散表現辞書の作成 最初に,提供者の間で分散表現辞書を作成し共有する. Word2 Vec [5] 等の手法で作成された単語分散表現の事前学習済みモデルを元にして,ランダムに並び替えた順番をインデックスとすることでインデックス-単語-分散表現の間で一意な対応を作成する. 作成した対応を元にインデックス-単語の対応 $v$ ,インデックス-分散表現の対応 $D \in \mathbb{R}^{m \times p}$ を作成しデータ提供者間で共有する。 $\boldsymbol{v}, D$ はインデックスに従い行方向に順番にそれぞれ単語, 分散表現を並べることで作成される。なお, $m$ は単語分散表現の実べクトル次元数を表し, $p$ は事前学習モデルに含まれる単語の総数を表す. ${ }^{11}$ $ \begin{aligned} & \boldsymbol{v}=(\text { "'a","is", "pen", "this") } \\ & D=\left[\begin{array}{llll} 1.2 & 0.5 & 1.8 & 0.2 \\ 1.3 & 0.6 & 1.9 & 0.3 \\ 1.4 & 0.7 & 2.0 & 0.4 \end{array}\right] . \end{aligned} $ ## 3.2 文章の分解 提供者は共有された対応 $v$ を用いて順序情報を表すシーケンス $s_{i j}$ を作成する. 各提供者 $i$ は保有する文章サンプル $j$ を単語ごとに分解して $l_{i j}$ 個の要素を持つ単語列とする. $v$ を用いて単語列の単語をそれぞれ対応するインデックスに置き換えることでシーケンス $s_{i j} \in\{1,2, \ldots, p\}^{l_{i j}}$ を得る. また,提供者 $i$ の保有するシーケンスをまとめて $s_{i}$ と表す. このように作成されたシーケンス $s_{i j}$ は $D$ との演算により学習モデルへの入力を得ることができる. 行列 $D=\left(d_{1}, \boldsymbol{d}_{2}, \ldots, \boldsymbol{d}_{p}\right)$ とべクトル $\boldsymbol{s}_{i j}=$ $\left(s_{1}, s_{2}, \ldots, s_{l_{i j}}\right)$ の間において, $D=\left(\boldsymbol{d}_{s_{1}}, \boldsymbol{d}_{s_{2}}, \ldots, \boldsymbol{d}_{s_{l_{i j}}}\right)$ に並び替える演算を $D\left(:, s_{i j}\right)$ として定義する.このとき $D\left(:, s_{i j}\right)$ は分散表現による文章を表し,RNNを 含まれない単語を表す未知語タグ等も含む。 ベースとした学習モデルへの入力とすることができる. $ \begin{gathered} \text { ( 文章 ) } \cdots . . . \text { “'This is a pen“, } \\ \boldsymbol{s}_{i j}=(4,2,1,3), \\ D\left(:, s_{i j}\right)=\left[\begin{array}{llll} 0.2 & 0.5 & 1.2 & 1.8 \\ 0.3 & 0.6 & 1.3 & 1.9 \\ 0.4 & 0.7 & 1.4 & 2.0 \end{array}\right] . \end{gathered} $ ## 3.3 データコラボレーション文章解析 データコラボレーション解析における $X_{i}=X^{\text {anc }}=$ $D^{\top}$ として $D$ のコラボレーション表現を作成する. 図 1 に示すように各提供者パーティ $i$ は個別のマッピング関数 $f_{i}$ を用いて中間表現 $\tilde{D}_{i}=f_{i}(D) \in \mathbb{R}^{\tilde{m} \times p}$ を作成する. 作成した中間表現を解析者の元へ集め,解析者は中間表現を元にマッピング関数 $g_{i}$ を作成してコラボレーション表現 $\hat{D}_{i} \in \mathbb{R}^{\hat{m} \times p}$ を得る. 個別に作成された中間表現から元データを復元することはできないため,分散表現辞書 $D$ は解析者に対し秘匿されることになる. ${ }^{2)}$ 最後に,コラボレーション表現をシーケンス $s_{i}$ と組み合わせて解析を行う,提供者はシーケンスを秘匿せずそのまま提供者から解析者に渡す. 図 1 に示すように解析者の元で $\hat{D}_{i}$ と $s_{i}$ を用いて $\hat{D}_{i}\left(:, s_{i}\right)$ を作成し解析を行う. $\hat{D}_{i}\left(:, s_{i}\right)$ は単語の順序に従い行方向に分散表現が並べられている。解析者はRNN をべースとした学習モデルへの入力とすることで単語の順序情報を活用して解析が行える. ## 3.4 シーケンスからの単語推測 シーケンス $s_{i}$ は秘匿されないため解析者は単語の使用頻度情報を用いた攻撃が可能である. 解析者はシーケンスに出てくる各インデックスの使用回数を数えることで単語の使用頻度の情報を得られる。一般に自然言語では単語ごとに使用頻度に差があるため,データ解析者は使用頻度を比較することで元の単語を推測することができる. しかし,使用頻度の情報のみでは元の文章の復元は困難である.同程度の使用頻度の単語を正確に分類することは難しく,十分な単語数がある場合の復元は難しい. またこの攻撃への対抗策として,一部の単語を他の単語に置き換えたり空白として扱うと 2) $\hat{D}$ に対し標準化の処理を適用すると学習精度の向上に繋がる場合がある. $\hat{D}$ は $g_{i}$ を適用する際に $D$ と比較して絶対值が小さい値になりやすいため,ニューラルネットワークによる誤差逆伝播が機能しにくくなることを防ぐ効果がある. いった差分プライバシーの手法によって使用頻度を変化させる手法が考えられる. 図 1 提案手法による文章解析の概略 ## 4 実験 文章分類の実験によって提案手法の性能評価を行う. 提供者が他のパーティとデータを共有せず個別に解析を行う個別解析,生データを秘匿せず直接共有して解析を行う集中解析の 2 つと比較を行う. ## 4.1 実験設定 実験ではサンプルデータの総数と解析精度の関係を確認する。データ提供者は各パーティ 500 サンプルずつ保有するものとし, パーティ数を 1 から 10 まで変化させることでサンプルデータの総数を 500 から 5000 に変化させる. マッピング関数 $f_{i}$ では主成分分析による次元削減の後 $[0,1]$ の一様乱数を要素に持つ乱数行列をかけている. 主成分分析では分散表現の事前学習モデル GloVe [6] による 300 次元の分散表現を 128 次元に削減した. 解析者は GRU [7] と全結合層からなるニューラルモデルを用いて解析を行う. サンプルデータには映画レビュー文とニュース記事の 2 種類のデータセットを使用する.1つ目の実験では IMDB 映画レビューデータセット [8] を使用し, 映画のレビュー文を入力として内容が好意的か批判的か判定を行うの 2 值分類を行う. 2 つ目の実験ではロイターニュース記事データセット [9]を用いて 46 種類のトピックからニュース記事がどのト 図 2 IMDB 映画レビュー分類 ピックに対応するかの多值分類を行う. ## 4.2 結果 図 2 に IMDB 映画レビュー文,図 3 にロイター ニュース記事の実験結果を示す. グラフはそれぞれ 10 回試行した平均値を取っており,エラーバーは標準誤差を表している。個別解析では提供パーティを増やしても分類精度(ACC)がほぼ一定の結果となった一方, 集中解析では提供パーティを増やし学習に利用するサンプル総数が増えるに従い ACC も向上している. 提案手法の ACC は集中解析に近い值を示し,提供パーティ数に応じて精度が向上していることが読み取れる。提供パーティ数 10 の 5000 サンプル時点では個別解析と比較して 20 ポイント以上高い数值となっており, 集中解析との比較では IMDB 映画レビューでは同等の数値, ロイターニュース記事では $1 \sim 3$ ポイント程度低い数値となった. ## 4.3 考察 提案手法により複数パーティのデータを統合して集中解析に近い精度で学習できた。単一パーティのデータしか利用できない個別解析では提供パーティを増やしても ACC は向上しない。一方, 全パーティのデータを統合して解析する提案手法と集中解析では提供パーティの増加に応じて ACC も向上しサンプル数に応じて高い精度で解析できている. また,集中解析と比較して提案手法は映画レビュー分類では同等の精度で学習できているが, ニュース記事分類では $1 \sim 3$ ポイント程度低い精度となってしまった. しかし,サンプル数に応じて精 図 3 ロイターニュース記事分類 度が向上していることから十分なサンプル数を用意すれば実用に足る十分な精度で学習できると考えられる. 提案手法が高い精度で学習できていることは,文章の順序情報を保持して学習できていることが大きな要因であると考察する。提案手法では単語の並び順を考慮して学習ができるため前後の文脈を踏まえて分類を行えるため集中解析に近い精度を出せたと考えられる。 提案手法と集中解析の精度の違いは分散表現辞書のコラボレーション表現作成による違いだと考察する. 分散表現辞書は中間表現の作成時に次元削減と乱数列の積をとっており,次元削減により失われる情報やマッピング関数 $g_{i}$ によって各パーティの乱数列の違いの影響を打ち消せなかった部分が精度に現れたと考えられる。 ## 5 おわりに 本研究では文章を分散表現辞書とシーケンスで表現し,順序情報を活用しながらプライバシー保護を考慮して学習を行う手法を提案した。文章分類の実験を行い,提案手法により文章の順序情報を活用して集中解析に近い精度で学習できることを確認した. 一方,提案手法による解析時は解析者の元に単語の使用頻度の情報を渡す事になる久点を抱えている. 使用頻度から元の文章を復元する攻撃の成功率の検証,差分プライバシーによる対策を行う場合の精度低下の検証は今後の課題としたい。 ## 謝辞 この成果は,国立研究開発法人新エネルギー・産業技術総合開発機構(N E D O)の委託業務 (JPNP18010)の結果得られたものです. ## 参考文献 [1] Akira Imakura, Tetsuya Sakurai. Data Collaboration Analysis Framework Using Centralization of Individual Intermediate Representations for Distributed Data Sets. ASCEASME Journal of Risk and Uncertainty in Engineering Systems, Part A: Civil Engineering, Vol. 6, No. 2, p. 04020018, 2020. [2] Akira Imakura, Xiucai Ye, and Tetsuya Sakurai. Collaborative Data Analysis: Non-model Sharing-Type Machine Learning for Distributed Data. In Hiroshi Uehara, Takayasu Yamaguchi, and Quan Bai, editors, Knowledge Management and Acquisition for Intelligent Systems, Vol. 12280 of PKAW 2021. Lecture Notes in Computer Science, pp. 14-29, Cham, 2021. Springer International Publishing. [3] Akira Imakura, Ryoya Tsunoda, Rina Kagawa, Kunihiro Yamagata, Tetsuya Sakurai. DC-COX: Data collaboration Cox proportional hazards model for privacy-preserving survival analysis on multiple parties. Journal of Biomedical Informatics, Vol. 137, p. 104264, 2023. [4] Shinji Ito and Kazuo Murota. An Algorithm for the Generalized Eigenvalue Problem for Nonsquare Matrix Pencils by Minimal Perturbation Approach. SIAM Journal on Matrix Analysis and Applications, Vol. 37, No. 1, p. 409-419, 2016. [5] Tomas Mikolov, Kai Chen, Greg Corrado, and Jeffrey Dean. Efficient Estimation of Word Representations in Vector Space, 2013. [6] Jeffrey Pennington and Richard Socher and Christopher D. Manning. GloVe: Global Vectors for Word Representation. In Empirical Methods in Natural Language Processing (EMNLP), pp. 1532-1543, 2014. [7] Kyunghyun Cho, Bart van Merrienboer, Caglar Gulcehre, Dzmitry Bahdanau, Fethi Bougares, Holger Schwenk, and Yoshua Bengio. Learning Phrase Representations using RNN Encoder-Decoder for Statistical Machine Translation, 2014. [8] Andrew L. Maas, Raymond E. Daly, Peter T. Pham, Dan Huang, Andrew Y. Ng, and Christopher Potts. Learning Word Vectors for Sentiment Analysis. In Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies, pp. 142-150, Portland, Oregon, USA, June 2011. Association for Computational Linguistics. [9] Reuters-21578,Distribution 1.0. http://www. daviddlewis.com/resources/testcollections/ reuters21578.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B1-5.pdf
# 破滅的忘却を防ぐ最適化関数を用いた構文情報の事前学習 岩本 蘭 1,2 吉田 一星 ${ }^{1}$ 金山 博 ${ }^{1}$ 大湖 卓也 ${ }^{1}$ 1 日本アイ・ビー・エエ株式会社東京基礎研究所 2 慶應義塾大学 [email protected] \{issei,hkana,ohkot\}@jp.ibm.com ## 概要 構文構造は複雑な文や長い文の中の重要な情報に目を向ける手助けとなる。しかし BERT などの事前学習済モデルは明示的な構文制約を与えておらず、感情分析タスクなどで構文的に不自然な出力が見られる。その問題への対処として構文知識を事前学習させる研究が行われている。本論文では事前学習済 BERT がもつ意味表現を保持しつつ構文知識を加えるために、破滅的忘却を防ぐ 2 つの最適化関数 (Elastic Weight Consolidation と Gradient Surgery)を用いて4つの構文タスクをそれぞれ追加学習させた。追加学習済モデルを用いて GLUE の 3 つのタスク (CoLA, RTE, MRPC) を解き、意味と構文両方の情報を持つモデルが高性能を発揮することを示した。 ## 1 はじめに 事前学習済言語モデル(以降、モデルと呼ぶ)は近年の言語処理タスクの性能向上に大きく寄与している。それらのモデルは品詞や依存構造などの構文情報を大まかに捉えているが [3]、実際には応用タスクを解くための構文情報がまだ不足している [20]。 構文構造を明示的/暗黙的に組み込んだ言語処理モデルは機械読解 [24] や言語理解 [23]、翻訳 [2] などで高い性能を発揮している。それらの研究ではモデルに構文構造を読み込むモジュールを明示的に組み込む。しかし既存の応用タスクの多くは Hugging Face [19] などが配布している形式のモデルの読み込みを前提としており、他のタスクへの活用が難しいという側面がある。そこでモデルの再利用性の向上を目的とし、構文構造の追加学習のみを行うモデルが台頭している $[16,21]$ 。本論文では近年の流れに倣い、BERT [4]への構文構造の追加事前学習を行い、後段タスクで使いやすいモデルを作成した。学習済モデルに別のタスクを学習させると以前学んだことを忘れる破滅的忘却 [5] という問題が起こりやすいため、破滅的忘却を防ぐ最適化関数を用いた。 図 1 構文事前学習の概要。破滅的忘却を防ぐ最適化関数を用いて構文情報を追加学習し、モデルが元々持つ意味表現を損なわず構文情報を獲得する。 構文事前学習の概要を図 1 に示す。本論文の主な貢献は以下の 3 つである。 ・事前学習済 BERTに 4 つの異なる構文情報を新たに組み込み(構文学習)、後段タスクでの性能を比較した。 ・構文学習の際に、既存の知識を忘れてしまう破滅的忘却を防ぐ最適化関数を用いて、意味情報と構文知識の両方を持つモデルを作成した。 ・GLUEの 3 タスクでの実験で、事前学習済BERT が元々持つ意味情報と、追加学習で得た構文知識をバランスよく含むモデルが高い性能を発揮することを示した。 ## 2 構文構造の事前学習 本節では学習させる構文情報の種類について述べる。既存研究では係り受けの予測 [18] や、依存関係の距離、兄弟関係の予測 [16] など主に 2 つの語の関係を用いている。実応用、例えば名詞句の抽出 [6] や感情分析 [7] などでは主節/従属節の関係や並列構造を従来モデルを用いてうまく扱えていない。タスクに応じて必要な構文情報をモデルに反映させるに 図 2 構文事前学習タスクの例。Tian らのシステム [16] を用い、4つの事前学習ではラベル 1 と 2 を同時に学習する。青い部分はフレーズや主節、並列構造を持つ。 は、多様性に富んだ構文学習を行う必要がある。 そこで我々は構文事前学習として、1) deprel prediction 2) phrase detection, 3) main/subordinate detection, 4) conjunction detection を行い、どのような構文情報が応用タスクに有用かを調べた。 ## 2.1 構文事前学習システム 構文学習のために Tian らのシステム [16] を用いた。システムは係り受けを予測する dependency masking (DM) と関係名を予測する masked dependency prediction (MDP) を同時学習する構造を持つ。本論文では MDP 側を我々のタスクに変更する。 ## 2.2 構文事前学習タスク 本節では図 2 の 4 つの事前学習について述べる。 それぞれ文中の単語の係り受けを予測する部分は同じとし (図 2 のラベル 1 に相当)、図 2 のラベル 2 の部分が各タスクによって異なる。 Deprel prediction (deprel) 依存構造解析と同様であり、構文事前学習のベースラインタスクとする。 Phrase detection (phrase) Basirat ら [1] から着想を得たタスクである。彼らはフレーズのような単位である nucleus を用いて依存構造解析の性能を向上させた。本論文でもそれに倣いフレーズ間の関係 (フレーズの主辞の deprel) を予測する。 Main/subordinate detection (main/sub) Nikolaev $ら$ [12] の、BERT が従属節を検出可能かどうかを調査するタスクを参考にし、主節と従属節を予測する。 Conjunction detection (conj) A and B といった並列構造を予測する。具体的には A, B それぞれの主辞 (conj) とその中の子要素 (child)、and 等の並列接続詞 (cc)、それ以外 (other) のラベルを予測する。 ## 3 破滅的忘却を防ぐ最適化 本節ではモデルの意味情報を保持しつつ構文知識を追加するための 2 つの最適化関数を紹介する。 モデルに対してタスクを連続で学習させると、最初の方のタスクの性能が著しく低下する破滅的忘却 [5] という問題が生じる。事前学習済モデルでも破滅的忘却を防ぐ様々な研究が提案されており[8]、我々はマルチタスク学習、特に強化学習や翻訳の分野でよく用いられる最適化手法 Gradient Surgery (GS)[22] と、継続学習で一般的な最適化である Elastic Weight Consolidation (EWC)[9]を用いた。 ## 3.1 Gradient Surgery (GS) Gradient Surgery は複数タスクを同時に学習するマルチタスク学習で、勾配の対立を解消する最適化手法である。例えばある 2 つのタスクで勾配が逆方向になる場合、片方の勾配をもう一方の勾配の直行平面に射影し、もう一方の勾配と対立している部分を消す。その後 2 つの勾配を足し合わせる。 ## 3.2 Elastic Weight Consolidation (EWC) EWC はタスクを順に学習する継続学習で最初のタスクの最適解を探した後 (または学習済モデルを用いる時) にそのタスクと次のタスク両方で高性能を出すパラメータを探す最適化手法である。Fisher 情報行列を用いて、最初のタスクで重要なパラメー タはなるべく更新せず、重要でないパラメータの更新重みを大きくする。GS を用いるマルチタスク学習では最初のタスクのデータを大量に必要とするのに対し、継続学習でEWC を用いる際には少量のデータのみでパラメータの重要度を計算できる。 ## 4 実験 1: 構文事前学習 本実験では事前学習済モデルが意味情報を残したまま構文情報をどの程度学習可能かを検証する。 ## 4.1 設定 構文学習には 2 節で述べた Tian らのシステム [16] を、事前学習済モデルとして bert-base-cased ${ }^{1)}$ を用いた。構文学習のデータは UD-EWT v2.10 [15] から作成し、train/dev/test の割合は変えていない。単語数が 5 未満の文、PoS タグ “X” や関係ラベル“dep”を含む文を除去した。実験に用いた文数を表 2 に示す。  表 1 構文構造の事前学習での、構文タスクと最適化関数の違いによる構文/MLM タスクの性能比較。 & AdamW & 98.02 & 96.04 & 96.82 & 96.90 & 95.37 & 95.63 & $\mathbf{9 6 . 2 2}$ & 702.87 \\ & SGD & 97.86 & 95.86 & 96.64 & 96.90 & 95.37 & 95.63 & 96.13 & 32392.10 \\ & GS & 97.30 & 94.75 & 95.69 & 96.48 & 94.93 & 95.18 & 95.43 & $\mathbf{1 0 . 4 4}$ \\ & EWC & 97.43 & 94.70 & 95.56 & 96.03 & 94.40 & 94.71 & 95.13 & 25.63 \\ & SGD & 97.19 & 95.20 & 95.89 & 95.64 & 95.44 & 95.36 & 95.62 & 2587.11 \\ & GS & 97.58 & 95.80 & 96.53 & 95.08 & 95.21 & 95.02 & 95.78 & $\mathbf{9 . 6 8}$ \\ & EWC & 97.70 & 95.74 & 96.51 & 94.79 & 94.72 & 94.66 & 95.58 & 24.17 \\ & SGD & 96.90 & 94.80 & 95.49 & 100.00 & 100.00 & 100.00 & 97.74 & 1471.63 \\ & GS & 95.70 & 93.86 & 94.16 & 94.93 & 95.56 & 95.24 & 94.70 & $\mathbf{1 1 . 1 6}$ \\ & EWC & 97.57 & 95.22 & 96.07 & 94.52 & 94.52 & 94.52 & 95.29 & 23.59 \\ & SGD & 83.81 & 83.65 & 82.57 & 97.49 & 95.79 & 96.53 & 89.55 & 1412.65 \\ & GS & 89.57 & 88.19 & 87.75 & 96.46 & 93.93 & 94.92 & 91.33 & $\mathbf{9 . 5 6}$ \\ & EWC & 89.57 & 88.19 & 87.75 & 96.13 & 93.15 & 94.26 & 91.00 & 23.78 \\ 表 2 実験に使用した UD-EWT コーパスの文数. 最適化関数は 3 節で述べた破滅的忘却を防ぐ GS、 EWC と、比較手法として AdamW [10] と SGD [13] を用いた。GS と EWC を用いた学習では構文学習の 1 ステップごとに WikiText2 [11] からランダムに 100 文を選び MLM (Masked Language Modeling) の勾配を求めた。GS ではその勾配を構文学習の勾配に足す、 つまり少量の MLM データでのマルチタスク学習を行なった。EWCではパラメータの重要度計算に勾配を用いただけで、MLM の追加学習はしていない。 bert-base-cased を構文学習なしのベースラインとし、4つの構文学習をそれぞれ行なった。BERTの元々の意味情報を保持しているか確かめるため、構文学習後に全てのモデルに対して WikiText2を用いて MLM を測定した。MLM の評価尺度として擬似対数尤度スコア (PPL) [14] を、構文タスクの評価尺度として適合率、再現率、F1スコアを用いた。学習率は $\{1$ e-4,1e-5,1e-6\}、epoch 数は $\{50,70,100\} を$ 用い、 test データで Syntax Head と Syntax Label 予測の平均 F1 スコアが一番高いモデルの值を載せた。 ## 4.2 結果 結果を表 1 に示す。GS と EWC のみ MLM 事前学習の知識を保ったまま (PPL が低いまま) 構文学習ができたのに対し、AdamW と SGD は破滅的忘却が起こり PPL が増大した。AdamW はどの構文タスクでも最も良い平均 F1 スコアを達成したが、特に deprel タスクにおいては他の最適化との $\mathrm{F} 1$ スコアの差はほぼない。AdamW と SGD は target タスクにこでは構文学習) の性能向上に特化するので、直前のタスクの性能が低くなる (PPL が高くなる)。PPL と応用タスクの関係については栗林ら [25] も触れている。 GS と EWC では PPL が低く、構文学習よりも前に身につけた意味的な知識を保っていることがわかる。 タスクごとの違いについても述べる。AdamW での Syntax Label のスコアの違いを比較すると、 main/subordinate タスクや conj タスクは Syntax label の種類が少ないため F1 スコアが高いが、それ以外のタスクは Syntax label の種類が多く F1 スコアが低い。この結果はデータの性質から予測可能である。注目すべきは Syntax Head で、4 タスクで正解が同じなのにも関わらず、もう片方のタスクとの相性によってスコアが異なる。例えば、conj と head の組み合わせは他に比べて F1 スコアが低い。 表 3 構文事前学習タスクと最適化関数のそれぞれの違いに基づく GLUE タスクの性能比較。構文事前学習タスクごとの最も高いスコアを下線、それぞれの GLUE タスクにおいての最高スコアを太字で示す。 ## 5 実験 2: GLUE 構文知識が言語理解に及ぼす効果を、言語理解のベンチマーク GLUE [17] の中で構文構造が有用と思われるタスク (CoLA, RTE, MRPC) で評価する。 CoLA はある英文の文法が正しいかどうかを、RTE は 2 つの文の含意関係を、MRPC は 2 つの文が同じ意味かを判定する 2 值分類タスクである。 ## 5.1 設定 訓練時の epoch 数は 5 に設定し、評価指標は GLUE に倣い、CoLA では Matthews correlation, RTE では精度、MRPC では精度と F1 スコアを用いた。また, 3 タスクの評価值のマクロ平均をとった。2) 次節で示す結果は表 1 のモデルとは異なり、GLUE の 3 タスクの平均スコアが一番高いモデルの結果を載せている。そのため構文学習のスコアも記している。 本論文では最適化と事前学習の違いによる性能の違いを開発データのみで評価した。鈴木ら [26] が述ベたように、リーダーボードに多数の投稿をすることは評価データの傾向の判明につながるため、本実験では開発データでの性能比較で十分と判断した。 2) MRPC の 2 つの值は 0.5 で重み付けして他の值と平均した。 ## 5.2 結果 結果を表 3 に示す。CoLA やMRPC では破滅的忘却を防ぐ GS や EWC を用いたモデルが AdamW やSGD に比べ高いスコアを示した。EWCを用いて conj タスクを学習したモデルが最も高い平均スコア (72.22) を達成し、他のモデルも構文学習なしのスコア (70.54) を上回った。つまり多様な構文情報が性能向上に寄与し、中でも意味情報を保持しつつ構文情報を“ほどほどに”学習したモデルが高い性能を発揮していると考えられる。 ## 6 まとめ 本論文では事前学習済モデルに構文知識を取り入れるために、破滅的忘却を防ぐ最適化関数 GS と EWC を導入し、 4 つの構文追加学習を比較した。モデルに元々含まれる意味情報と追加学習で補った構文知識を併せ持ったモデルは CoLA, RTE, MRPC タスクにおいて高い性能を発揮した。 適切な最適化関数を用いて知識をモデルに追加する本手法は、構文情報以外の事前学習にも適用できる。また作成したモデルは事前学習済モデルと同じ形式を持ち、応用タスクでの活用に適している。 ## 参考文献 [1] Ali Basirat and Joakim Nivre. Syntactic nuclei in dependency parsing - a multilingual exploration. In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics, pp. 1376-1387, 2021. [2] Emanuele Bugliarello and Naoaki Okazaki. Enhancing machine translation with dependency-aware self-attention. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 1618-1627, 2020. [3] Ethan A. Chi, John Hewitt, and Christopher D. Manning. Finding universal grammatical relations in multilingual BERT. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 5564-5577, 2020. [4] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics, pp. 4171-4186, 2019. [5] Robert M. French. Catastrophic forgetting in connectionist networks. Trends in Cognitive Sciences, Vol. 3, No. 4, pp. 128-135, 1999. [6] Xiaotao Gu, Zihan Wang, Zhenyu Bi, Yu Meng, Liyuan Liu, Jiawei Han, and Jingbo Shang. UCPhrase: Unsupervised ContextAware Quality Phrase Tagging. In Proceedings of the 27th ACM SIGKDD Conference on Knowledge Discovery and Data Mining, p. 478-486, 2021. [7] Hiroshi Kanayama and Ran Iwamoto. How Universal are Universal Dependencies? Exploiting Syntax for Multilingual Clauselevel Sentiment Detection. In Proceedings of the 12th Language Resources and Evaluation Conference, pp. 4063-4073, 2020. [8] Sudipta Kar, Giuseppe Castellucci, Simone Filice, Shervin Malmasi, and Oleg Rokhlenko. Preventing catastrophic forgetting in continual learning of new natural language tasks. In Proceedings of the 28th ACM SIGKDD Conference on Knowledge Discovery and Data Mining, p. 3137-3145, 2022. [9] James Kirkpatrick, Razvan Pascanu, Neil Rabinowitz, Joel Veness, Guillaume Desjardins, Andrei A. Rusu, Kieran Milan, John Quan, Tiago Ramalho, Agnieszka Grabska-Barwinska, Demis Hassabis, Claudia Clopath, Dharshan Kumaran, and Raia Hadsell. Overcoming catastrophic forgetting in neural networks. Proceedings of the National Academy of Sciences, Vol. 114, No. 13, pp. 3521-3526, 2017. [10] Ilya Loshchilov and Frank Hutter. Decoupled weight decay regularization. In International Conference on Learning Representations, 2019. [11] Stephen Merity, Caiming Xiong, James Bradbury, and Richard Socher. Pointer sentinel mixture models. In International Conference on Learning Representations, 2017. [12] Dmitry Nikolaev and Sebastian Pado. Word-order typology in multilingual BERT: A case study in subordinate-clause detection. In Proceedings of the 4th Workshop on Research in Computational Linguistic Typology and Multilingual NLP, pp. 11-21, 2022. [13] H. Robbins and S. Monro. A stochastic approximation method. Annals of Mathematical Statistics, Vol. 22, pp. 400-407, 1951. [14] Julian Salazar, Davis Liang, Toan Q. Nguyen, and Katrin Kirchhoff. Masked language model scoring. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 2699-2712, 2020. [15] Natalia Silveira, Timothy Dozat, Marie-Catherine de Marneffe, Samuel Bowman, Miriam Connor, John Bauer, and Christopher D. Manning. A gold standard dependency corpus for English. In Proceedings of the Ninth International Conference on Language Resources and Evaluation (LREC-2014), 2014. [16] Yuanhe Tian, Yan Song, and Fei Xia. Improving relation extraction through syntax-induced pre-training with dependency masking. In Findings of the Association for Computational Linguistics: ACL 2022, pp. 1875-1886, 2022. [17] Alex Wang, Amanpreet Singh, Julian Michael, Felix Hill, Omer Levy, and Samuel Bowman. GLUE: A multi-task benchmark and analysis platform for natural language understanding. In Proceedings of the 2018 EMNLP Workshop BlackboxNLP: Analyzing and Interpreting Neural Networks for NLP, pp. 353-355, 2018. [18] Ruize Wang, Duyu Tang, Nan Duan, Zhongyu Wei, Xuanjing Huang, Jianshu Ji, Guihong Cao, Daxin Jiang, and Ming Zhou. K-Adapter: Infusing Knowledge into Pre-Trained Models with Adapters. In Findings of the Association for Computational Linguistics: ACL-IJCNLP 2021, pp. 1405-1418, 2021. [19] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Remi Louf, Morgan Funtowicz, Joe Davison, Sam Shleifer, Patrick von Platen, Clara Ma, Yacine Jernite, Julien Plu, Canwen Xu, Teven Le Scao, Sylvain Gugger, Mariama Drame, Quentin Lhoest, and Alexander Rush. Transformers: State-of-the-art natural language processing. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 38-45, 2020. [20] Zenan Xu, Daya Guo, Duyu Tang, Qinliang Su, Linjun Shou, Ming Gong, Wanjun Zhong, Xiaojun Quan, Daxin Jiang, and Nan Duan. Syntax-enhanced pre-trained model. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing, pp. 5412-5422, 2021. [21] Zhixian Yang and Xiaojun Wan. Dependency-based mixture language models. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics, pp. 7758-7773, 2022. [22] Tianhe Yu, Saurabh Kumar, Abhishek Gupta, Sergey Levine, Karol Hausman, and Chelsea Finn. Gradient surgery for multi-task learning. In Advances in Neural Information Processing Systems, Vol. 33, pp. 5824-5836, 2020. [23] Zhuosheng Zhang, Yuwei Wu, Hai Zhao, Zuchao Li, Shuailiang Zhang, Xi Zhou, and Xiang Zhou. Semantics-aware BERT for language understanding. Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 34, No. 05, pp. 9628-9635, 2020. [24] Zhuosheng Zhang, Yuwei Wu, Junru Zhou, Sufeng Duan, Hai Zhao, and Rui Wang. SG-Net: Syntax-Guided Machine Reading Comprehension. Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 34, No. 05, pp. 9636-9643, 2020. [25] 栗林樹生, 大関洋平, 伊藤拓海, 吉田遼, 浅原正幸, 乾健太郎.予測の正確な言語モデルがヒトらしいとは限らない. 言語処理学会第 27 回年次大会予稿集, 2021. [26] 鈴木潤, 全炳河, 賀沢秀人. ニューラル言語モデルの効率的な学習に向けた代表データ集合の獲得. 言語処理学会第 28 回年次大会予稿集, 2022.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B10-1.pdf
# What Food Do We Tweet about on a Rainy Day? Maija Kāle ${ }^{1}$ Matīss Rikters ${ }^{2}$ ${ }^{1}$ University of Latvia ${ }^{2}$ National Institute of Advanced Industrial Science and Technology \{name.surname\}@lu.lv \{name.surname\}@aist.go.jp } \begin{abstract} Food choice is a complex phenomenon shaped by factors such as taste, ambience, culture or weather. In this paper, we explore food-related tweeting in different weather conditions. We inspect a Latvian food tweet dataset spanning the past decade in conjunction with a weather observation dataset consisting of average temperature, precipitation, and other phenomena. We find which weather conditions lead to specific food information sharing; automatically classify tweet sentiment and discuss how it changes depending on the weather. This research contributes to the growing area of large-scale social network data understanding of food consumers' choices and perceptions. \end{abstract ## 1 Introduction This paper focuses on the relationship between food sentiment and weather using the previously collected Latvian Twitter Eater Corpus (LTEC [1]). We seek to answer (1) is there a correlation between food sentiment and weather experienced at the time of tweeting and (2) what are the differences in the term frequencies of food mentioned depending on the weather. The rationale for this paper is to contribute to deeper understanding of human-food relationship, in particular in relation to weather data. We believe that with more nuanced knowledge of human-food relationships and factors influencing them, we can provide valuable inputs for public health policy makers when they develop their strategies and nudge consumers to choose more healthy options of food. Weather people - this is a term that Bakhshi [2] used to explain our dependence on the weather regarding food choices and satisfaction with food. While the weather is known to alter consumers' mood significantly and consequently their behaviour [3], there have been surprisingly few studies that illustrate weather's impact on food perception and food choices, except some that have used online and offline restaurant reviews as a proxy of measuring it $[4,3]$. They find that weather impacts both the frequency of the feedback that food consumers provide, as well as its content. Typically, sunny and pleasant weather leads to more frequent and more positive feedback, since low levels of humidity and high levels of sunlight are associated with high mood. At the same time, reviews written on rainy or snowy days, namely days with precipitation, tend to have lower ratings. Instead of analysing restaurant reviews, we focus on Twitter, where food represents one of the key themes discussed, providing us with spontaneous reactions, which is a unique feature when compared to other data collection methods like reviews or food diaries [5]. Our analysis of the LTEC provides a foodrelated set of discussions that we can correlate with weather data, leading to the following research inquiries: 1) is there a correlation between food tweet sentiment and the weather that the tweet authors are experiencing at the time of tweeting? 2) what are the differences in terms of frequencies of what food is mentioned in tweets depending on weather? One of the reasons, why there are few weather-food choice related studies, is the lack of data - we do not have access to retailers' food sales data that could be correlated with the weather data. Instead, we are focusing how food is represented in social media - in particular Twitter, assuming that tweet is an appropriate proxy to measure sentiment related to food consumption. By analysing weather-related dynamics in LTEC, we contribute to the research field that links food and mood, adding weather impact on the mood. ## 2 Related Work Food consumption is a complex process that is impacted interchangeably by various endogenous factors, such as taste, quality, texture, colour and others, as well as exogenous or external factors ranging from demography, educational level, time of the day, weather, the ambience where it is consumed and others $[6,3]$. Mood is the determining factor in food choice, where good mood is associated with healthier food choices and bad mood with less healthy food choices [7]. Food choice is also seasonally patterned in particular in areas with more seasonal climate in terms of temperature. Even though most of our modern lives are spent indoors, weather and climate conditions still impact our food preferences and consumption [8]. While seasonal food consumption patterns are culture-based and differ in various geographical regions, weather-related preferences seem universal. Sunny and moderate temperature-wise weather leads to better mood, while more extreme weather (hot, cold, precipitation) is less pleasant and impacts mood, food consumption experiences. A large-scale study on demographics, weather, and restaurant reviews reveals that pleasant weather impacts not only the content but also the frequency that is higher than during non-pleasant weather conditions [4]. This is an important indicator that a review can serve as a proxy for measuring the weather's impact on mood and, thus, the food consumption experience. Consumer comments and word-of-mouth have also been studied in relation to weather, implying that consumers' pre-consumption mood directly influences post-consumption mood, and consumers' satisfaction with the service accordingly. Pre-consumption mood, is viewed via weather conditions, where eight weatherrelated variables have been considered, including visibility, rain, storm, humidity, wind speed, pressure. By including temperature, barometric pressure, and rain as variables reduces unexplained variance and improves results of the experiment. This study successfully links weather to mood and its transfer to affective experience and consumer behaviour [3]. Considering previous studies that prove the link of weather to mood and food perception accordingly, with our work, we aim to illustrate this link via tweet sentiment evaluation. We refine our study by looking at frequencies - what foods authors tweet more in pleasant weather and unpleasant weather conditions, mapping the weather-related food scene in Latvian language Twitter. ## 3 Case Study of Latvia Latvia has four distinct seasons: winter is December to February, spring - March to May, summer June to August, autumn - September to November. The average annual air temperature in Latvia is only $+5.9^{\circ} \mathrm{C}$. The warmest month is July, and the coldest months are January, February (also the snowiest). Months with the most precipitation are July and August, while the least is in February and March. The highest wind speeds are in November, December and January, and the lowest are in July and August [9]. Latvia provides an example of a country in the Northern hemisphere with various weather conditions to analyse from the perspective of tweeting about food. Besides recognising weather data, Latvian national cuisine seasonality aspects should be considered. Specific foods are consumed in certain seasons in Latvia - cold soup in summer, grey peas, tangerines and gingerbread for the Christmas season [10]. This cultural context is important for understanding weatherrelated impact on food tweet understanding. Other cyclical events that are present in any modern society should also be considered. Not just weather and seasonal celebrations are cyclical in nature and correlate with the time of the year. There are other variables that correspond to the time of year that could be possible confounds, for example, school schedules, holiday seasons, election events, sport events, etc. While aware of such cyclical events, we do not highlight them here due to lack of previous research to provide us with reference data. The only study about the timeline of food related tweets in Latvia reveals that a slight decrease of food tweeting was observed on weekend evenings, and a significant one - on weekend mornings [10]. These results imply the overall differences in mood and behaviour at various times of the day/meals: people tend to be more 'virtuous' in mornings by choosing healthy and nutritious food, while snacking during afternoons [11]. The nuances to consider can be categorised in individual circadian rhythms, culture/climate bound seasonality cycles, celebrations, and cyclical events. While being aware of those multiple factors, in this work we focus on weather data primarily, linking them with tweet sentiment without additional references to cyclical nature of human life. ## 4 Data Collection and Processing We used a combination of the LTEC for tweets and weather data exported from Meteostat ${ }^{11}$. We mainly focused on tweets and weather relating to Riga, the capital of Latvia, since most tweets with location data originated there, and it was difficult to obtain detailed historical weather data for the smaller regions. The LTEC has a total of $2.4 \mathrm{M}$ tweets generated by $169 \mathrm{k}$ users. It has been collected over ten years following 363 eating-related keywords in Latvian. Among the tweets, $167 \mathrm{k}$ have location metadata specified, of which $68 \mathrm{k}$ were from Riga and 9k more from areas around Riga. To further increase the number of location-related tweets, we selected all remaining tweets which mention Riga or any of its surrounding areas (Marupe, Kekava, etc.) in any valid inflected form. This added 54k tweets, totalling to 131,595. In addition to location metadata, the LTEC provides all food items mentioned in the text and a separate subset of sentiment-annotated tweets for training sentiment analysis models. We use the 5420 annotated tweets to fine-tune a multilingual BERT [12] model for this task along with $\sim 20,000$ sentimentannotated Latvian tweets from other sources ${ }^{2}$. Evaluation was performed on the 743 tweet test set from LTEC and reached an accuracy of $74.06 \%$. We then use the model to automatically classify the locationspecific tweets as positive, neutral or negative. We could reliably obtain only data for temperature and precipitation from Meteostat, while data for snowfall was only available up to 2017 , and data for wind speed and air pressure was only available from 2018 onward. There was no available data to trace 1) https://meteostat.net/en/place/lv/riga 2) https://github.com/Usprogis/Latvian-Twitter-Eater- Corpus/tree/master/sub-corpora/sentiment-analysis daily sunshine, but it can be inferred from looking at precipitation, snowfall and air pressure. ## 4.1 Limitations and Assumptions Our work has several important limitations that can be grouped into categories of 1) data availability, 2) tweet author's demographic profile, and 3) generalisation of the results. First, we could only obtain fairly superficial weather data while weather change during the same day was not considered due to lack of detail. Second, we cannot provide a demographic outlook of the usual tweet author in LTEC, and our analysis includes tweets by general digitally literate people active on Twitter. Third, considering the limitations discussed, our results are not an exact extrapolation of weather-related food perception in Latvian society. Nevertheless, our approach adds to the understanding of weather's impact on the part of the Latvian society which tweets about food. ## 5 Analysis and Results While the results of tweet sentiment in terms of the percentage of negative, neutral and positive tweets are largely the same for all weather conditions, we can observe considerably fewer positive tweets during windy weather and high-pressure, as shown in Table 2. Surprisingly, even during low-pressure weather conditions, tweets are not necessarily dominated by negative sentiment - quite the opposite - food tweets have been related to mostly positive sentiment. It could be explained by the fact that people are tweeting about comfort food (e.g. coffee, chocolate, other) or that any food could be comforting during days of low-pressure weather conditions. This remains to be answered in a more fine-grained manual analysis. The right part of Table 1 shows that tea exceeds coffee during cold weather, and there is also a slight increase in tweets about chocolate in cold weather, while the frequency of ice-cream tweets doubles in warm weather. Interestingly, in hot or cold weather tweet amount about meat, cake or soup remains largely similar. While warm weather tweets include strawberries, cold weather tweets include gingerbread, which coincides with seasonal Christmas food. There are no other notable differences between warm and Table 1 Comparison of top products during windy (wind speed $\geq 20 \mathrm{~km} / \mathrm{h})$, rainy (precipitation $>0)$, cold $\left(\leq 0{ }^{\circ} \mathrm{C}\right)$, and warm weather $\left(\geq 0{ }^{\circ} \mathrm{C}\right)$. Table 2 Weather relation to tweet sentiment. cold weather tweets, which leads to a conclusion that spending so much time indoors has harmonised foods tweeted about in different seasons and conditions. A slightly different result is revealed in the left part of Table 1, which indicates that during windy weather, meat becomes the most popular food item, while in rainy weather, the results are similar to cold weather where tea dominates. While it is difficult to explain this, a speculation could be that wind is less visible than temperature that is frequently reported in media or precipitation that is visually noticeable before leaving the home, and, thus, without proper clothing during windy weather one might become uncomfortably cold, which in turn could lead to higher willingness to consume meat. Chocolate is twice as popular during rainy weather than during windy weather, and it could be related to a lack of sunshine during rainy weather that needs to be compensated with chocolate, while a windy day can still be sunny. Only potatoes remain stable in terms of tweeting frequencies in any weather - warm, cold, windy or rainy. This can be explained by the fact that potatoes are part of a daily diet in Latvia and constitute the basis for energy intake. ## 6 Conclusion This paper contributes to understanding how weather impacts the mood of food consumers by examining influence on food tweets. The knowledge can be useful to public health policymakers and applied when nudging consumers to choose more healthy food alternatives in different weather conditions and seasons. Obesity, type 2 diabetes and cardiovascular diseases are just a few of the health problems acquired due to nutritional specifics $[13,14]$. The global spread of obesity has been labelled a pandemic and it is of utmost importance to understand the underlying factors behind food choice. Acknowledging and understanding the impact of weather on food consumers and their affective reactions helps explain the complexities associated - food waste, healthy vs. unhealthy choices and other issues. We also highlight the lack of weather data to obtain precise results. A more fine-grained and longitudinal weather data set could allow for higher precision for food tweet data correlation. Besides that, there should also be additional studies done with regard to other cyclical events encountered in modern lives - e.g. school schedule and holidays, annual sport events and others - to capture the impact of weather and nonweather related seasonality on food tweet sentiment. We aim to contextualise the behaviour of tweeting about food in a given geographical area and build a framework for more nuanced understanding of foodrelated discourse in Latvian language Twitter [6]. The contextual knowledge created can be helpful to researchers working with personalised food and health application model development, since humans are social beings, and peer behaviour impacts their choice. Furthermore, we wish to highlight how interconnected our digital and analogue lives are - following up the tweet sentiment and frequency indicators with actual purchasing behaviour and food sales data. We plan to release the tweet-weather dataset as an addition to the existing LTEC and make it public on GitHub. ## References [1] Uga Sproğis and Matīss Rikters. What Can We Learn From Almost a Decade of Food Tweets. In Proceedings of the 9th Conference Human Language Technologies - The Baltic Perspective (Baltic HLT 2020), pp. 191-198, Kaunas, Lithuania, 2020. IOS Press. [2] Jason Maderer. A rainy day can ruin an online restaurant review. https: //news.gatech.edu/news/2014/04/02/ rainy-day-can-ruin-online-restaurant-review, April 2014. Accessed: 2022-04-15. [3] Milos Bujisic, Vanja Bogicevic, H. G. Parsa, Verka Jovanovic, and Anupama Sukhu. It's raining complaints! how weather factors drive consumer comments and word-of-mouth. Journal of Hospitality \& Tourism Research, Vol. 43, No. 5, pp. 656-681, 2019. [4] Saeideh Bakhshi, Partha Kanuparthy, and Eric Gilbert. Demographics, weather and online reviews: A study of restaurant recommendations. In Proceedings of the 23rd International Conference on World Wide Web, WWW '14, p. 443-454, New York, NY, USA, 2014. Association for Computing Machinery. [5] Patricia Puerta, Laura Laguna, Leticia Vidal, Gaston Ares, Susana Fiszman, and Amparo Tarrega. Co-occurrence networks of twitter content after manual or automatic processing. a case-study on “gluten-free". Food Quality and Preference, Vol. 86, p. 103993, 2020. [6] Carlos Velasco, Charles Michel, and Charles Spence. Gastrophysics: Current approaches and future directions. International Journal of Food Design, Vol. 6, No. 2, pp. 137-152, 2021. [7] Charles Spence. Explaining diurnal patterns of food consumption. Food Quality and Preference, Vol. 91, p. 104198, 2021. [8] Charles Spence. Explaining seasonal patterns of food consumption. International Journal of Gastronomy and Food Science, Vol. 24, p. 100332, 2021. [9] LVĞMC. Climate of latvia. https://www. meteo.lv/en/lapas/environment/climate-change/ climate-of-latvia/climat-latvia?id=1471, 2009. Accessed: 2022-04-15. [10] Maija Kāle, Jurğis Šķilters, and Matīss Rikters. Tracing multisensory food experiences on twitter. International Journal of Food Design, Vol. 6, No. 2, pp. 181-212, 2021. [11] Charles Spence. Explaining diurnal patterns of food consumption. Food Quality and Preference, Vol. 91, p. 104198, 2021. [12] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [13] Weiqing Min, Shuqiang Jiang, Linhu Liu, Yong Rui, and Ramesh Jain. A survey on food computing. ACM Comput. Surv., Vol. 52, No. 5, sep 2019. [14] Robert Mai, Stefan Hoffmann, Jens R Helmert, Boris M Velichkovsky, Susann Zahn, Doris Jaros, Peter EH Schwarz, and Harald Rohm. Implicit food associations as obstacles to healthy nutrition: the need for further research. The British Journal of Diabetes \& Vascular Disease, Vol. 11, No. 4, pp. 182-186, 2011. ## A Weather Data Availability Figure 1 shows a visualisation of the data. We could reliably obtain only data for temperature and precipitation for the entire period. There is only a slight gap in precipitation data for the first half of 2018. However, data for snowfall was only available up to February of 2017, and data for wind speed and air pressure was only available from August of 2018 onward. Figure 1 Available weather data from Meteostat.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B10-2.pdf
# 単語音素のベクトル化による言語地図作成 近藤泰弘 青山学院大学 [email protected] ## 概要 同じ意味の単語について,方言によって語形が異なることが一般的だが,その細かな語形を分類して,その方言形の採取地点の地図上に対応するアイコンを配置したものを,「言語地図」という。これまでは, 言語地理学の分野で, 「言語地図」は単語の語形を見ながら,研究者がそれを分類して,アイコンの色や形を決めていたが,本研究では,語形をその音素の分布のベクトルに変換し,機械学習によって分類することで,アイコンの種類の決定を自動化する手法を提案した. 単語のベクトル化は. 文脈から意味の分散表現による埋め込みべクトルを作成するのが一般的だが,言語地図のための方言の語形には,そのような意味による文脈は存在しないため,今回は, 文書ベクトルの BoW(Bag of Words) の手法に習い,語形の音素の BoC(Bag Of Characters)表現を用いて,音素の頻度ベクトルを用いて分類を行った. そして,音素の unigram の BoC のベクトルによる方法に実用的な優位性があることを示した. ## 1 はじめに 社会言語学の研究の中では, 方言語形を地点ごとに配置するいわゆる「言語地図」を作ることが一般的である。そのような方法は「言語地理学」と言われることが多い。その初期には手作業でスタンプを地図に押印する方法がとられたが,近年では,GIS の手法を用いて,電子的に表現する方法が一般的である. 「言語地図」の研究手法は, 古く, 柳田国男の 『蝸牛考』[1]で知られるように(例えば,列島の中心部で「デンデン」,その回りに「マイマイ」さらにその周辺部で「カタツムリ」,そして「ナメクジ」があるように見えることから,周圈分布などと呼ばれた)日本語の古語の語形の歴史的な流布順序などを推定するのに役立つとされている. 方言語形は非常に多様で。「かたつむり」の方言形のひとつである 「ナメクジ」系にしても,「ナメクシ・マメクジ・ナ メクジリ・ナメラ・ナメクジナ」など極めて多くのバリエーションがある.これらをひとまとまりとして.「マイマイ」系や「デンデンムシ」系などをまとめたものと,はっきりと区別するように表示する必要がある. しかし今回,テストデータとして用いた「日本言語地図」データなどでは全国に 2800 地点分程度の方言語形があり,それぞれが微妙なバリエーションを示している. したがってこれを全部,研究者の判断で分類して,特定のアイコンに結びつけることは非常に手間が掛かり,言語地図を作るうえでの障害であったため, その自動化の手法を提案したい. 今回はそれを自動化するために,各単語ごとの音素(ローマ字 1 字に相当)の頻度を測り, Bag of Characters あるいは, Bag of character N-gram ( $\mathrm{n}=1$ または2)のようにして,各単語について 26 次元のべクトルを作成した. 実際は,その中で今回は使わない,音素に含まれない文字,例えば Xなどもあるが,今後の拡張も考えて 26 個とした. ## 2 関連研究 日本語の言語地図をコンピュータで作成する試みは既になされている. 古くはメインフレームの時代の荻野綱男の GLAPS, [2] PC になってからの福嶋(尾崎)秩子の SEAL [3] などがある. 大西拓一郎も,Adobe イラストレータや GIS 系のアプリを駆使して言語地図を発表している. [4] Pythonを用いたものも,松浦年男 [5],加藤幹治 [6] のものなどが公開されている。 類似した発想によるものとして,語形(音形)のレーベンシュタイン距離を用いて,方言間の差異を計測した研究があり,参考になる [7]. [8] 日本語においても,方言分類を論じる場合に使われた. しかし,それらで既に示されているように,音素(ロー マ字と同一と考える)のレーベンシュタイン距離では,母音字と子音字とが区別なく扱われるため,母音交替や子音交代が頻繁に起きる日本語の実状にあ 表 1 DENDENMUSI の語形音素ベクトル 00022000100120000101000000 abcdefghijklmnopqrstuvwxyz ## わない部分がある. また,モーラの unigramを用いて,方言間の距離を計算して,方言を分類するという研究もある [9]. これも母音・子音の交代を反映できない問題がある.また,方言区画を計算する研究もある。 [10] 以上のように,語形の距離を測るという方向での研究は多いが,本研究のような手法を用いたものは管見では,世界的に存在しない。 ## 3 提案手法 1 節で述べた通り,本研究では,単語の語形のローマ字表記をデータとして用いた。 ローマ字表記は,ほぼ音素表記と同等のものと考えることができる。それをべクトル化し,その後に,教師なし機械学習で 2 次元への圧縮を行い,クラスタに分類することで,その1クラスタごとにアイコン (今回は色) を与えて,アイコン付与の自動化を実現した。 ## 3.1 モデル 表 1 のように、アルファベットの 26 次元のベクトルを用意し、それぞれに語形内(この例は「デンデンムシ DENDENMUSI」)の各文字の使用頻度を入れる。つまり、このベクトルはある単語の語形 (の構成音素)の持つ母音・子音の分布と頻度情報を持っていることになる. ここでは $\mathrm{N}=1$ (unigram) なので、字の順序情報は入っていない. この語形音素べクトルを地図ごと(地図により、 それぞれ 1500 から 2800 余の語形がある)に、機械学習で適宜次元圧縮して、さらにクラスタに分けて、音素ベクトルの特徴量によって語形アイコンの色分けを行った. なお,比較のため, $\mathrm{N}=2$ (bigram)のものも作成した. その場合は, aa から始まり zz までの 676 次元のベクトルを作成するので,DENDENMUSI の場合は,DE,EN,ND,DE,EN,NM,MU,US,SI となり,DE と ENが頻度 2,他が 1 となる。 ## 3.2 学習 各地点の音形(ローマ字)を語形ごとに音素の頻度を計算し,BoCの形にベクトル化した。その後, そのべクトル化したデータを,学習データとして, Python のライブラリの scikit-learn の PCA を用い, 26 次元ベクトルのまま学習させた。また,それによって次元圧縮し,いくつかの次元のデータを作成した後,最適な次元を決定し,またその低次元データを K-Means で学習させることで,クラスタに分類した。 クラスタ数の最適化については,語形分類が実用的にできるかどうかを主として考え,エルボー法などで結果を裏付けた,最終的な地図の見やすさの評価については,今後の課題とすべき点が残っている. ## 3.3 分類結果の表示 クラスタに分類した語形を,アイコンの色に置き換えて,方言の採取地点の緯度経度によって指定された位置に配置する.地図のスケールの動的な変更を用いることによって,従来の静的な言語地図よりも見やすい表示を実現する。 ## 4 実験と考察 ## 4.1 実験設定 提案手法の評価には,代表的な日本語方言の言語地図用のデータセットである「日本言語地図データベース」(国立国語研究所編) [11]を用いた. 公開されている「日本言語地図」データには各種あるが, ここでは,熊谷康雄が開発したものを用いた。 デー タは,CSV 形式で,語形(ローマ字音素表記),地点番号, 緯度, 経度, からなっている. 日本言語地図のすべての語形についてではなく, その一部についてのみ公開されているが,今回はその中から「かたつむり」と「くるぶし」のデータを用いた. それぞれ,2800 件のデータ数である. 処理プログラムの実装には Python 3.8.16 と scikit-learn 1.0.2を用いた,地図へのプロットには動的地図を作成できるため,folium 0.14.0を用いた. ## 4.2 結果 実験結果を表 2 に示す.このように,BOW の音素の単位を unigram にしたばあいと bigram にした場合を比較すると,どちらの語でも unigram の方がよい成績を示した. bigram では出現順情報の一部を捉えられるが,ベクトルがかなりスパースになるため,データ量が少ない今回のようなものでは精度が出ないものと考えられる。 また, 図 3 に7クラスタでの散布図を示した(`印は中央点),図 4 から図 6 が,実際の言語地図の例である。 表 2 主成分の分散の寄与度 (第 2 成分まで) 表 3 ## 5 クラスター数の調整と性能 K-Means には,クラスター数決定の難しさがある。今回もどれだけのアイコンの種類(色)にするかという点で決定的な問題がある. 方言語形は非常に多様であるので,そのすべてを完全に分類することは原理的に不可能であり,おおよそ,代表的な語形が同じ分類になり,頻度の少ない語形については,ある程度,多種の語形が同じ分類になっても実用上はかまわないという点もある. そこで,まず基本的な数値を把握するために,通例のようなエルボー図 (図 1 と図 2)を作成したところ,クラスター数 4 あたりで十分と見られる. エルボー図はあくまでも概要を捉えるに過ぎないので,いくつかの值によって作成した言語地図を作り,実際の分類状態を観察してみた。示したのは,クラスター数 7 という値,つまり,アイコンの種類が 7 ということになる. 7 の場合,主要語形の「カタツムリ」「デンデン」「ダイ口」系はほぼ完全にそれぞれ 1 つのアイコン色に当てはまり分離ができるが,それ以外の語形の「ナメクジ」系などの資料が少ない語形は表 3 のように同色に配当されてしまう。これはこの方法の限界であるが,地図を見る場合には,色の異なりで,「主要語形とは違う」ことがわかるため,参考資料として使うには問題ない部分がある。 図1「かたつむり」のクラスター数調整 図 2 「くるぶし」のクラスター数調整 ## 6 結論 本研究では,従来不可能だった,言語地図における語形のアイコンへの適切な割り当てを行う手法を提案し,ほぼ当初の目的通りの自動化を実現した。 そのために,単語の音素情報のみによって作る BoW 方式の音素べクトルを作成して機械学習によって分類するモデルを考案し,それによって既存の言語地図データセットを学習することで,語形をある程度分類することが可能であることを示した。また,性能的には,音素の unigram と bigram によるものを比較し,この場合,unigram の方が分類性能が高いことを示した。 今後,語形ベクトルを演算することで,分布の比較の数量化や,方言語形の移動の計算なども行うことを検討したい。 図 3 「かたつむり」unigram 散布図 図 4 「かたつむり」関西 図 6 「くるぶし」関東 (拡大図) 図 5 「かたつむり」東北 (拡大図) ## 謝辞 本研究の評価データセットに用いた『日日本言語地図』データベース」を開発した,国立国語研究所,熊谷康雄氏,サイトの保守にあたっている大西拓一郎氏に感謝申し上げます。 ## 参考文献 [1] 柳田国男. 蝸牛考. 刀江書院, 1830 . [2] 荻野綱男. コンピュータ言語地理学. 言語研究, Vol. 1978, No. 74, pp. 83-96, 1978. [3] 福嶋秩子. 言語地理学のへや, 2022. https://www. unii.ac.jp/chitsuko/inet/lg7.html. [4] 大西拓一郎. 言語地図作成の電算化. 日本語学, Vol. 21, No. 11, 2002. [5] 松浦年男. Python でプロットした地図を出力する, 2020. https://note.com/yearman/n/n69fa3f2d583d. [6] 加藤幹治. Python の geopandas を使って,複数の言語特徼に基づいた地図を出力する, 2020. https://qiita.com/ hamident0/items/1baabe5f7034df838589?fbclid= IwAR1EnwTQwidJDDWoR-5UHzwTSM0dFxJtepnmbKNxEoXW65xRiGDpe4w-6PY. [7] 鑓水兼貴. 共通語化過程の計量的分析. 東京外国語大学博士論文, 2009. [8] Wolfgang Vierreck. The computer developed linguistic atlas of england, volumes 1 (1991) and 2 (1997). International Computer Archive of Modern English: ICAME journal, Vol. 1997, No. 21, pp. 79-90, 2015. [9] 金明哲・中村靖子. 文学と言語コーパスのマイニング. 岩波書店, 2021. [10] INOUE Fumio. Computational dialectology. Area and Calture Studies, Vol. 52, No. 1, pp. 68-100, 1996. [11] 国立国語研究所. 『日本言語地図データベース』, 2016. https://www. lajdb.org/TOP.html.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B10-3.pdf
# 建物分布の変化を考慮した GPT-2 を用いた人流予測のための一検討 小林 亮博 ${ }^{1,2}$ 武田 直人 ${ }^{1}$ 山崎 悠大 ${ }^{1}$ 上坂 大輔 ${ }^{1}$ ${ }^{1}$ 株式会社 KDDI 総合研究所 ${ }^{2}$ KDDI 株式会社 \{ao-kobayashi, no-takeda, yd-yamazaki, da-kami saka\}@kddi.com ## 概要 近年, Transformer などの自然言語処理分野で発達した深層学習技術を, 都市内における人流の予測に活用する動きが始まっている. しかし, 既存の手法は建物などの環境の状態は変化しないとの前提に基づくものであり,例えば大規模開発後の交通量予測に応用することが困難であった.本研究は,建物分布の変化に応じた将来の人流を予測するために, GPT-2 と建物分布系列の予測器を組み合わせた上で,人流を予測する方式を提案する.本稿では,個々の予測器の性質を分析した上で, 2 者を組み合わせた提案法を評価した。 ## 1 はじめに 自治体やディベロッパーにとって, 再開発や大規模商業施設の建設といった建物分布の変化がもたらす来訪者数の変化や周辺交通一の影響を予測するメリットは大きい. 特に, 現在着目されているオンデマンドタクシーや相乗りなどといった動的に提供される交通サービスでは,個々のユーザの居住地や生活スタイルに沿った細かな移動需要の把握が重要となるため, ユーザの過去の移動系列を反映して将来の移動を予測可能な Transformer ベースの人流予測手法に関心が集まっている[2,3]. 本研究は,大規模なスマートフォン位置情報から抽出した都市における交通行動と, POI(Point of Interest)情報を場所毎・建物種類毎に統計化した建物分布の関係性をモデリングすることで,建物分布の変化に応じて増減する移動需要の予測を目指す。 ## 2 関連研究 近年,交通行動の予測においては,移動需要の発生を将来の昼間・夜間人口のみから予測していた四段階推定法[13]に代わり, ユーザの移動行動を細かくモデル化した Activity Based Model が提案されるようになってきた[1]. 石井らは, 自宅から主要な活動先へと向かい帰ってくるまでの一連の行動を「ツアー」と定義し, 活動先の建物分布と現在位置からの移動コストから, Nested Logit Model を用いて活動先やツアーの発生を予測することで,日常的な都市交通を再現している[1]. しかし現在位置にどのような経路で移動してきたかといった過去の移動系列は考慮されておらず,「職場に行く前に保育園に子供を送る」など過去の移動系列に含まれるユーザの個々の細やかな移動需要の把握が困難となっている。 さらに,ツアー単位での行動推定となるため,観光や運輸目的で対象エリアを通り過ぎる行動の再現が難しい。 [1] に代表される移動モデルはアンケートで取得されたデータを元に構築されてきたが,近年では大量に取得されるスマートフォンの位置情報から Transformer ベースの移動モデルを構築する研究が始まっている[2, 3]. Mizuno らは,自然言語モデル GPT-2を用いて、地域メッシュコード(以下メッシュと呼ぶ)で離散化したユーザ位置の系列をモデル化することで,京都駅周辺の人流を高精度に再現している[2].ここで,メッシュとは,地域を一定サイズのグリッドに分割し総務省が定めた規格 JIS X 0410 に従いコード(離散値)で表現したものである. [2]では GPT-2 を用いることで, 現在時刻までの移動系列からそのユーザが最終的に自宅に帰るのか,京都駅を通り過ぎるだけのユーザかを区別できており,1 日の終わりに出発地に戻ると予測したユーザの割合が実データと合致する。しかし,建物などの地理的環境の変化は考慮されておらず,将来予測という点では課題が残る。 ## 3 提案するモデル 本研究では,位置系列をエンコードすることで個々のユーザの生活スタイルに沿った細かな移動需要の予測が可能な,GPT-2 のメリットを保ちつつ,建物分布に変化に応じた人流の予測を可能とするモデルを提案する. 図 1 本研究が想定するデータ表現 図 1 に本研究が想定するデータ表現を示す. スマ ートフォンを用いて一定の時間間隔で観測されたユ ーザの移動軌跡を,メッシュの系列で表現する。また,メッシュ内における種別毎の建物件数を素性とする固定長ベクトルを,建物分布ベクトルと呼ぶ.建物分布は,ユーザの移動目的と強く関係するため,移動需要の説明変数として用いられており [1], その系列はユーザの移動行動系列に内包されるセマンテイクスを示すと期待される。 本研究では,環境中の建物分布が変化した場合でも,上記セマンティクスは大きく変化しないと仮定する. 例えば, 図 1 のユーザは $\mathrm{t}=3$ でオフィス街に移動した後, $\mathrm{t}=4$ で商業施設が多く存在するエリアに移動している. 仮に Mesh3 の近辺に新規の大型商業施設が開店した場合, このユーザは $\mathrm{t}=4$ において異なるメッシュに移動する可能性がある。しかし, 「オフィス街に移動した後に商業地に移動する」というセマンティクスそのものは, 大型商業施設開店後も大きく変化しないと仮定する. 図 2 は提案する人流予測モデルを示す. 図の最下段に示す空間制約表現部は[2]で提案されている GPT-2 に基づく移動軌跡予測モデルを示し,ユーザ $\mathrm{u}$ に $\mathrm{t}=0 . . \mathrm{i}$ におけるメッシュ系列 $m_{u, 0} . . m_{u, i}$ が与えられた際に, i+1 時点におけるメッシュ尤度 $P\left(m_{u, i+1}\right)$ を予測する。図最上段のセマンティクス表現部は,上記メッシュ系列に相当する建物分布の系列 $x_{m_{u, 0} .} x_{m_{u, i}}$ を入力して, $\mathrm{i}+1$ 時点の建物分布べクトル $x_{m_{u, i+1}}$ を予測する。本稿ではこの時系列の連続値データ予測器を建物分布予測器と呼び,電力需要予測などで高い精度を示した, Zeng ら[4]の手法を用いた.また, 図の中段の更新可能地図は, 各メッシユの建物分布 $x_{M_{0}} . . x_{M_{k}}$ を並べた行列を示す.ここで $M_{j}$ は,GPT-2 の辞書に登場するメッシュを指す. 更新可能地図と $x_{m_{u, i+1}}$ は, 建物分布ベクトルのノルムが 1 になるよう正規化した上で内積を取ることで,予測した次時点の建物統計べクトルと各メッシュとの $\cos$ 類似度 $S\left(m_{u, i+1}\right)$ を算出する. 建物分布予測に基づく $S\left(m_{u, i+1}\right)$ と,GPT-2 が予測した $P\left(m_{u, i+1}\right)$ の Hadamard 積を取ることで,セマンティクスと空間上の制約を満たした次メッシュを予測する。 ## 4 データセット 本研究では,KDDI 株式会社が au スマートフォン利用者より同意を得て取得する GPS データを使用して検証を行った.この GPS データは測位間隔に粗密があるが,集計した結果は各種人口統計と相関し,交通需要の推計等に用いられている[5, 6]. 2019 年 6 月に観測された GPS データから宇都宮市在住のユーザをサンプリングし,エリアを限定せずに 8 日間の移動軌跡を抽出した. 1 日に最低 1 点以上ロ 図 2 建物分布の変化を考慮した人流モデル 表 1 建物分布予測性能 図 3 正解メッシュの建物分布との $\cos$ 類似度グがある移動軌跡のみを分析対象とし, 6,050人のユ一ザからなる 98,213 件の移動軌跡を抽出した. 上記の移動軌跡から, 30 分毎のメッシュの系列を抽出した. 前述の通り, この GPS データは観測頻度に粗密があるため, 30 分毎の時点において直前・直後となる観測点を抽出し, 時間差を重みとする重心位置を, 30 分毎のユーザ位置とした. 最後にユーザ位置を 1 辺の長さが約 $250 \mathrm{~m}$ の 4 分の 1 地域メッシユで表現し, 8 日間のメッシュ系列を抽出したものを Pre-Training 用データセットと呼ぶ. 5 節では,以上のデータセットを訓練: 検証: 評価用に 8:1:1 の割合で分割し評価に用いた。 建物分布はゼンリン社の商品を用いた[12]. 建物の種別(個人家屋・共同住宅・事業所・複合建物)や,業種(飲食, 物販, 教育, 医療...), 規模(階数, 床面積...)で分類された建物の件数が 113 次元で表現されている. 本データは $100 \mathrm{~m}$ 四方毎に集計されているため, 面積按分で 4 分の 1 地域メッシュ毎に再集計した. 本研究では, 上記データセットに登場する建物分布を z-score に標準化して用いる。 ## 5 実験と考察 ## 5.1 建物分布の予測 はじめに建物分布予測器の性能を評価した。 Zeng ら[4]は, 順序情報が保持されない Attention メカニズムは連続値の時系列予測においては不利であると主張しており,簡易な線形NWからなるDLinear, NLinear を用いて Transformer ベースの予測器 Autoformer[7], Informer[8]を超える精度を確認している. Pre-Training 用データセットを用い, 建物分布 においても同様の傾向が見られるか確認した. 各移動軌跡における 7 日間の建物分布ベクトルの系列から次の 1 日間の系列を予測し, 精度評価した結果を表 1 に示した. ここで ACC は, 予測した建物分布ベクトルを k-means 法により 5 クラスに分類した場合の Accuracy を示す(クラス分類方法の詳細は付録に記載). 本研究では, Transfomer ベースの手法に比べて優れた性能を示した DLinear を建物分布の予測モデルとして採用した. DLinear が推定した建物統計ベクトルと正解值との $\cos$ 類似度の分布を図 3 に示す. $\cos$ 類似度の中央値は 0.71 となっており. 図 2 における類似度べクトル $S\left(m_{u, i+1}\right)$ は, 次义ツシュの予測に効果があると期待できる. ## 5. 2 GPT-2 の Pre-Training 本研究では, 図 2 のモデルを構築する前に, PreTraining 用データセットを用いて GPT-2 の訓練と評価を実施した. Mizuno らの研究[2]を参考に,語彙数を50,000 語としBPE[11]を用いてメッシュをトークナイズし, GPT-2 の Pre-Training を実施した. モデルサイズは, Radford ら[9]と同様に 12 層, 768 次元の内部表現を用いた。 GPT-2 部の推定精度を評価するため,小林ら[3]を参考に 7 日間の移動軌跡を入力し, GPT-2 のサンプリング生成[10]機能を用いて次の 1 日間の移動軌跡を 10 通り推定した(サンプリングパラメータは Top $\mathrm{k}=100$, Top p=0.95). 推定した軌跡は, 交通需要予測において重要視されている出発地(Origin)と目的地 (Destination)の頻度分布(OD 表)を, bi-gram 頻度から簡易的に求め評価したところ, 正解との相関は 0.73 であり, 都市の移動を一定程度再現できていると考えられる。 ## 5.3 提案するモデルの評価 本研究は, 図 2 のモデルの基本的な特性を調查するため, 5.1 と 5.2 で Pre-Training した建物分布予測部と GPT-2を用いて 2 者を統合した提案モデルの性能を評価した. 各時点の推定性能を評価するため, Pre-Training データセットの評価セットから開始時刻を 30 分ずつ 48 パターンでずらしたサンプルを抽出した. 説明変数として 7 日間 336 時点のメッシュ系列を入力し, $S\left(m_{u, i+1}\right)$ と $P\left(m_{u, i+1}\right)$ を算出した. 図 4 は GPT-2 が予測した尤度 $P\left(m_{u, i+1}\right)$ をヒートマップ (緑色が濃いほどスコアが高い)で示したものであり,正解メッシュを赤枠で表示している、いずれも正解 次メッシュ:住宅地 次メッシュ:商業地 図 4 GPT-2 が予測した次メッシュの尤度 図 5 推定した建物分布類似度 建物分布の類似度 GPT-2の尤度 図 6 GPT2 単体ではうまく推定できない時点メッシュのスコアが極端に高い単峰性の分布をしており,GPT-2には人の移動における空間上の制約が埋め込まれているといえる。 図 5 は, 同様に建物分布類似度 $S\left(m_{u, i+1}\right)$ を可視化したものである. 図 5(左)は正解である宇都宮二荒山神社周辺のメッシュとの類似度が高くなっている一方で、図 5(右)では正解から空間的にかけ離れた浅草寺周辺のメッシュとの類似度が高くなった。 5.2 節で述べた通り GPT-2 の予測精度は概数高いが, 図 6(右)のように尤度に高い峰が現れず, GPT-2 単体での次メッシュ予測が困難なケースも存在する。 表 2 GPT-2 と建物分布類似度を組み合わせた次メッシュ予測の精度 2. Mizuno, Takayuki, Shouji Fujimoto, and Atushi Ishikawa: Generation of individual daily trajectories by GPT-2. Frontiers in Physics (2022): 1118. 3. 小林, 上坂, 武田, 南川, 森本: GPT-2 を用いた位置情報ビッグデータに基づく交通需要推定技術,土木計画学研究講演集 Vol.65, 2022 4. Zeng, Ailing, et al. "Are Transformers Effective for Time Series Forecasting?." arXiv preprint arXiv:2205.13504 (2022). 5. 石井, 末成, 越智, 関, 大塚, 酒井, 會田, 南川,「携帯電話 GPS ビッグデータの都市交通分野における活用に向けた信頼性検証」,土木計画学研究講演集, vol. 58, 2018. 6. 吉羽, 小林, 中管, 南川, 冨岡, 森本: スマートフォン位置情報データを活用したバス需要予測に関する研究, 土木学会論文集 D3, Vol.76, No. 5 (2021) 7. Wu, Haixu, et al. "Autoformer: Decomposition transformers with auto-correlation for long-term series forecasting." Advances in Neural Information Processing Systems 34 (2021): 22419-22430. 8. Zhou, Haoyi, et al. "Informer: Beyond efficient transformer for long sequence time-series forecasting." Proceedings of the AAAI Conference on Artificial Intelligence. Vol. 35. No. 12. 2021. 9. Radford, Alec, et al. "Language models are unsupervised multitask learners." OpenAI blog 1.8 (2019): 9. 10. Angela Fan, Mike Lewis, and Yann Dauphin. 2018. Hierarchical Neural Story Generation. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 889-898, Melbourne, Australia. Association for Computational Linguistics. 11. Sennrich, Rico, Barry Haddow, and Alexandra Birch. "Neural machine translation of rare words with subword units." arXiv preprint arXiv:1508.07909 (2015). 12. ゼンリン社建物統計, https://www.zenrin.co.jp/product/category/gis/contents/b uilding-statistics/index.html 13. 北村隆一, 交通需要予測の課題, 土木学会論文集, 1996, 1996 巻, 530 号, p. 17-30 ## 付録 建物分布ベクトルの特性を確認するため, k-means で 5 クラスに分類した結果を図 7 に示す. 各クラスは概ね,都心・商業地・共同住宅地・一戸建て住宅地・田畑/山林を示すメッシュに分類されており,建物分布の系列がユーザの移動行動のセマンティクスを内包すると期待できる。 マンション 都心 図 7 建物分布のクラスタリング結果
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B10-4.pdf
# Towards Unsupervised Remote Sensing Image Captioning and Retrieval with Pre-Trained Language Models Megha Sharma, Yoshimasa Tsuruoka The University of Tokyo \{meghas, yoshimasa-tsuruoka\}@g.ecc.u-tokyo.jp } \begin{abstract} Captioning and retrieval is an important yet underdeveloped task for large remote sensing databases due to limited training resources. We propose a captioning framework that does not require human-made annotations. Using land cover maps as statistical prompts, we use ChatGPT for natural caption generation. Our experiments with OpenEarthMap reveal that pre-trained language models are capable of inferring and describing high level environment information using land cover statistics of the image. \end{abstract ## 1 Introduction Recent improvements in remote sensing technology have led to an unprecedented growth in the applications of Remote Sensing Images (RSI) for Geo-spatial Information Systems. One such application is known as Land Usage / Land Cover Mapping (LULC), which aims to classify and understand the terrain and usage of the piece of land captured in the RSI [1]. Well-maintained LULC can aid in land cover monitoring, resource planning, and land management [1] [2]. With more data available than ever, accurate and robust image captioning and retrieval methods have become important to maintain such large databases. OpenEarthMap (OEM) is one such benchmark LULC dataset that offers diverse locations and high quality land cover annotations [2]. Historically, retrieval systems for these databases are queried by image or image patterns [3]. However, it is more intuitive for humans to annotate or query with textual descriptions instead [4]. Cross-modal text-image retrieval and captioning systems present an interesting opportunity to combine Geo-spatial information with Natural Language Processing (NLP) techniques. The opportunity explores the challenge of measuring cross-modal semantic similarity. Intuitively, this can be approached as a two-step process of converting and comparing the database mode to the query mode. Hoxha et al.[5] successfully used deep learning networks to measure similarities between captions generated from the RSI in the database with the queried text. However, these frameworks depend on a large amount of labelled training data to successfully annotate images and measure similarity with query text. Existing caption datasets, such as [6] [7], are limited by the resources required to generate captions. Moreover, the captions are often based on lower-level knowledge such as identified objects like airplanes and stadiums, which is difficult to evaluate without further expert knowledge on the location. On the other hand, LULC information is usually predefined and easier to distinguish even to a common eye. We are motivated to study unsupervised approaches for RSI captioning to reduce the overhead of manually generating such annotations to train for retrieval systems. Template-based methods are popular to extract visual descriptions into a rule-based output. The annotations by this approach are arguably limited for describing higher level semantic information [5]. However, language models have since made considerable leaps, one such being the release of ChatGPT ${ }^{1)}$, a pre-trained language model trained to perform like a chat bot. In this paper, we aim to explore if it is possible for such pre-trained language models to recognize higher-level information such as landscape (e.g., rural, urban, and forest) with controlled and uncontrolled generation based on statistical LULC information. We found that pre-trained models could successfully generate natural language captions for the RSI, bringing us one step closer to developing a framework of cross modal retrieval and captioning systems without labelled data. The code is available on GitHub ${ }^{2)}$.  ## 2 Method Let $I=\left.\{I_{1}, I_{2}, \cdots, I_{N}\right.\}$ be a database of $N$ images. For any image $I_{i}$ in the database, there is a corresponding LULC cover map for the image, $I_{i}^{L C}$. We can divide the unsupervised caption generation into three main steps: 1. Land Cover Mapping 2. Statistical Image Understanding 3. Natural Language Generation The framework, illustrated in Fig. 1, can be used as is for annotation-based retrievals [5] or used to generate ground truth for few shot learning models for supervised image to text retrieval models, such as those proposed in [8]. ## 2.1 Land Cover Mapping To create a truly end-to-end model for unlabelled captioning, we first predict land cover maps from remote sensing images. We experimented with three different types of UNet models, in particular the recent UNetFormer, which gained traction for semantic segmentation [9]. An advantage of these models is that it can be adapted using many different types of vision transformers as its backbone encoder. The network is trained using labelled image pairs of RSI and LULC images. The predictions are a 2D array where each cell's location (row, column) corresponds to the predicted class of the pixel at the same location. ## 2.2 Statistical Image Understanding Feature extraction plays a key role to project one mode of information to another. Historically, cross-modal textimage systems extract semantic topics using a statistical and semantic analysis of the captions [10]. We translate the image composition and land cover structure into a template statistical prompt for the next step. The land cover classes are mapped to their text labels pre-defined by the training dataset in the prompt. Examples of the statistical prompt is shown in Fig. 2. The image understanding steps are explained in subsections below. ## 2.2.1 Image Composition Suppose class $C$ is one of the classes present in a predicted LULC image $I_{i}^{L C^{\prime}}$, we calculate the percentage of the composition for class $C$ as follows. $ \text { Compostion }\left(C \mid I_{i}^{L C^{\prime}}\right)=\frac{\# \text { pixels predicted as } C}{\text { Total \# of pixels }} $ ## 2.2.2 Land Cover Structure To support image composition, we also describe the locations of prominent land classes. Using the median location of top 2 classes in the LULC, we locate the centroid of each class. Unlike calculating mean, median is more robust to outliers. If the centroid falls into a circle with a radius of $10 \%$ of image size from the center, it is classified with Center location. This threshold accounts as a reasonable margin to describe the location of the LULC class. Any centroid outside of this area is classified as either Upper left, Upper Right, Lower Left, or Lower Right by dividing the image into four quadrants with the center of the image as the center of the quadrant. ## 2.3 Natural Language Generation In the natural language generation stage, we use the inference of large pre-trained models to convert low level statistical text to a natural sounding caption. In this paper, we use ChatGPT, which was capable of summarising radiology reports without jargon for patients [11]. The statistical prompt is input to ChatGPT for either controlled or uncontrolled generation. In uncontrolled generation the ChatGPT is only asked to "write a natural image caption in 2 lines without numbers" for the given statistical prompt without a ground truth. Restrictions are placed on the length and usage of numbers to reflect annotations found in existing datasets [6]. To test the model against some ground truth, we created four captions as positive examples for ChatGPT. The motivation for controlled generation stems from supervised few-shot training, where we give ChatGPT a few positive examples for generated captions and then ask it to generate given novel statistical prompts, in an attempt to raise behavior expected from the model. We also used five examples from a popular dataset with annotations, RSICD dataset [6] for a more robust ground truth. The images selected from the RSICD dataset were selected to have annotations related to the environment or land cover, as most of the images in the dataset actually describe specific objects or buildings. Figure 1 The 3-step framework for unsupervised natural language caption generation. In (a), the training data is used to train a model (e.g. UNetFormer) to generate land cover maps of the input. The inferred LULC outputs are used to extract visual information including composition and structure in (b). Finally, in (c), the template is sent as an input to a language model (here we use ChatGPT), to generate natural language captions inferring higher level semantics such as environment (e.g., city center). ## 3 Experiment with OpenEarthMap and ChatGPT To test the framework, we train several UNet models on the OEM Mini, a smaller version of the OEM dataset with 1068 examples with sub-meter resolution classified into 8 land cover labels. We used a 70-30 train-test split of the dataset for training, and trained with a batch size of 16 . The RGB images were divided into three input channels, and each image was transformed into a $512 * 512$ size image. The learning rate was set at $10^{-3}$ with a weight decay $10^{-6}$. The model is trained with the Dice loss function [12] and Adam optimisation. We objectively evaluated the land cover model using pixel-wise mean Intersection over Union (mIoU), a standard metric to measure the coverage between the true and predicted classes. Our experiments found that the UNetFormer model with SE Res-Net encoder performs best with an mIoU of $53.4 \%$ on the validation dataset and $63.13 \%$ on the test dataset. Using the trained UNetFormer with SE Res-Net land cover model, we retrieved 6 land cover maps from the test split of the dataset, intentionally selecting images with diverse land composition to study the performance across a variety of environments. The extracted statistical information was fed with controlled and uncontrolled prompts into the ChatGPT, and we found that ChatGPT was able to successfully convert the prompts to natural sounding captions. ## 3.1 Uncontrolled Generation Without seeing any ground truth, ChatGPT is still able to infer urban environments in the generation captions. As seen in the left-hand example in Fig.2, ChatGPT describes the image as urban (city-like) when "buildings" is one of the top two classes. This presents the inherent potential of language models to infer higher level information, such as understanding a high concentration of buildings and grass reflects a "mix or urban and natural elements". The language model is also able to describe quantitative information using relative descriptors, such as converting " $31.3 \%$ buildings" to "buildings taking up a significant portion of the frame" and " $1.2 \%$ Water" to "a hint of water". All of the generated captions were found to be complete, i.e., they used all information provided in the prompt. The generated captions particularly featured prominent use of creative adjectives. These adjectives seem to be inferred from the language model's training data. For example, "lush trees", "tall buildings", "bustling cityscape" were used in the captions, when no such descriptions were used in the prompt. In the best case scenario, these are positive descriptors of the image; however at worst, these are classified as hallucinations. Hallucination is a common problem with ChatGPT [11]. Albeit not dangerous in this application, it can still raise false positives when querying the annotations. The quality of the land cover map also raises false artefacts in the description when predicting incorrect land classes. This is shown in the right hand example in Fig. 2. The buildings are described as "towering", and a non-existent "body of water" is also described in the caption. Figure 2 A positive (left hand side) and negative (right hand side) run of the framework with controlled and uncontrolled generation. In the land cover maps (below original image), the orange dot in the center represents the center of the image and the magenta dots represent the median of the two most prominent classes. In the generations, yellow highlights the higher level environment information inferred from the statistics, green highlights the creative adjectives used by ChatGPT that may or may not be accurate to the image, and red highlights the incorrect inferences in the generated captions. ## 3.2 Controlled Generation Despite a promising start, uncontrolled generation struggled to infer non-urban environments such as rural or forest areas. Hence, we gave ChatGPT examples of four positive examples of captions, using diverse statistical prompts and asked it to re-generate captions for the previous six land cover maps. One of the most important discovery was that controlled generation managed to solve the biggest issue at hand, and ChatGPT correctly inferred environment descriptors such as "forest", "countryside", "metropolis", and "city" in the controlled generation. In general, this also helps control the hallucinations in the generated captions, and strengthens the proposal of the methodology. In order to truly test the framework against existing ground truth, we also explore results of controlled generations using the RSICD dataset [13]. We found that ChatGPT was able to successfully mimic the style of the RSICD dataset, with short and generic sentences about the images. This also highlights another ability of large pre-trained language models to mimic styles when generating captions. The generated captions contain similar keywords as the ground truth, and this was made apparent with the $50.1 \%$ BLEU1 score of the generated captions against ground truth of the RSICD and the $56.6 \%$ BLEU1 score with positive examples from OEM Mini as described in Tab.1. The BLEU1 and BLEU2 scores refer to overlapping 1-gram and 2-gram in the reference and candidate sentences. ## 3.3 Future Opportunities ChatGPT and large pre-trained language models present a creative opportunity towards natural image captioning. Table 1 BLEU1 and BLEU2 scores with the ground truth of RSICD and positive examples for OpenEarthMap From our preliminary findings we propose the following opportunities and challenges ahead - Few-shot Modeling - Using generated captions as ground truth for a few-shot learning captioning models such as those proposed in [14]. - Autonomous Caption and Retrieval Systems ChatGPT managed to recover higher level information about the environment using low level land class information. This presents an unprecedented opportunity with autonomous captioning and retrieval systems. Although there are risks of hallucination and misinformation, with controlled generation, we can explore a framework where a user can search for an RSI image using vague text descriptions. We can also expand the framework with multi-level information [15] [16]. ## 4 Conclusion We found that pre-trained models like ChatGPT are able to infer information about the image with just a statistical description of remote sensing images. Although the scope of the experiments was limited, the results spark an exciting conversation of using large pre-trained models to automate labour intensive tasks in the field of Remote Sensing Image Analysis. In future work, we plan to further elaborate the framework for caption and retrieval databases for land cover map images with more robust experiments and future opportunities. ## Acknowledgements This paper would have not been possible without the work of Naoto Yokoya. Also extending our gratitude to Qiyu $\mathrm{Wu}$, who helped us gain an interesting take on our experiments. ## References [1] John Rogan and DongMei Chen. Remote sensing technology for mapping and monitoring land-cover and land-use change. Progress in planning, Vol. 61, No. 4, pp. 301325, 2004. [2] Junshi Xia, Naoto Yokoya, Bruno Adriano, and Clifford Broni-Bediako. Openearthmap: A benchmark dataset for global high-resolution land cover mapping. In Proceedings of the IEEE/CVF Winter Conference on Applications of Computer Vision, pp. 6254-6264, 2023. [3] Jaroslaw Jasiewicz and Tomasz F Stepinski. Examplebased retrieval of alike land-cover scenes from nlcd2006 database. IEEE geoscience and remote sensing letters, Vol. 10, No. 1, pp. 155-159, 2012. [4] Mohamad M Al Rahhal, Yakoub Bazi, Taghreed Abdullah, Mohamed L Mekhalfi, and Mansour Zuair. Deep unsupervised embedding for remote sensing image retrieval using textual cues. Applied Sciences, Vol. 10, No. 24, p. 8931, 2020. [5] Genc Hoxha, Farid Melgani, and Begüm Demir. Toward remote sensing image retrieval under a deep image captioning perspective. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, Vol. 13, pp. 4462-4475, 2020. [6] Xiaoqiang Lu, Binqiang Wang, Xiangtao Zheng, and Xuelong Li. Exploring models and data for remote sensing image caption generation. IEEE Transactions on Geoscience and Remote Sensing, Vol. 56, No. 4, pp. 21832195, 2017. [7] Bo Qu, Xuelong Li, Dacheng Tao, and Xiaoqiang Lu. Deep semantic understanding of high resolution remote sensing image. In 2016 International conference on computer, information and telecommunication systems (Cits), pp. 1-5. IEEE, 2016. [8] Qimin Cheng, Yuzhuo Zhou, Peng Fu, Yuan Xu, and Liang Zhang. A deep semantic alignment network for the crossmodal image-text retrieval in remote sensing. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, Vol. 14, pp. 4284-4297, 2021. [9] Libo Wang, Rui Li, Ce Zhang, Shenghui Fang, Chenxi Duan, Xiaoliang Meng, and Peter M Atkinson. Unetformer: A unet-like transformer for efficient semantic segmentation of remote sensing urban scene imagery. ISPRS Journal of Photogrammetry and Remote Sensing, Vol. 190, pp. 196-214, 2022. [10] Binqiang Wang, Xiangtao Zheng, Bo Qu, and Xiaoqiang Lu. Retrieval topic recurrent memory network for remote sensing image captioning. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, Vol. 13, pp. 256-270, 2020 [11] Katharina Jeblick, Balthasar Schachtner, Jakob Dexl, Andreas Mittermeier, Anna Theresa Stüber, Johanna Topalis, Tobias Weber, Philipp Wesp, Bastian Sabel, Jens Ricke, et al. Chatgpt makes medicine easy to swallow: An exploratory case study on simplified radiology reports. arXiv preprint arXiv:2212.14882, 2022. [12] Carole H Sudre, Wenqi Li, Tom Vercauteren, Sebastien Ourselin, and M Jorge Cardoso. Generalised dice overlap as a deep learning loss function for highly unbalanced segmentations. In Deep learning in medical image analysis and multimodal learning for clinical decision support, pp. 240-248. Springer, 2017. [13] Shan Cao, Gaoyun An, Zhenxing Zheng, and Qiuqi Ruan. Interactions guided generative adversarial network for unsupervised image captioning. Neurocomputing, Vol. 417, pp. 419-431, 2020. [14] Haonan Zhou, Xiaoping Du, Lurui Xia, and Sen Li. Selflearning for few-shot remote sensing image captioning. Remote Sensing, Vol. 14, No. 18, p. 4606, 2022. [15] Zhenwei Shi and Zhengxia Zou. Can a machine generate humanlike language descriptions for a remote sensing image? IEEE Transactions on Geoscience and Remote Sensing, Vol. 55, No. 6, pp. 3623-3634, 2017. [16] Zhiqiang Yuan, Wenkai Zhang, Changyuan Tian, Xuee Rong, Zhengyuan Zhang, Hongqi Wang, Kun Fu, and Xian Sun. Remote sensing cross-modal text-image retrieval based on global and local information. IEEE Transactions on Geoscience and Remote Sensing, Vol. 60, pp. 1-16, 2022. [17] Jie Hu, Li Shen, and Gang Sun. Squeeze-and-excitation networks. In Proceedings of the IEEE conference on computer vision and pattern recognition, pp. 71327141, 2018. ## A Appendix ## A. 1 Results from the LULC Modeling Tab. 2 covers the results from training 8 different types of models for the land cover mapping. The results are shown on the validation dataset only. The SE Res-Net module uses Squeeze-and-Excitation blocks to model interdependencies between channels [17]. The ability for SE Res-Net to re-calibrate its features works well with semantic segmentation tasks. Table 2 Results from LULC modeling experiments ## A. 2 Example Generations ## Statistical Prompt: 4.2\% Grass, 3.3\% Pavement, $1.2 \%$ Road, $50.5 \%$ Tree, $39.4 \%$ Cropland, 1.2\% buildings, Tree in upper right. Cropland in lower left. Uncontrolled Generation: The [ush trees dominate the landscape, with a small amount of pavement and grass visible. In the lower left, fields of crops stretch out, while a few buildings dot the terrain Controlled Generation: A Iush forest takes up the upper right of the image, with a sprawling field of crops in the lower left. A fiew patches of grass and a few scattered buildings and roads can be found throughout the area Figure 3 Uncontrolled and controlled generations of the OEM Mini dataset. In the land cover maps, the orange dot in the center represents the center of the image and the magenta dots represent the median of the two most prominent classes. Statistical Prompt: 17.3\% Grass, $4.6 \%$ Pavement, $7.7 \%$ Road, $39.3 \%$ Tree, $31.1 \%$ buildings, Tree in upper right. buildings in center. Ground Truth: buildings and many green trees are in a dense esidential are Generated Caption: a city with many buildings and trees Statistical Prompt: 13.3\% Grass, $86.7 \%$ Tree, Tree in upper left. Grass in lower right. Ground Truth: a bare land in the middle of the forest Generated Caption: a forest with a small patch of grass Statistical Prompt: 95.8\% Grass, $3.9 \%$ Tree, Grass in center. Tree in lower left. Ground Truth: many green trees are in a piece of forest Generated Caption: a grassy field with a few trees Figure 4 Generations and ground truth of the RSICD dataset. In the land cover maps, the orange dot in the center represents the center of the image and the magenta dots represent the median of the two most prominent classes.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B10-5.pdf
# ツイート発言の座標またはグリッドの予測基盤の開発 大西駿太朗 ${ }^{1}$ 矢田竣太郎 ${ }^{1}$ 若宮翔子 ${ }^{1}$ 荒牧英治 ${ }^{1}$ 1 奈良先端科学技術大学院大学 \{shuntaro.onishi.or3,s-yada,wakamiya, aramaki\}@is.naist.jp ## 概要 Twitter をはじめとするソーシャルネットワークサービスの分析は.都市デザイン,災害・疾病把握や社会調査などに多く用いられてきた。しかし,位置情報の付与されたツイートは全体の $1 \%$ 未満と報告されている.そこで,位置情報を推定する研究が行われている.これらの研究は入力の形式と出力の形式で分けることができる.本稿では入力をツイー 卜発言,出力を緯度経度および地域メッシュとし,位置推定モデルを作成した. 作成したモデルのボトルネックを考察するとともに,今後開発されるであろう位置情報を用いたさまざまなサービスの基盤となる位置推定 Web APIを構築したので報告する. ## 1 はじめに Twitter はソーシャルセンシングによく用いられている.ソーシャルセンシングとは既存のセンサでは捉えることができない情報を捉えるため,ソーシャルネットワークサービスのユーザをセンサとみなし,実世界の現象を観測することである [1]. ソー シャルセンサは,これまで,都市デザイン,災害・疾病把握や社会調査などに多く用いられてきた. 都市デザインにおいては,土地利用やランドマークの特定など,街並みの特徴付けの可能性が検討されてきた $[2,3,4]$. 災害・疾病予測では,対災害 SNS 情報分析システム ${ }^{1)}$, 台風軌道の予測 [5], インフルエンザの流行把握 [6] や COVID-19 のクラスタ検出 [7] が行われてきた. 社会調査における利用も多く, 選挙, 株価, 政治的思考の違い [8] などの研究や, 人々の気分を推定し, 時間変化や地域差を可視化する研究 $[9,10]$ も行われている. このように,ソーシャルセンシング研究の多くにおいて位置情報は必須である.しかし,Twitter で得られる位置情報は十分でないことが多い。例えば, ツイートの投稿者の位置情報はユーザが任意に付与 1) https://disaana.jp/rtime/search4pc.jsp するものであり,位置情報の付与されているツイー このため,多くのソーシャルセンシングサービスは,メタ情報やテキスト中のランドマーク表現など,何らかの方法を用いて位置情報を推定することでカバレージを上げている,位置情報を補完するためのツイートの位置予測研究も,この 10 年ほど活発に行われてきた。 中でも,W-NUT2016の Twitter の位置情報予測シェアードタスク ${ }^{2)}$ [12] のデータは,現在でもベンチマークとしてしばしば利用されている. 位置推定タスクは,入力の形式と出力の形式の 2 つの軸で整理が可能である. 入力の形式: 位置推定の入力としては, 発言者・ユー ザの一連の文書か,単一文書(発言メッセージ,ツイート)かの 2 つのレベルがある. 本稿では,前者の発言者の居住地を予測することをユーザレベル,後者の発言メッセージが投稿された位置を予測することをメッセージレベルと呼ぶ. 出力の形式: 位置推定の出力は, 緯度経度, 県や都市など様々な形式がある.等間隔のグリッドに分割することや [13],投稿の多い地域では細かいグリッド,投稿の少ない地域では大きいグリッドを生成する手法が提案されている [14]. またメッセージレべルにおいて,その推定の不確実性を表現するために, 出力位置の確率分布を出力する場合もある [15].代表的な等間隔のグリッドとして,地域メッシュがある。地域メッシュは緯度経度から算出され,行政区画の変更にも左右されないという利点から,統計調査によく用いられる. このように考えると,例えば,前述のシェアー ドタスクの距離ベースの評価によるべストシステム [16] は,メッセージレベルを入力とし,緯度経度を出力すると捉えることができる. 位置情報を利用した多くのサービスが提案されているが,位置情報を推定するために,それぞれ個別 2) https://noisy-text.github.io/2016/geo-shared-task.html 入カテキスト:琵琶湖なう 予測メッシュコード : 5235 図 1: メッセージレベルの位置予測 Web API. 「琵琶湖なう」に対して予測した地域メッシュ(1 次メッシュ) を出力した例. の実装を行っていたり,ブラックボックス化している場合も多い. そこで,我々は,標準的な位置予測基盤があれば,多くのサービス開発を簡素化できるだけでなく, 精度比較や再現性検証においても重要 ては,デモグラフィック解析,またはソーシャルリスニングツールとして商用サービスがあるものの, メッセージレベルの推定については,手法の透明性が高いスタンダードなサービスが存在しない。本稿では,今後開発されるであろうサービスの基盤となる座標と等間隔グリッド(地域メッシュ)の両方に対応したメッセージレベルの位置推定 Web $\mathrm{API}^{3}$ )を構築したので報告する. 図 1 に Web API の例を示す.「琵琶湖なう」というメッセージレベルの入力に対し,地域メッシュを(1 次メッシュ)を予測して地図上に出力した結果である. ## 2 データ ツイート投稿者の日本国内における位置を予測するモデルを構築するために,日本における位置情報付きツイートを利用する. Twitter API v2 の Academic Research アクセスで “place_country:jp”のクエリを指定し,2022 年 7 月 1 日から同月 31 日まで, 1 時間あたり小よそ 1500 件,合計 $1,111,576$ 件の位置情報 (GeoTag) 付きツイートを取得した. GeoTag には, 特定の緯度・経度を示す “Point” と特定のエリアを表す “Place”があり,それぞれ一意に  定まる place_id と関連付けられている。このplace_id に基づき,対応する緯度・経度を各ツイートに付与する。なお,GeoTag が特定のエリアを表す “Place” の場合は,そのエリアの南端と西端および北端と東端の緯度・経度を付与する。 次に,各ツイートの緯度・経度に基づき,地域メッシュコードを付与する,地域メッシュは,都道府県よりも粒度が小さく, 行政区画の変更にも左右されないという利点から,統計調査によく用いられる地域分割である. 1 次メッシュは地域メッシュのなかで最も粒度の大きい分割で, 1 辺が約 $80 \mathrm{~km}$ である. 2 次メッシュは 1 次メッシュを $8 \times 8$ マスに分割したもので 1 辺が約 $10 \mathrm{~km}$ である. 今回は,各ツイートの緯度・経度に基づき,1 次メッシュコー ドと 2 次メッシュコードを付与する。 本文に含まれる URL,メンションおよび半角・全角スペースは除去した。 ## 3 提案手法 本研究では, 緯度・経度を回帰問題として推定するモデル(緯度経度推定モデル)と,地域メッシュを分類問題として推定するモデル(メッシュ推定モデル)を構築する.メッシュ推定モデルはさらに, 1 次メッシュ推定モデルと 2 次メッシュ推定モデルとで別個に作成する。 入力テキストをエンコードするモデルとして Bidirectional Encoder Representations from Transformers (BERT) [17]を日本語コーパスで事前学習したモデル ${ }^{4)}$ を採用した. 緯度経度推定モデルおよび 1 次メッシュ推定モデルでは日本全体を予測範囲とする。一方,2 次メッシュ推定モデルでは予測範囲を東京(1 次メッシュコード: 5339)に限定し,計算負荷が高くなり過ぎない程度の予測メッシュ数に抑えた. 1 次メッシュ推定モデルで 140,2 次メッシュ推定モデルで 61 のメッシュを予測する。 緯度経度推定モデルの目的関数と評価関数は,ともに緯度経度の平均二乗誤差とする。なお,地球が完全な球でないことによって起きる実際の距離のずれは補正しない。また。メッシュ推定モデルの目的関数と評価関数には cross entropy を用いた。 ## 4 結果 位置情報付きツイートデータを 8 (訓練):1(検証):1(テスト)の割合で分割し,構築した緯度経 4) https://huggingface.co./cl-tohoku/ bert-base-japanese-whole-word-masking 表 1: 各モデルに対する test loss と test accuracy 度推定モデルとメッシュ推定モデルの精度を評価した.なお,ツイートの多くは東京近辺および人口の多い都市で投稿されるため,データの不均衡が生じる。そのため,1 次メッシュ推定モデルにおいては同一メッシュ内のデータを 300,000 件以内に制限し,1,111,576 件の位置情報付きツイートを用いた。また 2 次メッシュ推定モデルについては東京都の大部分を含む地域メッシュ(1 次メッシュコード: 5339) を対象としたため,323,234 件の位置情報付きツイートを用いた. 学習条件として最適化手法は Adam, 学習率は $1.0 \times 10^{-5}$, エポック数は 5 , バッチサイズは 2 とした. 表 1 に緯度経度およびメッシュ推定のテストデータ推定結果を示す. ## 5 考察 ## 5.1 緯度経度推定モデル 日本周辺の緯度,経度 $1^{\circ}$ あたりの距離は約 $90 \mathrm{~km}$ であることから, $\sqrt{\text { test loss }}=\sqrt{24} \fallingdotseq 4.9$ は非常に大きなずれと言える。この原因を分析するために,緯度経度推定モデルによる「奈良公園なう」の予測位置と,学習データにおいて “奈良公園”を含むツイー 卜を地図上に可視化した (図 2a). 赤色のピンがモデルの出力であり,黄色の円で示された範囲に 25 件の学習データがあり,青色のピンに 1 件学習デー タが存在した. 実際には奈良公園は黄色の円内に存在する。青色のピンのツイート本文は「奈良公園の鹿みたいに白鳥がいます」であり。この投稿においては,投稿者が実際にいる地点と言及された地点が一致していない。この地点のずれは $\mathrm{A} / \mathrm{B}$ 問題 [18] と呼ばれている。この影響により予測位置が東側に大きく引っ張られている. ## 5.2 メッシュ推定モデル 1 次メッシュ推定モデルにおける「奈良公園なう」 の出力結果を図 $2 b$ に示す. 緯度経度推定モデルと異なり,奈良公園を含む地域メッシュを正しく出力している。これは緯度経度推定モデルが回帰問題を (a) 緯度経度推定モデル (b) 1 次メッシュモデル図 2: 「奈良公園なう」の予測結果,(a) 赤色のピンは緯度経度推定モデルによる「奈良公園なう」の予測位置,青色のピンと黄色の円は「奈良公園」を含む train データの位置を示す 扱っているのに対し,1 次メッシュ推定モデルはクラス分類問題を扱ったためであると考えられる。 続いて 1 次メッシュ推定モデルにおける本文に含まれる地名の数と推定精度の関係を分析した. 具体的には,Spacy の "ja_core_news_md"5) の GPE ラベルに基づき,ツイート中の地名を抽出した(表 3).テストデータのうち,地名を含まないものが大半(約 $85 \%$ )を占め,地名を 1 つ含むものが約 $11 \%$ ,地名を複数含むものが約 $4 \%$ であった. 同様に 2 次メッシュ推定モデルにおいても地名の有無と予測精度の関係を分析した。表 2 の (1)(4)(7)(10) は地名を含まない例,(2)(5)(8)(11) は地名を 1 つ含む例,(3)(6)(9)(12) は地名を複数含む例である.(1)のように地名を含まないツイートの予測精度は低い.このようなツイートの位置を予測することは人間にも難しいので妥当な結果と言える。地名を複数含むときは,地名を 1 つしか含まないときと比べ予測精度が高い。その要因として,(3)の旭川市と北海道のように包含関係にある地名が出現する,または同一の地名が繰り返し出現することが挙げられる. また同一の地名が繰り返し出現するツイートは,ハッシュタグにより地名が追加されていることが多かった. 一方で,(12)のように位置的に全く異なる地点を挙げている場合は予測が難しい. また,1 次メッシュ推定モデルにおける地名を含まない正解データは 7,305 件であった. 地名以外の地点を特定できる要因を調べるために該当データを分析したが,有益な分析結果は得られなかった。 このように地名を含まないツイートが多いことが,予測精度が向上しない一因であると考える.加えて,隣接する地域メッシュにおいて,ツイート内容に大きな差が見られないことが,メッシュ推定モ 5) https://spacy.io/models/ja 表 2: メッシュ推定モデルにおける正解例と誤り例.(1)-(6) は 1 次メッシュ推定モデルによる結果,(7)-(12) は 2 次メッシュ推定モデルによる結果. 太字は固有表現抽出により抽出された地名を表す. 表 3: 地名の有無と推定精度の分析. 地名を含むツイートの方が Accuracy が高いことがわかる. デルの正解率が $20 \%$ か $30 \%$とどまった原因であると考えられる。これは特に 2 次メッシュ推定モデルにおいて顕著である.例えば,観光地において $10 \mathrm{~km}$ 先に有名なスポットがある場合,もしくは, $80 \mathrm{~km}$ 離れた地点であれば方言など,ツイートに言語的な差が現れる可能性がある. しかし, 街中や住宅街において言語的な差が現れる可能性は低く,依然として難しい問題であると言える. ## 6 おわりに 本研究では Twitter API から取得した位置情報付きツイートを用いて位置推定モデルを作成した. 同時に Web API として公開した. 緯度経度推定モデルでは A/B 問題により予測が大きくずれること,また地域メッシュモデルでは地名を含まないツイートが多いために位置推定が困難であることを示した. 本研究で提案した手法の精度は, 緯度経度モデルで平均約 $441 \mathrm{~km}(\sqrt{\text { testloss }} * 90=\sqrt{24} * 90 \fallingdotseq 441)$, メッシュ推定モデルでは Accuracy が $20 \%$ から $30 \%$ であり,位置情報をもとにしたサービスや研究への応用のためには, さらなる精度の向上は不可欠である. ツイート本文には地名が含まれていないものが多く,人間にも推定が難しいと考えられる。ユーザのプロフィール情報や投稿時間など他の情報を用いることにより精度が改善する可能性がある。 また出力の提示方法についても検討の余地がある. 例えば「朝起きるのが辛かった」というツイー トがあったとき,人間であれば予測不可能な問題として扱うことになる. しかし,提案モデルは必ず特定の位置を出力するため,位置推定における曖昧性を適切に表すことができていない.特定の地域メッシュではなく,すべての地域メッシュに対する確率を出力する方法も検討したい. また,そもそも人間が正確に位置予測できるツイートの割合や典型的な誤りの粒度(地方レベル,都道府県レベル,ランドマークレベルなど)はあまり知られていない。人間にも予測可能なツイートのみを用いてモデルを評価し,課題を検討したい. ## 謝辞 本研究は, JSPS 科研費 JP22H03648, JP22K12041, JST SICORP JPMJSC2107, Yahoo 株式会社共同研究費の支援を受けたものである。 ## 参考文献 [1] Kenta Sasaki, Shinichi Nagano, Koji Ueno, and Kenta Cho. Feasibility Study on Detection of Transportation Information Exploiting Twitter as a Sensor. In Proceedings of the International AAAI Conference on Web and Social Media, 2012. [2] Vanessa Frias-Martinez, Victor Soto, Heath Hohwald, and Enrique Frias-Martinez. Characterizing Urban Landscapes Using Geolocated Tweets. In 2012 International Conference on Privacy, Security, Risk and Trust and 2012 International Confernece on Social Computing, pp. 239-248, 2012. [3] Ryong Lee, Shoko Wakamiya, and Kazutoshi Sumiya. Urban area Characterization Based on Crowd Behavioral Lifelogs over Twitter. Personal and Ubiquitous Computing, Vol. 17, p. 605-620, 2013. [4] Panote Siriaraya, Yuanyuan Wang, Yihong Zhang, Shoko Wakamiya, Péter Jeszenszky, Yukiko Kawai, and Adam Jatowt. Beyond the Shortest Route: A Survey on QualityAware Route Navigation for Pedestrians. IEEE Access, Vol. 8, pp. 135569-135590, 2020. [5] Takeshi Sakaki, Makoto Okazaki, and Yutaka Matsuo. Earthquake Shakes Twitter Users: Real-Time Event Detection by Social Sensors. In Proceedings of the 19th International Conference on World Wide Web, WWW '10, p. 851-860, 2010. [6] Eiji Aramaki, Sachiko Maskawa, and Mizuki Morita. Twitter Catches The Flu: Detecting Influenza Epidemics using Twitter. In Proceedings of the 2011 Conference on Empirical Methods in Natural Language Processing, pp. 1568-1576, 2011 . [7] Shohei Hisada, Taichi Murayama, Kota Tsubouchi, Sumio Fujita, Shuntaro Yada, Shoko Wakamiya, and Eiji Aramaki. Surveillance of Early Stage COVID-19 Clusters Using Search Query Logs and Mobile Device-Based Location Information. Scientific Reports, Vol. 10, p. 18680, 2020 [8] Adam Badawy, Emilio Ferrara, and Kristina Lerman. Analyzing the Digital Traces of Political Manipulation: The 2016 Russian Interference Twitter Campaign. In 2018 IEEE/ACM International Conference on Advances in Social Networks Analysis and Mining (ASONAM), pp. 258-265, 2018. [9] Alan Mislove, Sune Lehmann, Yong-Yeol Ahn, JukkaPekka Onnela, and J. Niels Rosenquist. Pulse of the Nation: U.S. Mood Throughout the Day inferred from Twitter, 2010. https://www.ccs.neu.edu/home/amislove/ twittermood/. [10] Mark E. Larsen, Tjeerd W. Boonstra, Philip J. Batterham, Bridianne O'Dea, Cecile Paris, and Helen Christensen. We Feel: Mapping Emotion on Twitter. IEEE Journal of Biomedical and Health Informatics, Vol. 19, No. 4, pp. 1246-1252, 2015. [11] ツイッターの空間分析. 古今書院, 2019. [12] Bo Han, Afshin Rahimi, Leon Derczynski, and Timothy Baldwin. Twitter Geolocation Prediction Shared Task of the 2016 Workshop on Noisy User-generated Text. In Proceedings of the 2nd Workshop on Noisy Usergenerated Text (WNUT), 2016. [13] Benjamin Wing and Jason Baldridge. Simple Supervised Document Geolocation with Geodesic Grids. In Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies, 2011. [14] Stephen Roller, Michael Speriosu, Sarat Rallapalli, Benjamin Wing, and Jason Baldridge. Supervised Text-Based Geolocation Using Language Models on an Adaptive Grid. In Proceedings of the 2012 Joint Conference on Empirical Methods in Natural Language Processing and Computational Natural Language Learning, EMNLPCoNLL'12, p. 1500-1510, 2012. [15] Hayate Iso, Shoko Wakamiya, and Eiji Aramaki. Density Estimation for Geolocation via Convolutional Mixture Density Network. arXiv preprint arXiv:1705.02750, 2017. [16] Yasuhide Miura, Motoki Taniguchi, Tomoki Taniguchi, and Tomoko Ohkuma. A Simple Scalable Neural Networks based Model for Geolocation Prediction in Twitter. In Proceedings of the 2nd Workshop on Noisy Usergenerated Text (WNUT), pp. 235-239, 2016. [17] BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding, author $=$. [18] Rabindra Lamsal, Aaron Harwood, and Maria Rodriguez Read. Where id you Tweet from? Inferring the Origin Locations of Tweets Based on Contextual Information. arXiv preprint arXiv:2211.16506, 2022.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B11-1.pdf
# 場所参照表現と位置情報を紐付ける ジオコーディングの概観と発展に向けての考察 久本空海 ${ }^{1}$ 西尾悟 ${ }^{1}$ 井口奏大 ${ }^{1}$ 古川泰人 ${ }^{1}$ 1 株式会社 MIERUNE 2 奈良先端科学技術大学院大学 3 情報通信研究機構 4 理化学研究所 \{hisamoto,nishio, iguchi, furukawa\}@mierune.co.jp, \{otomo.hiroyuki.ob7, hiroki.ouchi\}@is.naist.jp, [email protected] ## 概要 ジオコーディングは、住所や施設名といった間接的に位置を表す「場所参照表現」と、緯度経度のように直接的な「位置情報」を紐付ける処理である。本稿ではその問題設定を解説し、関連する言語処理タスクとの関係や各種用語を整理した上で、言語資源やソフトウェア実装、既存サービスといったリソースを概観し、現状の課題と、更なる発展へ向けての方向性を検討する。 ## 1 はじめに 計算機と地図アプリケーションの発展や、GPS など衛星測位システムを利用できるスマートフォンの普及により、位置情報の利用は身近になった。言語処理分野では対象となるデータの多くに、住所や地名をはじめ、位置を指し示す様々な情報が散りばめられている。しかしそれらの語句は、そのままの表現では機械処理による活用が限定される。言語情報と位置情報を紐づける処理は、既存の地図サービスに見られる検索などでも欠かせないものであるし、また分野を横断したまだ見ぬ実応用の実現へ向けても重要なピースとなる。この処理を担うのがジオコーディングである。ジオコーディングは、住所や地名、施設名といった間接的に位置を表す「場所参照表現」を、緯度経度のように直接的な 「位置情報」へと紐付ける処理である。 本稿ではまず問題設定を解説し、関連タスクと用語を整理したのち、データや実装、既存サービスといったリソースを概観し、現状の課題と、発展へ向けての方向性を検討する。加えて付録 A で関連デー タセット、付録 B で関連サービスを紹介する。 ## 2 ジオコーディングと関連タスク ## 2.1 ジオコーディング ジオコーディングでは入力として、テキストによる場所参照表現が与えられる ${ }^{1}$ 。場所参照表現は奈良県生駒市高山町 8916-5 といった「住所・所在地」 や、日本橋のような「地名」、さっぽろテレビ塔といった「関心がある場所 (Point of Interest, POI)」を含む。また固有名による具体的な名称だけでなく、県、病院、コンビニ、自然言語処理研究室のような、一意に位置の特定ができない一般名詞句による記述も対象とすることがある。 入力された場所参照表現に対して、ジオコーディングでは対応する適切な位置情報(地理座標)を出力する。この時、位置情報を直接出力することもできるが、まずデータベースなどへ登録されている識別子との紐付けを行い、次にその識別子に付随する属性としての位置情報を出力することもできる [1]。図 1 に入出力の流れを示した。識別子を介すことで 図 1 ジオコーディングの入出力例。Aでは位置情報を直接出力し、Bでは識別子を介してから出力している。  入出力が疎結合となり、用途にあわせて異なる属性を利用したり、その識別子を他の知識ベースと紐付けることが可能となる。 出力される位置情報は、多くの場合では地球上の緯度・経度が想定されるが、位置を特定する情報であればそれに限らない(例えば平面直角座標系の座標値)。経緯度のように縦横軸での位置情報だけでなく、標高や建物内の位置といった高さの情報を必要とするケースも考えられる。また、出力を「点 (ポイント)」ではなく「面(ポリゴン)」としたいこともある。例えば札幌という入力に対し用途によっては、ある一点ではなく、その行政区域全体を得たいことがあるだろう。行政区域より小さい敷地や建物であっても、それを点ではなく詳細なスケー ルで適切にポリゴンとして表現する場合もある。図 2 に小スケールでの複雑なポリゴンの例を示す。 図 2 国会議事堂を示すポリゴン ⓞOpenStreetMap contributors 出力を点としたいが、対象が一定の領域を占める場合には、その「代表点」を選択する必要がある。例えば札幌の代表点としては、意味的な中心として“札幌市役所”であったり“札幌駅”を選ぶこともできるし、その行政区域の地理的な中心(ポリゴンの重心)を選択することも可能である。ポリゴンの重心を代表点とするとき、領域が三日月のように凹多角形であったり、円環のようにその内へ非領域を含んでいたり、もしくは飛地のように対象が複数の領域を持つ場合には、点が領域外へ配置されることがあり得る。図 3 に、いくつかの形状に対する重心の例を示す。領域外に代表点を配置することは、ジオコーディングの用途を考えると適切ではないため、単に重心を算出するのではなく、なにかしら対処する必要がある(例えば領域内の点から、重心に最も近いものを選択)。 このように、ジオコーディングの出力は自明ではなく、データや用途によって異なる。また、狭義にはジオコーディングは位置情報の出力までを指すが、多くの場合で出力はその後、人間の解釈がしやすいよう地図上に可視化される。 A. 凸多角形 B. 凹多角形 C. 円環 D. 飛地図 3 様々な領域へ対する重心の例。形状によっては重心が領域外に配置される。 ## 2.2 逆ジオコーディング 位置情報から、その地点を示すテキストでの所在地や、その点を含む地域の名前などを求める夕スクを「逆ジオコーディング」という。用途としては、自動車に搭載された GPS センサーによる経緯度データから、人間にとって可読性が高いテキスト表記へと変換し、経由地点記録を自動生成したり、事故現場の報告に利用するといった例が挙げられる。 ## 2.3 自然言語処理における関連タスク 自然言語処理、特に情報抽出分野における固有表現抽出(Named Entity Recognition, NER)は、テキストに含まれる人名や組織名、地名などの固有名や、日付や時間、金額などの数値表現といった固有表現を抽出するタスクである [2]。エンティティ曖昧性解消(Entity Resolution/Disambiguation)は、固有表現をデータベース上の項目と対応づけるタスクである。固有表現抽出とエンティティ曖昧性解消をあわせたタスクはエンティティ・リンキング (Entity Linking)と呼ばれる。 地理的な固有表現や一般名詞句の表現、つまり場所参照表現に特化した処理の場合、エンティティ曖昧性解消はジオコーディングに相当する。 またその場合、固有表現抽出は Geotagging または Toponym Extraction、エンティティ・リンキングは Geoparsing と呼ばれることがある [3]。図 4 に各タスクの関係を示す。 Geolocation は対象の位置情報を推定・特定するタスクを表し、自然言語処理分野の文献では、文書やユーザーの位置情報推定を論じるときに用いられることがある $[4,5,6]$ 。 図 4 ジオコーディングと関連する情報抽出タスクの関係 ## 2.4 ジオコーディングに関連する用語 地理情報システム (Geographic Information System, GIS)は、位置に紐づく情報の管理・加工・分析・可視化などを行うシステム、及びそれを取り巻く分野を指す。ジオコーディングも GIS が扱う問題の一つである。 ジオコーディングは、文献や文脈によって異なる呼称が用いられることがある。自然言語処理の分野では同様の処理が Toponym Resolution[7] や場所参照表現解析 $[8,9,10]$ と呼ばれることがある。また、特に住所を対象とした処理は Address Geocoding2) やアドレスマッチング $[11,12]$ と呼ばれることがある。Geocoding は住所や郵便番号のみを対象とし、 Toponym Resolution は文書中の表現を対象とするとして区別されることもある3)。 ジオコーディングを行うソフトウェアはジオコーダー (Geocoder) と呼ばれる。英単語としての Geocode は、動詞として使用される際はジオコー ディング処理を表すが、名詞としては位置情報を示す“コード”(例えば国名コードや郵便番号)を指すことに注意が必要である。 ## 3 リソース ジオコーディングには、地名などの「場所参照表現」と経緯度などの「位置情報」が対になったデー タが不可欠である。そのようなデータは、地名辞書、ジオコーディングデータベース、Gazetteer(ガゼッティア)などと呼ばれる。 入力されたテキストをもとに、上記の地名辞書に対する検索を行い、マッチした項目の位置情報を返すことでジオコーディング処理が実現できる。これは全文検索と同じ枠組みであり、実際に全文検索エンジンを用いてジオコーダーを構築することができる。なお、入力されたテキストは辞書項目と文字列として完全に一致するとは限らず、部分一致であったり、誤字や表記摇れが含まれていることも想定される。 ## 3.1 データ 既存の様々なデータセットは、それぞれ対象範囲が異なる。日本国内の領域のみを対象としているものや、全世界をカバーしていると標榜しているもの  がある。また、範囲の粒度や対象の種類にも差異がある。例えば国内を対象としたデータセットでも、 あるものは行政区域レベルまでしかなく、他のデー 夕は更に細かい街区単位での情報を持つ。加えて対象として、一般的な住所だけでなく、2.1 節でも述べた施設などの POI が望まれるケースも多い。 言語の観点からもデータセットには差異がある。例えば日本を対象としていても、札幌という漢字表記か Sapporo という英字表記かでは利用できる状況が大きく異なる。他にも、もとにする言語や、翻字の形式によってテキストが異なりうる。例えばウクライナの首都は、ウクライナ語をもとにしたキー ウとも、ロシア語をもとにしたキエフなどとも表記されうる。同じ言語であっても、表記の摇れがあったり、正式名称に加えて別称が存在する場合もある。例えば京都市では、住所に通り名を含む場合と含まない場合で摇れがみられることがある [13]。他には、過去に使われた歴史的な名称を考慮したい状況も考えられるだろう。 付録 A で、ジオコーディングへ活用できるオープンな関連データセットを紹介している。 ## 3.2 実装とサービス ジオコーダー構築に利用できるソフトウェア実装や、既存のサービスを紹介する。 Elasticsearch ${ }^{4}$ は汎用的な全文検索エンジンであり、地名辞書の検索に利用できる。位置情報に関連する機能も実装されており、点や線、ポリゴンなど位置情報を保持し、それらに対して空間検索クエリを実行することができる。 Nominatim ${ }^{5}$ は、オープンな世界地図をつくる共同作業プロジェクト「OpenStreetMap」(OSM)のデータを利用したジオコーダーで、OSM ウェブサイトの検索部分にも利用されている。コードはオー プンソースソフトウェアとして公開されている。 carmen ${ }^{6}$ は、Mapbox 社によるジオコーダー実装である。ベクトルタイル技術を応用しており、デー タベースではなくファイルを利用するためデータの入れ替えが容易である。実装には [14] で提案された誤字や部分一致入力からの効率的な探索手法が参考にされている。元々はオープンソースだったが7)、現在は非公開となっている。 4) https://www.elastic.co/elasticsearch/ 5) https://nominatim.org/ 6) https://www.npmjs.com/package/@mapbox/carmen 7) https://github.com/mapbox/carmen 国立情報学研究所の北本らによる GeoNLP プロジェクト $[1,15,16]$ は、オープンな地名情報処理のためのソフトウェア、データ、サービスを研究開発する取り組みである。その中で PyGeoNLP ${ }^{8}$ は、テキストから地名を抽出して、曖昧性を解消し、地名語辞書とリンクして位置情報を出力するソフトウェアである。また jageocoder ${ }^{9}$ は、住所を対象としたもので、PyGeoNLP と連携させることで文章中の住所をジオコーディングできる。 東京大学空間情報科学研究センターによる位置参照技術を用いたツールとューティリティ10) は、住所・地名フィールドを含む CSV 形式データにアドレスマッチング処理を行う「CSVアドレスマッチングサービス」や、日本語で記述された住所・地名・駅名・公共施設名を経緯度に変換し、結果を XML 形式で返す「シンプルジオコーディング実験」を提供している。 ジオコーダーの実装としてはここで紹介したほかにも、オープンソースソフトウェアが多数が存在する11)。しかし多くの実装は、それ自体ではデータやアルゴリズムを持っておらず、既存のジオコーディング・サービスを利用するためのクライアントであることに注意が必要である。 上記に加え付録 B で、商用を含む関連サービスを紹介している。 ## 4 課題と発展に向けての考察 曖昧性の解消ジオコーディングの大きな課題として曖昧性の解消が挙げられる。入力された場所参照表現に対応するエントリがデータベースに登録されていたとしても、追加情報がないと曖昧性解消ができないケースは多い。例えば日本橋という地名は大阪にも東京にも存在し曖昧性がある。 曖昧性解消のために、外部の情報源を参考にしたり(例えば人口が一番多い場所を選択)、ユーザー の現在位置などを活用することが考えられる。加えて実応用においては、複数の検索候補をサジェストし、かつ入力ごとに候補を提示するインクリメントサーチにより、ユーザーが望む情報へ辿り着きやすくする工夫が可能である。しかし依然として、十分な情報が与えられていない状況では、それ以上の対処は難しい。 8) https://geonlp.ex.nii.ac.jp/pygeonlp/ 9) https://geonlp.ex.nii.ac.jp/jageocoder/ 10) https://geocode.csis.u-tokyo.ac.jp/ 11) https://github.com/topics/geocoder より適切に曖昧性を解消するための一つの方向性として、入力の拡張が考えられる。図 4 で示したように、多くの場合にジオコーディングの前には、固有表現抽出ステップ (Toponym Resolution / Geotagging)がある。システムへ、抽出された“固有表現”を入力するのではなく、“文・文書”を入力として二つのタスクを同時に解くことで、文脈を考慮でき、曖昧性解消の性能を向上できる可能性がある。例えば銀座から日本橋へ歩いたという文であれば、この日本橋は東京のものを指す可能性が高い。そしてそのような処理には、従来の全文検索ベースのジオコーディングにも増して、自然言語処理や機械学習の技術の活用が重要となる。 画像やユーザー履歴など、文書以外の情報を併用することも曖昧性解消に有効と考えられる。画像などのデータ自体にジオタグ(位置情報)が付随していることもあり、共に存在するテキストの位置情報を間接的に把握でき、学習データの拡張や辞書項目の半自動収集などへ活用できる可能性がある。 データの整備性能評価や知見の蓄積を容易にするため、評価のためのデータセットを整備することも重要な課題である。関連する既存資源として日本語では、場所参照表現タグ付きコーパス $[9]^{12)}$ や日本語 Wikification コーパス [17] ${ }^{13)}$ がある。前者は構築されたデータ全体が公開されていない、後者はジオコーディングへ特化したデータではないという制限がある。公平な性能比較のできる新たな評価用データセットを構築することで、技術的発展の加速が期待できる。 産学官民それぞれで、これからデータの更なる増加が予想される。例えば、デジタル庁は社会の基本データとしてべース・レジストリ14)を整備しており、これにはアドレス (町字・字番) や不動産登記情報など土地・地図に関するデータも含まれている [18]。他方で、行政の役割は正確な情報の管理であり、通称や読み間違いなどの情報は民間領域となる。公的情報以外にも、ソーシャルネットワークのデータや、各種のユーザー生成コンテンツ、アプリのログなど、これまで存在しなかった多様なデータは急増している。それぞれを適切に連携させることで、まだ見ぬ資源の構築が可能となり、それによって位置情報処理の更なる展開が拓けるだろう。 12) http://www.cl.ecei.tohoku.ac.jp/ matsuda/ LRE_corpus/ 13) http://www.cl.ecei.tohoku.ac.jp/jawikify/ 14) https://www.digital.go.jp/policies/base_registry/ ## 参考文献 [1] 北本朝展. 地名の情報学とデータ駆動型研究の展開.日本学術会議公開シンポジウム「地名標準化の現状と課題: 地名データベースの構築と地名標準化機関の設置に向けて」, 2022. https://www. scj.go.jp/ja/event/pdf3/321-s-1218-t5.pdf,(参照 2023-01-11) [2] 岩倉友哉, 関根聡. 情報抽出・固有表現抽出のための基礎知識. 近代科学社, 2020 . [3] Milan Gritta, Mohammad Taher Pilehvar, and Nigel Collier. A pragmatic guide to geoparsing evaluation. Language resources and evaluation, Vol. 54, No. 3, pp. 683-712, 2020. [4] Stephen Roller, Michael Speriosu, Sarat Rallapalli, Benjamin Wing, and Jason Baldridge. Supervised textbased geolocation using language models on an adaptive grid. In Proceedings of the $\mathbf{2 0 1 2}$ Joint Conference on Empirical Methods in Natural Language Processing and Computational Natural Language Learning, pp. 1500-1510, Jeju Island, Korea, July 2012. Association for Computational Linguistics. [5] Mark Dredze, Miles Osborne, and Prabhanjan Kambadur. Geolocation for Twitter: Timing matters. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 1064-1069, San Diego, California, June 2016. Association for Computational Linguistics. [6] Afshin Rahimi, Trevor Cohn, and Timothy Baldwin. A neural model for user geolocation and lexical dialectology. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 209-216, Vancouver, Canada, July 2017. Association for Computational Linguistics. [7] Davy Weissenbacher, Arjun Magge, Karen O'Connor, Matthew Scotch, and Graciela Gonzalez-Hernandez. SemEval-2019 task 12: Toponym resolution in scientific papers. In Proceedings of the 13th International Workshop on Semantic Evaluation, pp. 907-916, Minneapolis, Minnesota, USA, June 2019. Association for Computational Linguistics. [8] 佐々木彬, 五十嵐祐貴, 渡邊陽太郎, 乾健太郎. 場所参照表現のグラウンディングに向けて. 言語処理学会第 20 回年次大会発表論文集, 2014. [9] 松田耕史, 佐々木彬, 岡崎直観, 乾健太郎. 場所参照表現タグ付きコーパスの構築と評価. 情報処理学会研究報告. 自然言語処理研究会報告, Vol. 2015, No. 12, pp. 1-10, 12015. [10] 大友寛之, 大内啓樹, 星野智紀, 井手佑翼, 渡辺太郎.訪問場所表現グラウンディングのためのアノテー ション. 言語処理学会第 28 回年次大会発表論文集, 2022. [11] 浅見泰司, 矢野桂司, 貞広幸雄, 湯田ミノリ. 地理情報科学: GIS スタンダード. 古今書院, 2015. [12] 東京大学空間情報科学研究センター. CSV アドレスマッチングサービスー位置参照技術を用いたツールとユーティリティ.https://geocode.csis.u-tokyo. ac.jp/home/csv-admatch/,(参照 2023-01-11) [13] 矢野桂司. ジオコーディングのための京都市の住所表記に関する現状と課題. 立命館文學, Vol. 666,pp. 30-44-, 32020. [14] Christian Jung, Daniel Karch, Sebastian Knopp, Dennis Luxen, and Peter Sanders. Efficient error-correcting geocoding. arXiv preprint arXiv:1102.3306, 2011. [15] 北本朝展. 地名情報処理環境 geonlp の紹介と歴史的な地名に関する課題. 第 9 回人間文化研究機構情報資源共有化研究会, pp. 43-60, 72014. [16] 北本朝展, 村田健史. 歴史的行政区域データセット $\beta$ 版をはじめとする地名情報基盤の構築と歴史ビッグデータへの活用. 情報処理学会技術報告, 第 2020-CH-124 巻, pp. 1-8, 92020. [17] Davaajav Jargalsaikhan, Naoaki Okazaki, Koji Matsuda, and Kentaro Inui. Building a corpus for Japanese Wikification with fine-grained entity classes. In Proceedings of the ACL 2016 Student Research Workshop, pp. 138144, Berlin, Germany, August 2016. Association for Computational Linguistics. [18] 平本健二.アドレス・ベース・レジストリの推進について. 日本学術会議公開シンポジウム「地名標準化の現状と課題 : 地名データベースの構築と地名標準化機関の設置に向けて」, 2022. https://www. scj.go.jp/ja/event/pdf3/321-s-1218-t3.pdf,(参照 2023-01-11). ## A 関連データセット オープンなデータをいくつか紹介する。データを検討する上での観点は 3.1 を参照のこと。 国土数値情報15) 国土交通省。地形、土地利用、公共施設などの国土に関する基礎的な情報を整備したデータ。 位置参照情報16) 国土交通省。国の都市計画区域相当範囲を対象に、街区単位の位置座標を整備したデータ。 地名集日本 ${ }^{17 )}$ 国土交通省国土地理院。4,000 以上の地名と、その経緯度や種別を収録。元は PDF ファイルだが、第三者により CSV・JSON 形式へ整形されたデータもある ${ }^{18)}$ 国勢調査町丁・字等別境界データ19)国勢調査の実施毎に設定された調査区の境界情報。 GeoNLP データ 20)国立情報学研究所の北本らによるプロジェクト $[1,15,16]$ 。地名の識別子 (GeoLOD ID)を付与した各種の地名語辞書を公開。 Geolonia 住所データ21)株式会社 Geolonia と一般社団法人不動産テック協会によるオープンデー タ。位置参照情報や日本郵便の郵便番号データをもとに月次更新。 OpenStreetMap ${ }^{22)}$ オープンな世界地図データベースをつくる共同作業プロジェクト。地名や住所に限らず POI などのデータも含む。 GeoNames ${ }^{23)}$ オープンな地理データベース。世界中の様々な公のソースからのデータに加え、ユー ザーによる共同編集も可能。 OpenAddresses ${ }^{24 )}$ オープンな世界規模のアドレスデータ。ユーザーからのコントリビュートにより構築。 Who's On First ${ }^{25)}$ オープンな世界規模の地名辞書。既存の複数ソースをもとに統合して構築26)。  ## B 関連サービス 3.2 節で言及したものに加えていくつか紹介する。 Google Maps Platform ${ }^{27)}$ 現時点の利用規約では、手元への保存や、Google Maps 以外の地図上での表示は禁止されていることに注意。 Yahoo! Open Local Platform (YOLP) ${ }^{28)}$ 地図、地域情報に関する API・SDK。現時点では一般公開された無償サービスでの利用は無料。 MIERUNE Search ${ }^{29}$ オープンソースソフトウェアとオープンデータを活用した住所・施設検索サー ビス・API。住所に加え POIにも対応。 OpenCage ${ }^{30)}$ ドイツの OpenCage 社が提供する日本語にも対応したジオコーディング API。 Geolonia Community Geocoder ${ }^{31)}$ Geolonia によるオープンソースの住所ジオコーディング API。位置参照情報を利用、大字町丁目単位までが対象。 など、京都市内で広く使われている独特の住所表記「通り名住所」をジオコーディングする API。 ケンオール ${ }^{33 )}$ 郵便番号住所検索・住所逆引き・法人情報 $\mathrm{API}$ 。京都市の通り名や岩手県の地割、ビル名と町名の分割などに対応。 この他にも、地図サービス MapFanを提供する GeoTechnologies $^{34)}$ や地図情報を調査・制作・販売するゼンリン35)、昭文社グループの MAPPLE ${ }^{36)} 、$地図サービス会社の ESRI ジャパン37)、HERE ${ }^{38)} 、$ スの Amazon Web Services (AWS) ${ }^{40)}$ や Microsoft 
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B11-2.pdf
# 文化財報告書データベースにおけるテキスト可視化と地理情報 高田祐一 ${ }^{1}$ Yanase Peter ${ }^{1}$ 武内樹治 ${ }^{2}$ ${ }^{1}$ 奈良文化財研究所 ${ }^{2}$ 立命館大学大学院 takata-y23@nich. go. jp yanase-p7g@nich. go. jp [email protected] ## 概要 文化財そのものは位置情報を保持し,関連する調查成果はテキスト媒体である。成果は報告書としてまとめられ報告書データベースには 27 億文字が登録されている。データベースは全文検索可能であるものの巨大であるため, 人間可読が難しく機械で読んでいくことが求められている.テキストの頻出語や地域ごとの特徴語の算出によって可視化した. また海外でも日本の成果を位置付けていくために国際連携のためのシソーラスマッピングを推進している. さらに文化財 WebGIS の構築によって文化財位置情報 61 万件を地理データとして扱えるようになり,文化財テキストと地理を組み合わせた新たな可能性の基盤となる. ## 1 全国遺跡報告総覧 奈良文化財研究所(以下,奈文研)は,文化財報告書を全文電子化しインターネット上で検索・閲覧できるようにした全国遺跡報告総覧 (以下, 遺跡総覧 ${ }^{\mathrm{i}}$ をを 2015 年 6 月から運営している (図 1 ). 遺 図 1 全国遺跡報告総覧トップページ ^{i}$ https://sitereports.nabunken.go.jp/ja } 跡総覧には, 全国の文化財調查機関が報告書類の書誌および全文 PDF を Web 登録する.PDF にはテキストが含まれることから,遺跡総覧では,登録デー夕に全文検索が可能である. 2023 年 1 月 13 日時点で, PDF がある書誌数 33,893 件, PDF410 万ページ, 総文字数 27 億文字に対して全文検索が可能である. 従来は,書庫に籠り,1 ページずつ必要とする情報を探すという地味な作業であったため, 劇的に資料調查が効率的かつ網羅的になった。書誌情報には,国立国会図書館の JP 番号, CiNii Books の NCID を付与し, 各書誌の DB ヘリンクを設定しているので,実際の図書の所蔵館を調べることも可能である。遺跡総覧の利用状況として, 2021 年度には 197 万件の PDF のダウンロード, 9997 万件のページ閲覧数があった。 ## 1.1 巨大データを可視化する 全文検索は至便であるもののテキスト量が巨大であるため,人間可読に適さない。そこで,機械的にテキストを可視化するために, 遺跡総覧の内部には,文化財関係用語シソーラスを保持している。シソー ラスに登録された文化財専門用語をもとに,テキス卜解析を実施し, 用語を切り出している. 奈文研が独自開発した言語リソースである. 専門の語彙数としては 190594 件であり, そこによみや類義語, 多言語対訳を付与している. このシソーラスを活用することで,報告書に記載されている文化財関係用語で頻出用語や地域独自の特徴語を可視化できる(図2)。報告書ごとに特徵語を算出することで, 内容の類似度に応じたサジェスト機能も実装している. 報告書全体のテキストに対し, 考古学関係用語の出現回数を集計し, 図化した. 報告書ワードマップ iiという機能で閲覧できる. 用語をクリックすると  頻出用語のみを検索キーとした高精度検索が可能である。検索語を入力するには事前に専門知識が必要であるが,そういった知識がなくとも選択だけで検索が可能である. また都道府県ごとに考古学関係用語の特徴語を, 図化した. 当該都道府県内にて頻出する用語(よく使われる用語は重要)かつ他都道府県では出現頻度が低い用語(希少用語は重要)であることを勘案するため, 当該都道府県の強い特徴を 図 2 報告書ワードマップ(頻出用語俯瞰図) 図 3 報告書特徴語ワードマップ-福岡県示す用語を可視化できる. 自然言語処理技術のべクトル空間モデルの TF(索引語頻度)と IDF(逆文書頻度)を組み合わせた TF-IDF にて算出した。 全国的な専門用語の使い方と都道府県ごとの地域性を可視化した。 ## 2 国際連携のための自然言語処理 日本の調査成果を海外からアクセスできるようにするため,多言語化対応を推進している.奈文研は ARIADNEplus という国際プロジェクトに参加している. ARIADNEplus とその前身であった ARIADNE は,欧州委員会の資金を受けて 2013 年から 2022 年までの間に実施された考古学研究プロジェクトであった。 その主な目的は,言語の壁と国境を乗り越え,ヨー ロッパの諸国の考古学データを整理し,その目録を公開することであった. ARIADNE は本来ヨーロッパ内のプロジェクトであったが,最終的にヨーロッパ圈外の国からの参加機関も関わるようになった. 2022 年 12 月の時点で公開カタログには約 350 万件ものデータセットが含まれていた. ARIADNEplus の名義で行われたプロジェクト自体が 2022 年に完了したが,公開カタログの維持と更新はこれからも予定されている. ARIADNEplus のカタログは「時間」,「空間」と 「モノ」で検索ができる.日本のデータをこの国際的なカタログに統合するためには,奈文研には(1)デ一タのクレンジング, (2)データベースのスキーマの変換, (3)データマッピングの三つを行う必要があつた. その中で,日本の考古学用語の英語へのマッピングがとりわけ困難であった。 ARIADNE は言語を問わない横断検索を実現するために,それぞれの言語・ 図4 マッピング作業の流れ 分野のシソーラスを米国の Getty 財団が運営している芸術関係用語のシソーラスである Art \& Architecture Thesaurusにマッピングさせた.ただ, ご存知の通り,日本ではそもそも芸術・文化財に関する整備されたシソーラスが存在していない. そのうえ, 日本考古学の用語は, 日本の特有な文化・歴史に由来するものも多いが,それより独自の道を歩んできた日本考古学そのもの文化・伝統に由来する表現が多い. これらの用語を AAT にマッピングするためにはまず遺跡総覧から抽出した用語をいったん手動でマッピングした. ただ,それだとマッピングの再現性が低いので,次は手動で作ったマッピングを分析し, シンプルな自然言語処理に基ついてもう一度機械的にマッピングを作成した。これによってデータのばらつきがなくなり, 再現性も高まった.この処理ができるためには, ARIADNEplus が本来想定していた 1 対 1 のマッピングではなく, 1 対多の採用が前提となっていた. また, マッピング作業においてはマッピング・プロパティーも明記する必要があった. そのため, 複合名詞に含まれているそれぞれの名詞に対して,その位置に基づいて自動でマッピング・ プロパティーを付与した(図4)。 ## 3 文化財総覧 WebGIS 奈文研では,全国の文化財に関する約 61 万件のデータを文化財総覧WebGIS ${ }^{\text {iii }}$ (図 5 )として公開しており,地域・場所に根差した文化財を地図上で調べることができる。これまで報告書などでは位置情報を把握しづらいという課題があったが,この WebGIS によって位置情報を頼りに文化財情報を検索することが可能になった. ## 3.1 WebGIS に登録されているデータ ここでは, 当WebGIS に登録されているデータを紹介する. まず,背景地図として,地理院地図(標準地図や単色地図など), 空中写真, 色別標高図, 傾斜量図などが備わっているのに加えて, 奈文研空中写真や平城宮跡の遺構図や地形図も含まれている. 兵庫県・静岡県・岐阜県については CS 立体図も追加している. また, 土砂災害警戒区域や地すべり危険箇所などのハザードマップも背景地図として表示することができる(図6). 文化財情報として,文化庁や国土交通省が公開している国・都道府県指定文化財情報や,奈文研作成データ(遺跡データベース,平城宮・跡に関するデ一夕,遺跡地図データ),地方公共団体が公開している遺跡範囲等のデータなどが登録されている. 図 5 文化財総覧 WebGIS  ## 3. 2 WebGIS の機能 図 6 ハザードマップと文化財分布(東京駅周辺) 当WebGIS では, 対象文化財のポイントやポリゴンをクリックすることで,対象文化財の名称や種別などの文化財情報を知ることができるとともに,その文化財の報告書が遺跡総覧で電子公開されているものであれば, 当該報告書のページへ遷移し, 報告書を閲覧することができる. WebGIS の機能として「都道府県」「種別」「時代」のそれぞれの項目で地図上に表示する対象文化財を絞ることができ,ある地域の古代の集落遺跡のみを表示することなどが可能である。「フリーワード検索」として,文化財名や遺構・遺物の名称などからも検索をかけることができる. 背景地図との重放合わせでは, 文化財情報とハザードマップを重ねることで文化財の災害リスクなどを予測することができ文化財防災の観点でも利用可能である. そして, 平城宮跡で出土した木簡や墨書土器について, 木簡に書かれた内容で検索できるなど, 平城宮の調査研究として役立つ機能もある.以上のような機能を用いて, 利用者は地域の文化財の再発見や地域学習, 学術研究の基盤として活用することができる. ## 3. 3 文化財地理情報と自然言語処理 ここでは今後の文化財総覧 WebGIS の発展可能性について, 自然言語処理の応用という点を中心に述べる. 地図上で検索した遺跡の情報をさらに知りたい場合には,報告書があれば閲覧できるものの,必ずしも報告書は万人に対して読みやすいようには書かれていない. そのため, 数百字程度で報告書内容の要約を生成し表示する機能などもあれば様々な利用者にとって情報を得やすいシステムになると思われる。 さらに, 発掘調查報告書では, 調查成果などをもと に対象遺跡の付近や関連のある遺跡との関わりが記される場合が多い.報告書で言及された遺跡名を抽出することができれば,ある遺跡を調べた際にその報告書内で言及された他の遺跡を GIS 上に表示し,調べた遺跡と関連する遺跡へと利用者のデータ閲覧の流れを作ることに繋げられ,より深く文化財情報を活用する機会を提供できる可能性がある.さらに,関わりの深い遺跡であれば報告書内で言及されることが多いと仮定すると,その遺跡間の関わりを報告書内の遺跡名の出現頻度を自然言語処理の手法によって算出し,地図上でその関わり度合が表示されることで,誰もが容易に遺跡同士の関連性を知ることができると思われる。
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B11-3.pdf
# Double cross model による位置情報フレームアノテーション 川端 良子 国立国語研究所 } 大村舞 国立国語研究所 } 浅原正幸 国立国語研究所 竹内 誉羽 ホンダリサーチインスティチュート ## 概要 ことばに出現する空間情報の記述手法として Spatial ML や ISO-Space が提案されている。これらはテキスト中の固有位置情報や絶対参照(東西南北)を記述するためには有効ではあるが、話者自身が空間内実体である対話中の相対参照(前後左右) を記述するには不向きである。相対参照の曖昧性解消には有向辺(順序付き2つ組)のみによっては行えず、 2 つ以上の有向辺を実体の向きも含めてフレームとして保持する必要がある。一方、空間論理の分野では、位置情報の曖昧性解消手法として Double cross model が用いられる。本研究では対話中の相対参照を Double cross model によって表現することを試みたので報告する。 ## 1 はじめに どこかに連れて行ってもらいたいときに、連れて行ってもらう場所を緯度経度情報のみならず、さまざまなことばで表現する。位置情報を共有する目的指向の対話においては、お互いに知っている位置情報を交換するために、自身の位置や向きに基づく相対位置をことばで表現する。しかしながら、複数の場所 (Landmarks) もしくは空間内実体 (Spatial Entities) の相対位置を言語情報で表現する場合、単純な有向辺構造 (順序付き 2 つ組: ordered pairs) では表現しきれないことがある。 例えば「東京タワーを背にして右前方にすすんでください」といった表現を有向辺のみで表現するには、東京タワー (Landmark) と話者 (Spatial Entity) の相対位置を表現する辺と、話者 (Spatial Entity) の現在位置と進む方向 (Orientation) を表現する辺の $2 \supset$ を話者の向きとともに保持することを必要とする。位置情報を正確に同定するためには、この 2 つの辺 の相対的な位置情報を定義し、これらの情報を 1 つの位置情報フレームとしての保持することが、本質的に必要である。 空間論理 (Spatial Logic) の分野では、Double cross model と呼ばれる位置情報フレーム表現がある。 Double cross model は、字義どおり方向を示す cross (十字)を2つ用いる位置情報フレームであり、2つの cross の中心に場所・空間内実体を配置することで、向きや第 3 の場所・空間内実体をその 2 つの cross との相対位置で表現する。 本稿では、位置情報を共有する目的指向の対話における言語表現を、Double cross model を用いて表現することを試みる。さらに、向き (Direction and Orientation) ・距離 (Time and Space measurements) ・位相 (Mereotopological Relations) などをどのように表現するかを検討する。 ## 2 位置情報フレーム表現 以下では、Spatial ML[1] や ISO-space [2, 3] などをベースに位置情報フレームの主要概念について説明する。検討にあたっては、Spatial Logic 関連の論文 [4] や日本国内の ISO-space の利用状況 [5] なども確認した。 ## 2.1 タグ付け対象となる表現 (Mention) 本研究は以下のものをタグ付け対象とする。 - 場所表現 (Landmarks):緯度・経度や住所地番など、固有の位置情報が定義される場所。 - 空間内実体表現 (Spatial Entities) : 空間上に配置される実体。話者もこれに相当する。 - 手がかり表現 (Signal):位置情報・向き情報・距離情報などを示す表現。 本稿では、厳密にタグ付け表現のスパン(テキスト中の範囲)を定義しない。 ## 2.2 位置情報の形式化 図 1 Cone-based model (absolute, relative) 南 後 図 2 Project-based model (absolute, relative) 位置情報の形式化については、その参照表現の型として3 種類あるとされる: - 固有 (Intrinsic):場所に内在する固有の向き・位置。 - 絶対 (Absolute):鳥瞰による指示参照(東西南北)。 - 相対 (Relative):実体からの視点に基づく指示参照(前後左右)。前提として、視点を持つ主体が向き (Orientation)を持つ。 一般に、位置情報の曖昧性解消は、緯度経度情報や住所地番により一意に定まる「固有」の情報から、鳥瞰による「絶対」指示参照や実体からの視点に基づく「相対」指示参照がある。 相対位置を形式化する際に用いられるモデルとして、cone-based model と project-based model について説明する。cone-based model (図 1)[6] は、場所・空間内実体の配置・向きを主体を中心とした範囲を持つ角度 (cone) で表現する。project-based model (図 2)[7] は、場所・空間内害体の配置・向きを主体とした範囲を持たない方向 (projection) で表現する。 cone-based と project-based は、いずれも有向辺構造 (順序付き 2 つ組:ordered pairs)で表現されるもので、 2 つの違いはその解釈もモダリティ(範囲を持つか否か)にある。 言語表現において、「固有」の位置情報に基づく、東西南北の「絶対」指示参照のみが出現する場合には、上記有向辺構造に基づくモデルのみで位置情報を特定できる。実際には、空間内の実体として、話 し手・聞き手が存在し、それぞれの視点からの「相対」指示参照表現に基づき、位置情報をやりとりすることが多い。 次に示す Double cross model は、空間内実体の視点からの相対位置を自然に表現できる位置情報の形式化である。 ## 2.3 Double cross model 図 3 Double cross model Double cross model (図 3)[8]、場所・空間内実体のうち 2 つを図中の 14 と 15 に配置したうえで、先の 2 つの要素の配置に基づいて、残り 1 つの相対位置や向きを表現する。 図 4 亿位置情報フレーム記述例を示す。本稿では、Double cross model をハッシュのリスト(順不同)で表現することのみを定義し、記述方法にはこだわらない。 なお、絶対参照(東西南北)のような表現の場合は Double cross model を用いる必要がないが、本研究では一貫して Double cross model のサブセットを用いて記述し、必要に応じて、2.6 節・2.7 節に示す情報を付与する。 ## 2.4 Double cross model に含める情報 以下では、現状、我々が Double cross model に含める情報について示す。 ・id: テキスト中のメンションの識別子。あらかじめ上流工程で付与された場所表現・手がかり表現の $\mathrm{ID}^{2}$ 。追加で空間内実体表現を新たに付与し、対話参与者を $\mathrm{S} 0$ ・H0 とする。 ・type: テキスト中のメンションの型。以下のものからなる: - landmark: 場所表現。 - se: 空間内害体表現。話し手、聞き手も含む。 - signal: シグナル表現。 - slot: Double cross model 中の配置番号。 【作例】「[東京タワー](ID:T1)を [背にして右前方に](ID:T2) すすんでください」聞き手は ID:H0。 $ \left.\{\left[\begin{array}{ll} \text { id } & \mathrm{T} 1 \\ \text { type } & \text { landmark } \\ \text { slot } & 15 \end{array}\right]\left[\begin{array}{ll} \text { id } & \mathrm{T} 2 \\ \text { type } & \text { signal } \\ \text { slot } & 12 \end{array}\right],\left[\begin{array}{ll} \text { id } & \text { H0 } \\ \text { type } & \text { se } \\ \text { slot } & 14 \\ \text { ir } & 1 \end{array}\right]\right.\} $ AVM による記述 [ JSONによる記述 YAML による記述 図 4 位置情報フレーム記述例 (AVM, JSON, YAML) $\cdot$dir: 実体が向いている方向 (Double cross model 中の配置番号で指示)。向いている方向であって、進む方向ではない。 図 4 の例では、「東京タワー」(T1)・「(背にして)右前方に」(T2)・聞き手 $(\mathrm{H} 0$ ) を、それぞれ Double cross model の $15,12,14$ に配置し、聞き手 (H0) が 1 の方向を向いていることを意味する。 ## 2.5 同型 (isomorphic) 図 5 同型の異表現 (inversion) 図 6 同型の異表現 (homing) 3 つ要素がある Double cross model では、同型の異表現が発生する場合がある。例えば、先の記述例は図 5 (inversion), 6 (homing) などの表現 [9] がある。 アノテーション作業者は、自分がアノテーションしやすい好きな表現によるアノテーションを行う。機械処理を行う場合、適切な空間論理の unary operation (inversion, homing) を実装する必要がある。 ## 2.6 距離情報 (distal) 南 後図 7 距離情報(絶対と相対) Double cross model は、相対の方向のみを指示し、距離は指定しない。距離情報にも絶対距離表現 $[10,6]$ と相対距離表現 [11] がある (図 7)。 絶対距離表現 (図 7 左) は 2 点間の距離もしくは到達にかかる時間を指定する。以下の例では、新たに type=distance を定義し、src に T13・tgt に T16を記述し、その距離を absdist に $20 \mathrm{~m}$ を記述する。 $ \begin{aligned} & \text { 【03-06】 } \\ & \text { [ジングウマエコウバン](ID:T13) } \\ & \text { から [ [メイジジングウ](ID:T14) の } \\ & \text { ほうに [2 } 0 \text { メートル](ID:T15)[行っ } \\ & \text { た歩道](ID:T16) で [待ってて](ID:T17) } \\ & \left.\{\begin{array}{l} {\left[\begin{array}{ll} \text { id } & \text { T13 } \\ \text { type } & \text { landmark } \\ \text { slot } & 15 \end{array}\right],\left[\begin{array}{ll} \text { id } & \text { T14 } \\ \text { type } & \text { landmark } \\ \text { slot } & 1 \end{array}\right],\left[\begin{array}{ll} \text { id } & \text { T16 } \\ \text { type } & \text { landmark } \\ \text { slot } & 14 \end{array}\right],} \\ {\left[\begin{array}{ll} \text { type } & \text { distance } \\ \text { id } & \text { T15 } \\ \text { type } & \text { signal } \end{array}\right],\left[\begin{array}{ll} \text { Src } & \text { T13 } \\ \text { tgt } & \text { T16 } \\ \text { absdist } & 20 \mathrm{~m} \end{array}\right]} \end{array}\right.\} \end{aligned} $ 距離計量の直接的な表現でない場合には、 $\{\mathrm{cl}:$ 近 い, med: 中程度, far: 遠い\} などの表現を用いる。以下の例では、配置がわからないために Double cross model 上に配置は行わないが、type=distance を規定する。 ## 【01-88】 [マンション街](ID:T413) の[えー](ID:T414)、 [近く](ID:T415)の [道路](ID:T416) $ \left.\{\begin{array}{l} \left.\{\begin{array}{ll} \text { id } & \text { T413 } \\ \text { type } & \text { landmark } \end{array}\right],\left[\begin{array}{ll} \text { id } & \text { T415 } \\ \text { type } & \text { signal } \end{array}\right],\left[\begin{array}{ll} \text { id } & \text { T416 } \\ \text { type } & \text { landmark } \end{array}\right], \\ \left.\{\begin{array}{ll} \text { type } & \text { distance } \\ \text { src } & \text { T413 } \\ \text { tgt } & \text { T416 } \\ \text { absdist } & \text { cl } \end{array}\right] \end{array}\right.\} $ 相対距離表現 (図 7 右) は、ソとの距離と比して、\{n: 近い, e: 等しい, f: 遠い \} などの表現を用いる提案もある。しかしながら、単純に同一直線上にある場合には、Double cross model の 1-14-15-7 の相対位置で遠近を表現できるため、特に規定しない。具体的に距離が 2 倍、半分などわかる場合には、 2X, 1/2X などと記述することも検討したが、現在まで確認した対話データには出現しなかった。 ## 2.7 位相情報 (topology) $\langle S, T\rangle \in D C$ $\langle S, T\rangle \in P O$ $\langle S, T\rangle \in E C$ $\langle S, T\rangle \in E Q$ $\langle S, T\rangle \in \mathrm{TPP}$ $\langle S, T\rangle \in$ NTPP $\langle S, T\rangle \in T P P^{-1}$ $\langle S, T\rangle \in N T P P^{-1}$図 8 位相情報 (RCC8) 空間内の場所・実体は、大きさを持つ。その大きさがあるがゆえに規定する必要がある、位相情報 (mereotopological relation)をその全体部分関係や境界の状態に応じて、以下のとおり RCC8 (Region Connection Calculus Relations) [12] により規定する。 - DC: Disconnected(非連結) - EC: External connection(外接) - PO: Partial overlap(部分一致) - EQ: Equal(完全一致) - TPP: Tangential proper part(内接:source が target に接して内包) - TPP ${ }^{-1}$ : Inverse of TPP(内接:target が source に接して内包) - NTPP: Non-tangential proper part (内包:source が target に接せずに内包) - NTPP ${ }^{-1}$ : Inverse of nTPP (内包 : target が source に接せずに内包) 以下に内包 (NTPP) の場合の type=topology の記述例を示す。 【01-88】 [公園](ID:T412) のある [マンション街](ID:T413)の $ \left.\{\left[\begin{array}{ll} \text { id } & \text { T412 } \\ \text { type } & \text { landmark } \end{array}\right],\left[\begin{array}{ll} \text { id } & \text { T413 } \\ \text { type } & \text { landmark } \end{array}\right],\left[\begin{array}{ll} \text { type } & \text { topology } \\ \text { src } & \text { T412 } \\ \text { tgt } & \text { T413 } \\ \text { absdist } & \text { NTPP } \end{array}\right]\right.\} $ まったく同じ実体を指す同一指示は、 $\mathrm{EQ}$ を用いて表現する。 ## 【01-26】 [亢っと](ID:T109)[アニバー サ リー](ID:T110)ってゆう [お店](ID:T111) $ \left.\{\left[\begin{array}{ll} \text { id } & \text { T109 } \\ \text { type } & \text { landmark } \end{array}\right],\left[\begin{array}{ll} \text { id } & \text { T110 } \\ \text { type } & \text { landmark } \end{array}\right],\left[\begin{array}{ll} \text { type } & \text { topology } \\ \text { src } & \text { T109 } \\ \text { tgt } & \text { T110 } \\ \text { absdist } & \text { EQ } \end{array}\right]\right.\} $ なお、本研究ではDC は Double cross model で配置するために用いない(デフォルトはDC)。また、TPP ${ }^{-1}\langle S, T\rangle, \mathrm{NTPP}^{-1}\langle S, T\rangle$ は、それぞれ TPP $\langle T, S\rangle$, NTPP $\langle T, S\rangle$ として表現するため、用いない。 ## 3 おわりに 本研究では、位置情報を共有する目的指向の対話に出現する位置表現を扱うために、空間論理で用いられる Double cross model を利用し、位置情報フレームとして記述することを試みた。Double cross model を用いることにより、相対参照情報を 3 つ組で記述することができるようになり、位置情報の表現力が向上した。さらに、距離情報や位相情報の記述についても試みた。 なお、上記空間論理の曖昧性解消の自動推論は多項式時間では解けないとされている [4]。言語処理系が、言語から論理形式の写像を行ったとしても、空間論理ソルバー側が曖昧性解消処理できるとは限らない。 ## 謝辞 本研究はホンダリサーチインスティチュート-国立国語研究所共同研究プロジェクト「行き先目標物の参照表現に関する日本語話し言葉の分析」・国立国語研究所基幹型共同研究プロジェクト「アノテー ションデータを用いた実証的計算心理言語学」・科研費 JP22K13108, JP19K13195によるものです。 ## 参考文献 [1] Inderjeet Mani, Janet Hitzeman, Justin Richer, Dave Harris, Rob Quimby, and Ben Wellner. SpatialML: Annotation scheme, corpora, and tools. In Proceedings of the Sixth International Conference on Language Resources and Evaluation (LREC'08), Marrakech, Morocco, May 2008. European Language Resources Association (ELRA). [2] James Pustejovsky and Zachary Yocum. Image annotation with ISO-space: Distinguishing content from structure. In Proceedings of the Ninth International Conference on Language Resources and Evaluation (LREC'14), pp. 426-431, Reykjavik, Iceland, May 2014. European Language Resources Association (ELRA). [3] James Pustejovsky. ISO-Space: Annotating Static and Dynamic Spatial Information, pp. 989-1024. Springer Netherlands, Dordrecht, 2017. [4] Jochen Renz and Bernhard Nebel. Qualitative spatial reasoning using constraint calculi. In Handbook of spatial logics, pp. 161-215. Springer, 2007. [5] 後藤大希, 西川仁, 徳永健伸. 空間配置課題に向けた iso-space の拡張による向きの表現. 言語処理学会第 22 回年次大会発表論文集, pp. 115-118. The Association for Natural Language Processing., 2016. [6] Eliseo Clementini, Paolino Di Felice, and Daniel Hernández. Qualitative representation of positional information. Artificial intelligence, Vol. 95, No. 2, pp. 317-356, 1997. [7] GÉ Ligozat. Reasoning about cardinal directions. Journal of Visual Languages \& Computing, Vol. 9, No. 1, pp. 23-44, 1998. [8] Christian Freksa. Using orientation information for qualitative spatial reasoning. In Theories and methods of spatio-temporal reasoning in geographic space, pp. 162-178. Springer, 1992. [9] Kai Zimmermann and Christian Freksa. Qualitative spatial reasoning using orientation, distance, and path knowledge. Applied intelligence, Vol. 6, No. 1, pp. 49-58, 1996. [10] Daniel Hernández, Eliseo Clementini, and Paolino Di Felice. Qualitative distances. In Andrew U. Frank and Werner Kuhn, editors, Spatial Information Theory A Theoretical Basis for GIS, pp. 45-57, Berlin, Heidelberg, 1995. Springer Berlin Heidelberg. [11] Amar Isli and Reinhard Moratz. Qualitative spatial representation and reasoning: algebraic models for relative position. Technical report, 1999. [12] David A Randell, Zhan Cui, and Anthony G Cohn. A spatial logic based on regions and connection. In Principles of Knowledge Representation and Reasoning: Proceedings of the 3rd International Conference, pp. 165-176, 1992. [13] James Pustejovsky and Jessica L. Moszkowicz. Integrating motion predicate classes with spatial and temporal annotations. In Coling 2008: Companion volume: Posters, pp. 95-98, Manchester, UK, August 2008. Coling 2008 Organizing Committee. [14] Collin F. Baker, Charles J. Fillmore, and John B. Lowe. The Berkeley FrameNet project. In 36th Annual Meeting of the Association for Computational Linguistics and 17th International Conference on Computational Linguistics, Volume 1, pp. 86-90, Montreal, Quebec, Canada, August 1998. Association for Computational Linguistics. [15] Philippe Muller. A qualitative theory of motion based on spatio-temporal primitives. A.G. Cohn, L. Schubert, and S.C. Shapiro, editors, KR' 98: Principles of Knowledge Representation and Reasoning, pp. 131-141, San Francisco, California, 1998. Morgan Kaufmann. [16] Nicholas Asher and Pierre Sablayrolles. A typology and discourse for motion verbs and spatial PPs in french. Journal of Semantics, Vol. 12, pp. 163-209, 1995. [17] Kai Zimmermann and Christian Freksa. Enhancing spatial reasoning by the concept of motion. Prospects for Artificial Intelligence, pp. 140-147, 1993. 表 1 動作表現における STML, FrameNet, Muller, Asher/Sablayrolles の 10 クラス ([3] より) ## A 今後の方向性 ## A. 1 合成 (composition) 今回は、テキストの情報を空間論理の Double cross model に形式化することを目的とする。適切な生成系言語モデルを用いることで、テキストから直接形式化したものが得られると考える。形式化されたものから、場所・実体の位置情報の曖昧性解消を空間論理を用いて行う必要がある。そのためには Double cross model の合成を行う必要がある。Double cross model の合成は大きく分けて 2 つある [9,8]。1 つは Coarse composition で、2つの double cross model (ab:c)(abに対する c の相対参照)と (bc:d)(bc に対する d の相対参照)から (ab: d)(abに対する d の相対参照)を求めるもので、可能な配置をすべて枚挙するものである。もう 1 つは Fine composition で、同様の操作に距離の情報まで入れて、より狭い範囲で可能な配置候補を枚挙するものである。 ## A. 2 経路情報 (path) 合成により、位置情報の曖昧性解消が可能であることを示した。次に静的な経路情報 (path)を double cross model の系列により示す [17] ことを考える。Double cross model の 14-15 の直列により、静的な経路情報を指定する。経路を辿る移動を伴う動的な経路情報は、Double cross model の系列に対して、次に示す移動表現のクラスを紐づける。 ## A. 3 移動表現 (STML) Pustejovsky [13]により、空間・時間情報付与時に移動表現の述語を分類するフレームワーク (STML: Spatio-Temporal Markup Language) が提案されている。移動表現を 10 クラスに分けるとともに、移動元・移動先の位相情報を RCC8 により表現するフレームワークである。ISO-space 論文 [3] には、STML と FrameNet [14]・Muller 論文 [15]・Asher 論文 [16] との比較が掲載されているので、表 1 に引用して示す。 具体的な位置情報の共有を行うためには、日本語においても RCC8 に紐づいた移動表現の体系化が必要である。 ## A. 4 情報構造 本研究は、対話による位置情報伝達のモデル化を応用として考えている。対話において位置情報が特定できているかどうかを、話し手・聞き手・第三者(アノテータ)の観点から付与必要がある。
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B11-4.pdf
# 位置属性を有しない事物に対する地理的特定性の分析 陰山宗一 ${ }^{1}$ 乾孝司 1 1 筑波大学大学院 システム情報工学研究群情報理工学位プログラム [email protected] [email protected] ## 概要 ある事物に対する言及が文書内に現れた時にその言及が地理的位置を特定する程度をあらわす指標として地理的特定性指標がある [5]。本稿では、地理的特定性指標の利用可能範囲を調査する一環として、地理的特定性指標の構成要素のひとつである名称専有性指標に注目し、地理的位置属性を有しない5つのカテゴリ (列車、特産品、祭り、苗字、植物)に属するエンティティへの言及を対象にして、名称専有性の值の特徴を分析したので、その結果を報告する。 ## 1 はじめに SNS サービスに投稿される文書にはジオタグのような地理的位置を示すメタ情報が付与される場合がある。近年、この位置情報を利用することで投稿文書データから「今どこで何が起きているか」を把握するソーシャルセンシング技術への関心が高まっているが、SNS 投稿への位置メタ情報の付与は縮小傾向にある [1]。このため、位置情報の補完処理として、位置情報付きでない投稿文書の投稿場所(地理的位置)を自動推定する文書ジオロケーションに関する研究が進められている $[2,3,4]$ 。 文書ジオロケーションでは、文書内に現れる地名やランドマークへの言及(例えば、「東京」や「東京タワー」)が、投稿がなされた地理的位置を推定する有力な手がかりになることが多いが、それらの中には地理的な曖昧性を含む場合もあり、文書ジオロケーションの誤り原因となる問題が存在する。例えば、「中華街」を含んでいる投稿は、その投稿がなされた地理的位置を、横浜や神戸などの中華街が所在する場所へ絞り込む手がかりになり得るが、特定の一箇所に絞り込むまでには至らない。この手がかりの地理的曖昧性問題へ対応するため、陰山ら [5] は、文書内に出現する、地名やランドマーク等の地理的位置属性をもつエンティティへの言及に対して、その地理的位置の特定のしやすさを表す指標である地理的特定性指標を提案 し、Wikipedia データの情報に基づいて具体的な指標値を求めた。そして、地理的特定性指標の情報を文書ジオロケーションへ適用することで、その有効性を報告している。しかし、彼らの報告では、地理的特定性指標の文書ジオロケーション以外への活用に関しては議論がなされておらず、その活用可能範囲は未知である。 そこで我々は、狯山らの地理的特定性指標 [5] の活用可能範囲を明らかにすることを目標に研究を進めているが、その一環として現在、各対象に対して推定した指標值がどのような特徴をもつかを分析している。具体的には、文献 [5]では、文書ジオロケーションへの適用を見据えていたため、地理的位置属性をもつエンティティへの言及のみに注目して指標值を推定していたが、本研究では、地理的位置属性をもたないエンティティへの言及に対して指標値を求め、指標値の観察を通して、その特徴分析を試みる。地理的位置属性をもつエンティティの場合、基本的に、地理的位置属性はエンティティの所在地をあらわし、地理的特定性の值へも所在地情報が反映される。しかし、地理的位置属性をもたないエンティティの場合は所在地という概念が無い(あるいはあっても希薄である)ため、地理的特定性の值が何を反映するかは自明ではない。 なお、地理的特定性指標は、地理的曖昧性と名称専有性の対で構成されるが、このうち地理的曖昧性は同一の名称をもつ対象の数を表し、直感的にもわかりやすい。そこで今回は特に名称専有性に注目し、その分析結果を報告する。 ## 2 名称専有性 名称専有性(name exclusivity)は、エンティティと言及との対応関係に関する人々の一般的な認知の度合いに関する指標である。例えば、一般的な文脈において現れた「横浜」という言及は、高知県や福岡県に所在する地域である横浜よりも人々の認知度のより高い地域であると考えられる神奈川県横浜市の事であると認知されやすいだろう。このように、名称が同じエン ティティが複数存在したとしても、それらのエンティティがすべて同程度に認知されるとは限らず、「横浜」 における神奈川県横浜市のように特定のエンティティに偏って認知される場合がある。名称専有性は、このような現象を捉えることを目的とした指標であり、 ある対象が特定のものとして認知される程度をあらわす。 以下では、文献 [5] に従い、言及に対する名称専有性の值の求め方について述べる。この値は、エンティティに対する名称専有性の値から求めるため、まず、エンティティに対する名称専有性の值の推定方法について説明する。なお、以降の説明では、日本語 Wikipedia のエントリページをエンティティ、また、日本語 Wikipedia 内で各エンティティを参照する(アンカーリンクを張る)ために使用されているアンカ文字列をエンティティに対する言及であるとする。 日本語 Wikipedia において、地理的特定性を求めた ての言及からなる言及集合を $M_{e}$ とし、その要素を $m_{i}\left(i=1,2, \ldots,\left|M_{e}\right|\right)$ とする。次に、 $M_{e}$ の要素である各言及に対して、それがリンクしているすべてのエンティティを抽出する。抽出されたエンティティ集合を $P_{e}$ とし、その要素を $p_{j}\left(j=1,2, \ldots\left|P_{e}\right|\right)$ とする。そして、ある言及 $m_{i}$ が、あるエンティティ $p_{j}$ ヘリンクを形成している回数を $l_{p_{j}}^{m_{i}}$ としたとき、このリンク回数がある対象が認知される程度を近似的に表していると考え、エンティティ $p_{t}$ の名称専有性 $\operatorname{exc}\left(p_{t}\right)$ は式 (1) で表されるとする。 $ \operatorname{exc}\left(p_{t}\right)=\frac{\sum_{m \in M_{e}} l_{p_{t}}^{m}}{\sum_{p \in P_{e}} \sum_{m \in M_{e}} l_{p}^{m}} $ ここで、 $0<\operatorname{exc}\left(p_{t}\right) \leq 1$ である。 次に、exc $\left(p_{t}\right)$ を利用して、言及に対する名称専有性の値を求める。文献 [5] では、47 都道府県に分類する文書ジオロケーションへの適用が想定されていたため、言及に対する值は、エンティティのようなスカラー值ではなく、47 次元べクトルである。名称専有性を求めたい言及を $m_{t}$ としたとき、日本語 Wikipedia において、 $m_{t}$ がアンカ文字列となってリンクしているすべてのエンティティを抽出し、その集合を $P_{m}$ とする。この時、Okajima ら [6] の手法に基づき、 $P_{m}$ の各要素となるエンティティ $p_{j}$ に対して、そのページの本文内容に初めて登場する都道府県名の情報をそのページの都道府県要素として記憶する。次に、この都 道府県要素の値に基づいて、 $P_{m}$ を 47 個の部分集合に分割する。ある都道府県 $k$ に対応する $P_{m}$ の部分集合を $P_{m}^{k}$ としたとき、 $P_{m}^{k}$ の要素に従って、都道府県 $k$ に関する、エンティティの名称専有性の最大值 max_exc $(k)$ を求める。 $ \max \_e x c(k)= \begin{cases}\max _{p \in P_{m}^{k}} \operatorname{exc}(p) & P_{m}^{k} \neq \phi \\ 0 & \text { otherwise }\end{cases} $ 最後に、以上で求めた 47 都道府県に対応する max_exc $(k)$ を要素とする 47 次元ベクトルを構成し、 これを言及 $m_{t}$ に対する名称専有性の值とする。 例として、後述の分析作業と同じデータを用いて言及「厳島神社」に対して求めた名称専有性の値を表 1 に示す。日本国内には「厳島神社」という名称をもつエンティティは複数存在するが、広島県廿日市市に所在するものが一般的な認知度がもっとも高いと予想される。表の値は確かに広島県の値が高くなっていることが確認できる。なお、この例でも示されているように、名称専有性の值は形式的には 47 次元を仮定しているが、ベクトル要素の値が 0 となる次元(都道府県)も存在する。 ## 3 名称専有性の分析 ## 3.1 分析対象 本研究では、住所をもたないエンティティを地理的位置属性をもたないエンティティとして、以下のカテゴリに属するエンティティを選択し、それらへの言及に対する名称専有性を分析対象とした。 -【列車】 -【特産品】 ・【祭り】 -【苗字】 $\cdot$【植物】 このうち、【列車】および【特産品】カテゴリのエンティティは、直接的には住所をもたない1) が、出発地や産地として間接的に特定の地域と関連が深いと考えられる。それら関連地域での名称専有性の値がどのような值かをこの後確認していく。つぎに、【祭り】のエンティティは、実施される地域が必ず存在するため、実施地域を地理的位置属性としてもつエンティティであるとも言えるが、ランドマーク「東京タワー」のようなモノ的なエンティティではなくコト的なエンティティであるため、その特徴を観察するために分析対象に含めることにした。【苗字】は、これまで述べたカテゴリに比べてエンティティ数が多いと考えられ、そのような場合の特徴を観察するために含めることにした。最後の【植物】は、これまで述べたカテゴリのエンティティは固有名を持ちやすい特徵があるため、そうでない場合の特徴を観察するために含めた。 ## 3.2 データ 分析のために指標値の推定に用いる Wikipedia デー タは、文献 [5] と同じであり、2021 年 5 月 20 日付の日本語 Wikipedia ダンプデータ2)を用いた。 ## 3.3 分析結果 ## 3.3.1 表記について 求めた名称専有性の値を確認する前に、以降で事例を示す際の表記について説明する。各言及に対する名称専有性を求めた結果、多くの事例で 47 次元のうちの多数の次元で要素の値が 0 となっていた。そこで、以下では要素の值が 0 以外となっている場合のみ記載する。要素の值が 0 以外となる次元が複数存在する場合は、値の降順に並べて示す。各言及事例において、言及の一部に地名を含む場合はその箇所を下線で示す。また、推定結果が誤りと思われる箇所は丸括弧をつけて示す。 前節で述べたように、名称専有性の値は、ベクトルの各要素の最大值が 1 であり、要素和の最大値が 1 ではない。以降の分析結果を読む際は注意されたい。  ## 3.3.2 カテゴリ【列車】 列車のうち、急行列車や特急列車などの列車名をもつエンティティへの言及に対して名称専有性の值を求めた。その結果、走行路線上の地域で名称専有性の値を持ちやすいことが確認できた。走行路線によっては都道府県をまたぐ場合があるため、複数の地域で高い名称専有性を有する可能性があるが、走行路線上の地域を網羅することはなく、網羅性に関しては不十分であることがわかった。なお、網羅性に関しては、以降のどのカテゴリでも同様な傾向であった。 - 踊り子静岡県:1 $\cdot$きたぐに福井県:1 ・ムーンライト信州山梨県:1 - 阿波徳島県:0.974, 岡山県:0.119, (千葉県:0.016) ・うずしお徳島県:0.908, 愛媛県:0.685 ## 3.3.3 カテゴリ【特産品】 ご当地グルメを含む各地域の特産品を対象に名称専有性の値を確認する。地域特産品のうち、名称に地名を冠しているエンティティへの言及では、そのエンティティを生産したり、水揚げする地域が名称専有性の值を持ちやすく、かつ、それらは名称に冠している地名が所在する都道府県と一致することが多かった。「讃岐うどん」は、都道府県の中では香川県で最大値をもっていたが、その値は小さい。この原因を調べたところ、広く普及し知名度が高いと考えられるエンティティは Wikipedia 内での言及回数が多く、それに合わせて言及表現が多様となる場合があり、特に地名 (「讃岐」) や、「うどん」のような当該エンティティの上位概念となるエンティティをあらわす表現で言及されると、それらとの間で指標值が分散されるため、值が低くなりやすいことが確認できた。 ・喜多方ラーメンバーガー 福島県:1 ・水沢うどん群馬県:1 $\cdot$川俣シャモ福島県:1 ・関あじ大分県:1 ・讃岐うどん香川県:0.127 つぎに、名称に地名を冠していないエンティティへの言及では、当然ながら、エンティティの名称には地名を連想させる手がかりが含まれないものの、宮城県仙台市で有名な「牛タン」など、そのエンティティで知られている地域が值を持つことができている。ただし、名称に地名を冠しているエンティティへの言及と は異なり、一般的な名称としての言及(「牛タン」の場合は特産品ではなく食品としての対象)との間で表現の重なりが生じやすいため、名称専有性の値は高くなりにくい特徵がある。 ・牛タン宮城県:0.522 ・スタミナラーメン茨城県:0.833, 埼玉県:0.429 ・玉子焼兵庫県:0.741 ## 3.3.4 カテゴリ【祭り】 祭りは、各地域で実施される行事であるため、その実施地域との関連が深いと考えられる。「さっぽろ雪まつり」や「仙台七夕まつり」といった名称に地名を冠する行事では、先述の地名を冠する地域特産品と同様に、名称に冠している地名に対して高い名称専有性の値を持ちやすいため、ここでは、名称に地名を冠しない場合について確認する。この場合の事例を見ると、それぞれの祭りの実施で有名な地域が名称専有性の値を持ちやすいことが確認できた。「さっぽろ雪まつり」ではなく「雪まつり」のように、実施地域をあらわすであろう地域を冠しないエンティティへの言及を分析対象としているにも関わらず、このような結果が得られた。このことから、名称専有性の観点から言えば、祭りは、ランドマークなどの地理的位置属性を持つエンティティと同様の特㣲をもつカテゴリと見なして良さそうである。 ・雪まつり北海道: 0.879 , 新潟県:0.467 ・ねぶた祭り青森県:0.448 ・だんじり祭り大阪府:0.324 ・よさこい祭り高知県: 0.510 ・七夕まつり愛知県:0.786, 富山県:0.714, 宮城県:0.046 ## 3.3.5 カテゴリ【苗字】 苗字と地域の関連性としては、その苗字の起源となる地域や、その苗字を持つ人の人口が多い地域などが考えられる。各苗字に対する推定値を確認した結果、苗字の起源となる地域で値を持つ傾向があった。一部の苗字では、人口が多い地域と名称専有性の值に相関が見受けられたが、多くの苗字に関してはそのような特徴は見受けられなかった。このカテゴリのエンティティは、「大井」のように、要素が 0 以外の値をもつ次元の数が今回扱った他のカテゴリに比べて多い特徵があった。このカテゴリはエンティティ数が比較的多 く、また、他カテゴリと多様な関係性をもつと考えられ、そのことが結果に影響していると考えられる。 - 河西北海道:1 -川名神奈川県:1 - 米原滋賀県:0.913 $\cdot$芳賀栃木県:0.994 - 磯部山口県:0.671, 群馬県:0.575, 三重県:0.531,茨城県:0.176 -大井東京都: 0.844 , 静岡県:0.536, 三重県: 0.25 , 埼玉県:0.084, 岐阜県:0.0831, 神奈川県:0.0243, 山梨県:0.0153 ## 3.3.6 カテゴリ【植物】 今回、固有名でないエンティティへの言及に対する名称専有性の値を確認するために、その例として植物に注目した。その結果、まず、固有名でない場合でも固有名の場合と同じように名称専有性の値をもつことが確認できた。植物では、群生地をもつ都道府県が值を持ちやすいことがわかった。また、植物の中には、 その果害や、植物から抽出した油などの関連商品を生産でき、それらの生産を目的とした植物栽培が盛んな地域で大きな値を持つ傾向が確認できた。 ・エゾマツ北海道:1 ・サクラソウ北海道:1 ・ヒバ青森県:1 ・ウメ和歌山県:0.939,(鹿児島県:0.086) ・オリーブ香川県:0.914, 三重県:0.24, 東京都:0.085 ## 4 まとめ 本稿では、地理的位置属性を有しないエンティティへの言及を対象にして、地理的特定性指標の構成要素のひとつである名称専有性の値を求め、その特徴を分析した。その結果、今回題材にした 5 つのカテゴリに関して幾つか特徴があることが確認できた。地理的特定性指標の活用可能範囲を明らかにするためには、今後も継続的な分析が必要である。例えば、本稿で示した分析結果は、一部のエンティティに対する限定的な結果であり、規模を広げた詳細かつ定量的な分析を実施する必要がある。また、名称専有性の値は元データである Wikipedeia のページ記述スタイルの影響を受けるが、エンティティのカテゴリごとに影響の度合いを調査する必要がある。 ## 謝辞 本研究の一部は JSPS 科研費 $21 K 12137$ の助成を受 けたものです。 ## 参考文献 [1] Anna Kruspe, Matthias Häberle, Eike J. Hoffmann, Samyo Rode-Hasinger, Karam Abdulahhad, and Xiao Xiang Zhu. Changes in Twitter geolocations: Insights and suggestions for future usage. In Proceedings of the Seventh Workshop on Noisy User-generated Text, pp. 212-221, 2021. [2] Bo Han, Paul Cook, and Timothy Baldwin. Geolocation prediction in social media data by finding location indicative words. In Proceedings of International Conference on Computational Linguistics, pp. 1045-1062, 2012. [3] Lianhua Chi, Kwan Hui Lim, Nebula Alam, and Christopher J Butler. Geolocation prediction in Twitter using location indicative words and textual features. In Proceedings of the 2nd Workshop on Noisy User-generated Text, pp. 227-234, 2016. [4] Jey Han Lau, Lianhua Chi, Khoi-Nguyen Tran, and Trevor Cohn. End-to-end network for Twitter geolocation prediction and hashing. In Proceedings of the Eighth International Joint Conference on Natural Language Processing, pp. 744-753, 2017. [5] 狯山宗一, 乾孝司. 言及に対する地理的特定性指標の提案と文書ジオロケーションへの適用. 情報処理学会自然言語処理研究会 (NL-253-19), 2022. [6] Seiji Okajima and Tomoya Iwakura. Japanese place name disambiguation based on automatically generated training data. In 19th International Conference on Computational Linguistics and Intelligent Text Processing, 2018 .
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B11-5.pdf
# テキスト中の場所表現認識と 係り受けに基づく緯度経度推定ツールの開発 大野けやき 1 西村太一 ${ }^{1}$ 亀甲博貴 2 森信介 ${ }^{2}$ 1 京都大学大学院 情報学研究科 2 京都大学 学術情報メディアセンター \{ohno.keyaki.57r,nishimura.taichi.43x\}@st.kyoto-u.ac.jp \{kameko,forest\}@i.kyoto-u.ac.jp ## 概要 文献中の地名の緯度経度を自動推定することは,文献調査を必要とする研究等の場面において有益である。緯度経度を推定する課題は,地名を認識するステップと認識した地名の緯度経度を推定するステップの 2 段階で実現される.この後段のステップについて,単語間の係り受け構造を利用して推定精度向上を図る手法を提案する。本手法を組み込んだ緯度経度推定ツールを鉱山に関する記事に適用し,係り受け構造を利用することで推定精度が向上することを確認した。 ## 1 はじめに 行政区画や施設を表す言葉は,ある場所を表す表現=場所表現として用いられる. 文献調査を必要とする研究等において,ある場所について記された文献を探したい場面はしばしばある.ところが,場所表現は時間と共に変わることがあり, また,その付近の人々の間だけで使われることも多いため,想定する文献に合わせて適切な場所表現を使い分けたり複数使ったりしなければならない (表現の一意性がない問題). また,ある 2 つ場所表現が示す場所が実世界上でどれほど近いかまたは同じなのかが,一見して分からないため, 対象付近の情報を探しそびれる可能性がある (関連性が不明膫な問題).このような問題を避けるため, 文字の場所表現ではなく緯度経度で場所を取り扱うことは有用であり,テキスト中の場所表現が示す緯度経度を推定する課題は従来より研究されてきた $[1,2,3,4,5]$. この推定課題は,場所表現認識と緯度経度推定の 2 ステップからなる. 前段の場所表現認識は系列ラベリングの一つである. CRF [6] 等の利用により,効率的に機械学習ができるようになった一方,認識精度の向上のためには膨大な学習データが必要である. 後段の緯度経度推定は, 文脈を考慮して場所表現が示す緯度経度を推定する作業であり,曖昧性解消タスクの一つである.具体的には,地名や緯度経度,人口等が収録されている地理辞典から適切なデータを選ぶ方法が一般的である.この方法では曖昧性解消アルゴリズムと地理辞典を分けて開発できるため,地理辞典として有志のデータベースを利用したり,利用者専用のデータベースを利用したりでき,応用の幅が広い.しかしながら,地理辞典に同じ表記の異なる場所が収録されている場合やある場所表現が全く収録されていない場合に精度が落ちてしまう問題がある. 本研究では, 後段の緯度経度推定タスクに着目し,精度向上を目的として単語間の係り受け構造を利用する手法を提案する. 係り受けは言語の構造であり,テキストの内容に依らず存在する。したがって,係り受け構造を利用する手法は,テキストの分野を限定せずに幅広いテキストに利用できる。この普遍性は,ある場所に関するあらゆる文献を集めたい地域研究などにおいて必須の条件である. 本手法を組み込んだ緯度経度推定システムを鉱山に関する英語記事に適用した結果,係り受け構造を利用することで推定精度が向上することが分かった. また,精度向上の要因となった場所表現を調べることにより,テキスト中の場所表現と地理辞典上の表現との間にはそれなりの差があることがあることが示唆された。 ## 2 緯度経度推定ツール ## 2.1 課題設定 本研究が対象とする緯度経度推定ツールは, 式 1 に示すような 2 段階のタスク構成になっており,入 カテキストに緯度経度が挿入されたテキストを出力する. $ \begin{aligned} t^{\prime} & =F_{N E R}(t) \\ t^{\prime \prime} & =F_{N E L}\left(t^{\prime}\right) \end{aligned} $ ただし, $F_{N E R}, F_{N E L}$ はそれぞれ場所表現推定器,緯度経度推定器である. また, $t, t^{\prime}, t^{\prime \prime}$ はそれぞれ入力テキスト,場所表現かどうかのタグ付きテキスト,タグおよび緯度経度付きのテキストである. テキストは一般にまとまった複数文である。下記に具体例を示す。 タグの $\mathrm{L}$ は場所表現を,O はそれ以外の表現を表している。 $t$ : 岩手の清水寺へ行く. $t^{\prime}$ : 岩手/L-B の/O 清水/L-B 寺/L-Iへ $/ O$ 行く/O./O $t^{\prime \prime}$ : 岩手/L-B $(39.60000,141.35000)$ の/O 清水/L-B(39.37035, 141.03056) 寺/L-I(39.37035, 141.03056) $/ \mathrm{O}$ 行く/O . /O ## 2.2 場所表現認識 テキスト中の場所表現認識には,場所表現をアノテーションしたテキストを用いて学習した場所表現推定器を用いた. この推定器は, BERT [7] と CRF [6] と点予測 [8] を組み合わせたものである. 推定器の詳細は付録に示した. Stanford NLP Group の $\mathrm{Stanza}^{1)}$ [9] を用いて入力テキストをトーカナイズし, この推定器で各トークンにIOB2 形式のタグを付与した. すなわち各トークンには下記のいずれかのタグが付与される. L-B :場所表現の最初のトークン $\mathrm{L}-\mathrm{I}:$ :場所表現の 2 つ目以降のトークン $\mathrm{O}:$ 場所表現ではないトークン ## 2.3 緯度経度推定 ベースラインとなる緯度経度推定手法は, 原ら [4] の手法を参考にした。 1. 特別に用意した地名-緯度経度辞典がある場合は,場所表現の文字列と一致するデータがあるか検索し,あればその緯度経度を出力する。 2. 場所表現の文字列を地理辞典 GeoNames ${ }^{2)}$ で検索し, 見出し語 (name) または別名 (alternate names)のいずれかに一致するデータがあった場合,それらの中から下記のスコアが最も高いデータの緯度経度を出力する。  2) https://www.geonames.org/ - 文字列が見出し語の場合: 20 点 + 別名の数 $\times 1$ 点 ・文字列が見出し語ではないが別名に含まれる場合: 別名の数 $\times 1$ 点 このスコアリングは,重要な地名ほどたくさんの別名が収録されているという考えのもと設定した. 3. 場所表現の文字列と一致するデータが無かった場合は,具体的な緯度経度は出力せず,代わりに推定失敗の旨を表す記号を出力する。 ## 3 係り受け構造の利用 本研究では, 上記の緯度経度推定ツールに, 単語間の係り受け構造を利用する手法を 2 つ追加する. これらの手法は,係り受け木構造上で上下関係のある 2 つ場所表現が実世界上で包含または近接した位置関係にあり,木構造のより頂点に近い場所表現の方が詳細な情報を有している (実世界上でより)狭い領域を表している) という仮定に基づいている. 3.2 節では地理辞典上の複数候補から適切なデータを選択する工夫を, 3.3 節では地理辞典上にデータが収録されていない場合の改善策を述べる. ## 3.1 Universal Dependencies テキスト中の単語間の係り受けを表すものとして, 本研究では Universal Dependencies ${ }^{3}$ (以下,UD) を用いる。UDは,特定の言語に依存することなく普遍的な係り受け構造を表そうとする取り組みであり, 100 以上の言語に対応している。緯度経度推定ツールは,利用者が詳しくない言語圈のテキストに対しても用いられうることを考え,幅広い言語に対応している UDに着目した. UD 解析ツールとして, Stanza [9]を用いた. ## 3.2 文構造の利用 文の係り受け構造から,ある単語と意味的に関連の強い単語を推測することができる.例えば,「岩手の清水寺から京都の清水寺へ行く.」という文を考えると,1つ目の清水寺は岩手と関係していて, 2 つ目と清水寺は京都と関係している。この関係は UDにも表れ,例ではそれぞれの清水寺から岩手や京都に係っている (図 1). 場所表現間の係り受けの場合,たいていは狭い領域を表す場所表現からそれを補足説明する知名度の高い場所表現に向かって係  り受け構造が存在する. 図1文の係り受け構造 ツールへの実装として,以下の手順をべースライン手法に追加した. まず,ベースラインの手順に先立ち,入力文に対する係り受け木構造を推定し,それぞれの場所表現に対して自身より下層に別の場所表現が存在するか確認しておく,存在すればその別の場所表現を,自身が参照すべき参照表現として設定する。その後,ベースラインの手順に沿って緯度経度推定を行うが,以下の点が異なる. 1. 参照表現が設定さている場合には,その参照表現の緯度経度推定を先に行う 2. その参照表現に対して具体的な緯度経度が推定できた場合には,ベースライン手法のスコアリングに関わらす,参照表現の推定緯度経度に最も近い緯度経度の候補を出力する 例えば図 1 の例では, 清水寺の緯度経度推定に先立って岩手や京都の緯度経度推定を行い,それらに近い清水寺の緯度経度を出力する。 ## 3.3 表現構造の利用 複数単語からなる一つの場所表現についても,その構造を考えることができる。例えば「京都三条」 という場所表現は,京都と三条という 2 つの地名からなり,かつ,三条の場所を示す表現である。このような複合場所表現は,そのままの文字列で地理辞典に収録されていな場合が多いため,この例であれば「京都三条」を「三条」と読み換えて地理辞典を検索する必要がある.この様な構造解析を行う際,対象言語を限定しないためには,文字列の表面的な構造ではなく意味的な構造に着目するのが望ましい. 複合場所表現においても,表現内に登場する地名間にそれらが示す領域の包含・近接関係が存在し, 前節と同様の係り受け構造が存在する (図 2). よって,ある場所表現内の係り受け構造の頂点となる単語は,その場所表現の核になる (最も狭い領域を表す地名) 単語だと推測できる. $ \text { 京都三条 } $ 図 2 表現内の係り受け構造 ツールへの実装として,以下の手順をベースライン手法に追加した. 複数トークンからなる場所表現が地理辞典に収録されていなかった場合,そのトー クン数より 1 少ない部分トークン列で再度ベースラインの手法により緯度経度推定を行う.この際,必然的に複数の部分トークン列で辞書引きを行うことになるが,複数で地理辞典のデータにヒットした場合は,その中から下記で求めるスコアの大きい部分トークン列に対する辞書引き結果を優先して出力を選択する。 1. 元の場所表現に対する係り受け木構造を考え,各要素 (トークン)に対して子孫要素が何層あるかスコアを付ける 2. その部分トークン列に含まれるトークンの上記スコアを合算する (図 3) いずれの部分トークン列でも地理辞典のデータがヒットしなければ,さらにこの手順を繰り返す。 図 3 部分トークン列のスコアリング ## 4 実験 提案手法を組み込んだ緯度経度推定ツールを鉱山に関する英語記事に適用し評価を行った。評価対象は 2 つで,場所表現アノテーション済みテキストに対する緯度経度推定と,何もアノテーションされていないテキストに対する場所表現認識 + 緯度経度推定の全自動タスクである. ## 4.1 コーパス 評価には鉱山に関する専門記事を用いた. 2.2 節で述べた場所表現推定器の学習には, 同様の専門記事に加え,データ不足を補うために一般ニュース記事も用いた (表 1). AFP 通信と MINING.COM の記事は人手でアノテーションを行い,ロイター通信の記事は CoNLL2003 [10] から LOC タグが付与されているトークンを含む文を抽出して用いた。 ## 4.2 評価指標 緯度経度推定については,推定した緯度経度と正解緯度経度の誤差が $X \mathrm{~km}$ 以内に収まっている場所表現を合格とし,全場所表現中の何件が合格したか 表 1 コーパスの場所表現数 (のべ/重複なし) を表す “ $X \mathrm{~km}$ 正確度”を用いた. 全自動タスクについては,上記と同様に合格をもって推定值が正解値と一致したとみなし,精度,再現率, $\mathrm{F}_{1}$ 值を用いて評価した.これらの計算式は付録に示した。 ## 4.3 結果 場所表現アノテーション済みテキストに対する緯度経度推定精度を図 4 および表 2 に示す. 図の横軸は,左側は線形で右側は対数軸になっている。係り受け構造を利用する手法 (提案手法) はベースラインと比べて精度が向上し, 例えば $5 \mathrm{~km}$ 正確度が 0.11 向上した. 図 4 緯度経度推定タスクの精度 表 2 緯度経度推定タスクの精度 場所表現認識 + 緯度経度推定の全自動タスクの精度 $(5 \mathrm{~km}$ 合格)を表 3 に示した. 提案手法は,わずかながらいずれの指標でもべースラインを上回った. ## 5 考察 文構造の利用と表現構造の利用のうち,推定精度の向上はほぼ後者の寄与であった. これは 2 つの手法がもたらす効果の違いに関係していると考えられる.まず,文構造の利用が効果を発揮するのは,同 表 3 全自動タスクの精度 (誤差 $5 \mathrm{~km}$ 以内を合格) じ文字列で異なる場所を示しているいわゆる曖昧地名に対してである.例えば実験では,アリゾナ州のエイボンデールとペンシルベニア州のエイボンデー ルの区別に効果があった。しかしながら,そもそも地理辞典に 0 または 1 件しかデータが収録されていないような場所表現に対しては効果がない. 一方,表現構造の利用が効果を発揮するのは,場所表現のそのままの文字列が地理辞典に収録されていない場面である。例えば実験では「New Castle County, Del」 といった州,群,市などが併記された複合場所表現に対して効果を発揮していた。文構造の利用が効果を発揮する曖昧地名と表現構造の利用が効果を発揮する複合場所表現の出現頻度を考えると,後者の方が多いため,今回の実験では表現構造の利用による効果が比較的大きかったと考えられる。 また同時に,後者の頻度が多いということは,地理辞典に収録されていない場所表現が多いということを意味している。このことは,地理辞典を利用する緯度経度推定に限界があることを示唆しており,地理辞典への依存度が小さい手法が実用上望ましいと考えられる。 ## 6 終わりに 本研究では,テキスト中の場所表現に対する緯度経度推定タスクにおいて,単語間の係り受け構造を利用することでより尤もらしい緯度経度を推定する手法を提案し,その手法を組み込んだ緯度経度推定ツールを開発した。実験により,提案手法は緯度経度推定精度を向上させることを確認した. 今後は,地理辞典に収録されていない場所も出力できるように,提案手法に加えて地理辞典を用いない方法も融合したような緯度経度推定手法を検討する。 ## 7 謝辞 本研究は JSPS 科研費 JP21H04376 の助成を受けたものです. ## 参考文献 [1] Michael Speriosu and Jason Baldridge. Text-driven toponym resolution using indirect supervision. In Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics, 2013. [2] Takashi Awamura, Daisuke Kawahara, Eiji Aramaki, Tomohide Shibata, and Sadao Kurohashi. Location name disambiguation exploiting spatial proximity and temporal consistency. In Proceedings of the 3rd International Workshop on Natural Language Processing for Social Media, 2015. [3] Davy Weissenbacher, Arjun Magge, Karen O'Connor, Matthew Scotch, and Graciela Gonzalez-Hernandez. SemEval-2019 task 12: Toponym resolution in scientific papers. In Proceedings of the 13th International Workshop on Semantic Evaluation, 2019. [4] Shoichiro Hara, Akira Kubo, Masato Matsuzaki, Hirotaka Kameko, and Shinsuke Mori. Development of methods to extract place names and estimate their places from web newspaper articles. In Pacific Neighborhood Consortium Annual Conference and Joint Meetings, 2021. [5] Maithrreye Srinivasan and Davood Rafiei. Location-aware named entity disambiguation. In Proceedings of the 30th ACM International Conference on Information \& Knowledge Management, 2021 [6] John Lafferty, Andrew McCallum, and Fernando CN Pereira. Conditional random fields: Probabilistic models for segmenting and labeling sequence data. In Proceedings of the 18th International Conference on Machine Learning, 2001 [7] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, 2019. [8] Tetsuro Sasada, Shinsuke Mori, Tatsuya Kawahara, and Yoko Yamakata. Named entity recognizer trainable from partially annotated data. In Proceedings of the 14th International Conference of the Pacific Association for Computational Linguistics, 2016. [9] Peng Qi, Yuhao Zhang, Yuhui Zhang, Jason Bolton, and Christopher D. Manning. Stanza: A Python natural language processing toolkit for many human languages. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics: System Demonstrations, 2020. [10] Erik F. Tjong Kim Sang and Fien De Meulder. Introduction to the CoNLL-2003 shared task: Language-independent named entity recognition. In Proceedings of the 7th Conference on Natural Language Learning at HLTNAACL, 2003. ## A 付録 (Appendix) ## A. 1 場所表現推定器 場所表現認識に用いた推定器は,図 5 に示すような構造になっており, 下記の手順で場所表現タグを推定する. 図 5 場所表現推定器 1. BERT モデルを用いて,トークン列の各トークン $(w)$ を 768 次元のベクトルに埋め込む. 学習の際は,テキストのまとまりに関係なく文毎に入力する.推定の際は,段落毎に入力する。 $\left[v_{1}^{B}, \ldots, v_{n}^{B}\right]=\operatorname{BERT}\left(\left[w_{1}, \ldots, w_{n}\right]\right)$ 2. あるトークンが場所表現か否か,すなわちタグとして L-B,L-Iがそれぞれありうるかを記したタグ辞書に従い,上記べクトルに 32 次元増結する。例えば,三条が L-B としても L-I としてもありうると記されていた場合には,L-B タグに対応する 32 次元のベクトルと L-I タグに対応する 32 次元のべクトルの和を (1) に増結する. タグ辞書に登録されていないトークンの場合,もしくは $\mathrm{O}$ タグとして登録されていた場合,このベクトルは零ベクトルである. $v_{i}^{D}=\operatorname{dictionary}\left(w_{i}\right)$ 3. $\mathrm{CRF}$ モデルを用いて,この 800 次元のベクトル列からタグ列を推定する。学習の際は,CRF モデルおよびその下層の BERT モデル,辞書層を学習する。この際, $\mathrm{CRF}$ 損失関数とその中の観測素性部分だけの損失関数を合わせた損失関数を最小化するように学習する。これは,テキストの一部 (特に場所表現) だけをアノテーションした学習データも利用できるようにするためで ある. Loss $=$ Loss $^{C R F}+$ Loss $^{\text {Pointwise }}$ BERT モデルは Hugging Face により提供されている事前学習済みモデル bert-base-uncased ${ }^{4}$ を用いた. ## A. 2 評価指標の計算式 推定緯度経度と正解緯度経度の誤差が $X \mathrm{~km}$ 以内に収まっている場所表現を合格として $ \begin{aligned} X \mathrm{~km} \text { 正確度 } & =\frac{\text { 誤差 } X \mathrm{~km} \text { 以内の空間表現数 }}{\text { アノテーション空間表現数 }} \\ \text { 精度 } & =\frac{\text { 合格の空間表現数 }}{\text { ツールが認識した空間表現数 }} \\ \text { 再現率 } & =\frac{\text { 合格の空間表現数 }}{\text { 評価データ中の空間表現数 }} \\ \mathrm{F}_{1} \text { 値 } & =\left[\frac{(\text { 精度 })^{-1}+(\text { 再現率 })^{-1}}{2}\right]^{-1} \end{aligned} $ ## A. 3 対象とした場所表現 場所表現の基準は原らの基準 [4] を参考にした. この基準では場所表現を,大きく2つに分類している.それは,「京都」や「市役所」といったそれ自体がある絶対的な場所を示している表現 (以下,絶対表現)と,「〜の $10 \mathrm{~km}$ 東」といった絶対表現が示す場所を参照して別の場所を示している表現 (以下,相対表現)である.絶対表現はさらに,「京都」のような固有名詞と「市役所」のような一般名詞に分けられる。絶対表現が示す場所は文脈によって決定されるべき曖昧性を含んでいる場合もあるが,高々有限個の絶対位置を示しているという点で相対表現とは区別される。一方相対表現は,「(欧州から見た)極東」といったように絶対表現が省略される場合もあるが,ほとんどは絶対表現に付随して用いられ,絶対表現が示す場所をずらす機能がある. 本研究の緯度経度推定ツールでは,場所表現の内,絶対表現に着目し自動認識を行った.これは原らの基準において,Lタグで表される表現である.特に,固有名詞の絶対表現のみを取り扱うことにした.これは,一般名詞の絶対表現が用いられる場合は,そのテキスト内で既に固有名詞により同じ場所が記述されている場合がほとんどであるため,固有名詞の絶対表現さえ把握すれば,テキスト中の絶対表現が示す場所をほぼ全て把握できるからである。 
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B12-1.pdf
# 地球の歩き方旅行記データセット 大内啓樹 ${ }^{1,4, *}$ 進藤裕之 ${ }^{1}$ 若宮翔子 ${ }^{1}$ 松田裕貴 ${ }^{1}$ 井之上直也 ${ }^{2}$ 東山翔平 ${ }^{3,1}$ 中村哲 ${ }^{1}$ 渡辺太郎 ${ }^{1}$ 1 奈良先端科学技術大学院大学 2 北陸先端科学技術大学院大学 3 情報通信研究機構 4 理化学研究所 *責任著者:[email protected] \{shindo, wakamiya, yukimat, s-nakamura, taro\}@is.naist.jp [email protected] [email protected] ## 概要 「地球の歩き方旅行記データセット」を構築し,学術研究用に無償提供を開始した. 本データセットは日本語テキストデータであり,4,500 の国内旅行記と 9,500 の海外旅行記から構成され,全体で 3,100 万単語を超える規模である.これまでは,研究目的で共同利用可能な旅行記データがほとんどなく,各研究者が自前でデータを用意するしかなかった. 本データセットの提供によって, 公平な手法の比較をはじめとするオープンサイエンスの進展および一層の学術研究の発展が期待できる. 本稿では, 本デー タセットの学術的意義, 特徴, 今後の展望を述べる. ## 1 はじめに 人間と「場所」の関係性に注目が集まっている。 コロナ禍において,ある場所の混雑度 (人間の集中) や場所間での往来(人間の移動)に関する情報は,政府・地域自治体・個人といった粒度を問わず,行動の促進/抑制の意思決定に極めて重要である。こうした背景から我々は,人間の行動を「場所」という観点から分析するための方法論を探求している。特に「テキスト」を分析対象データとし,計算機によって,登場人物の行動の舞台背景となる「場所」 を読み取り,実世界の地図上淁地することを目指している。その第一歩であり, システムの開発および評価の基盤として,「地球の歩き方旅行記データセット (Arukikata Travelogue Dataset)」[1]を構築した. 本データセットは, 学術研究機関が研究目的で使用するために,株式会社地球の歩き方が提供元となり, 国立情報学研究所情報学研究データリポジトリ(IDR)より無料配布されている11). 1) https://www.nii.ac.jp/dsc/idr/arukikata/ なぜ「テキスト」を用いるのか? 人間の位置を把握するだけなら,スマートフォンなどのモバイル端末に搭載された GPS 機能を利用することによって可能である. しかし GPS データから,人間と場所の相互関係を把握することは難しい.例えば,その場所における人間の行為, その場所に対する価値付与,その場所から受ける印象や感覚である. こうした情報は,特に地理学や文化人類学において,人間活動のダイナミクスと環境条件を分析するための情報として極めて重要な役割を担う。この種の情報を含む代表的な資源がテキストである.テキストをうまく構造化し,整理することによって,こうした価値ある情報を引き出せる可能性がある. 以上の理由から,テキストデータを対象として採用した. なぜ「旅行記」を用いるのか?旅行記を解析対象とする従来研究では,「観光客」や「観光地」,およびそれらの関係という視座から研究の意義を捉え,研究目的を設定することが多い $[2,3,4]$. 一方で我々は,それより一段抽象度の高い視座から意義を捉えている.つまり,「人間」と「場所」という実世界の基礎的な構成要素がどのように関わり合っているのか,その関わりはどのようにテキストに描かれるのかという視座である。そのような内容を含む典型的なテキスト (ジャンル) が「旅行記」である.同種の内容が,「小説」「新聞記事」「SNS 投稿」に含まれる場合も少なくない,将来的には,より多様なテキストを対象とすることを見据えつつ,その出発点として「旅行記」を題材に設定した. 本データセットの学術的意義これまでも旅行記は,テキストマイニングの分析対象テキストとして頻繁に用いられてきた. 特に観光情報学分野において,旅行記は各場所・施設の評判分析および種々の情報抽出の題材として用いられてきた [5]. しかし 表 1 旅行記の例. 会津若松へ向かう磐越西線の接続を考慮して選んだやまびこ 203 号は E5 系での運転でした。何度も乗っているE2 系よりも座席が広く感じ、快適な移動でした。 会津若松駅から快速あいづ 4 号に乗車し、郡山へ向かいました。 会津若松は晴れ間がありましたが、山を上るにつれて雲が増えて行き、途中から雨が降り出しました。关気予報通りでしたが、今回の旅行は暖かい 2 日間で移動時間を除いて雨に降られることがなかったのはラッキーでした。 表 2 旅スケジュールの例。 & & \\ ながら,それぞれの研究者がウェブ上の旅行記投稿サイトなどから独自に取得した旅行記データを用いることが多く2),研究の再現や実験結果の公平な比較分析が困難であった.本旅行記データセットを一定条件下での利用機会についてオープン化することによって,大須賀ら [6] が指摘するように,大学等の研究者が実社会のデータや実用性の高いデータを使用できるだけでなく, 使用したデータセットが特定可能となることにより, 研究の透明性・再現性が担保され,他の研究との比較も格段に容易となる. ひいてはオープンサイエンスを進展させ,研究の知見の蓄積が加速することで, 一層の学術研究の発展が期待されるため, 将来にわたって学術的意義は大きいと考えられる。 ## 2 本データセットの構成と特徵 本データセットは,2007 年 11 月から 2022 年 2 月までの期間に,株式会社地球の歩き方が運営するサイト ${ }^{3)}$ 上の旅行記投稿サービズ) に投稿された情報に基づいている。具体的には,ユーザが書き記した 「旅行記」とその旅程を記した「旅スケジュール(旅スケ)」から構成される。旅行記として,国内旅行記に加え,海外旅行記も含まれる。  ## 2.1 国内・海外旅行記 表 1 は旅行記の実例を示している。一般的に旅行記は,著者(ユーザ)の視点から書かれた一人称視点の文章である.読者は著者の視点を借りて,著者の辿った旅路やその過程で見た景色などを疑似体験することができる。旅行記の各記事はある程度まとまった分量であるため,著者の行動の系列,場面展開,共参照関係をはじめとする文間・段落間にまたがる談話的要素も多い.その点は,ツイッターの投稿を代表とする SNS の短い文章とは異なる特徴と言える。典型的な記述内容として,人間(著者)の 1 日の(旅行)行動が描かれており,行動の時系列的な分析にも適したテキストであると言える.その他にも,場所や風景の描写,各場所や全旅程についての感想をはじめ多彩な内容が含まれるため, 種々の応用へつながる可能性がある。 ## 2.2 旅スケジュール 表 2 は旅スケの実例を示している. 主な構成要素のひとつは,著者が滞在した「場所」である.例えば,表 2 中の「自宅」「最寄駅」「庄助の宿瀧の湯」などが場所に該当する。旅スケの入力は任意であり,本文中に記載のある「場所」が旅スケにも記載されているとは限らない。逆に,旅スケに記載されている「場所」でも本文中には記載がない場合もある. もうひとつの主な構成要素は,著者が各場所に滞在した「時間帯」である.例えば,表 2 中の $「 05: 40$ - 05:50」「05:50-05:53」などが時間帯に該当する。時間帯に関する情報は,著者が自由に記述できるため,「朝」や「夕刻」といった粗い粒度のものもある. 以上の情報を踏まえると,人間の 1 日の行動を「場所」に加え「時間」の観点から分析するためにも本データセットは利用可能である. ## 2.3 データの記述統計 前述したように,本データセットの旅行記は「国内旅行記」と「海外旅行記」に分けられ,さらに「旅 表 3 本データセットの記述統計. スケ付き」のものと「旅スケなし」のものに分けられる. 日本語自然言語処理オープンソースライブラリ GiNZA ${ }^{5}$ で各記事を解析し,単語分割および固有表現抽出を行なった. 解析した全ファイルについての記事数, 段落数, 文字数, 単語数6), 固有表現数,地名・施設名数7)を表 3 に記載する。「*/記事」 は 1 記事あたりの平均値を表す. 例えば,「段落数/記事 $=24.2 」$ は 1 記事あたりの段落数が平均で 24.2 となることを表す。本データセットの特徴として,各記事の平均文字数が 2,000 文字を超え,まとまった分量であることがわかる. また,概算で 30 個以上の地名・施設名が各記事に出現していることもわかる. この点から,本データセットには多くの「場所」が含まれ,「場所」に関する分析をする上で望ましい性質を持つと言える。 ## 2.4 国内旅行記のカバーする都道府県 図 1 に,各都道府県へ言及している国内旅行記記事数の分布を示す ${ }^{8)}$. ひとつの特徴は,すべての都道府県がカバーされている点である.そのため,各都道府県の旅行行動の傾向分析も可能である.これ 5) ja_ginza_electraバージョン 5.1 .2 を使用. 詳しくは次のページを参照: https://github.com/megagonlabs/ginza. 6)単語数は「単語の定義(単語分割基準)」に依存して変わる. 本データセットでは GiNZA の単語分割モード C(長単位)を使用して単語分割し,その結果をカウントした。 7) GiNZA で抽出した固有表現の中でも,地名・施設名に該当する LOC,GPE,FAC のいずれかと認識されたものをカウントした. 8) 著者(ユーザ)の自己申告のため,概算として考えた方がいい点に注意. また,記事によっては複数の都道府県へ言及しているため,国内旅行記全記事数 4,672 よりも都道府県への言及記事数の方が多くなる点にも注意. 図1 各都道府県へ言及している国内旅行記記事数の分布. は,旅行先として「東京」が最も多く選ばれることを必ずしも意味しない。旅行記には,目当ての旅行先に行くまでの過程を含むものも多い. そのため,旅行の出発地点としての「東京」,および,旅行先への中継地点としての「東京」が記述されることも多く,それらを総合した結果として「東京」が最も多い結果となっている. 表 4 は,各都道府県に言及している記事数のランキングである。「東京」に関する記事は 1,206 記事で最も多い。一方で,最も少ないのが「福井」の 29 記事である. 表 4 都道府県のランキング. 各都道府県に言及している記事数と国内旅行記全記事 $(4,762)$ における割合を表示. 表 5 国・地域のランキング,各国・地域に言及している記事数と海外旅行記全記事(9,607)における割合を表示. ## 2.5 海外旅行記のカバーする国・地域 海外旅行記は,世界 150 以上の国と地域をカバー している。そのため, 各国・地域への旅行行動の傾向分析なども可能である. 表 5 は,各国・地域に言及している記事数のランキングである。国内旅行記とは異なり,突出して記事数の多い国・地域はない点が特徴である。また,上位の国・地域は,日本政府観光局による「日本人旅行者の国別訪問者数 9 )」 と概ね一致する傾向が見られる。 ## 3 関連研究 学術目的で利用可能な現代語旅行記データセットは非常に少ない,数少ない例外である現代語旅行記データセットを表 6 に示す. Diachronic News and Travel コーパス ${ }^{10)}$ [7] は,2つの時代区分(1862-1939 と 1998-2017)の 3 つの分野(ニュース,旅行報告,旅行ガイド)の英語テキストを収録している。そのうち,表 6 には「現代(1998-2017)」の「旅行報告」 のテキストの情報を記載している。 The SpaceBank 9) https://www.jnto.go.jp/jpn/statistics/20220610_4.pdf 10) https://github.com/tommasoc80/DNT.表 6 既存の旅行記データセット. Corpus ${ }^{11}$ [8] は空間情報をタグ付けしたコーパスであり,SemEval-2015 Task 8 [9] でも利用された。表 6 には,旅行ブログ「Ride for Climate」のエントリから構築したサブセットの情報を記載している。KNB コーパス ${ }^{12}$ ) [10] は,4 つの分野 (「京都観光」「携帯電話」「スポーツ」「グルメ」)の日本語テキストから構成される. 形態素, 係り受け,格・省略・照応,固有表現などの言語情報がアノテーションされている. 表 6 では,「京都観光」分野のテキストの情報を記載している。これらのデータセットは人手アノテーションを含むため, 単純に我々のデータセットと「量」の観点で比較できない,将来的には我々のデータセットにも多彩なアノテーションを施し,より広範な応用へつなげていく予定である. ## 4 おわりに 「地球の歩き方旅行記データセット」について, 学術的意義と特徴を中心に述べてきた. 本節ではこれからの展望を述べる. 本データセットの生テキストに有用な情報を付与していく予定である。特に,(1)場所に関する言語表現の情報と (2) 人間と場所の相互作用に関わる情報が挙げられる。(1)に関しては,地名や施設名などの固有表現だけでなく,「この店」「レストラン」などの一般名詞句も含め, 場所に関する言語表現を総合的にカバーする予定である。また実世界との接続を見据え,地図座標や地理データベースとの紐付けも視野に入れている。(2)に関しては,その場所における人間の「行動」「思考」「感情」に関する情報を付与する予定である. それらの情報を場所の情報と併せて抽出できるようなツー ルを開発して各種応用につなげる. 直接的な応用として,旅行者の移動行動分析,観光地のトレンド分析,穴場の観光スポットの発掘,旅行計画・推薦への利活用が考えられる. 以上のように,多様な展開が考えられる. 我々のみならず,幅広い分野の研究者に本データセットを利用していただき,独創的な研究開発を進めていただけたら幸いである.  ## 謝辞 本研究は JSPS 科研費 JP22H03648,JST さきがけ JPMJPR2039 の助成を受けたものです. また,デー タセットの構築・提供にあたり,株式会社地球の歩き方の上原康仁氏と国立情報学研究所の大須賀智子氏,大山敬三氏から多大なご協力をいただいたことを深謝します。 ## 参考文献 [1] 株式会社地球の歩き方. 地球の歩き方旅行記データセット, 2022. 国立情報学研究所情報学研究データリポジトリ. (データセット). https://doi.org/10.32130/idr.18.1. [2] Qiang Hao, Rui Cai, Xin-Jing Wang, Jiang-Ming Yang, Yanwei Pang, and Lei Zhang. Generating Location Overviews with Images and Tags by Mining UserGenerated Travelogues. In Proceedings of the 17th ACM International Conference on Multimedia, pp. 801-804. Association for Computing Machinery, 2009. [3] Qiang Hao, Rui Cai, Changhu Wang, Rong Xiao, JiangMing Yang, Yanwei Pang, and Lei Zhang. Equip Tourists with Knowledge Mined from Travelogues. In Proceedings of the 19th International Conference on World Wide Web, pp. 401-410. Association for Computing Machinery, 2010. [4] Yanwei Pang, Qiang Hao, Yuan Yuan, Tanji Hu, Rui Cai, and Lei Zhang. Summarizing Tourist Destinations by Mining User-Generated Travelogues and Photos. Computer Vision and Image Understanding, Vol. 115, No. 3, pp. 352-363, 2011. [5] Gary Akehurst. User generated content: the use of blogs for tourism organisations and tourism consumers. Service Business, Vol. 3, No. 1, pp. 51-61, 2009. [6] 大須賀智子, 大山敬三. 情報学研究データリポジトリIDRにおける研究用データセット共同利用の取り組み. 情報処理学会論文誌デジタルプラクティス (DP) , Vol. 2, No. 2, pp. 47-56, apr 2021. [7] Tommaso Caselli and Rachele Sprugnoli. DNT: un Corpus Diacronico e Multigenere di Testi in Lingua Inglese. In AIUCD2021 - Book of Abstracts, Quaderni di Umanistica Digitale., 2021. [8] James Pustejovsky and Zachary Yocum. Capturing Motion in ISO-SpaceBank. In Proceedings of the 9th Joint ISO-ACL SIGSEM Workshop on Interoperable Semantic Annotation, pp. 25-34, 2013. [9] James Pustejovsky, Parisa Kordjamshidi, Marie-Francine Moens, Aaron Levine, Seth Dworman, and Zachary Yocum. SemEval-2015 Task 8: SpaceEval. In Proceedings of the 9th International Workshop on Semantic Evaluation (SemEval 2015), pp. 884-894, 2015. [10] 橋本力, 黒橋禎夫, 河原大輔, 新里圭司, 永田昌明. 構文・照応・評価情報つきブログコーパスの構築. 自然言語処理, Vol. 18, No. 3, pp. 175-201, 2011.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B12-2.pdf
# 旅行記中の場所に対する訪問状態の予測 大友寛之 ${ }^{1}$ 東山翔平 ${ }^{2,1}$ 大内啓樹 1,3 山本和太郎 ${ }^{1}$ 井手佑翼 1 進藤裕之 ${ }^{1}$ 渡辺太郎 ${ }^{1}$ 1 奈良先端科学技術大学院大学 2 情報通信研究機構 ${ }^{3}$ 理化学研究所 \{otomo.hiroyuki.ob7, hiroki.ouchi, yamamoto. aitaro.xv6\}@is.naist.jp \{ide.yusuke.ja6, shindo, taro\}@is.naist.jp, [email protected] ## 概要 本研究では,文章中の「場所」纪書き手が訪れたかどうかを推定する問題に取り組んだ.まず,旅行記に訪問状態のアノテーションを行い,小規模なデータセットを構築した. 複数人でアノテーションを行った結果,作業者間で高い一致率が確認された.さらに,構築したデータセットを用いて訪問状態を予測するモデルを構築し,その性能を評価した. 分析の結果, モデルは訪問状態の手がかりとなるトークンに注意を向けていることがわかった。 ## 1 はじめに 人がある場所を訪れ,その場所での経験を経った文章がウェブ上に蓄積されている。こうした情報を整理することによって多様な応用への道が拓ける。例えば,観光地を実際に訪れた観光客の感想を自動で整理できれば,観光地推薦や旅行計画支援への応用が期待できる. そこで本研究では,人が訪れた場所の情報を文章から抽出する問題に取り組む.特に,書き手の行動を正確に読み解き,場所に対する訪問状態(訪れた,訪れていない,訪れる予定,など)を判定すること亿焦点を当てる。例えば「近鉄奈良駅敃到着!」という実体験に関する記述があった場合,書き手は 「近鉄奈良駅」を実際に訪れたと判断できる。一方, $「 \mathrm{JR}$ 奈良駅は近鉄奈良駅から少し離れたところにあります」のような記述の場合,書き手がこれらの場所を訪れたことを必ずしも意味しない。 人が訪れた場所の情報は,GPS データを活用することでも取得できる。しかし文章には,場所を訪れた状況や目的,感想など,GPSでは取得困難な情報も含まれる. 将来的には,こうした情報も同時に取得することを見据え,文章を解析対象とする。 まず,訪問状態予測モデルの学習・評価のため, 図 1 アノテーションの概略図 場所を参照する表現(場所参照表現)に対する訪問状態のアノテーション方針を策定し, 複数の作業者でアノテーションを行った. 作業者間一致率は F1 値 0.8 前後と比較的高い值となった. 次纪,そのアノテーションを用いて,訪問状態予測モデルの構築・評価を行った. モデルの予測精度は $\mathrm{F} 1$ 値 0.6 程度であり,作業者の一致率を考えると改善の余地があることが示唆された. より詳しい分析として,モデルが訪問状態を予測する際に,入力文中のどのようなトークンに注意を向けているか調查した. その結果,例えば「到着」のように,訪問に関連するトークンに注意を向けており,人間の直感的な判断と類似する可能性が示唆された。 ## 2 旅行記データセットの構築 ## 2.1 アノテーションの概要 本研究では, 国内外の実際の旅行についての旅行記である「地球の歩き方旅行記データセット」 $[1,2]$ の一部の国内旅行記記事に対して, 図 1 亿示すよう亿, 場所参照表現の同定 (図中の楛囲み文字),場所参照表現の言及間の共参照関係の付与(矢印),訪問状態のラベル付与(赤・橙色文字)を行った. 表 1 場所参照表現の言及に対する訪問状態の種類 \\ 場所参照表現・共参照関係訪問状態のラベルを付与する前に,文章に出現する場所参照表現のスパンを同定した. 場所参照表現として認定する対象は,「近鉄奈良駅」のような固有名詞に加え,「駅」のような一般名詞も含む. また,場所参照表現の言及間に対して共参照関係の情報の付与を行った。これにより,訪問状態予測の評価において,言及単位だけではなく,共参照関係にある言及のクラスタ(以下,共参照クラスタ)単位での評価が可能となる. 訪問状態訪問状態のアノテーションは,場所参照表現の言及単位と共参照クラスタ単位の二通りのパターンで行った. 共参照クラスタ単位の訪問状態は,文章の書き手が最終的にその場所を訪問したかどうかに対応する.言及単位の訪問状態は,該当する言及の時点で書き手がその場所を訪問していたかどうかに対応し, 共参照クラスタの訪問状態の根拠にもなり得る. 例えば,「久々の近鉄奈良駅です。」のような言及を根拠として,書き手が「近鉄奈良駅」に訪れたという判断が成立し得る. 表 1 に,言及に対する訪問状態の種類を示す. 各ラベルの事例は付録 A に記載する. 各言及に対してアノテーションする際は,言及が出現する文内情報を基にラベルを付与する方針を設けた。なお,「訪れた」のような述語に対してではなく,「近鉄奈良駅」のような名詞句に対して訪問状態のラベルを付与した理由は,「近鉄奈良駅へ。のように,述語の省略がしばしば起こるためである. 表 2 に,共参照クラスタに対する訪問状態の種類を示す. 各共参照クラスタに対してアノテーションする際は,記事全体を考慮してアノテーションを行う方針とした。そのため,共参照クラスタに含まれ表 2 共参照クラスタに対する訪問状態の種類 表 3 訪問状態のラベルの作業者間一致率 る言及にVisitが付与されていなくても,共参照クラスタに対してVisitが付与される場合がある。 ## 2.2 構築したデータセットの統計 2.1 節のアノテーション方針を基に,旅行記 5 記事に対して著者らでアノテーションを行い,486文からなる旅行記データセットを構築した. 場所参照表現の言及数は 684 件含まれ,各共参照クラスタ内の言及数は平均 1.52, 標準偏差 1.06 であった. また, 5 記事に含まれる一部の言及および共参照クラスタに対して,各文につき 2 名の作業者でア, テーションを行い,訪問状態のラベルの作業者間一致率を測定した。一致率測定の対象となった言及の数は 180 ,共参照クラスタの数は 124 である。一致率評価には,F1 値のマイクロ平均値 (micro F1), F1 值のマクロ平均値 (macro F1), Cohen's Kappa ( $\kappa$ ) [3] を用いた。表 3 に示すように,言及単位では micro F1, macro F1 ともに 0.82 程度という比較的高い一致率であり,共参照クラスタ単位ではそれらを下回る一致率となった。一致率の詳細は付録 B に示す. ## 3 実験設定 ## 3.1 正解スパン設定 一つ目の正解スパン設定では,入力文と,その文中に出現する場所参照表現のスパンが所与のもと,各スパンの訪問状態を予測する.本設定における訪問状態の予測方法は以下の通りである。まず,文に含まれるトークン列を $\left.\{X_{1}, X_{2}, \ldots, X_{n}\right.\}$ として,事前学習済みエンコーダ BERT [4] ${ }^{1)}$ を用いて各トー クンに対応するべクトル表現 $\left.\{H_{1}, H_{2}, \ldots, H_{n}\right.\}$ を得る. 文中に出現する場所参照表現 $m$ のトークン列  を $\left.\{H_{i}, H_{i+1}, \ldots, H_{i+k}\right.\}$ としたとき, 各トークンに対応するべクトル表現の平均を取ることで, $m$ のべクトル表現 $H^{\prime}$ を得る。そして, $H^{\prime}$ をフィードフォワー ドネットワークに入力し,訪問状態を予測する. 言及単位での評価に加えて,言及間の共参照関係を所与として共参照クラスタ単位での評価も行った。言及単位でのモデルの予測を基に,次のルールを用いて共参照クラスタ単位での予測を行った。 1. 共参照クラスタ内の少なくとも一つの言及に対してVisitと予測していれば,Visitとする. 2. Visit と予測した言及が一つもなく, VisitPossibly もしくは PlanToVisit と予測した言及が一つでもあれば,Unknownとする。 3. Visit, VisitPossibly, PlanToVisit と予測した言及が一つもない場合,NotVisitとする. ## 3.2 End-to-End 設定 二つ目の End-to-End 設定では,場所参照表現の同定および訪問状態の予測を同時に行う.系列ラベリングに基づく一般的な固有表現抽出と同様に,トー クンごとにB-Visit や I-Visit のような BIO 形式のタグを予測する. 旅行記データセットは, 場所参照表現の同定を学習するにはデータ量が不十分である可能性がある. そこで,場所参照表現の同定精度向上を目的として,拡張固有表現タグ付きコーパス [5] を用いて事前に BERT をファインチューニングした. 本実験では,同コーパスに付与されている「関根の拡張固有表現階層」[6](Version 7.1.0)の固有表現ラベルのうち,地名・施設名のラベルが付与された固有表現 (つまり,場所参照表現)のみを対象とし,同コーパスを学習用と評価用に分割した ${ }^{2)}$. ファインチュー ニングの結果,評価データでの場所参照表現の同定精度(F1 値)は 0.829 であった。 ## 3.3 データセット 訪問状態予測の実験には, 本研究で構築した旅行記データセットを用いた. 正解スパン設定では,前述の通り,言及間の共参照関係を所与とし,共参照単位での評価も行う. そのため, 共参照クラスタ内の言及を含む文の集合単位で旅行記データセットをおよそ 8 対 1 対 1 の比率で訓練,開発,評価データに分割した. End-to-End 設定では共参照単位での評  49,440,場所参照表現の言及数は 13,242 個であった.表 4 正解スパン設定の結果 表 5 End-to-End 設定の結果 価を行わない3)ため,文単位で分割した。 また,言及単位での評価において,アノテーションされたラベルをそのまま使用する 7 ラベル設定に加えて,訪問の有無に注目してラベルをグルーピングした 2 ラベル設定での評価も行った. 具体的には, Visit, VisitPossibly, PlanToVisitをVisit に,他のラベルを NotVisitにグルーピングした. ## 4 実験結果 表 4 に,正解スパン設定の結果(各指標はマクロ平均)を示す. 表 3 に示した作業者間一致率(macro F1)と比べ, 7 ラベル設定の $\mathrm{F} 1$ 值は 0.2 程度低い.原因として,旅行記データセットの学習データが少量かつラベルが不均衡なデータであったため, モデルが十分に学習できなかったことが考えられる。また,言及単位よりも共参照クラスタ単位での予測精度が低い理由として, 記事内の大域的な内容を基に共参照クラスタの訪問状態が決まるケースに対し, 3.1 節のルールでは対応できなかったことが挙げられる。例えば,「奈良県」を訪問したと明示的に言及せず,「近鉄奈良駅」を訪問したと言及している場合,「近鉄奈良駅」が位置する「奈良県」にも訪問したと推論できるが,使用したルールでは正しく予測することができない. また,End-to-End 設定の結果(各指標はマイクロ平均)は表 5 の通りとなった. 7 ラベル設定よりも 2 ラベル設定のほうが $\mathrm{F} 1$ 值が 0.18 程度高い理由は, ラベルをグルーピングすることで,事例数が少ないラベルが減り, データの不均衡性がある程度解消されたためと考えられる。 ## 5 分析 本節では,正解スパン設定の訪問状態予測モデルに対する分析結果を報告する。  表 6 Integrated Gradients に基づく寄与度.下線部は訪問状態の予測対象となるスパンを表す.(例文は [1] より引用) 正解予測 (確率) 入力文 (a) Visit Visit(0.92) [CLS] 別府駅に到着しました。 [SEP] (b) See See (0.67) [CLS] 展望塔からは遠く日本海に浮かぶ利 \#\#尻 \#\#富 \#\#士(利 \#\#尻島)を眺望します。[SEP] (c) Visit Other (0.95) [CLS] 宿泊は、大神神社 $の$ 早朝参拝に便利な、ルート\#\#イン桜井駅前にしました。[SEP] 表 7 正解スパン設定の結果(場所参照表現マスク時) Integrated Gradients モデルが訪問状態を予測する際,入力文中のどのトークンに対して注意を向けているかを調べた. 具体的には, Integrated Gradients [7](captum [8] で実装されている Layer Integrated Gradients ${ }^{4)}$ )を基に,BERT の埋め込み層における予測への寄与度をトークン位置ごとに計算した. 表 6 は, 分析結果の可視化であり, 寄与度が高いトークンほど濃くハイライトされている. 訪問状態を正しく予測できた (a)と (b)を見ると,訪問や視認に関連する動作性名詞「到着」,「眺望」やそれらに付随する助動詞「ます」, 副詞「遠く」などの寄与度が高いことがわかる. 一方,訪問状態を正しく予測できていない (c)では,文中のトークン全体への寄与度が高くなっていることがわかる. 訪問状態の判定のために文全体を読み解く必要があるような例で,適切なトークンに注目して正しく予測することが難しかった可能性がある. 場所参照表現のマスク正解スパン設定において所与とした場所参照表現の表層情報が,モデルの予測にどのように影響を与えているかを調べた. 具体的には,訪問状態の予測対象となる場所参照表現の各トークンを [MASK] に置き換え,学習および評価を行った。言及単位での評価結果を表 7 に示す. 7 ラベル設定では場所参照表現をマスクすることで正解率が 0.03 程度低くなっているが, 2 ラベル設定ではマスクしても同等の結果となった. 以上より,詳細なラベルを予測する設定では表層情報も手がかりとして有用であることが示唆された。 4) https://captum.ai/api/layer.html\# layer-integrated-gradients ## 6 関連研究 場所参照表現抽出 $[9,10,11]$ は,固有表現抽出の特殊なケースであり,実世界上の特定の地点を指す表現を文章中から抽出することを目的としている. これら従来研究では,文章の書き手が訪問したかという観点での解析は行っていない. Li ら [12] は,ツイートを対象に,言及単位での場所参照表現の抽出とその訪問状態(訪れた,現在いる,訪れる予定である)の予測を行った. 同一の場所を指す場所参照表現が,1ツイート内に異なる訪問状態として複数回出現することは稀と考えられるため,本研究のように共参照クラスタ単位での解析を行うには,長さのある文章が適している. 大友ら [13] は,KNBコーパス [14] に対して,場所参照表現とその訪問状態のアノテーションを行った. アノテーション対象となった記事は,京都観光をテーマに大学生により執筆されたブログ記事である.そのため,書き手の属性や記述内容に偏りがあり, 観光地の一般的な説明や日常的な出来事の描写など,旅行以外の記述も多く含まれる。 ## 7 おわりに 本研究では,人が訪れた場所の情報を文章から抽出する問題に取り組んだ。 場所参照表現に訪問状態を付与したデータセットを構築し,訪問状態予測の実験を行った. モデルの予測精度は作業者間一致率を下回り,学習データが少量かつ不均衡であることが難しさの原因であったと考えられる。また,分析の結果,文全体を読み解く必要がある事例において,人間と異なり,単純な BERT ゙゙ースのモデルでは適切な判定が難しいという示唆が得られた. 今後,アノテーションデータの増量や,場所に紐づいた意味的な情報の抽出に取り組む予定である. ## 謝辞 本研究は JSPS 科研費 JP22H03648 の助成を受けたものである. ## 参考文献 [1] 株式会社地球の歩き方. 地球の歩き方旅行記データセット, 2022. 国立情報学研究所情報学研究データリポジトリ. (データセット). https://doi.org/10.32130/idr.18.1. [2] 大内啓樹, 進藤裕之, 若宮翔子, 松田裕貴, 井之上直也, 東山翔平, 中村哲, 渡辺太郎. 地球の歩き方旅行記データセット. 言語処理学会第 29 回年次大会, 2023. [3] Jacob Cohen. A coefficient of agreement for nominal scales. Educational and Psychological Measurement, Vol. 20, pp. 37-46, 1960. [4] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [5] 橋本泰一, 乾孝司, 村上浩司. 拡張固有表現タグ付きコーパスの構築. 情報処理学会研究報告自然言語処理, Vol. 2008, No. 113 (2008-NL-188), pp. 113-120, 2008. [6] Satoshi Sekine. Extended named entity ontology with attribute information. In Proceedings of the Sixth International Conference on Language Resources and Evaluation (LREC'08), Marrakech, Morocco, May 2008. European Language Resources Association (ELRA). [7] Mukund Sundararajan, Ankur Taly, and Qiqi Yan. Axiomatic attribution for deep networks. In Proceedings of the 34th International Conference on Machine Learning - Volume 70, ICML'17, pp. 3319-3328. JMLR.org, 2017. [8] Narine Kokhlikyan, Vivek Miglani, Miguel Martin, Edward Wang, Bilal Alsallakh, Jonathan Reynolds, Alexander Melnikov, Natalia Kliushkina, Carlos Araya, Siqi Yan, and Orion Reblitz-Richardson. Captum: A unified and generic model interpretability library for PyTorch, 2020. arXiv: 2009.07896 [cs.LG]. [9] Koji Matsuda, Akira Sasaki, Naoaki Okazaki, and Kentaro Inui. Annotating geographical entities on microblog text. In Proceedings of The 9th Linguistic Annotation Workshop, pp. 85-94, Denver, Colorado, USA, June 2015. Association for Computational Linguistics. [10] Zongcheng Ji, Aixin Sun, Gao Cong, and Jialong Han. Joint recognition and linking of fine-grained locations from tweets. In Proceedings of the 25th International Conference on World Wide Web, WWW '16, p. 1271-1281, Republic and Canton of Geneva, CHE, 2016. International World Wide Web Conferences Steering Committee. [11] Pei Chen, Haotian Xu, Cheng Zhang, and Ruihong Huang. Crossroads, buildings and neighborhoods: A dataset for fine-grained location recognition. In Proceedings of the 2022 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 3329-3339, Seattle, United States, July 2022. Association for Computational Linguistics. [12] Chenliang Li and Aixin Sun. Fine-grained location extraction from tweets with temporal awareness. In Proceedings of the 37th International ACM SIGIR Conference on Research \& Development in Information Retrieval, SIGIR'14, p. 43-52, New York, NY, USA, 2014. Association for Computing Machinery. [13] 大友寛之, 大内啓樹, 星野智紀, 井手佑翼, 渡辺太郎.訪問場所表現グラウンディングのためのアノテー ション. 言語処理学会第 28 回年次大会, 2022. [14] 橋本力, 黒橋禎夫, 河原大輔, 新里圭司, 永田昌明. 構文・照応・評価情報つきブログコーパスの構築. 自然言語処理, Vol. 18, No. 2, pp. 175-201, 2011. ## A 訪問状態の各ラベルの事例 表 8 言及に対する訪問状態のラベルと事例([1] より引用).下線部はラベル付与の対象となるスパンを表す. \\ 表 8 は,言及に対する訪問状態の各ラベルの事例である. Visit-Future については, 本研究でアノテーション対象となった旅行記 5 記事において,付与された事例が確認されなかった. なお,各ラベルの定義は表 1 の通りである. ## B 訪問状態のアノテーションー致率の詳細 図 2 各言及へ訪問状態を付与した際の混同行列 図 3 各共参照クラスタへ訪問状態を付与した際の混同行列 図 2 は,複数の作業者によって,言及へ訪問状態のラベルを付与した際の混同行列を表している。また,図 3 は共参照クラスタに関する混同行列を表している.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B12-3.pdf
# 震災アーカイブと震災アーカイブ web に関する概念モデルの作成 齋藤玲 ${ }^{1, *}$ 大内啓樹 ${ }^{2,3}$ 羽鳥康裕 ${ }^{4}$ 邑本俊亮 ${ }^{1}$ 杉浦元亮 ${ }^{1,5}$ 塩入諭 ${ }^{4}$ 柴山明寛 ${ }^{1}$ ${ }^{1}$ 東北大学災害科学国際研究所 ${ }^{2}$ 奈良先端科学技術大学院大学 ${ }^{3}$ 理化学研究所 ${ }^{4}$ 東北大学電気通信研究所 ${ }^{5}$ 東北大学加齢医学研究所 *責任著者 : ryo@tohoku. ac. jp \{hatori, motoaki. sugiura. d6, satoshi. shioiri.b5\}@tohoku. ac. jp \{muramoto, shibayama\}@irides. tohoku. ac. jp hiroki. ouchi@is. naist.jp ## 概要 将来の巨大地震の発生に先立ち, 震災アーカイブ並びに震災アーカイブwebを有効に利活用していくことが,一人でも多くの人の命を救い,心を助けることにつながっていくに違いない。この有効な利活用を促進するために, 本研究では, 震災アーカイブ web として,既存の資料を整理する形で,国立国会図書館東日本大震災アーカイブ「ひなぎく」の特徴をまとめた. 併せて, 本研究では, 震災アーカイブ並びに震災アーカイブwebの様態把握と将来の展望のために,概念モデル(震災に関する情報の収集, アーカイブ,検索までのプロセスを示したフィードバックモデルと,検索性と収集性の二軸を掛け合わせた象限モデル)を作成,提案した。 ## 1 はじめに 東日本大震災(2011 年 3 月 11 日に発生した巨大地震)に代表されるように,震災に関するあらゆる情報が有志によって収集されてきた。次いで,それらの収集された情報は, 恒久的な保存を目的として, アーカイブ化が試みられてきた。 さらに,そのアー カイブされた情報(以下,震災アーカイブ)は,情報テクノロジーの進展に伴い, web サイト上に公開されてきた. 今後, 必ず起こると予測されている巨大地震(例えば,南海トラフ巨大地震)に先立ち,震災アーカイブ並びに震災アーカイブwebをいかに利活用していくかが,一人でも多くの人の命を救うことや, 心を助けることにつながるに違いない $[1,2]$. しかしながら, 予算や人員の削減に伴い, 現在,一部の web サイトは既に閉鎖されている。また, 我が国の少子高齢化による生産人口の減少や,世界的な情勢の不安定感は, 震災アーカイブ web の閉鎖の加速を予測させる. このような最中でも,国立国会図書館が運営する 「国立国会図書館東日本大震災アーカイブ(愛称: ひなぎく)」[3]が,各種の震災アーカイブ web と連携し,震災アーカイブの延命を図ってきた。これまでに「ひなぎく」は 51 機関と 57 のデータベースの震災アーカイブ並びに震災アーカイブweb と連携してきた。また,その連携は年を追うごとに増加している[2].「ひなぎく」は,震災アーカイブ web の中心的な役割を担っており,我が国の震災アーカイブの集合体の一つであるといってもよいだろう. 我が国の震災アーカイブ並びに震災アーカイブ web の傾向や特徴を知るためには,「ひなぎく」の特徴を整理することが有効であろう。本研究では, まずはこの整理を実現し, 現状を把握する. 同時に,二つの概念モデル (一つが震災に関する情報の収集, アーカイブ,情報検索までのプロセスモデル [フィ ードバック機能を持つことから,フィードバックモデルと命名する, 二つが情報の検索性と収集性とを組み合わせた象限モデル)を作成することで,震災アーカイブ並びに震災アーカイブ web の将来を展望する。これらの整理とモデルの作成は,今後,いかに震災アーカイブ並びに震災アーカイブwebを利活用していくかを意思決定していくうえで,大きなヒントを与えてくれるだろう。 ## 2 震災アーカイブと web の概要 ## 2.1 「ひなぎく」とは 「ひなぎく」とは,東日本大震災に関する記録を一元的に検索・閲覧・活用できるポータルサイトである[2]. ただし, webサイトには, 東日本大震災以外の震災(例えば,阪神・淡路大震災)に関する情報もアーカイブされている.検索できる項目のメタデータ数は,459 万件であり,コンテンツは図書, 雑誌・報告書,文書・ウェブサイト・写真,映像・動画とされている[2]. ## 2.2 各年に関する項目の数の違い 図 1 に「ひなぎく」に収録されている項目がどの年に関するものなのかを示した. 項目の数は東日本大震災が起きた 2011 年に集中し, それ以降, 急激に減少していることがわかる. 2016 年に項目数が増加しているが,これは東日本大震災ではなく熊本地震に関する項目の数があることによる影響であろう. その後, 項目の数は, 2019 年に一時的に増加するものの, 減少傾向が続いている. 図 1 各年に関する項目の数 Note. 2023 年 1 月 10 日に「ひなぎく」の検索システム[3]からデータを取得した. これら以外の年に関する項目は取得しなかった.集中復旧期間とは 2012 年から 2016 年までであり,復興・創生期間とは 2017 年から 2021 年までである $[4,5]$. ## 2.3 各都道府県に関する項目の数の違い 図 $\mathbf{2}$ に「ひなぎく」に収録されている項目がどの都道府県に関するものなのかを示した. 東北地方を中心に項目数が多いことがわかる. 項目の数は, 大きな被害を受けた地域からの距離によって減衰していくことがわかる(いわゆる「距離減衰」を確認することができる)。なお, 兵庫県において項目数が多いことが視認できるが, これは阪神・淡路大震災 に関する項目の数が影響しているのだろう. ## 2.4 検索システム 「ひなぎく」のトップページにある検索システムは, 三つ(簡易検索,詳細検索,カテゴリ検索)ある[3]. 一つ目の簡易検索とは, キーワードを入力するものである。二つ目の詳細検索とは, キーワードの対象 (本文も検索する, 本文のみ検索する, 本文は検索しない) を選択できたり, 日付や資料種別 (文書資料, Web サイト, 写真, 音声 - 動画, その他) を選択できたりするものである. 三つ目のカテゴリ検索とは,資料種別,場所(都道府県), 日付(西暦),言語などを選択できるものである. また「ひなぎく」のページには,「ひなぎく」の使い方講座に関する動画がある.加えて,「ひなぎく検索ツール」も用意されている。この「ひなぎく検索ツール」では, 例えば東日本大震災被災地の記憶やテーマ別検索といったものが用意されている. 図 2 各都道府県に関する項目の数 Note. 2023 年 1 月 10 日に「ひなぎく」[3]から取得した. ## 3 概念モデル ここでは,東日本大震災の発生した年から現在までに,震災に関する情報が収集され,その収集された情報がアーカイブされ, 震災アーカイブ web において検索されるまでのプロセスを説明するためのモデルを提案する(図 3)。これを震災アーカイブ並びに震災アーカイブwebに関するフィードバックモデルと呼ぶ. 同時に,ここでは検索性(震災アーカイブ web において検索可能かどうか)と収集性(震災に関する情報として収集しているかどうか)の二つの観点を掛け合わせた象限モデルを提案する(図 4).これを震災アーカイブ並びに震災アーカイブwebに関する象限モデルと命名する. ## 3.1 フィードバックモデル フィードバックモデル(図 3)では,三つのフェ一ズを想定する.各フェーズは「(フェーズ A)情報の収集」,「(フェーズ B)収集された情報のア一カイブ化」, 「(フェーズ C) 検索」となる. 震災といった有事の事態が発生すれば,人々は情報の収集を行う(フェーズ A)。その後,その収集された情報を,特定の組織が永年保存するためにアーカイブ化する(フェーズ B)。そして,特に昨今の情報テクノロジーの進展に伴って, それらアーカイブされた情報は web において検索可能となる(フェー ズ C)。このプロセス間には,情報収集から収集された情報のアーカイブ化(ステップ 1)と,アーカイブ化された情報を検索可能とする(ステップ 2) といった二つのステップを想定する。 さらに,このモデルでは, フェーズ $\mathrm{C}$ からフェーズ $\mathrm{A}$ に戻るフィ ードバックをステップ 3 として想定する. このフィードバックを機能させるために,さまざまな工夫を凝らすことが, 震災アーカイブ並びに震災アーカイブ web の利活用の推進につながり,ひいては一人でも多くの命を救い,心を助けることにつながると考えている.ここでのさまざまな工夫を凝らすこととは, 例えば震災アーカイブ web の検索システムを改良することであり,また震災アーカイブ web を使用する人々が震災アーカイブのなかに自分たちが必要とする情報があるかどうかを判断できることである. 特に前者の震災アーカイブ web の検索システムを改良するためには,奇しくも東日本大震災以降に目覚ましい進歩を遂げた自然言語処理技術を応用することが求められよう. 具体的に, どのような検索システムを構築していくかについては, 有識者との議論をもとに推進していきたい. 次に, 改良された検索システムを,震災アーカイブを利活用したい人々が使用することで,検索システムのユーザビリティを評価するだけでなく, 実は自分たちが欲しい情報は, まだ震災アーカイブとして保存されていないという判断ができるようになる. そして,この判断を経ることができれば,震災に関する情報を収集することを自覚し,新たに必要な情報を収集するための行動を促すことになる。これが本研究で提案するフィードバックモデルのフィードバックという構成要素を想定することの意義である. \section*{(C) retrieval STEP2 STEP3 feedback process 図 3 フィードバックモデル ## 3.2 象限モデル ここでは, 検索性と収集性という観点に基づく象限モデルを提案する(図 4)。このモデルは,上記のフィードバックモデル(図 3)において,自分の欲しい情報があるかどうか,ないのであれば情報を新たに収集する必要があると判断するというプロセスで議論されている情報の種類を俯瞰するのに役立つ. 図 4 では,横軸にアーカイブ(永年保存)されているか否か,縦軸に収集されているかどうかを示している. 第一象限は検索可能な情報, 第二象限は将来検索可能な(可能とされるべき)情報, 第三象限は,情報収集を経て,将来検索可能にされるべきものを意味する. 第四象限は検索されるが情報収集がされていない情報と定義できるが,存在しえない情報であるといえよう. 少なくとも,震災アーカイブ webにおいて,検索可能な情報でないと判断できれば,象限モデル(図 4) 中の第二象限か第三象限に属する情報であると判断できる。たしかに震災アーカイブ webには大量の情報が保存されているものの,そこにはユーザーが求める情報がないかもしれない,そのときの判断はユーザーに委ねられるが,震災から十数年が経過しても,いまだに情報の収集を続けているもの,続けるべきものがあるはずである.例えば, 第一著者は,東日本大震災直後だけではなく, 震災から十数年が経過した現在でも続く学校における子どもに対する心理的配慮や心のケア(以下,配慮・ケア)に関する記録を集めてきた[6]. この事例に限らずとも, 震災アーカイブとして残されているものなのか, それとも残されていないも のなのかの見極めをしながらも,震災に関する情報を, 我々は収集していく必要があろう。ただし,このとき,その収集された情報が他の情報と重複していないかどうかについては十分に留意していきたい. 図 4 象限モデル ## 4 まとめ 本研究では, 震災アーカイブ並びに震災アーカイブ web の概要を示し, 今後の進展に資するために概念モデルを作成した. このフィードバックモデルは東日本大震災に限らずとも, 他の有事の際にアーカイブをよりよくすることにつながるに違いない. 最後に, 本研究の限界を述べる. 本研究では震災アーカイブ web として, 便宜的にレビューするために「ひなぎく」のみに絞ってその特徴を整理した。 ただし,震災アーカイブ web として,「ひなぎく」 だけでなく, 例えば「みちのく震録伝」 [7]も存在し,公開されている. 今後, 本研究で提案したフィードバックモデル(図 3)におけるフィードバックルー プを機能させるために,「ひなぎく」に限らずとも,各種震災アーカイブ web の検索システムを改良すること, そして震災アーカイブ web のユーザーを増やすことで, 震災に関する情報収集, アーカイブ化,検索システムの利活用の促進を図っていきたい。このような震災アーカイブ並びに震災アーカイブ web の進展が人の命と心を助けることにつながるだろう。 ## 謝辞 「第 1 回災害科学 $\times$ 自然言語処理学 $\times$ 認知科学研究会 (2023 年 1 月 6 日)」にご参加いただいた先生 (奥村誠先生 [東北大学], マス・エリック先生 [東北大学 $]$, 川内淳史先生 [東北大学])との議論は,今回の原稿の執筆の大きな励みとなった。また「令和 4 年度東日本大震災アーカイブシンポジウム」終了後, 井上佐知子先生 (国立国会図書館電子情報部主任司書)にご質問をさせていただいたところ,研究に対する励ましの言葉をいただいた.第一著者は, ここに記して感謝申し上げます. 本研究は,「ヨッタインフォマティクス研究センター・ヨッタインフォマティクス研究センター研究助成(追加)(代表: 齋藤玲)」,「日本心理学会・減災並びに災害からの復興に寄与寸る研究・活動(代表 : 齋藤玲)」,「東北大学災害科学国際研究所. 2022 年度災害レジリェンス共創研究プロジェクト (代表 : 齋藤玲)」,「東北大学附置研究所・2022 年度若手研究者アンサンブルグラント (新規課題) (代表 : 齋藤玲)」の助成を受けたものです. ## 参考文献 [1] 柴山明寛. みちのく震録伝の活動を振り返る一災害科学国際研究所開所 10 年にあたり. 2023. https://www.shinrokuden.irides.tohoku.ac.jp/msrdn wp/wp-content/uploads/2023/01/20230109michino ku.pdf [2] 井上佐知子. 国立国会図書館東日本大震災ア一カイブ「ひなぎく」ーこれまでの取り組み一. 2023.https://www.shinrokuden.irides.tohoku.ac.jp/ msrdnwp/wp-content/uploads/2023/01/20230109 NDL.pdf [3] 国立国会図書館東日本大震災アーカイブ(愛称 : ひなぎく) . https://kn.ndl.go.jp/\#I [4] 復興庁. 東日本大震災からの復興の基本方針 (平成 23 年 8 月 11 日東日本大震災復興対策本部決定). 2011. https://www.reconstruction.go.jp/ topics/000056. html [5] 復興庁. 「復興・創生期間」における東日本大震災からの復興の基本方針(平成 28 年 3 月 1 1 日閣議決定). 2016. https://www.reconstruc tion.go.jp/topics/ main-cat12/sub-cat12-1/20160311 101245.html [6] 齋藤玲, 保田真理, 邑本俊亮. 小学校教員による東日本大震災に関する子どもたちに対するこころのケアと心理的配慮に関する予察的調查: 2011 年度から 2021 年度にかけての事例の収集. 日本教育心理学会第 64 回総会. 2022. [7] みちのく震録伝. https://www.shinrokuden.irides. tohoku.ac.jp/
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B2-1.pdf
# 系列ラベリングタスクのための単純なデータ水増し 山崎智弘 東芝研究開発センターAIアナリティクスラボラトリー [email protected] ## 概要 語順が重要な系列ラベリング系のタスクに適用できる汎用的な水増しとして, cycle と randpad という新たな手法を提案する. どちらの手法も語順を維持したまま水増しする点に特徴がある。 2 つのデータセットを対象に,提案手法で水増ししたデータで系列ラベリングモデルを学習する実験を行なった。提案手法は大規模な言語モデルや外部知識がなくても適用できる非常にお手軽な水増しであるにも関わらず,ベースラインよりも 1 ポイントほど性能向上したことが確かめられた. ## 1 はじめに 日本の労働人口は少子化のため急速に減少しつつあり,製造業の現場ではベテランの持っていたノウハウの喪失が深刻な問題となっている。製造プラン卜は数多くの設備や機器から構成されており, 運用・保守では長年の経験が重要なためである. 片や製造業では,日々の業務で起こったトラブルを報告書として記録しておく取り組みがある。そこで我々はベテランのノウハウを形式知化するため,自然言語処理 (NLP) を用いてトラブル報告書を構造化する技術開発を進めている。報告書にはどんなトラブルが起こったかだけでなく,どんな対処をしたか,その対処で解決したかなども記録されているため,構造化してトラブルを解決する可能性の高い対処をまとめられれば運用・保守のコスト低減につながるほか,若手の教育にも役立つと考えられる。 我々は報告書のテキストに含まれるトラブル表現を教示した訓練データを用意し,ニューラルネットワークによる深層学習で固有表現抽出 (NER) を行なう方針を取っている.深層学習はコンピュータビジョンの分野で発展してきたが, 近年は NLP の分野でも文書分類,機械翻訳,質問応答などさまざまなタスクで最高性能を達成し続けているためである. 深層学習の性能は一般に, 訓練データの質と量に よるところが大きいと言われている. しかしトラブル報告書は専門知識なしでは理解しづらいうえ,どこからどこまでをトラブル表現とみなすかは作業者ごとに摇れが生じやすいため,良質で大量の訓練データを用意することが難しい。 画像や音声であれば,例えば画像を回転・反転しても映っている物体は変化しないという知識に基づいて機械的に訓練データを水増しできるが,NLPではどのようなドメインの文にも意味を保ったまま機械的に適用できる変換がないため,水増しのアプローチは限定的である。 従来よく用いられてきたのは同義語による置換だが,意味を保つためのヒューリスティクスに頼りがちである. EDA [1] は単語のランダムな編集を組み合わせることで単純ながら汎用的な水増しをある程度実現しているが,語順が重要な系列ラベリング系のタスクには適用が難しい. $ \begin{aligned} & \begin{array}{l} \text { 水増しされた } \\ \text { 文とタグ } \end{array} \\ & \text { (randpad) } \end{aligned} $ 図 1 提案手法による訓練データの水増し そこで我々は,語順が重要な系列ラベリング系のタスクにも適用できる汎用的な水増しとして,cycle と randpad という新たな手法を提案する. cycle は開始位置をシフトしながら各文を何度も繰り返すことで, randpad は各文の先頭と末尾に適当な単語をランダムに付加することでデータを水増しする.水増しは学習フェーズの訓練データにだけでなく推定フェーズの評価データにも適用し,水増しされたそ れぞれのデータに対する推定結果から元のデータの推定結果を得る. 以下では cycle と randpad のアルゴリズムを説明し,一般的な NER の公開データセット (英語) と我々の持っている電力プラントのトラブル報告書 (日本語) で行なった実験について述べる。これらの実験の評価結果から,提案手法は非常にお手軽な水増しであるにも関わらず,ベースラインよりも性能向上することを示す. ## 2 関連研究 機械翻訳タスクでは,別言語に翻訳して元言語に逆翻訳する手法 [2] が水増しとして有効である.しかしトラブル表現は専門用語が多く,うまく機械翻訳できないことも多い. 同義語の置換という観点からは,WordNet [3] のような人手で作られたオントロジーを用いる手法,埋め込みベクトルが近いものを同義語の候補とする手法 [4] などがある. NER では同じクラスの固有表現を同義語の候補とすることも行なわれるが,それだけでは固有表現を含まない文は何も置換できないので他の手法と併用する必要がある.ドメイン固有の専門用語に対しては,オントロジーにないため候補が得られない,あるいは単語の使われる文脈が異なるので埋め込みべクトルが近くても意味が異なる, などの課題があり,いずれの手法も候補の選び方が恣意的になりやすい。 一方 BERT [5] で同義語の候補を選ぶ CDA [6] という手法がある.BERT は文脈を考慮したよい埋め込みべクトルを得る手法として知られているが,CDA は BERT が文脈を考慮して予測した単語による置換に制限することで文の意味を保つようにしている。単語レベルではなく特徴ベクトルのレベルで訓練データを水増しする手法 $[7,8]$ も提案されている. これらは,訓練データから抽出された 2 組の入出力の線形補完によって水増しする Mixup [9] という手法を NLP に持ち込んだものである。ただしこれらの手法も,文の意味を保つように入力文の意味が似ている組に抽出を制限している。 反対に,文の意味が多少変わることを許容することで,非常にお手軽な水増しを実現している EDA [1] という手法がある. 同義語による置換のほか,単語のランダムな追加・削除・交換を組み合わせて水増しする.大規模な言語モデルや外部知識がなくても適用できるので,訓練データが少ないとき の文書分類や極性判定の性能をほとんどコストをかけずに底上げできることが知られている。 ## 3 提案手法 本節では語順を維持したまま水増しする cycle と randpad の具体的なアルゴリズムを説明する. 入力は文の集合 $\left.\{\operatorname{sent}_{i} \mid 0 \leq i<I\right.\}$ であり,それぞれの文 $\operatorname{sent}_{i}$ は $J_{i}$ 単語からなる系列 $w_{i, 0}, \ldots w_{i, J_{i}-1}$ で表され,固有表現は単語列に対してタグ付けされた範囲で表されるものとする. 例えば図 1 上側は,6 単語で表される文の $[0,1)$ および $[3,5)$ の範囲にそれぞれ人物名と地域名の夕グが付いていることを表す。実際にはタグに B や I をつけて範囲の先頭とそれ以外を区別することも多いが,以下ではその区別は捨象して説明する。 ## 3.1 cycle 図 1 中側は cycle による水増しの概念図である.開始位置をシフトしながら各文を何度も繰り返す。 まずそれぞれの文 $\operatorname{sent}_{i}$ ごとに,文を繰り返す領域の大きさとして単語数 $J_{i}$ より大きい適当な $f\left(J_{i}\right)$ を設定する. $J_{i}$ によらない值 (例えば $\max _{i} J_{i}+1$ ) に設定するとパディングが不要になるので学習が簡単になるが,長い文に比べて短い文の繰り返しが多くなり,モデルが偏る可能性がある。そこで適当な係数 $a, b$ を用いて $f\left(J_{i}\right)=a J_{i}+b$ などとする. 次に水増し倍率 $n_{\text {aug }}$ が与えられたとしよう.文を繰り返すときの開始位置はランダムに与えてもよいが,均等に $c_{i}^{k}=\left.\lfloor k f\left(J_{i}\right) / n_{\text {aug }}\right.\rfloor$ (ただし $0 \leq k<n_{\text {aug }}$ ) などとする. $c_{i}^{k}$ が同じ値を取らないように $f\left(J_{i}\right) \geq n_{\text {aug }}$ にしておくことが望ましい. $c_{i}^{k}$ が定まれば,そこから順に $f\left(J_{i}\right)$ の領域を文尾と文頭がつながらないようにセパレータ [SEP] を挟みながら文 $\operatorname{sent}_{i}$ の単語で繰り返し埋めていくことで,水増しされた文 $\operatorname{sent}_{i}^{k}$ が得られる。 すなわち文 $\operatorname{sent}_{i}^{k}$ を構成する単語 $w_{i, j}^{k}$ (ただし $\left.0 \leq j<f\left(J_{i}\right)\right)$ は具体的には $w_{i, j-c_{i}^{k}\left(\bmod J_{i}+1\right)}$ と表される. 学習フェーズでは,元の文のタグ範囲に対応する水増しされた文の範囲にタグ付けして水増しされた訓練データとする.水増しされた文の単語と元の文の単語の対応は取れているので,元の文の単語の夕グをそのまま付ければよい. 推定フェーズでは,水増しされた文に対して推定処理を行ない,それぞれの単語のタグを推定する。水増しされた文の単語と元の文の単語の対応が取れ 図 2 cycle の推定フェーズ ているので,元の文の単語に付くタグは水増しされた文の単語に付いたタグによる投票で決定できる. 図 2 の例であれば,水増しされた文において “Tom” は 3/5 が人物名なので人物名, “New” は $2 / 4$ が地域名なので地域名となる。この例では“York” は地域名も組織名も $2 / 4$ となるので多数決ではどちらを選んでもよいが,つながりがよいように “New York”をまとめて地域名とする。 ## 3.2 randpad 図 1 下側は randpad による水増しの概念図である. 各文の先頭と末尾に適当な単語をランダムに付加する. 文頭と文尾に付加する単語は文の意味を保つようにする必要があるため,すべての訓練データで全くタグが付いていない単語の集合 $W_{\mathrm{O}}=\{w \mid w$ のタグが $\mathrm{O}\}$ を事前に求めておく. まず文頭と文尾に付加する単語数 $n_{\mathrm{pad}}$ を設定する. 付加する単語数は文頭と文尾で異なっていてもよいが,双方向言語モデルを用いるので対称にするため同じ値にするものとする。 次に水増し倍率 $n_{\text {aug }}$ が与えられたとしょう,各文の先頭と末尾に $W_{\mathrm{O}}$ から $n_{\mathrm{pad}}$ 単語ずつをランダムに選んで付加すると水増しされた文 $\operatorname{sent}_{i}^{k}$ が得られるので,それを $n_{\text {aug }}$ 回繰り返せばよい。すなわち文 $\operatorname{sent}_{i}^{k}$ を構成する単語 $w_{i, j}^{k}\left(\right.$ ただし $\left.0 \leq j<J_{i}+2 n_{\mathrm{pad}}\right)$ は,具体的には $n_{\mathrm{pad}} \leq j<J_{i}+n_{\mathrm{pad}}$ のとき $w_{i, j-n_{\mathrm{pad}}}$ でそれ以外のときランダムな単語となる。 学習フェーズでは,元の文のタグ範囲に対応する水増しされた文の範囲にタグ付けして水増しされた訓練データとする. 水増しされた文の単語と元の文の単語の対応は取れているので,元の文の単語の夕 図 $3 \mathrm{randpad}$ の推定フェーズ グをそのまま付ければよい。付加した単語は $W_{\mathrm{O}}$ から選ぶのでタグを付けないものとする。 推定フェーズでは,水増しされた文に対して推定処理を行ない,それぞれの単語のタグを推定する。文頭と文尾から $n_{\text {aug }}$ 単語を取り除けば元の文の単語になるので,元の文の単語に付くタグは水増しされた文の単語に付いたタグによる投票で決定できる。 図 3 の例であれば,水増しされた文において “Tom”は $2 / 3$ が人物名なので人物名となり,“New” と“York”は $3 / 3$ が地域名なので地域名となる。 ## 4 実験と評価 今回の実験では系列ラベリングモデルとして BiLSTM-CRF [10] を用いた。具体的なネットワークは,単語の埋め込みべクトルを求める Embedding 層, 確率 0.5 の Dropout 層, 入出力の次元数が等しい Linear 層, 256 次元の BiLSTM 層,タグに対応する出力の次元数を持つ CRF 層から構成される. なお 768 次元の事前学習済み BERT ${ }^{11}$ の末尾 4 層を concat して用いたので,Embedding 層の次元数は $3,072=768 \times 4$ である. 学習に用いたバッチサイズは 256 ,損失関数は CRFLoss,オプティマイザは SGDである。学習率は $10^{-1}$ から検証データの損失が 4 エポック下がらないたび半減し, $10^{-5}$ を下回った時点で早期終了する. 以下では訓練データの水増しを行なわないとき (baseline) と,文を繰り返す領域の大きさ $f\left(J_{i}\right)$ を $64\left.\lceil J_{i} / 48\right.\rceil$ とした cycle,付加する単語数 $n_{\text {pad }}$ を 1,2 とした randpad をそれぞれ適用したときの性能を比較した。なお baseline 以外は,水増し倍率 $n_{\text {aug }}$ を $1,5,10$ としたときの性能も検証した。 表 1 CoNLL03 のデータ数の内訳 はじめに,NER の公開データセットである CoNLL03 [11] を用いて提案手法による水増しの効果を評価した結果について示す.本データセットは人物名・地域名・組織名・その他の 4 種のタグが付いており,データ数は表 1 のとおりである. 平均長は文や固有表現を構成する単語数の平均を表す.  表 2 は系列ラベリングモデルによって抽出されたタグ範囲が正解と完全一致するかどうかで評価したときの $\mathrm{F}$ 值である. それぞれの設定で 3 回ずつ学習したモデルによる平均と標準偏差を示す. 表 2 からわかるように,randpad2 は性能向上がほとんど見られないが, cycle と randpad 1 は $n_{\text {aug }}=5,10$ のとき baseline を上回る. いずれも $n_{\text {aug }}$ を増やすほど上がり幅も大きくなっているので, cycle は $f\left(J_{i}\right)$ の選び方によっても変わると思われるが,さらに増やせばより性能向上する可能性がある. 表 2 CoNLL03 を用いたときの評価結果 一方, baseline で抽出されたが randpad で抽出されなかった事例を分析すると, $W_{\mathrm{O}}$ に含まれる単語を含むものが多いことがわかった. $W_{\mathrm{O}}$ から選んで付加した単語はタグが付かないように学習するので, その影響を受けた可能性がある. randpad1 で性能が上がったのに randpad2 で上がらなかったのは,下げる効果の方が大きかったためであろう. 逆に言えば,付加する単語の選び方を工夫したり, WordDropout [12] のように Embedding 層で埋め込みべクトルをランダムに生成したりすれば, randpad はより性能向上する可能性がある. 続いて,我々の持っている電力プラントのトラブル報告書を用いて提案手法による水増しの効果を評価した結果について示す.トラブル表現 (何がどうなった,何をどうした) にイベントというタグが付いており,データ数は表 3 のとおりである. 平均長は文やイベントを構成する単語数の平均を表す。 表 3 CoNLL03 での実験のように,NER の評価は完全一致で行なうのが一般的である。しかしイベントのタグ範囲は非常に長く, また前述のとおり正解に摇れが生じやすいため,完全一致にそこまでこだわる必要はない. イベントの主要部 (どうなった, どう した) は末尾付近に出現することが多いので,以下の評価では [13] と同じく, タグ範囲の末尾 5 単語に重なりがあるかどうか (主要部一致) で行なうものとした. 例えば「建屋の配管に亀裂が発生。」という文の正解が「配管に亀裂」だった場合,「建屋の配管に亀裂」や「亀裂が発生」は少なくとも「亀裂」 という重なりがあるので OK とみなす。 表 4 は系列ラベリングモデルによって抽出されたタグ範囲が正解と主要部一致するかどうかで評価したときの $\mathrm{F}$ 值である. それぞれの設定で 3 回ずつ学習したモデルによる平均と標準偏差を示す. 表 4 トラブル報告書を用いたときの評価結果 表 4 からわかるように, cycle は baseline を上回るものの randpad1 と randpad2 は性能向上がほとんど見られない. 付加した単語はタグが付かないように学習したため, CoNLL03 での実験と同じく性能を下げる効果の影響を受けた可能性がある。下がり幅が抑えられているのは,タグが 1 種しかないのでタグを間違えるエラーがないことや主要部一致で評価したことが要因であろう. ## 5 おわりに 本論文では,語順が重要な系列ラベリング系のタスクにも適用できる汎用的な水増しとして, cycle と randpad という新たな手法を提案した. cycle は開始位置をシフトしながら各文を何度も繰り返すことで, randpad は各文の先頭と末尾に適当な単語をランダムに付加することで語順を維持したままデータを水増しする手法であり,大規模な言語モデルや外部知識がなくても適用できる. CoNLL03 およびトラブル報告書のデータセットを提案手法で水増しして BiLSTM-CRF を学習する実験を行なったところ,ベースラインよりも 1 ポイントほど性能向上したことが確かめられた. ただし randpad はパラメタによってはほぼ変わらないか逆に下がることも確かめられた. 今後はネットワーク構造や与えられたデータごとに最適な水増しパラメタを求め, 理論解析を通じてさらによい水増し手法を開発していく予定である. ## 参考文献 [1] Jason Wei and Kai Zou. EDA: Easy data augmentation techniques for boosting performance on text classification tasks. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 6382-6388, Hong Kong, China, November 2019. Association for Computational Linguistics. [2] Marzieh Fadaee, Arianna Bisazza, and Christof Monz. Data augmentation for low-resource neural machine translation. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 567-573, Vancouver, Canada, July 2017. Association for Computational Linguistics. [3] George A. Miller. Wordnet: A lexical database for english. Communications of the ACM, Vol. 38, No. 11, pp. 39-41, 1995. [4] William Yang Wang and Diyi Yang. That's so annoying!!!: A lexical and frame-semantic embedding based data augmentation approach to automatic categorization of annoying behaviors using \#petpeeve tweets. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 2557-2563, Lisbon, Portugal, September 2015. Association for Computational Linguistics. [5] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [6] Sosuke Kobayashi. Contextual augmentation: Data augmentation by words with paradigmatic relations. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 2 (Short Papers), pp. 452-457, New Orleans, Louisiana, June 2018. Association for Computational Linguistics. [7] Rongzhi Zhang, Yue Yu, and Chao Zhang. SeqMix: Augmenting active sequence labeling via sequence mixup. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 8566-8579, Online, November 2020. Association for Computational Linguistics. [8] Jiaao Chen, Zhenghui Wang, Ran Tian, Zichao Yang, and Diyi Yang. Local additivity based data augmentation for semi-supervised NER. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 1241-1251, Online, November 2020. Association for Computational Linguistics. [9] Hongyi Zhang, Moustapha Cissé, Yann N. Dauphin, and David Lopez-Paz. mixup: Beyond empirical risk minimization. In 6th International Conference on Learning Representations, ICLR 2018, Vancouver, BC, Canada, April 30 - May 3, 2018, Conference Track Proceedings. OpenReview.net, 2018. [10] Guillaume Lample, Miguel Ballesteros, Sandeep Subramanian, Kazuya Kawakami, and Chris Dyer. Neural architectures for named entity recognition. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 260-270, San Diego, California, June 2016. Association for Computational Linguistics. [11] Erik F. Tjong Kim Sang and Fien De Meulder. Introduction to the CoNLL-2003 shared task: Language-independent named entity recognition. In Proceedings of the Seventh Conference on Natural Language Learning at HLTNAACL 2003, pp. 142-147, 2003. [12] Rico Sennrich, Barry Haddow, and Alexandra Birch. Edinburgh neural machine translation systems for WMT 16. In Proceedings of the First Conference on Machine Translation: Volume 2, Shared Task Papers, pp. 371-376, Berlin, Germany, August 2016. Association for Computational Linguistics. [13]伊藤雅弘, 山崎智弘. アノテーション漏れ推定を用いたエンティティ抽出. 言語処理学会第 27 回年次大会発表論文集, pp. 1264-1268, 32021.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B2-2.pdf
# BERTを用いた Data Augmentation 手法の改善と JGLUE による評価 高萩恭介 $^{1}$ 新納浩幸 ${ }^{2}$ 1 茨城大学大学院理工学研究科情報工学専攻 2 茨城大学大学院理工学研究科情報科学領域 [email protected] [email protected] ## 概要 Data Augmentation は,教師あり学習においてその性能を改善させるために,訓練データを水増しする手法である. 論文 [3] では,複数の BERT を使って文中の単語を別の単語に置換する Data Augmentation の手法を提案し,それを文書分類タスクに適用することでモデルの性能が改善することが示されている. 本研究では,その手法における拡張文と置換対象単語の選択方法を変更したより適切にデータを拡張できる手法を提案する.実験では,複数のタスクに対して提案手法による Data Augmentationを試みた.その結果,提案手法は文書分類タスクの性能を改善できた。 ## 1 はじめに Data Augmentation は,教師あり学習の性能向上を図るために,訓練データを水増しする手法である。基本的には,ラベル付きデータに対して,ラベルを変えずにデータのみに簡単な変換を行い,それを新規のラベル付きデータとして訓練データに加える. 自然言語処理においては,テキスト中の単語をその単語の類似単語に置き換える Data Augemtation の手法がある [1]. しかし,BERT[2]を用いてタスクを解く場合に,同じ BERT の Masked Language Model を利用して単語置換を行っても効果はほとんどない. 置換によって得られる単語の知識は, 既に夕スク処理を行う BERTに組み込まれているからである. 論文 [3] では,この問題を解消するために,タスクに利用する BERT とは別種の BERTを使って類似単語を得る手法を提案し,その手法が文書分類タスクの性能を改善させることが実験によって示されて いる。これは,タスクに利用する BERTに含まれない単語の知識を置換によって獲得できたからであると考えられる。 しかし論文 [3] で提案された手法は,一部のラべル付きデータに対する拡張ラベル付きデータを多く生成することがあり,それによって拡張後のデータセットに偏りが生まれる可能性が高い. そこで本研究では, 論文 [3] で提案された手法を改善し, 1 つラベル付きデータに対して 1 つの拡張ラベル付きデータを生成するようにした. また論文 [3] では, livedoorニュースコーパス1)を用いた文書分類タスクのみで提案手法を評価しているが,他のタスクに対して手法が有効かどうかは不明である. そこで本研究では, 日本語の言語理解ベンチマークである JGLUE[4]を用いて, 文書分類,文ペア分類,QAの3つのタスクで提案手法を評価し,その有効性を検証した. その結果,提案手法は文書分類タスクのみに対して有効であることが示された。 ## 2 関連研究 画像処理の分野では,画像を反転させる,画像の一部を切り取るといった Data Augmentation の手法がよく使われている。これらの手法は単純で,実装が簡単であるにも関わらず,Data Augmentation としての効果は高い. また現在は,ラベル付きデータに対する簡易的な変換による Data Augmentation だけではなく,様々なアプローチの手法が考案されている. 例えば,Mixup はデータとラベルを各々線形結合して,新たなデータを作成する手法である [5].また,ラベル無しデータに対して何らかのラベルを付  与して,訓練データを増やす手法である半教師あり学習や, GAN などの生成系ニューラルネットワー クで画像を生成する手法も Data Augmentation に分類される [1]. 自然言語処理の分野においては,画像処理と比べると Data Augmentation に関する研究が少なく, これまでに行われた研究も画像処理分野での Data Augmentation の研究を基にした二次的なものが多い.これは,扱われるデータである言語が離散的であることが原因とされる。この原因により,単純な変換による Data Augmentation で自然なデータを生成することは難しい. しかし, 自然言語処理の分野においても,Data Augmentation に関する試みはいくつか行われており,効果的な手法も考案されている. Wei らは EDA (Easy Data Augmentation) という言語モデルや外部データを必要としない簡易な Data Augmentation の手法を提案した [6]. この手法では,訓練データのテキストに対して,同義語置き換え, ランダム挿入,ランダム交換あるいはランダム削除の 4 つの操作を複数回ランダムに適用することによって,訓練データを拡張する。また,ある言語で記述された文書を別の言語に翻訳し,その翻訳文を更に元の言語に翻訳する,いわゆる逆翻訳を利用して Data Augmentation を行う試みも多い [7][8]. さらに, Gun らは画像処理の分野で利用される Mixup 手法を応用し, 文の埋め込み表現あるいは単語の埋め込み表現を混合する Sentence Mixup や Word Mixup を提案している [9]. 他にも,Chen らは BERT のある層を混合する TMix に半教師あり学習を併用した MixText を提案している [10]. ## 3 提案手法 論文 [3] では,タスク処理用の BERT とは異なる BERT を用いて文中の一部の単語を別の単語に置き換える手法が提案されている。この手法は,タスク処理用の BERT に含まれない知識を単語置換によって獲得できるため,有効であると考えられている。 またこの手法では,データセットに含まれる全てのテキストの中から TF-IDFが高い単語を指定個数取り出し, 各単語を含むテキストに対して単語置換を行っている。しかしこのやり方では, 同じテキストを基にした拡張テキストが複数生成されることがあり,それによって拡張後のデータセットに偏りが生まれる可能性が高い. 今回は,論文 [3] で提案された手法を改善し,既存のデータセットに含まれる各テキストに対して単語を 1 つ選び,その単語を別の単語に置換して新たにテキストを生成するようにした。これによって, 1 つのラベル付きデータに対して,1つの拡張ラべル付きデータが生成されることとなる。 単語置換は,テキスト中の置換対象の単語を Maskトークンに置き換えて,その Maskトークンの位置に入る単語を BERT の Masked Language Model で予測することで行う。また,単語置換とタスク処理にはそれぞれ別の BERTを使う.今回は, タスク処理に東北大学の乾研究室が公開している'bert-base-japanese-v2'2),単語置換にストックマー ク株式会社が公開している $\mathrm{BERT}^{3)}$ を利用する. 東北大版 BERT は日本語の wikipediaを用いて,ストックマーク版 BERT は日本語のビジネスニュースのコーパスを用いて事前学習が行われている。そのため,2つの BERT は事前学習の段階でそれぞれ異なる知識を獲得していると考えられる。提案手法の詳細な手順について以下に示す。 1. データセットからラベル付きデータ (ラベル+テキスト)を1つ取り出す. 2. テキストをトークン化する。 3. 置換対象単語のトークンを Mask トークンに置き換える。 4. トークン列を BERT 入力用の ID 列に変換する. 5. ID列を BERT に入力し, 各トークンに対する予測結果を取得する。 6. 予測結果の中から, Maskトークンに入ると予測された上位 100 単語を取得する。 7. 上位 100 単語の中から, 次の条件を満たす最上位単語を選択する。 (a) 単語が名詞である. (b) 単語は置換対象単語とは異なる. 8. 置換対象単語を選択した単語で置き換えたテキストを生成する。 9. 生成されたテキストに元のラベルを付けたものを拡張ラベル付きデータとする。 10. データセットから取り出していないラべル付きデータがあれば, 1 に戻る. 11. 元のデータセットに生成した拡張ラベル付きデータを全て追加する。 また,上記の手順における置換対象単語の決定は  次のように行う. 1. データセットに含まれる全てのラベル付きデー タから,テキストのみを取り出してリスト化する. 2. 分かち書きによって,テキストのリストを名詞のみのトークン列のリストに変換する. 3. 変換後のリストを TF-IDFベクトルに変換する. 4. 各テキストにおける TF-IDF 值が最も高い名詞を選び,それらを置換対象単語とする。 ## 4 タスク 本研究では,提案手法の評価を行うために,日本語の言語理解ベンチマークである JGLUE[4] を用いる. JGLUE は文書分類タスクである Marc-ja と JCoLA, 文ぺア分類タスクである JSTS と JNLI, QA タスクである JSQuAD と JCommonsenseQA の計 6つのタスクから構成される. 今回は,この中から Marc-ja,JSTS,JCommonsenseQAの3つのタスクを利用し,評価を行うこととする。また,各タスクには, train(訓練)/dev(検証)/test(テスト)データの 3 つが用意されているが,論文執筆時点ではどのタスクのテストデータも公開されていない. そのため, 各タスクでは, 元の訓練データからいくつかデータを取り出すことで新たに訓練/検証データを作成し, 元の検証データはテストデータとして使用することとする.今回の実験での各タスクの訓練/検証/テストデータの個数を表 1 に示す. なお,今回は各タスクの訓練データの個数を 100 個として, ファインチューニングに用いるデータが少ない状況を想定した実験を行う.また,各タスクでは訓練データを 5 パターン用意し, それら 5 つの評価平均を最終評価として使用する。 表 1 各データセットの構成 ## 4.1 Marc-ja Marc-ja は文書分類用データセットであり,通信販売サイト「アマゾン」における商品レビューとそれに対する評価をまとめたコーパスである MARC (Multilingual Amazon ReviewsCorpus)[11] の日本語部分を元に構築されている. Marc-ja に含まれる各 データは商品レビューと,ラベルである評価の二つからなる.ラベルは negative と positive の 2 種類であるため,タスクは 2 值分類となっている。評価指標には精度 (acc) を用いる. Data Augmentation では,各訓練データの商品レビューに対して単語置換処理を行う。 ## 4.2 JSTS JSTS は意味的類似度計算 (Semantic Textual Similarity, STS) のデータセットであり, YJ Captions Dataset[12]を利用して構築されている. STS は文ペアの意味的な類似度を推定するタスクで,正解の類似度は, 0 (意味が完全に異なる) 〜 5 (意味が等価)の間の値として付与されるのが一般的である. JSTS の各データは文ペアとその類似度からなり,文ペアは YJ Captions Dataset のある画像に対する 2 つキキャ゚゙ョョンで,類似度はクラウドソー シングによって決定されたものである. 評価指標には, Pearson および Spearman 相関係数を用いる. Data Augmentation では,各訓練データの文ペアのうち,1つめの文に対してのみ単語置換処理を行う. ## 4.3 JCommonsenseQA JCommonsenseQA は, CommonsenseQA[13] という $\mathrm{QA}$ データセットの日本語版で,常識推論能力を評価することができる. JCommonsenseQAに含まれる各データは,問題文とそれに対する 5 つの選択肢,正解の選択肢を示すラベルから構成される.この選択肢のうち,問題文に対する正しい解答となるのは 1 つだけである. 評価指標には精度 (acc) を用いる. Data Augmentation では,各訓練データの質問文に対して単語置換処理を行う. ## 5 結果 実験では,各タスクにおいて,BERTを訓練デー タでファインチューニングすることで,モデルの構築を行う.構築したモデルは,タスクに応じた評価指標でテストデータにより評価される。 各タスクにおいて, 元の訓練データとData Augmentaion を行った訓練データでそれぞれファインチューニングしたときのモデルの評価結果を図 1 に示す. 結果としては, Data Augmentation を行った場合,MARC-ja のみモデルの性能が僅かに改善し, それ以外のタスクでは性能が悪化した。 図 1 評価結果 ## 6 考察 ## 6.1 提案手法によるモデル性能低下の要因 JSTS と JCommonsenseQA の 2 つのタスクでは,提案手法を用いた場合にモデルの性能が低下してしまった. これは,新たに作成したデータの中に,テキストとラベルについての一貫性が失われたデータが多く含まれており,それらがノイズとなってモデルの性能を低下させたと考えられる。 例えば,JCommonsense において,問題文が「商品を確認するにはどこまで行くといい?」,正解の選択肢が「店頭」である訓練データが存在する. このデータにData Augmentation を行うと,問題文が「自身を確認するにはどこまで行くといい?」に変更された. この場合,新たに生成されるデータは,問題文と正解の選択肢が矛盾したデータとなるため,訓練データとして適切ではない. このように,QA やSTS は,文書分類と比べて,取り扱うデータの一貫性が Data Augmentation によって失われやすく,それがモデルの性能低下に繋がったと考えられる.また,今回利用した 3 つのタスクのうち,MARC-ja はデータに含まれるテキストの文字数が全体的に多く,その他の 2 つのタスクはデー タに含まれるテキストの文字数が少なかった. これも,JSTS と JCommonsense におけるモデル性能低下の要因の一つであると考えられる. ## 6.2 訓練データの量の影響 提案手法のような簡易的な Data Augmentation は,元の訓練データの量が少ない場合に効果的であり,量が十分な場合には効果がないと考えられている [6]. 本節では,この点を確認するために,各タスクの訓練データの量を 100 個から 1000 個に増やして,同様の実験を行った. 各タスクにおいて,元の訓練データとData Augmentaion を行った訓練データでそれぞれファインチューニングしたときのモデルの評価結果を図 2 に示す。 結果としては,MARC-ja においても,Data Augmentationを行った場合にモデルの性能が悪化した. また, JSTS, JCommonsenseQA については, Data Augmentation の有無による性能の差が,訓練データが 100 個の場合と比べて大きくなった. この結果から,提案手法の効果は訓練データの量に影響し,量が大きくなるほど手法の効果が出にくくなると考えられる。 図 2 訓練データの量を 10 倍にしたときの評価結果 ## 7 おわりに 本研究では,論文 [3] で提案された,BERT の Masked Lauguage Model を用いた単語置換による Data Augumentation の手法を改善した. 論文 [3] の手法では,一部のラベル付きデータを基にした拡張ラベル付きデータが多く生成されることがあり,それによって拡張後のデータセットに偏りが生まれてしまう。本研究では,その問題を解消するために,1 つのラベル付きデータに対して 1 つの拡張ラベル付きデータを生成するようにした. また,改善した手法の効果を検証するために,日本語の言語理解ベンチマークである JGLUE に含まれる 3 つのタスクを利用して実験を行った. その結果,提案手法は文書分類タスクのみに対して効果があることが確認された. 今後はこの手法に改良を加えて,より多くの夕スクでモデルの性能を改善できるようにしたい. [1] Steven Y Feng, Varun Gangal, Jason Wei, Sarath Chandar, Soroush Vosoughi, Teruko Mitamura, and Eduard Hovy. A Survey of Data Augmentation Approaches for NLP. arXiv preprint arXiv:2105.03075, 2021. [2] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [3] 恭介高萩, 浩幸新納. 複数の bert モデルを利用した data augmentation. Technical Report 4, 茨城大学工学部情報工学科, 茨城大学大学院理工学研究科情報科学領域, sep 2021. [4] Kentaro Kurihara, Daisuke Kawahara, and Tomohide Shibata. Jglue: Japanese general language understanding evaluation. In Proceedings of the Thirteenth Language Resources and Evaluation Conference, pp. 2957-2966, 2022. [5] H Zhang, M Cisse, Y Dauphin, and D Lopez-Paz. mixup: Beyond empirical risk minimization. iclr 2018. arXiv preprint arXiv:1710.09412, 2017. [6] Jason Wei and Kai Zou. Eda: Easy data augmentation techniques for boosting performance on text classification tasks. arXiv preprint arXiv:1901.11196, 2019. [7] Mengzhou Xia, Xiang Kong, Antonios Anastasopoulos, and Graham Neubig. Generalized data augmentation for low-resource translation. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 5786-5796, Florence, Italy, July 2019. Association for Computational Linguistics. [8] Jiaao Chen, Yuwei Wu, and Diyi Yang. Semi-supervised models via data augmentationfor classifying interactive affective responses. arXiv preprint arXiv:2004.10972, 2020. [9] Hongyu Guo, Yongyi Mao, and Richong Zhang. Augmenting data with mixup for sentence classification: An empirical study. arXiv preprint arXiv:1905.08941, 2019. [10] Jiaao Chen, Zichao Yang, and Diyi Yang. MixText: Linguistically-informed interpolation of hidden space for semi-supervised text classification. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 2147-2157, Online, July 2020. Association for Computational Linguistics. [11] Phillip Keung, Yichao Lu, György Szarvas, and Noah A Smith. The multilingual amazon reviews corpus. arXiv preprint arXiv:2010.02573, 2020. [12] Takashi Miyazaki and Nobuyuki Shimizu. Cross-lingual image caption generation. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1780-1790, 2016 [13] Alon Talmor, Jonathan Herzig, Nicholas Lourie, and Jonathan Berant. Commonsenseqa: A question answering challenge targeting commonsense knowledge. arXiv ## A 付録 ## A. 1 BERT の詳細設定 実験でのタスク処理に利用した BERT の詳細な設定は以下の通りである. ・モデル名:bert-base-japanese-v2 ・最大シーケンス長 : 512 ・バッチサイズ : 8 - 学習率 : 5e-05 ・エポック数 : 4 ## A. 2 実験結果の詳細 本節では,本研究で行った実験の評価結果の詳細について,それぞれ表 $1 ,$ 表 2 に示す. 表 25 章における評価結果の詳細 表 36 章における評価結果(訓練データ 10 倍)の詳細
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B2-3.pdf
# トラブル報告書に特有のフィールド情報を用いた BERT の追加学習 労瑛瑩 山崎智弘 伊藤雅弘 株式会社東芝 研究開発センター 知能化システム研究所 アナリティクス $A I$ ラボラトリー \{yingying1. lao, tomohiro2. yamasaki, masahiro20. ito\}@toshiba. co. jp ## 概要 本研究では, インフラ分野のトラブル報告書を用いて BERT の追加学習をするためのフィールド分類タスクを提案する。トラブル報告書に特有のフィー ルド情報を文脈として活用するので,含まれる文の数が少ないトラブル報告書でも, フィールドが持つ文や単語の潜在的な意味(特徴)を文脈として学習することができる. 文ベクトル表現の分布を可視化するとともに,マスクした単語を推測するタスクや報告書からトラブル表現を抽出するタスクで評価実験を行い,提案手法によって追加学習された BERT の効果を検証した。 ## 1 はじめに インフラ事業において, 電力・化学プラントなどの運用・保守の作業現場で発生したトラブルを記録している報告書が大量に蓄積されている. 我々は,過去の大量のトラブル報告書からトラブルに関係するイベント(「配管に亀裂」「水位が低下」など)の抽出, 因果関係の推論といった構造化技術の研究開発に注力している[1]. トラブル報告書に記載された情報を構造化することで, 「トラブルが発生した部品」や「効果のあった対処」を早期に把握することが可能になり, 保守作業現場の生産性向上に貢献できる. しかし, トラブル報告書には機器番号や業務用語など一般文書には含まれない用語が数多く含まれている. そのため, 日本語 Wikipedia で事前学習された BERT[2]で文や単語の埋め込み表現を取得しても,系列ラベリングによってトラブルに関係するイベントを抽出する下流タスクで性能を上げにくい課題がある. そこで,トラブル報告書からなるコーパスを用いた BERT の追加学習を通して, インフラ分野に適する文や単語の表現を取得することによって,イベント抽出などの下流タスクでの性能を向上させる & & $\ldots$ \\ 図 1 トラブル報告書の事例 ことを狙う。 トラブル報告書では含まれる文の数が少ないという特徵があるため, 従来の学習手法[2]では BERT の追加学習が困難である. 一方, トラブル報告書は現象や処置などの複数の項目から構成され, 各項目にはトラブルに関する詳細情報が文字や記号で記載されている(以下, 既定の項目および当該項目に書かれたテキストデータをフイールドと呼ぶ). 図 1 に示すように, トラブル報告書は横方向に沿った複数のフィールドにトラブルに関する詳細情報が記載されている。縌方向の同じフイールドには類似表現が記載されている.このため,横や縦方向を考慮するフィールドの関係性が利用できると考える。 そこで本研究では, トラブル報告書に特有のフィ ールド情報を文脈として活用して BERT の追加学習をするため,フィールド分類タスク (Field Classification)を提案する。具体的には, 従来の NSP(Next Sentence Prediction)の代わりにフィールド分類を通して,特徴ベクトル空間上の潜在的なフィ ールドの関係性に従ってテキストデータを分類することにより,クラスごとに同じフィールドの関係性をもつテキストのベクトル表現を近似的に学習する。 提案手法によって追加学習された BERT の効果を検証するため, 文のベクトル表現の可視化, マスク単語の推定タスクとトラブルイベント抽出による評価実験を行う。 ## 2 関連研究 近年,事前学習された言語モデルを用いて,様々 な NLP タスクに応じてファインチューニングすることは主流となっている. 特に, BERT は汎用性が高い言語モデルの代表として, 文書分類や固有表現抽出などの下流タスクで高いパフォーマンスを達成している。 BERT の事前学習では, ラベルなしテキストデータを用いて, MLM と NSP の 2 つの訓練夕スクで教師なし学習を行う.MLM では,マスクされたトークンを文脈を考慮して予測するタスクである. 穴埋め問題を解くことを通して, 単語の埋め込み表現を学習する. NSP では, 2 つの入力センテンス Aと Bが連続するか否かを分類するタスクである。入力センテンスの接続関係を考慮して文の埋め込み表現を学習する. ALBERT [3] はBERTよりも軽量なモデルとして提案されている。 ALBERT の事前学習では, NSP の代わりに, SOP(sentence-order prediction)で入力 2 つの文の順序の予測を行っている. 文脈に依存しない Word2Vec [4]や GloVe[5]などの従来手法より, 事前学習された BERT や ALBERT は文脈を考慮した単語の埋め込み表現を取得可能になる. Gururangan[6]らは, 適用分野や下流タスクなどのデータセットを使って追加で事前学習を行うことを提案し, 下流タスクの評価でオリジナルの BERT より精度向上の効果を示した. しかし, インフラ分野のトラブル報告書は, 以下の理由から, 事前学習されたBERTやALBERTを従来のように追加学習することは困難である. トラブル報告書はフィールドに分けてトラブルに関係する詳細情報を記載しているが,フィールドごとに含まれる文数や 1 文書に含まれる全ての文数がいずれも少ないという特徴がある. これらのトラブル報告書から取得できる学習データは順序ありの文ぺアが少なく, 順序なしの文ぺアが多いため, NSP や SOP でモデルの学習に偏りが発生する恐れがある. それに,ランダムに 2 つの文を取って作成された文ぺアには異なる情報が混入して,文脈が大きく変わる可能性が考えられ, MLM で学習された単語の埋め込み表現がずれる恐れがある。 ## 3 提案手法 本節では, トラブル報告書に特有のフィールド情報を文脈として活用する BERT の追加学習タスクを提案する. トラブル報告書において, どのようなトラブルが起こったか(現象), トラブルを解決するために何をしたか(処置)などのフィールドが存在している(図1). 従って, 既定のフィールドに書かれたテ 図 2 提案のフィールド分類(Field Classification) キストには当該フィールド情報を持っていると考えられる。例えば,「現象」フィールドに書かれたテキストには,トラブルの発生状況が詳細に記載されている.これらのテキストは「現象」というフィー ルド情報を持っている. そこで,トラブル報告書における潜在特徴を学習するため,NSP の代わりに,入力テキストのフィー ルド情報の関係性を学習するフィールド分類タスク (Field Classification)を提案する. 図 2 に示すように,提案のフィールド分類はBERTにテキスト AとBを入力して得られた $h_{[\mathrm{CLS}]}$ を用いて, softmax classifier で 2 文が持つフィールド情報の関係性を分類する.具体的に,フィールドの特性に基づいて入力テキストのフィールド情報の関係性の 2 値分類を行う。フイールド特性とは, 入力テキストのフィールド情報の関係性を次の 2 種類で定義する: フィールドの従属性(fieldSameDoc) 同一文書において,トラブルの発生原因とそれを解決するための対処方法のようにお互いに因果関係を持つ情報が書かれており,異なるフィールドに記載されたテキストでも,潜在的に関係する(図 1 の行に基づく). 従って, 入力のテキスト A と B がそれぞれに属する同一文書に書かれた文か否かというフィールド分類を行い, 同一文書の異なるフィールドにある関連情報を潜在特徴として学習する。 フィールドの共通性(fieldSameField) 同一フィ一ルドにおいて,異なる文書で類似するトラブル表現が存在しているため, これらの類似表現は潜在的に関係する(図 1 の列に基づく). 従って,入力のテキスト A と B がそれぞれに属する文書を考慮せず,同じフィールドに書かれた文か否かというフィールド分類を行い,文書をまたがった類似表現の潜在特徵を学習する。 提案のフィールド分類を通して,特徴ベクトル空 間上の潜在的なフィールド特性 (fieldSameDoc, fieldSameField のいずれか)に従ってテキストデータを分類することにより,クラスごとに同じフィールド特性をもつテキストのベクトル表現を近似的に学習できる. また,学習のために連続する 2 文をバランスよく取得することが難しいトラブル報告書でも, テキストが属するフィールドの関係性を利用することで 2 文を選択することは容易である。 ## 4 実験と評価 本節では, 提案手法の効果を検証するため, 実施した実験について述べる. BERT の追加学習では, 電カプラントに関する 3,130 件のトラブル報告書を利用している. 具体的に,「タイトル, 処置の結果, 現象, 原因, 処置」という 5 種類のフィールドに書かれた文データから,以下 4 種類のデータセットを作成した: ・Dataset1: 属する文書やフィールドの種類を考慮せず,ランダムに 2 文を取得する.計 $73 \mathrm{k}$ デ一夕数である. - Dataset2: 同一文書における同一フィールドから連続した 2 文を取得する. 計 $36 \mathrm{k}$ データ数である。 ・ Dataset3: 属するフィールドの種類を考慮せず,同一文書からランダムに 2 文を取得する. 計 $73 \mathrm{k}$ データ数である. ・Dataset4: 属する文書を考慮せず,同一フィールドからランダムに 2 文を取得する。計 $73 \mathrm{k}$ デー タ数である. 東北大学 BERT $の$ bert-base-janpanese-v2 $2^{1}$ 利用して, 2 種類のベースライン手法と 2 種類の提案手法によるモデルを追加学習し, 性能比較を行う (表 1).各モデルのパラメータ設定は, 最大入力長さを 256 , エポック数を 5 , 学習率を $2 \times 10^{-5}$, バッチサイズを 16 とする. なお, 学習のエポックごとにモデルを保存する. ## 4.1 文のベクトル表現の可視化 学習データセットから 50 件のトラブル文書(計 1,147 文) をサンプリングし, 追加学習されたモデルでサンプル文のベクトル表現の分布を $\mathrm{t}$-SNE[7]で可視化した. Proposal2 モデルによって取得されたサンプル文のベクトル表現([CLS]トークンであり, 768次元となる)を t-SNE で 2 次元に圧縮した可視化結果を図 3 に示す. 図 3 を確認すると,「タイトル」 の文のベクトル表現(青)や「処置の結果」の文のべクトル表現(オレンジ)がそれぞれに集まっていて,「現象」(緑)の文のベクトル表現と「処置」(紫)の文のベクトル表現が分離されていることがわかる. ベースラインの学習手法と比べて, 提案するフィ ールド分類(fieldSameField)を通して, 同じフィールドに書かれた文のベクトル表現が互いに近づく, 他のフィールドの文のベクトル表現と離れていることがわかる(A 付録参照). ## 4.2 マスク単語の推定タスク 提案手法で追加学習されたモデルを用いて,マスクした単語を推定する実験を行った.各モデルの推定結果(A 付録参照)から, ベースラインの学習手法と比べて, 提案するフィールド分類(fieldSameDoc, fieldSameField)を通して, 特徴ベクトル空間上で同じフィールド特性をもつ文のベクトル表現が互いに近づいていることがわかった。すなわち,これらの文に含まれる単語も近似的に学習されていると考えられる。 ## 4.3 トラブルイベント抽出による評価 提案手法で追加学習されたモデルの性能を評価するため, 電力プラントに関するトラブル報告書(日本語)を用いたトラブルイベント抽出の評価実験を行った. トラブルイベント抽出とは, トラブル報告書から「部品 $\mathrm{A}$ が壊れた」や「設備 C を取り替えた」 のようなトラブルの現象や処置になりうる記述表現をイベントとして抽出するタスクである. 今回利用する報告書には,トラブルに関わるイベントとその因果関係がアノテーションされて, デー 夕数を表 2 に示す. 4.1 節で追加学習された BERT モデルを用いて,系列ラベリングによるイベント抽出のモデルを構築した. 具体的に, Bi-LSTM-CRF $[8,9]$ をベースとし, BERT モデルから得られた単語ベクトルをBi-LSTM への入力として与えた. 表 2 のデータセットを用いてイベント抽出モデルの学習と評価を行い, 抽出されたイベント範囲が正解と完全に一致するかどうか(完全一致), イベント範囲の末尾 5 形態素に一致する(主要部一致)の $\mathrm{F}$ 値で評価した。 ^{1} \mathrm{https}$ //huggingface.co/cl-tohoku/bert-base-japanese-v2 } 図 3 Proposal2 モデルによるサンプル文のベクトル表現の可視化結果.「タイトル」(青), 「処置の結果」 (オレンジ),「現象」(緑),「処置」(紫)の点線で集まっている同じフィールドの文のベクトル表現を囲む. 表 1 電力プラントのトラブル報告書を用いた BERT の追加学習の比較実験 ベースライン手法と提案手法で追加学習されたモデルのエポックごとの完全一致の評価結果を表 3 に示す. 表 3 には, Proposal1 モデルは Epoch1 4 で良い性能を示している. 特に, Epoch1 の学習結果で Baseline2 モデルより性能評価を 2.3 ポイントで向上した. 主要部一致の場合, Proposal2 モデルは Epoch1 と Epoch4 で最も高い評価を得て, Epoch1の学習結果で Baseline1 モデルより 0.7 ポイントの性能向上を示した(A 付録参照). 上述の評価結果から,提案タスクでフィールド特性に基づく文や単語の埋め込み表現を近似的に学習することにより,インフラ分野の知識を習得でき, イベント抽出という下流タスクで性能向上に有効性があることが示された. 一方, Baseline1 モデルは, 訓練 Epoch 数を増やすにつれて,強い性能を示している。これは,提案手法でフィールド分類 loss と MLM loss の計算スケー ルが不均衡の恐れで, Epoch 数が増えるほどフィー ルド分類 loss が小さくなりすぎてモデルの学習への効果が弱くなると考えている.表 2 イベント抽出用のデータセット 表 3 イベント抽出による評価結果(完全一致) ## 5 おわりに 本研究では,トラブル報告書に特有のフィールド情報を文脈として活用し,フィールドが持つ文や単語の潜在的な意味(特徴)を学習するフィールド分類タスクを提案した。提案のフィールド分類でインフラ分野のトラブル報告書を用いた BERT の追加学習を行ったところ,イベント抽出という下流タスクでベースラインの学習手法より 2.3 ポイントの性能向上を確認できた。フィールド特性に基づく文や単語の埋め込み表現を近似的に学習することにより,インフラ分野の知識を習得できたと考えられる.今後は,提案するフィールド分類 loss と MLM loss の重み付け計算でモデルの性能を改善し,最適なパラメ ータ探索を実施する予定である。 ## 参考文献 [1] 伊藤雅弘, 山崎智弘. アノテーション漏れ推定を用いたエンティティ抽出. 言語処理学会第 27 回年次大会発表論文集(2021 年 3 月). pp1264-1268. 2021. [2] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. Computation and Language, arXiv.1810.04805, 2018. [3] Zhenzhong Lan, Mingda Chen, Sebastian Goodman, Kevin Gimpel, Piyush Sharma, Radu Soricut. ALBERT: A Lite BERT for Self-supervised Learning of Language Representations. Computation and Language, arXiv.1909.11942, 2019. [4] Tomas Mikolov, Kai Chen, Greg Corrado, Jeffrey Dean. Efficient Estimation of Word Representations in Vector Space. Computation and Language, arXiv.1301.3781, 2013. [5] Jeffrey Pennington, Richard Socher, Christopher Manning. GloVe: Global Vectors for Word Representation. Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp1532-1543, 2014. [6] Suchin Gururangan, Ana Marasović, Swabha Swayamdipta, Kyle Lo, Iz Beltagy, Doug Downey, Noah A. Smith. Don't Stop Pretraining: Adapt Language Models to Domains and Tasks. Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics(ACL), pp 8342-8360, 2020. [7] Laurens van der Maaten, Geoffrey Hinton. Visualizing Data using t-SNE. Journal of Machine Learning Research, Vol.9, pp 2579-2605, 2008. [8] Guillaume Lample, Miguel Ballesteros, Sandeep Subramanian, Kazuya Kawakami, Chris Dyer. Neural Architectures for Named Entity Recognition. Proceedings of NAACL 2016, 2016. [9] Alan Akbik, Duncan Blythe, Roland Vollgraf. Contextual String Embeddings for Sequence Labeling. Proceedings of the 27th International Conference on Computational Linguistics, pp1638-1649, 2018. ## A 付録 ## 文のベクトル表現の可視化 フィールド特性が共通性の場合, 50 件のサンプル文書(計 1,147 文) をランダムに取得して,オリジナル BERT(追加学習なし)とベースライン手法で追加学習されたモデルの可視化結果を以下のように示す. Baseline1(MLM only) ## マスク単語の推定タスク 提案手法で追加学習されたモデルを用いて, マスクした単語を推定するタスクの結果を考察する.以下の表 4 に, 考察事例および各モデルの推定結果 (top10)を示す.「現象」に書かれた例文 1 において, Proposal1 モデルは正解である故障’と類似する意味を持つ,“異常’が推定されており,他に‘故障’と含む文書における頻出単語である‘対応’, ‘基板’, ‘客’, ‘常時', 'CPU'も推定されている.「処置」に書かれた例文 2 において, Proposal2 モデルは正解である‘交換’が推定されており, 他に「処置」における頻出単語である‘基板’, ‘客(\#\#先)', ‘様子’, ‘見’も推定されている. 表 4 マスク単語の推定事例 } \\ ## 「処置」例文 2 : 基板[MASK]にて処置済み Masked Token 正解 : ‘交換' \\ ## トラブルイベント抽出による評価 抽出されたイベント範囲が正解イベント範囲の末尾 5 形態素に一致する(主要部一致)の $\mathrm{F}$ 値で評価した結果である. 表 5 イベント抽出による評価結果 (主要部一致)
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B2-4.pdf
# トピックエントロピーに基づく学習データ選択による 事前学習言語モデルの訓練安定性向上 永塚光一 渥美雅保 創価大学大学院 理工学研究科 [email protected] [email protected] ## 概要 本稿では,事前学習言語モデルの訓練の安定化を目的として,新たな学習データ選択手法である Topic Entropy-based Data Selection (TEDS) を提案する. TEDS では,テキストに含まれるトピックの多様性指標であるトピックエントロピーを定義した上で,(i)トピックエントロピーの高い一部の学習デー タによる訓練,(ii) 全学習データによる訓練という 2 段階の事前学習を行う. 提案手法の効果を検証するために,検証損失に基づく訓練安定性と GLUE ベンチマークを用いた下流タスクの性能を評価した. 実験により,TEDS を用いたモデルはベースラインと比較して検証損失が安定的に減少し,より高い汎化性能を獲得することを示した。 ## 1 はじめに 近年, 事前学習言語モデル ${ }^{1)}$ (Pre-trained Language Model, PLM) は自然言語処理分野において大きな成果を上げている [1,2]. PLM は,小規模なラベル付きデータセットを用いてファインチューニングを行うことにより,様々な自然言語処理タスクにおいて最高精度を達成している。一方で,大規模なコー パスを用いた事前学習は計算コストが非常に高く,特に訓練が不安定である場合には,計算コストが更に増加するという問題がある。 PLM の学習効率を向上させるために,これまでに多くの研究が行われている. 代表的な例として,よりパラメータ数の少ないモデルアーキテクチャを設計するアーキテクチャベースの手法 $[3,4,5,6,7]$,効率的な事前学習を行うために新たな目的関数を定義するオブジェクティブベースの手法 $[8,9]$, 更に.効果的な学習データ選択と学習スケジュールの実行  を通して,学習効率を向上させるデータセットベー スの手法がある $[10,11,12]$. アーキテクチャベースやオブジェクティブベースの手法は既に PLM の学習効率向上に大きく貢献している一方で,データセットベースの手法はまだ比較的研究が少ない. 代表的なデータセットベースの手法として,カリキュラム学習 [12] が挙げられる. カリキュラム学習は,定義された難易度の指標に基づき,簡単な学習サンプルからより難易度の高い学習サンプルへと訓練を徐々に移行させることにより,モデルの学習効率を高める手法である.PLM にカリキュラム学習を適用するためには,学習データとなるテキストに対して,難易度の指標を設計する必要がある.テキストの難易度を定義することは,言語学の分野では Readability の研究として知られており,テキストの難易度を決める要因は,(1) 語彙レベル,文法構造の複雑さ,単語や文の長さなどのミクロ要因,(2) テキストのトピックや一貫性などのマクロ要因に分類される [13]. ここで,(1)ミクロ要因に関しては,語彙頻度 [12] やテキストの長さ $[10,11]$ を活用した手法が提案されているが,(2) マクロ要因については十分に研究が行われていない。 本稿では,学習サンプルの難易度指標としてマクロ要因の一つであるトピックに着目し,新たな学習データ選択手法である Topic Entropy-based Data Selection (TEDS) を提案する.TEDS では,学習効率が高い (難易度が低い) テキストは多様なトピックから構成されるという仮説に基づき,学習サンプルのトピックの多様性を計測する新たな指標として, トピックエントロピーを定義する。テキストの潜在的なトピックを推定する手法には,トピックモデルの一つである Latent Dirichlet Allocation (LDA) を用いる. 実験により,TEDS を用いたモデルでは,ベー スラインと比較して訓練の安定性及び下流タスクにおける汎化性能が向上することを示す. 図 1: TEDS の全体像 ## 2 関連研究 近年の研究では,大規模な言語モデルの学習効率化にデータセットベースの手法が用いられている。例えば,GPT-3[14] や T5[15] などの高コストな事前学習を伴うモデルでは, 複数のコーパスから指定されたサンプリング比率で学習データを収集することでデータセットの品質を高めるデータ選択手法を採用している.また,テキストの長さを難易度の指標としてカリキュラム学習を GPT-2 や BERT の事前学習に適用する研究が行われている $[10,11,16]$. ここで,標準的なカリキュラム学習では難易度の指標に加えて,学習データを徐々に増加させるためのスケジューラを設計するが,我々の TEDS は,二段階のみで構成されるよりシンプルな手法であり,こうしたスケジューラが提案手法に与える影響については検証しない。したがって,提案手法をカリキュラム学習とは呼称しないこととする。 ## 3 提案手法 図 1 に示すように,TEDS は 2 つのステップから構成される. 1 つ目のステップでは,コーパスに含まれる文書集合を用いて,LDA の訓練を行う (図 1a). 2 つ目のステップでは,訓練した LDA を用いて各学習サンプルのトピックエントロピーを計算する. 続いて,トピックエントロピーの高い一部の学習サンプルを抽出したのち,抽出データと全学習データを用いて,2 段階の事前学習を行う (図 1b). LDA 及び PLM の訓練には,Wikipedia の英語記事から構成されるコーパスである WikiText-103[17] を用いる. ## 3.1 LDA の訓練 LDA を訓練するために,WikiText-103 から各記事をあらかじめ定義されたフォーマットに従って抽出し,記事集合を得る。続いて,Byte-level BPEトークナイザ [18] を用いて各記事をサブワードに分解したのち,ストップワード2)除去を行う.また,TF-IDF によるフィルタリングにより,語彙数を約 $50 \%$ 削減する.ここで,LDA は単語ではなくサブワードに基づいて学習される.既存のトピックモデルでは,単語による訓練が一般的であるが,提案手法では Transformer ベースの言語モデルの入力形式との一貫性を保つために,サブワードを用いる。 ## 3.2 PLM の訓練 ## 3.2.1 トピックエントロピー トピックエントロピーは,与えられたテキストに含まれるトピックの多様性を測定するために我々が提案した新たな指標である. TEDS では,少数のト  ピックのみが存在する学習サンプルよりも多様なトピックを含む学習サンプルを選択することが,言語モデルの初期の訓練安定化に有効であると仮定する. 学習サンプルを構成するトークン系列 $\boldsymbol{x}$ が与えられた時,トピックエントロピーは以下の式で計算される. $ T E(\boldsymbol{x})=-\sum_{k=1}^{K} p(k \mid \boldsymbol{x}) \log p(k \mid \boldsymbol{x}) $ ここで,Kはトピックサイズ, $p(k \mid \boldsymbol{x})$ は LDA によって計算された事後確率分布におけるトピック $k$ の条件付き確率である. 各学習サンプルに対して, トピックエントロピーを計算し,トピックエントロピーが高い上位の学習サンプルを抽出することで,初期の事前学習に用いる学習データセットを構築する. ## 3.2.2 2 段階事前学習 学習する言語モデルとして, 本研究では, RoBERTa[2]を採用する. TEDS の事前学習は 2 つのサブステージから構成される。まず,トピックエントロピーの高い学習サンプルを用いて,総トレーニングステップ数の半分まで RoBERTa を訓練する. 次に,全ての学習サンプルを用いて,トレーニングステップ数の終了まで RoBERTa の訓練を継続する.学習データには, LDA の訓練と同様に WikiText-103 を用いる。また,学習サンプルのトークン数は 128 に設定する。 ## 4 実験 ## 4.1 実験設定 提案手法を評価するために,訓練安定性と汎化性能という 2 つの観点から, TEDS とベースラインの比較を行う. ベースラインとして, 通常の事前学習と同様にはじめから全ての学習データを用いる All Data Selection (ADS) 及びランダムに学習データを抽出する Random Data Selection (RDS), 語彙頻度に基づくカリキュラム学習であるVocab CL[12]を設定する. VocabCL は,カリキュラム学習の研究の初期において提案された手法であり, 単純な FFN 層から構成されるニューラルネットワークに基づく N-gram 言語モデルの訓練効率化に有効であることが報告されている. Vocab CL ではコーパス中での頻度を基に語彙をランキングしたのち, 最初のステージで低頻度語彙 (希少語彙)を含まない学習データを抽出してモデルに与える. LDA のトピックサイズは 50 に設定し,TEDS 及び RDS において抽出する学習データサイズは,全データの $25 \%$ とする.また,VocabCLでは,低頻度語彙の定義を下位 $10 \%$ の頻度の語彙とすることで, TEDS 及び RDS と同等程度のデータサイズである約 $27 \%$ の学習データを抽出する. 訓練安定性を評価するために,各モデルに対して異なるランダムシードを用いて 5 回ずつ事前学習を行う。総トレーニングステップ数は 10 万回とし, 5 万トレーニングステップで全学習データに訓練を移行させる. 事前学習を行った各モデルの汎化性能の計測には, GLUE ベンチマーク [19] における 9 つの下流タスクを採用する. ここで, TEDS の後半の訓練において, 全学習データを追加する効果を検証するために,全学習データに訓練を移行させないモデルの汎化性能も評価する. PLM のファインチューニングに関しても,異なる 3 つのランダムシードで訓練を行ったのち,各下流タスクの平均スコアを評価する。全てのモデルに共通のモデルアーキテクチャとして,12 層と 12 個の注意ヘッドから構成される RoBERTa-base ${ }^{3)}$ を用いる.トークナイザの訓練により獲得された語彙数は 29,833 であり, モデルの入力トークン数は 128 ,ミニバッチ数は 64 とする. マスキング率は 15\%に設定し, 最適化手法として, AdamW[20] を使用する. ## 4.2 実験結果 ## 4.2.1 訓練安定性の評価 図 2 に TEDS とベースラインの学習曲線を示す.図 2a からわかるように, ADS と RDS の検証損失は少しずつ減少し続けているものの,ADS における一度の訓練を除いて,全ての訓練で検証損失が高止まりした.また,Vocab CL を用いたモデルについても,他のベースラインと同様に TEDS のような急激な検証損失の減少は確認されなかった (図 2b). 一方で,TEDS を用いたモデルでは,どの訓練においても,検証ロスが 2 万トレーニングステップ付近で安定的に減少した.これらの結果は, TEDS により, PLM の訓練安定性が通常の学習よりも大幅に向上することを示している. 更に,RDSを用いたモデルの訓練安定性が向上していないことから,ランダム  (a) TEDS, ADS and RDS (b) TEDS and vocab CL 図 2: 提案手法とベースラインの学習曲線の比較 表 1:各モデルの GLUE ベンチマークスコアの比較.太字は各タスクの最高値を示す.QQPでは F 値を,CoLA についてはマシューズ相関係数を,それ以外のタスクについてはアキュラシーをそれぞれ報告している。 にデータサイズを削減するだけでは不十分であり, トピックエントロピーの高い学習サンプルを選択することが重要であることがわかった. ## 4.2.2 汎化性能の評価 表 1 に各モデルの GLUE スコアの比較を示す. TEDS を用いたモデルは WNLI を除く全ての下流タスクにおいて最高值を達成し, 全タスクの平均値において,ベースラインを 3 ポイント以上上回った. このことから,TEDS により安定した事前学習を行ったモデルは汎化性能も向上することが確認された. ベースラインでは,ADS が最も良いスコア(58.06)を達成し,RDS と Vocab CL をわずかに上回る結果となった. 更に,TEDS では,全学習デー タを追加学習するモデル (TEDS w/ all data) の方が,全学習データを追加学習しないモデル (TEDS w/o all data) と比較して, 7 つの下流タスクにおいて高いスコアを獲得し, 平均スコアで約 0.9 ポイント上回った. 訓練安定性の評価では,はじめから全データを用いることは初期の学習の安定性を損なうことが確認された。一方で,今回の結果から,トピックエントロピーが高い学習サンプルを選択することで初期の訓練を安定化させた場合,後半の訓練で全ての学習データを用いて追加学習することが汎化性能の向上にとって好ましいことが確かめられた. ## 5 まとめ 本稿では,事前学習言語モデルの訓練安定性を向上させる新しいデータ選択手法である TEDS を提案した. TEDS では,テキストに含まれるトピックの多様性指標であるトピックエントロピーに基づいて学習データを抽出し,2 段階の事前学習を行う. WikiText-103 を用いた実験の結果,TEDS を用いたモデルはベースラインよりも訓練安定性が大幅に高くなることがわかった. また,GLUE ベンチマークを用いた汎化性能の評価においても,TEDS に基づくモデルが平均スコアでベースラインを大きく上回ることが示された. 今後の課題として,本手法をより大規模なコーパスを用いた訓練に応用することが期待される。 ## 謝辞 本研究は, 国立研究開発法人科学技術振興機構 (JST) による次世代研究者挑戦的研究プログラムの支援を受けて実施されたものです. ## 参考文献 [1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, volume 1, pages 4171-4186, 2019. [2] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized bert pretraining approach, 2019. [arXiv:1907.11692]. [3] Zhenzhong Lan, Mingda Chen, Sebastian Goodman, Kevin Gimpel, Piyush Sharma, and Radu Soricut. ALBERT: A lite BERT for self-supervised learning of language representations, 2020. [arXiv:1909.11942]. [4] Victor Sanh, Lysandre Debut, Julien Chaumond, and Thomas Wolf. DistilBERT, a distilled version of bert: smaller, faster, cheaper and lighter, 2019. [arXiv:1910.01108]. [5] Elena Voita, David Talbot, Fedor Moiseev, Rico Sennrich, and Ivan Titov. Analyzing multi-head self-attention: Specialized heads do the heavy lifting, the rest can be pruned. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pages 5797-5808, 2019. [6] Adrian de Wynter and Daniel J. Perry. Optimal subarchitecture extraction for bert, 2020. [arXiv:2010.10499]. [7] Sainbayar Sukhbaatar, Edouard Grave, Piotr Bojanowski, and Armand Joulin. Adaptive attention span in transformers. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pages 331-335, 2019. [8] Kevin Clark, Minh-Thang Luong, Quoc V Le, and Christopher D Manning. Electra: Pre-training text encoders as discriminators rather than generators, 2020. [arXiv:2003.10555]. [9] Zhilin Yang, Zihang Dai, Yiming Yang, Jaime Carbonell, Russ R Salakhutdinov, and Quoc V Le. Xlnet: Generalized autoregressive pretraining for language understanding. In Advances in Neural Information Processing Systems, volume 32, 2019. [10] Koichi Nagatsuka, Clifford Broni-Bediako, and Masayasu Atsumi. Pre-training a BERT with curriculum learning by increasing block-size of input text. In Proceedings of the International Conference on Recent Advances in Natural Language Processing (RANLP 2021), pages 989-996, 2021. [11] Ameeta Agrawal, Suresh Singh, Lauren Schneider, and Michael Samuels. On the role of corpus ordering in lan- guage modeling. In Proceedings of the Second Workshop on Simple and Efficient Natural Language Processing, pages 142-154, 2021. [12] Yoshua Bengio, Jérôme Louradour, Ronan Collobert, and Jason Weston. Curriculum learning. In Proceedings of the 26th Annual International Conference on Machine Learning, page $41-48,2009$. [13] Jae-Ho Lee and Yoichiro Hasebe. Readability measurement of japanese texts based on levelled corpora. The Japanese Language from an Empirical Perspective, pages 143-168, 2020. [14] Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel Ziegler, Jeffrey Wu, Clemens Winter, Chris Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, and Dario Amodei. Language models are few-shot learners. In Advances in Neural Information Processing Systems, volume 33, pages 1877-1901, 2020. [15] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J. Liu. Exploring the limits of transfer learning with a unified text-to-text transformer. Journal of Machine Learning Research, 21(140):1-67, 2020. [16] Conglong Li, Minjia Zhang, and Yuxiong He. Curriculum learning: A regularization method for efficient and stable billion-scale gpt model pre-training, 2021. [arXiv:2108.06084]. [17] Stephen Merity, Caiming Xiong, James Bradbury, and Richard Socher. Pointer sentinel mixture models, 2016. [arXiv:1609.07843]. [18] Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei, Ilya Sutskever, et al. Language models are unsupervised multitask learners. OpenAI blog, 1(8):9, 2019. [19] Alex Wang, Amanpreet Singh, Julian Michael, Felix Hill, Omer Levy, and Samuel Bowman. GLUE: A multi-task benchmark and analysis platform for natural language understanding. In Proceedings of the 2018 EMNLP Workshop BlackboxNLP: Analyzing and Interpreting Neural Networks for NLP, pages 353-355, 2018. [20] Ilya Loshchilov and Frank Hutter. Decoupled weight decay regularization, 2017. [arXiv:1711.05101].
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B2-5.pdf
# 人間と言語モデルに対するプロンプトを用いた ゼロからのイベント常識知識グラフ構築 井手竜也 ${ }^{1}$ 村田栄樹 1 堀尾海斗 1 河原大輔 1 山崎天 ${ }^{2}$ 李聖哲 ${ }^{2}$ 新里顕大 ${ }^{2}$ 佐藤敏紀 ${ }^{2}$ 1 早稲田大学理工学術院 ${ }^{2}$ LINE 株式会社 \{t-ide@toki., eiki.1650-2951@toki . , kakakakakakaito@akane. , dkw@\}waseda.jp \{takato.yamazaki, shengzhe. li , kenta. shinzato, toshinori.sato\}@linecorp.com ## 概要 人間はなにかを理解したり推論したりするとき,常識を用いる.コンピュータにそのような常識を理解させるため,知識ベースを構築する試みがある。 しかし,高い品質の大規模なデータを低いコストで獲得するのは難しい,本論文では,クラウドソーシングと大規模言語モデルの両方を用いて,ゼロから知識グラフを構築する手法を提案する。提案手法に従って,翻訳ではない日本語ならではの知識グラフを構築した。さらにその知識グラフから小規模な知識モデルを訓練し,その性能について検証した。 ## 1 はじめに 人間はなにかを理解したり推論したりするとき,常識を用いる.それと同じように、コンピュータがオープンドメインの QAを解いたり物語や対話を読んだりするためには,常識が必要となる [1,2]. コンピュータに常識を理解させるため,それに向けた知識ベースを構築する試みがある.多くはクラウドソーシングによって構築される $[3,4,5]$ が,大規模な構築には高いコストがかかる。一方,知識を自動で獲得する手法 $[6,7]$ もあるが,高い品質の知識を獲得するのは難しい. 近年,知識べースの構築に大規模言語モデル [8] を用いる手法 [9] も提案されている. 知識をクラウドワーカに記述してもらうのと大規模言語モデルに生成させるのは,どちらも少しの例から多くの例を作成してもらうという意味で,本質的に同じことである.異なるのは人間か言語モデルかだけで,いわば後者は前者のアナロジーである。本論文では,人間と言語モデルに対するプロンプトを用いて,段階的に知識グラフを構築する手法を提 図 1 提案手法の概要 案する. 提案手法に従って,イベントに関する常識の知識グラフを構築した. Yahoo!クラウドソーシング1) と HyperCLOVA [10] を併せたゼロからの構築によって,英語の単なる翻訳ではない日本語ならではの知識グラフを獲得した。また人間と言語モデルに基づく推論を比較し,傾向の違いを明らかにした. さらに構築した日本語の知識グラフから知識モデル [11] を訓練し,見たことがないイベントに対する推論の生成について検証した。2) ## 2 関連研究 ConceptNet [3] はエンティティ同士の関係, ATOMIC [4] はイベント同士もしくはイベントとメンタルステートの関係を扱う知識グラフである。これらの知識はクラウドソーシングを通して,人の手によって書かれている. ATOMIC と ConseptNet をマージして拡張した知識グラフに, ATOMIC-2020 [5] がある. また ASER [6] と TransOMCS [7] もともにイベントに関する知識グラフだが,これらは大規模なテキストから抽出されている. ConceptNet や ATOMIC はクラウドソーシング 1) https://crowdsourcing.yahoo.co.jp/ 2) 構築した知識グラフとそれについて訓練した知識モデルは,公開予定である。 (a) イベント (b) 影響の推論図 2 イベントと推論を獲得するタスクの例 によって獲得されているのに対して, ASER と TransOMCS はともに自動獲得である. 自動獲得の場合,大規模な構築は容易だが,テキストに現れない知識を得ることは難しい。一方,クラウドソーシングであれば良質なデータを集められるが,金銭的にも時間的にもコストが高い. 大規模言語モデルがもつ常識をより小さな言語モデルに蒸留する試み [9] がある。 そこでは GPT-3 [8] を用いて ATOMICを拡大し,RoBERTa [12]を用いてフィルタを施している. ## 3 知識グラフの構築 本論文では,クラウドソーシングと大規模言語モデルを用いて,常識推論に関する知識グラフをゼロから構築する手法を提案する。まずクラウドソーシングによって小規模な知識グラフを構築し,それをプロンプトに用いることによって,大規模言語モデルがもつ知識を抽出する。提案手法の概要を図 1 に示す. クラウドソーシングだけを用いてゼロから知識グラフを構築する場合,金銭的にも時間的にもコストが高い. クラウドソーシングと大規模言語モデルを併用することで,とくに時間的なコストの削減が期待される。 ATOMIC [4] や ASER [6] のような,イベント関する知識グラフを日本語でゼロから構築する。一段階目のクラウドソーシングには Yahoo!クラウドソーシング,二段階目の大規模言語モデルには HyperCLOVA [10]を用いる. ## 3.1 クラウドソーシングによる収集 まずはイベントだけを集め,続いてそれぞれのイベントに対する推論を集める. イベントある人物 $\mathrm{X}$ や周辺の人物 $\mathrm{Y}$ ,人物 $\mathrm{Z}$ に関する日常的なイベントをクラウドワーカに記述し表 1 小規模な知識グラフの統計 てもらう.タスクの例を図2(a) に示す。タスクでは指示と 10 個の例を与え, 1 人あたり 1 個以上のイベントを記述してもらう. 重複するイベントは集計時に取り除く。 推論獲得したイベントに対して,その前後に対する推論をクラウドワーカに記述してもらう.推論する関係には,ATOMIC のそれにならって以下の 4 種類を採用する. ${ }^{3)}$ 1. 前にその人に起こっていただろうこと (必要) 2. 後にその人に起こるだろうこと (影響) 3. 前にその人が思っていただろうこと (意図) 4. 後にその人が思うだろうこと (反応) イベントあたり 3 人に尋放,1 人あたり 1 個の推論を記述してもらう,タスクの例を図 2(b) に示す.重複する三つ組4)を取り除き,日本語構文解析器 $\mathrm{KNP}^{5}$ を用いて推論に構文的なフィルタを施す。6) クラウドソーシングによって獲得したイベントと推論の統計を表 1 の最左列に示す. コストとしては,計 547 人のクラウドワーカを雇い,その料金は 16,844 円であった. 知識グラフの一部を表 2 に示す. ## 3.2 クラウドソーシングによるフィルタ 獲得した推論に対して,それらの品質をクラウドワーカに評価してもらう.推論ごとに適切かどうかを 3 人に判定してもらい,多数決をとる.推論の評価は,関係ごとに独立に行う. 適切でないと判定された推論は,フィルタして除去する。 フィルタの統計は表 1 の中 2 列にある。計 465 人のクラウドワーカを雇い,8,679 円を支払った. 判定における Inner-Annotator Agreement として計算した Fleiss’s $\kappa$ を,表 1 の最右列に示す. 3)関係は ATOMIC のそれとまったく同じではない.たとえば本研究における意図は, ATOMIC における xIntent と xWant からなる. 4)本研究では,あるイベントとそれに対する推論,推論における関係を(イベント,関係, 推論)という三つ組として扱う. 5) https://nlp.ist.i.kyoto-u.ac.jp/?KNP 6)主語が人物 $X$ かどうかや時制が現在かどうか,イベントは 1 文かどうかなどを判定する. 適切でないと判定された推論には,以下の傾向があった. 一つは (X が二度蒋する, 反応, 今日は仕事が休みだと思う)のように,前後が逆というものであった. (Xがネットサーフィンをする, 必要, 海に着く)のように,自然でないものもあった。 ## 3.3 大規模言語モデルによる生成 HyperCLOVA Koya 39B モデルを用いて,知識グラフを大規模に拡大する. 生成では 10 個のショットを用いて生成を行う. ショットは生成のたびにランダムに選ぶ. イベント 3.1 節で獲得したイベントから,新たなイベントを生成する. ランダムに選んだ 10 個のイベントをショットとして列挙し、モデルに 11 個目を生成させる。10,000 回生成し,重複するイベントを取り除く。 推論イベントと同じように, 3.1 節と 3.2 節で獲得した推論をショットとして,10 個の推論から 11 個目を生成する.推論は生成したイベントごとに 10 回生成し, 三つ組の単位で重複するものを取り除く. 生成では、関係ごとに異なるプロンプトを用いる. ショットの三つ組はテンプレートを用いて自然言語に変換し,パターンマッチによってテールを抽出する.ショットのテンプレートを表 3 に示す. 抽出した推論に対して、3.1 節のフィルタを施す. 大規模言語モデルが生成したイベントと推論の統計を表 4 の最左列に示す. また生成した推論を 3.2 (a) 蓋然性 (b) 時間的な幅図 3 影響の推論に関する人間と言語モデルの傾向 節の手順で評価した結果を表 4 の右 2 列に示す. 評価は関係ごとに、生成した推論からランダムに選んだ 500 個に対して行った. 計 409 人のクラウドワー カを雇い,その料金は 7,260 円であった. 大規模な知識グラフの一部を表 5 に示す. 構築した知識グラフは,たとえば (Xが会社に行く, 必要, $\mathrm{X}$ が電車に乗る)のように, 日本の文化が反映されたものとなっている.このことは,異なる言語の似たような資源をただ翻訳するのではなく,対象の言語においてゼロから構築することの意義を示すとともに,提案する手法の価値を強調している。 ## 4 知識グラフの分析 クラウドソーシングの知識グラフと大規模言語モデルの知識グラフ,すなわち人間と言語モデルが生み出す推論の傾向を比較する. 本研究では, 比較の観点に蓋然性と時間的な幅を採用する.4 関係のうち,代表として影響を検証する。 3.1 節と 3.2 節で獲得した三つ組のヘッドに対して,3.3節の手順にしたがってテールを 3 個ずっ生成する。影響に関する 554 個の三つ組から,586 個の推論を獲得した。 蓋然性あるイベントの後に起こるイベントが, どれくらい起こりやすいかを見る。影響の関係にあるイベントのペアをクラウドワーカに与え,後のイベントがどれくらい起こりやすいかを 3 段階で判定してもらう.推論あたり 3 人に尋ね,回答の中央値を採用する。 時間的な幅あるイベントが起こってから,後に起こるイベントが起こるまでの時間的な幅を見る. 表 5 大規模な知識グラフの例 } & 関係 & 推論 \\ 表 6 知識モデルの評価 表 7 GPT-2 に基づく知識モデルの生成例 蓋然性と同じように,先のイベントが起こってから後のイベントが起こるまでの時間幅を 5 段階で判定してもらう. 3 人に尋ね,中央値を採用する. それぞれの比較を図 3 に示す. 図 3(a) から,人間が記述した推論の方がわずかに蓋然的であることがわかる. 図 3(b) では,大規模言語モデルが生成する推論の方がより時間的に幅がある。このことから,人間は影響と聞いて比較的すぐ後に起こるイベントを推論するが,言語モデルは少し遠くのイベントを見ると言える。 ## 5 知識モデルの訓練 3 節の知識グラフを用いてイベント常識に関する知識モデル [11]を訓練する。 大規模言語モデルがもつ知識をより小規模な知識モデルに蒸留 [9] することで,それらを扱うためのコストが小さくなる. GPT-2 [13] と T5 [14] の日本語版7) を,構築した知識グラフで Finetuningする。自動評価として,BLEU [15] と BERTScore [16] を計算する. BLEU は,日本語形態素解析器 Juman $++^{8}$ を用いて分かち書きした単語について計算する. BERTScore は, RoBERTa [12] の日本語版9)を用いて計算する. さらに人手評 7)日本語版には,それぞれ https://huggingface.co./ nlp-waseda/gpt2-small-japanese $と$ https://huggingface. co/megagonlabs/t5-base-japanese-web を採用した. 8) https://nlp.ist.i.kyoto-u.ac.jp/?JUMAN\%2B\%2B 9) https://huggingface.co./nlp-waseda/ roberta-base-japanese価として,推論の尤もらしさをクラウドソーシングによって評価する.推論の起こりやすさを常に・よく・たまに・決してないの 4 段階で判定してもらう. 推論あたり 5 人のクラウドワーカに判定してもらい,決してない以外の判定が過半数を上回る推論を尤もらしいものとする。また上記の 4 段階にそれぞれ 3 から 0 までのスコアを割り当て, 推論ごとに平均をとる. 知識グラフの 9 割を訓練データ,1 割をテストデータとする. テストデータに対する自動評価と人手評価の結果を表 6 に示す. 尤もらしさはどちらの知識モデルも約 9 割で,おおむね適切な推論を生成していると言える。またすべての指標に関して, GPT-2 が T5 を上回っている. GPT- 2 に基づく知識モデルの生成例を表 7 に示す. ## 6 おわりに 本研究では, クラウドソーシングと大規模言語モデルの両方を用いて,ゼロから知識グラフを構築する手法を提案した.提案した手法をもとに,Yahoo! クラウドソーシングと HyperCLOVA [10]を用いて, イベントとメンタルステートの常識に関する知識グラフを日本語で構築した,タスクを設計してクラウドワーカに記述してもらうのと,プロンプトを設計して言語モデルに生成させるのは互いに似ていることから,それらの差異を調査した。さらに構築したイベントの常識に関する知識グラフから, 同様の常識に関する知識モデルを訓練した。 ゼロから知識グラフを構築する手法や,それをもとに構築した日本語の知識グラフ,あるいは訓練した知識モデルが,コンピュータの常識推論を促進することを望む。 ## 謝辞 本研究は LINE 株式会社と早稲田大学の共同研究により実施した。 ## 参考文献 [1] Alon Talmor, Jonathan Herzig, Nicholas Lourie, and Jonathan Berant. CommonsenseQA: A question answering challenge targeting commonsense knowledge. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4149-4158, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [2] Deepanway Ghosal, Navonil Majumder, Alexander Gelbukh, Rada Mihalcea, and Soujanya Poria. COSMIC: COmmonSense knowledge for eMotion identification in conversations. In Findings of the Association for Computational Linguistics: EMNLP 2020, pp. 2470-2481, Online, November 2020. Association for Computational Linguistics. [3] Robyn Speer, Joshua Chin, and Catherine Havasi. Conceptnet 5.5: An open multilingual graph of general knowledge. Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 31, No. 1, Feb. 2017. [4] Maarten Sap, Ronan Le Bras, Emily Allaway, Chandra Bhagavatula, Nicholas Lourie, Hannah Rashkin, Brendan Roof, Noah A. Smith, and Yejin Choi. Atomic: An atlas of machine commonsense for if-then reasoning. Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 33, No. 01, pp. 3027-3035, Jul. 2019. [5] Jena D. Hwang, Chandra Bhagavatula, Ronan Le Bras, Jeff Da, Keisuke Sakaguchi, Antoine Bosselut, and Yejin Choi. (comet-) atomic 2020: On symbolic and neural commonsense knowledge graphs. Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 35, No. 7, pp. 6384-6392, May 2021. [6] Hongming Zhang, Xin Liu, Haojie Pan, Yangqiu Song, and Cane Wing-Ki Leung. Aser: A large-scale eventuality knowledge graph, 2019. [7] Hongming Zhang, Daniel Khashabi, Yangqiu Song, and Dan Roth. Transomcs: From linguistic graphs to commonsense knowledge. In Christian Bessiere, editor, Proceedings of the Twenty-Ninth International Joint Conference on Artificial Intelligence, IJCAI-20, pp. 40044010. International Joint Conferences on Artificial Intelligence Organization, 7 2020. Main track. [8] Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel Ziegler, Jeffrey Wu, Clemens Winter, Chris Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, and Dario Amodei. Language models are few-shot learners. In $\mathrm{H}$. Larochelle, M. Ranzato, R. Hadsell, M.F. Balcan, and H. Lin, editors, Advances in Neural Information Processing Systems, Vol. 33, pp. 1877-1901. Curran Associates, Inc., 2020. [9] Peter West, Chandra Bhagavatula, Jack Hessel, Jena Hwang, Liwei Jiang, Ronan Le Bras, Ximing Lu, Sean Welleck, and Yejin Choi. Symbolic knowledge distillation: from general language models to commonsense models. In Proceedings of the 2022 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 4602-4625, Seattle, United States, July 2022. Association for Computational Linguistics. [10] Boseop Kim, HyoungSeok Kim, Sang-Woo Lee, Gichang Lee, Donghyun Kwak, Jeon Dong Hyeon, Sunghyun Park, Sungju Kim, Seonhoon Kim, Dongpil Seo, Heungsub Lee, Minyoung Jeong, Sungjae Lee, Minsub Kim, Suk Hyun Ko, Seokhun Kim, Taeyong Park, Jinuk Kim, Soyoung Kang, Na-Hyeon Ryu, Kang Min Yoo, Minsuk Chang, Soobin Suh, Sookyo In, Jinseong Park, Kyungduk Kim, Hiun Kim, Jisu Jeong, Yong Goo Yeo, Donghoon Ham, Dongju Park, Min Young Lee, Jaewook Kang, Inho Kang, Jung-Woo Ha, Woomyoung Park, and Nako Sung. What changes can large-scale language models bring? intensive study on HyperCLOVA: Billions-scale Korean generative pretrained transformers. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 3405-3424, Online and Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. [11] Antoine Bosselut, Hannah Rashkin, Maarten Sap, Chaitanya Malaviya, Asli Celikyilmaz, and Yejin Choi. COMET: Commonsense transformers for automatic knowledge graph construction. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 4762-4779, Florence, Italy, July 2019. Association for Computational Linguistics. [12] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Ro $\{$ bert $\}$ a: A robustly optimized $\{$ bert $\}$ pretraining approach, 2020. [13] Alec Radford, Jeff Wu, Rewon Child, David Luan, Dario Amodei, and Ilya Sutskever. Language models are unsupervised multitask learners. 2019. [14] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei $\mathrm{Li}$, and Peter J. Liu. Exploring the limits of transfer learning with a unified text-to-text transformer. Journal of Machine Learning Research, Vol. 21, No. 140, pp. 1-67, 2020. [15] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics. [16] Tianyi Zhang*, Varsha Kishore*, Felix Wu*, Kilian Q. Weinberger, and Yoav Artzi. Bertscore: Evaluating text generation with bert. In International Conference on Learning Representations, 2020. ## A 生成の詳細 ## A. 1 プロンプト イベントの生成では,ランダムに選んだ 10 個のイベントをショットとして列挙する。ショットには番号を振る.プロンプトの例を以下に示す. 1. Xがスマホでゲームする 2. Xが花に水をやる 3. XがYを飲み会に誘う (中略) 11. Xが 推論の生成でも,ランダムに選んだ 10 個の推論をショットとして列挙する.ただしショットは自然言語で記述し,パターンマッチによって推論を抽出する.影響の推論を生成するプロンプトの例を以下に示す. 1. Xがにわか雨にあう。結果として、Xが軒先で雨宿りする。 2. Xがネットで服を買う。結果として、Xが荷物を受け取る。 3. Xが小腹を空かせる。結果として、Xが菓子を食べる。 (中略) 11. Xが筆箱を忘れる。結果として、Xが ## A. 2 ハイパパラメータ 生成に関するハイパパラメータを以下のように設定する. 生成の最大トークン数を 32 とする. Softmax では Temperature を 0.5,Top-P と Top-Kをそれぞれ 0.8 と 0 とする. さらに Repeat Penaltyを 5.0 とする. ## B GPT-2 日本語 Pretrained モデル 知識モデルを構築するにあたって,GPT-2 [13] の日本語版 ${ }^{10)}$ を構築する. 日本語版 Wikipedia と CC-100 の日本語部分を訓練データとして,言語モデルを学習させる. ハイパパラメータは GPT-3 Small [8] を参考に設定する.学習率を 6e-4,Weight Decay を 0.1 とする.学習率のスケジューラを Cosine とする。 バッチサイズは 512 で,訓練は 2 エポック(GPT-3 の約 10\%)行う。 ステップ数の $0.1 \%$ Warmup に充てる. 10)事前学習済みモデルは https://huggingface.co./ nlp-waseda/gpt2-small-japanese で公開している. ## C 知識モデルの詳細 ## C. 1 手法 GPT-2 を用いる場合,関係を表す特殊トークンをイベントの後に付与し,それらを入力として推論を生成する。一方 $\mathrm{T} 5$ では,生成する推論の関係をプロンプトとみなし,入力するイベントの前に記述する. T5 におけるプロンプトを表 8 に示す. ## C. 2 ハイパパラメータ GPT-2 と T5 の日本語版を Finetuning するにあたっては,共通のハイパパラメータを設定する.学習率を 2e-5,Weight Decay を 0.01 とする. Gradient Clippingとして,勾配のノルムを最大 1.0 とする. バッチサイズは 16 で,訓練は 3 エポック行う.また生成はすべて Greedy Search で行う.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B3-1.pdf
# 事前学習済み言語モデルの知識に基づく演繹推論能力の調査 款田一真 ${ }^{1}$ 長澤春希 ${ }^{1}$ Benjamin Heinzerling ${ }^{2,1}$ 乾健太郎 ${ }^{1,2}$ 1 東北大学 2 理化学研究所 \{kokuta.kazuma.r3, haruki.nagasawa.s8\}@dc.tohoku.ac.jp [email protected] [email protected] ## 概要 近年,ニューラルネットワークの実用化に伴い,自然言語で記述された簡単な推論の問題に対して高い正解率で解答することができる言語モデルが複数提案されてきた. しかしながら,ニューラル言語モデル (LM) による推論の過程は一般的にブラックボックスであり,LM に論理的な推論過程を再現する能力があるかどうかは依然として疑問が残されている。本稿ではこの疑問に対し,訓練の過程においてLM が,基礎的な推論能力の 1 つである演繹推論を行う傾向があることを示すことにより,以降 LM の推論能力を調査する足掛かりとする. ## 1 はじめに 計算機を用いた論理推論の試みは,一階述語論理などの形式表現を用いたものに始まり,現代の自然言語処理分野に至るまで議論が続く重要な議題の 1 つである. 自然言語処理分野では近年,インターネットの普及による大規模言語情報の蓄積やニューラルネットワークの実用化・大規模化に伴い, RNN や Transformer [1] といったニューラル言語モデル (以下,LM) の基盤となるアーキテクチャが実用化された。そして,それらの実用化に伴い, bAbI tasks [2] などの自然言語で記述された推論問題を含むべンチマークに対し,高い性能を示すことを目的とした LM が複数提案されてきた $[3,4,5]$. なお,これらの提案では,訓練時に与えられた推論問題のデータをもとに推論のルールを学習し, 評価時に入力された前提に対して推論を行うことができるといった推論能力を LM が獲得できることが前提として想定されている. しかしながら実際には, ブラックボックスである LM による推論の過程を追跡することは困難であり,ベンチマークにおける性能に関わらず,これまでに提案された言語モデルがそのような推論能力を実際に獲得できているかどう かは未だ明らかにされていない $[6,7]$. ここで,LM がベンチマークにおいて高い性能を示すにも関わらず,推論能力の獲得が十分でない可能性があると考える要因としては,(1) モデルに入力として与えられる問題・解答の偏りを用いたり, (2) 入力文を推論訓練前の事前訓練によって獲得した知識と併用したりすることにより,適切な推論過程を経ずに解答を予測する「ショートカット」が発生することが挙げられる。本研究では図 1 に示すように,推論に必要な前提を,従来のベンチマークによる手法とは異なり,モデルへの入力ではなく事前学習した知識として与えた上で,結論に関する LM の振る舞いを観察する。すなわち,LM の推論能力のうち,ショートカットの問題が関与しない部分の調査を行うものとした。 なお,本研究では LM の推論能力を調査する足掛かりとして, 演繹推論 (Deductive reasoning, Deduction) に限定した調査を行った。ここで,演繹推論とは例えば「カラスは鳥である」「全ての鳥は卵を産む」 という前提から「カラスは卵を産む」という結論を得る推論過程である。またこの推論過程では,帰納推論 (Induction) やアブダクション (Abduction) ${ }^{1)}$ などの他の論理推論過程と異なり,結論は与えられた前提のみを用いて断定的に導き出すことができる。 したがって,推論訓練前の事前訓練 (マスク穴埋めなど) において獲得した知識を必要としないため, ショートカットの発生と推論過程を切り分けることができる. ## 2 関連研究 ## 2.1 知識に基づく推論 事前学習した知識に基づく推論能力を調査する研究としては, Property Induction Framework [8] が挙げられる。なお,同論文では LM の帰納推論能力 (付 1) 3 種類の論理推論の説明を付録 $\mathrm{A}$ に示す. 図 1 本研究における調査手法の概要.(a) は前提による事前学習,(b) は結論の予測能力の調査の工程をそれぞれ表している。また,工程 (b) における概念 hoge は工程 (a) で出現しないランダムな埋め込みを持つトークンである. 録 A)を調査対象とし,「カラスはfooできる」という例から,「ハトはfooできる」といった明示していない「同じカテゴリへの汎化」が発生するかどうかに主眼を置いている。それに対し,本稿では LM の演繹推論能力を調査対象とし,断定的に導かれるべき結論を予測することができるかどうかに主眼を置くという点で目的が異なる. ## 2.2 LM による演繹推論 本研究では, 既存の LMを対象とした演繹推論能力の調査を行うことを目的とするが,同様の目的で行われた既存研究としては,Transformer [1] を対象とした Soft Reasoner [6] が挙げられる. しかしながら同論文では推論に必要な前提の情報をモデルの入力として与えていることから,先述のようなショー トカットの問題が発生しうることが考えられる。また同論文中では,本稿において「推論能力」と定義したような振る舞いをしているかどうかについては未解決であることが記されている. ## 3 調査手法 ## 3.1 用語の定義 本稿で用いるいくつかの重要な用語を定義する。 上位下位関係ある概念 $c$ がその上位概念 $h$ に属することを表す関係,あるいはその関係を記述した文 " $c$ is a $h$ ". 例 : ・"sparrow is a bird" 概念の性質ある概念 $c$ あるいは上位概念 $h$ が性質 $p$ を持つことを表す関係,あるいはその関係を記述した文“ $h p$ ”または“ “ $p$ ”. 例 : ・ "bird can grow" - "sparrow can grow" 前提演繹推論において,前提として与えられる事象.「上位下位関係」あるいは「上位概念の性質」で記述される. 例 : - "sparrow is a bird" - "bird can grow" 結論演繹推論において,与えられた「前提」から導き出される事象.「上位でない概念の性質」で記述される. 例 : ・ "sparrow can grow" これらの定義に従うと, 演繹推論は与えられた 「前提」から「結論」を導き出す推論過程と言える。 ## 3.2 手法の概要 本研究では,事前学習した前提に関する知識をもとに,LM が結論を演繹的に導き出す振る舞いをどの程度できるかを調査する,調査の手順として,初めに (a) 推論に必要な前提の集合で LM の事前学習を行い,その後 (b) それに基づく結論を予測する能力の調査を行う. より具体的には, 図 1 に示すように,工程 (a)では与えられた前提の真偽に関する二値分類問題を LM ができるだけ正しく予測できるようになるまで学習させ, 工程 (b) では新しく追加学習させた上位下位関係に対して事前学習した上位概念の性質を演繹的に汎化する傾向がみられるかどうかを調査する。なお,工程 (a) および工程 (b) で行った実験の詳細については,それぞれ続く4 節および 5 節で説明を行う. ## 3.3 調査対象のモデル 本研究の実験では,調査対象のモデルとして,マスク穴埋め問題によって事前学習された Transformer ベースのモデルのうち, ALBERT XXLarge v2 [9], BERT large (uncased) [10], RoBERTa large [11] の 3 種 類を選択した. これらのモデルを使用することで,分類問題用のヘッドを用いてモデル内のパラメータを訓練したのち,ヘッドをマスク穴埋め用のものに付け替えることでモデルが保有する知識の変化をマスク穴埋め問題を用いて観察することができる。なお,この観察を行った結果は付録 B に示す. ## 4 前提による事前学習 この工程では,前提の真偽に関する二値分類問題のデータセットを作成し, LM の事前学習を行った. この節の各小節では, そのデータセットの作成手順,訓練時の実験設定,および LM が与えた前提をどの程度記憶することができたかの評価について説明していく。 ## 4.1 事前学習データセットの生成 図 1 (a) に “pre-train set” として示す,前提の真偽に関する二値分類問題のデータセット (以下,事前学習データセット)を作成した手順を以下に示す. ## データの準備 前提の真偽に関するデータを作成するためには, その構成要素である「上位概念の性質」および「上位下位関係」を定義する必要がある。 本実験ではこれらの定義に,Misra らが Property Induction Framework [8] の実験において作成した概念の性質を記述したデータセット, および WordNet [12] が提供する上位語の情報を利用した。なお前者は, Misra らが Property Induction Framework [8] の実験において作成した, Cambridge Centre for Speech, Language, and the Brain が収集した concept property norms データセット [13] からデータ間の矛盾や不正確なデータを除いたデータセットである。なお,このデータセットを用いる上で行った前処理を付録 C に示す. ## 上位下位関係 Misra らが作成したデータセットに含まれる概念 (および対応する WordNet の語義情報) と WordNet の上位語の情報をもとに,概念に対する上位概念を定義した. また,新しく定義した上位概念にも同様に上位概念を定義していき,概念の上位下位関係を表す木構造を作成した.これにより,Misra らが定義した 521 件の概念に対し, 新しく 454 件の上位概念が定義された. また,作成された木構造の高さは 図 2 上位下位関係の木構造 17,上位概念に対する下位概念数は平均 2.04 ,最大 15 となった. その一部を図 2 に示す. ## 上位概念の性質 本実験では上位概念の性質を定義する必要があるが,上位概念は上記の方法で新しく定義された概念であることから, Misra らが作成した概念の性質を記述したデータセットではそれらの性質を定義することができない. ここで,演繹推論の定義から,ある性質について,下位概念での真偽が全て一致する場合, 上位概念での真偽も一致することを導き出せる (付録 D) ことを利用し,ある上位概念 $h$ の全ての下位概念 $c$ がある性質 $p$ を持つ (持たない) 場合,その上位概念 $h$ も性質 $p$ を持つ(持たない)ものとして定義した. ## 生成したデータ 上記で作成した上位下位関係と上位概念の性質は組み合わせで生成されるため全体数が大きく,また真偽によってデータ数に大きな偏りがある. そのため,上記の方法で生成したデータの一部を次のようにサンプリングすることにより,上位下位関係の真偽の偏りが小さく,かつ全てのデータが他のいずれかのデータと組み合わせることで演繹推論における前提を構成することができるような事前学習データセットを作成した. ・以下の手順を $10 \mathrm{k}$ 回繰り返す、ただし,サンプリングは全て一様分布に従う. 1. “ $c$ is a $h$ ” の真偽 $l_{\mathrm{ch}}$ を $\{$ True, False $\}$ からサンプル 2. 性質 $p$, 上位概念 $h$ を 1 件ずつサンプル 3. (“ $c$ is a $h$ ”, $l_{\mathrm{ch}}$ ) となる概念 $c$ を 1 件サンプル 4. (“ $c$ is a $\left.h ", l_{\mathrm{ch}}\right),\left(" h p ", l_{\mathrm{hp}}\right)$ の 2 件をデータに追加 (ただし, $l_{\mathrm{hp}}$ は上位概念の性質の真偽) ・そして最後に重複したデータを削除した。 結果,生成されたデータは,(“c is a $h ”$, True) が 1,576 件, (“ $c$ is a $h$ ”, False) が 9,740 件, (“ $h p$ ”, True) 表 1 事前学習の結果 が 3,973 件,(“h $h$ ”, False) が 14,791 件の合計 30,080 件となった。また,このデータを 8:1:1 の割合で分割し,訓練,検証,およびテスト用データとした. ## 4.2 実験設定 上記の方法で生成した訓練データを用いて LM の訓練を行った. なお,本実験では前提の真偽を LM に記憶させることが目的であるため,訓練時の loss を基準に Early Stopping を行った. より具体的には訓練の終了条件を, 訓練時の loss が 3 回連続で最良値を更新できなかった場合に終了とした. ## 4.3 結果 訓練した 3 種類の LM のそれぞれについて,訓練終了時の epoch 数と訓練データに対する正解率を表 1 に示す. 結果,全ての LM について正解率が $99 \%$ を超えていることから,それぞれのLM は与えられた前提の真偽を概ね正確にパラメータ中に保存することができたと言える. ## 5 結論の予測 この工程では,LM が保存した前提の情報をもとに結論を予測する能力の調査を行った.ここで調査方法の一つとして, 事前学習時と同様に Misra らの作成した概念の性質のデータセット (例 : (“sparrow can grow”, True)) に対する正解率を予測能力の指標として評価する方法が考えられる. しかしながらこの方法では,LM には訓練時に上位概念の性質のデータ (例:(“bird can grow”, True))を用いた訓練を行なっていることから,概念-上位概念間の埋め込みの類似度によりショートカットが発生することが考えられる. そのため本実験では,図 1 (b) に示すように,訓練時に用いられない,ランダム初期化された埋め込みを持つ新概念 hoge を用いた調査を行った. 全ての上位概念 $h$ に対して, 新概念の上位下位関係 “hoge is a $h$ ” の有無を記述したデータ 1 件を LM が正しく予測できるようになるまで訓練し (平均 2.31 epochs),その後,新概念の性質 “hoge $p$ ” の有無を予表 2 新概念の性質の予測結果 測した。そして,その予測が新概念の上位下位関係の訓練の前後でどの程度変化したかを調査した. ここで,LM が新しい上位下位関係のデータの学習において演繹的な振る舞いをすると仮定した場合,新概念の性質は上位概念の性質と真偽の予測が一致するようになることが考えられる. そのため, “hoge $p$ ” に対応する正解ラベル (真偽) $l$ を上位概念の性質 “ $h p$ ”の真偽と同じ値として定義した. なお,前提による事前学習において,LM は概念の性質の有無についてデータ数に偏りがあるデータセットによって訓練されているため, $l$ が偽の場合,正解率が高くなる傾向がある.そのため本実験における評価指標には再現率を用いるものとした。 ## 5.1 結果 訓練した 3 種類の LM のそれぞれについて, 新概念の性質を予測した結果を表 2 に示す. 結果, 全ての LM について訓練後に再現率が増加していることが確認できた. したがって LM が事前学習した前提の知識をもとに,新概念の性質を対応する上位概念の性質から演繹的に汎化する傾向があることが示せた. ## 6 おわりに 本研究では,LM の推論能力の調査を行う足掛かりとして,事前学習した知識に基づく LM の推論能力の調査を行い, 調査対象の LM が推論のショートカットの発生を抑制する実験設定においても演繹的に振る舞う傾向にあることを示した。 また, 本研究の今後の課題としては, パラメータがランダムに初期化された LM を対象とするなど,事前学習した前提以外の影響がより少ない状態での調査を行うことや,事前学習後にアブダクションなどの断定的でない推論の影響がどの程度生じているかといった調査を行うことを考えている.また,訓練の過程における新概念の埋め込みの変化を観察するなど,本研究で示した演繹的な振る舞いが発生した要因についても調査を進めていく所存である. ## 謝辞 本研究は JSPS 科研費 $21 \mathrm{~K} 17814$ および JST, CREST,JPMJCR20D2 の助成を受けたものです. ## 参考文献 [1] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. Advances in neural information processing systems, Vol. 30, , 2017. [2] Jason Weston, Antoine Bordes, Sumit Chopra, and Tomás Mikolov. Towards ai-complete question answering: A set of prerequisite toy tasks. In Yoshua Bengio and Yann LeCun, editors, 4th International Conference on Learning Representations, ICLR 2016, San Juan, Puerto Rico, May 2-4, 2016, Conference Track Proceedings, 2016. [3] Minjoon Seo, Sewon Min, Ali Farhadi, and Hannaneh Hajishirzi. Query-reduction networks for question answering. In International Conference on Learning Representations, 2017. [4] Hung Le, Truyen Tran, and Svetha Venkatesh. Selfattentive associative memory. In International Conference on Machine Learning, pp. 5682-5691. PMLR, 2020. [5] Soumya Sanyal, Harman Singh, and Xiang Ren. FaiRR: Faithful and robust deductive reasoning over natural language. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1075-1093, Dublin, Ireland, May 2022. Association for Computational Linguistics. [6] Peter Clark, Oyvind Tafjord, and Kyle Richardson. Transformers as soft reasoners over language. In Proceedings of the Twenty-Ninth International Joint Conference on Artificial Intelligence, IJCAI'20, 2021. [7] Zhangdie Yuan, Songbo Hu, Ivan Vulic, Anna Korhonen, and Zaiqiao Meng. Can pretrained language models (yet) reason deductively? ArXiv, Vol. abs/2210.06442, , 2022. [8] Kanishka Misra, Julia Taylor Rayz, and Allyson Ettinger. A property induction framework for neural language models. ArXiv, Vol. abs/2205.06910, , 2022. [9] Zhenzhong Lan, Mingda Chen, Sebastian Goodman, Kevin Gimpel, Piyush Sharma, and Radu Soricut. Albert: A lite bert for self-supervised learning of language representations. ArXiv, Vol. abs/1909.11942, 2019. [10] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [11] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized bert pretraining approach. ArXiv, Vol. abs/1907.11692, , 2019. [12] George A. Miller. Wordnet: A lexical database for english. Commun. ACM, Vol. 38, No. 11, p. 39-41, nov 1995. [13] Marco Baroni, Stefan Evert, and Alessandro Lenci. Esslli 2008 workshop on distributional lexical semantics. Hamburg, Germany: Association for Logic, Language and Information, 2008. 表 3 論理推論 & & 「カラスは卵を産む」 & Yes \\ ## A 論理推論 3 種類の論理推論について,それぞれの具体例および結論が断定的に定まるかどうかを表 3 に示す. ## B LM が持つ知識の変化 本研究の実験において調査したLM はいずれもマスク穴埋め問題によって事前学習されたモデルであるため,そのパラメータ中には正解のトークンを予測するため「知識」を保存していることが考えられる. しかしながら, 本研究の実験において LM が推論によって得る結論は与えた前提のみに基づくことを想定しているため,その「知識」は推論の結果に大きく影響しないことを前提としている。 そこで,事前学習データセットに含まれるデータの最後の単語を [MASK] に置き換えたマスク穴埋め問題を作成し, LM が予測するトークンの確率分布が (i) 事前学習の前後 (ii) 新概念の上位下位関係の学習の前後でどの程度変化するかを, top- $k$ の平均の一致率を用いて調査した. 結果を表 4 に示す. ただし, (ii) は新概念の上位概念によって訓練後の LM のパラメータがそれぞれ異なるため,そのうちの 10 個をサンプリングした全体の平均を求めた. その結果, 事前学習の前後では, 30,000 トークンのうち上位 1,000 件の予測結果を比較しても予測されるトークンの一致率が $9.69 \%$ と,マスク穴埋め問題のための「知識」の多くが失われている可能性があることが確認できた。一方で,新概念の上位下位関係の学習は 1 つのデータを平均 2.31 epochs 学習させているだけにも関わらず,予測結果の上位 1,000 件のうち $24.09 \%$ が変化しているなど,大きな影響が生じていることが確認できた。 表 4 知識の変化 ## C 概念の性質 Misra らが作成した概念の性質のデータセットは,ある概念についてそれが持っている性質 (“c p”, True) については網羅的に記述しているものの,ある概念についてそれが持っていない性質 (“c p”, False)については (“c p”, True) をもとに一定数をネガティブサンプリングしたものとなっているため網羅的には記述されていない。上位概念の性質は下位概念の性質によって決まるため, 本実験では (“c p”, False) が網羅的に記述されている必要がある.そのため, データセットのうち (“c p”, True) だけを利用し,(“c p”, False) のデータをその補集合として再定義した. その結果,概念は 521 件,性質は 3,734 件, (“c p”, True) は 23,107 件, (“c $p$ ”, False) は $521 \times 3,734-23,107=1,922,307$ 件となった. ## D 上位概念の性質の定義 演繹推論の過程は, 概念を $c$, 上位概念を $h$, 性質を $p$ とすると次のように表せる. $ \left.\{\begin{array}{l} \forall c " c \text { is a } h " \wedge " h p " \Rightarrow c c p \\ \forall c " c \text { is a } h " \wedge \neg " h p " \Rightarrow \neg c c p " \end{array}\right. $ また,これは次式と同値である. $ \left.\{\begin{array}{l} \forall c " c \text { is a } h " \wedge \neg " c p " \Rightarrow \neg " h p " \\ \forall c " c \text { is a } h " \wedge " c p " \Rightarrow " h p " \end{array}\right. $ したがって,ある性質について下位概念の真偽が全て一致する場合, 上位概念の性質の真偽も一致する. そのため, ある上位概念 $h$ の全ての下位概念 $c$ がある性質 $p$ を持つ (持たない) 場合, その上位概念 $h$ も性質 $p$ を持つ (持たない) ものとして定義した.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B3-2.pdf
# Cross-stitching Text and Knowledge Graph Encoders for Distantly Supervised Relation Extraction Qin Dai ${ }^{* 1}$ Benjamin Heinzerling ${ }^{* 2,1} \quad$ Kentaro Inui ${ }^{1,2}$ ${ }^{1}$ Tohoku University ${ }^{2}$ RIKEN AIP [email protected] [email protected] kentaro.inuidtohoku.ac.jp } \begin{abstract} Bi-encoder architectures for distantly-supervised relation extraction aim to use complementary information from texts and knowledge graphs (KG). However, current architectures suffer drawbacks. They either do not share information between text and KG encoders at all, or, in case of models with KG-to-text attention, only share information in one direction. Here, we introduce cross-stitch bi-encoders, which allow bi-directional information sharing between text and KG encoders via a cross-stitch mechanism. Cross-stitching enables sharing and updating representations between the two encoders, with the degree of sharing controlled by cross-attention gates. Experiments on relation extraction benchmarks show that bi-directional sharing between encoders yields strong improvements. ${ }^{1)}$ \end{abstract ## 1 Introduction Identifying semantic relations between textual mentions of entities is a key task for information extraction systems. For example, consider the sentence: (1) Aspirin is widely used for short-term treatment of pain, fever or colds. Assuming an inventory of relations such as may_treat or founded_by, a relation extraction (RE) system should recognize the predicate in (1) as an instance of a may_treat relation and extract a knowledge graph (KG) triple like (AsPIRIN, may_treat, PAIN). RE systems are commonly trained on data obtained via Distant Supervision (DS) [1]: Given a KG triple, i.e., a pair of entities and a relation, one assumes that all sentences mentioning both 1) Code and data: www.github.com/cl-tohoku/xbe * Equal contribution entities express the relation and collects all such sentences as positive examples. DS allows collecting large amounts of training data, but its assumption is often violated: (2) Nursing diagnoses acute pain related to aspirin use and variants in the radiotherapy group ... (3) Elon Musk and SpaceX engineers embark on a historic mission to return NASA astronauts to ... Sentence (2) and (3) are false positive examples for may_treat and founded_by relation respectively, since they are not about a treatment and founding a company. We refer to false positive examples like (2) and (3) as noisy sentences. A common approach for dealing with noisy sentences is to use the KG as a complementary source of information. Models taking this approach are typically implemented as bi-encoders, with one encoder for textual input and one encoder for KG input. They are trained to rely more on the text encoder when given informative sentences and more on the KG encoder when faced with noisy ones $[2,3$, 4, 5, 6, 7]. However, current bi-encoder models suffer from drawbacks. Bi-encoders that encode text and KG separately and then concatenate each encoder's output, as illustrated in Figure 1a and proposed by [7], i.a., cannot share information between the text encoder and the KG encoder during encoding. In contrast, Bi-encoders whose text encoder can attend to the KG encoder's hidden states, as illustrated in Figure $1 \mathrm{~b}$ and proposed by [2, 4, 3], i.a., do allow information to flow from the $\mathrm{KG}$ encoder to the text encoder, but not in the opposite direction. Here, we propose a cross-stitch bi-encoder (XBE, Figure 1c) that addresses both of these drawbacks by enabling information sharing between the text encoder and KG encoder at arbitrary layers in both directions. Concretely, we equip a bi-encoder with a cross-stitch component [8] (a) Concatenation of encoder representations (b) Uni-directional attention from KG-encoder to textencoder (c) Cross-stitch bi-encoder Figure 1: Illustration of existing and proposed bi-encoder architectures for distantly-supervised relation extraction. Simple concatenation of representations (a) does not allow information sharing between text and KG encoders, while KG-to-text attention (b) only allows sharing in one direction. In contrast, our model (c) allows bi-directional information sharing between encoders during the encoding process. to enable bi-directional information sharing and employ a gating mechanism based on cross-attention $[9,10]$ to dynamically control the amount of information shared between the text encoder and KG encoder. As we will show, allowing bi-directional information sharing during the encoding process, i.e., at intermediate layers, yields considerable performance improvements on two relation extraction benchmarks covering two different domains and achieves state of the art results on a widely used dataset.(§5.1) ## 2 Task Formulation Given a corpus of entity-linked sentences and KG triples $\left(e_{1}^{k}, r^{k}, e_{2}^{k}\right)$, distant supervision (DS) yields a bag of sentences $B^{k}=\left.\{s_{1}^{k}, \ldots, s_{n}^{k}\right.\}$ where each sentence $s_{i}^{k}$ mentions both entities in the pair $\left(e_{1}^{k}, e_{2}^{k}\right)$. Given the entity pair $\left(e_{1}^{k}, e_{2}^{k}\right)$ and the sentence bag $B^{k}$, a DS-RE model is trained to predict the $\mathrm{KG}$ relation $r^{k}$. ## 3 Proposed Model The cross-stitch bi-encoder (XBE) model is designed to enable bidirectional information sharing among its two encoders. As illustrated in Figure 1c, it consists of a text encoder, a KG encoder, and a cross-stitch component controlled by cross-attention. The following subsections describe these components. ## 3.1 Bi-Encoder To obtain representations of inputs belonging to the two different modalities in DS-RE, we employ a bi-encoder architecture consisting of one encoder for textual inputs Figure 2: Illustration of the cross-stitch mechanism in combination with cross-attention. See $\S 3.2$ for notation. and one encoder for KG triples. While the cross-stitch component is agnostic to the type of encoder, we use pretrained Transformer models [10] for both text and KG. ## 3.2 Cross-stitch (X-stitch) To enable bi-directional information sharing between the two encoders, we employ a cross-stitch ${ }^{2)}$ mechanism based on [8]. The mechanism operates by mixing and updating intermediate representations of the bi-encoder. We dynamically control the amount of mixing via gates based on cross-attention (Figure 2). More formally, our cross-stitch variant operates as follows. Given a sen- $-stitch in tables and figures. } tence $s=\left(t o k_{1}, \ldots, t o k_{N}\right)$ and corresponding KG triple $t=\left(e_{1}, r, e_{2}\right)$, the text encoder generates sentence representations $S_{i} \in \mathbb{R}^{N \times d}$ and the KG encoder triple representations $T_{i} \in \mathbb{R}^{3 \times d}$. We then compute cross-attentions $A$ in two directions, triple-to-sentence $(t 2 s)$ and sentence-totriple $(s 2 t)$, via Equations 1 and 2, $ \begin{aligned} & A^{t 2 s}=\operatorname{softmax}_{\text {column }}\left(\left(W_{p}^{t 2 s} \cdot T_{i}\right) \cdot S_{i}\right) \\ & A^{s 2 t}=\operatorname{softmax}_{\mathrm{row}}\left(S_{i} \cdot\left(W_{p}^{s 2 t} \cdot T_{i}\right)^{T}\right) \end{aligned} $ where, $W_{p}^{s 2 t} \in \mathbb{R}^{d \times d}$ and $W_{p}^{t 2 s} \in \mathbb{R}^{d \times d}$ denote trainable linear transformations. The triple-to-sentence attention $A^{t 2 s}$ represents the weight of the embedding of each token in triple $t$ that will be used to update the sentence representation $S_{i}$ : $ T_{i}^{t 2 s}=W_{g 2}^{t 2 s} \cdot \operatorname{Re} L U\left(W_{g 1}^{t 2 s} \cdot\left(A^{t 2 s} \cdot T_{i}^{T}\right)\right) $ where $W_{g 1}^{t 2 s} \in \mathbb{R}^{d^{\prime} \times d}$ and $W_{g 2}^{t 2 s} \in \mathbb{R}^{d \times d^{\prime}}$ are trainable parameters. Next, a gating mechanism determines the degree to which the original textual representation $S_{i}$ will contribute to the new hidden state of the text encoder: $ \mathbf{G}_{i}^{t 2 s}=\sigma\left(T_{i}^{t 2 s}\right) $ where, $\sigma$ denotes the logistic sigmoid function. We then update the hidden state of the text encoder at layer $i$ by interpolating its original hidden state $S_{i}$ with the triple representation $T_{i}^{t 2 s}$ : $ S_{i}^{\prime}=\mathbf{G}_{i}^{t 2 s} \cdot S_{i}+\lambda_{t} \cdot T_{i}^{t 2 s} $ Information sharing in the sentence-to-triple direction is performed analogously: $ \begin{gathered} S_{i}^{s 2 t}=W_{g 2}^{s 2 t} \cdot \operatorname{Re} L U\left(W_{g 1}^{s 2 t} \cdot\left(\left(A^{s 2 t}\right)^{T} \cdot S_{i}\right)\right) \\ \mathbf{G}_{i}^{s 2 t}=\sigma\left(S_{i}^{s 2 t}\right) \\ T_{i}^{\prime}=\mathbf{G}_{i}^{s 2 t} \cdot T_{i}+\lambda_{s} \cdot S_{i}^{s 2 t} \end{gathered} $ where $\lambda_{t}$ and $\lambda_{s}$ are weight hyperparameters. Having devised a general architecture for text-KG bi-encoders, we now turn to implementing this architecture for distantly supervised relation extraction. ## 4 XBE for Relation Extraction In distantly supervised relation extraction, the automatically collected data consists of a set of sentence bags $\left.\{B^{1}, \ldots, B^{n}\right.\}$ and set of corresponding KG triples $\left.\{\left(e_{1}^{1}, r^{1}, e_{2}^{1}\right), \ldots,\left(e_{1}^{n}, r^{n}, e_{2}^{n}\right)\right.\}$. To create training instances, we mask the relation in the $\mathrm{KG}$ triples $\left.\{\left(e_{1}^{1},[\mathrm{M}], e_{2}^{1}\right), \ldots,\left(e_{1}^{n},[\mathrm{M}], e_{2}^{n}\right)\right.\}$ and provide these masked triples as input to the $\mathrm{KG}$ encoder, while the text encoder receives one sentence from the corresponding sentence bag. If the sentence bag contains $k$ sentences, we pair each sentence with the same KG triple and run the bi-encoder for each pairing, i.e., $k$ times, to obtain a sentence bag representation. During training, the loss of the model is calculated via Equations 9, 10 and 11, $ \begin{gathered} L=L_{R E}+w \cdot L_{K G} \\ L_{R E}=-\sum_{k=1}^{n} \sum_{i=1}^{\left|B^{k}\right|} \log P\left(r^{k} \mid\left[\mathbf{s}_{i}^{k} ; \mathbf{r}_{h t} ; x_{e_{1}^{k}} ; x_{e_{2}^{k}}\right]\right) \\ L_{K G}=-\sum_{k=1}^{n} \log g\left(\left(e_{1}^{k},[\mathrm{M}], e_{2}^{k}\right)\right) \end{gathered} $ where $w \in(0,1]$ is a weight hyperparameter, $P(x)$ is the predicted probability of the target relation over a set of predefined relations, ; denotes vector concatenation, $\mathbf{r}_{h t}$ is an additional $\mathrm{KG}$ feature vector obtained from a pre-trained KG completion model such as TransE [11], $x_{e^{k}}$ is entity embedding from the $\mathrm{KG}$ encoder, $L_{K G}$ is the loss of $\mathrm{KG}$ relation prediction and $g(x)$ outputs the predicted probability of the masked KG token based on its embedding from the KG encoder. During inference, we follow [7] and use the mean of sentence embeddings as the bag embedding: $ P\left(r^{k} \mid B^{k}\right)=\left(\sum_{i=1}^{\left|B^{k}\right|} P\left(r^{k} \mid\left[\mathbf{s}_{i}^{k} ; \mathbf{r}_{h t} ; x_{e_{1}^{k}} ; x_{e_{2}^{k}}\right]\right)\right) /\left|B^{k}\right| $ ## 5 Experiments Please see Appendix ( $\S$ A.1) for details on Data and Settings and (§A.2) on Baseline Models. ## 5.1 Results The Precision-Recall (PR) curves of each model on Medline21 and NYT10 datasets are shown in Figure 3 and Figure 4, respectively. We make two main observations: (1) Among the compared models, BRE+KA and BRE+CE, are strong baselines because they significantly outperform Figure 3: PR curves on Medline21. Figure 4: PR curves on NYT10. Table 1: P@N and AUC on Medline21 and NYT10 datasets $(\mathrm{k}=1000)$, where †represents that these results are quoted from [12], $\neq$ indicates the results using the pre-trained model, $\star$ indicates the results are obtained by re-running corresponding codes and $*$ indicates using the OpenNRE [13] implementation. other state-of-the-art models especially when the recall is greater than 0.25 , demonstrating the benefit of combining a pre-trained language model (here: BERT) and a KG for DS-RE. (2) The proposed XBE model outperforms all baselines and achieves the highest precision over the entire recall range on both datasets. Table 1 further presents more detailed results in terms of AUC and $\mathrm{P} @ \mathrm{~N}$, which shows improved performance of XBE in all testing metrics. In particular, XBE achieves a new state-of-the-art on the commonly used NYT10 dataset, indicating that the proposed model can make better use of the combination of KG and text for DS-RE. Please see Appendix for Ablation Study(§A.3). ## 6 Conclusions and Future Work We proposed a cross-stitch bi-encoder architecture, $\mathrm{XBE}$, to leverage the complementary relation between KG and text for distantly supervised relation extraction. Experimental results on both Medline21 and NYT10 datasets prove the robustness of our model because the proposed model achieves significant and consistent improvement as compared with strong baselines and achieve a new state-ofthe-art result on the widely used NYT10 dataset. Possible future work includes a more thorough investigation of how communication between KG encoder and text encoder influences the performance, as well as a more complex KG encoder that can not only handle relation triples, but arbitrary KG subgraphs, which could have applications in, e.g., multi-hop relation extraction. ## Acknowledgements This work was supported by JST CREST Grant Number JPMJCR20D2 and JSPS KAKENHI Grant Number 21K17814. ## References [1] Mike Mintz, Steven Bills, Rion Snow, and Dan Jurafsky. Distant supervision for relation extraction without labeled data. In Proceedings of the Joint Conference of the 47th Annual Meeting of the ACL and the 4th International Joint Conference on Natural Language Processing of the AFNLP: Volume 2-Volume 2, pp. 1003-1011. Association for Computational Linguistics, 2009. [2] Xu Han, Zhiyuan Liu, and Maosong Sun. Neural knowledge acquisition via mutual attention between knowledge graph and text. In Thirty-Second AAAI Conference on Artificial Intelligence, 2018. [3] Ningyu Zhang, Shumin Deng, Zhanlin Sun, Guanying Wang, Xi Chen, Wei Zhang, and Huajun Chen. Long-tail relation extraction via knowledge graph embeddings and graph convolution networks. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 3016-3025, 2019. [4] Linmei Hu, Luhao Zhang, Chuan Shi, Liqiang Nie, Weili Guan, and Cheng Yang. Improving distantly-supervised relation extraction with joint label embedding. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 38213829, 2019. [5] Qin Dai, Naoya Inoue, Paul Reisert, Takahashi Ryo, and Kentaro Inui. Incorporating chains of reasoning over knowledge graph for distantly supervised biomedical knowledge acquisition. In Proceedings of the 33nd Pacific Asia Conference on Language, Information and Computation (PACLIC33), pp. 19-28, Hakodate, Japan, 2019. Waseda Institute for the Study of Language and Information. [6] Qin Dai, Naoya Inoue, Ryo Takahashi, and Kentaro Inui. Two training strategies for improving relation extraction over universal graph. In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics: Main Volume, pp. 3673-3684, 2021. [7] Zikun Hu, Yixin Cao, Lifu Huang, and Tat-Seng Chua. How knowledge graph and attention help? a qualitative analysis into bag-level relation extraction. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 4662-4671, 2021. [8] Ishan Misra, Abhinav Shrivastava, Abhinav Gupta, and Martial Hebert. Cross-stitch networks for multi-task learning. In Proceedings of the IEEE conference on computer vision and pattern recognition, pp. 3994-4003, 2016. [9] Dzmitry Bahdanau, Kyunghyun Cho, and Yoshua Bengio. Neural machine translation by jointly learning to align and translate. In Yoshua Bengio and Yann LeCun, editors, 3rd International Conference on Learning Representations, ICLR 2015, San Diego, CA, USA, May 7-9, 2015, Conference Track Proceedings, 2015. [10] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Łukasz Kaiser, and Illia Polosukhin. Attention is all you need. Advances in neural information processing systems, Vol. 30, , 2017. [11] Antoine Bordes, Nicolas Usunier, Alberto Garcia-Duran, Jason Weston, and Oksana Yakhnenko. Translating embeddings for modeling multi-relational data. In Advances in neural information processing systems, pp. 27872795, 2013. [12] Christoph Alt, Marc Hübner, and Leonhard Hennig. Finetuning pre-trained transformer language models to distantly supervised relation extraction. arXiv preprint arXiv:1906.08646, 2019. [13] Xu Han, Tianyu Gao, Yuan Yao, Deming Ye, Zhiyuan Liu, and Maosong Sun. OpenNRE: An open and extensible toolkit for neural relation extraction. In Proceedings of EMNLP-IJCNLP: System Demonstrations, pp. 169-174, 2019. [14] Sebastian Riedel, Limin Yao, and Andrew McCallum. Modeling relations and their mentions without labeled text. In Joint European Conference on Machine Learning and Knowledge Discovery in Databases, pp. 148-163. Springer, 2010. [15] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805, 2018. [16] Jinhyuk Lee, Wonjin Yoon, Sungdong Kim, Donghyeon Kim, Sunkyu Kim, Chan Ho So, and Jaewoo Kang. Biobert: a pre-trained biomedical language representation model for biomedical text mining. Bioinformatics, Vol. 36, No. 4, pp. 1234-1240, 2020. [17] Yankai Lin, Shiqi Shen, Zhiyuan Liu, Huanbo Luan, and Maosong Sun. Neural relation extraction with selective attention over instances. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), Vol. 1, pp. 2124-2133, 2016. [18] Xu Han, Pengfei Yu, Zhiyuan Liu, Maosong Sun, and Peng Li. Hierarchical relation extraction with coarse-tofine grained attention. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 2236-2245, 2018. [19] Shikhar Vashishth, Rishabh Joshi, Sai Suman Prayaga, Chiranjib Bhattacharyya, and Partha Talukdar. Reside: Improving distantly-supervised neural relation extraction using side information. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 1257-1266, 2018. Table 2: Statistics of datasets in this work, where $\mathbf{R}$ and $\mathbf{E P}$ stand for the target Relation and Entity Pair, $\#_{1} / \#_{2}$ represent the number of training and testing data respectively. Table 3: Hyperparameters used in our proposed XBE model. The experiments (Medline21) are conducted on Nvidia Titan X(Pascal) GPU, and the experiments (NYT10) are conducted on a NVIDIA GeForce GTX 1080 TI GPU. ## A Appendix ## A. 1 Data and Settings We evaluate our model on the biomedical dataset introduced by [6] (hereafter: Medline21) and the NYT10 dataset [14] Statistics for both datasets are summarized in Table 2. Medline21 dataset contains 582,686 KG triples and NYT10 does 335, 350 triples. As done by [7], the text encoder ( $\$ 3$ ) for experiments on NYT10 is initialized with the pre-trained weights from the bert-base-uncased variant of BERT [15]. The text encoder for Medline21 is initialized with BioBERT [16] and the KG encoder ( $\$ 3$ ) is pre-trained using each dataset's corresponding KG triples, as mentioned above. Hyperparameters used in our Model are listed in Table 3. ## A. 2 Baseline Models To demonstrate the effectiveness of the proposed model, we compare to the following baselines. Baselines were selected because they are the closest models in terms of Table 4: Performance comparison of XBE with different ablated components (non-cumulative) on Medline21 and NYT10 datasets $(\mathrm{k}=1000)$. integrating $\mathrm{KG}$ with text for DS-RE and/or because they achieve competitive or state-of-the-art performance on the datasets used in our evaluation: JointE [2], which is a joint model for $\mathrm{KG}$ embedding and $\mathrm{RE}$, where the $\mathrm{KG}$ embedding is utilized for attention calculation over a sentence bag, as shown in Figure 1b, RELE [4], which extends the JointE via entity definitions, BRE+KA [7], which is a version of the JointE model that integrates BERT, and BRE+CE [7], which is a BERT and KG embedding based model, where BERT output and the KG triple embedding are concatenated as a feature vector for DS-RE, as shown in Figure 1a. In addition to the models above, we select the following baselines for further comparison: PCNN+ATT [17], PCNN+HATT [18], RESIDE [19] and DISTRE [12]. ## A. 3 Ablation Study We ablate the three main model components in order to assess the contribution to overall performance. Results are shown in Table 4, where "- X-stitch" is the model without the cross-stitch mechanism, "- KG enc." denotes removing the KG encoder, and "- text enc." removing the text encoder. We observe that performance drops for all ablations, indicating that each component is important for the model when performing DS-RE. While the impact of ablating the text encoder is by far the largest, removing the cross-stitch component or the $\mathrm{KG}$ encoder results in performance that is comparable to the performance of the strongest baseline, BRE+CE, on both datasets. This suggests that these two components, i.e., the KG encoder and the cross-stitch mechanism allowing sharing of information between the text and KG encoder, are what enables our model to improve over BRE+CE.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B3-3.pdf
# 文書レベル関係抽出における根拠認識の統合 Youmi Ma An Wang 岡崎直観 東京工業大学 \{youmi.ma@nlp., an.wang@nlp., okazaki@\}c.titech.ac.jp ## 概要 文書レベル関係抽出(DocRE)は文書中のすべてのエンティティの組の関係を推定するタスクである.この関係抽出に必要最小限かつ十分な情報を含む文の集合を根拠と呼ぶ。根拠は関係抽出の性能を改善できるが,既存研究では DocRE と根拠認識を別々のタスクとしてモデル化していた. 本稿では,根拠認識を関係抽出のモデルに統合する手法を提案する。 さらに,根拠のアノテーションが付与されていないデータに根拠の疑似的な教師信号を付与し,大量の自動ラベル付けデータを活用する方法を提案する. 提案手法は DocRED において DocRE と根拠認識の両方で現時点の世界最高性能を達成した ${ }^{11}$. ## 1 はじめに 関係抽出はテキストにおけるエンティティ(実体)の関係を認識するタスクである。関係抽出では,文内に閉じて関係を認識するタスク設定の研究が多く $[1,2,3,4,5]$, テキスト中で複数の文にまたがって表現される関係は対象外となってしまうため,適用範囲が狭いという課題があった [6]. これに対して, 複数の文で言及される関係にも対応したタスク,すなわち文書レベル関係抽出(DocRE: Document-level Relation Extraction)が提案された $[6,7,8]$. DocRE では,複数の文の情報の取捨選択や統合をしながらエンティティ間の関係を推定する必要がある $[9,10,11]$. DocRE において情報の取捨選択に用いられるのが根拠 (evidence) である。根拠は,関係を推定するために必要最小限かつ十分な情報を含む文の集合と定義され,DocRE で広く用いられるデータセッ卜 DocRED [6] でもラベル付けされている. 図 1 の例では, Prince Edmund と Blackadder における関係 present in work を認識するための必要最小限かつ十 公開している。 \\ 図 1 DocRED [6] のアノテーションの例。斜体は関係を予測したいエンティティの言及(メンション)であり,下線はその他のエンティティの言及である. 分な情報は文 1 と 2 であるため,この関係の根拠は文 1 と 2 とラベル付けされる. 既存研究では, DocRE のサブタスクとして根拠認識に取り組み,エンティティ組の関係を推定する際に必要な情報の取捨選択を行うことが多かった $[6,9,10,12]$. 既存研究では,DocRE と根拠認識を別々の夕スクとしてモデル化しているため $[9,10,12]$, 両タスクの関連性を考慮できない。これに対し,本稿では DocRE と根拠認識のモデルを統合した新手法として,Document-level Relation Extraction with Evidence-guided Attention Mechanism (DREEAM) を提案する.DREEAM では,根拠を単語や文の重要度に関する情報としてテキストのエンコーダに統合する. 具体的には,BERT [13] などの事前学習済み言語モデルのエンコーダにおける自己注意機構 [14] への教師信号として根拠を導入し,根拠に高い重みを配分するように誘導しながら DocRE のモデルを学習する。これにより,文書レベル関係抽出から根拠認識モデルを削除し,パラメータ数の削減や推論時のメモリ使用量の低減も実現できる。 なお,文書レベルの関係アノテーションはコストが高いため,学習データが不足しがちな状況にある. 表 1 に示すように,現時点で最大規模のデー タセットである DocREDでも,人手でラベルが付 表 1 DocRED [6] データセットの統計情報 与された文書は 5,051 件しかない. DocRED ではデータ不足を緩和するため,関係ラベルを Distant Supervision [15] を用いて自動付与しているが,根拠ラベルの自動付与は行われていない. 本研究では,提案手法である DREEAM を用いて根拠の疑似的な教師信号を自動的に付与し, 大量の自動ラベル付与データを活用する.最終的に,提案手法は DocRED において DocRE と根拠認識の両方で現時点の世界最高性能を達成した。 ## 2 予備知識 ## 2.1 タスクの定義 DocRE の目的は, 文 $X_{D}=\left.\{x_{i}\right.\}_{i=1}^{\left|x_{D}\right|}$ からなる文書 $D$ における全てのエンティティ $\mathscr{C}_{D}=\left.\{e_{i}\right.\}_{i=1}^{\left|\mathscr{D}_{D}\right|}$ の組が持つ関係を推定することである。文書 $D$ におけるエンティティ $e \in \mathscr{E}_{D}$ の言及(メンション)を $M_{e}=\left.\{m_{i}\right.\}_{i=1}^{\left|\cdot M_{e}\right|}$ とし, エンティティの組 $\left(e_{s}, e_{o}\right)$ が持つ全ての関係から成る集合を $\mathscr{R}_{s, o} \subseteq \mathscr{R}$ とする. ただし, $\mathscr{R}$ は関係ラベルの集合である. $\left(e_{s}, e_{o}\right)$ の間に関係 $r \in \mathscr{R}$ が存在する場合, $\left(e_{s}, r, e_{o}\right)$ に関する根拠を $\mathscr{V}_{s, r, o} \subseteq X_{D}$ で表す. 根拠認識の目的は,全ての関係抽出における根拠を認識すること,すなわち $\left(e_{s}, r, e_{o}, \mathscr{V}_{s, r, o}\right)$ を得ることである. ## 2.2 ベースモデル: ATLOP 提案手法のベースとなる手法 ATLOP [16] を説明する。まず,各エンティティの言及の冒頭と末尾に特殊トークン「*」を挿入したトークン列 $\mathscr{T}_{D}=\left.\{t_{i}\right.\}_{i=1}^{\left|\mathcal{F}_{D}\right|}$ を BERT [13] などを用いてエンコードする. エンコーダの出力から,トークンの分散表現 $\boldsymbol{H} \in \mathbb{R}^{\left|\mathcal{T}_{D}\right| \times d}$ と自己注意機構の重み ${ }^{2)} \boldsymbol{A} \in \mathbb{R}^{\left|\mathcal{I}_{D}\right| \times\left|\mathscr{I}_{D}\right|}$ を記録し,前者をトークン埋め込み,後者をトークン間の依存度と呼ぶ( $d$ はエンコーダの隠れ層の次元数である). 次に,エンティティ埋め迄みを計算する。言及 2)マルチヘッド自己注意の全ヘッドの平均として計算する. $M_{e}=\left.\{m_{i}\right.\}_{i=1}^{\left|M_{e}\right|}$ を持つエンティティ $e$ に対して,埋め込み $\boldsymbol{h}_{e} \in \mathbb{R}^{d}$ を $\boldsymbol{h}_{e}=\log \sum_{i=1}^{\left|. M{ }_{e}\right|} \exp \left(\boldsymbol{h}_{m_{i}}\right)$ と計算する. ただし, $\boldsymbol{h}_{m_{i}} \in \mathbb{R}^{d}$ は言及 $m_{i}$ の開始位置に挿入した特殊トークン「*」の埋め込みである。これにより, エンティティ $e_{s}, e_{o}$ の埋め込み $\boldsymbol{h}_{s}, \boldsymbol{h}_{o} \in \mathbb{R}^{d}$ を得る. さらに,エンティティの組 $\left(e_{s}, e_{o}\right)$ に対する局所文脈埋め迄みを計算する。局所文脈埋め込みは文書 $D$ における全トークンの埋め込みの重み付き和であり, 重みは $e_{s}, e_{o}$ 両方に対する重要度を反映する. トークンの重要度は,トークン間の依存度 $\boldsymbol{A}$ の強さとする。具体的には,エンティティ $e_{s}$ の各言及 $m_{i} \in M_{e_{s}}$ と他のトークンの依存度から $\boldsymbol{a}_{s} \in \mathbb{R}^{\left|\mathcal{I}_{D}\right|}$ を求める. ここで $\boldsymbol{a}_{s}$ は全ての $\boldsymbol{a}_{m_{i}} \in \mathbb{R}^{\left|\mathscr{T}_{D}\right|}$ の平均であり, $\boldsymbol{a}_{m_{i}}$ は $m_{i}$ の冒頭にある「*」に対応する $\boldsymbol{A}$ のスライスである. 同様に $\boldsymbol{a}_{o} \in \mathbb{R}^{\left|\mathcal{T}_{D}\right|}$ を求め, $\left(e_{s}, e_{o}\right)$ に対する各トークンの重要度 $\boldsymbol{q}^{(s, o)} \in \mathbb{R}^{\left|\mathfrak{T}_{D}\right|}$ および局所文脈埋め込み $\boldsymbol{c}^{(s, o)} \in \mathbb{R}^{d}$ を, 式 1 と 2 で求める. $ \begin{aligned} & \boldsymbol{q}^{(s, o)}=\frac{\boldsymbol{a}_{s} \circ \boldsymbol{a}_{o}}{\boldsymbol{a}_{s}^{\top} \boldsymbol{a}_{o}} \\ & \boldsymbol{c}^{(s, o)}=\boldsymbol{H}^{\top} \boldsymbol{q}^{(s, o)} \end{aligned} $ ただし。は要素ごとの積である. 局所文脈埋め込みは重要度の高い箇所に注目した分散表現であることから,異なる文の情報を効果的に統合できる。 最後に, $\left(e_{s}, e_{o}\right)$ の関係分類を行う. 関係分類器の入力はエンティティ埋め込みと局所埋め込みを統合した分散表現で, $\boldsymbol{z}_{s}=\tanh \left(\boldsymbol{W}_{s}\left[\boldsymbol{h}_{s} ; \boldsymbol{c}^{(s, o)}\right]+\boldsymbol{b}_{s}\right) \in$ $\mathbb{R}^{d}$ と計算する. ここで $[\cdot ; \cdot]$ はべクトルの連結, $\boldsymbol{W}_{s} \in \mathbb{R}^{d \times 2 d}, \boldsymbol{b}_{s} \in \mathbb{R}^{d}$ はパラメータである. $z_{o} \in \mathbb{R}^{d}$ も同様に計算し, 全関係ラベルのスコアを $\boldsymbol{y}^{(s, o)}=\boldsymbol{z}_{s}^{\top} \mathrm{W}_{r} z_{o}+\boldsymbol{b}_{r} \in \mathbb{R}^{|\mathscr{R}|}$ で計算する. ただし $\mathrm{W}_{r} \in \mathbb{R}^{|\mathscr{R}| \times d \times d}, \boldsymbol{b}_{r} \in \mathbb{R}^{|\mathscr{R}|}$ はパラメータである. エンティティ $e_{s}, e_{o}$ の間の関係 $r \in \mathscr{R}$ の確率推定は $P(r \mid s, o)=\operatorname{sigmoid}\left(y_{r}^{(s, o)}\right)$ として計算される. ATLOP の学習は適応間値損失 (ATL: Adaptive Threshold Loss)に基づく.すなわち,間值に対応する仮想的な関係ラベル TH を導入し,エンティティ組 $\left(e_{s}, e_{o}\right)$ に存在する関係ラベルのスコアは THより高く, 存在しない関係ラベルのスコアは TH より低くなるようにモデルを学習する。 ## 3 提案手法 ATLOP では関係推定に重要なトークンに注目して情報を統合するため,局所文脈埋め込みを採用し, BERT の自己注意機構がエンティティ組 $\left(e_{s}, e_{o}\right)$ に対するトークンの重要度 $\boldsymbol{q}^{(s, o)}$ を暗黙的に学習で 図 2 DREEAM の概要 きると仮定した. 本研究では,根拠を用いて $\boldsymbol{q}^{(s, o)}$ の教師信号を与えることを提案し,根拠認識の関係抽出モデルへの統合,および関係抽出の性能向上を目指す (§3.1). さらに根拠の教師信号を自動で付与し,データ不足の緩和を目指す(§3.2). ## 3.1 DREEAM 提案手法である DREEAM の概要を図 2 に示す.自己注意機構から計算されるトークン重要度と根拠から計算される分布が近づくように誘導し, 根拠に基づいた局所文脈埋め込みが得られると期待する。 根拠分布の算出あるエンティティ組 $\left(e_{s}, e_{o}\right)$ が持つ関係 $r \in \mathscr{R}_{s, o}$ 毎に, 根拠べクトル $\boldsymbol{v}^{(s, r, o)} \in$ り, 文 $x_{i} \in X_{D}$ が関係 $\left(e_{s}, r, e_{o}\right)$ の根拠である時に $v_{i}^{(s, r, o)}=1$ とする. さらに, 全ての関係 $\forall r \in \mathscr{R}_{s, o}$ における根拠べクトル $\boldsymbol{v}^{(s, r, o)}$ から, 関係ラベルに依存しない根拠の分布 $\boldsymbol{v}^{(s, o)}$ を次式で求める. $ \boldsymbol{v}^{(s, o)}=\frac{\sum_{r \in \mathscr{R}_{s, o}} \boldsymbol{v}^{(s, r, o)}}{\sum_{r \in \mathscr{R}_{s, o}} \mathbf{1}^{\top} \boldsymbol{v}^{(s, r, o)}} $ ティ組 $\left(e_{s}, e_{o}\right)$ に関する文の重要度を全関係ラベル共通に根拠のアノテーションから求めている. 根拠分布を用いた学習自己注意機構によるトー クン重要度 $\boldsymbol{q}^{(s, o)}$ を文の重要度 $\boldsymbol{p}^{(s, o)} \in \mathbb{R}^{\left|X_{D}\right|}$ に変換する。トークン列 $t_{\mathrm{START}\left(x_{i}\right)}, \ldots, t_{\mathrm{END}\left(x_{i}\right)}$ からなる文 $x_{i} \in X_{D}$ に対し, その重要度を和 $ p_{i}^{(s, o)}=\sum_{j=\operatorname{START}\left(x_{i}\right)}^{\operatorname{END}\left(x_{i}\right)} q_{j}^{(s, o)} $ として計算する. ただし $p_{i}^{(s, o)}$ は $\boldsymbol{p}^{(s, o)}$ の $\mathrm{i}$ 番目の要素の值である。そして,根拠アノテーションから得られる文の重要度 $\boldsymbol{v}^{(s, o)}$ を教師信号とし,自己注意機構から計算される文の重要度 $\boldsymbol{v}^{(s, o)}$ が近くなるように,カルバック・ライブラー距離( $\left.D_{\mathrm{KL}}\right)$ によ 図 3 DREEAM による自動ラベル付けデータの活用方法 る損失関数を導入する(式 5 ). $ \mathscr{L}_{\mathrm{ER}}=-D_{\mathrm{KL}}\left(\boldsymbol{v}^{(s, o)} \| \boldsymbol{p}^{(s, o)}\right) $ モデルのパラメータ推定に用いる損失関数として,根拠抽出の損失関数と式 5 の和を採用することで,関係抽出と根拠認識を同時に学習する。 推論関係抽出では ATLOP と同様に,適応的間値を採用する.各エンティティ組 $\left(e_{s}, e_{o}\right)$ の関係ラベルのスコアを計算し,仮想的な閾値ラベル TH より高いスコアを持つラベルを関係として出力する。根拠認識では静的な閾値(付録 A 参照)を採用し, $\boldsymbol{p}^{(s, o)}$ が閾値より高い文を根拠として出力する. ## 3.2 根拠の教師信号の自動付与 DREEAM ではエンコーダの自己注意機構から計算されるトークン重要度に基づいてエンティティ組の関係の予測に役立つ箇所(根拠)を推定できる. ところで,1節で述べたように,DocRED には人手で付与された少量のデータの他に,Distant Supervision で関係ラベルを自動付与した大量のデータがあるが,根拠のラベルが付与されていない. そこで, DREEAM から推定される根拠の応用として, DocRE の根拠の教師信号の自動付与を行い,大量の自動ラベル付けデータを活用する方法を提案する。 その概要を図 3 に示す. Tan ら [17] に倣い,教師と学生の二つのモデルを学習する. 教師モデルの役割は,根拠の正解ラベル付けデータから根拠認識に関する知識を獲得し,根拠のラベルが無いデータに根拠の疑似的な教師信号を自動付与することである.これは,図 3 のステップ 1 と 2 で実現される.学生モデルは,手動および自動で付与された根拠のラベル付けデータから DocRE と根拠認識のモデルを学習する(図 3 のステップ 3 と 4 ). 疑似根拠分布を用いた学習根拠の正解ラベルで学習した教師モデルを用い,まだ根拠のラベル付けがされていないデータにおけるエンティティ組 $\left(e_{s}, e_{o}\right)$ のトークンの重要度 $\hat{\boldsymbol{q}}^{(s, o)}$ を予測・記録し,根拠の疑似的な教師信号とする。学生モデルのトー クン重要度 $\boldsymbol{q}^{(s, o)}$ を疑似的な根拠 $\hat{\boldsymbol{q}}^{(s, o)}$ に近づけることで,根拠抽出を学習する(式 6). $ \mathscr{L}_{\mathrm{ER}}=-D_{\mathrm{KL}}\left(\hat{\boldsymbol{q}}^{(s, o)} \| \boldsymbol{q}^{(s, o)}\right) $ ## 4 実験と考察 ## 4.1 実験結果 DREEAM を DocRED [6] で評価した結果を表 2 に示す. 実験設定の詳細は付録 $\mathrm{A}$ に示す. ## 人手のラベル付けデータだけでモデルを学習する 場合 DREEAM は EIDER [10] に匹敵する性能を示した. DREEAM と SAIS [12] の間では性能の差があるが,これはマルチタスク学習によるものと考えられる3)。なお,DREEAM は根拠認識を DocRE のエンコーダに統合したため, 根拠認識モデルが不要となり,学習・予測時のメモリ使用量を大幅に削減できた(詳細な結果は付録 $\mathrm{B}$ を参照されたい). ## 人手に加えて自動でラベル付けしたデータも用 いてモデルを学習する場合 提案手法 (DREEAM*) は関係抽出において SSAN* [18] や KD-DocRE* [17] の性能を上回り,このデータセットにおける最高性能を達成した. これらの既存研究も自動でラベル付 けした訓練データを用いているため,提案手法の優位性が示唆される。また,根拠認識においても,提案手法は既存手法の最高性能モデル SAIS [12]を大 きく上回った.これにより,提案した根拠の教師信号の自動付与手法が DocRE と根拠認識の両方で有効であることが示された. ## 4.2 分析 本研究の提案事項の貢献度合いを調べるため,アブレーション実験を行った結果を表 3 亿示す4). 教師モデル教師モデルを学習する際に根拠認識の学習(式 5)を無効化し,性能に与える影響を調べた. 表 3 の通り,関係抽出と根拠認識の両方において性能の低下が見られる。㳊に,DocREのエンコーダの自己注意機構を根拠で誘導することは,関係抽出にも有益であることが示唆される。 3) SAIS は DocRE と根拠認識以外にも, 共参照解析等の多夕スクでモデルを学習し,豊富な教師信号を活用している。 4)表 2 の DREEAM* と表 3 (b) の DREEAM は同じ実験設定であるが,表 2 の実験では RoBERTalarge [19]を,表 3 の実験では $\mathrm{BERT}_{\text {base }}[13]$ をエンコーダとして用いているため,性能に差が現れる。表 2 DocREDでの関係抽出と根拠認識の性能. *が付い $\frac{\text { ている行は自動でラベル付けしたデータを学習に用いた. }}{\text { 検証データ }}$ 表 3 DocRED の検証データでのアブレーション実験 学生モデル疑似的な教師信号による根拠認識の学習 (式 6), および手動でラベル付けしたデータによる根拠認識の学習(式 5)の片方および両方を無効化し,タスクの性能に与える影響を調べる。表 3 から,疑似根拠による根拠認識の学習を無効化すると,DocRE と根拠認識ともに性能が低下することが分かる。一方,人手でラベル付けした根拠データによる根拠認識の学習を無効にしても,性能への影響は限定的であった。これにより,根拠認識に関する知識が教師モデルから学生モデルに期待通り引き継がれていることが示唆される. ## 5 おわりに 本稿では,文書レベル関係抽出において根拠を活用する手法を提案した. 関係抽出器のエンコーダの自己注意機構において,関係予測の根拠に高い重みを配分するように誘導する DREEAM を提案した。続いて,DocREにおけるデータ不足問題を緩和するため,根拠ラベルの持たないデータを活用する手法を提案した. DocRED データセットで評価したところ,提案手法は関係抽出および根拠認識の両方の夕スクで現時点での世界最高性能を達成した。 今後は,根拠認識による関係抽出の説明可能性の検討や,長い文書において情報の統合や取捨選択を要する他タスクへの DREEAM の適用,日本語の文書レベル関係抽出の研究に取り組みたい。 ## 謝辞 この成果は、国立研究開発法人新エネルギー・産業 技術総合開発機構 (NEDO) の委託業務 (JPNP18002) の結果得られたものです。 ## 参考文献 [1] George Doddington, Alexis Mitchell, Mark Przybocki, Lance Ramshaw, Stephanie Strassel, and Ralph Weischedel. The automatic content extraction (ACE) program - tasks, data, and evaluation. In Proceedings of the Fourth International Conference on Language Resources and Evaluation (LREC'04), Lisbon, Portugal, May 2004. European Language Resources Association (ELRA). [2] Xu Han, Hao Zhu, Pengfei Yu, Ziyun Wang, Yuan Yao, Zhiyuan Liu, and Maosong Sun. FewRel: A large-scale supervised fewshot relation classification dataset with state-of-the-art evaluation. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 4803-4809, Brussels, Belgium, October-November 2018. Association for Computational Linguistics. [3] Iris Hendrickx, Su Nam Kim, Zornitsa Kozareva, Preslav Nakov, Diarmuid Ó Séaghdha, Sebastian Padó, Marco Pennacchiotti, Lorenza Romano, and Stan Szpakowicz. SemEval-2010 task 8: Multi-way classification of semantic relations between pairs of nominals. In Proceedings of the 5th International Workshop on Semantic Evaluation, pp. 33-38, Uppsala, Sweden, July 2010. Association for Computational Linguistics. [4] Yuhao Zhang, Victor Zhong, Danqi Chen, Gabor Angeli, and Christopher D. Manning. Position-aware attention and supervised data improve slot filling. In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pp. 35-45, Copenhagen, Denmark, September 2017. Association for Computational Linguistics. [5] Christoph Alt, Aleksandra Gabryszak, and Leonhard Hennig. TACRED revisited: A thorough evaluation of the TACRED relation extraction task. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 15581569, Online, July 2020. Association for Computational Linguistics. [6] Yuan Yao, Deming Ye, Peng Li, Xu Han, Yankai Lin, Zhenghao Liu, Zhiyuan Liu, Lixin Huang, Jie Zhou, and Maosong Sun. DocRED: A large-scale document-level relation extraction dataset. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 764-777, Florence, Italy, July 2019. Association for Computational Linguistics. [7] Jiao Li, Yueping Sun, Robin J. Johnson, Daniela Sciaky, ChihHsuan Wei, Robert Leaman, Allan Peter Davis, Carolyn J. Mattingly, Thomas C. Wiegers, and Zhiyong Lu. BioCreative V CDR task corpus: a resource for chemical disease relation extraction. Database, Vol. 2016, , 05 2016. baw068. [8] Patrick Verga, Emma Strubell, and Andrew McCallum. Simultaneously self-attending to all mentions for full-abstract biological relation extraction. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 872-884, New Orleans, Louisiana, June 2018. Association for Computational Linguistics. [9] Quzhe Huang, Shengqi Zhu, Yansong Feng, Yuan Ye, Yuxuan Lai, and Dongyan Zhao. Three sentences are all you need: Local path enhanced document relation extraction. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 2: Short Papers), pp. 998-1004, Online, August 2021. Association for Computational Linguistics. [10] Yiqing Xie, Jiaming Shen, Sha Li, Yuning Mao, and Jiawei Han. Eider: Empowering document-level relation extraction with efficient evidence extraction and inference-stage fusion. In Findings of the Association for Computational Linguistics: ACL 2022, pp. 257-268, Dublin, Ireland, May 2022. Association for Computational Linguistics. [11] Wang Xu, Kehai Chen, Lili Mou, and Tiejun Zhao. Documentlevel relation extraction with sentences importance estimation and focusing. In Proceedings of the $\mathbf{2 0 2 2}$ Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 2920-2929, Seattle, United States, July 2022. Association for Computational Linguistics. [12] Yuxin Xiao, Zecheng Zhang, Yuning Mao, Carl Yang, and Jiawei Han. SAIS: Supervising and augmenting intermediate steps for document-level relation extraction. In Proceedings of the 2022 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 2395-2409, Seattle, United States, July 2022. Association for Computational Linguistics. [13] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [14] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, L ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I. Guyon, U. Von Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 30. Curran Associates, Inc., 2017. [15] Mike Mintz, Steven Bills, Rion Snow, and Daniel Jurafsky. Distant supervision for relation extraction without labeled data. In Proceedings of the Joint Conference of the 47th Annual Meeting of the ACL and the 4th International Joint Conference on Natural Language Processing of the AFNLP, pp. 1003-1011, Suntec, Singapore, August 2009. Association for Computational Linguistics. [16] Wenxuan Zhou, Kevin Huang, Tengyu Ma, and Jing Huang. Document-level relation extraction with adaptive thresholding and localized context pooling. In Proceedings of the AAAI Conference on Artificial Intelligence, 2021. [17] Qingyu Tan, Ruidan He, Lidong Bing, and Hwee Tou Ng. Document-level relation extraction with adaptive focal loss and knowledge distillation. In Findings of the Association for Computational Linguistics: ACL 2022, pp. 1672-1681, Dublin, Ireland, May 2022. Association for Computational Linguistics. [18] Benfeng Xu, Quan Wang, Yajuan Lyu, Yong Zhu, and Zhendong Mao. Entity structure within and throughout: Modeling mention dependencies for document-level relation extraction. Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 35, No. 16, pp. 14149-14157, May 2021. [19] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Ro\{bert\}a: A robustly optimized $\{$ bert $\}$ pretraining approach, 2020. [20] Ilya Loshchilov and Frank Hutter. Decoupled weight decay regularization. In International Conference on Learning Representations, 2019 . ## A 実験設定 4 節の実験設定を説明する. DREEAM は ATLOP [16] をべースとしているが,トークン埋め込み $\boldsymbol{H}$ とトークン間依存度 $\boldsymbol{A}$ の計算方法が異なる. 2.2 節で述べたように, ATLOP はエンコーダの出力層のみから $\boldsymbol{H}$ と $\boldsymbol{A}$ を計算するのに対し, DREEAM はエンコーダの上部 3 層の平均で $\boldsymbol{H}$ と $\boldsymbol{A}$ を求める. モデルの学習根拠認識が DocRE のモデルに与える影響を調整するため,損失関数 $\mathscr{L}_{\mathrm{ER}}$ に係数をかけてから関係抽出の損失との和を計算し, 全体の損失関数とした。具体的には,BERT base を用いたモデルでは係数を $0.1, \mathrm{RoBERTa}_{\text {large }}$ を用いたモデルでは係数を 0.05 とした. なお,パラメータの更新には Adam [20]を採用した。その他のハイパー・パラメータの値を表 4 に示す. モデルによる関係抽出と根拠認識関係抽出では,各エンティティの組 $\left(e_{s}, e_{o}\right)$ における間値ラべル THより高い関係ラベルを予測結果とする.根拠認識では, 重要度 $p_{i}^{(s, o)}$ が 0.2 より高い文を予測とする。 さらに,根拠認識の結果を活用するため, 予測融合を行う [10]. 具体的には, 予測結果 $\left(e_{s}, r, e_{o}, \mathscr{V}_{s, r, o}\right)$ 毎に,根拠 $\mathscr{V}_{s, r, o}$ のみからなる部分文書 $\hat{D}_{s, r, o}$ を構成し, 関係抽出を行う. 最終的な関係抽出結果は, 元文書 $D$ と全ての部分文書における予測から算出する。詳細な説明は原著論文 [10]を参照されたい。評価指標は DocRED に従い,関係抽出と根拠認識の F1 スコアとする。本稿では,検証・評価データから訓練データとの重複を取り除いたうえで,F1 スコアを計測している [6]. なお,全てのスコアは,5つの異なるランダムシードを用いてモデルを初期化し,学習した結果の平均である. ## B パラメータ数及びメモリ使用量 従来研究では,根拠認識に特化したモデルを設計し, DocRE とは別に根拠認識器を適用することが多い。このとき,各文がエンティティ組の関係判断の根拠となる確率を計算するため,全ての文とエンティティ組を列挙しなければならない. 例えば EIDER [10] では, 文 $x_{i}$ がエンティティの組 $\left(e_{s}, e_{o}\right)$ の関係予測の根拠である確率を式 7 で求める. $ \mathrm{P}\left(x_{i} \mid e_{s}, e_{o}\right)=\operatorname{sigmoid}\left(\boldsymbol{x}_{i}^{\top} \boldsymbol{W} \boldsymbol{c}^{(s, o)}+b\right), $ ただし $\boldsymbol{x}_{i} \in \mathbb{R}^{d}$ はトークン埋め込みから得た文 $x_{i}$ の埋め込み, $\boldsymbol{c}^{(s, o)} \in \mathbb{R}^{d}$ は $\left(e_{s}, e_{o}\right)$ における局所文脈埋表 4 実験に用いたハイパー・パラメータ (教師) (学生) (学生) 表 5 パラメータ数及び推論時のメモリ使用量 & \\ ATLOP [16] & & \\ SSAN [18] & 115.4 & 10.8 \\ KD-DocRE [17] & 113.5 & 6.9 \\ 根拠認識の学習あり & 200.1 & 15.2 \\ EIDER [10] & & \\ SAIS [12] & 120.2 & 43.1 \\ DREEAM & 118.0 & 46.2 \\ め込みであり, $\boldsymbol{W} \in \mathbb{R}^{d \times d}$ と $b \in \mathbb{R}$ はパラメータである. 例えば $n$ 個の文からなる文書に $m$ 個のエンティティがあるとすると,式 7 の演算を $n \times m \times(m-1)$回行うため, 特に $n$ や $m$ が大きい場合は, 膨大なメモリを消費する。 一方,DREEAM は根拠認識をエンティティの組のエンコーダに組み込み,根拠はエンコーダから計算した文の重要度を用いて直接推定できるため,根拠認識器を外部に用意する必要がない。 よって,式 7 による確率の計算が不要となり,パラメータ $\boldsymbol{W}$ と $b$ を導入せずに済む。 DREEAM と既存手法のパラメータ数およびメモ 揃えた.DREEAMを根拠認識モデルの学習を行う既存手法と比較すると,モデルのパラメータ数は既存研究よりも低く抑えられることが確認できる。また,推論時のメモリ使用量に関しては,DREEAM は EIDER [10] の 27.4\%, SAIS の 25.5\%まで抑えることが可能で,既存手法に対して大きなアドバンテージとなる。なお,根拠認識モデルを学習しない KD-DocRE [17] と比較しても,DREEAM のパラメー 夕数およびメモリ使用量は少ないことが分かる.以上のことから,DREEAM は既存手法よりも少ないパラメータ数およびメモリ使用量で,既存手法の同等以上の性能を達成できることが分かる.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B3-4.pdf
# NTCIR-17 QA Lab-Polilnfo-4 のタスク設計 小川泰弘 ${ }^{1}$ 木村泰知 2,3 渋木 英潔 4 乙武北斗 5 内田ゆず 6 高丸圭一 ${ }^{7}$ 門脇一真 8 秋葉友良 9 佐々木稔 10 小林暁雄 11 \begin{abstract} 1 名古屋大学 2 小樽商科大学 3 理化学研究所 ${ }^{4}$ BESNA 研究所 9 豊橋技術科学大学 10 茨城大学 11 農業・食品産業技術総合研究機構 ${ }^{1}$ [email protected] $\quad{ }^{2}$ [email protected] \end{abstract} 5 福岡大学 6 北海学園大学 7 宇都宮共和大学 8 株式会社日本総合研究所 ## 概要 我々は,QA や自動要約などの自然言語処理のアプローチにより政治情報の信憑性の問題を解決するためのシェアードタスクである NTCIR-17 QA Lab-PoliInfo-4(以下,PoliInfo-4)を開催している. PoliInfo-4 では,議会会議録などを対象として四つのタスク, Question Answering-2, Answer Verification, Stance Classification-2, Minutes-to-Budget Linking を設計した。本稿では,本タスクの概要について述べる. ## 1 はじめに 近年,政治に関するフェイクニュースが社会的な問題になっている. 特に 2016 年のアメリカ大統領選挙においては,信憑性の低い情報がソーシャルメディアを介して拡散され,選挙の結果に影響を与えたと言われている. 現在において,そうした情報が民意の形成に偏りを生じさせることが懸念されている.また,政治家の発言自体も信憑性や根拠が曖昧な場合が多く,近年,政治家の発言に対するファクトチェック $[1,2,3]$ の必要性も高まっている. そこで我々は,自然言語処理技術を用いて政治に関するフェイクニュースの検出やファクトチェックに関する問題を解決することを目指している. 近年, EuroParl Corpus [4] や UK Hansard corpus ${ }^{1)}$ などが,政治に関わる自然言語処理研究のための言語資源として利用されている $[5,6,7,8]$. しかしながら現在のところ, 日本語を対象とした研究データが少ないことに加えて, 議会における議員の発言を対象とした研究や,議会における政策形成のための議論を対象とした研究は進んでいない. 1) https://www.english-corpora.org/hansard/例えば,ソーシャルメディアで拡散されるテキストと政治家の実際の発言が同一であるか検証するフェイクニュース検出技術や,政治家の発言に適切な根拠があるかを検証するファクトチェックを実現するためには,議会における議員の発言から必要な箇所を抜き出して要約したり,発言文字列と外部の言語資源とを関連付ける機構が必要不可欠である. そこで,我々は地方政治に関わる言語資源として地方議会会議録コーパスの整備に取り組んできた [9]. さらに,そうして収集・整備した議会会議録コーパスを活用して,議論の要約や,発言内容と根拠となる一次情報との結びつけ,発言者の態度(賛否)といった研究を進めるために,評価型ワークショップ NTCIR においてシェアードタスクQA Lab-PoliInfo を行っている. 2018 年から 2019 年前半にかけて実施された NTCIR-14 QA Lab-PoliInfo [10, 11] においては, Segmentation, Summarization, Classification の三つのタスクを実施した。その後,NTCIR-15において QA Lab-PoliInfo-2 [12] を,NTCIR-16 においてQA Lab-PoliInfo-3 [13] を実施し,現在は NTCIR-17 において,QA Lab-PoliInfo-4 を実施している。 それらで実施されたタスク間の関係を図 1 に示す. PoliInfo-4では, 四つのタスク, Question Answering- 図 1 QA Lab-PoliInfo におけるタスクの推移 図 2 QA Lab-PoliInfo-4 の各タスクの関係 2, Answer Verification, Stance Classification-2, Minutesto-Budget Linking を設計した. 図 2 に各タスク間の関係を示す。本稿では,以下の各節において,それぞれのタスクの概要について述べていく。 ## 2 Question Answering-2 Question Answering-2 タスク(以下 QA)は NTCIR16 QA Lab-PoliInfo-3 における Question Answering タスクと同じタスクであり,議会会議録に対する質問に簡潔な回答を返すことを目的とする. 議会における質問と答弁は会議録として記録され,ウェブ上で公開されている。今回は東京都都議会本会議の会議録を対象とする。 通常の質問応答においては,一問一答,すなわち質問を 1 件したらそれに対する答弁があり,引き続き次の質問をする形式が想定される. しかし,都議会本会議においては,一括質問一括答弁という形式がとられている. これは最初に質問者が複数の質問をまとめてした後に,答弁者がまとめて答弁するという形式である. また,その場合に複数の担当者が答弁することもあり,質問の順番と答弁の順番が一致しないことが多い. また,質問の背景や答弁の根拠など述べられているため,質問や答弁自体も長い. そのため,会議録中からユーザが求める質問の回答を探すのは容易ではない. 東京都議会が発行する『都議会だより』においては,そうした質問と答弁の要約が対応付けられた形 で掲載されており,都民への分かりやすい情報提供に努めている。『都議会だより』は,議会事務局の職員が作成していることから,人手による「正解の要約」とみなすことができる.しかし,『都議会だより』に掲載されるのは質問の一部にすぎない. そこで本タスクでは,簡潔な質問を入力した場合,それに対する答弁の要約を返すシステムの構築を目指す. 具体的には,まずシステムにはあらかじめ都議会会議録のデータが与えられている. そこに,『都議会だより』に掲載された質問の要約を入力とする.その際には,質問の発言者やそれに対する答弁者などの情報も与える.それを元に,システムは会議録中から質問の答弁となる箇所を発見し, それを要約したものを返す。評価においては,『都議会だより』に掲載された答弁の要約をゴールドデータとして ROUGE の值を計算するとともに,人手による判定も実施する. このタスクは Watson [14] などの質問応答システムとは以下の 2 点で異なる. 1 点目は,回答を探索する際に外部知識にアクセスする必要はなく,あくまで会議録における答弁が正解である点が異なる。 そのため,会議が異なれば同じ質問に対して異なる答弁が正解となる可能性もある. 2 点目は,特殊なノンファクトイド型の質問応答になる点である。議会では質問の形式をした要望も多くあり,その場合の答弁も,その要望をどう応えるかという内容になっている。 & \\ 要約元の選定失敗 \\ 図3QAにおける誤り例 ## 3 Answer Verification 前節で述べた QA の結果は完璧ではない,前回の PoliInfo-3 においては,四つの観点による人手評価の結果, 800 点満点で 499 点 $(62 \%)$ が最高であった.図 3 に誤りの例を示す. なお,ゴールドデータである『都議会だより』を同様に人手で評価した場合が 598 点 $(75 \%)$ であり, 10 ポイント以上の差がある.本研究の目的はフェイクニュースへの対抗であるが,現状では $\mathrm{QA}$ の出力結果が新たなフェイクニュースを生み出す原因となっている. そこで我々は,QA の出力がファクトかフェイクかを判定する Answer Verification タスク(以下,AV)を設計した. $\mathrm{AV}$ においては,与えられた質問と答弁のペアが会議録の内容に合致しているか否かを判定するが, ここで問題となるのは学習データである. 正例となるデータは,『都議会だより』の質問・答弁の要約を利用することが可能である。一方,負例については, PoliInfo-3の人手評価の結果, 不適切と判定されたものが利用可能である. PoliInfo-3 の QA のフォー マルランでは, 100 個の入力に対してそれぞれ 5 個のシステムの出力結果を 4 人で評価した. 合計 500 個のうち,半数以上の評価者が不適切と判定したものは 154 個にすぎない. そのため, 学習データとして用いる負例の数が不足している. この問題に対処するため,AVを二つのステージに分割する。一つは,正例・負例のラベル付きデー タを作成する Fake-Answer Generation であり,もう一つは, 質問・答弁のぺアの適切性を判定する分類器を構築する Fact-Checking Classification である. ## 3.1 Fake-Answer Generation Fake-Answer Generation においては,『都議会だより』中の質問の要約と会議録を利用し,以下のいずれかの答弁を作成する。 1. 本当はフェイクだが,分類器がファクトと判定 2. 本当はファクトだが, 分類器がフェイクと判定 3. 本当はファクトで,分類器がファクトと判定 4. 本当はフェイクで, 分類器がフェイクと判定 もともとの動機は,1.や2.のような負例の不足であったが,3.と4.のような正例も作成する. 作成方法は自動でも人手でも構わない. 自動的に作成する場合, QA のシステム出力を人手で判定する方法が考えられる。また,一部の単語を別の単語に置換するルールなどを適用することも考えられる. 図 3 の上部の例のように, 前回の QA では数値に関して誤っているものがあった. 数値の誤りはフェイクになりうるため,数値を自動的に置換するルールにより,負例を作成することが可能である. そうした誤りはニューラルモデルに基づくシステムではしばしば出現する。また,会議録では「今年度」 となっているが『都議会だより』では「 2 年度」となっている例があり, 正誤の判定は容易ではない. また,人手で作成する場合は,多くの参加者を募るために,ゲーミフィケーションを利用した手法も考えている [15]. その際には, 参加者の敵役となる分類器を準備し, その分類器を騙せるかどうかをリアルタイムで試しながら答弁を作成する枠組も用意する.後述するように,参加者が敵役を騙せるような答弁をある程度作成・投稿した段階で,それを元に学習し直した分類器を新たな敵役として交代させることにより,参加者が継続して答弁を作成するように動機付けを行う。 ## 3.2 Fact-Checking Classification Fact-Checking Classification では,参加者は答弁がファクトかフェイクかを判定する分類器を構築する.この判定は,会議録の内容から答弁を導くことが可能か,という見方もできるため, 自然言語推論の一種ともいえる. 学習データはタスクオーガナイザから提供する. その際に, Fake-Answer Generation で作成されたデー タも提供する.実際の運用においては,PoliInfo-4 の実施期間中に何回かのサイクルを用意し,あるサイ クルの Fake-Answer Generation で作成されたデータを, 次のサイクルの Fact-Checking Classification の学習用に利用できるようにする.同様に,あるサイクルの Fact-Checking Classification で作成された分類モデルを,次のサイクルでの敵役として利用することも計画している. ## 4 Stance Classification-2 政治家の発言の信憑性を判断するためには,政治家がどのような立場で発言しているのかを知ることが必要である.そのためには,複数の議案に対する賛成・反対を総合して判断する必要がある. Stance Classification タスク(以下,SC)は,政治家の発言を元に,議案に賛成か反対かを判定するタスクである. 同様のタスクは,PoliInfo-2 でも実施した。その際には,議案・会議録・議員の所属政党の情報を与えた。しかし,実際の会議録を見ると,「議案第○ 号 $\times \times \times$ について、賛成の立場で討論いたします。」 といった賛否を表明する発言が冒頭にあることが多く,この賛否表明を発見するだけで高い精度が得られてしまった。 そこで今回の SC-2 では,そうした賛否表明中の 「賛成」もしくは「反対」の部分をマスクした発言を入力とし,その状態で賛否を判定するタスクとし 一括質問一括答弁形式ではない会議録を対象とする.そのため, 東京都議会以外の様々な地方自治体の会議録を収集し,そちらから出題する。 ## 5 Minutes-to-Budget Linking 予算編成は,どのような施策をどの程度重視するかを具体的に表すものといえ,議会での議論おいて重要な位置を占める. PoliInfo-3 においては, Budget Argument Mining として, 議会の会議録と予算を結び付けるタスクを実施した.今回実施する Minutes-to-Budget Linking タスク(以下 MBLink)は, Budget Argument Mining の後継となるタスクである.具体的には,会議録と予算表が与えられたとき,会議録のテキストと予算表の項目を結び付け,議論の根拠を抽出することを目的とする. 図 4 に MBLink の概要を示す。今回の MBLinkでは,入力となる会議録の HTML ファイルには,文ごと IDを埋め込み,同様に予算表の HTML ファイルにもセルごとに IDを割り当てておく. これらが与 図 4 MBLink の概要 えられたとき,ある文が予算表の特定のセルの金額に関連するものであれば,そのセルの IDを付与し, さらのその文に予算の主張に関する理由が含まれているか否かの判定結果も付加する. ## 6 おわりに 本稿では,NTCIR-17 QA Lab-PoliInfo-4 における四つのタスク, Question Answering-2, Answer Verification, Stance Classification-2, Minutes-to-Budget Linking について述べた。今回の大会では,それぞれのタスクについて個別の発表 $[16,17,18]$ も実施しているので,そちらも参照していただきたい。 現在,PoliInfo-4 では広く参加者を募っている.興味を引くタスクがあった場合は,是非とも PoliInfo-4 の Web サイト ${ }^{2}$ を参照いただくか,連絡をいただきたい. 今後は参加者とともに本タスクを実施していく.現在は予備テスト (Dry Run)を実施中であり,2023 年 6 月頃に本テスト (Formal Run)を実施予定である. 予備テストの間も新規参加可能である. 2023 年 12 月の NTCIR-17 カンファレンスにおいて各参加者に研究成果を発表していただき,PoliInfo-4 は終了となる.  ## 謝辞 本研究は JSPS 科研費 21H03769,22H03901, 22K12740,20K00576 の助成を受けたものである. ## 参考文献 [1] Preslav Nakov, Alberto Barrón-Cedeño, Tamer Elsayed, Reem Suwaileh, Lluís Màrquez, Wajdi Zaghouani, Pepa Atanasova, Spas Kyuchukov, and Giovanni Da San Martino. Overview of the CLEF-2018 CheckThat! lab on Automatic Identification and Verification of Political Claims. In Proceedings of the Ninth International Conference of the CLEF Association: Experimental IR Meets Multilinguality, Multimodality, and Interaction, Lecture Notes in Computer Science, Avignon, France, 2022. Springer. [2] Pepa Atanasova, Lluís Màrquez, Alberto Barrón-Cedeño, Tamer Elsayed, Reem Suwaileh, Wajdi Zaghouani, Spas Kyuchukov, Giovanni Da San Martino, and Preslav Nakov. Overview of the CLEF-2018 CheckThat! lab on Automatic Identification and Verification of Political Claims, Task 1: Check-Worthiness. In CLEF 2018 Working Notes. Working Notes of CLEF 2018 - Conference and Labs of the Evaluation Forum, CEUR Workshop Proceedings, Avignon, France, 2018. CEUR-WS.org. [3] Alberto Barrón-Cedeño, Tamer Elsayed, Reem Suwaileh, Lluís Màrquez, Pepa Atanasova, Wajdi Zaghouani, Spas Kyuchukov, Giovanni Da San Martino, and Preslav Nakov. Overview of the CLEF-2018 CheckThat! lab on Automatic Identification and Verification of Political Claims, Task 2: Factuality. In CLEF 2018 Working Notes. Working Notes of CLEF 2018 - Conference and Labs of the Evaluation Forum, CEUR Workshop Proceedings, Avignon, France, 2018. CEUR-WS.org. [4] Philipp Koehn. Europarl: A parallel corpus for statistical machine translation. In Proceedings of Machine Translation Summit X: Papers, pp. 79-86, 2005. [5] Kenneth Heafield. KenLM: Faster and smaller language model queries. In Proceedings of the Sixth Workshop on Statistical Machine Translation, pp. 187-197, 2011. [6] Astrid Van Aggelen, Laura Hollink, Max Kemman, Martijn Kleppe, and Henri Beunders. The debates of the European Parliament as linked open data. Semantic Web, Vol. 8, No. 2, pp. 271-281, 2017. [7] Benjamin E Lauderdale and Alexander Herzog. Measuring political positions from legislative speech. Political Analysis, Vol. 24, No. 3, pp. 374-394, 2016. [8] Federico Nanni, Stefano Menini, Sara Tonelli, and Simone Paolo Ponzetto. Semantifying the UK Hansard (1918-2018). In 2019 ACM/IEEE Joint Conference on Digital Libraries (JCDL), pp. 412-413. IEEE, 2019. [9] Yasutomo Kimura, Keiichi Takamaru, Takuma Tanaka, Akio Kobayashi, Hiroki Sakaji, Yuzu Uchida, Hokuto Ototake, and Shigeru Masuyama. Creating Japanese political corpus from local assembly minutes of 47 prefectures. In Proceedings of the 12th Workshop on Asian Language Resources (ALR12), pp. 78-85, Osaka, Japan, 2016. The COLING 2016 Organizing Committee. [10] Yasutomo Kimura, Hideyuki Shibuki, Hokuto Ototake, Yuzu Uchida, Keiichi Takamaru, Kotaro Sakamoto, Madoka Ishioroshi, Teruko Mitamura, Noriko Kando, Tatsunori Mori, Harumichi Yuasa, Satoshi Sekine, and Kentaro Inui. Overview of the NTCIR-14 QA Lab-PoliInfo task. In Proceedings of the 14th NTCIR Conference, 2019. [11] Yasutomo Kimura, Hideyuki Shibuki, Hokuto Ototake, Yuzu Uchida, Keiichi Takamaru, Kotaro Sakamoto, Madoka Ishioroshi, Teruko Mitamura, Noriko Kando, Tatsunori Mori, Harumichi Yuasa, Satoshi Sekine, and Kentaro Inui. Final report of the NTCIR-14 QA Lab-PoliInfo task. In NII Conference on Testbeds and Community for Information Access Research, pp. 122-135. Springer, 2019. [12] Yasutomo Kimura, Hideyuki Shibuki, Hokuto Ototake, Yuzu Uchida, Keiichi Takamaru, Madoka Ishioroshi, Teruko Mitamura, Masaharu Yoshioka, Tomoyoshi Akiba, Yasuhiro Ogawa, Minoru Sasaki, Kenichi Yokote, Tatsunori Mori, Kenji Araki, Satoshi Sekine, and Noriko Kando. Overview of the NTCIR-15 QA Lab-PoliInfo2 task. In Proceedings of The 15th NTCIR Conference, 2020. [13] Yasutomo Kimura, Hideyuki Shibuki, Hokuto Ototake, Yuzu Uchida, Keiichi Takamaru, Madoka Ishioroshi, Masaharu Yoshioka, Tomoyoshi Akiba, Yasuhiro Ogawa, Minoru Sasaki, Kenichi Yokote, Kazuma Kadowaki, Tatsunori Mori, Kenji Araki, Teruko Mitamura, and Satoshi Sekine. Overview of the NTCIR-16 QA Lab-PoliInfo3 task. In Proceedings of The 16th NTCIR Conference, 2022. [14] David Ferrucci, Eric Brown, Jennifer Chu-Carroll, James Fan, David Gondek, Aditya A Kalyanpur, Adam Lally, J William Murdock, Eric Nyberg, John Prager, et al. Building Watson: An overview of the DeepQA project. $A I$ magazine, Vol. 31, No. 3, pp. 59-79, 2010. [15] 渋木英潔, 内田ゆず, 小川泰弘, 門脇一真, 木村泰知. ゲーミフィケーションに基づく QA データセット拡充手法の提案: QA Lab-PoliInfo-4 Answer Verification タスクに向けて. ARG 第 18 回 Web インテリジェンスとインタラクション研究会予稿集, pp. 9-12, 2022. [16] 渋木英潔, 内田ゆず, 小川泰弘, 門脇一真, 木村泰知. NTCIR-17 QA Lab-PoliInfo-4 Answer Verification におけるGDADC の利用に向けての考察. 言語処理学会第 29 回年次大会, 2023 . [17] 高丸圭一, 内田ゆず, 木村泰知, 秋葉友良. 地方議会における議案への賛否に関する発言の分析—NTCIR 17 QA Lab-PoliInfo4 Stance Classification-2 タスクに向けて一. 言語処理学会第 29 回年次大会, 2023 . [18] 木村泰知, 梶縁, 乙武北斗, 門脇一真, 佐々木稔, 小林暁雄. 議会会議録と予算表を紐づける Minutes-toBudget Linking タスクの提案. 言語処理学会第 29 回年次大会, 2023.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B3-5.pdf
# 疑似訓練データを用いた one-shot 設定における 同形異音語の読み推定 小林汰一郎 ${ }^{1}$ 古宮嘉那子 2 新納浩幸 3 1 茨城大学大学院理工学研究科情報工学専攻 2 東京農工大学大学院工学研究院先端情報科学部門 3 茨城大学大学院理工学研究科情報科学領域 [email protected] kkomiya@go. tuat.ac.jp [email protected] ## 概要 読みに曖昧性を持つ単語を同形異音語と呼ぶ. 本論文では現代日本語書き言葉均衡コーパス (BCCWJ) と日本語話し言葉コーパス (CSJ) に含まれる全ての同形異音語を対象に読み推定を行った. CSJをテストデータとする場合, 話し言葉データを訓練データとして読み推定のモデルを学習するのが望ましいが, 訓練データの構築コストが高いという問題がある. 本研究では自動的にアノテーションされたドメイン外の大量の疑似データ (BCCWJ のデータ)を用いることで, CSJ の訓練データの量を one-shot まで抑えても精度に大差ないことを示した。 ## 1 はじめに 日本語には同じ字面でも違う読みをする単語が存在する.このような単語を同形異音語という. 例として「辛い」は「カライ」だけでなく「ツライ」と読むこともできる. 日本語話者であれば文脈から読み分けをすることは容易だが, 日本語を母語としない者やコンピュータにとっては困難である。 これまでに小林らは同形異音語の読み推定を行ってきた. 先行研究 [1] では SVM(Support Vector Machine) を用い, データセットとして現代日本語書き言葉均衡コーパス (BCCWJ)[2], 素性として one-hot ベクトル, nwjc2vec[3], BERT [4] による分散表現を用いた. また, 先行研究 [5] では事前学習モデル BERT を用いて, 全単語を対象に読み分類を行った。 本稿では, BERT を用いて全単語を対象に読み推定を行う. 既存研究 [5] との違いは, 自動的にアノテーションされた疑似データを大量に用いることで人手データを one-shot に留め, モデルの構築コストを抑えたことである.このようにして作成されたモデルが, 人手データを大量に使用して学習したモデルの精度に匹敵することを確認した。 ## 2 関連研究 ## 2.1 同形異音語の読み推定の関連研究 対象単語を絞って同形異音語の読み推定を行った研究には, 1 節でも述べた小林ら [1] がある.この論文では BCCWJ 中に存在する 71 単語の読みを, さまざまな素性を用いて分類している. 全単語を対象とした読み推定を行った研究には, 小林ら [5] がある. 本研究では one-shot の設定としたところに違いがある. ## 2.2 全単語対象の関連研究 本論文ではコーパスに含まれる曖昧な読みを持つ全単語を対象に読みの推定を行った. 全単語を対象にしている点, 読みは意味が違うと異なることが多い点から見ると, 本タスクは all-words Word Sense Disambiguation (WSD, 語義曖昧性解消) と関連がある. all-words WSD とは, 文書中の全単語を対象に語義ラベルを与えるタスクである. WSD では一般に,単語の意味は文脈に依存すると仮定している. 本研究でもまた, 単語の読みが文脈に依存すると仮定している. 新納ら [6] はテキスト解析ツール $\mathrm{KyTea}^{1}{ }^{1}$ を用いて all-words WSD が解決できることを示した. KyTea は分割されたテキストデータを用いて単語分割を訓練  するモデルである. 新納らは訓練データに語義デー 夕を加えて学習させることで, 語義曖昧性解消のモデルを構築した. このように, 曖昧性のある全単語にラベルを付与して学習させることで, 全単語を対象とした語義曖昧性解消システムを構築できる.また,鈴木ら [7] は概念辞書を用いて多義語の周辺単語の分散表現を作成し, それらのユークリッド距離を計算することで多義語の語義を推測した. また, Jiaju Du et al.[8] は英語の all-words WSD タスクに BERT が有効であることを示した. 具体的には, BERT を用いることで当時の最高性能を 5.2 ポイント上回る結果を残している。 ## 2.3 疑似データを用いることの関連研究 疑似データを用いた研究には, 清野ら [9] や斎藤ら [10], Wang ら [11] の研究がある. 清野らは, 文法誤り訂正において, 疑似データの生成方法や疑似データの生成元について検討している. その結果, CoNLL-2014 において当時の最高性能を記録した。斎藤ら [10] は, スペル訂正タスクにおいて, 自動生成された疑似正解データを用いて事前学習を行った後, 少量の人手正解データを用いて再度学習させる手法が有効であることを示した. また, Wang ら [11] は, 疑似訓練データと語義タグ付きデータとを組み合わせることが中国語の語義曖昧性解消に効果的であることを示した。 ## 3 疑似データを用いた同形異音語の 読み推定 本研究では,コーパス中の全単語を対象とした読み推定システムを作成する. 本研究には, 日本語話し言葉コーパス $(\mathrm{CSJ})[12]$ を利用する. CSJ は話し言葉をべースに作られたコーパスであり,音声デー タを書き起こしているため,正確な読み情報を得ることが可能である. しかし, CSJ のような音声情報を書き起こすコーパスは構築コストが高く,大量に用意することは困難である. そこで本研究では,システムによって自動的に読み情報を付与された疑似データを学習データとして追加的に利用する. 大量の疑似データを用いてモデルを構築したのち, 少量の正解の読み情報が付与されたデータを用いて追加学習を行う手法と, 正解データのみを用いて構築したモデルとの正解率を比較することで, 疑似データの有効性を調査した. 本実験では追加学習に CSJ に存在する読みが曖昧な単語を一用例ずっ用い, one-shot の設定で実験を行った. ## 4 データ 本実験ではテストデータおよび正解の読み情報が付与された訓練データとして CSJを利用し, 疑似訓練データとして BCCWJを利用した. BCCWJでは,形態論情報をほとんど自動で付与しているが, その一部には人手で解析精度を高めたコアデータが含まれている2). そのため, 本研究の実験には非コアデータのみを利用した。また,BCCWJ は書き言葉であるため正確な読み情報は分からない場合がある. 上記 2 種類のデータセットに含まれる単語の情報は表 1 のとおりである. 本研究の実験ではテストデータおよび one-shot の学習データに CSJを利用し, 疑似訓練データには BCCWJ を利用した。そのため, 疑似訓練データとテストデータのドメインは異なっている点に注意されたい. ## 5 モデル 本研究の実験には BERT の fine-tuning を利用した. その様子を図 1 の模式図に示す. 入力はコーパスから整形して抽出したトークン列 (6.1 節参照)であり, BERT の 12 の層を経て 768 次元のベクトルへと変換される.このべクトルを識別層 $W$ に入力することで読みラベル $R$ を出力する. ただし, この出力は 15,291(=読みの辞書のサイズ) 次元のベクトルである.このとき, ベクトル中の $a$ 番目の要素は, その単語の読みがラベル $a$ である確率を表している.この確率を参照し, 最も値の大きなラベルをモデルの推定結果とした. ただし, 参照する要素は単語によって異なる. 例えば,ある単語の読みがラベル $10,11,12$ に対応するのであれば, 参照する要素は $10,11,12$ 番目のみである. 使用したモデルの説明を以下に示す. modelC CSJで学習したモデル modelB BCCWJで学習したモデル modelB-C1s BCCWJ で学習した後 CSJ における one-shot 学習を行ったモデル modelC1s CSJ における one-shot 学習を行ったモデル 全てのモデルは CSJを分割したテストデータ (6.2 節参照)を用いて評価した。  図 1 モデルの模式図 ## 6 実験 ## 6.1 データの整形 本研究では,コーパス中の単語データの整形を以下のように行った. まず, 読みに曖昧性のある単語をコーパスから抽出する。これにより読みラベルを定義し, 読みの辞書を作成する. 表 2 に読みに関する統計情報を示す. 次に, 単語毎に「単語の表記」「BERT における単語の ID」「単語の読み」「単語の読みラべル」「単語の読みの候補リスト」「単語の読みの候補ラベルリスト」「単語の読みの候補数」の 7 つの情報を付与し, 単語情報 $w$ を作成する. さらに, コーパス中のデータを 1 文毎に区切る. ただし,コーパスには単語毎にデータが格納されているため, 各コーパスにおける区切り文字を以下のように定義した。 ## BCCWJ 「。」「!」「?」 CSJ「です」「ます」「た」 力となる ID リスト」「曖昧な読みのある単語の位置情報」「読みに曖昧性のある単語の読みラベルリスト」「読みに曖昧性のある単語の読み候補リスト」 の 5 つを付与して文情報 $s$ を作成し,これをシステムの入力とした。 ## 6.2 実験設定 モデルには東北大から公開されている訓練済み日本語 BERT モデル3)を使用した. 使用したモデルのハイパーパラメータのうち, 変更したものは以下の通りである。 - 最適化関数 : SGD - 学習率 : $10^{-4}$ ・ミニバッチ数 : 1 また, CSJ はデータ全体を (訓練データ):(検証デー タ):(テストデータ) $=1: 1: 8$ に分割して利用した.この訓練データから, 読みに曖昧性のある単語を一用例ずつ抽出し, one-shot 学習用のデータとした. なお, ハイパーパラメータの変更とデータの分割については,小林ら [5] の研究に倣った. ## 7 結果 追加学習に使用するデータ量毎の全単語を対象とした読み推定の正解率を表 3 に示す. まず, modelC1s, modelB, modelC の正解率がそれぞれ $58.40 \%, 94.22 \%$, $97.97 \%$ であることから, 領域外の大量の疑似データを用いた学習による読み推定 (modelB) の正解率は,対象領域の one-shot 学習によるモデル (modelC1s) より高く, 対象領域の全データを用いた学習によるモデル (modelC) と比べると低いことが確認できる. そ 3) cl-tohoku/bert-base-japanese 表 2 読み情報 表 3 追加学習に使用する疑似データの量ごとの全単語を対象とした読み推定の正解率 こで, 学習データとして, 疑似データに加えて CSJに存在する分類対象の単語一用例ずつを追加すると (modelB-C1s), 読み推定の正解率は $97.40 \%$ となった. これは, modelC と比べて 0.57 ポイント下回りこそするが, その差はわずかである. 反対に modelB-C1s は modelB と 3 ポイントの差があることから, 書き言葉の疑似データで学習させたモデルに話し言葉データをごく少量追加学習させることで, 3 ポイントの正解率の上昇となっていることが見て取れる.つまり,話し言葉データを一用例ずつ追加したことによる話し言葉への領域適応の効果は高く, modelC とほとんど同程度の正解率を達成できることが確認できる。 これらの実験から, 書き言葉のコーパスにある自動的に読みを付与したデータを疑似データとして利用すると, 音声書き起こしのコーパスの訓練データの量を one-shot に減らしても, 音声書き起こしのコー パスをすべて利用する場合に比べてほとんど遜色ない読み推定の正解率が得られることが分かった. ## 8 考察 本章では, modelB と modelB-C1s とを比べて, どのようなデータにおいて改善が見られたのか, その傾向を考察する. 結論としては, modelB-C1s の結果から, 改善されたデータの傾向を読み取ることはできなかった。 傾向を読み取る際, 以下の 3 つを検証した。 - 品詞 ・読みの平均数 ・意味の遠さ 検証にあたって, 正解率の上昇に起因した上位 25 単語 (付録: 表 4) と下位 25 単語 (付録: 表 5) を抽出した. まず, 品詞については, 上位 25 単語のうち 23 単語が名詞, 2 単語が動詞であり, 下位 25 単語では, そ のすべてが名詞であった. どちらもほとんど名詞であることから, 両モデルの品詞による傾向の差はないといえる. 次に, 読みの平均数については, 上位 25 単語では 4.12(個/単語), 下位 25 単語では 3.36(個/単語) であった. つまり, 読みの個数には, 上位と下位の間で, 1 単語あたり 0.76 個の差があることがわかる. しかし, 1 単語あたりの読みの個数の差が 1 未満であるため, 大差はないといえる. 次に, 意味の遠さについては, 第一著者の主観で分類した. 例えば「開く」 は「ヒラク」や「アク」と読むが,これはほとんど意味が同じである. それに対して「市場」は「シジョウ」や「イチバ」と読むが,これは文脈によって読み分けが必要であるため, 意味が遠いといえる.このように判断した時, 上位 25 単語中意味が遠い単語は 「評定」(「ヒョウテイ」「ヒョウジョウ」)のみであり,下位 25 単語中意味が遠い単語は「市場」(「イチバ」「シショョウ)と「大勢」(「タイセイ」「オオゼイ」「タイゼイ」),「出店」(「デミセ」「シュッテン」)の 3 単語である.このような観点で上位と下位を比べても, 精度の差に傾向はみられなかった.これらのことから, modelB-C1s の正解率が modelB を上回った要因は,テストデータと同じ領域の訓練デー タを追加したという単純な理由によるものと考えられる。 ## 9 おわりに 本稿では, BERT の fine-tuning を用いて読み推定を行った. 読み推定の対象は, BCCWJ と CSJ に存在する, 読みに曖昧性のある全単語とした. 実験では, ドメイン外の大量の疑似データ (BCCWJ の読みデー タ) を用いることで, 構築コストの高い書き起こしによる読みのタグ付きデータ (CSJ の読みデータ)を減らすことができることを確認した. 具体的には, CSJ の読みデータを one-shot まで減らしてもモデルの精度に遜色ないことが分かった。 ## 謝辞 本研究は 2022 年度国立情報学研究所公募型共同研究 (22FC04), JSPS 科研費 22 K12145 の助成を受けています. また, 国立国語研究所の異分野融合型共同研究「テキスト読み上げのための読みの曖昧性の分類と読み推定タスクのデータセットの構築」の成果である. ## 参考文献 [1] 小林汰一郎, 古宮嘉那子. SVM を用いた BCCWJ における同形異音語の読み推定. 言語処理学会第 27 回年次大会, pp. 405-409, 2021. [2] Kikuo Maekawa, Makoto Yamazaki, Toshinobu Ogiso, Takehiko Maruyama, Hideki Ogura, Wakako Kashino, Hanae Koiso, Masaya Yamaguchi, Makiro Tanaka, and Yasuharu Den. Balanced corpus of contemporary written japanese. Language resources and evaluation, Vol. 48, No. 2, pp. 345-371, 2014. [3] 新納浩幸, 浅原正幸, 古宮嘉那子, 佐々木稔. nwjc2vec:国語研日本語ウェブコーパスから構築した単語の分散表現データ. 自然言語処理, Vol. 24, No. 5, pp. 705-720, 2017. [4] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805, 2018 [5] 小林汰一郎, 古宮嘉那子, 新納浩幸ほか. 疑似訓練データを用いた bertによる同形異音語の読み推定.研究報告自然言語処理 (NL), Vol. 2022, No. 3, pp. 1-5, 2022. [6] Hiroyuki Shinnou, Kanako Komiya, Minoru Sasaki, and Shinsuke Mori. Japanese all-words wsd system using the kyoto text analysis toolkit. In Proceedings of the 31st Pacific Asia Conference on Language, Information and Computation, pp. 392-399, 2017. [7] 鈴木類, 古宮嘉那子, 浅原正幸, 佐々木稔, 新納浩幸. 概念辞書の類義語と分散表現を利用した教師なし all-words wsd. 自然言語処理, Vol. 26, No. 2, pp. 361-379, 2019. [8] Jiaju Du, Fanchao Qi, and Maosong Sun. Using bert for word sense disambiguation. arXiv preprint arXiv:1909.08358, 2019. [9] 清野舜, 鈴木潤, 三田雅人, 水本智也, 乾健太郎. 大規模疑似データを用いた高性能文法誤り訂正モデルの構築. 言語処理学会第 26 回年次大会, pp. 989-992, 2020. [10] 斉藤いつみ, 鈴木潤, 貞光九月, 西田京介, 齋藤邦子, 松尾義博. 擬似データの事前学習に基づく encoder-decoder 型日本語崩れ表記正規化. 言語処理学会第 23 回年次大会, pp. 585-588, 2017. [11] Xiaojie Wang and Yuji Matsumoto. Improving word sense disambiguation by pseudo-samples. In International Conference on Natural Language Processing, pp. 386-395. Springer, 2004. [12] Kikuo Maekawa. Corpus of spontaneous japanese: Its design and evaluation. In ISCA \& IEEE Workshop on Spontaneous Speech Processing and Recognition, 2003. 表 4 改善が見られた上位 25 単語 表 5 改善が見られなかった上位 25 単語
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B4-1.pdf
# 文頭・文末予測の組み合わせによる文特定 宇田川拓真金山博吉田一星 日本アイ・ビー・エム株式会社東京基礎研究所 [email protected] $\{$ hkana,issei\}@jp.ibm.com ## 概要 文分割とはテキストを連続する文の単位に分割する前処理を指す. 本稿ではこれを拡張し,テキスト中の文でないノイズを除去しつつ, 解析対象とすべき文のみを抽出する文特定タスクの定式化を行う. また, 文頭・文末予測を組み合わせることで文特定を行う新たな手法を提案する. 最後に, Universal Dependencies (UD) のアノテーションに基づく言語横断的なベンチマーク手法を設計し, UD の英語コーパス English Web Treebank (EWT) を用いた実験により提案手法の精度・有用性を検証する。 ## 1 はじめに 自然言語処理において文は重要な処理単位の一つである $[1,2,5]$. 一般的に, テキストはまず文末予測に基づく文分割という前処理によって連続する文の単位 (文単位と呼ぶ) に分割される $[4,3,11]$. しかし,実際のテキストデータは必ずしも綺麗な文単位のみを含むとは限らない. 例えば, ウェブデータはメタ情報・文断片・非言語的記号など文と見なせないノィズ(非文単位と呼ぶ)を含み得る. 従来の文分割では非文単位もいずれかの文単位に属すると仮定されるが,これらのノイズは構文解析など下流の処理やその評価において障害となることがある [12]. そこで本稿では文分割の代替として,テキストを連続する文単位と非文単位に分割する文特定タスクの定式化を行う. それと同時に, 文頭と文末予測を組み合わせることで文特定を行う新たな手法を提案する. 表 1 に示すように, 提案手法では文頭・文末予測によって文単位を特定しつつ, それ以外を非文単位と見なして区別・除去することができる. 次に, 文特定タスクにそのまま適用可能なベンチマークが存在しないため, Universal Dependencies (UD) [8] のアノテーションを基に文特定のベンチマークを設計する. 具体的には, UD が提供する文境界と述語項構造を活用して, 任意のUDコーパスか ら文特定の正解データを作成する手法を紹介する。文単位・非文単位の分類基準を目的に応じて柔軟に調整可能であることもこの手法の特長である. 最後に, UD の英語コーパスとして広く使われている English Web Treebank (EWT) [10]を用いて実験を行う.これにより,提案手法は高い精度で文単位を特定できること, また正確な文単位の特定が構文解析等の下流タスクにおいて有用であることを示す. ## 2 タスク設計・手法 本節ではまず, 文分割のタスク設計と手法を再定義する. 次に, 文分割の考えを拡張することで文特定のタスク設計と手法を導出できることを示す. ## 2.1 文分割 入力テキストを $\boldsymbol{W}=\left(w_{0}, w_{1}, \ldots, w_{N-1}\right)$ とし, 各 $w_{i}$ は単語とする(文字・サブワードでも可).また, テキストのスパン $\boldsymbol{W}[i: j]=\left(w_{i}, \ldots, w_{j-1}\right)$ およびその連結 $\boldsymbol{W}[i: j] \oplus \boldsymbol{W}[j: k]=\boldsymbol{W}[i: k]$ を定義する. 文分割では入力テキストを連続する $M$ 個の文単位に分割する. ${ }^{1)}$ つまり, 文単位の境界のインデックスを $\boldsymbol{B}=\left(b_{0}, b_{1}, \ldots, b_{M}\right) \quad\left(\right.$ ただし $\left.b_{0}=0, b_{M}=N\right)$ とすると, $\bigoplus_{i=1}^{M} \boldsymbol{W}\left[b_{i-1}: b_{i}\right]=\boldsymbol{W}$ となる.ここで, スパン $\boldsymbol{W}[i: j]$ が一つの文単位となる確率を $p_{\mathrm{SU}}(\boldsymbol{W}[i: j])$ とおくと, 最適な文分割は以下の解 $\boldsymbol{B}$ を求めるタスクとして定式化できる: $ \underset{\boldsymbol{B}}{\arg \max } \prod_{i=1}^{M} p_{\mathrm{SU}}\left(\boldsymbol{W}\left[b_{i-1}: b_{i}\right]\right) $ 次に, $w_{i}$ が文末となる確率のモデル $p_{\text {EOS }}\left(w_{i} \mid \boldsymbol{W} ; \theta\right)$ を導入する. ${ }^{2}$ 通常, モデルのパラメーター $\theta$ は文末 (文境界)の正解データを用いて事前学習され [11], このモデルを用いて文単位の確率 $p_{\mathrm{SU}}(\boldsymbol{W}[i: j])$ を以下のように定義できる: $ p_{\mathrm{SU}}(\boldsymbol{W}[i: j])=p_{\mathrm{EOS}}\left(w_{j-1}\right) \prod_{i \leq k<j-1}\left(1-p_{\mathrm{EOS}}\left(w_{k}\right)\right) $ 1) $M$ は変数であることに注意. 2)以降 $\boldsymbol{W}, \theta$ を省略して $p_{\text {EOS }}\left(w_{i}\right)$ のように表記する. 表 1 文分割と文特定の比較. 文分割では文末予測 (E)によってテキストを連続する文単位 (青いスパン) に分割する. 文特定では文頭予測 (B) と文末予測 (E) の間のスパンを文単位として特定し, それ以外のスパンを非文単位と見なす.入力テキスト Thank you. - TEXT.htm 《 File: TEXT.htm 》 I was thinking of converting it to a hover vehicle. (EWTの例) I might just sell the car and get you to drive me around all winter. つまり $\boldsymbol{W}[i: j]$ が文単位となる確率は, そこに含まれる単語のうち最後の単語 $w_{j-1}$ のみが文末となる確率に等しい. この式 (2)を式 (1)に代入すると, $ \begin{aligned} (1) & =\underset{\boldsymbol{B}}{\arg \max } \sum_{i=1}^{M}\left.\{\log p_{\mathrm{EOS}}\left(w_{b_{i}-1}\right)+\sum_{b_{i-1} \leq j<b_{i}-1} \log \left(1-p_{\mathrm{EOS}}\left(w_{j}\right)\right)\right.\} \\ & =\underset{\boldsymbol{B}}{\arg \max } \sum_{i \in \boldsymbol{B}_{\mathrm{EOS}}} \log p_{\mathrm{EOS}}\left(w_{i}\right)+\sum_{i \notin \boldsymbol{B}_{\mathrm{EOS}}} \log \left(1-p_{\mathrm{EOS}}\left(w_{i}\right)\right) \end{aligned} $ ここで $\boldsymbol{B}_{\mathrm{EOS}}=\left.\{b_{i}-1 \mid i \in(1,2, \ldots, M)\right.\}$ は $\boldsymbol{B}$ が定義する文末のインデックスを指す. 式 (3) は自明な最適化問題であり, $\boldsymbol{B}_{\mathrm{EOS}}=\left.\{i \in(0,1, \ldots, N-1) \mid p_{\mathrm{EOS}}\left(w_{i}\right) \geq\right.$ $0.5\}$ となる $\boldsymbol{B}$ が最適解となる. ## 2.2 文特定 文特定では入力テキストを連続する文単位または非文単位に分割する. そのため, $a_{i}$ を $\boldsymbol{W}\left[b_{i-1}: b_{i}\right]$ が文単位の場合 1 , 非文単位の場合 0 を取る変数とすると, 最適な文特定は以下の解 $\boldsymbol{A}=\left(a_{1}, a_{2}, \ldots, a_{M}\right)$ および $\boldsymbol{B}$ を求めるタスクとして定式化できる: $\underset{\boldsymbol{B}, \boldsymbol{A}}{\arg \max } \prod_{i=1}^{M} p_{\mathrm{SU}}\left(\boldsymbol{W}\left[b_{i-1}: b_{i}\right]\right)^{a_{i}} p_{\mathrm{NSU}}\left(\boldsymbol{W}\left[b_{i-1}: b_{i}\right]\right)^{1-a_{i}}$ ここで $p_{\mathrm{SU}}(\boldsymbol{W}[i: j]), p_{\mathrm{NSU}}(\boldsymbol{W}[i: j])$ はそれぞれ $\boldsymbol{W}[i: j]$ が一つの文単位, 非文単位となる確率を指す.前項の考えを拡張すると,これらの確率は事前学習された文頭確率のモデル $p_{\mathrm{BOS}}\left(w_{i}\right)$ と文末確率のモデル $p_{\mathrm{EOS}}\left(w_{i}\right)$ を用いて以下のように定義できる: $ \begin{aligned} p_{\mathrm{SU}}(\boldsymbol{W}[i: j])= & p_{\mathrm{BOS}}\left(w_{i}\right) \prod_{i<k \leq j-1}\left(1-p_{\mathrm{BOS}}\left(w_{k}\right)\right) \\ & \times p_{\mathrm{EOS}}\left(w_{j-1}\right) \prod_{i \leq k<j-1}\left(1-p_{\mathrm{EOS}}\left(w_{k}\right)\right) \\ p_{\mathrm{NSU}}(\boldsymbol{W}[i: j])= & \prod_{i \leq k \leq j-1}\left(1-p_{\mathrm{BOS}}\left(w_{k}\right)\right) \times \prod_{i \leq k \leq j-1}\left(1-p_{\mathrm{EOS}}\left(w_{k}\right)\right) \end{aligned} $ つまり $\boldsymbol{W}[i: j]$ が文単位となる確率は, 最初の単語 $w_{i}$ のみが文頭となり, 最後の単語 $w_{j-1}$ のみが文末となる確率に等しい. また, $\boldsymbol{W}[i: j]$ が非文単位となる確率は文頭および文末が一切含まれない確率に等しい.3) これらの式 (5) を式 (4) に代入すると, (4) $=\underset{\boldsymbol{B}, \boldsymbol{A}}{\arg \max } \sum_{i=1}^{M}\left.\{a_{i} \log p_{\mathrm{sU}}\left(\boldsymbol{W}\left[b_{i-1}: b_{i}\right]\right)\right.$ $\left.+\left(1-a_{i}\right) \log p_{\mathrm{NSU}}\left(\boldsymbol{W}\left[b_{i-1}: b_{i}\right]\right)\right.\}$ $ \begin{aligned} =\underset{\boldsymbol{B}, \boldsymbol{A}}{\arg \max } & \sum_{i \in \boldsymbol{B}_{\mathrm{BOS}}^{\boldsymbol{A}}} \log p_{\mathrm{BOS}}\left(w_{i}\right)+\sum_{i \notin \boldsymbol{B}_{\mathrm{BOS}}^{\boldsymbol{A}}} \log \left(1-p_{\mathrm{BOS}}\left(w_{i}\right)\right) \\ & +\sum_{i \in \boldsymbol{B}_{\mathrm{EOS}}^{\boldsymbol{A}}} \log p_{\mathrm{EOS}}\left(w_{i}\right)+\sum_{i \notin \boldsymbol{B}_{\mathrm{EOS}}^{\boldsymbol{A}}} \log \left(1-p_{\mathrm{EOS}}\left(w_{i}\right)\right) \end{aligned} $ ここで $\boldsymbol{B}_{\mathrm{BOS}}^{\boldsymbol{A}}=\left.\{b_{i-1} \mid i \in(1,2, \ldots, M), a_{i}=1\right.\}$ は文頭のインデックス, $\boldsymbol{B}_{\mathrm{EOS}}^{\boldsymbol{A}}=\left.\{b_{i}-1 \mid i \in(1,2, \ldots, M), a_{i}=1\right.\}$ は文末のインデックスを指す. 付録 A に示すように,式 (6) の最適解 $\boldsymbol{B}, \boldsymbol{A}$ は動的計画法を用いて厳密かつ効率的に求めることができる. ## 3 評価 本節では, 任意の言語のUDコーパスから文特定のベンチマークを構築する手法について説明する.具体的にはUD のアノテーションを基に, まず (1) 文単位・非文単位の境界を決定し,次に (2) 各区分を文単位または非文単位に分類する. まず手順 (1) では, UDにおける文境界4)を文単位・非文単位の境界として採用する. 手順 (2) においては, 言語学における Lexical Sentence [9] の考え方を採用し, 単語間の依存関係を基に文単位を定義する. 具 [i: j] \oplus \boldsymbol{W}[j: k]=\boldsymbol{W}[i: k]$ に対して $p_{\mathrm{NSU}}(\boldsymbol{W}[i: k])=p_{\mathrm{NSU}}(\boldsymbol{W}[i: j]) \times p_{\mathrm{NSU}}(\boldsymbol{W}[j: k])$ が成立する.つまり,連続する非文単位の区別は行われない. 4)UDにおいて, 文境界における「文」とは表 2 のような非文単位を含む広義の意味で使われている。 } 表 2 English Web Treebank (EWT) に含まれる非文単位の代表例. 各行は一つの非文単位に対応する. $* \sim * \sim * \sim * \sim * \sim * \sim * \sim * \sim * \sim *$ $* * * * * * * * * * \mathrm{NOTE} * * * * * * * * * * *$ By video conference from Excerpt: 02/13/2001 08:02 PM 5:00 PT ** 6:00 MT ** 7:00 CT ** 8:00 ET Time: 11:30am / 1:30pm Central / 2:30pm Eastern Sunshine Coast, British Columbia, Canada - UnleadedStocks.pdf t r t h o u t - Perspective ( Answered, 2 Comments ) The federal sites of Washington, DC. 体的には, 節を文単位を構成する重要な要素と考え,節を成す述語とそれに係る依存関係 (core argument または non-core dependent)が少なくとも一つ含まれる区分を文単位として分類する.5) 本稿では実験のため, English Web Treebank (EWT) [10] を用いて実際にベンチマークを構築する. EWT の様々なジャンルのテキストデータから成り立ち,解析対象とすべき文単位(表 6)だけでなく多様な非文単位(表 2)が含まれる. なお, 本稿の基準では独立した名詞句等も非文単位に分類されるが, 目的に応じてこの基準は柔軟に調整可能である. また, EWT ベンチマークの統計値を表 3 に示す.本稿の基準では, 約 17 28\% と多くの区分が非文単位として分類されることが分かる. 一方で, 文単位を単語レベルの BIO ラベル6)を用いてアノテーションした場合, 約 4 8\%の単語のみが $\mathrm{O}$ ラベルを付与される.これは表 2 に示すように, 非文単位が比較的少ない単語数で構成されることに起因する。 ## 4 実験 最後に, EWT ベンチマークを用いた実験により文特定の精度と有用性を検証する。 5)UD の依存関係の詳細については以下を参照されたい: https://universaldependencies.org/u/dep/. 6) $\mathrm{B}$ は文単位の先頭, $\mathrm{I}$ は文単位の途中, $\mathrm{O}$ は文単位の外(つまり非文単位)であることを示す. ## 4.1 実験設定 2 節で述べたように, 文特定を行うには事前学習された文頭確率と文末確率のモデルが必要である. そのため, 本稿では RoBERTa [6] をべースに文頭と文末を予測する分類モデルを構築する. モデルの訓練・検証時には, 入力テキストとして連続する $L$ 個の文単位・非文単位を連結する。ここで $L$ は成功確率 $p_{C C}=0.5$ の幾何分布からサンプリングする.7) ただし, 入力長が RoBERTa の上限を超える場合,上限を超えない最大の $L^{\prime}<L$ を代用する. この手順により, 様々な長さの入力テキストに対応するモデルが構築できると期待される. テスト時には, より多様な入力テキストを考慮して以下の設定を考える. 第一に, 訓練・検証時と同様に連続する文単位・非文単位を連結する方法が考えられる. 本稿では $p_{C C}=0.5$ と, 可能な限り長い入力を想定した $p_{C C}=0$ を用いて評価を行う. 第二に, 文分割の結果の後処理として文特定を行う設定を考える. 具体的には, 高性能な文分割モデル [11]を用いて EWT の生データを分割し,その結果に対して文特定を行う. なお, 文分割の段階で文単位が誤って分割されてしまった場合は, 分割された部分を非文単位と見なして正解を修正する。 最後に, 文特定の精度を文単位の抽出タスクとして評価する. 具体的には, 文単位の単語レベルの BIO ラベル (3 節参照)の $\mathrm{F} 1$ スコアと, スパンレベルの完全一致の F1 スコアを用いる. また, ベースラインとして文末確率のモデルのみを用いた文分割手法 (2.1 項)との比較を行う. 文末確率のモデルは文特定と同様に訓練し, 入力の最後の単語を強制的に文末とする場合・しない場合の両方で評価する.8) ## 4.2 実験結果 表 4 に文単位の抽出タスクの実験結果を示す. 第一に, 提案手法(文特定)は全ての評価指標において文分割を大きく上回ることが確認できる. 特にスパンレベルの完全一致でも, 提案手法は 84 89\% と高い精度を達成している. また, 長い入力 $( p_{C C}=0 )$ に対しては文分割では大きな性能劣化が 7) $p_{C C} \in(0,1]$ の時, 幾何分布の確率質量関数は $l \in \mathbb{N}$ におい $\tau p(L=l)=\left(1-p_{C C}\right)^{l-1} p_{C C}$ となり, $p_{C C}$ が小さくなるほど $L$ は大きくなりやすい. $p_{C C}=0$ の時, $p(L=\infty)=1$ とみなす. 8)最後の単語を強制的に文末とする場合, 非文単位は一切予測されない.これを強制しない場合, 予測された最後の文末以降のスパンを(存在すれば)非文単位と見なす。 表 5 下流タスク (単語区切り/Words・品詞タグ付け/UPOS・依存構造解析/LAS) の評価結果. 見られる9)一方で, 文特定の手法ではこれらに対しても高い性能を維持していることが分かる. 以上の結果より, 非文単位を除いて文単位を特定するには文末の予測のみ(=文分割)では不十分であり, 文頭・文末の予測を組み合わせること(=文特定)が重要であると言える. ## 4.3 下流タスクの評価 最後に, 文特定の下流タスクにおける有用性について, 単語区切り・品詞タグ付け・依存構造解析の 3 つに焦点を当てて検証する. まず背景として, EWT は非文単位のようなノイズを含むため, 解析器の訓練・評価の両面で支障があることが知られている [12]. そこで本稿では, 理想的な文単位・非文単位の区分10)に基づいて解析器を訓練・評価することの利点について調査する. 下流タスクの解析器には Trankit [7] を用いる. 手順としては UD-EWT v2.6の全体 (文単位と非文単位) を用いて単語区切りを訓練し ${ }^{11)}$, 続いて UD-EWT v2.10の全体・文単位のみ・非文単位のみのそれぞれで品詞タグ付けと依存構造解析を訓練する. 最後に, UD-EWT v2.10の全体・文単位のみ・非文単位のみのそれぞれで各解析器を評価する。 表 5 に下流タスクの評価結果を示す.まずEWT 全体で解析器を訓練した場合, 全ての下流タスクにおいて文単位のみで評価したスコアが高く, 非文単位 9)文分割では予測できる非文単位 (O ラベル) の割合が入力が長くなるほど小さくなり, 結果的に性能が大幅に劣化する. 10)つまり 3 節で示した基準で分類した正解の区分を用いる.現実的には文特定の予測の段階で誤りが生じる可能性があるが, その点まで考慮した分析は今後の課題とする. 11)複数語トークンによるエラーを回避するため, それを持たない旧バージョンで訓練した単語区切りモデルで固定した。 のみで評価したスコアが顕著に低くなっている.このことから, 文単位は予測に適した綺麗なデータが多く, 逆に非文単位は予測しづらいイレギュラーなデータが多いことが分かる.これらを同一視せずに区別して評価を行うことは, 解析器の特徵を正しく理解するために重要と考えられる. また, 文単位のみで解析器を訓練した場合, 学習データは少なくなるにもかかわらず, 全体で訓練した場合と近い性能が出ることが分かる. ${ }^{12)}$ 例えば文単位に対する品詞タグ付けでは, 全体で訓練した場合と同等の性能が出ている. 逆に非文単位のみで訓練した場合の性能は全体的に低く, 訓練データとしても有用でないノイズが多いと考えられる.13) 今後の応用として, 例えば文単位・非文単位の分類基準 (3 節)を調整することで訓練に最適なデータのフィルタリングを行えると考えられる。 以上の結果より, 正確な文特定は解析器の訓練・評価の両面で有用であると考えられる. ## 5 まとめ 本稿では文分割の考え方を拡張し, 非文単位を除きつつ文単位を特定する文特定のタスクと手法を提案した.また, EWT を用いた実験により文特定の精度と有用性を確認した. 今後の課題として, 文特定のさらなる精度向上, 異なる言語・ドメインにおける有効性の検証, 実際の(誤りを含む)予測に基づく下流タスクの評価・分析などが挙げられる。 12)ただし非文単位のみで評価した結果は異なる傾向を持ち, やはりイレギュラーなデータを多く含むことを示唆している. 13)フェアな比較のためには訓練に使うデータ量を揃える必要があるが, 付録 C に示すようにこの設定でも同様の傾向が確認された。 ## 参考文献 [1] Timothy Dozat and Christopher D Manning. Deep biaffine attention for neural dependency parsing. In Proc. of ICLR, 2017. [2] Timothy Dozat and Christopher D. Manning. Simpler but more accurate semantic dependency parsing. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 484-490, Melbourne, Australia, July 2018. Association for Computational Linguistics. [3] Dan Gillick. Sentence boundary detection and the problem with the U.S. In Proceedings of Human Language Technologies: The 2009 Annual Conference of the North American Chapter of the Association for Computational Linguistics, Companion Volume: Short Papers, pp. 241-244, Boulder, Colorado, June 2009. Association for Computational Linguistics. [4] Tibor Kiss and Jan Strunk. Unsupervised multilingual sentence boundary detection. Computational Linguistics, Vol. 32, No. 4, pp. 485-525, 2006. [5] Yinhan Liu, Jiatao Gu, Naman Goyal, Xian Li, Sergey Edunov, Marjan Ghazvininejad, Mike Lewis, and Luke Zettlemoyer. Multilingual denoising pretraining for neural machine translation. Transactions of the Association for Computational Linguistics, Vol. 8, pp. 726-742, 2020. [6] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. RoBERTa: A robustly optimized BERT pretraining approach. arXiv preprint arXiv:1907.11692, 2019. [7] Minh Van Nguyen, Viet Dac Lai, Amir Pouran Ben Veyseh, and Thien Huu Nguyen. Trankit: A light-weight transformer-based toolkit for multilingual natural language processing. In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics: System Demonstrations, pp. 80-90, Online, April 2021. Association for Computational Linguistics. [8] Joakim Nivre, Marie-Catherine de Marneffe, Filip Ginter, Jan Hajič, Christopher D. Manning, Sampo Pyysalo, Sebastian Schuster, Francis Tyers, and Daniel Zeman. Universal Dependencies v2: An evergrowing multilingual treebank collection. In Proceedings of the 12th Language Resources and Evaluation Conference (LREC 2020), pp. 4034-4043, Marseille, France, May 2020. European Language Resources Association. [9] Geoffrey Nunberg. The linguistics of punctuation. No. 18. Center for the Study of Language (CSLI), 1990. [10] Natalia Silveira, Timothy Dozat, Marie-Catherine de Marneffe, Samuel Bowman, Miriam Connor, John Bauer, and Chris Manning. A gold standard dependency corpus for English. In Proceedings of the Ninth International Conference on Language Resources and Evaluation (LREC'14), pp. 2897-2904, Reykjavik, Iceland, May 2014. European Language Resources Association (ELRA). [11] Rachel Wicks and Matt Post. A unified approach to sentence segmentation of punctuated text in many languages. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 3995-4007, Online, August 2021. Association for Computational Linguistics. [12] 金山博, 大湖卓也. UD_English-EWT との付き合い方. 言語処理学会第 28 回年次大会予稿集, March 2022. 表 6 English Web Treebank (EWT) に含まれる文単位の代表例. 各行は一つの文単位に対応する. President Bush on Tuesday nominated two individuals to replace retiring jurists on federal courts in the Washington area. Unfortunately, Mr. Lay will be in San Jose, CA participating in a conference, where he is a speaker, on June 14. "In 1972, there was an enormous glut of pilots," Campenni says. PS - There is a happy hour tonight at Scudeiros on Dallas Street (just west of the Met Garage) beginning around 5:00. 2) Your vet would not prescribe them if they didn't think it would be helpful. BUT EVERYONE HAS THERE OWN WAY!!!!!! The motel is very well maintained, and the managers are so accomodating, it's kind of like visiting family each year! ;-) where can I find the best tours to the Mekong Delta at reasonable prices? 表 7 訓練データ量を揃えた場合の下流タスク (単語区切り・品詞タグ付け・依存構造解析) の評価結果. ## A 動的計画法 2.2 項の式 (6) の最適解は動的計画法を用いて求めることができる. 具体的には, 任意の $k \leq N-1$ に対して $\boldsymbol{W}^{\leq k}=\left(w_{0}, \ldots, w_{k}\right)$ までの最適な文頭・文末予測を考える。つまり, 式 (6) における $\boldsymbol{W}$ を $\boldsymbol{W} \leq k$ に置き換えた最適化問題・目的関数を考える. $\boldsymbol{W} \leq k$ までの予測は不完全であるため, 文単位の途中で終わる(=最後の予測が文頭である)場合と,文単位の外で終わる (=最後の予測が文頭でない)場合の 2 通りが考えられる. $\log p_{\text {IS }}(k+1)$ を前者の場合の目的関数の最大值, $\log p_{\mathrm{OS}}(k+1)$ を後者の場合の目的関数の最大值と置く. すると, 予測は必ず文単位の外から始まるので $\log p_{\text {IS }}(0)=\log 0=-\infty$, $\log p_{\text {os }}(0)=\log 1=0$ と初期化でき,これらの值を以下のように更新して求めることができる. $ \begin{array}{r} \log p_{\mathrm{IS}}^{\prime}(i)=\max \left.\{\log p_{\mathrm{IS}}(i)+\log \left(1-p_{\mathrm{BOS}}\left(w_{i}\right)\right),\right. \\ \left.\log p_{\mathrm{OS}}(i)+\log p_{\mathrm{BOS}}\left(w_{i}\right)\right.\} \end{array} $ $\log p_{\mathrm{OS}}^{\prime}(i)=\log p_{\mathrm{OS}}(i)+\log \left(1-p_{\mathrm{BOS}}\left(w_{i}\right)\right)$ $\log p_{\mathrm{IS}}(i+1)=\log p_{\mathrm{IS}}^{\prime}(i)+\log \left(1-p_{\text {EOS }}\left(w_{i}\right)\right)$ $\log p_{\text {OS }}(i+1)=\max \left.\{\log p_{\text {IS }}^{\prime}(i)+\log p_{\text {EOS }}\left(w_{i}\right)\right.$, $ \left.\log p_{\mathrm{OS}}^{\prime}(i)+\log \left(1-p_{\mathrm{EOS}}\left(w_{i}\right)\right)\right.\} $ この更新式ではまず, 文頭確率 $p_{\text {BOS }}\left(w_{i}\right)$ に基づいて $p_{\mathrm{IS}}(i) \rightarrow p_{\mathrm{IS}}^{\prime}(i), p_{\mathrm{oS}}(i) \rightarrow p_{\mathrm{OS}}^{\prime}(i)$ の更新を行う. 次に, 文末確率 $p_{\text {EOS }}\left(w_{i}\right)$ に基づいて $p_{\text {IS }}^{\prime}(i) \rightarrow p_{\text {IS }}(i+1)$, $p_{\text {oS }}^{\prime}(i) \rightarrow p_{\text {os }}(i+1)$ の更新を行う. 最終的に予測は文単位の外で終わる必要があるた め, $\log p_{\mathrm{OS}}(N)$ が式 (6) の目的関数の最大值となる.式 (6) の最適解 $B, A$ は, 更新式 (7) をバックトラックすることで簡単に求めることができる. ## B 文単位の例 表 6 にWTに含まれる文単位の代表例を示す.これらの例に示されるように, 本稿の基準では節を成す述語項構造を持つ区分のみが解析対象とすべき文単位として判定される. ## C 下流タスク評価の追加結果 表 7 に訓練データ量を揃えた場合の下流タスクの評価結果を示す. 手順としては, 非文単位のデータ量が最も少ないため, 訓練データに含まれる単語数を非文単位におおよそ合わせて訓練を行った. ${ }^{14)}$ この結果から, やはり文単位のみで解析器を訓練した場合, 全体で訓練した場合と同等の性能が出ることが分かる. また, データ量を揃えた場合でも非文単位のみで訓練した場合の性能は全体として低いことが分かる.このことから,下流タスクの学習には文単位が最も有用であり,非文単位の貢献は非常に小さいことが分かる.ただし非文単位のみで評価した場合の結果は異なる傾向を示しており, 非文単位に含まれるデータは(アノテーションが一貫していないなど)イレギュラーであることが示唆される. 14)訓練データの単語数をおおよそ合わせるために, 全体で訓練する場合はランダムに 622 例, 文単位のみで訓練する場合はランダムに 518 例, 非文単位のみで訓練する場合は 2,187 例 (全ての例)を使用した。
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B4-2.pdf
# 深層学習を用いた階層的テキストセグメンテーションモデル 久島務嗣 1 吉田尚水 ${ }^{1}$ 小林優佳 ${ }^{1}$ 永江尚義 1 岩田憲治 1 1 株式会社 東芝 研究開発センター [email protected] ## 概要 近年では, 大規模コーパスと深層学習を用いた高性能なテキストセグメンテーションモデルが提案されている. 既存モデルは 1 つの階層でのみセグメンテーションを行うが, 文章は章立てや段落といった階層構造を持つ. この構造情報を活用することで, 推定時に考慮できる情報が増え, モデルのドメイン汎化性能が向上すると期待される. そこで, 構造情報を持った大規模コーパスを構築し, 深層学習を用いた階層的テキストセグメンテーションモデルを提案する. 学習コーパスとドメインの異なるコーパスで評価した結果, 提案モデルは既存モデルの性能を上回り, 構造情報の有効性を確認した。 ## 1 はじめに 書籍や文書といった人によって作られた文章は,章立てや段落などの構造を持つ.この構造情報は, 高度なテキスト分析において有用である. しかし, 音声認識の様な自動化技術の発達によって構造を持たないテキストが大量に存在するようになった. 構造を持たないテキストの分析は容易でないため, 高性能なテキスト構造化技術が求められている. テキスト構造化技術の 1 つにテキストセグメンテーション (Text Segmentation: TS) がある.これは, テキストを意味的に関連性がある複数の文のまとまり (セグメント) に分割し, 構造化する技術である. TS には大きく2つのタイプがある. 1 つは,テキストからセグメント終端となる文を検出し,テキストをセグメント系列に変換する線形的 TS(Linear TS: LTS,図 1 下) である.もう一つは階層的な構造化を行う階層的 TS(Hierarchical TS: HTS, 図 1 上) である. 古典的な LTS・HTS モデルは文の類似度や単語の一貫性に基づいた教師なし学習モデルで, 人工的に生成したデータでは高い性能を発揮していたが,自然なデー タでは性能が低いことが課題であった $[1,2,3,4]$. 図 1 LTS と HTS の概要 近年では,大規模コーパスを用いた深層学習 LTS モデルがいくつか提案されており $[5,6,7,8]$, 自然なデータでも高性能なテキスト構造化が可能となってきた。一般に文章の持つ構造は階層構造であるため, セグメントに含まれる文の数 (大きさ) は構造化される階層によって異なる. 例えば, 節の下にいくつかの段落がある場合, 下の階層で構造化すれば 1 つのセグメントが段落になり, 上の階層で構造化すれば 1 つのセグメントが節になる。適切なセグメントの大きさは構造化後の分析に依って異なるため, 汎用的に利用するには階層的な構造化が必要となる。 しかし, LTS モデルは階層的な構造化が出来ず, 対応した階層別にモデルを用意するのはコストが高い. 深層学習を用いた HTS モデルが提案されていない原因として, 構造情報を持った十分大きい学習コーパスが構築されていないことが挙げられる。大規模コーパスを用いて HTS モデルを深層学習することで, 様々な分析に汎用的に利用できる高性能な HTS モデルが学習できる. さらに, テキストが持つ階層構造を活用することで,推定時に考慮できる情報が増え, LTS モデルよりもテキストのドメインに対する汎化性能が向上することも期待される。そこで,章・節・段落の 3 つの階層の構造情報を持った大規模な学習コーパスを構築し, 深層学習を用いた 3 層の HTS モデルを提案する. まず, 2 章で関連研究を挙げ, 3 章で構築したコー パスと提案モデルについて説明する. 4 章では実験設定と評価方法, 5 章では結果と考察, 6 章では最後に本稿のまとめと今後の課題について述べる. ## 2 関連手法 深層学習を用いた LTS モデルは文特徴ベクトル生成部 (encoder) とセグメント終端推定部 (predictor) から成る.いずれの部分も入力は系列となるので, LSTM や Transformer Encoder(TFE) が用いられる. TFE を用いた LTS モデルには Glavǎs ら [8] と Lukasik ら [7] のモデルがある. Glavǎs らは, 再帰的なモデル (LSTM など) よりもTFE の方が自然言語タスク全般で性能が良く収束が早いために, TFE をモデルに採用した. また, Lukasik らは encoder $\cdot$ predictor の両方に学習済み BERTを用いた HierBERT を提案した。 HTS モデルには Kazantseva ら [3] と Bayomi ら [4] のモデルがある. いずれのモデルも文の類似度に基いた階層クラスタリング手法を用いた教師なし学習モデルで, 小さいセグメントから推定をはじめ, その結果を用いてだんだん大きいセグメントを推定する, ボトムアップ方式の構造化を行った. ## 3 提案手法 ## 3.1 コーパス 深層学習を用いて HTS モデルを学習するためには, 2 つ以上の階層を持つ大規模なコーパスが必要となる. しかし, その様なコーパスは存在しないため, Section[9] と Wiki-40B[10] を用いて新たなコーパスを構築した. Section は LTS の学習に広く用いられているコーパスで, Wikipedia の都市と疾病に関する記事を収集することによって構築された. 記事は SPARQL を使用して対応するトピックの WikiData の QID を検索する事によって収集された. また, Wiki-40B は Wikipedia を前処理したコーパスで, 節と段落の 2 つの構造情報と WikiData の QID が付与されている. Section と同じ記事のデータを Wiki-40B から抽出することで, 構造情報を持った Section(Hier.Section)を構築した. さらに, Wiki-40B は 1 つのデータに複数の節を含むため, 1 つのデータを章とみなすことができる. そこで, 1 つのデータのテキスト全体を章のセグメントとし, その終端に章のセグメント終端の正解ラべルを付与した. したがって, Hier.Section は章・節・段落の 3 つの構造情報を持つ. 図 2 Predictor モデル概要図 データの抽出は, Section の各データに付与された WikiData の URL から特定した QID を用いて行った.抽出したデータの前処理として, 複数の文が連結されていた場合には分割し, 節のセグメント数が 2 つ以下のデータと 3 文以下のデータはコーパスから削除した. 文の分割には Python のオープンソースライブラリ $\mathrm{nltk}^{1)}$ を使用した. 学習・検証・評価データへの分割は Section の学習・検証・評価データと同じデータが含まれるように行った。 また, LTS の評価に良く用いられるコーパスに Elements[11] がある. Elements は複数の文が連結されているデータが多く, また, 記号が削除されているために元の文に分解することが難しいことから, Wiki-40B から新たに構築した Hier.Elements を評価データとして使用した. Hier.Elements は化学元素に関する記事の QID をSPARQL を使用して収集し, 対応するデータを Wiki-40B から抽出することによって構築した. 前処理は Hier.Section と同様に行った. ## 3.2 提案モデル HTS では階層ごとに関連性を考慮する範囲が異なるため, 局所的・大域的な関連性がどちらも重要である。TFE は系列全体の関連性を見ながら特徴を抽出するため, HTS モデルの predictor には TFE が適切である。さらに, encoder に事前学習済み BERT を用いることで, predictor では学習コーパスに依存しない汎用的な文特徴べクトルが利用できる. また, 小さ 1) https://www.nltk.org/ いセグメントはテキストを構成する意味の最小単位となるため, ボトムアップで構造化することで, その後のセグメントの統合を精度よく行うことができる [4]. したがって, 本稿は encoder には BERT, predictor には TFE を用い, ボトムアップで推定する HTS モデルを提案する。 encoder は BERT が出力した sub-word 単位の特徴ベクトルを平均し, 文特徴べクトル $f^{i}$ として出力する. predictor のモデル概要図を図 2 に示す. predictor は 2 層の TFEを 3 つの持ち, それぞれのパラメータは独立している. bottom ・ middle・top は段落・節・章の階層にそれぞれ対応し, ボトムアップに bottom から順にセグメント終端を推定する。 bottom では, まず, encoder から受取った文特徴ベクトル系列 $f_{1: L}$ を TFE に入力し, 階層特徴べクトル系列 $h_{1: L}^{b}$ を得る (式 1). 計算した $h_{1: L}^{b}$ から Feed Forward Network(FFN) と softmax 関数によって bottom のセグメント終端確率 $p_{1: L}^{b}$ を算出する (式 2). $ \begin{aligned} h_{1: L}^{b} & =T F E^{b}\left(f_{1: L}\right) \in \mathbb{R}^{L \times d} \\ p_{i}^{b} & =\frac{\exp \left(g_{i}^{b}\right)}{\sum_{j=1}^{L} \exp \left(g_{j}^{b}\right)} \in \mathbb{R}^{2} \\ g_{1: L}^{b} & =F F N_{p}^{b}\left(h_{1: L}^{b}\right) \end{aligned} $ 式中の $d$ は BERT の特徵ベクトル次元, $\mathrm{L}$ は入力テキストの文の数をそれぞれ表し, $F F N_{p}^{b}(\cdot)=$ $W_{p}^{b} \cdot \operatorname{relu}(\cdot)+b_{p}^{b}$ である. 次に, $p_{1: L}^{b}$ を閾値処理しセグメント終端位置を特定する. ただし, 学習時には正解ラベルをセグメン卜終端位置として用いた. 特定したセグメント終端位置からセグメント系列 $\mathrm{Seg}^{b}$ を得る. セグメント $S e g_{i}^{b}$ は i 番目のセグメントに含まれる文の添え字集合を表す. 例えば, 3 文目と 6 文目がセグメント終端の場合, $\operatorname{Seg}_{1}^{b}=\{1,2,3\}, S e g_{2}^{b}=\{4,5,6\}$ となり, $\left|S e g_{1}^{b}\right|=\left|S e g_{2}^{b}\right|=3$ である. 統合べクトル $e_{i}^{b}$ は, コンテキストベクトル $C^{b}$ を用いた注意機構 [12] によって計算する (式 3). $ \begin{aligned} e_{i}^{b} & =\frac{1}{\left|\operatorname{Seg}_{i}^{b}\right|} \sum_{j \in \operatorname{Seg}_{i}^{b}} a_{j}^{b} \cdot h_{j}^{b} \\ a_{i}^{b} & =\frac{\exp \left(z_{i}^{b}\right)}{\sum_{k \in \operatorname{Seg}_{j}^{b}} \exp \left(z_{k}^{b}\right)} \text { s.t. } i \in \operatorname{Seg}_{j}^{b} \\ z_{1: L}^{b} & =C^{b} \cdot \tanh \left(F F N_{z}^{b}\left(h_{1: L}^{b}\right)\right) \in \mathbb{R}^{L} \end{aligned} $ bottom で特定したセグメント系列が $\left|\operatorname{Seg}^{b}\right|=M$ であるとき, middle では bottom の計算した統合べクトル系列 $e_{1: M}^{b}$ を大力として受け取る. 同様に, middle で特定したセグメント系列が $\left|\mathrm{Seg}^{m}\right|=N$ であるとき, top は middle の統合ベクトル系列 $e_{1: N}^{m}$ を受け取る. 入力ベクトル以外は bottom と同様の手続きで middle・top のセグメント終端確率を推定する. 目的関数は各階層における Cross-Entropy Loss(CEL) の総和としてモデルを更新した. $ \begin{aligned} \text { loss }=\frac{1}{L} C E L\left(y_{1: L}^{b}, p_{1: L}^{b}\right) & +\frac{1}{M} C E L\left(y_{1: M}^{m}, p_{1: M}^{m}\right) \\ & +\frac{1}{N} C E L\left(y_{1: N}^{t}, p_{1: N}^{t}\right) \end{aligned} $ 式中の $y$ はそれぞれの階層の正解ラベル, $p_{1: N}^{m} \cdot$ $p_{1: N}^{t}$ は middle・top で計算されたセグメント終端確率をそれぞれ表す. 提案モデルでは各階層のセグメント単位で特徴ベクトルを統合しながら推定を進めるため, 階層ごとに系列長が異なる。そのため, 階層ごとのロスのバランスを取るために系列長でスケー リングを行った. また, FFNに入力される特徴べクトルは, 入力される直前に一定の割合で要素を 0 に置換する dropoutを適用した [13]. ## 4 実験 ## 4.1 実験設定 実験に使用するコーパスとその統計量を表 1 に示す. 学習コーパスとトピックが異なるコーパスをドメイン外 (Out-Of-Domain: $\mathrm{OOD}^{\dagger}$ ) とする。学習コー パスには Hier.Sectionを用いた. 学習・評価データの作成の詳細は付録を参照されたい. 最適化関数には AdamW を用い, 学習率は $10 \mathrm{e}-4$, 学習エポック数は 50, dropout 割合は 0.1 とした. 評価時のセグメント終端位置の特定に使用する閾値は, 検証データにおいて最も良い F1 となった間値を使用した. 実装には Pytorch ${ }^{2}$ と hugingface ${ }^{3)} の$ Transformers, encoder の BERT には”bert-base-cased”を使用した。また, BERT はパラメータを固定して実験を行った。 ベースラインは, LSTM を積層した HierLSTM[5] と, BERTを積層した HierBERT[7] の 2 つの LTS モデルとした. HierLSTM と HierBERT はそれぞれの論文にしたがって実装し,提案モデルと同様の学習・評価を行った。また, HierBERT の BERT には提案モデルと同様に”bert-base-cased”を使用した.  表 2 評価コーパスの評価結果 $(\mathrm{F} 1 \uparrow / \mathrm{PK} \downarrow)$ ## 4.2 評価 評価には $\mathrm{F} 1 ・ \mathrm{Pk}[15]$ の 2 つの指標を用いた. $\mathrm{Pk}$ は窓幅 $\mathrm{k}$ 内のセグメント終端数の一致を測ることでセグメントのエラー率を計算する. F1・Pk は 1 つのコーパスのすべてのデータの推定結果を連結した系列に対して計算した. Pk は Python のオープンソースライブラリ segeval ${ }^{4)}$ を用いて計算した. 評価コーパスには表 1 に示した 4 つのコーパスを用いた. 複数階層の正解ラベルを持たないコーパスに対する提案モデルの評価は, 節の階層の推定結果を用いて行った. また, 各データの末尾は必ずセグメント終端となるため, 節と段落の階層では既知のものとして評価を行った. ## 5 結果と考察 表 2 に評価コーパスにおける結果を示す。表中の太字は最も良いモデルの結果を表し, OOD-Ave には OODコーパスの結果の平均を示す. 個々の OOD コーパスの結果を見ると, Hier.Elements と Choi では F1・Pk 共に提案手法が最も良い結果となった。また, Wiki-50においては, F1 では既存モデルと差があるが, $\mathrm{Pk}$ ではその差は小さい. さらに, OOD-Ave の結果をみると, F1 と Pk 共に提案モデルが最も良い結果となった. したがって, 構造情報を用いることでモデルのドメイン汎化性能が向上することが確認された。 表 3 に Hier.Section の評価データ (Hier.Section-test) における結果を示す. Hier.Section-test における提案モデルの結果を見ると,いずれの階層においても高い性能で推定出来ている. したがって, 深層学習を用いることで学習コーパスにおいては高性能な HTS モデルを学習出来ることが確認された.表 3 Hier.Section-test の評価結果 $(\mathrm{F} 1 \uparrow / \mathrm{PK} \downarrow)$ 一方で, 階層ごとの性能を比較すると, 章の性能が他の階層よりも高く, 階層ごとの性能差が大きい. さらに,Hier.Section-test と Cities では既存モデルの性能の方が高く, 提案モデルの学習コーパスと同じドメインのコーパスでの性能は低下していることが分かる. これは, 推定の難易度が階層ごとに異なることを示唆している. また, 提案モデルはボトムアップ方式で推定を進めるため,段落の階層の推定精度が他の階層に影響を与える. したがって, モデル全体の性能に重要な階層よりも他の階層が先に学習されたことによって,不適切な局所解に収束した可能性がある。適切な順序で階層の学習が進むような工夫をすることでモデルの性能が向上することが期待される. 以上のことから,学習コーパスにおいては高性能な HTS モデルを学習可能であり, 提案モデルはドメイン汎化性能が高いことが確認されたが,更なる性能改善の余地があることがわかった. ## 6 おわりに 本稿では,構造情報を持った大規模な学習コーパスを構築し, 深層学習を用いた階層的なテキストセグメンテーションモデル (HTS モデル) を提案した.評価の結果, 学習コーパスにおいては高性能な HTS モデルが学習可能であり, 提案モデルは既存モデルよりもドメイン汎化性能が高いことから, 構築したコーパスと多くの構造情報を推定に用いることの有効性が確認された.学習の工夫によってモデルの性能を更に向上させることが今後の課題である. 4) https://segeval.readthedocs.io/en/latest/ ## 参考文献 [1] Marti A. Hearst. Text tiling: Segmenting text into multiparagraph subtopic passages. Computational Linguistics, Vol. 23, No. 1, pp. 33-64, 1997. [2] Goran Glavǎs, Federico Nanni, and Simone Paolo Ponzetto. Unsupervised text segmentation using semantic relatedness graphs. In Proceedings of the Fifth Joint Conference on Lexical and Computational Semantics, Association for Computational Linguistics, pp. 125-130. [3] Anna Kazantseva and Stan Szpakowicz. Hierarchical topical segmentation with affinity propagation. In Proceedings of COLING 2014, the 25th International Conference on Computational Linguistics, pp. 37-47, 2014. [4] Mostafa Bayomi and Sěamus Lawless. C-hts: A conceptbased hierarchical text segmentation approach. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation, 2018. [5] Omri Koshorek, Adir Cohen, Noam Mor, Michael Rotman, and Jonathan Berant. Text segmentation as a supervised learning task. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics, pp. 469-473. [6] Linzi Xing, Brad Hackinenz, Giuseppe Carenini, and Francesco Trebbi. Improving context modeling in neural topic segmentation. In Proceedings of the 1st Conference of the Asia-Pacific Chapter of the Association for Computational Linguistics and the 10th International Joint Conference on Natural Language Processing, pp. 626-636, 2020. [7] Michal Lukasik, Boris Dadachev, Kishore Papineni, and Gonçalo Simões. Text segmentation by cross segment attention. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing, pp. 4707-4716, 2020. [8] Goran Glavǎs and Swapna Somasundaran. Two-level transformer and auxiliary coherence modeling for improved text segmentation. In Proceedings of the 34th Association for the Advancement of Artificial Intelligence, 2020. [9] Sebastian Arnold, Rudolf Schneider, Philippe CudréMauroux, Felix A. Gers, and Alexander Löser. Sector: A neural model for coherent topic segmentation and classification. Transactions of the Association for Computational Linguistics, Vol. 7, pp. 169-184, 2019. [10] Mandy Guo, Zihang Dai, Denny Vrandečić, and Rami AlRfou. Wiki-40b: Multilingual language model dataset. In Proceedings of the Twelfth Language Resources and Evaluation Conference, pp. 2440-2452, 2020. [11] Harr Chen, S.R.K. Branavan, Regina Barzilay, and David R. Karger. Global models of document structure using latent permutations. In Proceedings of Human Language Technologies: The 2009 Annual Conference of the North American Chapter of the Association for Computational Linguistics, pp. 371-379, 2009. [12] Zichao Yang, Diyi Yang, Chris Dyer, Xiaodong He, Alex Smola, and Eduard Hovy. Hierarchical attention networks for document classification. In Proceedings of the $\mathbf{2 0 1 6}$ Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 1480-1489. [13] Nitish Srivastava, Geoffrey Hinton, Alex Krizhevsky, Ilya Sutskever, and Ruslan Salakhutdinov. Dropout: A simple way to prevent neural networks from overfitting. Journal of Machine Learning Research, Vol. 15, No. 56, pp. 1929-1958, 2014. [14] Freddy Y. Y. Choi. Advances in domain independent linear text segmentation. In 1st Meeting of the North American Chapter of the Association for Computational Linguistics, pp. 26-33, 2000. [15] Doug Beeferman, Adam Berger, and John Lafferty. Statistical models for text segmentation. Machine Learning, Vol. 34, No. 1, pp. 177-210, 1999. [16] Eisenstein Jacob and Regina Barzilay. Bayesian unsupervised topic segmentation. In Proceedings of the 2008 Conference on Empirical Methods in Natural Language Processing, pp. 334-343, 2008. ## A 付録 ## A. 1 学習・評価データ作成 学習データはランダムにサンプリングした $2 \sim 6$ 個のデータを連結することによって作成した. 計算量の都合で, 連結したデータの文長と文数はそれぞれで sub-word 単位で 64 単語・ 128 文を上限に制限した. 上限を超える場合は, 文は上限位置で切り捨て,データは上限位置で分割した. また, 節・段落の順序は $1 / 2$ の割合でランダムな順序にシャッフルした. 評価データは, コーパス中のすべてのデータを連結し, 128 文を窓として 64 文ずつスライドしてデータの半分が重複するように分割し作成した. 重複する部分は推定したセグメント終端確率を平均することで統合し, 最終的な推定結果として評価を行った. 評価時には, 節・段落の順序のシャッフルは行わず, 文字数の制限のみ学習時と同様に行った. ## A. 2 実験結果詳細 表 4 にはベースラインとした 2 つの既存モデルの結果, 表 5 には提案モデルの結果をそれぞれ示す. 段落の正解ラベルを持たないコーパスでは,節の正解ラベルを使って段落階層の推定結果を評価した (表 5 下線). Section-test は Section の評価コーパスで, Hier.Section-test と結果に乘離がないことを確認するために評価を行った. Clinical は医学書からいくつかの章を抽出し, 節をセグメントとして構築したコーパスである [16]. 形式の異なるコーパスに対する汎化性能を検証するために Clinical でも実験を行った. 以下に Clinical の統計量を示す. ・データ (長さ/数): 140.4 / 227, 節 (長さ / 数): 34.8 / 4.0, 段落 (長さ / 数): - / - Clinical は 1 つのデータが長く節のセグメントも大きい. Clinical の 1 つのセグメントは, Hier.Section の 1 つのデータと同程度の大きさであるため, 提案モデルにおいては章の階層で推定されるセグメントに相当すると考えられる. そこで, Clinical ではデータの連結は行わず, データを 1 つずつ入力し推定を行った. さらに, 提案モデルの章・段落の階層の推定結果は, 節の正解ラベルを使って評価を行った. ## A. 3 階層数を固定した HTS における課題 Clinical における提案モデルの結果をみると, 章の階層での F1・Pk が最も良い結果となった. 既存モデルの結果と比較すると, F1 では HierBERT が最も良いが, Pk では提案モデルが最も良い結果となっている. Clinical における提案モデルの章の階層の推定結果を分析すると, 湧き出し誤りは極端に少なく, 見落とし誤りが失敗のほとんどを占めており, 正しく検出されたセグメント終端のほとんどはテキストの末尾の既知としたセグメント終端であった. その結果, セグメント数が少ない Clinical では Pk が高くなったことが分かった (表 1). さらに, 節の階層では高い Recall でセグメント終端が検知できていることから, 章の階層ではそのほとんどが棄却されていることが分かる (表 5). これは, Clinical のセグメントは学習コーパスにおける章と節の中間の階層にあたることを示唆している. また, Hier.Elements の章の階層においても, 節の階層で推定されたセグメントの終端をほとんど棄却しており, Clinical と同様の傾向が確認された. HTS においては,この様な対応できない階層が正解として求められる場合があるが, 階層数を固定した HTS モデルでは,原理上対応が難しい. 汎用的に利用可能なモデルには,この様な課題に対応することも必要となるため, 対応可能なモデルの検討も今後の課題である. & & & 0.425 & 0.547 & 0.347 & 0.327 & $\underline{0.421}$ & $\underline{0.301}$ & $\underline{0.698}$ & $\underline{0.397}$ \\
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B4-3.pdf
# Sequence-to-sequence モデルを用いた 一対多関係知識の記憶とその取り出し 長澤春希 ${ }^{1}$ Benjamin Heinzerling ${ }^{2,1}$ 穀田一真 ${ }^{1}$ 乾健太郎 ${ }^{1,2}$ 1 東北大学 2 理化学研究所 \{haruki.nagasawa.s8, kokuta.kazuma.r3\}@dc.tohoku.ac.jp [email protected] [email protected] ## 概要 ニューラル言語モデル (LM) による一対多関係 知識の記憶と取り出しの能力について, sequence to sequence モデルを用いた実験的な検証を行う.本研究では一対多関係知識の扱いを「個別の要素の記憶」と「記憶した要素の取り出し」に切り分け,それぞれにおける LM の振る舞いを調査する。そして実験により,LMに一対多関係知識を記憶させることは一定程度可能であるが,「記憶した要素の取り出し」については, 単純な設定では達成されないという結果が得られたことを報告する。 ## 1 はじめに 近年,大規模なコーパスで事前学習を行ったニューラル言語モデル (LM) が様々なタスクにおいて高い水準の性能を発揮している.LM はこの事前学習において,単語の使われ方や文法などの言語に関する基本的な知識を獲得しているとされる。 またこれと同時に,LM は事前学習で用いたコー パスから,エンティティやイベントなどの世界に関する知識もそのパラメータ内部に暗に獲得していることが明らかとなっている $[1,2]$. 世界知識のうち, ある人物 (親)とその子どもや,映画監督とその作品など,特定の関係で結ばれたエンティティについての知識を関係知識と呼ぶ.ニューラル言語モデルは事前学習の過程でかなり広範な関係知識をテキスト集合から獲得している可能性があることが指摘されている. こうした背景から LMを知識べースと見なしてその能力を調べる研究や LM と既存知識ベースを統合する研究が広がっている (Language Models as Knowledge Bases) $[1,3,4,5,6]$. また, 事前学習済みの LM から知識を引き出すためのプロンプトについて例)集合の取得 図 1: 一対多関係知識の記憶と操作のイメージ の研究も盛んに行われている $[7,8]$. しかしながら, これまでの先行研究における主な関心の対象は,一対一対応の関係知識に留まっており,多対多関係の知識については扱いが簡単でないということ以外明らかにされていない $[1,3]$. 一対一関係知識は,例えば「国と首都」のようなもので,ある主語と関係が与えられた時に,対応する目的語が一意に定まるものを指しており,多対多関係知識は「映画と出演者」のように,ある関係を考えたときに,互いに対応する主語と目的語が複数個存在するものを指す。そして世界に関する知識には,上述の多対多関係の知識も多く存在することが指摘されている [3].従って,LM を知識べースとして扱える可能性をより緻密に調査するために,LM が多対多関係知識をどの程度正確に記憶 (パラメータの内部に格納) できるのか,また記憶した知識の操作 (例えば,多対多関係のインスタンスに属する集合の間の演算) がどの程度可能か,といった基本的な能力を明らかにする必要があると考えられる. 本研究ではその第一歩として,一対多関係の知識を人工的に生成したデー タセットを構築し,これに対する LM の記憶と操作の能力を調べた。 本研究で調査するのは図 1 に示すような記憶と操作の能力である.「記憶」の能力とは,LMに〈親子〉関係ような一対多関係のインスタンスを個別に教示した場合に,教示したインスタンスの情報が LM の内部に格納されているかを指す。「操作」の能 力としては,例えば図 1 の「出力」にあるように,ある人物の〈子ども〉をそれぞれ個別に教示した LM から,その集合 (〈子ども〉の集合)を取り出すことができるか,言い換えれば個別に記憶した要素を列挙して出力することが可能かといった能力を指す. 本研究では,統制したデータで LM の能力を調べることがまずは重要だと考えたため,Wikidata [9] から子どもが複数に存在する親とその子どもの名前を収集し,一対多関係知識のデータセットを人工的に作成した.本稿ではこのデータセットに対する LM の振る舞いを報告する。 ## 2 関連研究 ## 2.1 関係知識の記憶 Heinzerling と Inui は,言語モデルを知識ベースとして扱うための基本的な要件として次の 2 つを定義している。 (i) 多数のエンティティを含む大量の世界知識を格納できること。(ii) 格納した世界知識を参照できること。 この要件を元に,LM が一対一関係知識をどれくらいの精度でどれほどの量格納することができるのかという点について, 様々なエンティティ表現を検討しながら精緻に検証している. しかしながら一対多関係知識についての LM の振る舞いは依然として明らかにされていない。 ## 2.2 集合の扱い 本研究では複数の目的語を扱うことを考えているが,これは目的語の「集合」を扱うことと置き換えることが可能である. この集合の扱いを深層学習,ないしは Transformer [10] で取り組んでいる代表的な先行研究として, Deep Sets [11] や Set Transformer [12] が存在する. 両者とも入力としての集合に主眼を置いたものになっており,順序普遍性や,任意の大きさの集合の扱いについての言及がなされている。本研究では出力としての集合に主眼を置いているが,順序普遍性などの性質は共通して重要な側面であると考えられる。 ## 3 調査手法について ## 3.1 用語定義 本研究で登場する用語と意味を定義する。 (b) 実験 4.4 の概要図 図 2: 実験における学習データおよび評価についてのイメージ図 一対多関係知識 1 つの主語に対し,特定の関係を満足する目的語が複数存在するような世界知識. 例: John Lennon has children named Sean Lennon and Julian Lennon. 個別要素一対多関係知識において,主語と目的語を一対一対応の形式で結んだ個別の関係知識. 例: John Lennon has a child named Sean Lennon. 個別教示一対多関係知識を構成するそれぞれの要素について,一対一対応の形式で個別に言語モデルに学習させること。 例 (入力文):Who is the child of John Lennon? 例 (ターゲット文): Sean Lennon. 集合教示一対多関係知識全体を言語モデルに学習させること。 例 (大力文): Who are the children named John Lennon?例 (ターゲット文): Sean Lennon, Julian Lennon. ## 3.2 生成モデルによる一対多関係知識の 扱い 本研究では,事前学習済み LM に対し,一対多関係知識を明示的に学習させた際の振る舞いを調査する。具体的な調査方法については,言語モデルを用いた穴埋め形式と,生成モデルを用いた回答文生成形式の 2 つが考えられる (本研究では前者を分類問題,後者を生成問題と呼ぶこことする). 分類問題については,LM が出力する予測確率分布の上位 $\mathrm{N}$ 個の目的語を,一対多関係知識に対するモデルの回答として扱う.分類問題では,モデルに対し個別教示を実施することで複数ある目的語をほぼ全て正しく予測できることを明らかにし,言語処理学会第 28 回年次大会にて報告している [13]. 本稿では, sequence-to-sequence[14] モデルを用いた生成手法によるアプローチ (生成問題) についての実験結果を報告する. 生成問題では,個別教示を施した LM が個 別要素を正しく記憶できているかという点と,記憶した複数の個別要素を過不足なく列挙して出力することができるかという点について調査を行う。 ## 4 実験 ## 4.1 実験データ 本実験では LM の記憶精度を正確に測定することを目的に,学習データを独自に用意した. 具体的には,Wikidata[9] から親とその子ども (2-4 人) の名前を取得し,使用する人物名について,次の条件を満たすような調整を行った。 - 主語・目的語の両方に渡り, 同姓同名のエンティティが存在しない. - 単語生成長による記憶の難易度を調整するため, 空白もしくはハイフン区切りで 4 単語以下で構成されるエンティティのみを使用. なお本研究では, 明示的に学習させた関係インスタンスの記憶と操作のみを考えることとする。従って,学習データとして登場していない関係インスタンスに対する汎化能力などの測定は行わない。 ## 4.2 実験設定 本実験では, sequence-to-sequence モデルとして事前学習済みの BART-base [15] および T5-base [16] を用いた. 後述の 2 つの実験 ( 4.3 節, 4.4 節) において,訓練データに対して overfitするまで学習を継続した. 具体的には,各主語についての入力に対し,目的語を 1 つ生成させ,それが正しい目的語のいずれかであれば正解,そうでない場合は不正解とし, この正解率が 5 エポック以上改善しなくなるまで学習を継続した. また最適化アルゴリズムとして AdamW [17]を採用した。 ## 4.3 実験: 個別教示のみ実施 ここでは個別教示による学習のみを行い,LM が 1 つの主語に紐づく複数の目的語を正しく記憶できるかについての検証を行った. 具体的には “\{Subject \} has a child named 〈mask〉.“に対し, 目的語を 1つ生成させるという学習を全ての目的語について実施した. つまり, 図 2aのように 1 つの入力文に対し, その主語に紐づく目的語数分のターゲット文が存在する学習設定となっている. そして,個別教示を実施した LM が複数の目的語 をどの程度記憶できているかについて, beam search を用いて複数の系列を生成することにより確認した. 具体的には 1 つの入力に対して, beam 幅をその主語の目的語数分に設定し,それぞれの生成系列群の中に正しい目的語がいくつ含まれているかを調査した ${ }^{1)}$. また,モデルに記憶させるエンティティ数を変化させ,記憶できる目的語数が変化するかも併せて検証した。 図 3 はそれぞれ目的語数が $2 , 3 , 4$ 個の主語について,全ての目的語を漏れなく記憶できた主語数を示した結果である. 表 1: 1 対 4 関係知識について目的語を 3 つ以上記憶できている主語の割合 $(\%)$ 実験より,BART・T5 の両モデルに関し,目的語数が少ないほど取りこぼし少なく記憶することが可能であることが明らかとなった. 一方で 1 対 4 関係知識 (図 3 の赤線) に注目すると,4つの目的語全てを記憶できている主語の割合は BART で概ね 5 割, $\mathrm{T} 5$ で概ね 7 割程度に留まることが分かった.これについて,各主語について 4 つ存在する目的語のうち3つ以上記憶できているものを含めた場合の記憶率を掲載したのが表 1 である. 表より,両モデルとも9割以上の記憶率となっていることが分かる. 上述の傾向はデータサイズ,すなわち記憶させるエンティティの総数に依存しない結果となった. ## 4.4 実験: 個別教示と集合教示 この実験では,「記憶した要素の取り出し」についての能力を獲得することを目的とし,個別教示に加えて集合教示を実施した. 集合教示について具体的には “\{Subject\} has children named $\langle$ mask $\rangle$.“の入力  文に対し,“\{Object1\}, \{Object2\},..“をターゲット文として設定し, 複数の目的語を列挙して出力する学習を行った。これにより,入力文に“children“が含まれる場合は, 記憶した正しい目的語を全て列挙する振る舞いをモデルに獲得させることを狙った。 この集合教示を一部の主語について実施し, 明示的に集合教示を行っていない主語についても同様の出力が可能になるかといった汎化能力を検証した (本実験の概要を図 $2 \mathrm{~b}$ に示す). 学習方法については,(i) 個別教示を行った後に集合教示を行う方法と,(ii) 個別教示と集合教示を同時に実施する 2 通りが考えられる.前者については,集合教示が行われるにつれて個別教示に対する正解率が急激に下がってしまう事象 (破局的忘却) が確認された。一方で後者については,訓練データに集合教示のデータを含めても,LM の個別要素の記憶に対する振る舞いはほとんど影響受けないことが確認された. 従って本節では, 個別教示と集合教示を同時に行った場合についての結果を報告する。 ここでは 1 対 2-4 関係知識について,それぞれ 3000 件の主語を対象に学習を行った. 個別教示については全ての目的語に対して実施しながら, 集合教示の割合を変化させて集合出力に関するモデルの振る舞いを検証した.具体的には全体の 30,60, 90\%の主語について集合教示を行った. 表 2 および表 3 はそれぞれ BART,T5 についての実験結果である. 正しい目的語を不足なく全て出力できている場合を正解, 出力漏れや誤った目的語が出力されている場合を不正解とし, 全主語に対する正答率を計算した. また表の下段の値は,それぞれ出力系列に含まれるエンティティ単位での recall・precision の平均値となっている.2) 表 2: BART: 集合教示割合と出力集合の正解率 実験より BART と T5 のそれぞれで異なる振る舞いが観察された. BART については,30\%集合教示における 1 対 2 関係知識の正答率を除き,明示的に学習を行った主語についても複数の目的を正しく列  ては Appendix B に記載.表 3: T5: 集合教示割合と出力集合の正解率 挙することが難しいという結果となった. 学習率やバッチサイズ等のハイパーパラメータの探索を行ったがいずれの場合においても同様の結果となった. T5 では基本的に明示的に集合教示を行った割合以上の正解率となっており,「記憶した要素の取り出し」についての能力が多少汎化していると考えられるが,本質的な能力が獲得されたとは考えにくい結果となった。 ## 5 おわりに 本稿では sequence-to-sequence モデルを用いた生成アプローチによる一対多関係知識の扱いについて,「個別の要素の記憶」と「記憶した要素の取り出し」 に切り分けて調査を行った。 前者については beam search により複数系列を生成し,その中にいくつ正しい目的語が含まれているかという観点で検証を行った. 今回の学習方法では,個別教示を行った LM が複数の目的語全てを漏れなく格納するのは困難である結果となった。 $\mathrm{N}$ 個ある目的語を全て記憶できているエンティティと, 1つしか記憶できないエンティティについてどのような差があるのかや,より良い学習方法の模索という点について今後緻密に検証する必要があると考えられる。 後者については,個別教示と同時に集合教示を施すことで,LM に格納されている複数の目的語をまとめて出力する能力の獲得を図った. こちらについては同じ学習設定においてもモデルにより顕著に異なる振る舞いが確認された. しかしながら比較的学習がうまくいったと考えられる T5においても「記憶した要素の取り出し」についての汎化能力は低い水準で留まる結果となった. 以上より, 各モデルに対するより適切な学習データの構築や学習方法の工夫の必要性が示唆された. 今回の実験結果を踏まえ,より正確に複数の目的語を LM に記憶させる方法と,記憶した要素の引き出しについてどのような施策が必要になるかを引き続き調査していく所存である. ## 謝辞 本研究は JSPS 科研費 21 K17814 および JST, CREST,JPMJCR20D2 の助成を受けたものです. ## 参考文献 [1] Fabio Petroni, Tim Rocktäschel, Sebastian Riedel, Patrick S. H. Lewis, Anton Bakhtin, Yuxiang Wu, and Alexander $\mathrm{H}$. Miller. Language models as knowledge bases? In Kentaro Inui, Jing Jiang, Vincent $\mathrm{Ng}$, and Xiaojun Wan, editors, Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing, EMNLP-IJCNLP 2019, Hong Kong, China, November 3-7, 2019, pp. 24632473. Association for Computational Linguistics, 2019. [2] Chenguang Wang, Xiao Liu, and Dawn Song. Language models are open knowledge graphs. CoRR, Vol. abs/2010.11967, , 2020. [3] Benjamin Heinzerling and Kentaro Inui. Language models as knowledge bases: On entity representations, storage capacity, and paraphrased queries. In Paola Merlo, Jörg Tiedemann, and Reut Tsarfaty, editors, Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics: Main Volume, EACL 2021, Online, April 19 - 23, 2021, pp. 1772-1791. Association for Computational Linguistics, 2021. [4] Gerhard Weikum, Xin Luna Dong, Simon Razniewski, and Fabian M. Suchanek. Machine knowledge: Creation and curation of comprehensive knowledge bases. Found. Trends Databases, Vol. 10, No. 2-4, pp. 108-490, 2021. [5] Tara Safavi and Danai Koutra. Relational world knowledge representation in contextual language models: A review. CoRR, Vol. abs/2104.05837, , 2021. [6] Simon Razniewski, Andrew Yates, Nora Kassner, and Gerhard Weikum. Language models as or for knowledge bases. CoRR, Vol. abs/2110.04888, , 2021. [7] Zhengbao Jiang, Frank F. Xu, Jun Araki, and Graham Neubig. How can we know what language models know. Trans. Assoc. Comput. Linguistics, Vol. 8, pp. 423438, 2020. [8] Tom B. Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel M. Ziegler, Jeffrey Wu, Clemens Winter, Christopher Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, and Dario Amodei. Language models are few-shot learners. In Hugo Larochelle, Marc'Aurelio Ranzato, Raia Hadsell, MariaFlorina Balcan, and Hsuan-Tien Lin, editors, Advances in Neural Information Processing Systems 33: Annual Conference on Neural Information Processing Systems 2020, NeurIPS 2020, December 6-12, 2020, virtual, 2020. [9] Denny Vrandečić and Markus Krötzsch. Wikidata: a free collaborative knowledgebase. Communications of the ACM, Vol. 57, No. 10, pp. 78-85, 2014. [10] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Isabelle Guyon, Ulrike von Luxburg, Samy Bengio, Hanna M. Wallach, Rob Fergus, S. V. N. Vishwanathan, and Roman Garnett, editors, Advances in Neural Information Processing Systems 30: Annual Conference on Neural Information Processing Systems 2017, December 49, 2017, Long Beach, CA, USA, pp. 5998-6008, 2017. [11] Manzil Zaheer, Satwik Kottur, Siamak Ravanbakhsh, Barnabás Póczos, Ruslan Salakhutdinov, and Alexander J. Smola. Deep sets. CoRR, Vol. abs/1703.06114, , 2017. [12] Juho Lee, Yoonho Lee, Jungtaek Kim, Adam R. Kosiorek, Seungjin Choi, and Yee Whye Teh. Set transformer: A framework for attention-based permutation-invariant neural networks. In Kamalika Chaudhuri and Ruslan Salakhutdinov, editors, Proceedings of the 36th International Conference on Machine Learning, ICML 2019, 9-15 June 2019, Long Beach, California, USA, Vol. 97 of Proceedings of Machine Learning Research, pp. 3744-3753. PMLR, 2019. [13] 長澤春希, Benjamin Heinzerling, 乾健太郎. ニューラル言語モデルによる一対多関係知識の記憶と操作. 言語処理学会第 28 回年次大会発表論文集, pp. 1203-1208, 2022. [14] Ilya Sutskever, Oriol Vinyals, and Quoc V. Le. Sequence to sequence learning with neural networks. In Zoubin Ghahramani, Max Welling, Corinna Cortes, Neil D. Lawrence, and Kilian Q. Weinberger, editors, Advances in Neural Information Processing Systems 27: Annual Conference on Neural Information Processing Systems 2014, December 8-13 2014, Montreal, Quebec, Canada, pp. 3104-3112, 2014. [15] Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. BART: denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension. In Dan Jurafsky, Joyce Chai, Natalie Schluter, and Joel R. Tetreault, editors, Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, ACL 2020, Online, July 5-10, 2020, pp. 7871-7880. Association for Computational Linguistics, 2020. [16] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei $\mathrm{Li}$, and Peter J. Liu. Exploring the limits of transfer learning with a unified text-to-text transformer. CoRR, Vol. abs/1910.10683, , 2019. [17] Ilya Loshchilov and Frank Hutter. Decoupled weight decay regularization. In 7th International Conference on Learning Representations, ICLR 2019, New Orleans, LA, USA, May 6-9, 2019. OpenReview.net, 2019. ## A 個別教示を実施したモデルの実際の beam search 出力例 個別教示を実施した BART,T5 の両モデルについて, beam searchを用いた実際の出力系列を以下の表に掲載する。 BART に対する入力文は 1 対 2 関係知識に関するものであるため,正解となる目的語は 2 つ存在する。一方で $\mathrm{T} 5$ に対する入力文は 1 対 4 関係知識となっているため,正解の目的語は 4 つ存在する. それぞれについて,目的語数分の系列を beam searchにより生成し,正しい目的語が重複なく生成されているかを確認したものが実験 4.3 となっている. 表 4: 個別教示後の実際のモデル出力例 (上位 4 系列) BART & & 成否 \\ Maya Widmaier-Picasso or Paulo Picasso) & \\ ## B 集合生成における recall・ precision の算出 ここでは,表 2,3 における recall・ precision の算出方法について説明する.ある主語について,正解の目的語集合を gold_entities, モデルが出力した目的語集合をpred_entities とし,num $(X)$ を集合の要素数を表すものとする. recall・precision はそれぞれ式 (1) および式 (2) で算出した. これを全ての出力について計算し, その平均を表 2,3 に掲載している。 $ \begin{gathered} \text { recall }=\frac{\text { num }(\text { pred_entities } \cap \text { gold_entities })}{n u m\left(g o l d \_e n t i t i e s\right)} \\ \text { presicion }=\frac{\text { num }(\text { pred_entities } \cap \text { gold_entities })}{n u m\left(p r e d \_e n t i t i e s\right)} \end{gathered} $
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B4-4.pdf
# 異なる単語分割システムによる 日本語事前学習言語モデルの性能評価 鈴木 雅弘 ${ }^{1}$ 坂地 泰紀 ${ }^{1}$ 和泉 潔 $^{1}$ 1 東京大学 [email protected] \{sakaji,izumi\}@sys.t.u-tokyo.ac.jp ## 概要 日本語で構築された事前学習言語モデルでは,入力文を形態素解析器などを用いて単語に分割してからトークン分割を行うことが多い.しかし, End-to-End で学習を行う近年の事前学習言語モデルにおいて,人為性の高い単語分割を行うことはモデルの効率性を下げる可能性がある. 本研究では,異なる単語分割システムから構築した日本語の事前学習言語モデルが,下流の評価タスクの性能に及ぼす影響について検証する. JGLUE ベンチマークによる評価の結果, 単語分割システムを用いず構築した言語モデルが,単語分割システムを用いて構築した言語モデルより高い精度を示した。 ## 1 はじめに 近年の自然言語処理では,Transformer [1]をべー スとした大規模事前学習言語モデルが盛んに用いられる. BERT [2]を筆頭に,Transformerをべースとした多くのモデルが提案されている $[3,4,5]$. これらのモデルは Wikipedia や Common Crawl など主に英語のコーパスを用いて構築される。言語タスクで高い性能を示すこれらのモデルは,日本語でも構築・公開されるようになってきた. その一方で,英語で提案・構築されたモデルをそのまま日本語に適用する際には,トークン分割での処理を変更することが多い. 例えば,BERT や ELECTRA [3] では,入力文を半角スペースで単語に分割し,その後それぞれの単語をトークン (サブワード) に分割する。しかし一般的な日本語の文章では半角スペースで単語が分かれていない。そのため日本語の大規模事前学習言語モデルの構築時には,外部の形態素解析器などを用いて単語分割を行うことが多い. 日本語の大規模事前学習言語モデルの構築例と して,東北大学が公開している BERT モデル1)では MeCab [6] を,早稲田大学が公開している RoBERTa モデル2)では Juman++ [7,8]を,リクルートが公開している ELECTRA モデル3)では Sudachi [9] を用いている。このように,単語分割に用いられるシステムは多岐に渡っている。 また, rinna 社の RoBERTa ${ }^{4}$ では,RoBERTa [5] で提案・公開されているモデルと同様に,入力文に単語分割を行わずサブワード分割を行う。日本語で構築されたこれらのモデルを比較する際には,モデルのアーキテクチャだけでなく,用いられている単語分割の手法についても留意する必要がある. この事象は日本語の言語モデル間の比較を困難にしている。 さらに,日本語の言語モデルで用いられている単語分割のシステムは,事前学習言語モデルにおける単語分割が目的ではなく, 文の意味処理や情報抽出など,それぞれ目的を異にしている。言語モデルに対して人為性の高い分割を加えることで,モデルの効率が落ちている可能性がある.実際にニューラル機械翻訳では,単語分割をせずに,統計的に一貫性のある分割手法を用いることで精度が向上することが示されている [10]. 近年主流の事前学習言語モデルによる言語処理においても,目的に適したトークン分割手法を選ぶ必要があり,従来の単語分割手法に依らずにトークン分割を行うことが下流タスクでの精度の向上につながる可能性がある. 本研究では, 日本語において単語分割の手法が事前学習言語モデルに与える影響について検証を行う。具体的には,異なる単語分割の手法を用い,同じコーパスから異なるトークナイザーを構築する。 1) https://huggingface.co./cl-tohoku/ bert-base-japanese-v2 2) https://huggingface.co./nlp-waseda/ roberta-base-japanese 3) https://huggingface.co./megagonlabs/ electra-base-japanese-discriminator 4) https://huggingface.co./rinna/japanese-roberta-base これらのトークナイザーから構築した事前学習言語モデルについて,下流タスクにおける性能の比較を行う. 事前学習言語モデルにおいて, 単語分割の手法による下流タスクでの性能やサブワードを含めたトークン分割の傾向の違いが明らかになることで,日本語ドメインにおけるより活発な言語モデルの構築が期待できる. ## 2 関連研究 本研究と同様に,サブワードを含めたトークン分割システム (トークナイザー) が日本語 BERT モデルに及ぼす影響を評価する取り組みが既になされている [11].この論文では,IPA辞書と MeCabを用いて学習した BERT モデルとサブワードの語彙を固定する. サブワードの語彙の再構築や事前学習は行わず,単語分割の手法のみを入れ替え,下流タスクにおける性能の比較を行っている. サブワードの語彙やモデルの重みに変化がない環境では,単語分割手法の違いによって下流タスクでの大きな性能の変化はないことを示している. 汎用言語ドメインとは異なる専門用語が出現する法律や医療,金融のドメインでは,各ドメインの文書を用いて事前学習を行うことでそのドメインのタスクにおいてより高い性能を示す $[12,13,14]$. その際,事前学習のコーパスだけでなくトークナイザー を構築するコーパスもドメイン適合を行うことで, より自然なトークン分割が可能になりモデルの性能の向上にも寄与する [14] など,語彙のドメイン適合も性能に影響を与える [15] ことが示されている. このように,モデルのアーキテクチャだけでなくトー クナイザーの構築方法も重要であることから,トー クナイザーの構成要素の 1 つである単語分割も重要な要素と捉えることができる. ## 3 トークナイザーの構築 近年の事前学習言語モデルのトークン分割(トー クナイザーの適用) は次の手順で行う. まず単語分割を行う場合には入力文を単語に分割する。その後,それぞれの単語をトークン (サブワード) に分割を行う. 本節では,実験で適用するサブワード分割と単語分割の手法についてそれぞれ述べる。 ## 3.1 サブワード分割 Transformer をべースとした事前学習言語モデルのトークン分割の手法としては, WordPiece [16]表 1 比較を行う単語分割器. モデル名は,単語分割器ごとに構築した言語モデルの呼称に用いる. Sudachi の辞書は Core を用いる. Unsegmented は,単語分割をせずに入力文に直接 SentencePieceを適用することを指す。 と SentencePiece [10] の 2 種類に大きく分けることができる. 本研究ではサブワード分割の実装に,実装が公開されている SentencePiece を用いる. SentencePiece ではスペースも他の文字と同様に扱い,スペースを含めた一文に対してサブワードに分割する. WordPiece と異なり, 単語分割の前処理が必要ないため, 日本語でも単語分割器を用いずにトークナイザーを構築できる. 本研究では,単語分割の手法の比較に加え, 単語分割をせずに入力文に直接 SentencePiece を適用する場合についても比較を行う。 ## 3.2 単語分割 単語分割を行うために, 本研究では以下の 4 種類の手法を用いる. ## - MeCab - JUMAN++ - Sudachi - UD Japanese GSD LUW ${ }^{5)}$ [17] これらはそれぞれ本来の役割や目的が異なるものの, 本研究では以降「単語分割器」として統一した呼称にて扱うこととする. UD Japanese GSD LUW は,Universal Dependencies (UD) Japanese に基づいて国語研長単位 (Long Unit Word, LUW) [18] の解析を行うモデルである. UD Japanese GSD LUW の当該バージョンはプレリリースであることに留意されたい. 単語分割器によっては手法や辞書ごとに異なる単語分割が行われる場合があるため,これについても比較を行う.MeCabでは,システム辞書として IPA  表 2 構築したトークナイザーを用いたトークン分割の例. トークン分割の際,サブワード分割のために単語間に挿入さ & \\ 辞書と UniDic が利用可能である. また,Sudachi では 3 つの異なる分割モード (A:UniDic 短単位相当, $\mathrm{C}$ :固有表現相当, B:A と C の中間的な単位)を利用できる6). 本研究では辞書や分割モードが異なるこれらの場合についても比較を行う. 本研究で構築するトークナイザーの一覧を表 1 に示す. 上述した単語分割器のバリエーションに加え, 3.1 節で述べた,単語分割をせず入力文に SentencePieceをそのまま適用するものについても表 1 の最下部に Unsegmented として記載している. ## 3.3 トークナイザーの振る舞いの比較 構築したトークナイザーを用い,同じ文について単語分割を行った例を表 2 に示す. この例では,単語分割を行わない Unsegmented でも他の単語分割器と比べて大きく異なることなくトークン分割が行われている. 1 文から生成されたトークン数は 11 と最も少なく,次に少なかったのは GSDLUW の 13 トー クンであった. 入力文に直接 SentencePiece を適用することで,単語分割器を適用した場合に比べてより少ないトークン数で分割が行われていると考えられる。トークン数が多かったのは MeCab-Unidic (18 トークン) と Sudachi-A (17 トークン)であった. これらの単語分割器による分割では, MeCab-Unidic で 15 単語, Sudachi-A で 16 単語と単語分割の時点から語数が多い.これはどちらも短単位 [19]にもとづいているために比較的短い語ごとに分割される事によると考えられる。 6) https://github.com/WorksApplications/Sudachi/blob/v0. 7.0/README.md\#分割モード ## 4 事前学習言語モデルの構築 事前学習モデルのアーキテクチャとして, 本研究では RoBERTa [5] を用いる. 学習率は 1e-4,バッチサイズは 4,024 ,学習ステップ数は 12,000 , Warm up ステップ数は 640 とする. 学習速度向上のため, 計算精度は bfloat16とし,実装には DeepSpeed [20]を活用する。その他のハイパーパラメータは文献 [5] に記載されている base モデルを参考とする。 学習を行うコーパスには日本語 Wikipedia ${ }^{7)}$ の 2022 年 6 月 1 日の版から抽出した約 3,400 万文を用いる. モデルの最長入力長は 128 とする. 文献 [5] と異なり,データセットには予めマスキングを行う. ## 5 評価実験 前節で構築した事前学習 RoBERTa モデルに対し, ファインチューニングによる評価実験を行い性能を評価する。本研究では,JGLUE $[21,22]$ に含まれるJSTS,JNLI,JCommonsenseQAを用いて評価を行う. JGLUEで公開されているデータとしては,これらの他に MARC-ja と JSQuAD が存在するが,これらのタスクの入力長の最大值が 128 を超えていることから,上記の 3 タスクに限定する。 2023 年 1 月現在,JGLUE では学習データと評価データのみが公開されており,テストデータが公開されていない。 そのため,JGLUE における評価データを本研究ではテストデータとし,JGLUEにおける学習データを本研  表 3 評価実験のハイパーパラメータ 究では学習データと評価データに分ける. 本研究で使用する評価データのサンプル数は,テストデータ (JGLUE における評価データ) と同数 ${ }^{8)}$ とする. 評価実験で使用するハイパーパラメータを表 3 に示す. 各エポックごとに評価を行い,最も精度が高かったエポックを採用する。構築したそれぞれのモデルについて,異なる 10 個のシード值を用いて実験を行い,算出された 10 個の結果について平均したものを報告する。 ## 6 結果と考察 評価実験の結果を表 4 に示す. 評価実験を行った 3つのタスクの全てで評価指標は同じではないものの, 比較のために 3 つのタスクの結果の平均をとり,右列に記載している. 3 つのタスクの平均精度が最も高かったのは, 入力文に直接 SentencePiece を適用した Unsegmented のモデルとなった. Unsegmented モデルでは JSTS や JNLI は他のモデルと精度は大きく変わらなかったものの, JCommonsenseQA (JCQA) において他のモデルより高い精度を示した. JCommonsenseQA で精度の差が見られた理由としては,学習データの数とタスクの難易度が考えられる. JCommonsenseQA は JSTS と JNLI に比べ学習データ数が少なく,また常識 (Common Sense)を問う問題であり,学習データのファインチューニングのみによって適合することは他の 2 つのタスクに比べ困難である. そのため, 事前学習を効率的に行うことができたモデルがより高い精度を示した可能性がある. 単語分割を行ったモデルでは,3つのタスクごとに性能差は存在したものの,平均して大きく性能差が見られたモデルはなかった. 大きな性能差が見られなかった理由として,本研究で扱った下流タスクが分類や類似度判定タスクのみであったことが考えられる。単語の認識がより重要になると考えられる 8)各サンプル数はhttps://github.com/yahoojapan/JGLUE/ tree/v1.1.0\#tasksdatasetsを参照されたい表 4 評価実験の結果. JCQA は JCommonsenseQA を表す. 評価指標は,JSTS では Pearson,JNLI・JCQA では Accuracy を用いる. 固有表現抽出や構文解析のタスクでは,単語分割器によって異なる傾向が見られる可能性がある. 本研究ではサブワード分割手法として SentencePiece のみを用いたが,BERT や ELECTRA では WordPiece が用いられている.異なるサブワード分割手法を用いた際の下流タスクでの性能についての検証は今後の課題である. また, 本研究では入力長の制限から評価を行うタスクが 3 種類であった. より精緻な比較を行うためには,評価タスクの種類を増やすことも重要であると考えられる。 ## 7 おわりに 本研究では, 日本語の大規模事前学習言語モデルにおいて様々な単語分割器が用いられていることを念頭に,単語分割器が下流タスクの性能に与える影響の比較を行った. 単語分割器ごとに異なるトークン分割の挙動を示すトークナイザーを構築した. これらのトークナイザーを用いて事前学習言語モデルを構築し,JGLUE ベンチマークを用いた評価実験を行った. その結果,単語分割器を用いず SentencePiece のみでトークナイザーを構築した言語モデルが他の単語分割器を用いた言語モデルに比べて高い精度を示した. 単語分割器を用いた言語モデルの間で大きな精度の差は見られなかった。 単語分割器を用いずにトークン分割を行うことで,人間の直感とは異なる分割が行われる可能性がある。しかし, AlphaGo Zero [23] が人間を越え新しい定石を生み出してきたように,言語処理においても今までの単語分割を用いない分割手法が性能向上をもたらすことが示唆された. 本研究が日本語における最先端の事前学習言語モデルのさらなる活用につながることを期待する。 ## 謝辞 本研究はJSPS 科研費 JP21K12010, JST 未来社会創 造事業 JPMJMI20B1,及び JST さきがけ JPMJPR2267 の助成を受けたものです. ## 参考文献 [1] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in Neural Information Processing Systems (NeurIPS), Vol. 30, pp. 5999-6009, 2017. [2] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186. Association for Computational Linguistics, 2019. [3] Kevin Clark, Minh-Thang Luong, Quoc V. Le, and Christopher D. Manning. ELECTRA: Pre-training Text Encoders as Discriminators Rather Than Generators. In 8th International Conference on Learning Representations (ICLR), 2020. [4] Radford, Alec and Narasimhan, Karthik and Salimans, Tim and Sutskever, Ilya. Improving Language Understanding by Generative Pre-Training, 2018. [5] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, Veselin Stoyanov, and Paul G Allen. RoBERTa: A Robustly Optimized BERT Pretraining Approach, 2019. [6] Taku Kudo, Kaoru Yamamoto, and Yuji Matsumoto. Applying Conditional Random Fields to Japanese Morphological Analysis. In Proceedings of the 2004 Conference on Empirical Methods in Natural Language Processing (EMNLP 2004), pp. 230-237, 2004. [7] Hajime Morita, Daisuke Kawahara, and Sadao Kurohashi. Morphological Analysis for Unsegmented Languages using Recurrent Neural Network Language Model. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 2292-2297, 2015 [8] Arseny Tolmachev, Daisuke Kawahara, and Sadao Kurohashi. Juman++: A Morphological Analysis Toolkit for Scriptio Continua. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 54-59, 2018 . [9] Kazuma Takaoka, Sorami Hisamoto, Noriko Kawahara, Miho Sakamoto, Yoshitaka Uchida, and Yuji Matsumoto. Sudachi: a Japanese Tokenizer for Business. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC 2018), 2018. [10] Taku Kudo and John Richardson. SentencePiece: A simple and language independent subword tokenizer and detokenizer for Neural Text Processing. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 66-71, 2018. [11] 築地俊平, 新納浩幸. Tokenizer の違いによる日本語 BERT モデルの性能評価. 言語処理学会第 27 回年次大会, 2021. [12] Keisuke Miyazaki, Hiroaki Yamada, and Takenobu Tokunaga. Cross-domain analysis on Japanese legal pretrained language models. In Findings of the Association for Computational Linguistics: AACL-IJCNLP 2022, pp. 274-281, 2022. [13] Kexin Huang, Jaan Altosaar, and Rajesh Ranganath. Clinicalbert: Modeling clinical notes and predicting hospital readmission. In Conference on Health, Inference, and Learning (CHIL) Work- shop Track, 2020. [14] Masahiro Suzuki, Hiroki Sakaji, Masanori Hirano, and Kiyoshi Izumi. Constructing and analyzing domain-specific language model for financial text mining. Information Processing \& Management, Vol. 60, No. 2, p. 103194, 2023. [15] Shoetsu Sato, Jin Sakuma, Naoki Yoshinaga, Masashi Toyoda, and Masaru Kitsuregawa. Vocabulary Adaptation for Domain Adaptation in Neural Machine Translation. In Findings of the Association for Computational Linguistics: EMNLP 2020, pp. 4269-4279, November 2020. [16] Yonghui Wu, Mike Schuster, Zhifeng Chen, Quoc V. Le, Mohammad Norouzi, Wolfgang Macherey, Maxim Krikun, Yuan Cao, Qin Gao, Klaus Macherey, Jeff Klingner, Apurva Shah, Melvin Johnson, Xiaobing Liu, Lukasz Kaiser, Stephan Gouws, Yoshikiyo Kato, Taku Kudo, Hideto Kazawa, Keith Stevens, George Kurian, Nishant Patil, Wei Wang, Cliff Young, Jason Smith, Jason Riesa, Alex Rudnick, Oriol Vinyals, Greg Corrado, Macduff Hughes, and Jeffrey Dean. Google's Neural Machine Translation System: Bridging the Gap between Human and Machine Translation, 2016. [17] 松田寛, 大村舞, 浅原正幸. Ud japanese に基づく国語研長単位解析系の構築. 言語処理学会第 28 回年次大会, 2022. [18] 小椋秀樹, 小磯花絵, 冨士池優美, 宮内佐夜香, 小西光, 原裕.『現代日本語書き言葉均衡コーパス』形態論情報規程集第 4 版(上), 2011 . [19] 小椋秀樹, 小磯花絵, 冨士池優美, 宮内佐夜香, 小西光, 原裕.『現代日本語書き言葉均衡コーパス』形態論情報規程集第 4 版(下), 2011. [20] Jeff Rasley, Samyam Rajbhandari, Olatunji Ruwase, and Yuxiong He. DeepSpeed: System Optimizations Enable Training Deep Learning Models with Over 100 Billion Parameters. In Proceedings of the 26th ACM SIGKDD International Conference on Knowledge Discovery \& Data Mining, KDD '20, pp. 35053506, 2020. [21] Kentaro Kurihara, Daisuke Kawahara, and Tomohide Shibata. JGLUE: Japanese general language understanding evaluation. In Proceedings of the Thirteenth Language Resources and Evaluation Conference, pp. 2957-2966, 2022. [22] 栗原健太郎, 河原大輔, 柴田知秀. JGLUE: 日本語言語理解べンチマーク. 言語処理学会第 28 回年次大会, 2022. [23] David Silver, Julian Schrittwieser, Karen Simonyan, Ioannis Antonoglou, Aja Huang, Arthur Guez, Thomas Hubert, Lucas Baker, Matthew Lai, Adrian Bolton, et al. Mastering the game of Go without human knowledge. Nature, Vol. 550, No. 7676, pp. 354-359, 2017.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B4-5.pdf
# Decoding single-trial EEGs during silent Japanese words by the Transformer-like model 山﨑敏正 ${ }^{1}$ 赤迫健太 ${ }^{2}$ 森田寛伸 ${ }^{2}$ 德永由布子 ${ }^{2}$ 上村旺生 ${ }^{2}$ 柳橋圭 $^{2}$ 柏田倫孝 ${ }^{2}$ ${ }^{1}$ 九州工業大学大学院情報工学研究院生命化学情報工学研究系 ${ }^{2}$ 九州工業大学情報工学部生命化学情報工学 科 tymzk@bio. kyutech. ac.jp } \{akasako. kenta289, morita. hironobu375, yuko. tokunaga124, uemura. ousei722, yanagibashi. kei127, kashiw ada. mititaka602\}@mai1.kyutech.jp ## 概要 Silent speech interface 研究において、日本語単語を silent speech した時に頭皮上で記録される single-trial EEGs を解読して日本語で表現する方法を提案する。この方法は、日本語単語がすべて拍で表現可能である事、加算平均の考え方を参考に single-trial EEGから average ERPs を推定する方法を応用した事、Transformer の Attention 機能を活用した事、から構成される. その結果、5 個の相異なる拍の加算平均後の脳波を使って、サイレント 「いえ (家)」と「いいえ」の single-trial EEG 解読の可能性を示せた. ## 1 はじめに Silent speech interface(SSIs)とは、音声生成やそうしようとした時に生成される非音響的な生体信号からその音声を解読することにより、口頭会話を復元するための補助的手段である[1,2]. 音声に関連した生体信号の様々なセンシングモダリティーの中で、音声生成に関連する脳領域における神経活動を直接的におよび間接的に捉えられるのが脳波である. 脳波を利用した silent-speech-to-text アプローチは、初めて Suppes, Lu \& Hau[3]により 7 つのサイレント英単語で調べられ、後に音素[4,5]、音節[6]進んでいった。近年ではサイレント日本語 2-mora 単語をサイレントスピーチ(silent speech、SS)した時の頭皮脳波の解読[7]、2-mora 以上の単語を SS した時の脳波 (加算平均後) の解読[8]が試みられている.より最近では、ヒアリングや発話時に記録 された electrocorticography(ECoG)の解読が行われている[ $9,10,11]$. 本研究では、[8]の発展として、日本語単語をSS した時の脳波(single-trial EEGs)の解読を試みる.本手法の neural network 構造は近年自然言語処理分野で多用されている Transformer [12]に類似している. ## 2 材料と方法 ## 2.1 実験方法 被験者は 21 歳右利き男性学生ボランティア 3 名 (被験者 A、B、C)である.尚、実験手順は「九州工業大学大学院情報工学研究院等における人を対象とする研究審査委員会」で承認されている. 図1 本実験方法の全体像 最初に、被験者から $77 \mathrm{~cm}$ 前方に位置するディスプレイ上に注視点”+"が $2 \mathrm{~s}$ 間提示される. 次に、SS すべき日本語単語がひらがなで $2 \mathrm{~s}$ 間提示される.単語が提示されたら、被験者は出来る限り早くSS する.この計 4 秒間を 1 trial とする(図 1)。日本語は拍(mora)で数える言語であり[13]、mora は日本語単語生成の音韻的な単位である[14]. 即ち、 日本語単語はすべてこの拍で表現することが出来る. 図 2 は日本語拍すべてを示している[15]. 同図の第 1 列目が日本語母音を示しており、最後の列 “ん”、“っ”、“一”は、それぞれ、撥音、促音、長音と呼ばれ、最後の 2 拍は単独では発音が出来ない. 図2 日本語の拍.()内の拍は外国語と感嘆詞。*はが列の鼻音 1つのアクティブ電極 (AP-C151-015, ミユキ技研,日本)が国際 10-20 システムに従い F7 に設置された. 2 つの耳架電極の平均を参照とした。これらの電極で記録された脳波はワイヤレス生体信号アンプ (Polymate Mini AP108, ミユキ技研,日本) へ送られ、 $60 \mathrm{~Hz} の$ notch filter をかけ 10,000 倍に増幅された. サンプリング周波数は $500 \mathrm{~Hz}$ とした. エポック区間は単語提示の前後 $2 \mathrm{~s}$ とした. オンラインで $\mathrm{A} / \mathrm{D}$ 変換された脳波データは Bluetooth を介してすぐにパソコンに転送され、パソコン内のハードディスクに格納された (図1を見よ). ## 2.2 脳波データ解析方法 本研究の脳波解析モデルは以下のように encoderdecoder 型に類似している. 加算平均の原理は single-trial EEG=信号十ノイズ(平均 0 )を前提とする.このノイズ下で記憶すべきパターンを復元できる RNN(recurrent neural network)が知られている[16](詳しくは付録参照)。上記信号および記憶すべきパターンを、各拍をSS した時の加算平均後の ERPs (event-related potentials) として RNNに入力すると、RNN の出力はノイズ下で各サイレント拍脳波の復元となる(拍が 106 個であれば 106 個の波形が得られる).これが encoder の出力となる. Decoder は single-trial EEG を入力として attention 機能が作用する. Scoring は encoder で得られた各サイレント拍脳波と single-trial EEG の内積として求まる. 正規化された内積値から成る、拍数次元べクトル $\boldsymbol{a}$ が得られる(各サイレント拍脳波がどの程度復元されるかを定量化する)。更に、decoder への入力である single-trial EEG を時間的に重なり合うブロックに分割し、各ブロックに上記の処理を施せば、ブロック数分のベクトル $\boldsymbol{a}$ が得られる. 尚、隣り合うブロック間の違いは 2 $\mathrm{ms}$ であり、ブロック数(N)は 50 とした。また、教師信号を取り込むために、Attention 層から context vector $\boldsymbol{c}$ 算出し、"Affine"と"Softmax with Loss"層を加えて backpropagation で学習させた.ここまでの本モデルの構造とデータ解析の流れを図 3 にまとめた. 図3 本研究のneural network構造とデータ解析の流れ ## 3 結果 サイレント「いえ (家)」と「いいえ」の singletrial EEGsに本手法を適用した。結果をそれぞれ図 4 と図 5 に示した. 图4 Single-trial 「いえ(家)」譄波を入カとした結果。横軸はプロック数、絶軸は正規化された内積値 図 4 では、35 番目のブロック辺りで「い」の内積 値が最大となり、120 番目のブロック辺りで「え」 の内積值が最大となった. 図 5 では、90 番目のブロック辺りで「い」が最大となり、140 番目のブロック辺りで「え」の内積値が最大となった. ブロック数の違いに注目すれば、「いえ」と「いいえ」 を検出して識別できると推察される。 ## 4 おわりに 本研究の日本語単語をSS した時の single-trial EEG を解読する方法の特徴は、日本語単語がすべて拍で表現可能である事、加算平均の考え方を参考に single-trial EEG から average ERPs を推定する方法を適用した事、Transformer の Attention 機能を活用した事、である. 今回例示した日本語単語が 2 つのみ、加算平均後の拍脑波が 5 つのみだったので、今後より多くの拍脳波を使って大多数の日本語単語で調べなければならない. また、解読のために vector $a$ やcontext vector $c$ をどう利用するか、本モデルの学習機能 (図 3 の「Affine」と「Softmax with Loss」)の利用も今後の検討課題である. ## 参考文献 1. B. Denby, T. Schultz, K. Honda, T. Hueber, J. M. Gilbert, and J. S. Brumberg, Silent speech interfaces, Speech Commun., vol.52, no.4, pp.270-287, April 2010. 2. J. A. Gonzalez-Lopez, A. Gomez-Alanis, J. M. Martín Doñas, J. L. Pérez-Córdoba, and A. M. Gomez, Silent speech interfaces for speech restoration: A review, IEEE Access, vol.8, pp.177995-178021, 2020. 3. P. Suppes, Z.-L. Lu, and B. Han, Brain wave recognition of words, Proc. Natl. Acad. Sci., vol.94, pp.14965-14969, $1997 .$. 4. C. S. DaSalla, H. Kambara, M. Sato, and Y. Koike, Singletrial classification of vowel speech imagery using common spatial patterns, Neural Networks, vol.22, pp.1334-1339, 2009. 5. M. Matsumoto, and J. Hori, Classification of silent speech using support vector machine and relevance vector machine, Applied Soft Computing, vol.20, pp.95-102, 2014. 6. M. D'Zmura, S. Deng, T. Lappas, S. Thorpe, and S. Srinivasan, Toward EEG sensing of imagined speech, in Human-Computer Interaction, Part I, HCII 2009, LNCS 5610, ed. J. A. Jacko, pp.40-48, Springer-Verlag Berlin Heidelberg. 7. H. Yamaguchi, T. Yamazaki, K. Yamamoto, S. Ueno, A. Yamaguchi, T. Ito, S. Hirose, K. Kamijo, H. Takayanagi, T. Yamanoi, and S.Fukuzumi, Decoding silent speech in Japanese from single trial EEGs: Preliminary results, Journal of Computer Science Systems Biology, vol.8, no.5, pp.285-292, 2015. 8. 山﨑敏正、德永由布子、伊藤智恵子、Attention-based RNN with encoder-decoder によるサイレント日本語単語脳波の解読、電子情報通信学会 HCS 研究会、2023 年 1 月 22 日(発表予定)。 9. C. Herff, D. Heger, A. de Pesters, D. Telaar, P. Brunner, G. Schalk, and T. Schultz, Brain-to-text: decoding spoken phrases from phone representation in the brain, Frontier in Neuroscience, vol.9, pp.217-, 2015. 10. D. A. Moses, M. K. Leonard, J. G. Makin, E. F. Chang, Real-time decoding of question-and-answer speech dialogue using human cortical activity, Nature Communication, vol.10, pp.3096-, 2019. 11. J. G. Makin, D. A. Moses, and E. F. Chang, Machine translation of cortical activity to text with an encoderdecoder framework, Nature Neuroscience, vol.23, pp.575$582,2020$. 12. A. Vaswani, N. Shazeer, N. Parmer, J. Uszkoreit, L. Jones, A. N. Gomez, Ł. Kaiser, and I. Polosukhin, Attetion is all you need, arXiv preprint arXiv: $1706.03762 \mathrm{v5}, 6$ Dec 2017. 13. N. S. Trubetzkoy, Grundzüge der Phonologie (Principles of Phonology), Los Angeles: University of California Press, 1958/69. 14. B. G. Verdonschot, S. Tokimoto, and Y. Miyaoka, The fundamental phonological unit Japanese word production: An EEG study using the picture-word interference paradigm, Journal of Neurolinguistics, vol.51, pp.184-193, 2019. 15. 金田一春彦、日本語新版(上)、岩波書店、第 53 刷、 2017. 16. R. Laje, and D. V. Buonomano, Robust timing and motor patterns by taming chaos in recurrent networks, Nat. Neurosci., vol.16, no.7, pp.925-933, 2013 17. H. Lee, and S. Choi, PCA+HMM+SVM for EEG pattern classification. Proceedings of Seventh International Symposium on Signal Processing and Its Applications, 2003. 18. B. Khalighinejad, G. C. da Silva, and N. Mesgarani, Dynamic encoding of acoustic features in neural responses to continuous speech, Journal of Neuroscience, vol.37, no.8, pp.2176-2185, 2017. 19. R. C. Pratap, The speech evoked potential in normal subjects and patients with cerebral hemispheric lesions, Clinical Neurology and Neurosurgery, vol.89, no.9, pp.237-242, 1987. 20. S. Tsukiyama, and T. Yamazaki, Discriminability among Japanese vowels using early components in silent-speechrelated potentials, IEICE Technical Report, SP2019-31, WIT2019-30 (2019-10), pp.81-86, 2019. 21. M.-T. Luong, H. Pham, and C. D. Manning, Effective approaches to attention-based neural machine translation, ArXiv preprint arXiv: 1508.04025, 2015. 22. K. Cho, B. van Merriënboer, C. Gulcehre, D. Bahdanau, F. Bougares, H. Schwenk, and Y. Bengio, Learning phrase representations using RNN encoder-decoder for statistical machine translation, arXiv preprint arXiv: 1406.1078, 2014. 23. I. Sutskever, O. Vinyals, and Q. V. V. Le, "Sequence to sequence learning with neural networks," Advances in Neural information Processing Systems, vol.27, pp.31043112, 2014. 24. G. K. Anumanchipalli, J. Chartier, and E. F. Chang, Speech synthesis from neural decoding of spoken sentences, Nature, vol.568, pp.493-498, 2019. 25. L. Pratt, J. Mostow, and C. Kamm, "Direct transfer of learned information among neural networks," Proc. the Ninth National Conference on Artificial Intelligence, vol.2, pp.584-589, AAAI Press, 1991. ## 付録 本研究で利用した RNN[16]の詳細は下図の通りである. $ \begin{aligned} & \tau \frac{d x_{i}}{d t}=-x_{i}+\sum_{j=1}^{N} W_{i j}^{R e c} r_{j}+\sum_{j=1}^{2} W_{i j}^{I n} y_{j}+I_{i}^{\text {noise }} \text { (1) } r_{i}=\tanh \left(x_{i}\right), y_{j}(j=1,2): \text { イカユニット } \\ & \mathrm{z}=\sum_{j=1}^{N} w_{j}^{\text {out }} r_{j} \\ & W_{i j}^{R e c}(t)=W_{i j}^{R e c}(t-\Delta t)-e_{i}(t) \sum_{k \in B(i)} P_{j k}^{i}(t) r_{k}(t) \\ & e_{i}(t)=r_{i}(t)-R_{i}(t) \quad R_{i}: \text { innate pattern } \\ & P_{j k}^{i}(t)=P_{j k}^{i}(\mathrm{t}-\Delta \mathrm{t})-\frac{\sum_{m \in B(i)} \sum_{n \in B(i)} P_{j m}^{i}(t-\Delta t) r_{m}(t) r_{n}(t) P_{n k}^{i}(t-\Delta t)}{1+\sum_{m \in B(i)} \sum_{n \in B(i)} r_{m}(t) P_{m n}^{i}(t-\Delta t) r_{n}(t)} . \end{aligned} $ 図ノイズ下で記憶すべきパターン (innate pattern)を復元できるRNN[16]
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B5-1.pdf
# 主題化における人間と言語モデルの対照 藤原吏生 ${ }^{1}$ 栗林樹生 ${ }^{1,2}$ 徳久良子 1 乾健太郎 1,3 1 東北大学 ${ }^{2}$ Langsmith 株式会社 ${ }^{3}$ 理化学研究所 riki.fujihara.s4@dc. tohoku.ac.jp \{kuribayashi, tokuhisa, kentaro.inui\}@tohoku.ac.jp ## 概要 人間は文脈から自明な内容を省略したり,先行する文脈に関連する情報を文頭に配置したりすることで,文章を滑らかに繋ぐ,本研究では,このような文章生成における談話レベルの選好について, ニューラル言語モデルが人間らしい振る舞いをしているかを調査する. 特に日本語における項の主題化の選好に焦点を当て,クラウドソーシングを用いて大規模に人間の選好データを収集し,人間と言語モデルの選好を対照する. 本実験の範囲では,主題化について言語モデルが人間とは異なる選好を示し,談話レベルの現象について言語モデルが人間と異なる汎化を行なっている可能性が示された。 ## 1 はじめに ニューラルモデルはデータのみから人間らしい言語の汎化を達成するのかという認知科学的な関心のもと, 近年進展を遂げたニューラル言語モデルの有する言語知識が分析されてきた $[1,2,3,4,5,6]$. 文章の産出といった言語活動において文を超えた談話的な側面は無視できない一方, 言語モデルの分析では統語的知識などが関心の的となり $[7,8]$, 談話的知識については文の並び替え能力など粗いレベルでの分析にとどまることが多い. 本研究では談話の一側面である主題構造 [9] に焦点を当て,言語モデルが有する談話レベルの選好について,人間と対照しながら統制的に調査する. 主題は,「心理的主語:話者が伝えたいことの算出にとりかかる時にまず心の中にもつもの」と定義され [10], ある要素を主題にするか(主題化するか) という判断は,センタリング理論 [11,12] や情報の新旧 [13] などと関わりがあり, 文脈を考慮する必要があることが知られている。 例えば以下の 2 文は「花瓶」が主題化されているかという観点で異なり,「花瓶を昨日割った。」とい 図 1 主題化判断における人間と言語モデルの比較. 特定の文脈において,ある項が主題化された文 $s^{\text {TOP }}$ と,主題化されていない文 $s^{\text {NOT }}$ のどちらが続くのが自然かを判断させる う文の続きとしては,文 (1a)よりも文 (1b)を用いることが考えられる. (1) a.花瓶が部屋にあった。 There was a vase in the room. b.花瓶は部屋にあった。 The vase was in the room. このような文脈依存な判断について,言語モデルの選好を分析する。また,主題化の選択は日本語学習者にとって容易でなく [14], 主題化のモデリングは日本語の主題選択に関する自動判定や, 文章執筆支援といった応用的出口にも繋がる. 具体的には,文の主題がとりたて助詞で明示される日本語を用い,統制的に文ぺアを作成することで主題構造の観点を切り分けてモデルを分析する.人間の文脈依存な選好に関してクラウドソーシングを用いて大規模にデータを収集した後,主題化に関する選好を言語モデルと人間とで比較した(図 1).人間の判断が文脈依存で変化する事例において,言語モデルは文脈非依存な振る舞いを示し,日本語の主 題化について人間とは異なる汎化をしていることが示唆された. 本研究で作成したデータセットは公開する1). ## 2 データセット作成 本研究では, 述語の項のうち, 特に主格, 与格,対格の主題化を対象とする. 以下に,ある項が主題化された文とされていない文のぺアを例示する. ## 主格の主題化の例 (2) a.花瓶が部屋にあった。 b.花瓶は部屋にあった。 ## 与格の主題化の例 (3) a.飛行機で沖縄に向かった。 b.沖縄には飛行機で向かった。 ## 対格の主題化の例 (4) a.沖縄で会議を開催した。 b.会議は沖縄で開催した。 実験では,特定の文脈のもと,続く文として項を主題化した儿ない文のどちらが自然かを人間と言語モデルに問い,選好を比較する。 ## 2.1 データ収集 NAIST Text Corpus(NTC)[15] に主題化に関する判断のアノテーションを行う. 述語項構造アノテー ションを利用し,以下の条件を全て満たす項(主格・与格・対格)を対象とした.2) - 文内で最も後方に出現する能動態の動詞の項である ・項がとりたて助詞「は」を伴うか,各格に対応する格助詞(が・に・を)を伴って表出している -与格対格を対象とする場合は, 対応する述語が対格/与格の項を持たない - 文中で対象の項以外が主題化されていない - 項が各文章の先頭から 2 文目以降に出現する 上の条件を満たしたある項 $a_{i}$ を含む文 $s_{i}$ について,2 節で示したような主題構造の観点でのみ異なる文ペアを作成した. 文 $s_{i}$ で対象とする項 $a_{i}$ が主題化されていた場合(とりたて助詞「は」を伴う場合)は,とりたて助詞を格助詞に変え,項を基本語  順位置 ${ }^{3}$ に移動させることで,主題化が生じていない無標の文を作成した. 逆に, 項が主題化されていなかった場合は,とりたて助詞「は」を付与して文頭に移動することで,主題化が生じている有標の文を作成した. 結果としてある項 $a_{i}$ について,(文脈 $c_{i}$, 項が主題化された文 $s_{i}^{\mathrm{TOP}}$, 項が主題化されていない文 $s_{i}^{\text {NOT }}$ )の 3 つ組が収集された. データの例を表 1 に示す. ## 2.2 クラウドソーシング 各項 $a_{i}$ が主題化される尤もらしさを定量化し, さらに主題化の判断における文脈 $c_{i}$ の影響を測るために,(i) 文脈 $c_{i}$ を見せない場合4) と (ii) 文脈 $c_{i}$ を見せる場合5) の 2 つの設定で,文 $s_{i}^{\text {TOP }}$ と文 $s_{i}^{\text {NOT }}$ のどちらが自然かを判断させた.「どちらでも良い」という選択肢も提示し,どうしても判断がつかない場合のみ選択するよう指示した. また両設定では異なる作業者がアノテーションを行った. また 2.1 節で施した機械的な文ペアの生成により,非文が生成される可能性があるため, どちらの文も日本語の文として明らかな違和感がないことも作業者に確認し, 非文だと判断された文が含まれる事例はデータから除外した。 $ \text { アノテーションには Yahoo!クラウドソーシング6) } $ を用いた. 事前に同様のタスクをトライアルとして複数回実施して優秀な作業者を選別し, さらにチェック設問を用いて不適切なラベルを付与する作業者を適宜除外した.この時点で,各格 $\times$ 各設定 (文脈を見せる場合と見せない場合)に対して 8 人ずつのラベルを収集した. その後,MACE [16]を用いて各作業者の信頼度を計算し, 信頼度下位 $30 \%$ の作業者を除外したのち, 3 人以下のラベルしか付与されていないデータポイントも除外した. 最終的に得られたデータセットの統計量を表 2 に示す. 最終的に,主格のアノテーションでは 164 名の,与格・対格のアノテーションでは 247 名の作業者の作業結果を採用した ${ }^{7)}$ 。なお,主格のデータ収集についての詳細は,Fujihara ら [17]を参考にされたい. 3)脱主題化時に,主格の場合は位置は変えず,与格・対格については述語の直前に移動した. なお,与格と対格が同時に出現する文は省いているため,基本語順において与格と対格のどちらが先かという議論は生じない. 4)特定の文脈を想定しないよう作業者に指示した. 5)作業者の負担を軽減するために, 文脈 $c$ が 4 文以上からなる場合は,後ろから 3 文目までを見せた 6) https://crowdsourcing.yahoo.co.jp/ 7)トライアルも含め,チェック設問に正解した作業者に対して1 タスク (約 10 分) あたり 160 円を報酬として支払った 表 1 データセットの例(機械的に作成した文の文頭には*を付与した) & & \\ 表 2 データセットの統計量 ## 2.3 文脈依存セットの作成 2.2 節で収集したデータの中には,文脈の影響が見られない,すなわち文脈を見せた場合と見せない場合とで作業者の選好がほとんど変化しないインスタンスが確認された.また,「は」と「が」の使い分けは,談話レべルの主題構造以外の観点の作用が無視できないという調査もある $[18,19]$. そこで,言語モデルの文脈(非)依存な振る舞いを精緻に分析するために,以下の条件のいずれかを満たすインスタンスを文脈依存セットとして抽出した. ・NTC 上と文脈を見せた場合のアノテーションで主題化された文が選ばれた,かつ文脈の有無による選好の変化の大きさが上位 $25 \%$ に属する (文脈を見ることで主題化された文への選好が強まった) ・NTC 上と文脈を見せた場合のアノテーションで主題化されていない文が選ばれた,かつ文脈の有無による選好の変化の大きさが下位 $25 \%$ に属する(文脈を見ることで主題化されていない文への選好が強まった)実験では,文脈依存セットを用いる。 ## 3 実験設定 3 種類の単方向言語モデルを用いて, 人間と言語モデルの主題化に関する選好を比較する。 ## 3.1 言語モデル 2 つの Transformer 言語モデル TRANS-L (400M パラメータ), Trans-s (55M パラメータ) と, LSTM 言語モデル(55M パラメータ)を実験に用いた $[20,21]$.言語モデルは新聞記事と Wikipedia からなる 300 万文章で学習した ${ }^{8)}$. 言語モデルへの入力は, JUMAN [22] で形態素に分割したのち,Unigram モデル [23] でサブワードに分割した"9. ## 3.2 評価指標 2 節で作成した各インスタンス $\left(c_{i}, s_{i}^{\text {TOP }}, s_{i}^{\text {NOT }}\right)$ について,人間と言語モデルの主題化率 $r_{i}$ を以下のように計算する。 $ r_{i}=\frac{n\left(s_{i}^{\mathrm{TOP}}\right)}{n\left(s_{i}^{\mathrm{TOP}}\right)+n\left(s_{i}^{\mathrm{NOT}}\right)} . $ 人間の選好については, $n(\cdot)$ としてクラウドソーシングで得られたどちらの文が自然かに関する票数を 8) データサイズはトークナイズ前で $3.4 \mathrm{~GB}$ である. また学習データは,2 節で作成したデータと重複しない 9) sentencepiece [24] を用いた(character coverage $=0.9995$, vocab size $=100000$ ) 表 3 文脈依存セットでの人間と言語モデルの選択の傾向 用いる ${ }^{10)}$. 言語モデルの場合は,各文に対するパー プレキシティを $n(\cdot)$ として用いる. $r_{i}$ が大きいほど主題化された文が強く選好されることを意味する。文脈を提示した下で,人間と言語モデルの主題化率 $r_{i}$ の相関 $\rho_{r}$ を求め, 人間が強く主題化を選好する事例において言語モデルも強く主題化を選好するか調査する。なお,言語的な規則・制約において判断が完全に定まる問題ではないため,2 值には要約せず,主題化率という連続値のまま扱う。 また, 文脈 $c_{i}$ のもとで得られた主題化率を $r_{i}^{\mathrm{C}}$, 文脈を考慮せずに得られた主題化率を $r_{i}$ と区別し,各事例において,文脈が主題化の選択をどれほど促すか $\Delta=r_{i}^{\mathrm{C}}-r_{i}$ を計算した. $\Delta$ が大きいほど,文脈 $c$ が,項の主題化を強く促したことを意味する. ${ }^{11}$ 主題化の選択における先行文脈の影響の度合いが人間と言語モデルで近いかを調べるために,人間と言語モデルから求まる文脈の影響度 $\Delta$ の順位相関係数 $\rho_{\Delta}$ も報告する. また参考として, NTC 上での主題化の選択を正解と見做し, 主題化する儿ないの 2 值分類として扱った際の F1 値も報告する ${ }^{12)}$. ## 4 文脈依存セットでの結果 2.3 節で作成した文脈依存セットにおける,人間と言語モデルの選択の傾向を表 3 に示す. 文脈ありの設定では,人間と言語モデルの判断について,主格,与格,対格とも正の相関が観察された 10)「どちらでも良い」という票については, $s^{\text {TOP }}, s^{\text {NOT }} 0.5$票ずつ分配した. 11)なお一連の計算において確率の足し算・引き算が発生しており,確率的な意味づけは困難になるが,比率などを用いた場合には今回の目的と反する性質を持つ値となり(例えば $\Delta=r_{i}^{\mathrm{C}} / r_{i}$ とした場合, 1 票から 2 票への変化が 2 となり, 7 票から 8 票の変化が 1.1 程度となるのは今回の文脈では不自然), この定式化に至っている. 12)人間・言語モデル共に,主題化率 $r_{i}$ が 0.5 を上回る場合には $s^{\text {TOP }}$ を選択したとみなし,そうでない場合は $s^{\text {NOT を選 }}$択したとみなした。 $\left(\rho_{r} \geq 0.48\right)$. 一方,文脈の影響度の相関 $\rho_{\Delta}$ は,主格,与格,対格のいずれにおいても非常に弱く,主題化に対する文脈の影響について,人間と言語モデルで乘離があることが示唆された。 また,人間の $\mathrm{F} 1$ 值は文脈の有無によって大きく変化しているのに対し,言語モデルの F1 值はほとんど変わらず,言語モデルが不当に文脈非依存な選択を行っていることが示唆された. 特に与格や対格などコーパスと比較して人間の選択が著しく変わる設定において,なぜ言語モデルが文脈なしにコーパスと一貫した選択が行えているのかは興味深い。なお,文脈依存セットの作成では,人間とコーパスの判断が一致することを条件に課したため,文脈ありの設定で人間の $\mathrm{F} 1$ 値は 100 となる. また文脈の有無で主題化における選好が大きく変わるデータを収集したため,文脈がないときに人間は積極的にコー パスと逆の選択をとる可能性があり,F1 值がチャンスレートを下回ることは不自然でない,なおデー タセット全体で評価した場合でも,文脈の影響度の相関 $\rho_{\Delta}$ は依然として非常に弱く,一貫して言語モデルの人間と乘離した振る舞いが確認された(付録 A;表 4). ## 5 おわりに 本研究では, 談話の一側面である主題構造に焦点を当て,主題化の判断における人間と言語モデルの選好の比較を行った. 実験では,人間が文脈に依存して判断を行う事例に対しても言語モデルは文脈非依存な判断を行うこと,主題化に対する文脈の影響について人間と言語モデルで乘離があることを示した.この結果は,人間と同様の談話レベルの言語的知識を言語モデルに獲得させるためには,モデルのアーキテクチャや学習において更なる帰納バイアスが必要であることを示唆している. ## 謝辞 本研究は JST CREST JPMJCR20D2 の助成を受け たものです. また,データセットの作成にあたり毎日新聞記事データ集 1995 年版のクラウドソーシングでの使用を許可してくださった毎日新聞社に感謝致します。 ## 参考文献 [1] Tal Linzen, Emmanuel Dupoux, and Yoav Goldberg. Assessing the ability of 1stms to learn syntax-sensitive dependencies. Transactions of the Association for Computational Linguistics, Vol. 4, pp. 521-535, 2016. [2] Jey Han Lau, Alexander Clark, and Shalom Lappin. Grammaticality, acceptability, and probability: A probabilistic view of linguistic knowledge. Cognitive Science, Vol. 41, No. 5, pp. 1202-1241, 2017. [3] Rebecca Marvin and Tal Linzen. Targeted syntactic evaluation of language models. In Proceedings of EMNLP, pp. 1192-1202, 2018. [4] Yoav Goldberg. Assessing bert's syntactic abilities. arXiv preprint arXiv:1901.05287, 2019. [5] Alex Warstadt, Amanpreet Singh, and Samuel R. Bowman. Neural network acceptability judgments. Transactions of the Association for Computational Linguistics, Vol. 7, pp. 625-641, 2019. [6] Alex Warstadt, Alicia Parrish, Haokun Liu, Anhad Mohananey, Wei Peng, Sheng-Fu Wang, and Samuel R. Bowman. Blimp: The benchmark of linguistic minimal pairs for english. Transactions of the Association for Computational Linguistics, Vol. 8, pp. 377-392, 2020. [7] Jiwei Li and Dan Jurafsky. Neural net models of opendomain discourse coherence. In Proceedings of EMNLP, pp. 198-209, September 2017. [8] Abigail See, Aneesh Pappu, Rohun Saxena, Akhila Yerukola, and Christopher D Manning. Do massively pretrained language models make better storytellers? In Proceedings of CoNLL, pp. 843-861, 2019. [9] Michael Alexander Kirkwood Halliday and Ruqaiya Hasan. Cohesion in english. Longman, 1976. [10] Michael Halliday, Christian MIM Matthiessen, and Christian Matthiessen. An Introduction to Functional Grammar. Routledge, 2014. [11] Barbara J Grosz, Aravind K Joshi, and Scott Weinstein. Centering: A framework for modelling the local coherence of discourse. Computational Linguistics, Vol. 21, No. 2 , pp. 203-225, 1995. [12] Marilyn Walker, Masayo Iida, and Sharon Cote. Japanese discourse and the process of centering. Computational Linguistics, Vol. 20, No. 2, pp. 193-231, 1994. [13] 松下大三郎. 標準日本口語法. 中文館書店, 1930. [14] 孟玲秀. 『日本語教育における「は」と「が」の教授法』一一中国人学習者に対する日本語教育の場合一一. 2004. [15] Ryu Iida, Mamoru Komachi, Kentaro Inui, and Yuji Matsumoto. Annotating a japanese text corpus with predicate- argument and coreference relations. In Proceedings of the linguistic annotation workshop, pp. 132-139, 2007. [16] Dirk Hovy, Taylor Berg-Kirkpatrick, Ashish Vaswani, and Eduard Hovy. Learning whom to trust with mace. In Proceedings of NAACL-HLT, pp. 1120-1130, 2013. [17] Riki Fujihara, Tatsuki Kuribayashi, Kaori Abe, Ryoko Tokuhisa, and Kentaro Inui. Topicalization in language models: A case study on Japanese. In Proceedings of the 29th International Conference on Computational Linguistics, pp. 851-862, Gyeongju, Republic of Korea, October 2022. International Committee on Computational Linguistics. [18]野田尚史.「は」と「が」.くろしお出版, 1996. [19] 日本語記述文法研究会. 現代日本語文法 5 とりたて・主題. くろしお出版, 2009. [20] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Proceedings of NeurIPS, pp. 5998-6008, 2017. [21] Sepp Hochreiter and Jürgen Schmidhuber. Long shortterm memory. Neural computation, Vol. 9, No. 8, pp. 1735-1780, 1997. [22] Daisuke Kawahara and Sadao Kurohashi. Case frame compilation from the web using high-performance computing. In Proceedings of LREC, pp. 1344-1347, 2006. [23] Taku Kudo. Subword regularization: Improving neural network translation models with multiple subword candidates. In Proceedings of ACL, pp. 66-75, 2018. [24] Taku Kudo and John Richardson. Sentencepiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. In Proceedings of EMNLP, pp. 66-71, 2018. 表 4 データセット全体での人間と言語モデルの選択の傾向 ## A データセット全体での結果 表 4 に 2 節で作成したデータセット全体での人間と言語モデルの選択の傾向を示す. データセット全体においても主格,与格,対格いずれの文脈の影響度合いの相関 $\rho_{\Delta}$ はほとんどなく, 4 節の結果と一貫して,人間と言語モデルの文脈の考慮の仕方には乘離があることが確認された。 F1 值については,主格における主題化の判断では,人間も言語モデルも 90 ポイント前後と高い值を示した.また,データセット全体では人間も言語モデルも文脈の有無による $\mathrm{F} 1$ 值の変化が小さく,主格における主題化の判断,すなわち「は」と「が」の選択は文内の情報のみで十分可能であることが示唆された。一方で,与格と対格における主題化の判断では,言語モデルは 80 から 90 ポイント前後の値となっているのに対し,人間は 50 から 60 ポイント前後の值となっていた. この值は 2 值分類のチャンスレートに近いことから,人間にとって与格と対格における主題化判断は一方に選好が偏るものではないことが考えられる. しかしながら,文脈を見ることでコーパスと一貫した判断がわずかではあるができるようになるという点で,人間は与格や対格における主題化の判断を文脈に依存して行っていることが改めて確認された. 人間と比べて言語モデルは F1 值で高いスコアとなっているが,依然として文脈に依存した判断を行っていないことから,過剩にコーパスにフィットしていたり,N-gram レベルの情報で判断していたりする可能性が考えられる。人間にとっては困難な判断を言語モデルがどんな情報を頼りに行っているのかということについては今後さらに調査したい.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B5-2.pdf
# 人間の脳と人工知能における短歌の鑑賞に関する神経活動の比較 船井 正太郎 ${ }^{1}$ 近添 淳一 $^{1}$ 持橋 大地 ${ }^{2}$ 浅原 正幸 ${ }^{3}$ 松井 鉄平 $^{4}$ 鹿野 豊 $^{5}$ 川島 寛乃 ${ }^{6}$ 磯 暁 ${ }^{7}$ ${ }^{1}$ 株式会社アラヤ ${ }^{2}$ 統計数理研究所 ${ }^{3}$ 国立国語研究所 ${ }^{4}$ 岡山大学 ${ }^{5}$ 群馬大学 ${ }^{6}$ 慶應義塾大学 ${ }^{7}$ 高エネルギー加速器研究機構 \{funai_shotaro, chikazoe_junichi\}@araya.org, [email protected], [email protected], tematsui@kayama-u. ac.jp, yshikano@gunma-u. ac.jp, [email protected]. jp, [email protected]. jp ## 概要 短歌を自然言語処理の人工知能(機械学習)に入力したときの振る舞いについて、短歌を読むときの人間の脳神経活動と比較することにより、解析を行った。具体的には、機械学習のモデルとして BERT,脳神経活動の測定手法として fMRI(機能的 MRI) を用いて、BERT の各層が出力する分散表現と脳の各 voxel における fMRI データとの対応を議論した。 その結果、BERT の深い層の振る舞いは、文が詩的であるかを判定する脳部位や、抽象的な情報の認知を行う脳部位と対応していることが示せた。 ## 1 はじめに 近年、人工知能(機械学習)を用いた自然言語処理は急速に発展してきており、文章の生成や要約、多言語間の翻訳など、幅広いタスクをこなせるようになってきた。これは機械学習が言語をより深く理解できるようになってきたことを意味しており、 BERT [1]や GPT [2]などの機械学習モデルを中心に、数多くの研究開発がなされている。 そうした研究の多くは Wikipedia などの日常的な文を扱うものである。そこで本研究では、詩的な文を扱い、機械学習の振る舞いを解析する。詩的な文は一般的に、文字通りの意味を超えた内容を持ち、人間を感情的にさせることができる。そうした文に対して、機械学習がどのように言語処理を行うかを議論するのである。 詩的な文として、本研究では短歌を扱う。散文詩のように長い詩だと、様々な形式があって比較が難しい。逆に、俳句のように短い詩だと、読み解くのに前提となる知識が必要とされることが多く、いずれも機械学習には向かないと判断したからである。 また、短歌との比較対象として、一般的な文(本研究では平文と呼ぶ)も扱う。文の長さは短歌と同じく 31 音程度のものに限る。これらの短歌や平文を入力したときの機械学習モデルの振る舞いを調べ、 さらに短歌・平文を読むときの人間の脳神経活動とどのくらい共通しているのか解析を行う。 機械学習モデルとしては BERT (base)を用いて、人間の脳神経活動を測定するのには fMRI(機能的 MRI)の手法を用いる。そして、BERT の分散表現から fMRI データへの回帰解析を行うことにより、人工知能と人間の胼神経活動の振る舞いにどのような対応関係があるのかを明らかにする。 特に、BERT の深い層は文の意味的な性質を捉えると考えられている[3]。また、脳科学ではより抽象的な情報を捉える脳の部位がわかってきている[4]。自然言語処理と胼科学、両方の知見に基づいて短歌を扱うことにより、自然言語処理の人工知能が持つ能力をより深く理解できると考えられる。 ## 2 人エ知能の振る舞い ## 2.1 短歌と平文の選定 本研究に用いる短歌と平文は、国立国語研究所の 『現代日本語書き言葉均衡コーパス』(BCCWJ)に収録されたものを用いた。このコーパスには短歌が 3603 首、平文(31 音程度の一般的な文)が 5624 文ある。ただ、口語調の短歌が少ないため、現代短歌集である『桜前線開架宣言』[5] と短歌の月刊誌『塔』 [6]から著者 (持橋・川島) が選んだ 101 首を加えて、本研究で用いる短歌のデータベースとした。 これら合計 9328 文を、BERT の学習済みモデル (cl-tohoku/bert-base-japanese-whole-word-masking,東北大学モデル) に入力し、最深層の[CLS]分散表現を取り出して、2 次元に PCA(主成分分析)を行うと、図1のように描画できる。 図 1 短歌・平文の BERT 分散表現 この BERT モデルは日本語版 Wikipedia の文を訓練データとしているため、短歌などの詩的な文はほとんど学習していない。それにも関わらず、図 1 は短歌と平文の違いが明確に認識できていることを示しており、興味深い結果だと言える。 これら短歌・平文の中から、人間の脳神経活動を測定する際に用いる文を、以下の方法で選定した。 まず、最深層の[CLS]分散表現(768 次元)を入力すると、短歌であれば 0 、平文であれば 1 を出力するように教師あり学習を行って、短歌らしさ・平文らしさを予測する機械学習モデルを作成した。隠れ層は 1 層で、すべて全結合層である。この予測モデルを用いて、平文らしい短歌 300 首と短歌らしい平文 300 文を選んだ。その上で、文の読みやすさを考慮して著者(船井・持橋)が短歌 150 首と平文 150 文を選び出した。一目見ただけで短歌か平文か、見分けがついてしまうと、本研究で期待している脳神経活動データが十分に取れない可能性があるため、このような方法で短歌と平文を選定した。 これら 300 文について、先ほどと同様に BERT の分散表現を 2 次元 PCA すると、図 2 のようになる。短歌と平文の分布は重なっているものの、明確にずれており、多くの文は短歌・平文の判別が可能であるように見える。従って、我々が期待したような短歌と平文が選べていることがわかる。 図 2 選定した短歌・平文の BERT 分散表現 ## 3 人間の脳神経活動 ## 3.1 脳神経活動データの測定 2.1 節で選び出した短歌と平文について、人間が読むときの脳神経活動データは、生理学研究所に設置された 3.0 テスラの MRI(シーメンス社製)を用いて測定した。被験者は、生理学研究所の近辺に住む大学生を中心とした、18 歳から 34 歳までの 32 名の健常な日本語母語話者である。そのうち 15 名が男性であり、全員が右利きである。被験者を選ぶ際に、短歌に慣れ親しんでいるかは問わなかった。 この測定実験では、短歌 150 首と平文 150 文が、被験者ごとに異なるランダムな順番で提示される。各々の短歌・平文を 3 行に分けて、最初の 3 秒間は 1 行目のみ、次の 3 秒間は 2 行目まで、次の 3 秒間は 3 行すべてが表示される。最後の 3 秒間は「詩的であると感じますか?」と表示することで被験者に問いかけ、「はい」または「いいえ」をボタンで回答してもらった。このように、1つの文を 12 秒かけて読み、詩的か否かを判定してもらった。 この作業を短歌 25 首と平文 25 文で 1 セクションとして、セクションが終わるごとに数分間の休想をはさみながら、全部で 6 セクション行った。 ## 3.2 脳神経活動データの解析 この測定では fMRI の手法を用いて、血流が活発になる脳の部位を時系列データとして取得した。空間の解像度(各 voxel のサイズ)は $2.0 \mathrm{~mm}$ 立方で、時間の解像度は数秒程度である。この測定で得られた脳活動データを概観したものを、図 3 に示そう。赤色の領域は、短歌・平文を提示したときに強く 図 3 fMRI 脳活動データの概観 反応した部位を示している。言語野や視覚野に反応が見られ、これは期待通りの結果である。 黄色の領域は、被験者が詩的だと答えたときと詩的ではないと答えたときに、脳活動が大きく異なる部位を示している。被験者が読んだのが短歌か平文かは関係なく、詩的に感じたかどうかを問うていることに注意されたい。特に差異が目立つのは、腹内側前頭前皮質(ventromedial prefrontal cortex), 楔前部 (precuneus), 左側の側頭頭頂接合部(temporoparietal junction)である。いずれも認知や感情と関係の深い部位であり、短歌と平文で感情の生じ方に違いがある様子を捉えていると考えられる。特に、腹内側前頭前皮質は、神経美学において中心的な役割を持つ内側眼窩前頭皮質(medial orbitofrontal cortex)を含む領域であり[7]、短歌に美しさなどの価値を見出す様子を捉えていると考えることができる。 ## 4 人工知能と脳神経活動の対応 ## 4. 1 機械学習の追加訓練 人間の脳活動データとの対応を見るため、機械学習モデルに以下のような追加訓練を施した。 BERT の最深層に 2 層の全結合層を追加して、まずは被験者全員分の判定データ(詩的か否か)をラベルとして転移学習を行った。次に、同じラベルで BERT 最深層まで訓練し、その次はもう 1 つ浅い層まで訓練し…このように訓練する層を 1 つずつ増やしながら BERT の全 12 層の追加訓練を行った。 その上で、各被験者の判定データのみを使って、同様に訓練する層を 1 つずつ増やしながら、BERT の全 12 層の追加訓練を行った。最初から各被験者の判定データのみを使うと訓練データの量が少ないため、 このような方法で追加訓練を行った。 この訓練においては、 6 セッションの判定データのうち、4つを訓練データ(training data), 1 つを検証データ(validation data)として訓練する際のハイパー パラメータを調整するために用いて、5-fold 交差検証(cross validation)を行った。残り 1 つは試験データ (test data)として訓練には用いなかった。 以上により、各被験者の、各セッションを試験デ一タとする、合計 192 個の BERT 追加訓練モデルが得られた。 ## 4. 2 脳神経活動データへの回帰モデル 追加訓練を施した BERT モデルを用いて、fMRI (脳活動) データとの対応を議論しよう。 まずは、すべての短歌・平文について、BERT 各層の[CLS]分散表現を計算する。また、各文を 3 行に分けたときの 1 行目まで、 2 行目までの分散表現も同様に計算する。その際、各文が試験データに含まれた追加訓練モデルを用いた。 次に、BERT 分散表現と fMRI データの対応関係を解析するために、これらの BERT 分散表現から fMRI データへの回帰モデルを生成する。この回帰モデルの基底となる関数(regressor)は、以下のように定義した。その概略を図 4 に示そう。 図 4 回帰モデルの regressor となる関数 各被験者が測定実験で提示された短歌・平文の順番(さらに 1 行目まで、2行目まで、3行すべての順番)にBERT 分散表現を並べて、各成分の時系列デ一夕と見做す。そして、文が提示された瞬間に各成分の値を持つ boxcar 関数を考える(図 4、青色の柱)。詩的か否かを尋ねるときの值はすべて 0 とする。この boxcar 関数に、血流動態応答関数(hemodynamic response function, HRF)を畳み込むと、fMRI データと似た形の関数が得られる(図 4、茶色の線)。この時間の関数を regressor と定義した。 実際の解析では、BERT 分散表現は次元が大きく (768 次元)、overfittingを避ける目的で 100 次元べクトルに PCA したものを用いた。そのため、被験者ごとに 100 個の regressor が得られ、これらを線形結合することで、各被験者・各 voxel の fMRI 時系列デ ータへの回帰解析を行った。 この解析結果を見ると、BERT のどの層の分散表現が、どの voxelの脳活動とよく対応しているのか、明らかにすることができる。特に、 3.2 節で注目した腹内側前頭前皮質(vmPFC) と楔前部(precuneus)付近の結果を図 5 に示そう。これらの脳部位の付近は赤く塗られており、BERT の出力に近い層(深い層) から精度よく回帰ができることがわかる。すなわち、 図 $5 \mathrm{vmPFC}$ と precuneus 付近の解析結果 BERT の深い層と強く相関している。これらの脳部位は「詩的か否か」の判定と強く関係している部位であった。一方で、BERT は深い層ほど文の意味的な性質を捉えると考えられている[3]。詩的か否かの判定は、意味的な性質を捉えるものであるから、我々の解析結果はこうした主張を支持しているものと考えられる。 ## 4. 3 抽象的な認知を行う脳部位との対応 4.2 節で行った回帰解析によって、脳の各 voxel が最も強く相関する BERTの層を同定することができる。一方、脳の各部位が認知する情報がどのくらい抽象的・具体的なものであるかを計算できる手法が提案されている[4]。これは、脳部位間の機能的結合 (functional connectivity)のデータを圧縮することによって得られ、認知機能の抽象度を principal gradient score として数値化することができる。 従って、最後に BERT の各層と、その層に強く相関する脳部位の認知機能の抽象度との関係を議論しよう。各部位の principal gradient score を平均して得られた計算結果を図6に示す。(被験者 32 名のらち、先に測定を終えた 21 名のみの結果も示した。) 図 6 BERT の各層と認知機能の抽象度の関係全体的に見れば、BERT の深い層(出力に近い層) はより抽象的、浅い層(入力に近い層)はより具体的な情報を認知する傾向にあることがわかる。 BERT は深い層ほど文の意味的な性質を捉え、浅い層ほど統語論(文法的)な性質を捉えると考えられており[3]、それと整合する結果が得られたと言えるだろう。 ただし、BERT の深い層から浅い層へと抽象度が単調に減少しているのではなく、中間層では大きく上下していることにも触れておきたい。この現象は 4.1 節で行った追加訓練が影響して起こっている可能性が考えられる。このような追加訓練を行った BERT モデルでは、中間より浅い層で文の特徴を捉えて、中間より深い層は正しい結果を出力することに重きを置く傾向があるなど、中間層を境に振る舞いが異なるケースが指摘されている。こうした現象は BERT の言語認識能力に密接に関わるものであり、今後の研究で明らかにしていきたいと考えている。 ## 5 おわりに 自然言語処理の人工知能の振る舞いについて理解を深めるために、本研究では詩的な文である短歌を入力データとして扱った。そして、普通の文 (平文) を入力したときの人工知能の振る舞いや、短歌・平文を人間が読むときの脳神経活動と比較することにより、自然言語処理と脳科学、両者の知見を活かした解析を行った。 その結果、文が詩的であるか否かを判定する脳部位の神経活動は、BERT の深い層と強く相関していることがわかった。BERT は深い層ほど文全体の特徵を見て、意味的な性質を捉えると考えられているが、我々の結果もそれを支持するものであった。 また、BERT の深い層は、より抽象的な情報の認知を行う脳部位とも強く相関していることがわかつた。特に、BERT の深い層と強く相関する脳部位には、美しさなどの価値を捉える、腹内側前頭前皮質が含まれている。 以上のことが本研究にて確認できたことを踏まえ、今後は短歌に慣れ親しんでいる人々に被験者となってもらいより詳しく鑑賞するときの脳神経活動と、人工知能の振る舞いを比較することで、人工知能が持つ自然言語処理能力をより深く理解していきたいと考えている。 ## 謝辞 本研究は「機構間連携・異分野連携研究プロジェクト」と生理学研究所の共同利用研究からの助成を受けています。 ## 参考文献 1. J. Devlin, M.-W. Chang, K. Lee, K. Toutanova, "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding," arXiv: 1810.04805 [cs.CL], 2018. 2. A. Radford, K. Narasimhan, T. Salimans, I. Sutskever, "Improving language understanding by generative pre-training," https://www.cs.ubc.ca/ amuham01/LING530/papers/rad ford2018improving.pdf, 2018. 3. 例えば、I. Tenney, D. Das, E. Pavlick, "BERT rediscovers the classical NLP pipeline," arXiv: 1905.05950 [cs.CL], 2019. 4. D. S. Margulies, S. S. Ghosh, A. Goulas, M. Falkiewicz, J. M. Huntenburg, G. Langs, ..., J. Smallwood, "Situating the default-mode network along a principal gradient of macroscale cortical organization," Proceedings of the National Academy of Sciences, 113(44), 12574-12579, 2016. 5. 桜前線開架宣言、山田航、左右社、2015 年。 6. 塔、一般社団法人塔短歌会、第 63 巻第 4 号 (2016 年 4 月発行)に掲載された短歌から選んだ。 7. H. Kawabata, S. Zeki, "Neural correlates of beauty," Journal of neurophysiology 91(4), 1699-1705, 2004.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B5-3.pdf
# 脳内状態推定のための汎用言語モデル構築への取り組み 羅 桜 小林一郎 お茶の水女子大学 \{luo.ying, koba\}@is.ocha.ac.jp ## 概要 先行研究 [1] において,言語刺激下の脳内状態推定精度の向上を目的として,BERT で表現された言語特徴量と fMRI で観測された脳活動データとの対応関係をマルチモーダル深層学習の枠組みにより捉えた BrainBERT が提案されている. BrainBERT は,言語刺激と脳活動データの対応関係を捉えた被験者に依存しない汎用言語モデルであることが確認されている.しかし, BrainBERT を用いて脳活動を推定することにおいて,推定精度向上の課題がいくつか残っている. 本研究では,それらの課題を克服するためモデルの改良を行い, 得られた結果を客観的に検証するための実験を行った. 実験結果から, 新たに構築したモデルである BrainBERT 2.0 の推定精度が従来のモデルより向上したことを確認した. ## 1 はじめに 近年,深層学習を作業モデルとして用いることでヒト脳内の情報処理機構の解明を目指す研究が盛んになってきており, 脳神経科学の分野において多くの新しい知見が得られている. また,言語モデルを用いた研究では,脳内の意味情報表現と実際の意味知覚の間に有意な相関があること [2] や Transformer [3] ベースの汎用言語モデルを用いて言語の特徴量を表現することで推定精度の向上が見られることが確認されている [4]. このように,言語刺激に対する脳内状態を予測することにより,様々な脳内情報処理機構が解明されてきている. そのような背景を受けて,言語刺激と脑活動状態との対応関係を捉える汎用言語モデル BrainBERT [1] が提案されている. 本研究では, 言語刺激下のヒト脳内状態を予測する際に,より精度良く予測が可能になるように BrainBERT を改良し,その性能を検証することを目的とする. ## 2 BrainBERT 図 1 BrainBERT : 脳活動データとテキストの対応関係を捉えた汎用言語モデル BrainBERT [1] は,マルチモーダル深層学習モデルである UNITER [5] や SpeechBERT [6] を参考に,脳活動データとテキストの対応関係を捉えた汎用言語モデルとして構築された. 図 1 に示すように, BrainBERT のアーキテクチュアは, 24 層の双方向 Transformer [3] を持つエンコーダブロックから構成される. 脳活動データとして Alice Dataset [7]を用い, またプレーンテキストとして, Book コーパスと Wiki コーパスを用いて事前学習を行った. 事前学習課題は,モデル学習のためにマスク言語タスク(以下, MLM タスクと略す)と脳活動データに対する対応文章の一致を捉える 2 値のマッチング自然言語処理タスク(以下,BTM タスクと略す)を用いた。 また, モデルの訓練と有効性の検証のために, [1] では 4 つの実験を段階的に実施している. 1. L1 損失による脳特徴量抽出効果検証実験: Autoencoderを使い, 脳の特徴量を抽出. 2. BrainBERT 訓練での NLP タスク実験: BrainBERT の事前学習として fine-tuning の実施. 3. MLM タスク下でのアテンションの変化観察: アテンションを可視化し, 言語モデルにおける脳特徴量の役割調査. 4. リッジ回帰を用いた脳活動信号予測における汎用言語モデルの比較実験: テキストによる脳内状態推定実験を行った. 実駼結果から,事前学習済み BrainBERT モデルの精度は大規模汎用言語モデルには及ばずとも,脳活動状態の予測には他の言語モデルよりも優位性があることがわかった. とくに,BrainBERT のべースとなった bert-large-uncased における予測精度よりも対象としたすべての関心領域(ROI)に対して精度が向上されていることから, 脳活動データとテキストデータの対応関係が取れた汎用言語モデルが構築されたこと (以下, BrainBERT1.0 と略する) を確認した。 ## 3 BrainBERT 2.0 へ向けて マルチモーダル深層学習モデルの学習手続きを詳細に分析し, BrainBERT の 3 つの改善策を提案する. ## 3.1 改善策 1 : 潜在表現の意味性 BrainBERTを学習する際, 入力には 'two people sitting on a bench watching a sailboat’などの文と,それに対応する磁気共鳴機能画像法(fMRI)による脳活動データを使用した. モデルの学習条件の整合性を考慮し,ボクセルの次元がおよそ $50,000 \sim 75,000$ くらいの大脳皮質データを直接入力の次元とはせず, 脳活動データを 1024 または 768 次元の特徴量に AutoEncoder を用いて変更した. AutoEncoder モデルの損失関数は SpeechBERT [6] を参考にし,式 1 を採用した. $ L_{\text {recon }+M A E}=\frac{1}{N} \sum_{n=1}^{N}\left.\|x_{n}-x_{n}^{\prime}\right.\|^{2}+\frac{1}{N} \sum_{n=1}^{N}\left.\|z_{n}-y_{t n}\right.\| $ 式 1 中, L2 損失は入力と出力間の再構築損失, L1 損失は潜在表現ベクトルとテキストベクトル間の類似度損失である. テキストのベクトル化には, huggingface で提供されている事前学習済み bert-large-uncased モデル1)を用いている. この学習において, L1+L2 から得られる損失の合計が小さいほど良いということであるが,学習済みの bert-large-uncased モデルから得られるテキストベクトルをファィンチューニングなど無しにそのまま該当テキストのベクトルであると仮定している点に問題がある. さらには, bert-large-uncased モデルから得られる CLS トークンは,エンコーダを通していないため実際にはランダムな埋め込みべクトルになり, 文脈の関係性など, 文の特徴をうまく表現することができないと考えられる.また,SimCSE モデル [8] は,単純な対比学習によって文の埋め込みを行 1) https://huggingface.co./bert-base-uncased い,より質の高い文べクトルを生成することができる. また, SentenceBERT[9] は, 転移学習を用いて BERT モデルが CLS トークンを文の埋め込み表現として使うことの問題を改善している. このことから, SentenceBERT と SimCSE の拡張モデルから 6 つの派生バージョン(モデル名は表 1 の行に記載)を選択し, 新たな比較実験を行った. 単一変数規則を用いて, BrainBERT モデルを AutoEncoderで,上記実験の 1 段階目から再訓練した. 学習結果を比較し, 6 つのモデルの中からテキストのベクトル化において脳活動データと対応させるための最適モデルを見出した. ## 3.2 改善策 2 : 単変量実験の制御 BrainBERT 構築の実験 4 段階目において, リッジ回帰モデルを用いて BrainBERT によるテキストの特徵量から脳活動状態を予測した際の精度を,他の 20 の汎用言語モデルを用いた際の予測精度と比較し,単一変数規則における BrainBERT の性能の検証を行なった. 実験の評価データには, 訓練で用いていない全く新しい脳データセットである BOLD5000 [10] を使用した.このデータセットの収集実験では,3 つの大規模画像データセットの画像を用いた画像刺激を用い,脳活動の酸素飽和濃度(BOLD)信号を収集しており,視覚に関連する 5 つの脳部位のデー タが公開されている. 大規模画像データセットの 1 つである MSCoCo2014 には,画像のキャプションが付属しており, 実験では脳活動データとのペアデー タとして使用した.しかし,これまで BrainBERTへの入力は他のモデルと異なり, 脳特徴量も入力されてしまっていた. 脳のデータをモデル計算の入力として誤って取り込んでいたため, 客観性に欠ける結果となった. これは, 単一変数の原則に沿わないものになっており, 改善対象となった.このことから, 4 段階目の実験を再度実施した. 予測モデルとなるリッジ回帰モデル構築の際には, 4-folds クロスバリデーションを使用し, 20 のモデルが同じ入力変数に基づき, 同じ正則化項を使用して比較された. ## 3.3 改善策 3 : 公知に反する結論の妥当性検証 また, 先行研究 [1] における実験 4 段階目においても, 改善策 2 の 1 点を除き, もう一つの問題として,脳状態予測の結果から, roberta-large モデルの結果が roberta-base モデルの結果よりも推定精度が悪く,多くの先行研究における殆どの自然言語処理タスク において, 通常は roberta-large モデルが roberta-base モデルを上回った ${ }^{2)}$ という実験結果と矛盾していることが挙げられる.この点において,結果の客観性・独立性を証明するために再度実験結果を精査をする必要があり,順列検定実験を行う. 図 22 VS. 2 検定手法流れ この順列検定実験では,Foster ら [11] の論文で紹介されている 2 VS. 2 検定手法を用いた. 図 2 のように, 2 VS. 2 検定は, ベクトルの比較を 2 值分類タスクに還元する相関テストである. このテストは,2つのデータペアが相関していることを証明するツールとして使用することができる. 2 VS. 2 検定では,正しいペアの距離の和(図 2 の青い矢印)と,正しくないぺアの距離の和(図 2 の赤い矢印)の比較を,以下の式で評価することにより行う. $ d\left(y_{i}, \hat{y}_{i}\right)+d\left(y_{j}, \hat{y}_{j}\right)<d\left(y_{i}, \hat{y}_{j}\right)+d\left(y_{j}, \hat{y}_{i}\right) $ 式(2)が成り立つ場合, 比較は成功したとみなされる. 2 VS. 2 検定の精度は, 2 VS. 2 の比較成功の割合となる.roberta-large モデルと roberta-base モデルについて別々に計算を行い,二つのモデルのうちどちらが正しいかを検証した. ## 4 実験 前章では,[1] における 3 つの問題点を説明し,それぞれの改善策を提案した. この章では,改善策に取り組む実験と,実験の具体的なパラメータについて説明する。 ## 4.1 潜在表現の意味性検証実験 テキストの意味と脳活動データとのより良い対応関係を捉えるために,テキスト(文)の意味を sentenceBERT モデルおよび SimCSE モデルなどの合計 6 つのモデルを用い, 実験を通じてそれらのモ  デルを比較し,良い対応関係がとれるモデルを検証した. 検証のための学習過程は以下の通りである. 脳特徵量の抽出に AutoEncoder モデルを採用し, Pereira データセット [12] を学習データセットとして利用する. AutoEncoder の構造は, エンコーダ部が 2 つの Linear 層と 2 つの Batch Normalization 層からなり,エンコーダとデコーダは対称構造となる.また,ドロップアウト率は 0.2 とし,モデルの学習率は 1e-5, 勾配法として AdamWを用い, バッチサイズは32,エポック数は 75 とした. モデルの学習を容易にするため, 異なる被験者に対して共通したボクセルサイズの 46,840 次元として大脳皮質のデータを抽出し,さらに中間変数のサイズを調整した. 例えば,bert-large-uncased モデルの出力ベクトルの次元が 1024 の場合, 中間変数の次元も 1024 に設定する. 表 1 の 1 行目と 2 行目から見ると,今回の新たに条件を変更して再学習された BrainBERT の事前学習結果では, 先行研究 [1] から訓練した精度 $15.7 \%$ の BrainBERT1.0 から $258 \%$ 向上し,最大 $55.56 \%$ の精度を達成した. その結果から,潜在表現の意味が最も優れているのは, bert-large-uncased モデルであることが確認された. 表 1 改善策 1 に対する訓練結果 ## 4.2 単制御変量実験 24 の汎用言語モデルをテキストの特徴量表現に用い,リッジ回帰を使って脳活動状態を予測した。予測精度には Pearson 相関係数を使用した. 本実験で使用する BrainBERT は, 先行研究 [1] での実験設定を一部踏襲しつつ新しく改善された設定の元,再学習されたモデルであり, 以降, それを BrainBERT 2.0 と呼ぶ. 比較対象となる他の単語埋め込みでは GloVe [13], word2vec [14] の 2 つのモデルを採用し, 汎用言語モデルでは, BERT [15], RoBERTa [16], ALBERT [17], GPT [18] などを採用し, 合計 24 の事前学習済み汎用言語モデルを使用した. 符号化モデルを構築するためのデータセットとして,BOLD5000 の一部とそれに対応する MSCoCo2014 データセットを使用した. 脳活動データは 4 人の被験者のも 表 2 各相関脳領域の Pearson 相関係数の計算結果 (略表) } \\ のが使用され,合計 7,677 の画像刺激が与えられた際の脳活動データ (train, test, validation の 3 グルー プに分け,8:1:1 の割合) が用いられた。提供されている脳活動データは, PPA(Parahippocampal Place Area)など視覚に関連する 5 つの脳領域が対象となり, 合計 3,566 のボリュームが処理された. 比較のための予測精度として, 多重補正検定に基づく Pearson 相関係数( $\mathrm{p}<0.05 )$ を計算した. 表 $\left.2^{3}\right)$ より, BrainBERT 1.0,BrainBERT2.0ともにテキストから脳活動を予測するタスクにおいて,他の汎用言語モデルと比べて良好な結果を示し,バージョン 2.0 は 1.0 より $5.58 \%$ 向上し,全モデルの中で最も良い精度を示した。 ## 4.3RoBERTa サイズ妥当性検証実験 RoBERTa のサイズにおける予測精度結果の客観性については, 直接的に結論を導き出す術がないため, 検定による実験を実施した. 実験の詳細を以下に示す. MSCoCo2014 データセットを用いて RoBERTaへの入力テキストとした. "leave 2 out"手法に基づき, 770 文章のデータからランダムに 2 ペアを抽出し, 合計 296,065 訓練データを構成した. 予測脳データと実際脳データの Pearson 相関係数を計算し精度を求めた. RoBERTa-base の精度は $32.09 \%$, RoBERTa-large の精度は $34.24 \%$ となった. この結果は,表中の各脳機能領域下でも一貫性を示し,先行  研究 [1] の結果を是正する結果となった.これにより,RoBERTa-large が RoBERTa-base モデルよりも,脳内状態を予測する上で優れていることが確認された。 ## 5 考察 実験で取り上げた汎用言語モデルの内,albertxlarge 群は, albert モデルだけでなく, 全体のモデルの中でも優れていた. 本研究において採用した BERT を albert-xlarge に変更し,新たに学習しなおした脳特徴量を反映する汎用言語モデルによって, BrainBERT 2.0 より良い結果を得られるかどうか, さらに検証する価値があると考える。 ## 6 おわりに 本研究は, 先行研究 [1] での取り組みについて 3 つの大きな改善点を示し, 実験を通じて改善点の効果を検証した. 2 VS. 2 検定手法を導入し,テキストの意味と脳活動データの対応関係を捉える上で bert-large-uncased が有利であることを確認した.また,先行研究の結果において未解明であった RoBERTa のサイズによる精度の問題も検証実験を通じて疑問を解消することができた。さらに,改良されたモデルである BrainBERT2.0 は,事前学習結果の精度を向上させ,脳内状態予測において他のモデルを上回る優位性を実現したことを確認した。 今後の課題として,albertを含む様々な汎用言語モデルを用いて再度実験を行うつもりである。 ## 謝辞 本研究は,科研費(18H05521)の支援を受けた。 ここに謝意を表す. ## 参考文献 [1] 羅桜, 小林一郎. Brainbert: 脳活動とテキストの対応関係を捉えた言語モデル構築への取り組み. 日本知能情報ファジィ学会ファジィシステムシンポジウム講演論文集, Vol. 37, pp. 376-381, 2021. [2] Alexander G. Huth, Wendy A. de Heer, Thomas L. Griffiths, Frédéric E. Theunissen, and Jack L. Gallant. Natural speech reveals the semantic maps that tile human cerebral cortex. Nat., Vol. 532, No. 7600, pp. 453-458, 2016. [3] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Proceedings of the 31st International Conference on Neural Information Processing Systems, NIPS'17, p. 6000-6010, Red Hook, NY, USA, 2017. Curran Associates Inc. [4] Satoshi Nishida, Antoine Blanc, Naoya Maeda, Masataka Kado, and Shinji Nishimoto. Behavioral correlates of cortical semantic representations modeled by word vectors. PLoS Computational Biology, Vol. 17, No. 6, p. e1009138, 2021 [5] Yen-Chun Chen, Linjie Li, Licheng Yu, Ahmed El Kholy, Faisal Ahmed, Zhe Gan, Yu Cheng, and Jingjing Liu. Uniter: Universal image-text representation learning. In Computer Vision - ECCV 2020: 16th European Conference, Glasgow, UK, August 23-28, 2020, Proceedings, Part XXX, p. 104-120, Berlin, Heidelberg, 2020. Springer-Verlag, [6] Yung-Sung Chuang, Chi-Liang Liu, Hung-yi Lee, and LinShan Lee. Speechbert: An audio-and-text jointly learned language model for end-to-end spoken question answering. In Helen Meng, Bo Xu, and Thomas Fang Zheng, editors, Interspeech 2020, 21st Annual Conference of the International Speech Communication Association, Virtual Event, Shanghai, China, 25-29 October 2020, pp. 4168-4172. ISCA, 2020. [7] Shohini Bhattasali, Jonathan Brennan, Wen-Ming Luh, Berta Franzluebbers, and John Hale. The alice datasets: fMRI \& EEG observations of natural language comprehension. In Proceedings of the 12th Language Resources and Evaluation Conference, pp. 120-125, Marseille, France, May 2020. European Language Resources Association. [8] Tianyu Gao, Xingcheng Yao, and Danqi Chen. SimCSE: Simple contrastive learning of sentence embeddings. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 6894-6910, Online and Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. [9] Iryna Gurevych Nils Reimers. Sentence-bert: Sentence embeddings using siamese bert-networks. https://arxiv.org/abs/1908.10084, 2019 [10] Nadine Chang, John A. Pyles, Austin Marcus, Abhinav Gupta, Michael J. Tarr, and Elissa M. Aminoff. Bold5000, a public fmri dataset while viewing 5000 visual images. Scientific Data, Vol. 6, No. 1, May 2019. [11] Chris Foster, Dhanush Dharmaretnam, Haoyan Xu, Alona Fyshe, and George Tzanetakis. Decoding music in the human brain using eeg data. In 2018 IEEE 20th International Workshop on Multimedia Signal Processing (MMSP), pp. 1-6, 2018. [12] Francisco Pereira, Bin Lou, Brianna Pritchett, Samuel Ritter, Samuel Gershman, Nancy Kanwisher, Matthew Botvinick, and Evelina Fedorenko. Toward a universal decoder of linguistic meaning from brain activation. Nature Communications, Vol. 9, , 032018. [13] Jeffrey Pennington, Richard Socher, and Christopher Manning. GloVe: Global vectors for word representation. In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 1532-1543, Doha, Qatar, October 2014. Association for Computational Linguistics. [14] Tomas Mikolov, Kai Chen, Greg Corrado, and Jeffrey Dean. Efficient estimation of word representations in vector space, 2013. [15] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding, 2019. [16] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized bert pretraining approach, 2019. [17] Zhenzhong Lan, Mingda Chen, Sebastian Goodman, Kevin Gimpel, Piyush Sharma, and Radu Soricut. Albert: A lite bert for self-supervised learning of language representations, 2020. [18] Xianrui Zheng, Chao Zhang, and Philip C. Woodland. Adapting gpt, gpt-2 and bert language models for speech recognition, 2021 ## 付録 (Appendix) 表 3 各相関脳領域の Pearson 相関係数の計算結果 (全表) } \\
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B5-4.pdf
# 言語モデルの学習における知識ニューロンの形成過程について 有山知希 ${ }^{1}$ Benjamin Heinzerling ${ }^{2,1}$ 乾健太郎 ${ }^{1,2}$ 1 東北大学 2 理化学研究所 [email protected] [email protected], [email protected] ## 概要 言語モデルが学習によって獲得した知識をどのようにモデル内に保存しているかについては様々な研究が行われているが,その中には言語モデル内に知識をエンコードしている“知識ニューロン”の存在を報告しているものがある。本研究では,そのような知識ニューロンが事前学習の経過に伴ってどのように形成されるかを調査した. 調査の結果,知識ニューロンは学習中に特定の概念のみの知識を蓄えていくのではなく, 学習初期の多くの概念の出力に影響を及ぼす状態から,学習が進むにつれて特定の概念の出力のみに影響を及ぼす状態に変化していく過程によって,特定の概念に特化した知識ニューロンとして形成される可能性があることが示された. ## 1 はじめに 事前学習済み言語モデルの中には, “[MASK] はニャーと鳴く., という穴埋め文が与えられた時に,穴埋め部分に “猫” が入ると予測できるものがある.猫についての知識がなければこの穴埋め部分を正しく予測することはできないため,このような言語モデルには,学習によって何らかの形で猫に関する知識が保存されていると考えられる。言語モデルにおける知識については, Dai ら [1] や有山ら [2]によって,事前学習済み Transformer モデルの Feed-Forward 層(以下," $\mathrm{FF}$ 層”と呼ぶ)に知識をエンコードしていると考えられるニューロン,すなわち“知識ニューロン”が存在することが報告されている. こうした背景を踏まえ,我々はそのような知識ニューロンが事前学習中にどのように言語モデルに形成されていくかを調査することにした (図1). 学習過程における調査を行うため, MultiBert[3] の各チェックポイントにDai ら [1] によって提案された知識ニューロンを探す手法を適用した. その結果を学習経過に沿って分析することで,知識ニューロン 図1 知識ニューロンは学習によってどのように形成されていくのか? の形成過程を調査した。 その結果, 学習初期には多くの概念1)の出力に影響を与える状態のニューロンが,学習の経過に伴って特定の概念の出力のみに影響を与える状態に変化していくことで,特定の概念の知識に特化した知識ニューロンとして形成されていく可能性があることを確かめた。 ## 2 手法 ## 2.1 ニューロン 本論文におけるニューロンとは,Transformer[4]の encoder を構成する $\mathrm{FF}$ 層において, 第一線形層の出力を活性化関数にかけたものを指す。これは,Geva ら [5] によって FF 層が key-value メモリと同様の働きをすることが報告されており,そのため $\mathrm{FF}$ 層には概念についての知識が保存されている可能性が高いと考えたためである.ここで, $\mathrm{FF}$ 層の式は入力を $x$ ,第一・第二線形層の重み・バイアス項をそれぞれ $W_{1}, b_{1}, W_{2}, b_{2}$ で表し, 活性化関数に GELU[6] を用いると,次の式(1)の形で表される: $ \mathrm{FF}(x)=\left(\operatorname{GELU}\left(x W_{1}+b_{1}\right)\right) W_{2}+b_{2} $ 1)本論文において「概念」とは,名詞や固有名詞等で表されるエンティティや,動詞や形容詞等で表される動作や性質などを表す,あらゆる単語として定義する。 式(1)中の $\operatorname{GELU}\left(x W_{1}+b_{1}\right)$ ” の部分がニューロンに対応し,その値がニューロンの活性値となる。 ## 2.2 知識ニューロンを探すためのタスク 本節では,実験手法で使用するタスクについて説明する.知識ニューロンを探すためのタスクとして,穴埋め文の穴埋め部分を言語モデルに予測させるタスクを使用する。穴埋め文は,概念が穴埋め部分,すなわち [MASK] トークンとなるようにデータセット(3.1 節)から作成する。 また,今後の説明のために穴埋め文の呼び方を定義する.今,ある 1 つの概念 $C$ を考えているとする.このとき, $C$ が穴埋め部分に入る穴埋め文を,概念 $C$ の「正例文」と呼ぶ. 対して, $C$ が穴埋め部分に入らないものは「負例文」と呼ぶ.例えば,下記は概念 “cats”の正例文と負例文の例である: - 正例文: Kittens will grow and become [MASK]. - 負例文: Kittens will grow and [MASK] cats. ## 2.3 知識帰属法 本節では, Dai ら [1]によって提案された, 事前学習済み言語モデルから知識ニューロンを探す手法である知識帰属法について説明する (図 2参照). 以下では,ある 1 つの概念 $C$ を扱うことを考え,その概念 $C$ についての知識をエンコードしていると考えられる知識ニューロンを探す方法について述べる。 まず,言語モデル内に存在する各ニューロンのうち,“モデルが,概念 $C$ の正例文 $s$ に対して正しい答え $C$ を出力する確率 $\mathrm{P}_{s}\left(\hat{w}_{i}^{(l)}\right)$ ” に大きく影響を与えるものを探す.影響の大きさは帰属値 $\operatorname{Attr}\left(w_{i}^{(l)}\right)$ によって測るため,その計算方法を説明する。 帰属値 $\operatorname{Attr}\left(w_{i}^{(l)}\right)$ の計算に必要な上述の確率 $\mathrm{P}_{s}\left(\hat{w}_{i}^{(l)}\right)$ は, $w_{i}^{(l)}$ を $l$ 番目の $\mathrm{FF}$ 層の $i$ 番目のニュー の式(2)で与えられる: $ \mathrm{P}_{s}\left(\hat{w}_{i}^{(l)}\right)=p\left(C \mid w_{i}^{(l)}=\hat{w}_{i}^{(l)}\right) $ この確率について, Sundararajan ら [7] の "Integrated Gradients” という帰属法を用い, $\hat{w}_{i}^{(l)} 0$ から事前学習済み言語モデルにおける活性値 $\bar{w}_{i}^{(l)}$ まで変化させたときに,それに伴って変化する,確率 $\mathrm{P}_{s}\left(\hat{w}_{i}^{(l)}\right)$ に対するニューロン $w_{i}^{(l)}$ の勾配 $\frac{\partial \mathrm{P}_{s}\left(\hat{w}_{i}^{(l)}\right)}{\partial w_{i}^{(l)}}$ を積分するこ とで,帰属値 $\operatorname{Attr}\left(w_{i}^{(l)}\right)$ が計算される: $ \operatorname{Attr}\left(w_{i}^{(l)}\right)=\bar{w}_{i}^{(l)} \int_{\hat{w}_{i}^{(l)}=0}^{\bar{w}_{i}^{(l)}} \frac{\partial \mathrm{P}_{s}\left(\hat{w}_{i}^{(l)}\right)}{\partial w_{i}^{(l)}} d \hat{w}_{i}^{(l)} $ この值が大きいほど,正例文 $s$ に強く反応するニューロンであると判断する。この方法を用いてモデル内の全てのニューロンの $s$ に対する帰属値を計算し,その中から帰属値の閾値 $t$ を超えるニュー ロンのみを選ぶことで,正例文 $s$ に強く反応するニューロンを選出することができる。 しかし,このように 1 つの正例文 $s$ に反応するニューロンを選び出しても,それらは必ずしも概念 $C$ の知識ニューロンであるとは限らない。 なぜなら,式(3)の帰属値はニューロンが正例文 $s$ に反応する度合いを表す值のため, $s$ 内の他の単語や構文情報などに反応しているような「偽陽性の」ニュー ロンが選ばれているかもしれないからである2). そこで,先述した帰属値の閾値によるニューロンの選出を複数の正例文に適用する方法を採ることで,C の知識ニューロンを発見することができる: 1. 概念 $C$ の正例文を,構文や含まれる語彙が異なるようにして複数用意する 2. 各正例文について,モデル内の全てのニューロンの帰属値を計算する 3. 各正例文について, 閾値 $t$ を超える帰属値を持つニューロンのみを選出する 4. 全ての正例文間での共有率の閾値 $p$ を設定し,全ての正例文のうち $p \%$ 以上で選出されているニューロンのみを残す 最後のステップ 4. で残ったニューロンは,各正例文で共有されている要素,すなわち“概念 $C$ ”の知識ニューロンである. なお,ここで注意として,概念 $C$ の知識ニューロンとは $C$ の知識をエンコードしているニューロンのことを指すため,パラメータがランダム初期化のモデルや学習ステップ数が不十分なモデルに知識帰属法を適用して発見されるニューロンは,その学習の不十分さゆえに“知識ニューロン”とは呼べない。 そのため,以下では知識帰属法によって発見されるニューロンのことを,それが知識ニューロンである場合も含め,“特定の概念の予測に寄与するニュー ロン”という意味で“寄与ニューロン”と呼ぶ。 2)例えば,“Kittens will grow and become [MASK]." という穴埋め文に反応するニューロンがいくつか選出されたとしたとき,それらの中には単語 “grow” や“A and B”という構文情報に反応しているニューロンが含まれている可能性がある. 図 2 知識帰属法と活性値編集のイメージ. 知識帰属法では,モデルが穴埋め文の穴埋め部分を予測する際の,FF 層における各ニューロンの活性值を用いて帰属値を計算し,それらを元に知識ニューロンを探し出す. ## 3 実験 ## 3.1 設定 穴埋め文は,Generics KB[8] の中でも自然な文が提供されている GenericsKB-Best を用いて概念部分をマスクし,最終的に 4207 個の概念について作成した.このデータセットは自然かつ意味的に正しい文を大規模に提供しているだけでなく,その文のトピックである単語の情報も含んでいることから,その単語を概念として扱うことで簡単に大量の穴埋め文を作成できるため使用した.また,事前学習済み言語モデルには, MultiBert[3] の各チェックポイント(学習ステップ数 0 -2000k)を使用した. ${ }^{3}$ ) 2.3 節の知識帰属法で用いる, 各正例文における帰属値の閾値 $t$ は, 各正例文について得られた最も大きい帰属値の 0.2 倍とし, 全正例文間の共有率 $p$ は $50 \%$ に設定した。なお, 実験に使用したコードはすべて公開する ${ }^{4)}$. ## 3.2 学習による知識ニューロンの形成過程 本節では, 学習の経過による知識ニューロンの形成過程を調べるための実験手順について説明する。 知識ニューロンの形成過程を調査するためには, モデルの学習ステップ数の増加に伴う, 寄与ニュー ロンの “知識ニューロンらしさ” の変化を調べれば良い. 従って “知識ニューロンらしさ”についての, (i)モデル内で知識ニューロンを抑制した場合,正例文を正解する確率は減少すると考えられる (ii)一方で,同様の操作を行っても,負例文を正解する確率に変化はないと予想されるという前提のもと,次のような手順で実験を行う: 3)より詳細な実験設定については AppendixAを参照のこと。 4) www.github.com/tomokiariyama/ knowledge-neuron-formation 1. 1 つのチェックポイントに知識帰属法を適用し,各概念の寄与ニューロンを見つける 2. そのチェックポイントに正例文と負例文 ${ }^{5}$ を予測させ,それぞれ正解する確率を測定する 3. そのチェックポイントの寄与ニューロンの活性値を 0 に抑制した上で正例文と負例文を予測させ,正解する確率を測定する (図 2 参照) 4. 手順 2. と 3. で測定した正例文についての正解確率の相対変化率 6 ),および負例文についての正解確率の相対変化率を計算することで,先述の前提をどの程度実現しているかを観察する 5. 手順 1. から 4.を, MultiBert の各チェックポイントに対して行う なお,この一連の実験の内,手順 3. における寄与ニューロンの活性値操作を “2 倍に増幅” (図 2 参照) に変更した場合の実験も行う。この場合は,前提 (i) が “知識ニューロンを強化した場合,正例文を正解する確率は増加する” という内容に変わった上で,前提を実現している度合いを手順 4. で観察する。 ## 4 実験結果 3.2 節の実験により得られた結果の内, 寄与ニュー ロンの活性値を抑制した際の結果を図 3 に,増幅した際の結果を図 4 に示す. なお,プロットはその相対変化率を記録した概念の個数を表している. まず,活性値を抑制した際の結果である図3を分析する。正例文を予測させた際は,学習経過に関わらず,ある正解確率の相対変化率を記録する概念の個数に大きな変化は見られない。一方で,負例文を予測させた際は,学習初期には様々な相対変化率を記録する概念が存在しているが,学習ステップ $400 \mathrm{k}$ 5)負例文には一律で “[MASK] is the official language of the solomon islands”を用いた.これは,実験で使用した穴埋め文の中に“english”の正例文が存在しなかったことによる. 6) 相対変化率の計算式は, Appendix Bを参照のこと. 図 3 各概念の寄与ニューロンの活性値を 0 に抑制した際の,穴埋めを正解する確率の相対変化率を,モデルの学習ステップ数ごとに示したもの.プロットは,その相対変化率を記録した概念の個数を表している. 図 4 各概念の寄与ニューロンの活性値を 2 倍に増幅した際の,穴埋めを正解する確率の相対変化率を,モデルの学習ステップ数ごとに示したもの. グラフの視認性を確保するため,+100\%を超える相対変化率の結果は含めていない. を超えたあたりからほぼ全ての概念についてその変化率が $0 \%$ 付近に集中していることが分かる. この結果は知識ニューロンの形成過程について,学習を通じて寄与ニューロンに特定の概念のみの知識が蓄積していくような過程ではなく,学習初期には寄与ニューロンが特定の概念以外も含む多くの概念の出力確率に影響を及ぼすような状態にあるが,学習が進むにつれて次第に特定の概念の出力確率以外には影響を及ぼさなくなっていくことで,特定の概念に特化した知識ニューロンを形成する,という過程を経ていることを示す可能性がある.ここで, “可能性がある” と述べたのは,この結果を説明し得る別の説が存在するためである。それは,学習初期のモデルは滑らかでないので,少数のニューロンの活性値が変化するだけでも予測に大きな影響が出ると考えられ,そのため寄与ニューロンではない,同数の他のニューロンの抑制によっても図 3 と同様の結果が得られる可能性がある,という説である.この検証については,今後の研究課題としたい. ここまで図 3 の分析について述べたが,活性値を増幅した際の結果である図 4 でも,正例・負例文に対する正解確率の相対変化率について,上述の可能性を示唆する結果が観測された。 ## 5 おわりに 本研究では,事前学習済み言語モデルに存在する知識ニューロンが,言語モデルの事前学習においてどのように形成されていくのか,その過程を調査した. その結果,知識ニューロンは学習初期から特定の概念のみの知識を蓄えていくのではなく,学習初期には数多くの概念の出力確率に影響を与える状態のものが,学習の進行に伴って特定の概念以外の出力確率に影響を与えなくなっていくことで,特定の概念に特化した知識ニューロンとして形成される可能性が示された.しかし,現段階では可能性に留まっており,本当にそのような形成過程を経ているかを知るためには,より詳細な実験が必要である. さらに,ある概念についての寄与ニューロンが,学習ステップが増加しても終始同一のものである傾向が見られるかという分析も, 知識ニューロンの形成過程を解明するために必須であると考えている. また,本研究では BERT[9] モデルを研究対象としたが,その他の言語モデル,例えばより大規模なパラメータ数を持つ GPT-2[10] や T5[11] といったモデルでどのような結果が得られるかについては,興味深い研究課題として残っている. ## 謝辞 本研究は JST CREST JPMJCR20D2,および JSPS 科研費 $21 K 17814$ の助成を受けた。 ## 参考文献 [1] Damai Dai, Li Dong, Yaru Hao, Zhifang Sui, and Furu Wei. Knowledge neurons in pretrained transformers. arXiv preprint arXiv:2104.08696, 2021. [2] 有山知希, Benjamin Heinzerling, 乾健太郎. Transformer モデルのニューロンには局所的に概念についての知識がエンコードされている. 言語処理学会第 28 回年次大会発表論文集, pp. 599-603, 2022. [3] Thibault Sellam, Steve Yadlowsky, Jason Wei, Naomi Saphra, Alexander D'Amour, Tal Linzen, Jasmijn Bastings, Iulia Turc, Jacob Eisenstein, Dipanjan Das, Ian Tenney, and Ellie Pavlick. The multiberts: Bert reproductions for robustness analysis. arXiv preprint arXiv:2106.16163, 2021. [4] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Proceedings of the 31st Conference on Neural Information Processing Systems (NIPS), 2017. [5] Mor Geva, Roei Schuster, Jonathan Berant, and Omer Levy. Transformer feed-forward layers are key-value memories. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 5484-5495. [6] Dan Hendrycks and Kevin Gimpel. Gaussian error linear units (gelus). arXiv preprint arXiv:1606.08415, 2016. [7] Mukund Sundararajan, Ankur Taly, and Qiqi Yan. Axiomatic attribution for deep networks. In Proceedings of the 34th International Conference on Machine Learning, Vol. 70, pp. 3319-3328, 2017. [8] Sumithra Bhakthavatsalam, Chloe Anastasiades, Peter Clark. Genericskb: A knowledge base of generic statements. arXiv preprint arXiv:2005.00660, 2020. [9] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: pre-training of deep bidirectional transformers for language understanding. CoRR, Vol. abs/1810.04805, , 2018. [10] Alec Radford, Jeff Wu, Rewon Child, David Luan, Dario Amodei, and Ilya Sutskever. Language models are unsupervised multitask learners. 2019. [11] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J. Liu. Exploring the limits of transfer learning with a unified text-to-text transformer. Journal of Machine Learning Research, Vol. 21, No. 140, pp. 1-67, 2020 . ## A 実験の詳細設定 実験に使用した概念は,2.3 節で述べた “全ての正例文のうち $50 \%$ 以上で選出されているニュー ロンのみを残す”というステップを踏めるよう, GenericsKB-Best データセットから正例文が 4 つ以上作成できたものに限定した。 また,モデルとして使用した MultiBert は, 公開されているシードのうち “seed_0” の各チェックポイントを使用した。 ## B 相対変化率の計算式 3.2 節で計算する正解確率の相対変化率は, 寄与ニューロンの活性値を抑制する場合,正例・負例文共通で次の式(4)によって計算される: (抑制後の正解確率 - 抑制前の正解確率) $\times 100$抑制前の正解確率 寄与ニューロンの活性値を増幅する場合は,式(4)中の“抑制”を“増幅”に読み変えて計算する。
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B5-5.pdf
# オンライン会議の雾囲気予測における 困難な事例のサンプリングによる精度向上 新美翔太朗 1 後藤啓介 ${ }^{1}$ 西田典起 ${ }^{2}$ 松本裕治 ${ }^{2}$ 廣島雅人 ${ }^{1}$ 1 京セラ株式会社 2 理化学研究所革新知能統合研究センター \{shotaro.niimi.gt, keisuke.goto.fj, masahito.hiroshima.zs\}@kyocera.jp \{noriki.nishida, yuji.matsumoto\}@riken.jp ## 概要 オンライン会議は参加者の内容の理解度によらず会議が進行してしまい,意思疎通が難しくなることがこれまでの研究で示唆されている. 本研究ではオンライン会議の雾囲気をシステムに予測させることで非対面下においても雰囲気を共有することを目指し,特に検出が難しい険悪な事例の分類精度の向上を目的とする.具体的には,まず険悪な雾囲気の事例 (正例) の近傍にある良好な雾囲気の事例 (負例) を候補集合として収集し,そこから正例と同数になるまで,正例との距離に基づいて負例をサンプリングする手法 (HES_s) と,特徴が偏ることを回避するためにクラスタリングに基づいて負例をサンプリングする手法 (HES_v) を提案する。評価データを用いた実験の結果から,提案手法が Focal Loss やランダムなアンダーサンプリングよりも有効であることを確認した。 ## 1 はじめに 近年,ビデオ通話アプリの技術的進歩と社会情勢の変化により,デバイスを用いてオンライン会議を行う機会が増加している. オンライン会議はオフライン会議と比較して時間や場所等の制約が少ないため,参加・開催するハードルは非常に低い. しかし一方で,オンライン会議はオフライン会議とくらべて一人あたりの発言量が減り,意思疎通度も低くなることが宮内ら [1] によって確認されている. 宮内らはその原因として参加者が話すタイミングを伺う必要があることや, 理解度によらず会議が進行してしまう点を挙げている.著者らは,オンライン会議における理解の促進を図り発言を活発化させる研究について取り組みを行っている $[2,3]$. 中 でも雰囲気を共有することは,オンライン会議における重要な課題である. 本稿では,オンライン会議の雾囲気を「良好」と 「険悪」の2種類に分類することを考える。しかし,一般的にほとんどの会議は良好な雾囲気で進行されるため,険悪な雰囲気の事例を大量に収集することは難しい.特定のクラスのデータ数が極端に少ない,いわゆるラベル不均衡下では,マイナーラベルの予測精度が低下することが知られている。 そこで本研究では,険悪な雾囲気 (マイナーラベル) の検出精度を向上させるために,良好な雰囲気 (メジャーラベル) に対する 2 つのアンダーサンプリング手法を提案する.提案手法では,雾囲気予測が特に困難と考えられる事例 (hard example) をサンプリングの対象とする.具体的には,険悪な雾囲気の事例 (正例) の近傍にある良好な雾囲気の事例 (負例) は hard example であると考える。そして,各正例に対して発話系列上の距離が最も近い負例を一つずつサンプリングする手法 (HES_s) を提案する。また, サンプリングされたデータ集合の特徴が偏ることを回避するために負例集合をクラスタリングし,各クラスタの中心に最も近い負例を 1 つずつサンプリングする手法 (HES_v) を提案する. 本研究では UUDB コーパス [4] に収録されている対話データに対して雾囲気ラベルを付与し, Multilogue-Net [5] をべースモデルとして用いて実験を行った. ランダムサンプリングとの比較を行ったところ,HES_s は Micro F1 において 0.01 ポイント上回り,HES_v は同じく Micro F1 において 0.001 ポイント上回った. これらの結果は,オンライン会議の雾囲気分類におけるラベル不均衡問題に対して,分類困難な事例を積極的にデータサンプリングするアプローチが有効であり,また発話の並びの近さに基 づく困難性の推定とクラスタリングによる偏りの是正が有効であることを示している. ## 2 関連研究 分類モデルの訓練において,データセット中のラベル数の偏りから生じる問題はラベル不均衡問題と呼ばれ,自然言語処理を含む様々な機械学習タスクで多くの取り組みが行われてきた $[6,7,8,9,10,11]$. これらのうち,損失関数を工夫することでラベル不均衡性の解決を試みた代表的な手法として Focal Loss が提案されている [12]. Focal Loss ではモデルの予測確率の大きさをデータの難易度と見なし,その大きさに基づいて損失の重みを決定する. 一方,データ集合の加工によって解決しょうとする手法はデータサンプリングと呼ばれる. 特にマイナークラスのデータ数に合わせてメジャークラスのデータを抽出する手法はアンダーサンプリングと呼ばれる.メジャークラスのデータの抽出手法として, 山口ら [13] は Hard Example Sampling (HES) を提案している. HES は,学習が困難な事例 (hard example) は学習が容易な事例よりも重要性が高いと考えて,メジャークラスのうち hard example を積極的に抽出することを目的とする. 本研究では,オンライン会議のマルチモーダル雾囲気予測におけるラベル不均衡問題を改善するために,HES を拡張する。 山口らの HES では hard example からランダムにメジャークラスのデータを抽出していたが,本研究ではこの手法を特徴量の偏りを避けて抽出を行うように拡張する。具体的には,発話系列上の距離を考慮して抽出を行う拡張, クラスタリングの結果に基づいて均等に事例をサンプリングする拡張の 2 つを提案する. ## 3 タスクの定義 本研究ではオンライン会議を対象に,その発話ごとに会議の雾囲気が険悪であるか良好であるかを分類する。すなわち,会議 $x$ は $n$ 個の発話の系列 $x=x_{1}, \cdots, x_{n}$ として表され,さらに各発話 $x_{i}$ はテキスト $t_{i}$ と音声 $a_{i}$ から構成されるものとする: $x_{i}=\left(t_{i}, a_{i}\right)$. 各発話 $x_{i}$ に対して,その時点までの発話系列 $x_{i-w}, \ldots, x_{i}$ から,その時点の会議の雾囲気 $y_{i} \in\{$ 険悪, 良好 $\}$ を予測する。本稿では $d_{i}=\left(\left[x_{i-w}, \cdots, x_{i}\right], y_{i}\right)$ を 1 つの「事例」として扱う.ウィンドウ幅 $w$ は固定であり,本研究の実験では $w=10$ とした. 図 1 提案手法の概要図. 提案手法では各正例に対して発話区間が部分重複する負例 (Hard Negative) をサンプリング候補として収集する。次に,HES_sでは候補集合から各正例に対して系列上の距離が最も近い負例を 1 つずつ抽出する. HES_vでは候補集合をクラスタリングし,各クラスタの中心に最も近い負例を 1 つずつ抽出する。 ## 4 提案手法 1 章で述べた通り,一般的に会議は良好な雾囲気で行われる時間が長く,険悪な雾囲気の事例を大量に収集することは難しいため,ラベル不均衡問題が顕在化する.そこで本研究では,険悪な雾囲気を正例,良好な雰囲気を負例として,正例と同数の負例をサンプリングすることを考える.特に,負例の中でも雾囲気分類が難しいと予想される事例を重要視し,積極的にサンプリングすることでラベル不均衡の改善を試みる. 具体的には,HES [13] を拡張し,正例の発話区間とのオーバーラップの有無に基づいて負例の難しさを決定し,負例サンプリングの候補集合を構築する (4.1 節). そして,その候補集合から正例と同数までサンプリングを行う.候補集合からのサンプリングの方法として,正例との発話系列上の距離の近さに基づいてサンプリングする HES_s と,サンプリング結果の特徴の偏りを回避するために候補集合をクラスタリングし,各クラスタからサンプリングする HES_vを提案する (4.2 節). HES_s, HES_v のサンプリング過程については図 1 に示す. ## 4.1 負例サンプリングの候補集合の構築 まず,負例サンプリングの対象となる候補を収集する. 元になるデータセットの正例集合,負例集合をそれぞれ $P, N(|P| \ll|N|)$ とする. 各正例 $d_{i} \in P$ に対して,その近傍 (ウィンドウ $r$ ) 内にありかつ負例である事例 $N_{i}^{\prime}=\left.\{d_{j} \mid j \in[i-r, i+r] \wedge d_{j} \in N\right.\}$ を見つけ,すべての正例について統合したものを負例サンプリングの候補集合とする: $\tilde{N}=\bigcup_{i=1}^{|P|} N_{i}^{\prime}$. ## 4.2 HES_S と HES_V 負例サンプリングの候補集合 $\tilde{N}$ が構築できたら,次はそこから正例と同数になるまでデータをサンプリングする. 本研究では,各正例 $d_{i} \in P$ について,発話系列上の距離 $|i-j|$ が最も近い負例候補 $d_{j} \in \tilde{N}$ をサンプリングする.以上のサンプリング方法を,本稿では文 (sentence) の並びの距離に基づいた HES として, HES_s と呼称する。 HES_s は発話系列上の距離のみに基づいてサンプリングするため,サンプリング後の最終的な負例集合の特徵が偏る可能性がある。 そこで,本研究では候補集合 $\tilde{N}$ を負例候補 $d_{i} \in \tilde{N}$ の特徴べクトルに基づいてクラスタリングし,各クラスタから均等に負例候補をサンプリングする方法を提案する。具体的には,候補集合 $\tilde{N}$ を K-means 法によってクラスタ数 $K=|P|$ でクラスタリングし,各クラスタの中心に最も近い負例候補を選択する. クラスタリングと分類タスクで用いる特徵べクトルが異なると,折角クラスタリングを通しても,サンプリング後に分類タスクで用いられる負例集合の特徴が偏ってしまう可能性がある.そこで,本研究では後述するべースモデルをデータサンプリングを行わずに一度訓練し,各負例候補をそのモデルによってエンコードし,中間層の値をその特徴べクトルとした.以上のサンプリング方法を,本稿では各負例候補の特徴ベクトルに基づいた HES として, HES_v と呼称する. ## 5 実験 ## 5.1 データ オンライン会議の雾囲気の変化についてアノテー ションされたデータセットは存在しない,そこで,本研究では対人関係や態度に関して複数の項目によりアノテーションされたデータセットである UUDB [4] を利用し,新たに雾囲気のラベルを付与した. UUDB は,大学生の友人同士がバラバラにされた 4 コマ漫画の 2 コマずつを与えられ,自身が持つコマを相手に見せず会話のみで,協同して 4 コマ漫画を復元する過程を収録したデータセットである. UUDB には合計で 27 個の対話が収録されており,各発話に対して書き起こしテキストと音声情報が収録されている。また,各対話は平均 179.26 個の発話から構成されており, 合計で 4,840 個の発話が収録されている. 各発話に対しては 6 の観点につ いてそれぞれ 3 人の評価者による $0 6$ の 7 段階スコアの平均 (e.g., 4.7) が付与されており, 本研究ではその中で「快・不快」の観点のラベルを利用した。 UUDB では各発話 $x_{i}$ に対して独立にラベルが付与されているが,雰囲気は文脈にも依存するため,発話 $x_{i}$ のみを見てその時点での雾囲気ラベル $y_{i}$ を決定することは難しい,そこで本研究では,入力の発話系列 $\left[x_{i-w}, \cdots, x_{i}\right]$ に基づいて雾囲気ラベル $y_{i}$ を決定した.具体的には,UUDB に既にラベル付けされている「快・不快」のスコアを各入力系列ごとに平均化し, それが 3.5 未満ならば雾囲気が険悪, 3.5 以上ならば雾囲気が良好とした. 結果として,正例の数 $|P|$ が 324 件, 負例の数 $|N|$ が 4,516 件, 負例サンプリングの候補数 $|\tilde{N}|$ が 2,401 件であった. ## 5.2 評価方法 UUDB では 27 個の各対話に対して話者に関するメタ情報が付与されている,そこで,同一話者による対話が訓練セットとテストセットで重複して現れないようにUUDBを7つのサブセットに分割し,各サブセットをテストセット,残りを訓練セットとして 7 分割交差検証を行った. 評価指標には Micro 評価を採用し,各サブセットに含まれる事例への予測から Precision と Recall, F1を求めた. ## 5.3 ベースライン 提案手法の有効性を評価するために,下記の $4 \supset$ のベースラインと提案手法との比較を行った. ALL data with Focal loss (以下 ALL w/ FL) デー タサンプリングを行わず,Focal Loss [12]を用いて困難な事例の損失に対してより大きな重みを割り当てるようにした。 Over Sampling (以下 OS) 負例と同数になるように正例をランダムにコピーする方法でオーバーサンプリング [10]を行った. Under Sampling (以下 US) 負例候補集合 $\tilde{N} を$ 考慮せず,正例と同数の負例をランダムにアンダーサンプリングを行った. Random HES (以下 HES_r) 負例候補集合 $\tilde{N}$ を考慮して,正例と同数の負例をランダムにアンダーサンプリングを行った. ## 5.4 ベースモデル 提案手法の有効性を評価するためのベースモデルとして, Shenoy ら [5] を参考に,ニューラルネッ 表 1 UUDB における 7 分割交差検証の結果. トワークモデルを構築した,具体的には,まず各発話 $x_{i}$ を独立に特徴べクトル $f\left(x_{i}\right)$ にエンコー ドし, 次に特徴べクトルの系列 $f\left(x_{i-w}\right), \cdots, f\left(x_{i}\right)$ をGRU に入力し,各発話の隠れ状態べクトルを計算した。次に,それらの隠れ状態べクトルに対して Multi-Head Attention [14] を適用し,入力系列全体の特徵べクトルを求めた. 最後にこの特徴べクトルを線形層に入力し,発話系列全体に対する雾囲気ラベルを予測した. UUDB の各発話 $x_{i}$ はテキスト $t_{i}$ と音声 $a_{i}$ から構成されており, 本実験では $f\left(x_{i}\right)=\left[f_{\text {text }}\left(t_{i}\right) ; f_{\text {audio }}\left(a_{i}\right)\right]$ とした. $f_{\text {text }}\left(t_{i}\right)$ は BERT [15] の事前学習済モデルにテキスト $t_{i}$ を入力したときの [CLS] トークンに対応する最終埋め込みとした. $f_{\text {audio }}\left(a_{i}\right)$ は音声 $a_{i}$ のメルスペクトログラ么画像を事前学習済み ResNet [16] に入力したときの最終隠れ層とした。 ## 5.5 結果と考察 実験の結果を表 1 に示す. ALL w/ FLとその他の手法を比べると, ALL w/ FLの Precision は最も高いが,Recall は最も低い。これは,ALLw/FLが正例の出力に消極的過ぎであり, Focal Loss がラべル不均衡の影響を改善できていないことを示唆している。また,アンダーサンプリング (US, HES_r, HES_s, HES_v) のF 値はオーバーサンプリング (OS) よりも 0.041 ポイント以上高く, Recall も 0.166 ポイント以上高い. 以上から,ラベル不均衡問題に対して Focal Loss やオーバーサンプリングよりもアンダーサンプリングのほうが効果的であることが示唆される. US と HES_rを比べると,F 值は US がわずかに上回っている。これは,発話系列スパンが正例と重複する負例を hard example としてサンプリングするだけでは必ずしも精度向上につながらないことを示唆している。一方で,US と HES_s,HES_vを比べる と, HES_s が 0.01 ポイント, HES_v が 0.001 ポイン卜それぞれ $\mathrm{F}$ 値において上回っている。以上から,負例候補集合 $\tilde{N}$ に対象を絞り,さらに効果的な事例にしぼってサンプリングすることが,他のランダムなアンダーサンプリング手法 (US, HES r) と比較して効果的であることを示唆している.具体的には,各正例について最も近い負例を選択する HES_s と,特徴空間が偏ることを回避するためにクラスタリングしてからサンプリングする HES_v の有効性が確認できた. 最後に HES_s と HES_vを比較すると,Precision, Recall, F 値すべてにおいて HES_s が上回っている. HES_s と HES_v の違いは負例抽出の際に注目した観点である.HES_v ではクラスタリングされた負例候補集合から,各クラスタの中心に最も近い負例を 1 つずつ抽出する. しかし,特徴空間において多様な負例集合が,常に正例集合に対して効果的であるとは限らない。このことが HES_vが HES_sを下回った要因の 1 つだと考えられる。また,HES_vがクラスタリングを行う際に特徴抽出で用いたモデルである ALL w/ FL は今回の結果において最も F 值が低く,クラスタリングが失敗している可能性も考えられる。大規模な事前学習済みモデルによって生成された特徴ベクトルを用いて作成されたクラスターからサンプリングするデータを決定することで,HES_vの精度の向上が期待出来る. ## 6 おわりに 本稿では,オンライン会議の雾囲気分類におけるラベル不均衡問題を改善するために,2つのアンダーサンプリング手法を提案した,具体的には,まず雾囲気の予測が特に困難である可能性が高い,険悪な雾囲気の事例 (正例) の近傍にある良好な雾囲気の事例 (負例) を候補集合として収集した. さらにそこから正例と同数になるように,各正例に対して最も系列上の距離が近い負例を 1 つずつ抽出する HES_s と,負例候補集合をクラスタリングして,各クラスタの中心に最も近い負例を 1 つずつ抽出する HES_vを提案した. UUDBを用いた実験の結果から,提案手法が Focal Loss やランダムなアンダーサンプリング(US),候補集合からのランダムなサンプリング (HES_r)よりも有効であることを確認した. 今後は正例集合に対する最適な負例集合の構築方法についての検討や,抽出する負例の数を徐々に増やした場合の実験について取り組んでいく. ## 参考文献 [1] 宮内佑実, 遠藤正之. オンライン会議とオフライン会議の意思疎通の比較. 経営情報学会, pp. 144 - 147, 2020. [2] 後藤啓介, 新美翔太朗, 荒川智也, 西田典紀, 松本裕治, 廣島雅人. オンライン会議における議論の要点と対話の雾囲気の認識技術の開発. 情報処理学会研究報告, Vol. 2022-NL-253, No. 15, 2022. [3] 新美翔太朗, 後藤啓介, 荒川智也, 西田典紀, 松本裕治, 廣島雅人. オンライン会議での自動要約のためのマルチモーダル情報を考慮した重要発話抽出に関する検討. 情報処理学会研究報告, Vol. 2022-NL-253, No. 16, 2022. [4] 森大毅, 相澤宏, 粕谷英樹. 対話音声のパラ言語情報ラベリングの安定性. 日本音響学会誌, Vol. 61, No. 12, pp. 609-697, 2005. [5] Aman Shenoy and Ashish Sardana. Multilogue-net: A context aware rnn for multi-modal emotion detection and sentiment analysis in conversation. In Annual Meeting of the Association for Computational Linguistics (ACL), pp. 19-28, 2020. [6] Xiaoya Li, Xiaofei Sun, Yuxian Meng, Junjun Liang, Fei Wu, and Jiwei Li. Dice loss for dataimbalanced nlp tasks. In Annual Meeting of the Association for Computational Linguistics (ACL), pp. 1-13, 2020. [7] PiCkLe at SemEval-2022 Task 4: Boosting Pretrained Language Models with Task Specific Metadata and Cost Sensitive Learning. Manan suri. In Semantic Evaluation, pp. 464-472, 2022. [8] Harish Tayyar Madabushi, Elena Kochkina, and Michael Castelle. Cost-sensitive bert for generalisable sentence classification on imbalanced data. In Natural Language Processing for Internet Freedom: Censorship, Disinformation, and Propaganda, pp. 125-134, 2019. [9] Jinfen Li and Lu Xiao. syrapropa at semeval-2020 task 11: Bert-based models design for propagandistic technique and span detection. In Semantic Evaluation, pp. 1808-1816, 2020. [10] Nathalie Japkowicz. The class imbalance problem: Significance and strategies. In International Conference on Artificial Intelligence (IC-AI), pp. 111-117, 2000. [11] Nitesh V. Chawla, Kevin W. Bowyer, Lawrence O. Hall, and W. Philip Kegelmeyer. Smote: Synthetic minority over-sampling technique. Vol. 16, pp.321357, 2002. [12] Tsung-Yi Lin, Priya Goyal, Ross Girshick, Kaiming $\mathrm{He}$, and Piotr Dollar. Focal loss for dense object detection. In International Conference on Computer Vision (ICCV), pp. 2980-2988, 2017. [13] 山口泰弘, 進藤裕之, 渡辺太郎. ラベルの不均衡を考慮した end-to-end 情報抽出モデルの学習.言語処理学会第 27 回年次大会, pp. 400-404, 2021. [14] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in Neural Information Processing Systems, pp. 6000-6010, 2017. [15] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. In The North American Chapter of the Association for Computational Linguistics (NAACL), pp. 4171—-4186, 2019. [16] Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian Sun. Deep residual learning for image recognition. In Computer Vision and Pattern Recognition (CVPR), pp. 770-778, 2016.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B6-1.pdf
# ラベル内容のエンコードとラベル間の制約に基づく 補助コーパスを用いた固有表現抽出 大井拓 三輪誠 佐々木裕 豊田工業大学 \{sd19013, makoto-miwa, yutaka.sasaki\}@toyota-ti.ac.jp ## 概要 自然言語処理分野における教師あり深層学習では,高い性能を達成するためには大量のラベル付きデータを含むコーパスが必要である.ラベル付きデータを増やす方法として,補助コーパスとしての既存のラベル付きコーパスの利用が考えられるが, コーパスごとにアノテーションの基準が異なるため, 単純に補助コーパスを追加して学習しても性能が向上するとは限らない。本研究では,固有表現抽出を対象に,コーパス情報や説明文を含むラベルの情報を埋め込み表現にエンコードし,異なるコーパスのラベル間の違いを考慮しながら,補助コーパスを対象コーパスに追加して学習を行う新たなスパンベースのモデルを提案する. 生物医学分野の 2 つの固有表現抽出コーパスについて,BC5CDR を対象コーパス,NCBIを補助コーパスとして,本提案手法を評価した結果,補助コーパスにより対象コーパスでの性能を向上できることがわかった. ## 1 はじめに 文章の内容を捉えるにはその話題の中心となる固有表現の把握が重要であり,固有表現抽出 (Named Entity Recognition; NER) は重要な基礎タスクとして古くから取り組まれている. 近年,自然言語処理の分野では,正解がラベル付けされた訓練データからなるラベル付きコーパスを用いてモデルを学習する教師あり深層学習を用いた手法 $[1,2]$ が主流となっている. 教師あり深層学習においては,大量の訓練データが必要であるが,その人手でのラベル付けには高いコストがかかる. 訓練データを増やす方法として,補助コーパスとして既存のラベル付けされたコーパスを利用することが考えられる。しかし,NERのコーパスはラベルの種類の違い,アノテーションガイドラインに 図 1 BC5CDR と NCBI の両方に含まれる事例でラベル付けに違いがある例 おけるラベル付け基準の違いによるラベルが付いている用語の違い,というコーパスごとのラベル付けの違いがあるため,そのまま同様のデータとして扱うことが難しい。例えば,生物医学分野のコーパスである BC5CDR (BioCreative V CDR task corpus) [3] と NCBI (NCBI Disease corpus) [4] における病名に対するアノテーションの違いを図 1 に示した.この 2 つのコーパスはともに“pain”がテキスト上に現れており,BC5CDRでは病名としてラベル付けされているが,NCBI ではラベル付けされていない。これは一般的な用語に対してはラベル付けを行わない NCBI に対して,BC5CDR では一般的な用語の中でも “pain”や“cancer”などにはラベル付けを行うと基準を定めているためである. 本研究では,複数コーパスにおけるラベル付けの違いによる影響の緩和により,対象コーパスにそのコーパス以外のコーパス(補助コーパス)を追加して学習することで,NER モデルの性能向上を目指す.そのためにコーパス情報を与えたラベル表現による新たなスパンベースの固有表現抽出モデルを提案する.実験では,対象コーパスに補助コーパスを追加した場合の性能の変化を評価し,提案手法の有効性を検証する. 本研究の貢献は次の通りである. ・補助コーパスを対象コーパスに追加して学習を行うスパンベースの固有表現抽出手法の提案 ・複数コーパスのラベルを区別するラベルの内容を表すためのラベル表現の有効性の確認 図 2 提案モデルの全体像 ・複数コーパスのラベル表現に意味的な近さにより制約をかけることの有効性の確認 ## 2 関連研究 ## 2.1 スパン表現による固有表現抽出 文中の一定範囲の領域であるスパンを対象としたスパン表現を用いた NER が近年注目を浴びている [2, 5, 6]. Zhong ら [2]のモデルでは, 文のエンコードの部分で BERT (Bidirectional Encoder Representations from Transformers) [1] における注意機構による文脈を含んだ表現を用いて,対象スパンの先頭,末尾の単語の埋め込み,長さの埋め込みを連結し,スパンを表現している。このスパンの表現を全結合層に入力し, 分類ラベルの次元数に落とし各次元をラベルに割り当てることで分類を行う. Zhong らは単純なモデルでありながら, end-to-end で NER と関係抽出を解くタスクで最高性能を示し,NERでも高い性能を示すスパン表現によるモデルを提案した。 ## 2.2 補助コーパスとラベル表現を用いた 固有表現抽出 分類の対象となるラベル自体の意味内容も分類を行う上で重要であるという考えから, Ma ら [7] は, トークンベースの固有表現について,BERTによって埋め込み表現ベクトルへ変換した分類ラベルを用いて固有表現抽出を行う手法を提案した. 具体的には,それぞれのトークンの BERTによる埋め込み表現ベクトルと分類の対象となるすべてのラベル表現のベクトルで内積を計算し,そのトークンを値の高いラベルに分類する.この手法によって,似たラべルを扱っている補助コーパスで BERTをファインチューニングすることで対象コーパスの訓練データを各ラベルの事例数を $1 , 5 , 20 , 50$ 件に制限した条件で高い性能を実現した. 一方で,コーパスごとのラベル付けの違いは考慮しておらず,目的とするコーパスの訓練データの事例数を制限しない場合,性能の向上は見られなかった. ## 3 提案手法 本研究では,補助コーパスを用いた異なるコーパスのラベルとその意味関係を考慮したスパン表現による固有表現抽出モデルを提案する。提案モデルの全体像を図 2 に示す. 2.2 節の Ma ら [7] とは異なり,スパン表現のモデルを用いることでトークンレベルではなく,固有表現レベルでのラベルの表現を利用する。まず,異なるコーパスのラベルを区別するために,コーパス名の情報やラベルの説明文をラベルに付加した上で,BERTを用いてラベルを埋め込み表現ベクトルヘエンコードする。また,学習中にラベルの表現を調整する制約を加えることで, コーパス間の近いラベルと異なるラベルを考慮したラベルの表現を目指す。 ## 3.1 ラベル表現によるスパン分類モデル 2.1 節の Zhong らのモデルと同様に予測対象となる文を事前学習済みの BERTによってエンコードし,その表現から単語を組み合わせたスパンの表現を作成する. BERT の出力の表現ベクトルをスパンの先頭と末尾で結合し,そこにスパンの長さの埋め込み表現を結合したものを全結合ニューラルネットワークによって 768 次元にしたものをスパンの表現とする. $x_{1}$ から $x_{n}$ のスパンの表現を以下に示す. $ \boldsymbol{h}_{\text {span }}=\operatorname{Linear}\left(\operatorname{Concat}\left(\boldsymbol{x}_{1}, \boldsymbol{x}_{n}, \Phi(n)\right)\right) $ ここで,Linear(.) はスパンの次元から 768 次元にする全結合層,Concat( $(\cdot)$ はべクトルの結合, $\Phi(n)$ はスパンの長さ $n$ に対する埋め込み表現を表す. コーパスの違いやラベルの意味内容を含んだ分類を行うためにラベルに対してもエンコードを行う.文のエンコードと同様に事前学習済みの BERT によってラベル表現を得る ${ }^{1)}$. 具体的には,複数のコーパスとそのそれぞれの分類ラベルの名前を “[CLS] This is the <ラベル名> of <コーパス名 $>$ [SEP] ラベル説明文 [SEP]" のように入力することでラベルにコーパスの情報を加える.ラベル表現によって分類を行うため,負例についても,それに対応する “others” ラベルの表現を作る.ラベル表現には入力のくラベル名>のトークンに対応する BERT の出力を利用する. 作成したスパンの表現とラベル表現によってスパンの分類を行う.スパンの表現とラベル表現は同じ次元数のベクトルであるため,スパンの表現と各ラベル表現のコサイン類似度を計算し,そのスパンの各ラベルに対するスコアとし,スコアが最も高いラベルに分類する. さらに,正解ラベル $y$ について, NER の損失 $L_{C E}$ を次のように計算する. $ \begin{aligned} & \hat{y}=\operatorname{Softmax}\left(\alpha \cos \left(\boldsymbol{h}_{\text {span }}, \boldsymbol{h}_{\text {label }}\right)\right) \\ & \cos \left(\boldsymbol{h}_{\text {span }}, \boldsymbol{h}_{\text {label }}\right)=\frac{\boldsymbol{h}_{\text {span }} \cdot \boldsymbol{h}_{\text {label }}}{\left.\|\boldsymbol{h}_{\text {span }}\right.\|\left.\|\boldsymbol{h}_{\text {label }}\right.\|} \\ & L_{C E}=-\sum_{\boldsymbol{h}_{\text {span }} \in S} \sum_{i} y_{i} \log \hat{y}_{i} \end{aligned} $ ここで, $\alpha$ は学習を進めるためのハイパーパラメー タである. ## 3.2 ラベル表現に対する制約を考慮した学習 学習では,NERの分類の損失に,ラベル間のコサイン類似度に対する制約としてラベル間の関係を表現した損失を加えて学習を行う。 $ L=L_{C E}+L_{\text {label }} $ ここで, $L_{\text {label }}$ は意味的に近いラベル表現が近づき,遠いラベル表現が遠くなるように以下のように定義する. $ \begin{aligned} \boldsymbol{L}_{\text {label }}= & \sum_{\mathbb{H}_{\text {near }}} \max \left.\{0, \beta-\cos \left(\boldsymbol{h}_{\text {label }}, \boldsymbol{h}_{\text {label }}^{\prime}\right)\right.\} \\ & +\sum_{\mathbb{H}_{\text {far }}} \max \left.\{0, \cos \left(\boldsymbol{h}_{\text {label }}, \boldsymbol{h}_{\text {label }}^{\prime}\right)-\beta\right.\} \end{aligned} $ $\beta$ は,ハイパーパラメータであり,ラベル表現間のコサイン類似度の閾値を表す。また, $\left(\boldsymbol{h}_{\text {label }}, \boldsymbol{h}_{\text {label }}^{\prime}\right) \in \mathbb{H}_{\text {near }}$ は近づけるラベル表現の組 1)2つの BERT はパラメータは共有しない.表 1 コーパスのラベルごとの事例数 表 2 ラベル表現間のユークリッド距離.括弧内はコーパス,赤字は表現を近づける組み合わせ $\mathbb{H}_{\text {near }}$ を,黒字は表現を遠ざける組み合わせ $\mathbb{H}_{\text {far }}$ を表す. $-L_{\text {label }}$ は 3.2 節のラベル表現による損失を利用しないモデル.Dis は病名, Chem は薬物,O は負例を表す。 み合わせの集合, $\left(\boldsymbol{h}_{\text {label }}, \boldsymbol{h}_{\text {label }}^{\prime}\right) \in \mathbb{H}_{\text {far }}$ は遠ざけるラベル表現の組み合わせの集合である. 学習においては,モデルを対象コーパスに特化させるために,1 エポック中にまず補助コーパスの訓練データによる学習を行い,次に対象コーパスの訓練データによる学習を行う.学習時には異なるコー パスのラベルへの分類を防ぐため,対象としている文が属するコーパスのラベルのみでの分類を行う. ## 4 実験設定 複数コーパスでの学習における提案手法の有効性を検証するために,BC5CDR [3] を対象コーパスと NCBI [4] を補助コーパスとして評価を行った. 各コーパスのラベルとデータの統計を表 1 に示す. 実験では,生物医学文書による事前学習済みである PubMedBERT [8] をエンコーダとして採用する. スパンの表現に用いるエンコーダのパラメータは 1 エポックごとの更新,ラベル表現に用いるエンコー ダのパラメータは 1 エポックおきの更新として訓練データでのファインチューニングを行う. ## 4.1 比較モデル 提案手法の有効性を検証するためにモデル構造及び入力を変更した以下の手法を比較する。 表 3 ラベル表現による分類結果. 値は $\mathrm{F}$ 値 [\%]. 最も高いスコアを太字とした。 表 4 ラベルの入力による影響 [\%]. Abstract はラベルの入力のラベル説明文を各コーパスの論文の要旨に,Label はラベルのみを入力に変更して学習したモデル. 最も高いスコアを太字とした。 - Linear Zhong ら [2] の手法. エンコーダには提案手法と同様に PubMedBERT を用い,提案手法と条件を合わせるために全結合層を 2 層とし, 間の隠れ層は 768 次元とした. 学習に 2 つのコーパスの訓練データを用いる場合は,重複するラベルを同じラベルとした. ・Cosine ラベルのエンコードを行わずラベル数のベクトルを学習可能なパラメータとして与え,全結合層ではなくスパンの表現とのコサイン類似度を計算し分類する手法. - Proposed 提案手法. ラベル入力のラベル説明文としてコーパス発表時の論文中のアノテー ションガイドラインの章を採用した. 3.2 節の $L_{\text {label }}$ における閾値 $\beta$ は 0.6 とした. 制約をかけたラベルの組み合わせについては,表 2 に $\mathbb{H}_{\text {near }}$ に含まれる組み合わせを赤字で, 将 far に含まれる組み合わせを黒字で示した。 ## 5 結果と考察 ## 5.1 ベースラインモデルとの比較 まず,ベースラインモデルと提案手法の比較として Linear, Cosine, Proposed の BC5CDR テストデー タでの評価結果を表 3 に示す. 各モデルを BC5CDR のみで学習した場合と NCBI を補助コーパスとして追加して学習した場合のモデルで評価を行った. Linear と Cosine では BC5CDR の訓練データのみで学習を行った場合に比べて,NCBIを追加した場合,性能が低くなっている。対して,提案手法である Proposed では NCBI を追加した場合に性能が高い結果となった。このことから,提案手法のラベルの表 5 ラベル間の制約の損失の影響 [\%]. 最も高いスコアを太字とした。 入力とラベルの表現に対する制約が複数のコーパスにおけるラベルの違いに対して有効であるとわかった. ## 5.2 ラベル情報による影響 次に,ラベル情報の追加による影響を検証するために,ラベルの BERT の入力を変更して評価を行なった結果を表 4 に示す. ラベルの内容を表す情報を追加することで性能が向上していることがわかる. ## 5.3 ラベル表現での損失関数による影響 最後に,提案手法の制約の損失 $L_{\text {label }}$ の影響についての評価を表 5 に,各ラベル表現間のユークリッド距離を表 2 に示す. 3.2 節で定義した $L_{\text {label }}$ によって,特に BC5CDR の Chemical と NCBI の Others のラベルについて,その距離が大きく変化していることがわかる. ## 6 おわりに 本研究では対象コーパスからの固有表現抽出に補助コーパスを追加して学習するスパンベースの固有表現抽出手法を提案した. 複数コーパスのラベルの違いによる影響を緩和するために,ラベルの内容に関するコーパス情報を含ませてラベルをエンコー ドし,ラベル表現間の制約を損失として導入した。 BC5CDR を対象コーパス,NCBI を補助コーパスとした評価においては,補助コーパスを用いた提案手法により,対象コーパスでの性能を向上できることを確認した。 今後の課題としては,対象コーパスと補助コーパスを区別せず,コーパスを同時に用いることで両コーパスでの性能向上が可能なモデルを目指す.また,ラベルの入力やラベル表現に対する制約によって性能が変化したことから,ラベル表現の関係の改善によるさらなる性能向上を目指す。さらに,学習に用いるコーパスを増やした場合の影響を検証したい. ## 謝辞 本研究は JSPS 科研費 JP20K11962 の助成を受けたものです. ## 参考文献 [1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [2] Zexuan Zhong and Danqi Chen. A frustratingly easy approach for entity and relation extraction. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 50-61, Online, June 2021. Association for Computational Linguistics. [3] Jiao Li, Yueping Sun, Robin J. Johnson, Daniela Sciaky, Chih-Hsuan Wei, Robert Leaman, Allan Peter Davis, Carolyn J. Mattingly, Thomas C. Wiegers, and Zhiyong Lu. BioCreative V CDR task corpus: a resource for chemical disease relation extraction. Database, Vol. 2016, , 05 2016. baw068. [4] Rezarta Islamaj Doğan, Robert Leaman, and Zhiyong Lu. Ncbi disease corpus: A resource for disease name recognition and concept normalization. Journal of Biomedical Informatics, Vol. 47, pp. 1-10, 2014. [5] Kenton Lee, Luheng He, Mike Lewis, and Luke Zettlemoyer. End-to-end neural coreference resolution. In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pp. 188-197, Copenhagen, Denmark, September 2017. Association for Computational Linguistics. [6] Mohammad Golam Sohrab and Makoto Miwa. Deep exhaustive model for nested named entity recognition. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 28432849, Brussels, Belgium, October-November 2018. Association for Computational Linguistics. [7] Jie Ma, Miguel Ballesteros, Srikanth Doss, Rishita Anubhai, Sunil Mallya, Yaser Al-Onaizan, and Dan Roth. Label semantics for few shot named entity recognition. In Findings of the Association for Computational Linguistics: ACL 2022, pp. 1956-1971, Dublin, Ireland, May 2022. Association for Computational Linguistics. [8] Yu Gu, Robert Tinn, Hao Cheng, Michael Lucas, Naoto Usuyama, Xiaodong Liu, Tristan Naumann, Jianfeng Gao, and Hoifung Poon. Domain-specific language model pretraining for biomedical natural language processing. ACM Trans. Comput. Healthcare, Vol. 3, No. 1, oct 2021. [9] Adam Paszke, Sam Gross, Francisco Massa, Adam Lerer, James Bradbury, Gregory Chanan, Trevor Killeen, Zeming Lin, Natalia Gimelshein, Luca Antiga, Alban Desmaison, Andreas Kopf, Edward Yang, Zachary DeVito, Martin Raison, Alykhan Tejani, Sasank Chilamkurthy, Benoit Steiner, Lu Fang, Junjie Bai, and Soumith Chintala. Pytorch: An imperative style, high-performance deep learning library. In H. Wallach, H. Larochelle, A. Beygelzimer, F. d'AlchéBuc, E. Fox, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 32. Curran Associates, Inc., 2019. [10] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Remi Louf, Morgan Funtowicz, Joe Davison, Sam Shleifer, Patrick von Platen, Clara Ma, Yacine Jernite, Julien Plu, Canwen Xu, Teven Le Scao, Sylvain Gugger, Mariama Drame, Quentin Lhoest, and Alexander Rush. Transformers: State-of-the-art natural language processing. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 38-45, Online, October 2020. Association for Computational Linguistics. ## A ハイパーパラメータ 本研究における実験で用いたハイパーパラメータを表 6 に示す. スパンを作成する BERT,ラベルを作成する BERT,それ以外の全結合ニューラルネットワークなどのパラメータで異なる学習率を用いている. 表 6 各モデルのハイパーパラメータ ## B 実験環境 実験のためのプログラミング言語は Python 3.7.11, 機械学習ライブラリとして PyTorch [9] のバージョン 1.11.0, 事前学習モデルを使用するために Transformers [10] のバージョン 3.0.2を用いた. また,計算機では CPU Intel(R) Xeon(R) CPU E5-2698 v4 及び Intel(R) Xeon(R) W-3225, GPU に NVIDIA Tesla V100 DGXS 32GB 及び NVIDIA RTX A6000を用いた.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B6-2.pdf
# 森羅タスクと森羅公開データ 関根聡 ${ }^{1}$ 中山功太 ${ }^{1,2}$ 隅田飛鳥 ${ }^{1}$ 渋木英潔 ${ }^{3}$ 門脇一真 ${ }^{4}$ 三浦明波 ${ }^{5}$ 宇佐美佑 ${ }^{6}$ 安藤まや ${ }^{7}$ ${ }^{1}$ 理化学研究所AIP ${ }^{2}$ 筑波大学 ${ }^{3}$ 株式会社 BESNA 研究所 ${ }^{4}$ 株式会社日本総合研究所 ${ }^{5}$ 株式会社アティード ${ }^{6}$ Usami LCC ${ }^{7}$ フリー \{satoshi. sekine, kouta. nakayama, asuka. sumida\}@riken. jp ## 概要 Wikipedia に書かれている世界知識を計算機が扱えるような形に変換することを目的として、2017 年よりWikipediaを構造化する「森羅」プロジェクトを推進している。本プロジェクトは「協働による知識構築(Resource by Collaborative Contribution)」 のスキームに基づき、評価型ワークショップを開催し、参加したシステムの結果を統合してより良い知識にまとめ上げ、それを公開していくことを目指している。森羅 2022 では、日本語のWikipedia ページを分類し、ぺージから指定された属性値情報を抽出し、その情報を該当ページにリンクする 3 つのタスクを行なった。また、本論文ではこれまで森羅プロジェクトで構築した全データを概説するとともに、森羅 2023 の計画を紹介する。 ## 1 背景と目的 自然言語理解を実現するためには、言語的及び意味的な知識が必要なことは論を待たない。しかし、大規模な知識の作成は非常に膨大なコストがかかり、 メンテナンスも難しい問題である。名前を中心とした知識において、クラウドソーシングによって作成されている Wikipedia はコストの面でもメンテナンスの面でもそれ以前の百科事典の概念を一新したが、 Wikipedia を構造化知識として活用しようとすると障壁は高い。Wikipedia は人が読んで理解できるように書かれており、計算機が活用できるような形ではないためである。計算機の利用を念頭においた知識ベースには、CYC[11]、DBpedia[12]、YAGO[13]、 Freebase[14]、Wikidata[15]などがあるが、それぞれに解決すべき課題がある。特に CYC ではカバレージの問題、他の知識べースでは、首尾一貫した知識体系に基づいていない構造化の問題がある。この課題を解決するため、私たちは、名前のオントロジー「拡張固有表現」[2][8][9]に Wikipedia 記事を分類し、属性情報を抽出しリンクすることで計算機が利用可能な Wikipedia の構造化を進めている[1][3][4][5][6][7]。 ## 2 協働による知識構築 Wikipedia の全データの構造化を人手で行うことはほぼ不可能に近い。特に、日々更新される Wikipedia を対象にしているため、更新作業を考えると現実的ではない。しかし、記事の分類や属性値抽出のような知識構築は様々な機械学習手法によってある程度の精度で自動化できている。そこで、森羅プロジェクトでは多くの機械学習システムが協力し、 より精度の高い構造化知識を半自動的に構築することを目標としている。現在の自然言語処理では「評価型ワークショップ」が数多く行われている。これらは既成のタスクに対する機械学習システムの最適化競争の側面はあるが、これを逆に利用し、構造化知識の作成を行う。つまり、運営者側で訓練データとテストデータを用意し、多くのシステムに評価型ワークショップに参加していただく。この時にテストデータを参加者には知らせないことで、参加者には訓練データ以外の全データを対象に結果を出すという仕組みを取り入れる。また、その結果は共有することを事前に約束してもらう。このようにして出力された結果をアンサンブル学習の手法を用いて、 より信頼できる知識を作る。また、信頼度の低いものを人手で確認訂正する手法や、出力結果を次の学習時の訓練データにするアクティブ・ラーニング、訓練データの作成とシステムの実行を幾度も繰り返すブートストラッピング手法を取り入れることで、多くの参加者と協力しあって、精度の高いリソース作成を実現していくことを目標としている。本スキ一ムは Resource by Collaborative Contribution (RbCC:協働による知識構築) と名付けられ、森羅プロジェクトの最も重要な骨格となっている。 ## 3 森羅タスク 森羅による Wikipedia の構造化のためには、それぞれのエンティティーの情報構造を規定する必要がある。そのために「拡張固有表現」を利用する。 ## 3.1 拡張固有表現 「拡張固有表現」とは、[2][8][9]によって発表された固有表現に関する定義であり、各固有表現のカテゴリーを表す階層構造と、その固有表現が持ちうる属性情報からなる。階層構造は、「人名」、「地名」、「組織名」、「イベント名」、「地位職業名」といった幅広い種類を含む。また、例えば「地名」には 「河川名」「湖沼名」等の「地形名」や、「星座名」等の「天体名」を含む等、最大 4 階層の下位カテゴリーが含まれる。一方、属性情報はカテゴリー毎に定義された固有表現が持つ属性である。例えば「人名」カテゴリーでは異表記、本名、別名・旧称、国籍などの属性が定義される一方で、「空港名」のカテゴリーでは、国、母都市、年間利用者数、別名、名前の謂れなどが定義される。最新のバージョン 9.0 は森羅タスクのために Wikipedia に即して調整したものであり、246 種類の末端カテゴリーが定義され、 このうち 178 種類のカテゴリーには特有の属性情報も定義されている。階層構造の全カテゴリーと属性定義の抜粋を、付録の図 1 および表 1 に掲載する。 すべての定義を含む詳細は[2]を参照されたい。 ## 3.2 三種類のタスク 構造化は 3 つのプロセスに分解でき、評価型ワー クショップではそれぞれをタスクとして実施する。 1) 分類 Wikipedia の各ページを拡張固有表現の末端カテゴリーに分類する。例えば「島崎藤村」は人名、彼の作品の「嵐」は「書籍名」などである。 2) 属性値抽出 分類されたページから拡張固有表現定義で規定された属性の値を抽出する。例えば「島崎藤村」 の「本名」は「島崎春樹」で、「作品」には上記の「嵐」が含まれる、などである。 3) エンティティーリンキング(リンク) 抽出された属性値に対して、その値を表す Wikipedia のページをリンクする。例えば、上記の「島崎藤村」の「作品」として抽出された「嵐」 を該当する書籍の「嵐」のページにリンクする。 ## 3.32018 から 2022 に行った 9 タスク 森羅の評価型ワークショップは 2018 年に始まり、 2022 年まで 9 タスクを実施してきた。表 2 にタスクの一覧を示す。2018 年から 3 年間は、カテゴリー数を拡張しながら属性値抽出タスクを行なった。また、 2020 年から 2 年間は構造化知識の多言語化を目指して、アクティブユーザー数の多い 30 言語の Wikipedia のすべてのぺージを拡張固有表現に分類するタスクを実施した。 2021 年にはリンクタスクを実施した。2022 年は日本語 Wikipedia を対象に 3 つのタスクを同時に実施することにより、Wikipedia の構造化を End-to-End で行うことを目指した評価型ワ ークショップを実施した。 表 2. 5 年間に行なった 9 タスク & 日本語 & \\ ## 4 森羅 2022 森羅 2022 では、日本語の Wikipediaを対象に分類、属性値抽出、エンティティーリンキング(リンク)タスクの 3 つのタスクを実施した。基本的に Endto-Endのタスクとし、エラーが含まれた前段階の夕スクの出力を基にしたタスク設定とした。したがって、例えば、あるページの分類が「河川名」ではなく「湖沼名」と間違っていたとしても、その属性値抽出において共通の属性、例えば「所在地」の属性を正しく抽出できれば、その結果は正解とすることにした。この目的のため、拡張固有表現のカテゴリ一横断の属性定義の共通化を行なった。分類タスクは後述のワークショップを通して多くの参加者を得たが、属性值抽出とリンクタスクは参加者が非常に少ないことが事前に分かっていたため、Wikipedia 全体を対象とした評価は実施せずに終了した。 ## 4.1 スケジュールとリーダーボード 森羅 2022 は以下のスケジュールで実施した。 2022 年 5 月 12 日 : キックオフミーティング \& データ公開、リーダーボードオープン 2022 年 8 月 4,10 日:ワークショップ(後述) 2022 年 9 月 30 日, 10 月 27 日:ワークショップ 2 2022 年 11 月 14 日 : 実行結果の提出締切 2023 年 1 月 18 日:ワークショップ (報告会) なお、 $\mathrm{RbCC}$ によるリソース作成には参加者にシステムの全出力を提出してもらうことが鍵となるが、 一方で参加者にとっては全ページを予測するのは計算機資源や処理時間の面から負担となる。そこで、一部のみの提出が可能なリーダーボードを作成し、 システムの評価をスムーズに行えるようにした。 図 2.リーダーボードのスナップショット ## 4.2 ワークショップと参加者 森羅プロジェクトの一環として、深層学習を用いた自然言語処理に取り組みたい学生、研究者、社会人を対象として、サンプルプログラムを提供、解説し、 1 週間から 1 ケ月をおいて参加者が独自に改良する形のワークショップを開催した。1回目は森羅の分類タスクを題材とし 8 月に行い、登録者は 381 人と大盛況の会となった。2 回目は「属性値抽出」 を意識した「固有表現抽出」を題材とし 9〜10 月に行い、登録者は 201 人であった。ワークショップで使用した資料と当日の録画はホームページにて公開しているi。森羅 2022 ではこのワークショップに関係した参加者が多く、主催者のシステムを含め、分類タスクでは 59 システム、属性值抽出タスク、リンクタスクではそれぞれ 3 システムの提出があった。 ## 5 森羅公開データ 5 年間の森羅プロジェクトで作成した学習データ、参加者の出力データなどの大部分を森羅ホームペー ジ[1]にて公開している。 ## 5.1 日本言語分類データ 日本語 Wikipediaを拡張固有表現に分類したデー 夕は表 3 の通り、拡張固有表現のバージョンの違い 3 種類がある。拡張固有表現は属性值抽出タスクの進展と共に変化しており、今後使われる方は「2022 分類」データを使われることをお勧めする。 表 3. 森羅日本語分類データ & & ページ数 \\ ## 5.2 多言語分類データ 2020-ML、2021-ML の多言語分類タスクで利用、作成された 2 種類のデータを公開している。一つは 5.1 で説明した「2020 分類」データとWikipedia の言語間リンクを辿って作った 30 言語分のトレーニングデータである。表 4 にその統計情報を記載した。公開データには「日本語からのリンク数」の合計の 502 万 9617 ページが含まれている。二つ目のデータは、 30 言語の 3255 万 5929 ページに対する 12 システムの出力である。 ## 5.3 属性值抽出データ 属性值抽出タスクは、森羅 2018、2019、2020-JP、 2022 で実施され、その度にトレーニングデータを 5 、 30、43、100 カテゴリーずつ増やしてきた。それらのカテゴリーに対して拡張固有表現も改良され、デ一夕も整備された。したがって、2020 年に公開されたデータが最も一貫性があり全てを包含しているデ一夕となっているため、表 5 にそのデータの概要を紹介する。公開データにはそれぞれの Wikipedia 記事が付随しているが、作成時期により Wikipedia バ ージョンが異なっていることに注意されたい。  表 4. 30 言語の Wikipedia 統計情報森羅公開データ(2020 多言語分類) & 言語 & 記事数 & & 言語 & 記事数 & \\ 表 5. 森羅日本語属性値抽出データ (2022 属性) & 910,567 \\ システム出力結果として、森羅 2020-JP タスクに参加した 13 システムの出力結果を公開している。 35 カテゴリーの 470, 772 ページを対象としたデータであり、336 種類の属性に対して、インスタンス数として 6, 089, 547 の属性値のデータとなっている。 アンサンブル学習などの実験に利用できる。 ## 5.4 リンクデータ リンクタスクは $2021 、 2022$ で実施し、表 6 にある教師、開発データの 3 種類のデータを公開している。 ## 6 森羅 2023 タスク 森羅 2023 では、2022 と同様に日本語を対象にした3つのタスクを実施する予定である。ただし、2022 で参加者の少なかった属性値抽出とエンティティー リンキングの参加のための敷居を低くすることを主な目的として下記の改良を加えることを考えている。 - 属性値抽出、リンクタスクでは、すべての Wikipedia 記事を対象とするのではなく、特定のカテゴリーなど限定された記事を対象に参加することを可能とする - 機械学習がより精度高くなるように学習デー タを拡充する - 前段階の間違えを含んだデータを対象に Endto-End タスクだけではなく、前段階の正解デー タに基づいて参加できる仕組みを作る - 多くの開発データを配布し、参加者が詳細な分析をできるようにする - データの一貫性、前処理の簡易化を検討する - 森羅データを利用した応用システムのデモタスクを用意する ## 7 まとめ Wikipedia の構造化データ「森羅」の作成を目指したプロジェクトを推進している。前述の通りこのプロジェクトは多くの方の協力なくしては進まない。 これまでの森羅のタスクにご協力いただいた皆様、特に評価にご参加いただいた全ての団体にはここで感謝を申し上げたい。今後もより深い知識処理を実現するためにも、本プロジェクトに多くのご協力をいただけるようにお願い申し上げたい。 表 6. 森羅日本語リンクデータ ## 謝辞 本研究は JSPS 科研費 JP20269633 の助成を受けたものです。 ## 参考文献 1. SHINRA-HP. 森羅プロジェクトホームページ: http://shinra-project.info. 2. ENE-HP. 拡張固有表現ホームページ: http://ene-project.info. 3. 関根聡, 小林暁雄, 安藤まや, 馬場雪乃, 乾健太郎. Wikipedia 構造化データ「森羅」構築に向けて.言語処理学会第 24 回年次大会(2018) 4. Satoshi Sekine, Akio Kobayashi, and Kouta Nakayama. 2019. SHINRA: Structuring Wikipedia by Collaborative Contribution. In Proceedings of the 1 st conference on the Automatic Knowledge Base Construction AKBC-2019. 5. 小林暁雄, 関根聡, 安藤まや. Wikipedia 構造化プロジェクト「森羅 2018」言語処理学会第 25 回年次大会(2019) 6. 小林暁雄, 中山功太, 安藤まや, 関根聡. Wikipedia 構造化プロジェクト「森羅 2019」.言語処理学会第 26 回年次大会(2020) 7. 関根聡, 安藤まや, 小林暁雄, 松田耕史, Duc Nguyen,鈴木正敏,乾健太郎「拡張固有表表現 +Wikipedia」データ(2015 年 11 月版 Wikipedia 分類作業完成版).言語処理学会第 24 回年次大会(2018) 8. 関根聡, 竹内康介. 拡張固有表現オントロジー.言語処理学会第13回年次大会ワークショップ 「言語的オントロジーの構築・連携・利用」 (2007) 9. Satoshi Sekine, Kiyoshi Sudo, and Chikashi Nobata (2002). Extended named entity hierarchy. In the Third International Conference on Language Resources and Evaluation (LREC'02). 10. Satoshi Sekine. 2008. Extended Named Entity Ontology with Attribute Information. In Proceedings of the Sixth Internationa Conference on Language Resource and Evaluation (LREC08). 11. Douglas B. Lenat. CYC: a large-scale investment in knowledge infrastructure. ACM 38, pp. 32-38. 12. Lehmann, J., Isele, R., Jakob, M., Jentzch, M., Kontokostas, D., Mendes, P.N., Hellman, S., Morsey M., Kleef, P., Auer, S. and Bizer, C. DBpedia - A Large-scale, Multilingual Knowledge Base Extracted from Wikipedia. Semantic Web Journal, 6(2) :167-195 13. Farzaneh Mahdisoltani, Joanna Biega, Fabian M. Suchanek. YAGO3: A Knowledge Base from Multilingual Wikipedias. Proceedings of the Conference on Innovative Data Systems Research (CIDR 2015). 14. Bollacker, K., Evans, C., Paritosh, P., Sturge, T. and Taylor, J. Freebase: a collaboratively created graph database for structuring human knowledge. Proc. International conference on Management of data (SIGMOD '08). ACM, pp.1247-1250. 15. Vrandečić, D. and Krötzsch, M. Wikidata: a free collaborative knowledgebase. Commun. ACM57, pp. 78-85 ## A 付録 図 1. 拡張固有表現定義(バージョン9.0)における階層定義 表 1. 拡張固有表現定義(バージョン9.0)における属性定義(一部抜粋) & \\
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B6-3.pdf
# 症例テキスト間の論理推論における病名知識補完の試み 村上夏輝 ${ }^{1}$ 石田真捺 ${ }^{1}$ 谷中瞳 ${ }^{2}$ 戸次大介 ${ }^{1}$ 1 お茶の水女子大学 2 東京大学 \{murakami.natsuki,ishida.mana, bekki\}@is.ocha.ac.jp [email protected] ## 概要 医療分野には電子カルテなどの症例テキストが多く存在しており、これらを用いた自然言語処理の研究が行われている。その一つに、意味解析・論理推論システム ccg2lambdaを用いた症例テキストの含意関係認識の研究があるが、既存の推論システムでは、入力文に病名などの医療ドメイン特有の言い換え表現が含まれていた場合、含意関係を正しく判定することができなかった。そこで本研究では定理証明に不足する言い換え表現の候補を病名の固有表現抽出器と万病辞書を用いて特定し、病名の同値関係を公理として補完する手法を提案する。評価実験の結果、提案手法では推論テストセット 108 件のうち、 73 件について正しく推論を行うことができた。 ## 1 はじめに 医療分野には画像所見や電子カルテといった電子化されたテキストが多く存在しており、これらを用いた自然言語処理の研究は活発に行われつつある $[1,2]$ 。その一方で、否定や量化といった深い意味を考慮した医療言語処理技術は未だ発展途上にある。 症例テキストを有効活用する手法として、症例テキスト間の含意関係認識が考えられ、その取り組みの一つに石田らのシステム [3] がある。石田らのシステムは、組合せ範疇文法 (Combinatory Categorial Grammar, CCG) [4, 5] に基づく頑健かつ高精度な構文解析と、高階論理に基づく自動推論システムを組み合わせた意味解析・論理推論システムである ccg2lambda [6] をべースとした推論システムである。従来の ccg2lambdaでは、複合語が一語として扱われてしまうことで、複合語内の意味的な関係を解析できないという問題点があった。この問題点に対して、石田らのシステムでは ccg2lambda に複合語解析モジュールを追加することで解決を図った。石田らの複合語解析モジュールは、ccg2lambda の構文解析で得られた CCG 構文木から複合語を抽出し、複合語意味現象タグ分類モデルを用いて複合語内の意味関係を表す意味現象タグを付与する。そのタグを元に複合語内の意味関係を考慮した意味表示を導出し、複合語を含む症例テキスト間の推論を実現した。 しかし、石田らのシステムでは症例テキストによって病名表記の摇れがあった際に推論を行うことができないという問題がある。例えば、「深部静脈血栓症」という病名には、「DVT」や「ホーマンズ徴候」といった複数の表記が存在し、症例テキストによって表記が異なる。前提文が「DVT 発症を認めた。」、仮説文が「深部静脈血栓症を発症した。」である場合、経験的には前提文は仮説文を含意するが、 この含意関係を示すためには、「DVT は深部静脈血栓症である」という知識を定理証明の際に補完する必要がある。そこで本研究では、病名の固有表現抽出器と万病辞書 [7] を用いて定理証明に不足する言い換え表現の候補を特定し、病名の同値関係を公理として補完する手法を提案する。また、病名の知識補完が必要な推論テストセットを構築し、提案手法の有効性を評価する。 ## 2 提案手法の全体像 提案手法の全体像を図 1 に示す。石田らのシステ么は構文解析、複合語解析、意味解析、定理証明から構成される。本研究では、医療ドメインの知識補完を行うモジュールを石田らのシステムに追加する。知識補完モジュールでは、まず入力文に対して、汎用言語モデルに基づく固有表現抽出器を用いて病名の固有表現抽出を行う。抽出された病名に対して、万病辞書内の病名の出現形欄について完全一致検索を行い、病名と出現形が一致した場合、万病辞書内の病名に関する知識を公理として定理証明器 Coq [8] に追加する。追加する公理は形態素間の意味関係によって異なるため、石田らの複合語意味現象タグ分類モデルによって生成される複合語の意味現象タグを確認し、意味現象タグと万病辞書の知識 図 1 提案手法の全体像 表 1 標準病名欄が「深部静脈血栓症」である万病辞書の例 に応じて公理を導出してから補完を行う。 ## 3 病名の知識補完 ## 3.1 万病辞書 本研究における病名の知識補完には万病辞書を用いる。万病辞書は、医療従事者が電子カルテに記録した経過記録と退院サマリから、症状や病名に関連する語を広く抽出したデータである。病名の正式名称だけでなく、略記や英語名を含めた、362,866 件の病名用語が収録されている。 表 1 に万病辞書の標準病名欄が「深部静脈血栓症」である例を示す。万病辞書は左から、病名の出現形、出現形よみ、ICD10コード、標準病名、信頼度レベル、頻度レベルが記載されている。ICD10コー ドと標準病名は ICD10 対応標準病名マスター1)を参照している。 ## 3.2 病名の固有表現抽出 ## 3.2.1病名の固有表現抽出データセット 固有表現抽出器の学習を行うために、症例テキストを用いて固有表現抽出データセットを構築した。症例テキストには、J-Stage でオープンアクセス公開されている症例報告論文 PDF から OCR 抽出した症例報告コーパスである J-MedStd-CR ${ }^{2}$ を用いる。本研究では J-MedStd-CR の 2626 文に対して、文中に現れる万病辞書の出現形を人手でアノテーションし 1) http://www2.medis.or.jp/stded/byomei/index.html 2) https://sociocom.naist.jp/medtxt/cr/ た。以下にアノテーションの例を示す。 ## 3.2.2 固有表現抽出の関連研究 病名の固有表現抽出の関連研究として五井野ら [9] や MedNER[10] がある。五井野らでは、 BERT[11] と CRF を用いて病名、症状とそのモダリティ (5 種類) の固有表現抽出とモダリティ推定を行っている。BERT には東北大学が公開している 3 種類の BERT(tohoku-charBERT, tohoku-BERT, tohoku-wwm-BERT) と東京大学が公開している日本語の医療文書で事前学習を行った UTH-BERT ${ }^{3}$ を用いて比較実験を行っている。MedNER では、患者のために書かれた医学研究論文の一種である症例報告 100 文書、放射線科医によって書かれた一種の臨床文書である読影所見 72 文書を学習データとして用いており、少ないリソースを用いた固有表現抽出を行っている。 ## 4 病名の知識補完が必要な推論テス トセットの構築 本研究では病名の知識補完が必要なテストセットを構築し、提案手法の評価を行う。表 2 に推論テストセットの例を示す。テストセットの構築には、症例報告コーパスである J-MedStd-CR 内の病名が現れ 3) https://ai-health.m.u-tokyo.ac.jp/home/research/uth-bert 表 2 推論テストセットの例(太字箇所は含意関係の判定に必要な病名知識) 表 3 実験に使用する RoBERTa モデル る文のうち、万病辞書の病名の出現形と標準病名が異なる文を用いる。簡略化した文を仮説文、仮説文の病名箇所を標準病名に変えたものを前提文とした文ペアを人手で作成し、合計 108 ペアからなる推論テストセットを構築した。 ## 5 実験 ## 5.1 実験概要 固有表現抽出の実験概要固有表現抽出器を作成するにあたって、表 3 に示す 3 つの RoBERTa[12] を用いて固有表現抽出器を構築し、実験を行った。理化学研究所から公開されている Japanese RoBERTa base $^{4}$ (以下、理研モデル) は日本語 Wikipedia のみを事前学習に使用しており、Tokenizerには単語分割に MeCab[13]、サブワード分割に BPE[14] を用いている。rinna 社が公開している japanese-robertabase[15](以下、rinna モデル) と早稲田大学が公開している roberta-large-japanese ${ }^{5}$ (以下、早稲田モデル) は日本語 Wikipedia と CC-100 の日本語部分を事前学習に使用している。Tokenizer は、単語分割には Juman++[16]、サブワード分割には sentencepiece[17] を使用している。 固有表現抽出器は、症例テキスト内の 2303 文を学習データとして用い、そのうち $85 \%$ 開発デー タ、 $15 \%$ 検証データとして汎用言語モデルのファインチューニングを行い構築した。この学習デー タには病名の出現形が 2551 件出現している。評価データには、同じく J-MedStd-CR の症例テキスト内からランダムで抽出した 326 文を用いた。この 326 文は学習データとの重複はない。  推論システムの実験概要推論システムには石田らのシステムを用いる。石田らのシステムの複合語意味現象タグ分類モデルには、BiLSTM[18] と BERT[11]を用いている。BERTには日本語の Wikipedia のデータを用いて学習された、東北大学が公開しているモデル6)を使用している。Tokenizer は MeCab+WordPiece である。本研究の提案システムの有効性を評価するために、石田らのシステム十知識補完モジュールありと石田らのシステム十知識補完モジュールなしでの比較を行う。 ## 5.2 病名の固有表現抽出モデルの評価 実験では表 3 の 3 つの BERTに対して、固有表現抽出データセットで学習を行い、評価を行った。また、関連研究の MedNER に対して評価データセッ卜を用いて比較を行った結果を表 4 に示す。病名の予測精度としては理研モデルのスコアが一番高かった。rinna モデルに関しては病名は抽出できているものの前後の関係ないものまで抽出していた。 また、早稲田モデルは抽出された病名が途中で区切られているものが見られた。MedNER に関しては、「壊死を伴う肉芽種」の「壊死」と「肉芽種」や、「疼痛と掻痒」の「疼痛」と「搔痒」といった近くに並んだ病名をまとめて抽出する傾向があった。本研究で作成した評価データセットは、病名単体を一つずつアノテーションしたため f1-score が下がったと考えられる。 この実験を経て、提案手法に組み合わせる固有表現抽出器には最も性能の良かった理研モデルを採用する。 6) https://huggingface.co./cl-tohoku/bert-base-japanese 表 4 病名の固有表現抽出の実験結果 表 5 エラーのタイプと文ペアの例 図 2 「四肢疼痛が増悪した」の構文解析結果 ## 5.3 知識補完した推論の評価 構築した推論テストセットを用いて、石田らのシステムと、石田らのシステムに知識補完モジュールを追加した提案システムとで推論の精度比較を行った。表 6 に推論の評価結果を示す。 石田らのシステムでは正しく推論を行える例がなかったのに対して、提案システムでは 108 件中 73 件のテストセットについて正しく推論を行うことができた。 提案システムが推論に失敗してしまった例についてエラー分析を行った。表 5 にエラーのタイプと文ペアの例を示す。形態素解析によるエラーでは、名詞として扱いたい「ほてり」や「すくみ足」の「すくみ」という形態素に対して、形態素解析器である Janome は動詞と判定した。そのため、意味解析の際に「ほてる」「すくむ」といった動詞で扱われてしまい、定理証明で追加した公理が適用されず推論に失敗してしまった。構文解析によるエラーについては、例を図 4 に示す。「四肢疼痛」は病名であるため「四肢」と「疼痛」は先に結合する必要があるが、構文解析の結果、「疼痛が増悪した」が先に結合し、 その後「四肢」と結合している。このように病名部分の $\mathrm{CCG}$ 木が正しく構築されておらず、正しく推論が行えない例がみられた。固有表現抽出によるエラーでは、「interface hepatit i s」から「int e r f a c」のように、語の途中で途切れて抽出してしまうか、もしくは抽出ができなかったため、正しく推論が行えなかった。 ## 6 おわりに 本研究では、石田らで提案された意味解析・論理推論システムに対して、医療ドメインの知識補完モジュールを追加し、推論システムを構築した。具体的には、病名の固有表現抽出を行ったのち、抽出された病名に対して万病辞書を用いて知識検索を行い、検索結果に基づいた公理を石田らのシステムの定理証明器に追加するという知識補完モジュールを作成した。また、固有表現抽出を行うモデルの学習のために病名の固有表現抽出データセット、医療ドメインの知識が補完された推論システムの評価を行うための推論テストセットを構築した。構築したテストセットを用いて推論システムの評価を行った結果、推論テストセット 108 件のうち、73 件について推論を正しく行うことができた。今後の課題として、固有表現抽出データセット、推論テストセットの拡張を行うとともに、知識補完モジュールの改良によって推論システムのさらなる性能向上を目指す。 謝辞. 本研究の一部は, 政策科学総合研究事業 (臨床研究等 ICT 基盤構築・人工知能実装研究事業) 21AC5001,および JST さきがけ JPMJPR21C8,JSPS 科研費 JP20K19868 の支援を受けたものである. ## 参考文献 [1] 荒牧英治, 岩尾友秀, 若宮翔子, 伊藤薫, 矢野憲, 大江和彦. 症例検索システムの試行運用に基づいた利用 状況に関する基礎的検討. 医療情報学, Vol. 38, No. 4, pp. 245-256, 2018 . [2] 土井俊祐, 木村隆, 関根正樹, 鈴木隆弘, 高林克日己,田村俊世. 学会ホームページにおける類似症例検索システムの実運用と評価. 生体医工学, Vol. 49, No. 6 , pp. 870-876, 2011. [3] 石田真捺, 谷中瞳, 戸次大介. 日本語症例テキストの複合語解析と論理推論. 第 36 回人工知能学会全国大会論文集. 一般社団法人人工知能学会, 2022. [4] Mark J. Steedman. The Syntactic Process. The MIT Press, 2000. [5] 戸次大介. 日本語文法の形式理論:活用体系・統語構造・意味合成. くろしお出版, 2010. [6] Pascual Martínez-Gómez, Koji Mineshima, Yusuke Miyao, and Daisuke Bekki. ccg2lambda: A Compositional Semantics System. In Proceedings of ACL 2016 System Demonstrations, pp. 85-90, 2016. [7] 荒牧英治, 若宮翔子, 河添悦昌. カルテ情報の自動構造化システムと疾患数理モデルの逐次的構築, 及び,自動構造化機能を有した入力機構の開発. 医療情報学, Vol. 40, No. 1, pp. 12-13, 2020. [8] Yves Bertot and Pierre Castéran. Interactive Theorem Proving and Program Development: Coq'Art: The Calculus of Inductive Constructions. Springer Science \& Business Media, 2013. [9] 五井野玩也, 濱上知樹. Bert を用いた医療文書からの固有表現抽出. 第 48 回知能システムシンポジウム, 2021. [10] Tomohiro Nishiyama, Mihiro Nishidani, Aki Ando, Shuntaro Yada, Shoko Wakamiya, and Eiji Aramaki. NAISTSOC at the NTCIR-16 Real-MedNLP Task. In Proceedings of the 16th NTCIR Conference on Evaluation of Information Access Technologies, 2022. [11] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805, 2018 [12] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized bert pretraining approach. ArXiv, Vol. abs/1907.11692, , 2019 [13] Taku Kudo, Kaoru Yamamoto, and Yuji Matsumoto. Applying conditional random fields to japanese morphological analysis. In Proceedings of the $\mathbf{2 0 0 4}$ conference on empirical methods in natural language processing, pp. 230-237, 2004. [14] Rico Sennrich, Barry Haddow, and Alexandra Birch. Neural Machine Translation of Rare Words with Subword Units. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1715-1725. Association for Computational Linguistics, 2016. [15] 趙天雨, 沢田慶. 日本語自然言語処理における事前学習モデルの公開. 人工知能学会研究会資料言語・音声理解と対話処理研究会, Vol. 93, pp. 169-170, 2021. [16] Arseny Tolmachev, Daisuke Kawahara, and Sadao Kurohashi. Juman++: A morphological analysis toolkit for scriptio continua. In Proceedings of the 2018 Con- ference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 54-59. Association for Computational Linguistics, 2018. [17] Taku Kudo and John Richardson. Sentencepiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. arXiv preprint arXiv:1808.06226, 2018 . [18] Peilu Wang, Yao Qian, Frank K Soong, Lei He, and Hai Zhao. Part-of-speech tagging with bidirectional long shortterm memory recurrent neural network. arXiv preprint arXiv:1510.06168, 2015.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/