source
stringlengths 128
512
| target
stringlengths 100
1.22k
|
---|---|
In our numerical experiments we investigate the behaviour of three RC setups, a continuous-time RC (CT-RC) [1]}, a leaky-integrator RC (LI-RC) [2]}, and the recently introduced `next generation' RC (NG-RC) [3]}. Each of these RCs are trained using a ridge regression approach.
| В наших численных экспериментах мы исследуем поведение трех RC-схем: непрерывно временная RC-схема (CT-RC) [1], RC-схема с утечкой интегратора (LI-RC) [2] и недавно представленная "следующего поколения" RC-схема (NG-RC) [3]. Каждую из этих RC-схем обучают с использованием метода гребневой регрессии. |
The representation (REF ) of the solution of the Cauchy problem () for the Novikov equation () in terms of the solution of the associated main RH problem (1)–(6) (given in Theorem REF ) can be used in principle, as for other integrable peakon equations (see, e.g., [1]}, [2]}, [3]}, [4]}, [5]}, [6]}, [7]}, [8]}, [9]}, [10]}, [11]}), to construct soliton-type solutions and also to analyse the long time behavior of the solution.
| Представление (REF ) решения задачи Коши () для уравнения Новикова () в терминах решения соответствующей основной задачи Римана-Гильберта (1)–(6) (представленной в Теореме REF ) может быть использовано в принципе, как и для других интегрируемых уравнений типа пиконов (см., например, [1]}, [2]}, [3]}, [4]}, [5]}, [6]}, [7]}, [8]}, [9]}, [10]}, [11]}), для построения решений типа солитона и также для анализа долгосрочного поведения решения. |
Next we show that \(B\) , which is constructed from \(R\) and \(X\) matrices in (REF ), is invertible. By definition \(X \succ 0\) and \(R \succ 0\) [1]}. From properties of positive definite matrices, \(\frac{1}{2}X-(-\frac{1}{2}R^T)X^{-1}R \succ 0\) . This is useful because \(det(B)=det(X)\cdot det(\frac{1}{2}X-(-\frac{1}{2}R^T)X^{-1}R)\) .
Thus \(det(B)\ne 0 \Leftrightarrow \) B is invertible.
| Далее мы покажем, что \(B\), который составлен из матриц \(R\) и \(X\) в (REF), является обратимым. По определению \(X \succ 0\) и \(R \succ 0\) [1]. Из свойств положительно определенных матриц следует \(\frac{1}{2}X-(-\frac{1}{2}R^T)X^{-1}R \succ 0\). Это полезно, потому что \(det(B)=det(X) \cdot det(\frac{1}{2}X-(-\frac{1}{2}R^T)X^{-1}R)\). Таким образом, \(det(B) \ne 0 \Leftrightarrow\) B обратим. |
The construction of the random walk representative of dislocation glide is dependent on two main aspects: first, on the simplification of dislocation motion and its coarse-graining through a graph-theoretical framework, as discussed before; second, on the statistical representation of dislocation mobility through a Poisson process that naturally leads to the use of KMC method. We now discuss the formulation of the random walk, where we will follow closely the ideas in [1]}.
| Строительство случайного блуждания, являющегося представительной моделью скольжения дислокаций, зависит от двух основных аспектов: во-первых, от упрощения движения дислокации и его грубого представления путем графового подхода, о котором уже говорилось; во-вторых, от статистического представления подвижности дислокации с использованием пуассоновского процесса, что естественным образом приводит к использованию метода КМС (Кинетическое Монте-Карло). Теперь мы обсудим формулировку случайного блуждания, следуя идеям из [1]. |
Question 2.3 [1]}, [2]} Does there exist a sequence of super-expanders of girth going to infinity? And of logarithmic girth in the number of vertices? Are the expanders coming from higher-rank simple Lie groups super-expanders?
| Вопрос 2.3 [1]}, [2]} Существует ли последовательность сверхрасширителей с растущим обхватом? И с логарифмическим обхватом в количестве вершин? Являются ли расширители из высокоранговых простых групп Ли сверхрасширителями? |
Manifold filters are local spatial operators operating directly on points on the manifold based on the LB operator. The exponential term \(e^{-t{\mathcal {L}}}\) can be interpreted as a shift operator like the time delay in a Linear-Time Invariant (LTI) filter [1]} and the graph shift in a Linear-Shift Invariant (LSI) graph filter [2]}. In fact, manifold filters can recover graph filters by discretization, which we discuss thoroughly in Section .
| Многообразные фильтры - это локальные пространственные операторы, действующие непосредственно на точки на многообразии на основе Лапласиана Бельтрами (LB оператора). Показательная функция \(e^{-t{\mathcal {L}}}\) может быть интерпретирована как оператор сдвига, подобный временной задержке в линейно-временно-инвариантном (LTI) фильтре [1] и графическому сдвигу в линейно-сдвигово-инвариантном (LSI) графовом фильтре [2]. Фактически, многообразные фильтры могут восстанавливать графовые фильтры путем дискретизации, о чем мы подробно рассмотрим в разделе . |
In this subsection, we will present the series expansion of \(r,p\) .
WritingSince we are considering the generation functions, the \(n,m\) are free indices, while in previous works [1]}, [2]} with fixed tensor rank \(K\) , \(n,m\) are constrained by \(2n+m=K\) .
One can see that many manipulations are simplified using the idea of generation functions.
\(c=\sum _{n,m=0}^\infty c_{n,m} r^n p^m,~~~~~h_c=\sum _{n,m=0}^\infty h_{n,m} r^n p^m~~~\)
| В этом подразделе мы представим рядовое разложение \(r,p\). Поскольку мы рассматриваем функции-порождения, переменные \(n, m\) являются свободными индексами, в то время как в предыдущих работах [1] [2] с фиксированным рангом тензора \(K\) переменные \(n, m\) ограничены условием \(2n+m=K\). Многие манипуляции упрощаются с использованием идеи функций-порождений. \(c=\sum _{n,m=0}^\infty c_{n,m} r^n p^m,~~~~~h_c=\sum _{n,m=0}^\infty h_{n,m} r^n p^m~~~\). |
Therefore \(\overline{e}_1^{ph}\) can be estimated with decoy-state method as [1]}, [2]}
\(\overline{e}_1^{ph} \le \frac{T_\Delta - 1/2 e^{-2\mu _a} S_{vv}}{2\mu _a e^{-2\mu _a} \underline{s}_1}.\)
| Поэтому \(\overline{e}_1^{ph}\) можно оценить методом фальшивых состояний как [1]}, [2]}
\(\overline{e}_1^{ph} \le \frac{T_\Delta - \frac{1}{2} e^{-2\mu _a} S_{vv}}{2\mu _a e^{-2\mu _a} \underline{s}_1}.\) |
We also consider the robustness against local variations of the offset [1]}, [2]}, [3]}, [4]}, [5]}. In this case, since \(\delta \rightarrow 0\) , the solution of the Bloch equation can be approximated by a Taylor series of the form:
\(\vec{L}(\delta ,t)=\vec{L}_0(t)+\delta \vec{L}_1(t)+\delta ^2\vec{L}_2(t)+\cdots \)
| Мы также рассматриваем устойчивость к локальным изменениям смещения [1], [2], [3], [4], [5]. В этом случае, так как \(\delta \rightarrow 0\), решение уравнения Блоха может быть аппроксимировано рядом Тейлора следующего вида: \(\vec{L}(\delta ,t)=\vec{L}_0(t)+\delta \vec{L}_1(t)+\delta ^2\vec{L}_2(t)+\cdots\) |
The Newton-Cartan Schwarzschild structure is obtained by taking the \(c\rightarrow \infty \) limit of Eq.REF as worked by Ref.[1]}; in fact, this study shows both TLNC and TTNC geometry can be obtained by adopting different assumptions on the gravitational field strength relative to \(c^2\) and preserving only terms of order not lower than \(\mathcal {O}(1)\) .
| Структура Ньютон-Картана Шварцшильда получается путем взятия предела \(c\rightarrow \infty \) у Соотн.REF, как продемонстрировано в работе [1]; фактически, в этом исследовании показано, что как геометрию TLNC, так и TTNC можно получить, приняв различные предположения относительно силы гравитационного поля относительно \(c^2\) и сохраняя только слагаемые порядка не ниже \(\mathcal {O}(1)\). |
In all previous cases, the statistics are computed over the complete tensor. [1]} observe that per-tensor quantization of gradients does not utilize the quantization grid efficiently and instead propose a per-sample quantization and a Block Householder decomposition of the gradient tensor to better spread the signal across the tensor.
<FIGURE> | Во всех предыдущих случаях статистика вычисляется для полного тензора. [1]} наблюдают, что квантование градиентов по каждому тензору неэффективно использует сетку квантования и вместо этого предлагают квантование для каждого образца и блочную декомпозицию градиентного тензора, чтобы равномерно распределить сигнал по всему тензору.
<FIGURE> |
We recall the basics of quasi-Hamiltonian and quasi-Poisson manifolds below, and we refer to [1]} for more details. We then explain how to view quasi-Poisson manifolds as twisted Dirac manifolds, following [2]} and [3]}. We will use this formalism in Section .
| Мы вспомним основы квази-гамильтоновых и квази-пуассоновых многообразий ниже и ссылаемся на [1] для более подробной информации. Затем мы объясним, как рассматривать квази-пуассоновы |
On the other hand, increasing the batch size hurts the effectiveness of stochastic gradient descent (SGD). While a large body of work [1]}, [2]}, [3]}, [4]}, [5]} has demonstrated that large batches are able to train machine learning models, given a careful adjustment of the training hyperparameters, large batches train more slowly and require extra training samples to reach the same validation loss. That is, they add an overhead which increases the training cost (and time).
<FIGURE> | С другой стороны, увеличение размера пакета (batch size) негативно влияет на эффективность стохастического градиентного спуска (SGD). В то время как большое количество работ [1]}, [2]}, [3]}, [4]}, [5]} продемонстрировали, что большие пакеты могут обучать модели машинного обучения при условии тщательной настройки гиперпараметров обучения, большие пакеты обучаются медленнее и требуют дополнительных образцов обучения для достижения той же потери при валидации. Другими словами, они добавляют накладные расходы, увеличивая стоимость (и время) обучения.
<ФИГУРА> |
Crocco proposed a closed-form formulation to estimate dual quadrics from multi-view object detections, using a simplified camera model in [1]}. Rubino then extended it to the pinhole camera model [2]}. In [3]}, Chen et al. addressed the problem of initial object estimation in the specific context of forward-translating camera movements, which commonly occurs in autonomous navigation. All these works are focused on object mapping and assume that the camera poses and object associations and provided.
| Крокко предложил замкнутую формулировку для оценки двойных квадрика из многократных обнаружений объектов с использованием упрощенной модели камеры [1]. Рубино затем расширил ее до модели «отверстия» камеры [2]. В [3] Чен и др. рассмотрели проблему первоначальной оценки объекта в конкретном контексте передвижения камеры вперед, что часто возникает при автономной навигации. Все эти работы сосредоточены на картировании объектов и предполагают, что предоставлены позы камер и ассоциации объектов. |
Pascal VOC 2012 [1]} is a generic semantic segmentation dataset of 20 object category and a background class. It consists of \(1,464\) and \(1,449\) images for training and validation. We follow [2]} to augment the training data with additional annotations [3]}, resulting in \(10,582\) training images. Following [4]}, we do not train but only inference on VOC.
| Pascal VOC 2012 {1} - это обобщенный набор данных семантической сегментации из 20 объектных категорий и класса фона. Он состоит из 1464 и 1449 изображений для обучения и проверки. Мы следуем [2], чтобы дополнить обучающие данные дополнительными аннотациями [3], что приводит к 10582 обучающим изображениям. В соответствии с [4], мы проводим только вывод, а не обучение на наборе данных VOC. |
Tsallis-GUP correspondence has been rigorously formalized in [1]}
through the study of coherent states for generalized uncertainty relations.
As a result, it has been argued that the probability distribution associated with the coherent states for the quadratic GUP (REF ) is a Tsallis-like distribution,
the non-extensivity parameter being monotonically related to \(\beta \)
by
\(\delta =\frac{\beta \hspace{1.42262pt} \gamma _{\Delta p}}{m_p^2+\beta \hspace{1.42262pt} \gamma _{\Delta p}}\,+\,1\,.\)
| Соответствие Тсаллиса-ГУР было строго формализовано в [1] через изучение согласованных состояний для обобщенных соотношений неопределенности. В результате было утверждено, что вероятностное распределение, связанное с согласованными состояниями для квадратичного ГУР (REF), является распределением, подобным распределению Тсаллиса, причем параметр неэкстенсивности связан монотонно с β следующим образом: δ = (βγΔp)/(mp^2+βγΔp) + 1. |
For details see [1]}. It is clear that LCP\((q, A)\) is equivalent to find a vector \(z \in R^{n}\) such that \(f_{A}(z) = q.\) If \(z\) belongs to the interior of some orthants of \(R^n\) and \(\det A_{\alpha \alpha } \ne 0\) where \(\alpha = \lbrace i : z_i < 0\rbrace ,\) then the index of \(f_{A}(z)\) at \(z\) is well defined and can be written as
\(\text{ind} f_{A}(q, z) = sgn(\det A_{\alpha \alpha }).\)
| Для подробностей см. [1]. Очевидно, что LCP\((q, A)\) эквивалентно нахождению вектора \(z \in R^{n}\) такого, что \(f_{A}(z) = q\). Если \(z\) принадлежит внутренности некоторых ортантов \(R^n\), и \(\det A_{\alpha \alpha } \ne 0\), где \(\alpha = \lbrace i : z_i < 0\rbrace\), то индекс \(f_{A}(z)\) в точке \(z\) хорошо определен и может быть записан как \(\text{ind} f_{A}(q, z) = sgn(\det A_{\alpha \alpha })\). |
This is the first determination of \(A_{{C\!P}}(B^0\rightarrow K_S^0\pi ^0)\) using a time-dependent analysis at Belle II.
The results agree with the previous measurements [1]}, [2]}.
| Это первое определение \(A_{{C\!P}}(B^0\rightarrow K_S^0\pi ^0)\) с использованием анализа, зависящего от времени, на Belle II. Результаты согласуются с предыдущими измерениями [1], [2]. |
Definition 2.3 ([1]})
We define the slope of \(E\) by
\(\mu _{\Xi }(E)=\frac{\alpha _{\Xi , l-1}(E)}{\alpha _{\Xi , l}(E)}.\)
| Определение 2.3 ([1])
Мы определяем наклон \(E\) следующим образом:
\(\mu _{\Xi }(E)=\frac{\alpha _{\Xi , l-1}(E)}{\alpha _{\Xi , l}(E)}.\) |
For a comprehensive review of the many
methods used for ORPCA, we direct the reader to [1]}. Perhaps one of the most popular frameworks for ORPCA uses least absolute deviations. Originating with the study of robust orthogonal regression in [2]}, [3]}, it was considered for ORPCA in [4]}. More recent studies by [5]}, [6]}, [7]}, [8]} have demonstrated the considerable advantages of this program. This problem is distinct from what is called Robust PCA (RPCA), which considers sparse corruptions [9]}, [10]}.
| Для полного обзора множества методов, используемых для метода ORPCA, мы направляем читателя на [1]}. Одна из самых популярных систем для ORPCA использует наименьшие абсолютные отклонения. Изначально исследуется устойчивая ортогональная регрессия [2]}, [3]}, и она была рассмотрена для ORPCA в [4]}. Более новые исследования [5]}, [6]}, [7]}, [8]} демонстрируют значительные преимущества этой программы. Эта проблема отличается от так называемой Robust PCA (RPCA), которая учитывает разреженные искажения [9]}, [10]}. |
The listen, attend and spell (LAS) model [1]} uses the label dependent alignment lattice.
Each label can be seen as aligned to the entire feature sequence, thus there is single alignment path for any \({y}\) in the recognition lattice.
| Модель слушай, уделяй внимание и пиши (LAS) [1] использует решетку выравнивания, зависящую от меток.
Каждую метку можно рассматривать как выровненную на всю последовательность признаков, поэтому для любой метки \({y}\) в решетке распознавания существует один путь выравнивания. |
Omnipresent in the fields of finance, transport, information - the list is necessarily incomplete - Artificial Intelligence (AI) governs our lives. The field of health is no exception, and even on unstructured data (e.g. textual), which is reputed to be the most difficult to manipulate. Problems that were inaccessible a short time ago are becoming soluble, such as the search for similar patient files, ICD-10 classification [1]}, [2]}, hospital readmission prediction [3]}, patient clustering [4]} ....
| Вездесущий в областях финансов, транспорта, информации - список не является полным - искусственный интеллект (ИИ) управляет нашей жизнью. Область здравоохранения не является исключением, включая и неструктурированные данные (например, текстовые), которые считаются наиболее сложными для обработки. Проблемы, которые еще недавно были недоступны, становятся решаемыми, такие как поиск похожих медицинских файлов, классификация по МКБ-10 [1]}, [2]}, прогнозирование повторных госпитализаций [3]}, кластеризация пациентов [4]} .... |
Theorem 2.1 ([1]})
Let \(0< q\le \lambda < \infty \) and \(f \in \mathcal {S}^{\prime }(\mathbb {R}^{n})\) . The following statements are equivalents:
| Теорема 2.1 ([1])
Пусть \(0 < q \leq \lambda < \infty\) и \(f \in \mathcal{S}^\prime(\mathbb{R}^n)\). Следующие утверждения эквивалентны: |
The definitions of parabolic Hölder spaces and related Schauder estimates
have been taken from [1]} and [2]}, while
properties of Gaussian fields, in particular in relation with fractional
Sobolev spaces, can be found in [3]}.
| Определения параболических пространств Хёльдера и связанных оценок Шодера были взяты из [1] и [2], в то время как свойства гауссовских полей, в частности в связи с дробными пространствами Соболева, можно найти в [3]. |
These functions are then given intentional derivatives which provide valid derivatives
on the domain of definition and differentiability of the operator.
These functions are well known to be the bete noire of AD [1]}
and we do not provide novel solutions to these.
Several recent work have shown how to give semantics to such operators in the context of AD [2]}, [3]}, [4]}, [5]}.
| Эти функции затем получают интегральные производные, которые обеспечивают допустимые производные на области определения и дифференцируемость оператора. Известно, что эти функции являются острым камнем автоматического дифференцирования [1]}, и мы не предлагаем новых решений для них. Несколько последних работ показали, как дать семантику таким операторам в контексте автоматического дифференцирования [2]}, [3]}, [4]}, [5]}. |
The relations (REF ) are not canonical transformation and they are not the state flow which was introduced in [1]}. In terms of the new canonical variables the Hamiltonian density (REF ) up to the first order reads
\(\begin{split}T_{00}=\mathcal {H}\equiv H_0+ H_1+\mathcal {O}(\lambda ^2)\end{split}\)
| Отношения (REF) не являются каноническими преобразованиями и не являются потоком состояний, который был введен в [1]. В терминах новых канонических переменных плотность гамильтониана (REF) до первого порядка имеет вид:
\(\begin{split}T_{00}=\mathcal {H}\equiv H_0+ H_1+\mathcal {O}(\lambda ^2)\end{split}\) |
The Ellis Drainhole [1]} is a wormhole solution of an action that consists of a pure Einstein-Hilbert term and a scalar field with negative kinetic energy
\(S = \int d^4x \sqrt{-g} \left(\frac{R}{2} + \frac{1}{2}\partial ^{\mu }\phi \partial _{\mu }\phi \right)~.\)
| Подключение Эллиса [1] - это решение червоточины акции, состоящей из чистого терма Эйнштейна-Гильберта и скалярного поля с отрицательной кинетической энергией
\(S = \int d^4x \sqrt{-g} \left(\frac{R}{2} + \frac{1}{2}\partial ^{\mu }\phi \partial _{\mu }\phi \right)~.\) |
To illustrate applications for dHDAEs and DAEs with symmetries consider the following simple examples, for further applications see [1]}, [2]}, [3]}, [4]}.
| Для иллюстрации применений dHDAE и DAE с симметрией рассмотрим следующие простые примеры, для дальнейших применений см. [1], [2], [3], [4]. |
The following theorem is in the vein of those first established in [1]}
for simple decrease and Lipschitz continuous functions
(and later generalized in [2]}, [3]} for sufficient decrease
and directionally Lipschitz functions).
| Следующая теорема соответствует тем, которые были первоначально установлены в [1] для функций простого убывания и Липшицево непрерывных функций (а позже обобщены в [2], [3] для функций достаточного убывания и функций с направленной Липшицевой непрерывностью). |
Besides ground-state contribution, the amplitude \(\Pi ^{\mathrm {Phys}}(M^{2}) \) in the soft limit contains unsuppressed terms which survive even
after Borel transformation. These contaminations should be removed from \(\Pi ^{\mathrm {Phys}}(M^{2})\) by applying the operator [1]}, [2]}
\(\mathcal {P}(M^{2},\widetilde{m}^{2})=\left( 1-M^{2}\frac{d}{dM^{2}}\right)M^{2}e^{\widetilde{m}^{2}/M^{2}}. \)
| Помимо вклада основного состояния, амплитуда \(\Pi ^{\mathrm {Phys}}(M^{2})\) в мягком пределе содержит неподавленные члены, которые сохраняются даже после Бореля преобразования. Эти примеси должны быть удалены из \(\Pi ^{\mathrm {Phys}}(M^{2})\) путем применения оператора [1], [2]:
\(\mathcal {P}(M^{2},\widetilde{m}^{2})=\left( 1-M^{2}\frac{d}{dM^{2}}\right)M^{2}e^{\widetilde{m}^{2}/M^{2}}.\) |
where \(\mathbb {I}\) denotes the identity operator on a single qubit.
In the variational approach, the state of the \(2n\) qubits is represented by a parameterized quantum circuit with parameters \(\mathbf {\theta }\) . For VarQBMs, the initial parameter values \(\mathbf {\theta }^{(0)}\) must be chosen such that each qubit pair is in a Bell state [1]}.
| где \(\mathbb {I}\) обозначает оператор единичности на одном кубите.
В вариационном подходе состояние \(2n\) кубитов представлено параметризованным квантовым цепью с параметрами \(\mathbf {\theta }\) . Для VarQBMs начальные значения параметров \(\mathbf {\theta }^{(0)}\) должны быть выбраны таким образом, чтобы каждая пара кубитов находилась в состоянии Беллова [1]}. |
With these dimension-four operators, the correctly renormalized energy-momentum tensor \(T_{\mu \nu }^R\) is given by [1]}
\(T_{\mu \nu }^R(x)=\lim _{t\rightarrow 0}\left\lbrace c_1(t) \,U_{\mu \nu }(t,x)+4c_2(t)\, \delta _{\mu \nu }\left[E(t,x)-\left\langle E(t,x)\right\rangle _0 \right]\right\rbrace ,\)
| С использованием этих операторов размерности четыре, правильно ренормализованный тензор энергии-импульса \(T_{\mu \nu }^R\) задается следующим образом [1]:
\(T_{\mu \nu }^R(x)=\lim _{t\rightarrow 0}\left\lbrace c_1(t) \,U_{\mu \nu }(t,x)+4c_2(t)\, \delta _{\mu \nu }\left[E(t,x)-\left\langle E(t,x)\right\rangle _0 \right]\right\rbrace ,\) |
The XGBoost code is available as an open-source packagehttps://github.com/dmlc/xgboost. The parameters of the XGBoost model were the same as used in Hamidieh (2018) [1]}. We kept the parameters of other machine learning algorithms the same as Scikit defaults.
| Код XGBoost доступен в виде открытого пакета по адресу https://github.com/dmlc/xgboost. Параметры модели XGBoost были такими же, как в работе Хамидие (2018) [1]. Мы оставили параметры других алгоритмов машинного обучения такими же, как значения по умолчанию в Scikit. |
The StockGNN Method:
GNN based methods have been popular tools in several natural language processing and related tasks such as event detection [1]}, [2]}, [3]}, [4]}. Inspired by the method in [3]}, our architecture (Figure REF ) is based on a Gated GNN [6]} and have four following components:
| Метод StockGNN:
Методы, основанные на GNN, были популярными инструментами в нескольких областях обработки естественного языка и связанных задачах, таких как обнаружение событий [1], [2], [3], [4]. Вдохновленные методом в [3], наша архитектура (рисунок REF) основана на Gated GNN [6] и имеет четыре следующих компонента: |
Let us underline that dimensional regularization [1]}
is presently the only known continuous (not discrete like lattice)
regularization of ultraviolet divergences appropriate for perturbative calculations and
preserving gauge invariance of gravity.
| Отметим, что размерная регуляризация [1] в настоящее время является единственной известной непрерывной (не дискретной, как решетка) регуляризацией ультрафиолетовых расходимостей, подходящей для пертурбативных вычислений и сохраняющей калибровочную инвариантность гравитации. |
where we use the fact that \(\wp _{1,\ell }(u)\) is an even function from Proposition REF . From \((P_1,\dots ,P_g)\in S\) , we have \(\psi _g^{(g+1)}(P_1,\dots ,P_g)\ne 0\) (cf. [1]}). From \(\mu _{g+1}(P_1,\dots ,P_g;P_i)=0\) for any \(i\) , we have
\(\mu _{g+1}(P_1,\dots ,P_g;P_i)=\varphi _{g+1}(P_i)+\sum _{j=1}^{g}(-1)^{g+1-j}\mu _{g,j}(P_1,\dots ,P_g)\varphi _j(P_i)=0.\)
| где мы используем тот факт, что \(\wp _{1,\ell }(u)\) - четная функция из Proposition REF. Из \((P_1,\dots ,P_g)\in S\) мы имеем \(\psi _g^{(g+1)}(P_1,\dots ,P_g)\ne 0\) (см. [1]). Из \(\mu _{g+1}(P_1,\dots ,P_g;P_i)=0\) для любого \(i\), имеем \(\mu _{g+1}(P_1,\dots ,P_g;P_i)=\varphi _{g+1}(P_i)+\sum _{j=1}^{g}(-1)^{g+1-j}\mu _{g,j}(P_1,\dots ,P_g)\varphi _j(P_i)=0.\) |
with \( K=0 \) for the ground state bands in even-even nuclei.
The MU [1]} and IMSRG [2]} calculations
show an intrinsic oblate ground-state band, (\( Q_{s}>0 \) and \( Q_{o}<0 \) ), followed by
a large energy gap to other more complex states.
The U-SI Hamiltonian [3]} also gives an oblate ground-state
band, but there is also an intrinsic prolate band at relatively low energy.
The presence of this low-lying prolate band dramatically increases the
level density below 4 MeV [4]}, [5]}.
| с \( K=0 \) для основного состояния полос в четных ядрах-четных.
Расчеты MU [1]} и IMSRG [2]}
показывают внутреннюю плосковытяжную полосу основного состояния (\( Q_{s}>0 \) и \( Q_{o}<0 \) ), за которой следует
большой энергетический разрыв до других более сложных состояний.
Гамильтониан U-SI [3]} также дает плосковытяжную основную полосу,
но также существует внутренняя протоннодлинная полоса с относительно низкой энергией.
Присутствие этой низколежащей протоннодлинной полосы существенно увеличивает
плотность уровня ниже 4 МэВ [4]}, [5]}. |
Curriculum learning was used in adversarial training in [1]}, with the perturbation step of PGD as the difficulty measure. Their assumption is that more perturbation steps indicate stronger adversarial examples.
However, this is not a reliable assumption from the FOSC view of the inner maximization problem: more steps may overshoot and result in suboptimal adversarial examples.
Empirical comparisons with [1]} will be shown in Sec. .
| Curriculum learning was used in adversarial training in [1], with the perturbation step of PGD as the difficulty measure. Their assumption is that more perturbation steps indicate stronger adversarial examples.
However, this is not a reliable assumption from the FOSC view of the inner maximization problem: more steps may overshoot and result in suboptimal adversarial examples.
Empirical comparisons with [1] will be shown in Sec. .
Кривая обучения была использована в адверсарном тренировании в [1], где шаг искажения PGD является мерой сложности. Их предположение состоит в том, что больше шагов искажения указывает на более сильные адверсарные примеры.
Однако это ненадежное предположение с точки зрения FOSC внутренней задачи максимизации: большее количество шагов может привести к недооценке и созданию недостаточно эффективных адверсарных примеров.
В секции будет представлено эмпирическое сравнение с [1]. |
as a Monte Carlo estimator
for \(\operatorname{\mathrm {trace}}(B_i)\) , and apply
the bound for Gaussian trace estimators
[1]}
\(\mathbb {P}\left[\left|\widehat{a}_{ii} - a_{ii}\right| \ge t\right] \le 2\exp \left(\frac{-Nt^2}{4\Vert B_i\Vert _F^2 + 4t\Vert B_i\Vert _2}\right),\)
| в качестве оценщика Монте-Карло
для \(\operatorname{\mathrm {trace}}(B_i)\) и применить
ограничение для оценщиков следа Гаусса
[1]}
\(\mathbb {P}\left[\left|\widehat{a}_{ii} - a_{ii}\right| \ge t\right] \le 2\exp \left(\frac{-Nt^2}{4\Vert B_i\Vert _F^2 + 4t\Vert B_i\Vert _2}\right),\) |
MT uses algorithms to translate text or speech from one language to another. Modeling attention in neural techniques for MT allows for better alignment of sentences in different languages, which is a crucial problem in MT. The advantage of the attention model also becomes more apparent while translating longer sentences [1]}. Several studies including [2]} and [3]} have shown performance improvements in MT using attention.
| Машинный перевод (MT) использует алгоритмы для перевода текста или речи с одного языка на другой. Моделирование внимания в нейронных техниках для MT позволяет лучше выравнивать предложения на разных языках, что является важной проблемой в MT. Преимущество модели внимания становится более заметным при переводе более длинных предложений [1]}. Несколько исследований, включая [2]} и [3]}, показали улучшение производительности в MT с использованием внимания. |
Kolmogorov-Sinai entropy characterizes the randomness of a dynamical system forward in time [1]}, [2]}. The classical definition of the Kolmogorov-Sinai entropy is
\(&\mathcal {H}_{KS}=-\lim _{n\rightarrow +\infty }\frac{1}{n\tau }\\&\sum _{\mathcal {C}_{0},\ldots ,\mathcal {C}_{n}}\mathcal {P}\left(\mathcal {C}_{0}\rightarrow \ldots \rightarrow \mathcal {C}_{n}\right)\ln \mathcal {P}\left(\mathcal {C}_{0}\rightarrow \ldots \rightarrow \mathcal {C}_{n}\right), \)
| Энтропия Колмогорова-Синайя характеризует случайность динамической системы вперед во времени [1]}, [2]}. Классическое определение энтропии Колмогорова-Синайя выглядит следующим образом:
\(&\mathcal {H}_{KS}=-\lim _{n\rightarrow +\infty }\frac{1}{n\tau }\\&\sum _{\mathcal {C}_{0},\ldots ,\mathcal {C}_{n}}\mathcal {P}\left(\mathcal {C}_{0}\rightarrow \ldots \rightarrow \mathcal {C}_{n}\right)\ln \mathcal {P}\left(\mathcal {C}_{0}\rightarrow \ldots \rightarrow \mathcal {C}_{n}\right), \) |
To optimize the performance of a blockchain, a widely adopted approach consists of finding the best block generation rate [1]}, which is controlled by tuning the mining difficulty. Other approaches consider optimizing the block size [2]}, which fits better scenarios where the intensity of transactions arrivals depends on the nature of the application running on top of the blockchain (e.g., FL updates provided by clients).
| Для оптимизации производительности блокчейна широко применяемым подходом является поиск наилучшей частоты генерации блоков [1], что контролируется путем настройки уровня сложности майнинга. Другие подходы рассматривают оптимизацию размера блока [2], что подходит для сценариев, где интенсивность поступления транзакций зависит от характера приложения, работающего поверх блокчейна (например, обновления Federated Learning, предоставляемые клиентами). |
Recall that Step 2 of alg:upperlevelcpa solves Problem (REF ), which is an SDO problem including positive semidefinite constraints () and () on \((N+1)\times (N+1)\) symmetric matrices.
It is clearly difficult to directly solve Problem (REF ) when \(N\) is very large.
To remedy this situation, we reduce its problem size by applying the technique of positive semidefinite matrix completion [1]}, [2]} to the lower-level SDO problem (REF ).
| Повторим, что Шаг 2 алгоритма upperlevelcpa решает Задачу (REF), которая является задачей на минимум с положительно полуопределенными ограничениями () и () на симметричные матрицы размером \((N+1)\times (N+1)\).
Ясно, что прямое решение Задачи (REF) становится трудным при очень большом значении \(N\).
Чтобы исправить ситуацию, мы уменьшаем размер задачи с помощью метода положительного полуопределенного завершения матрицы [1], [2] для более низкоуровневой задачи SDO (REF). |
We also compare MX-HOI with other recent arts
[1]}, [2]}, [3]}, [4]}, [5]}, [6]} using 100% supervision. One can see that with WS/FS = 70/30, MX-HOI performs very close to the SOTA.
<TABLE> | Мы также сравниваем MX-HOI с другими недавними художественными работами[1], [2], [3], [4], [5], [6], используя 100% надзор. Можно заметить, что при WS/FS = 70/30 MX-HOI выполняет очень близко к SOTA. |
The above phenomena show that the current model with scalar hair shows very different entanglement properties from the AdS-RN model and many other models [1]}. The essence underlying the difference is the novel potential, which leads to the novel dependence of the metric on the temperature and the AdS radius.
| Вышеуказанные явления показывают, что текущая модель с скалярными волосами проявляет совершенно различные свойства запутанности по сравнению с моделью AdS-RN и многими другими моделями [1]. Суть, лежащая в основе этой разницы, заключается в новом потенциале, который ведет к новой зависимости метрики от температуры и радиуса AdS. |
where above we are assuming \(\gamma >0\) . Moreover, if \(u\in C^0([0,T];H^s(\mathbb {R}))\) is a solution of (REF ), then it is unique since it arises from the initial datum \(u_0(x):=u(0,x)\) in view of [1]}. Therefore, in view of Sobolev Embedding Theorem, we have \(\Vert u(t,\cdot )\Vert _\infty \le \Vert u_0\Vert _{H^1(\mathbb {R})}\) , that, jointly (REF ), enable us to conclude that
\(g(u)\le \Big (1+{3}\Vert u_0\Vert _{H^1(\mathbb {R})}+{4}\Vert u_0\Vert _{H^1(\mathbb {R})}^2\Big )u^2=:cu^2,\)
| где мы предполагаем, что \(\gamma >0\). Кроме того, если \(u\in C^0([0,T];H^s(\mathbb {R}))\) является решением (REF), то оно единственно, так как оно происходит из начальных данных \(u_0(x):=u(0,x)\) согласно [1]. Поэтому, в силу Теоремы о вложении Соболева, у нас имеется \(\Vert u(t,\cdot )\Vert _\infty \le \Vert u_0\Vert _{H^1(\mathbb {R})}\), что вместе с (REF) позволяет нам заключить, что
\(g(u)\le \Big (1+{3}\Vert u_0\Vert _{H^1(\mathbb {R})}+{4}\Vert u_0\Vert _{H^1(\mathbb {R})}^2\Big )u^2=:cu^2,\) |
The map \(C\mapsto \Vert UCV^T\Vert ^2\) is convex. We record this as the following lemma, which appeared previously as [1]}.
| Отображение \(C\mapsto \Vert UCV^T\Vert ^2\) является выпуклым. Мы записываем это как следующую лемму, которая появилась ранее в [1]. |
Let the advantage function be \(A_{\pi }(s, a) = Q_{\pi }(s, a) - V_{\pi }(s)\) ;
the following useful identity expresses the expected return of another policy \(\tilde{\pi }\)
in terms of the advantage over \(\pi \) [1]}:
\(J(\tilde{\pi }) = J(\pi ) + \frac{1}{1-\gamma } \sum _{s}d_{\tilde{\pi }}(s)\sum _{a}\tilde{\pi }(a|s) A_{\pi }(s, a),\)
| Пусть функцией преимущества будет \(A_{\pi }(s, a) = Q_{\pi }(s, a) - V_{\pi }(s)\);
следующая полезная формула выражает ожидаемую награду для другой политики \(\tilde{\pi }\)
в терминах преимущества по отношению к \(\pi\) [1]:
\(J(\tilde{\pi }) = J(\pi ) + \frac{1}{1-\gamma } \sum _{s}d_{\tilde{\pi }}(s)\sum _{a}\tilde{\pi }(a|s) A_{\pi }(s, a),\) |
Since \(\phi \in H^1(\Omega \setminus \Omega _C)\) , it follows
from the Trace Theorem [1]}, and by noting that \(\phi |_{\partial \Omega } = 0\) , that there is a
\(C_1 > 0\) such that \(||\phi ||_{L^2(\partial \Omega _C)} \le C_1||\phi ||_{H^1(\Omega )}\) , which implies that the right-hand
side in the weak form is bounded. Subsequently one
combines Korn's Inequality with Lax-Milgram's Lemma
to conclude that a unique solution in \(H^1\) exists.
| Поскольку \(\phi \in H^1(\Omega \setminus \Omega _C)\) , следует из теоремы о следе [1] и того факта, что \(\phi |_{\partial \Omega } = 0\), что существует \(C_1 > 0\), такое что \(||\phi ||_{L^2(\partial \Omega _C)} \le C_1||\phi ||_{H^1(\Omega )}\), что подразумевает, что правая часть слабой формы ограничена. Впоследствии сочетают неравенство Корна с леммой Лакса-Мильграма, чтобы прийти к выводу, что существует единственное решение в \(H^1\). |
With a growing need for robust and general discourse structures in many downstream tasks and real-world applications (e.g. [1]}, [2]}, [3]}), the current lack of high-quality, high-quantity discourse trees poses a severe shortcoming.
<FIGURE> | с растущей необходимостью в качественных и общепринятых структурах дискурса во многих последующих задачах и реальных приложениях (например, [1], [2], [3]), отсутствие качественных и многочисленных деревьев дискурса является серьезным недостатком.
<FIGURE> |
Besides traditional AL strategies like [1]}, [2]}, [3]}, [4]}, [5]}, [6]}, [7]} the field of learning AL query strategies has emerged in the past few years.
Instead of relying on heuristics or solving optimization problems, they can learn new strategies based on training on already labeled datasets.
| Кроме традиционных стратегий обучающегося обучения, таких как [1]}, [2]}, [3]}, [4]}, [5]}, [6]}, [7]}, в последние годы появилось новое направление - обучение стратегий выбора обучающих запросов. Вместо использования эвристик или решения задач оптимизации, такие стратегии могут изучать новые подходы на основе обучения на уже размеченных наборах данных. |
Lemma 3.1 [1]}
Let \(t_{0},t_{1},\ldots ,t_{n}\) be \(n+1\) integers such that \(1 = t_{0} < t_{1} < \ldots <t_{n},\) and let \(\Delta =\max _{1\le s \le n}\frac{t_{s}-t_{0}}{s}.\)
Then for every \(n\) real numbers \(a_{0},a_{1},\ldots ,a_{n-1}\) with \(a_{0} \ge a_{1} \ge \ldots \ge a_{n-1} \ge 1,\) we have
\(\sum ^{n-1}_{i=0}(t_{i+1}-t_{i})\log a_{i} \le \Delta \sum ^{n-1}_{i=0}\log a_{i}.\)
| Лемма 3.1 [1]
Пусть \(t_{0},t_{1},\ldots ,t_{n}\) являются \(n+1\) целыми числами такими, что \(1 = t_{0} < t_{1} < \ldots <t_{n},\) а \(\Delta =\max _{1\le s \le n}\frac{t_{s}-t_{0}}{s}.\)
Тогда для всех \(n\) действительных чисел \(a_{0},a_{1},\ldots ,a_{n-1}\) с условием \(a_{0} \ge a_{1} \ge \ldots \ge a_{n-1} \ge 1,\) мы имеем
\(\sum ^{n-1}_{i=0}(t_{i+1}-t_{i})\log a_{i} \le \Delta \sum ^{n-1}_{i=0}\log a_{i}.\) |
Our problem can also be seen as finding the optimal Constructive Solid
Geometry (CSG) [1]} expression tree, where leaves represent base shapes
(in our model, rectangles), internal nodes represent shape subtraction, and
the root should evaluate to the target shape,
such that the tree can be evaluated using only two registers.
Applegate et al. [2]} studied
a rectilinear version of this problem (with union and subtraction, and a
different register limitation).
| Наша проблема также может быть рассмотрена как поиск оптимального дерева выражения CSG (Constructive Solid Geometry), где листья представляют базовые фигуры (в нашей модели - прямоугольники), внутренние узлы представляют вычитание фигур, и корень должен вычисляться в целевую фигуру, так что дерево может быть вычислено только с использованием двух регистров.
Applegate и др. [2] изучали прямоугольную версию этой проблемы (с объединением и вычитанием, и другим ограничением регистра). |
Autoencoders utilize a reconstruction-based approach relying on the assumption that anomalous data cannot be represented and reconstructed accurately by a model trained on normal data.
Autoencoders and its variants such as denoising autoencoders have been used for anomaly detection in works such as those presented in [1]}), [2]} and [3]}, while [4]} ([4]}) use an
autoencoder ensemble.
| Автоэнкодеры используют подход на основе восстановления, полагаясь на предположение, что аномальные данные не могут быть точно представлены и восстановлены моделью, обученной на нормальных данных.
Автоэнкодеры и их варианты, такие как автоэнкодеры с шумоподавлением, были использованы для обнаружения аномалий в работах, таких как те, которые представлены в [1], [2] и [3], в то время как [4] используют ансамбль автоэнкодеров. |
Learning from a continuous stream of data is natural for humans, as new experiences come sequentially in our life. Yet, artificial neural network models fail to exhibit the very same skill [1]}, [2]}, [3]}, [4]}. Although they generally deal well with solving increasingly complex tasks, their inability to acquire new knowledge without catastrophically forgetting what they learned previously is considered one of the critical roadblocks to reaching human-like intelligence.
<FIGURE> | Обучение на непрерывном потоке данных естественно для людей, так как новые опыты приходят к нам последовательно в жизни. Однако искусственные модели нейронных сетей не могут проявить ту же самую способность [1], [2], [3], [4]. Хотя они обычно хорошо справляются с решением все более сложных задач, их неспособность приобрести новые знания без катастрофического забывания предыдущего является одним из критических препятствий на пути к достижению человекоподобного интеллекта. |
Proof.
This follows from the fact that the vertex-edge incidence matrix of a bipartite graph is totally unimodular, see [1]} (Section 19.3). In fact, this general fact implies that each extreme point \(A=[a_{ij}]\) of the polyhedron defined by (REF ) is integral, so \(A\) is a \((0, \pm 1)\) -matrix satisfying the equations in (REF ). Therefore the set of extreme points is equal to \({\mathcal {A}}^{\pm }(R,S)\) .
| Доказательство.
Это следует из того факта, что матрица инцидентности вершин-ребер двудольного графа является полностью унимодулярной, см. [1] (раздел 19.3). Фактически, этот общий факт означает, что каждая крайняя точка \(A=[a_{ij}]\) полихедрона, определяемого (REF), является целой, поэтому \(A\) является \((0, \pm 1)\)-матрицей, удовлетворяющей уравнениям в (REF). Следовательно, множество крайних точек равно \({\mathcal {A}}^{\pm }(R,S)\). |
Here we state the main result of this note. A knowledge of cluster pictures is required, and so a brief exposition for the uninitiated is available in Appendix ; for more details the reader is encouraged to turn to [1]} or [2]}.
| Здесь мы излагаем основной результат этой заметки. Для понимания требуется знание кластерных изображений, краткое описание доступно в Приложении; для более подробной информации рекомендуется обратиться к [1] или [2]. |
The cohomology theory for \(n\) -Lie algebras is qualified to classify the abelian extensions of a \(n\) -Lie algebra with a representation space of it. More precisely [1]}, see also [2]}, extends to \(n\) -Lie algebras as follows.
| Теория кохомологий для \(n\)-алгебр Ли предназначена для классификации абелевых расширений \(n\)-алгебры Ли с пространством представлений. Более подробно [1], см. также [2], расширяется на \(n\)-алгебры Ли следующим образом. |
Note that \(\mu \) -\(e\) universality can also be determined from \(B\) decays such as \({\rm Br}[B\rightarrow D^{*}\mu \nu ]/{\rm Br}[B\rightarrow D^{*}e\nu ]\) . Even though the relative precision at the % level [1]}, [2]}, [3]} is not competitive with the ones obtained from kaon and pion decays, these measures of LFUV are interesting in light of the anomalies in \(R(D^{(*)})\) and \(\Delta A_{FB}\) [2]}, [5]}, [6]} as they test different 4-fermion operators.
| Отметим, что универсальность \(\mu\)-\(e\) также можно определить по распадам \(B\), таким как \({\rm Br}[B\rightarrow D^{*}\mu \nu ]/{\rm Br}[B\rightarrow D^{*}e\nu ]\). Несмотря на то, что относительная точность на уровне % [1]}, [2]}, [3]} не конкурентоспособна с полученными из распадов каона и пиона, эти меры левонехиральной флейворовой разницы интересны в свете аномалий в \(R(D^{(*)})\) и \(\Delta A_{FB}\) [2]}, [5]}, [6]}, так как они проверяют различные четырехфермионные операторы. |
Due to the structure of matrix \(A\) , which satisfies the restricted isometry property (see [1]} for all the details), matrix \(H\) can be efficiently preconditioned by the block diagonal matrix
\(P=\begin{bmatrix}1\ &-1\\-1\ &1\end{bmatrix}\otimes \eta I+\Theta ^{-1}\)
| Из-за структуры матрицы \(A\), которая удовлетворяет ограниченному изометрическому свойству (см. [1] для подробностей), матрица \(H\) может быть эффективно предварительно обработана блочно-диагональной матрицей
\(P=\begin{bmatrix}1\ &-1\\-1\ &1\end{bmatrix}\otimes \eta I+\Theta ^{-1}\) |
From Guo [1]}, it holds
\(\Gamma (f,f)\in \mathcal {N}^{\perp },\qquad \Vert \nu ^{-1} w \Gamma (f,f)\Vert _{L^\infty _v}\le C \Vert w f \Vert ^2_{L^\infty _v}.\)
| Из Guo [1] следует
\(\Gamma (f,f)\in \mathcal {N}^{\perp },\qquad \Vert \nu ^{-1} w \Gamma (f,f)\Vert _{L^\infty _v}\le C \Vert w f \Vert ^2_{L^\infty _v}.\) |
Previous work on DP-SCO only focused on case where the loss function is either convex or strongly convex [1]}, [2]}. In this paper, we will mainly study the case where the population risk satisfies the Tysbakov Noise Condition (TNC) [3]}, [4]}, which has been studied quite well and has been shown that it could achieve faster rates than the optimal one of general convex loss functions in the non-private case. Below we provide the definition of TNC.
| Предыдущая работа по DP-SCO сосредоточена только на случаях, когда функция потерь является выпуклой или строго выпуклой [1]}, [2]}. В этой статье мы будем изучать в основном случай, когда риск населения удовлетворяет условию шума Тысбакова (TNC) [3]}, [4]}, которое изучалось достаточно хорошо и показывает, что оно может достигать более быстрых скоростей, чем оптимальное значение для общих выпуклых функций потерь в неприватном случае. Ниже мы приводим определение TNC. |
These methods could be combined with algorithms of hard class mining [1]} and hard example mining [2]}, or used together as parts of a composite mini-batch [3]}.
| Эти методы могут быть объединены с алгоритмами классификации сложных классов [1] и позитивного примера [2]}, или использоваться вместе как части составного мини-батча [3]}. |
Following previous works on self-supervised contrastive learning [1]}, [2]}, we formulate our learning objectives as follows.
Consider \(X_i\) as the current input, we first obtain an augmentation of \(X_i\) by transformation \(t(\cdot )\) :
\(X_{i+n} = t(X_i)\)
| В дальнейших работах по самообучению контрастным образом [1], [2] формулируются следующие цели обучения.
Рассмотрим \(X_i\) как текущий входной сигнал, сначала мы получаем аугментацию \(X_i\) путем преобразования \(t(\cdot)\):
\(X_{i+n} = t(X_i)\) |
In the news recommendation field most researches are conducted on proprietary datasets, while there are only a few datasets that are publicly available.
Several representative datasets are plista [1]}, Adressa [2]} and MIND [3]}.
Among them, only MIND is a large-scale English news recommendation dataset with raw textual information of news.
In addition, MIND is associated with a public leaderboard and an open competition.
Thus, many recent researches are conducted on the MIND dataset [4]}, [5]}, [6]}.
| В области рекомендации новостей большинство исследований проводится на собственных наборах данных, в то время как лишь немногие наборы данных являются общедоступными. Несколько репрезентативных наборов данных включают plista [1], Adressa [2] и MIND [3]. Среди них только MIND является крупным набором данных для рекомендации английских новостей с сырыми текстовыми информациями о новостях. Кроме того, MIND связан с публичной таблицей лидеров и открытым соревнованием. Поэтому многие недавние исследования проводятся на наборе данных MIND [4], [5], [6]. |
Theorem 4.3 [1]}
Every Heisenberg Lie superalgebra with odd center has dimension \((m|m+1)\) , is isomorphic to \(H_m=H_{\bar{0}}\oplus H_{\bar{1}}\) , where
\(H_{m}=<x_1,x_2,...,x_{m}, y_1,y_2,...,y_{m}, z \ \ | \ \ [x_j,y_{j}]=z \ \ ; \ \ j=1,...,m>.\)
| Теорема 4.3 [1]
Каждая гейзенбергова супералгебра Ли с нечетным центром имеет размерность \((m|m+1)\) и изоморфна \(H_m=H_{\bar{0}}\oplus H_{\bar{1}}\), где
\(H_{m}=<x_1,x_2,...,x_{m}, y_1,y_2,...,y_{m}, z \ \ | \ \ [x_j,y_{j}]=z \ \ ; \ \ j=1,...,m>.\) |
is the usual face map of simplicial sets (cf. [1]}).
Moreover, for \(0\le i\le n\) , we use the linear map \(s_i: \Lambda _n(V)\longrightarrow \Lambda _{n+1}(V)\) to denote the \(i\) -th degeneracy (cf. [1]}) given by
\(s_i(v_0v_1\ldots v_n)= v_0\ldots v_{i-1} v_i v_i v_{i+1}\ldots v_n.\)
| обычная карта поверхности симплициальных множеств (см. [1]).
Кроме того, для \(0\le i\le n\) мы используем линейное отображение \(s_i: \Lambda _n(V)\longrightarrow \Lambda _{n+1}(V)\), чтобы обозначить \(i\)-й вырожденный элемент (см. [1]), заданный следующим образом:
\(s_i(v_0v_1\ldots v_n)= v_0\ldots v_{i-1} v_i v_i v_{i+1}\ldots v_n.\) |
Both machine-learning classifiers (e.g. Bayes and SVM) and neural-network classifiers are vulnerable to data poisoning [1]}, [2]}, [3]}, [4]}, [5]}, [6]}. Since most heuristic defenses [7]}, [8]}, [9]}, [6]}, [11]} have been broken by the new attacks [12]}, [13]}, developing certified defenses is critical.
| Оба классификатора машинного обучения (например, Байес и SVM) и классификаторы нейронных сетей уязвимы для атак с использованием отравленных данных [1]}, [2]}, [3]}, [4]}, [5]}, [6]}. Поскольку большинство эвристических методов защиты [7]}, [8]}, [9]}, [6]}, [11]} были сломаны новыми атаками [12]}, [13]}, разработка сертифицированных методов защиты является критически важной. |
with \(\delta ^{\beta }_{\lambda }\) denoting the Kronecker delta function and \(\varphi \) being the function of spacetime coordinates.
For 4D spacetime, net baryon number (REF ) conservation equation is conformal-frame independent [1]}, [2]}, [3]}, [4]}, [5]}, and since net baryon number has conformal weight \(\Delta _{N^\alpha }=4\) , one obtains
\(d_\alpha N^{\alpha } =\Omega ^4 \hat{d}_{\alpha }\hat{N}^{\alpha }.\)
| с \(\delta ^{\beta }_{\lambda }\) обозначается функция дельта Кронекера, и \(\varphi \) является функцией координат пространства-времени.
Для пространства-времени 4-мерного размера, уравнение сохранения чистого барионного числа (REF ) является независимым от конформной рамки [1]}, [2]}, [3]}, [4]}, [5]}, и так как чистое барионное число имеет конформный вес \(\Delta _{N^\alpha }=4\) , получаем
\(d_\alpha N^{\alpha } =\Omega ^4 \hat{d}_{\alpha }\hat{N}^{\alpha }.\) |
The log-likelihood of observed data is [1]}, [2]}
\(L = \sum \nolimits _i {\ln \left\lbrace {p\left( {{x_i},{y_i}} \right)} \right\rbrace }\)
| Логарифмическое правдоподобие наблюдаемых данных составляет [1]}, [2]}
\(L = \sum \nolimits _i {\ln \left\lbrace {p\left( {{x_i},{y_i}} \right)} \right\rbrace }\) |
In many chaotic dynamics, we observe the trajectories as multivariate time series that are very sensitive to the initial condition and the parameters. This usually results in a complex objective function with multiple local minima [1]}. They in turn form a rough landscape of the objective and pose extreme difficulties on parameter learning [2]} (See also Figure REF ). The time-averaged approach is commonly used in the spirit of extracting sufficient statistics from the raw data [3]}.
| Во многих хаотических динамических системах мы наблюдаем траектории в качестве многомерных временных рядов, которые очень чувствительны к начальным условиям и параметрам. Это обычно приводит к сложной целевой функции с несколькими локальными минимумами [1]. В свою очередь, они формируют грубый ландшафт цели и создают огромные трудности для обучения параметров [2] (см. также Рисунок REF). Временно-усредненный подход обычно используется в духе извлечения достаточной статистики из исходных данных [3]. |
Instead, [1]} proposed a generalisationEVD generalized ILE in the sense that ILE can be viewed as EVD computed under a uniform starting state distribution. of this measure, known as the Expected Value Difference (EVD),
\(\text{EVD}(R_\text{GT}, R_\text{L}) &\triangleq \mathbb {E}_{s \sim p_0} [v(\pi ^*_{R_\text{GT}})] -\mathbb {E}_{s \sim p_0} [v(\pi ^*_{R_\text{L}})]& \in [0, \infty )\)
| Вместо этого [1] предложил обобщение ILE в общем смысле, которое можно рассматривать как EVD, вычисленный с использованием равномерного начального распределения состояний. Эта мера известна как Expected Value Difference (EVD):
\(\text{EVD}(R_\text{GT}, R_\text{L}) \triangleq \mathbb {E}_{s \sim p_0} [v(\pi ^*_{R_\text{GT}})] -\mathbb {E}_{s \sim p_0} [v(\pi ^*_{R_\text{L}})] \in [0, \infty )\) |
Definition 3.6 (see e.g. Woronowicz [1]}, [2]})
A First Order Differential Calculus (FOC in short) over \(R\) is a
pair \((d,\Omega )\) where:
| Определение 3.6 (см. например, Woronowicz [1], [2])
Первый порядок дифференциального исчисления (FOC в сокращении) над \(R\) - это
пара \((d, \Omega)\), где: |
For the chemical part of the free energy, we rely on experimentally obtained open circuit voltage (OCV) curves \(U_0(c_\text{Li})\) [1]}, [2]}, [3]}, [4]}
\(\rho _\text{H,0}\varphi _{\text{H},\text{ch}}(c_\text{Li})=-\int _0^{c_\text{Li}} F U_0(c_\text{Li}^{\prime }) \text{d}c_\text{Li}^{\prime }.\)
| Для химической части свободной энергии мы полагаемся на экспериментально полученные кривые свободного напряжения на холостом ходу (OCV) \(U_0(c_\text{Li})\) [1]}, [2]}, [3]}, [4]}
\(\rho _\text{H,0}\varphi _{\text{H},\text{ch}}(c_\text{Li})=-\int _0^{c_\text{Li}} F U_0(c_\text{Li}^{\prime }) \text{d}c_\text{Li}^{\prime }.\) |
DMPs are trajectory generators whose parameters can be learned from demonstrations of desired robot end-effector trajectories. They combine linear fixed-point attractors with non-linear function approximators to encode complex trajectories, while maintaining convergence guarantees. We refer readers to [1]} for a detailed overview.
| DMP - это генераторы траекторий, параметры которых могут быть выучены из демонстраций желаемых траекторий конечного эффектора робота. Они объединяют линейные притягивающие точки с нелинейными функциональными аппроксиматорами для кодирования сложных траекторий с гарантией сходимости. Мы рекомендуем читателям обратиться к [1] для подробного обзора. |
We obtain fig. REF using gaussian peak theory (implementing
the results of ref. [1]}, see appendix ).
If we take \(\alpha \ll 1\) , ii) and iii) do not alter the estimate of i).
However, for sizable \(\alpha \gtrsim 0.2\) the change in the number density of maxima of \(\mathcal {R}\) becomes evident.
| Мы получаем Рис. REF, используя гауссову теорию пика (реализующую результаты ссылки [1]}, см. приложение).
Если мы возьмем \(\alpha \ll 1\), ii) и iii) не изменяют оценку i).
Однако, для значительных \(\alpha \gtrsim 0.2\) изменение плотности числа максимумов \(\mathcal {R}\) становится заметным. |
The incorporation of the type-III seesaw mechanism into GUTs has been studied in literature [1]}, [2]}, [3]}. When implemented within \(SU(5)\) models, type-III seesaw comes automatically in hand with the type-I seesaw, as both fields responsible for these mechanisms share the same adjoint representation \(\mathbf {24}_F\) .
| Инкорпорация механизма третьего вида в модели гросс-уилеза была изучена в литературе [1]}, [2]}, [3]}. При применении в моделях \(SU(5)\), механизм третьего вида автоматически сочетается с механизмом первого вида, поскольку оба поля, ответственные за эти механизмы, принадлежат к одному сопряженному представлению \(\mathbf {24}_F\). |
Since \(\mathsf {HomLie}\) is a strongly protomodular category (by being a variety of distributive \(\Omega _2\) -groups [1]}) it satisfies the “Smith is Huq” condition [2]}, and therefore this way of introducing crossed modules corresponds to internal crossed modules in the sense of Janelidze [3]}.
| Поскольку \(\mathsf {HomLie}\) - это категория сильно протомулодулярная (являющаяся разновидностью распределительных групп \(\Omega _2\) [1]), она удовлетворяет условию "Смит является Хуком" [2]}, и поэтому этот способ введения перекрестных модулей соответствует внутренним перекрестным модулям в смысле Янелидзе [3]}. |
With the celebrated WKB approximation (see Appendix B for a brief introduction), the exact solution to Equation (REF ) has an asymptotic description of WKB type before caustics onset, provided that \(a_\mathrm {in}\) is smooth and decays rapidly [1]}. Practically, we mainly consider the cases with the following Gaussian initial amplitude:
\(a_{\text{in}}(x)=\left(\prod _{j=1}^m a_j\right)^{\frac{1}{4}}\pi ^{-\frac{m}{4}}\exp \left(-\frac{1}{2}\sum _{j=1}^m a_j(x_j-\tilde{x}_j)^2\right),\)
| С использованием знаменитого приближения ВКБ (см. Приложение В для краткого введения), точное решение уравнения (REF) имеет асимптотическое описание типа ВКБ до появления каустик, при условии, что \(a_\mathrm {in}\) гладкая и быстро затухает [1]. Практически мы рассматриваем преимущественно случаи с следующей гауссовской начальной амплитудой:
\(a_{\text{in}}(x)=\left(\prod _{j=1}^m a_j\right)^{\frac{1}{4}}\pi ^{-\frac{m}{4}}\exp \left(-\frac{1}{2}\sum _{j=1}^m a_j(x_j-\tilde{x}_j)^2\right),\) |
is known as the Fadell - Neuwirth fibration. Theorem 1 of Fadell and Neuwirth [1]} states that
(REF ) is indeed a locally trivial fibration. Given a configuration of obstacles \(b=(o_1, \dots , o_m)\in F({\mathbb {R}}^d, m)\) , the preimage
\(p^{-1}(b)\) coincides with the configuration space
\(p^{-1}(b) = F({\mathbb {R}}^d-\lbrace o_1, \dots , o_m\rbrace , n)=X_b\)
| известное как фибрация Фаделля - Нойвирта. Теорема 1 Фаделля и Нойвирта [1]} утверждает, что
(REF ) является локально тривиальной фибрацией. Для заданной конфигурации препятствий \(b=(o_1, \dots , o_m)\in F({\mathbb {R}}^d, m)\) , прообраз
\(p^{-1}(b)\) совпадает с пространством конфигураций
\(p^{-1}(b) = F({\mathbb {R}}^d-\lbrace o_1, \dots , o_m\rbrace , n)=X_b\) |
Definition 2 (Joint Differential Privacy (JDP) [1]})
A randomized algorithm \(\mathcal {M}:\mathcal {U}^m\rightarrow \mathcal {R}^m\) is \((\epsilon ,\delta )\) -joint differentially private if for every \(i\) , for every pair of neighboring datasets that only differ in index \(i\) : \(D,D^{\prime }\in \mathcal {U}^m\) and for every set of subsets of outputs \(S\subset \mathcal {R}^m\) ,
\(\text{Pr}(\mathcal {M}(D)_{-i}\in S)\le e^{\epsilon }\text{Pr}(\mathcal {M}(D^{\prime })_{-i}\in S)+\delta ,\)
| Определение 2 (Совместная Дифференциальная Приватность (СДП))
Случайный алгоритм \(\mathcal {M}:\mathcal {U}^m\rightarrow \mathcal {R}^m\) является \((\epsilon ,\delta )\) -совместно дифференциально приватным, если для каждого \(i\), для каждой пары соседних наборов данных, отличающихся только индексом \(i\): \(D,D^{\prime }\in \mathcal {U}^m\) и для каждого набора подмножеств результатов \(S\subset \mathcal {R}^m\),
\(\text{Pr}(\mathcal {M}(D)_{-i}\in S)\le e^{\epsilon }\text{Pr}(\mathcal {M}(D^{\prime })_{-i}\in S)+\delta ,\) |
In our studies of superfluid turbulence [1]}, [2]}, [3]} and below, we use the so-called Sabra-shell model [4]}, with a different form of the nonlinear term:
\(\nonumber \mbox{NL}_m\lbrace v_{m^{\prime }} \rbrace &=&ik_m(a \lambda v_{m+2}v_{m+1}^*+ b v_{m-1}^*v_{m+1}\\ && - c v_{m-1}v_{m-2})\,,\quad \mbox{Sabra}\ .\)
| В наших исследованиях сверхтекучей турбулентности [1]}, [2]}, [3]} и далее мы используем так называемую модель оболочки Сабра [4]}, с другой формой нелинейного члена:
\(\nonumber \mbox{NL}_m\lbrace v_{m^{\prime }} \rbrace &=&ik_m(a \lambda v_{m+2}v_{m+1}^*+ b v_{m-1}^*v_{m+1}\\ && - c v_{m-1}v_{m-2})\,,\quad \mbox{Sabra}\ .\) |
X-ray spectroscopy provides access to temperature measurements of the intracluster medium. The measurements rely on spectral emissivities predicted by radiative transfer and atomic codes [1]}, [2]} and implemented in widely-used packages such as XSPEC [3]} or SPEX [4]}. This effort is rewarded by temperature measurements being nearly independent of a cosmological model, hence facilitating the modelling.
| Рентгеновская спектроскопия обеспечивает доступ к измерениям температуры внутрикластерной среды. Измерения основаны на спектральных излучательных способностях, предсказанных моделями излучательного переноса и атомными кодами [1]}}, [2]} и реализованных в широко используемых пакетах, таких как XSPEC [3]} или SPEX [4]}. Это усилие вознаграждается тем, что измерения температуры практически не зависят от космологической модели, тем самым облегчая моделирование. |
For some of our proofs, we need lower bounds that are uniform in \(T\) . To this aim, we have the following consequence of the results of [1]}, whose proof is postponed to the appendix.
| Для некоторых из наших доказательств нам нужны нижние оценки, которые не зависят от \(T\). Для этого у нас есть следующее следствие результатов работы [1]}, доказательство которого отложено в приложение. |
\(g = 0\) : \(n \ge 3\) by Keel in 1992 [1]},
\(g = 1\) : \(n \le 10\) by Belorousski in 1998 [2]} (Chow); Petersen in 2014 [3]} (cohomology),
\(g = 2\) : \(n=0\) by Mumford in 1983 [4]}, \(n=1\) by Faber in 1988 [5]},
\(g = 3\) : \(n = 0\) by Faber in 1990 [6]}.
| \(g = 0\): \(n \ge 3\) по Keel в 1992 году [1],
\(g = 1\): \(n \le 10\) по Belorousski в 1998 году [2] (Chow); Petersen в 2014 году [3] (когомология),
\(g = 2\): \(n=0\) по Mumford в 1983 году [4], \(n=1\) по Faber в 1988 году [5],
\(g = 3\): \(n = 0\) по Faber в 1990 году [6]. |
The Shimura variety \(M\) carries a line bundle of weight 1 modular forms that we denote by \(\mathcal {L}_\mathbb {Q}\) and we refer to [1]} for a definition. The Shimura datum \((G,\mathcal {D})\) is of Hodge type by [2]}: there exists a Shimura datum of Siegel type \((G^{Sg},{Sg})\) and a compact open subgroup \(K^{sg}\subset G^{sg}(\mathbb {A}_f)\) such that we have an embedding of Shimura varieties over \(\mathbb {Q}\)
\(M\hookrightarrow M^{Sg}.\)
| Шимура-многообразие \(M\) носит линейный пучок модулярных форм веса 1, который мы обозначаем как \(\mathcal {L}_\mathbb {Q}\), см. [1] для определения.
Шимуровские данные \((G,\mathcal {D})\) являются типом Ходжа по [2]: существует шимуровский тип из типа Сигеля \((G^{Sg},{Sg})\) и компактная открытая подгруппа \(K^{sg}\subset G^{sg}(\mathbb {A}_f)\), для которых имеется вложение шимуровских многообразий над \(\mathbb {Q}\)
\(M\hookrightarrow M^{Sg}.\) |
Some previous works [1]}, [2]} point out the drawbacks of graph neural network, such as the issue of over-smooth [3]}. Therefore, we take the novel architecture of graph transformer [4]}, [5]} into account. After the extraction of nodes and the construction of two graphs, we feed them into the logical-aware and syntax-aware graph transformer structures respectively.
| Некоторые предыдущие работы [1], [2] указывают на недостатки графовых нейронных сетей, такие как проблема переглаживания [3]. Поэтому мы учитываем новую архитектуру графового трансформера [4], [5]. После извлечения узлов и построения двух графов, мы подаем их соответственно на структуры графового трансформера, основанные на логике и синтаксисе. |
The frame homomorphism from REF is necessarily unique, because
the image of the generating set \(\lbrace f(g) \mid g \in G \rbrace \) under \(h\) is
determined by the diagram. A detailed account of frame presentations may be
found in chapter 4 of [1]}.
| Гомоморфизм рамки из REF обязательно является уникальным, потому что образ
системы порождающего множества \(\lbrace f(g) \mid g \in G \rbrace \) под действием \(h\) определяется диаграммой. Подробное описание представлений рамки можно найти в главе 4 книги [1]. |
Dialogue State Tracking: Our state tracking architecture is inspired by the TripPy of [1]} which uses an underlying BERT model and a triple copy strategy to perform state tracking. The TripPy model uses (i) span prediction and a copy mechanism to extract values from a user utterance, (ii) a copy mechanism over concepts mentioned by the system utterance and (iii) a copy mechanism over the DS memory, the existing dialogue state.
| Отслеживание состояния диалога: Архитектура отслеживания состояния, которую мы используем, вдохновлена TripPy [1]. Она использует базовую модель BERT и стратегию тройного копирования для выполнения отслеживания состояния. Модель TripPy использует (i) предсказание диапазона и механизм копирования для извлечения значений из пользовательского высказывания, (ii) механизм копирования для концептов, упомянутых системным высказыванием, и (iii) механизм копирования для памяти диалогового состояния DS. |
The posterior distribution of the PoE model is given by the product of multiple densities (i.e., the experts). Because of the product operation, the prediction quality of PoE suffers considerably from weak experts. To improve on this aspect, [1]} proposed the GPoE model, which assigns importance weight to the experts.
| Постериорное распределение модели PoE задается произведением нескольких плотностей (то есть экспертов). Из-за операции умножения, качество прогнозирования модели PoE сильно страдает от слабых экспертов. Чтобы улучшить этот аспект, [1] предложили модель GPoE, которая назначает веса экспертам. |
where \(T*{t}\) is the temperature of the photon distribution and is obtained to be \(2.7255\) K as the microwave background temperature [1]}. Adding a perturbation \(\delta T\) to the temperature \(T\) such that the temperature anisotropy is \(\Theta \equiv \delta T/T\) , the distribution function is written as
\(f*{t, \vec{x}, p, \hat{p}} = \frac{1}{\exp \lbrace p/T\left[1+\Theta *{t, \vec{x},\hat{p}}\right]\rbrace -1}.\)
| где \(T*{t}\) - это температура распределения фотонов и оказывается равной \(2.7255\) К как температура микроволнового фона [1]. Добавляя возмущение \(\delta T\) к температуре \(T\) так, что анизотропия температуры равна \(\Theta \equiv \delta T/T\), функция распределения записывается как
\(f*{t, \vec{x}, p, \hat{p}} = \frac{1}{\exp \lbrace p/T\left[1+\Theta *{t, \vec{x},\hat{p}}\right]\rbrace -1}.\) |
Similarly to previous approaches, for audio and video we identified that negative samples can be obtained in an semi-supervised way by using paired modalities to learn correlations/alignment (i.e., only pairing audio and video when they describe the same media asset) [1]}. In addition, supervised information can also be leveraged bidirectionally from audio and video embeddings with the same semantics for ensuring semantic discrimination (i.e., from the same class) [2]}.
| Подобно предыдущим подходам, мы выяснили, что отрицательные примеры для аудио и видео можно получить полу-надзорным способом, используя сопряженные модальности для изучения корреляций/выравнивания (т.е. сочетая аудио и видео только в случаях, когда они описывают один и тот же мультимедийный ресурс) [1]. Кроме того, надзорная информация также может использоваться в двустороннем порядке из встраиваний аудио и видео с одной и той же семантикой для обеспечения семантической дискриминации (т.е. из одного класса) [2]. |
where \((x)_+=\max \lbrace 0,x\rbrace \) is the ReLU function. From [1]}, Lemma B.1, it follows that for \(f\in \mathcal {C}^\beta (K)\)
\(\Vert P_M^\beta f-f\Vert _{\infty }\le KM^{-\beta }.\)
| где \((x)_+=\max \lbrace 0,x\rbrace \) является функцией ReLU. Из [1]}, Леммы B.1 следует, что для \(f\in \mathcal {C}^\beta (K)\)
\(\Vert P_M^\beta f-f\Vert _{\infty }\le KM^{-\beta }.\) |
The idea of recurrent neural networks (RNNs) [1]} is to make use of sequential information.
They have shown great success in natural language processing, handwriting recognition, etc. [2]}, [3]}, [4]} The most common RNN is long short-term memory (LSTM) [5]}. The advantage of an LSTM is the ability to deal with the vanishing gradient problem and data with lags of unknown duration.
| Идея рекуррентных нейронных сетей (RNN) состоит в использовании последовательной информации. Они показали большой успех в области обработки естественного языка, распознавания почерка и т. д. Самая распространенная RNN - это долгая краткосрочная память (LSTM). Преимущество LSTM заключается в возможности решения проблемы затухающего градиента и обработки данных с неизвестной продолжительностью задержек. |
Finally, while ML-Doctor is designed for inference attacks, we plan to integrate tools [1]}, [2]}, [3]} geared to evaluate risks aimed to jeopardize models' functionality, e.g., adversarial examples, data poisoning, etc., thus providing a one-stop-shop toward enabling secure and trustworthy AI.
| Наконец, хотя ML-Doctor предназначен для инференсных атак, мы планируем интегрировать инструменты [1]}, [2]}, [3]}, направленные на оценку рисков, направленных на подрыв функциональности моделей, например, адверсарные примеры, загрязнение данных и т. д., тем самым обеспечивая централизованный доступ для обеспечения безопасности и надежности искусственного интеллекта. |
Numerical algebraic geometry [1]}, [2]} was pioneered by Sommese, Wampler, Verschelde and others (see [3]}, [4]} for references and background). The approach is built on witness points which arise by slicing the complex variety with appropriate random planes of complementary dimension. These complex witness points can be efficiently computed by homotopy continuation solvers [5]}, and are theoretically guaranteed to compute at least one such point on each solution component.
| Численная алгебраическая геометрия начала развиваться благодаря Соммезе, Уэмплеру, Вершелде и другим (см. [3]}, [4]} для ссылок и информации о задаче изначальных статей). Подход основывается на построении свидетельских точек, которые возникают при пересечении комплексной многообразности соответствующими случайными плоскостями с дополнительной размерностью. Эти комплексные свидетельские точки могут быть эффективно вычислены с помощью систем численного продолжения гомотопий [5}, и в теории ими гарантировано можно вычислить как минимум одну такую точку на каждом компоненте решения. |
Interestingly, this scattering angle in the high energy limit resembles a striking similarity with the all order in spin result by Vines [1]} including the pole at \(b=a\) .
| Интересно, что угол рассеяния в пределе высоких энергий имеет поразительное сходство с результатом всех порядков по спину, полученным Вайнсом [1], включая полюс в точке \(b=a\). |
For the Weyl tensor \({C^{\alpha \beta }}_{\gamma \delta }\) we have in tetrad
components [1]}
\({R^{i j}}_{k l} = {C^{i j}}_{k l} - \frac{1}{2} \delta ^{i j r}_{k l s}\left({{R}^s}_r - \frac{1}{4}\ {\delta ^s}_r R\right) + \frac{1}{12}\ \delta ^{ij}_{k l} R,\)
| Для тензора Вейля \({C^{\alpha \beta }}_{\gamma \delta }\) у нас имеются в тетрадных
компонентах [1]:
\({R^{i j}}_{k l} = {C^{i j}}_{k l} - \frac{1}{2} \delta ^{i j r}_{k l s}\left({{R}^s}_r - \frac{1}{4}\ {\delta ^s}_r R\right) + \frac{1}{12}\ \delta ^{ij}_{k l} R,\) |
In the framework of the conserving approximation,
the first-order derivative of \(\Phi _{\rm {FLEX}}[G]\)
gives the self-energy \(\Sigma \) .
It is expressed as [1]}, [2]}
\(\Sigma ^0_{k}=\frac{T}{N}\sum _q G^0_{k+q}W^0_{q} ,\)
| В рамках сохраняющего приближения первая производная \(\Phi _{\rm {FLEX}}[G]\) даёт самоэнергию \(\Sigma\), которая выражается следующим образом [1], [2]:
\(\Sigma ^0_{k}=\frac{T}{N}\sum _q G^0_{k+q}W^0_{q}\), |
All terms considered relevant to the queried topic are ranked according to their p-values. Key phrases are extracted by scanning abstracts with the RAKE algorithm [1]}. Finally, pathways and biological processes are derived from KEGG[2]} using significant gene names. Each result is directly linked to PubMed, Google, Google Scholar and Bing websites to allow further investigation.
<TABLE> | Все термины, считающиеся важными для запрашиваемой темы, ранжируются по p-значениям. Ключевые фразы извлекаются путем сканирования аннотаций с использованием алгоритма RAKE [1]. Наконец, пути и биологические процессы извлекаются из KEGG [2] с использованием значимых генных имен. Каждый результат напрямую связан с веб-сайтами PubMed, Google, Google Scholar и Bing для дальнейшего исследования.
<TABLE> |