dbo:abstract
|
- Gated recurrent units (GRUs) are a gating mechanism in recurrent neural networks, introduced in 2014 by Kyunghyun Cho et al. The GRU is like a long short-term memory (LSTM) with a forget gate, but has fewer parameters than LSTM, as it lacks an output gate. GRU's performance on certain tasks of polyphonic music modeling, speech signal modeling and natural language processing was found to be similar to that of LSTM. GRUs have been shown to exhibit better performance on certain smaller and less frequent datasets. (en)
- ゲート付き回帰型ユニット(ゲートつきかいきがたユニット、英: Gated recurrent unit、略称: GRU)は、回帰型ニューラルネットワーク(RNN)におけるゲート機構である。2014年にKyunghyun Cho(조 경현)らによって発表された。GRUは忘却ゲートを持つ長・短期記憶(long short-term memory、LSTM)に似ているが、出力ゲートを欠くためLSTMよりもパラメータが少ない。多声音楽モデリングおよび音声シグナルモデリングの特定の課題におけるGRUの性能は、LSTMの性能と類似していることが明らかにされている。GRUは特定のより小さなデータセットではもっと良い性能を示すことが明らかにされている。 しかしながら、Gail Weiss、Yoav Goldberg、およびEran Yahavによって示されているように、LSTMは無制限の計数を容易に実行できるがGRUはできないため、LSTMはGRUよりも「厳密に強力」である。これが、LSTMによって学習可能な単純な言語の学習をGRUが失敗する理由である。 同様に、のDenny Britz、Anna Goldie、Minh-Thang Luong、およびQuoc Leによって示されているように、LSTMセルは「ニューラル機械翻訳のためのアーキテクチャ変法の初の大規模分析」においてGRUセルを一貫して上回った。 (ja)
- 게이트 순환 유닛(Gated recurrent unit, GRU)은 한국인인 뉴욕대학교 조경현 교수가 제안한 순환 신경망이다. 장단기 메모리(LSTM)와 달리 출력 게이트가 없는 간단한 구조를 가진다. (ko)
- Управляемые рекуррентные блоки (англ. Gated Recurrent Units, GRU) — механизм вентилей для рекуррентных нейронных сетей, представленный в 2014 году. Было установлено, что его эффективность при решении задач моделирования музыкальных и речевых сигналов сопоставима с использованием долгой краткосрочной памяти (LSTM). По сравнению с LSTM у данного механизма меньше параметров, т.к. отсутствует выходной вентиль. (ru)
- Ве́нтильні рекуре́нтні вузли́ (ВРВ, англ. Gated recurrent units, GRU) — це вентильний механізм у рекурентних нейронних мережах, представлений 2014 року. Вони подібні до довгої короткочасної пам'яті з вентилем забування, але мають менше параметрів, оскільки не мають вентиля виходу. Було виявлено, що їхня продуктивність на моделюванні поліфонічної музики та мовленнєвого сигналу аналогічна продуктивності ДКЧП. Однак, як показали Гейл Вейз (англ. Gail Weiss), Іов Голдберг (англ. Yoav Goldberg) та Еран Яхав (англ. Eran Yahav), ДКЧП «суттєво сильніше» ВРВ, бо може виконувати необмежений підрахунок, неможливий для ВРВ. Ось чому ВРВ не може вивчити прості мови, з якими впоралась ДКЧП. Аналогічно, як показали Денні Бритз (англ. Denny Britz), Анна Голді (англ. Anna Goldie, Мінь-Тханг Луонг (англ. Minh-Thang Luong) і Куок Лей (англ. Quoc Le) з Google Brain, вузли ДКЧП незмінно перевершують вузли ВРВ у «передовому широкомасштабному аналізі варіацій архітектури для нейронного машинного перекладу». (uk)
|
dbo:thumbnail
| |
dbo:wikiPageID
| |
dbo:wikiPageLength
|
- 6888 (xsd:nonNegativeInteger)
|
dbo:wikiPageRevisionID
| |
dbo:wikiPageWikiLink
| |
dbp:wikiPageUsesTemplate
| |
dcterms:subject
| |
rdfs:comment
|
- Gated recurrent units (GRUs) are a gating mechanism in recurrent neural networks, introduced in 2014 by Kyunghyun Cho et al. The GRU is like a long short-term memory (LSTM) with a forget gate, but has fewer parameters than LSTM, as it lacks an output gate. GRU's performance on certain tasks of polyphonic music modeling, speech signal modeling and natural language processing was found to be similar to that of LSTM. GRUs have been shown to exhibit better performance on certain smaller and less frequent datasets. (en)
- 게이트 순환 유닛(Gated recurrent unit, GRU)은 한국인인 뉴욕대학교 조경현 교수가 제안한 순환 신경망이다. 장단기 메모리(LSTM)와 달리 출력 게이트가 없는 간단한 구조를 가진다. (ko)
- Управляемые рекуррентные блоки (англ. Gated Recurrent Units, GRU) — механизм вентилей для рекуррентных нейронных сетей, представленный в 2014 году. Было установлено, что его эффективность при решении задач моделирования музыкальных и речевых сигналов сопоставима с использованием долгой краткосрочной памяти (LSTM). По сравнению с LSTM у данного механизма меньше параметров, т.к. отсутствует выходной вентиль. (ru)
- ゲート付き回帰型ユニット(ゲートつきかいきがたユニット、英: Gated recurrent unit、略称: GRU)は、回帰型ニューラルネットワーク(RNN)におけるゲート機構である。2014年にKyunghyun Cho(조 경현)らによって発表された。GRUは忘却ゲートを持つ長・短期記憶(long short-term memory、LSTM)に似ているが、出力ゲートを欠くためLSTMよりもパラメータが少ない。多声音楽モデリングおよび音声シグナルモデリングの特定の課題におけるGRUの性能は、LSTMの性能と類似していることが明らかにされている。GRUは特定のより小さなデータセットではもっと良い性能を示すことが明らかにされている。 しかしながら、Gail Weiss、Yoav Goldberg、およびEran Yahavによって示されているように、LSTMは無制限の計数を容易に実行できるがGRUはできないため、LSTMはGRUよりも「厳密に強力」である。これが、LSTMによって学習可能な単純な言語の学習をGRUが失敗する理由である。 (ja)
- Ве́нтильні рекуре́нтні вузли́ (ВРВ, англ. Gated recurrent units, GRU) — це вентильний механізм у рекурентних нейронних мережах, представлений 2014 року. Вони подібні до довгої короткочасної пам'яті з вентилем забування, але мають менше параметрів, оскільки не мають вентиля виходу. Було виявлено, що їхня продуктивність на моделюванні поліфонічної музики та мовленнєвого сигналу аналогічна продуктивності ДКЧП. (uk)
|
rdfs:label
|
- Gated recurrent unit (en)
- ゲート付き回帰型ユニット (ja)
- 게이트 순환 유닛 (ko)
- Управляемый рекуррентный блок (ru)
- Вентильний рекурентний вузол (uk)
|
owl:sameAs
| |
prov:wasDerivedFrom
| |
foaf:depiction
| |
foaf:isPrimaryTopicOf
| |
is dbo:wikiPageDisambiguates
of | |
is dbo:wikiPageWikiLink
of | |
is foaf:primaryTopic
of | |