About: Bidirectional recurrent neural networks     Goto   Sponge   NotDistinct   Permalink

An Entity of Type : owl:Thing, within Data Space : dbpedia.org associated with source document(s)
QRcode icon
http://dbpedia.org/describe/?url=http%3A%2F%2Fdbpedia.org%2Fresource%2FBidirectional_recurrent_neural_networks

Bidirectional recurrent neural networks (BRNN) connect two hidden layers of opposite directions to the same output. With this form of generative deep learning, the output layer can get information from past (backwards) and future (forward) states simultaneously. Invented in 1997 by Schuster and Paliwal, BRNNs were introduced to increase the amount of input information available to the network. For example, multilayer perceptron (MLPs) and time delay neural network (TDNNs) have limitations on the input data flexibility, as they require their input data to be fixed. Standard recurrent neural network (RNNs) also have restrictions as the future input information cannot be reached from the current state. On the contrary, BRNNs do not require their input data to be fixed. Moreover, their future

AttributesValues
rdfs:label
  • Bidirectional recurrent neural networks (en)
  • Двонаправлені рекурентні нейронні мережі (uk)
  • 双向循环神经网络 (zh)
rdfs:comment
  • 双向循环神经网络(英語: Bidirectional recurrent neural networks,BRNN)将两个方向相反的隐藏层连接到同一个输出。通过这种形式的生成式深度学习,输出层可以同时获得来自过去(后向)和未来(前向)状态的信息。双向循环神经网络由Schuster和Paliwal于1997发明,BRNN的出现增加了网络可用的输入信息量。由于要求固定形式的输入数据,多层感知器(MLP)和时间延迟神经网络(TDNN)并不灵活,而标准的循环神经网络(RNNs)具有“因果”结构,即当前的输出只能取决于当前和过去的信息,所以也具有一定的限制。相反,循环神经网络不要求其输入数据的形式,同时其输入数据可以包含未来的信息。 当需要考虑整个输入序列的信息时,双向循环神经网络尤其有用。例如,在手写识别任务中,可以通过考虑前后字母的信息增加对当前字母预测的表现。 (zh)
  • Bidirectional recurrent neural networks (BRNN) connect two hidden layers of opposite directions to the same output. With this form of generative deep learning, the output layer can get information from past (backwards) and future (forward) states simultaneously. Invented in 1997 by Schuster and Paliwal, BRNNs were introduced to increase the amount of input information available to the network. For example, multilayer perceptron (MLPs) and time delay neural network (TDNNs) have limitations on the input data flexibility, as they require their input data to be fixed. Standard recurrent neural network (RNNs) also have restrictions as the future input information cannot be reached from the current state. On the contrary, BRNNs do not require their input data to be fixed. Moreover, their future (en)
  • Двонаправлена рекурентна нейронна мережа (англ. bidirectional recurrent neural network, BRNN) з'єднують у протилежних напрямках два прихованих шари з однаковим входом. Завдяки такій формі породжувального навчання, вихідний шар рекурентної нейронної мережі може отримувати інформацію з минулих (попередніх) та майбутніх станів (наступних) одночасно. Вони були винайдені в 1997 році Майком Шустером і Кулдіпом Палівалем. BRNN були введені для збільшення кількості вхідної інформації, доступної для мережі. Наприклад, багатошаровий персептрон (MLP) та нейронна мережа з часовою затримкою (TDNNs) мають обмеження на гнучкість вхідних даних, оскільки вони вимагають фіксування вхідних даних. Стандартна рекурентна нейронна мережа (RNN) також має обмеження, оскільки майбутня вхідна інформація не може бут (uk)
foaf:depiction
  • http://commons.wikimedia.org/wiki/Special:FilePath/Structural_diagrams_of_unidirectional_and_bidirectional_recurrent_neural_networks.png
dcterms:subject
Wikipage page ID
Wikipage revision ID
Link from a Wikipage to another Wikipage
Link from a Wikipage to an external page
sameAs
dbp:wikiPageUsesTemplate
thumbnail
has abstract
  • Bidirectional recurrent neural networks (BRNN) connect two hidden layers of opposite directions to the same output. With this form of generative deep learning, the output layer can get information from past (backwards) and future (forward) states simultaneously. Invented in 1997 by Schuster and Paliwal, BRNNs were introduced to increase the amount of input information available to the network. For example, multilayer perceptron (MLPs) and time delay neural network (TDNNs) have limitations on the input data flexibility, as they require their input data to be fixed. Standard recurrent neural network (RNNs) also have restrictions as the future input information cannot be reached from the current state. On the contrary, BRNNs do not require their input data to be fixed. Moreover, their future input information is reachable from the current state. BRNN are especially useful when the context of the input is needed. For example, in handwriting recognition, the performance can be enhanced by knowledge of the letters located before and after the current letter. (en)
  • Двонаправлена рекурентна нейронна мережа (англ. bidirectional recurrent neural network, BRNN) з'єднують у протилежних напрямках два прихованих шари з однаковим входом. Завдяки такій формі породжувального навчання, вихідний шар рекурентної нейронної мережі може отримувати інформацію з минулих (попередніх) та майбутніх станів (наступних) одночасно. Вони були винайдені в 1997 році Майком Шустером і Кулдіпом Палівалем. BRNN були введені для збільшення кількості вхідної інформації, доступної для мережі. Наприклад, багатошаровий персептрон (MLP) та нейронна мережа з часовою затримкою (TDNNs) мають обмеження на гнучкість вхідних даних, оскільки вони вимагають фіксування вхідних даних. Стандартна рекурентна нейронна мережа (RNN) також має обмеження, оскільки майбутня вхідна інформація не може бути досягнута з поточного стану. Навпаки, BRNN не вимагає фіксації вхідних даних. Більш того, майбутня вхідна інформація доступна з поточного стану. BRNN особливо корисні, коли наявність контексту вхідних даних покращує результат. Наприклад, при розпізнаванні рукописного тексту, точність може бути посилена розпізнанням букв, розташованих до і після поточної. (uk)
  • 双向循环神经网络(英語: Bidirectional recurrent neural networks,BRNN)将两个方向相反的隐藏层连接到同一个输出。通过这种形式的生成式深度学习,输出层可以同时获得来自过去(后向)和未来(前向)状态的信息。双向循环神经网络由Schuster和Paliwal于1997发明,BRNN的出现增加了网络可用的输入信息量。由于要求固定形式的输入数据,多层感知器(MLP)和时间延迟神经网络(TDNN)并不灵活,而标准的循环神经网络(RNNs)具有“因果”结构,即当前的输出只能取决于当前和过去的信息,所以也具有一定的限制。相反,循环神经网络不要求其输入数据的形式,同时其输入数据可以包含未来的信息。 当需要考虑整个输入序列的信息时,双向循环神经网络尤其有用。例如,在手写识别任务中,可以通过考虑前后字母的信息增加对当前字母预测的表现。 (zh)
prov:wasDerivedFrom
page length (characters) of wiki page
foaf:isPrimaryTopicOf
is Link from a Wikipage to another Wikipage of
is Wikipage redirect of
is foaf:primaryTopic of
Faceted Search & Find service v1.17_git139 as of Feb 29 2024


Alternative Linked Data Documents: ODE     Content Formats:   [cxml] [csv]     RDF   [text] [turtle] [ld+json] [rdf+json] [rdf+xml]     ODATA   [atom+xml] [odata+json]     Microdata   [microdata+json] [html]    About   
This material is Open Knowledge   W3C Semantic Web Technology [RDF Data] Valid XHTML + RDFa
OpenLink Virtuoso version 08.03.3330 as of Mar 19 2024, on Linux (x86_64-generic-linux-glibc212), Single-Server Edition (378 GB total memory, 53 GB memory in use)
Data on this page belongs to its respective rights holders.
Virtuoso Faceted Browser Copyright © 2009-2024 OpenLink Software