This HTML5 document contains 34 embedded RDF statements represented using HTML+Microdata notation.

The embedded RDF content will be recognized by any processor of HTML5 Microdata.

Namespace Prefixes

PrefixIRI
dctermshttp://purl.org/dc/terms/
yago-reshttp://yago-knowledge.org/resource/
dbohttp://dbpedia.org/ontology/
n20http://dbpedia.org/resource/File:
foafhttp://xmlns.com/foaf/0.1/
n19https://github.com/hycis/
n11https://global.dbpedia.org/id/
dbthttp://dbpedia.org/resource/Template:
dbpedia-ukhttp://uk.dbpedia.org/resource/
rdfshttp://www.w3.org/2000/01/rdf-schema#
n10http://commons.wikimedia.org/wiki/Special:FilePath/
rdfhttp://www.w3.org/1999/02/22-rdf-syntax-ns#
owlhttp://www.w3.org/2002/07/owl#
wikipedia-enhttp://en.wikipedia.org/wiki/
dbpedia-zhhttp://zh.dbpedia.org/resource/
dbchttp://dbpedia.org/resource/Category:
provhttp://www.w3.org/ns/prov#
dbphttp://dbpedia.org/property/
xsdhhttp://www.w3.org/2001/XMLSchema#
wikidatahttp://www.wikidata.org/entity/
dbrhttp://dbpedia.org/resource/

Statements

Subject Item
dbr:Bidirectional_recurrent_neural_networks
rdfs:label
Двонаправлені рекурентні нейронні мережі 双向循环神经网络 Bidirectional recurrent neural networks
rdfs:comment
Bidirectional recurrent neural networks (BRNN) connect two hidden layers of opposite directions to the same output. With this form of generative deep learning, the output layer can get information from past (backwards) and future (forward) states simultaneously. Invented in 1997 by Schuster and Paliwal, BRNNs were introduced to increase the amount of input information available to the network. For example, multilayer perceptron (MLPs) and time delay neural network (TDNNs) have limitations on the input data flexibility, as they require their input data to be fixed. Standard recurrent neural network (RNNs) also have restrictions as the future input information cannot be reached from the current state. On the contrary, BRNNs do not require their input data to be fixed. Moreover, their future Двонаправлена рекурентна нейронна мережа (англ. bidirectional recurrent neural network, BRNN) з'єднують у протилежних напрямках два прихованих шари з однаковим входом. Завдяки такій формі породжувального навчання, вихідний шар рекурентної нейронної мережі може отримувати інформацію з минулих (попередніх) та майбутніх станів (наступних) одночасно. Вони були винайдені в 1997 році Майком Шустером і Кулдіпом Палівалем. BRNN були введені для збільшення кількості вхідної інформації, доступної для мережі. Наприклад, багатошаровий персептрон (MLP) та нейронна мережа з часовою затримкою (TDNNs) мають обмеження на гнучкість вхідних даних, оскільки вони вимагають фіксування вхідних даних. Стандартна рекурентна нейронна мережа (RNN) також має обмеження, оскільки майбутня вхідна інформація не може бут 双向循环神经网络(英語: Bidirectional recurrent neural networks,BRNN)将两个方向相反的隐藏层连接到同一个输出。通过这种形式的生成式深度学习,输出层可以同时获得来自过去(后向)和未来(前向)状态的信息。双向循环神经网络由Schuster和Paliwal于1997发明,BRNN的出现增加了网络可用的输入信息量。由于要求固定形式的输入数据,多层感知器(MLP)和时间延迟神经网络(TDNN)并不灵活,而标准的循环神经网络(RNNs)具有“因果”结构,即当前的输出只能取决于当前和过去的信息,所以也具有一定的限制。相反,循环神经网络不要求其输入数据的形式,同时其输入数据可以包含未来的信息。 当需要考虑整个输入序列的信息时,双向循环神经网络尤其有用。例如,在手写识别任务中,可以通过考虑前后字母的信息增加对当前字母预测的表现。
foaf:depiction
n10:Structural_diagrams_of_unidirectional_and_bidirectional_recurrent_neural_networks.png
dcterms:subject
dbc:Neural_network_architectures
dbo:wikiPageID
49686608
dbo:wikiPageRevisionID
1109265350
dbo:wikiPageWikiLink
dbr:Multilayer_perceptron dbr:Recurrent_neural_networks dbr:Long_short-term_memory dbr:Generative_model dbc:Neural_network_architectures n20:Structural_diagrams_of_unidirectional_and_bidirectional_recurrent_neural_networks.png dbr:Time_delay_neural_network dbr:Handwriting_recognition dbr:Recurrent_neural_network
dbo:wikiPageExternalLink
n19:bidirectional_RNN
owl:sameAs
dbpedia-uk:Двонаправлені_рекурентні_нейронні_мережі dbpedia-zh:双向循环神经网络 n11:2N933 wikidata:Q25112138 yago-res:Bidirectional_recurrent_neural_networks
dbp:wikiPageUsesTemplate
dbt:Reflist dbt:Short_description
dbo:thumbnail
n10:Structural_diagrams_of_unidirectional_and_bidirectional_recurrent_neural_networks.png?width=300
dbo:abstract
双向循环神经网络(英語: Bidirectional recurrent neural networks,BRNN)将两个方向相反的隐藏层连接到同一个输出。通过这种形式的生成式深度学习,输出层可以同时获得来自过去(后向)和未来(前向)状态的信息。双向循环神经网络由Schuster和Paliwal于1997发明,BRNN的出现增加了网络可用的输入信息量。由于要求固定形式的输入数据,多层感知器(MLP)和时间延迟神经网络(TDNN)并不灵活,而标准的循环神经网络(RNNs)具有“因果”结构,即当前的输出只能取决于当前和过去的信息,所以也具有一定的限制。相反,循环神经网络不要求其输入数据的形式,同时其输入数据可以包含未来的信息。 当需要考虑整个输入序列的信息时,双向循环神经网络尤其有用。例如,在手写识别任务中,可以通过考虑前后字母的信息增加对当前字母预测的表现。 Bidirectional recurrent neural networks (BRNN) connect two hidden layers of opposite directions to the same output. With this form of generative deep learning, the output layer can get information from past (backwards) and future (forward) states simultaneously. Invented in 1997 by Schuster and Paliwal, BRNNs were introduced to increase the amount of input information available to the network. For example, multilayer perceptron (MLPs) and time delay neural network (TDNNs) have limitations on the input data flexibility, as they require their input data to be fixed. Standard recurrent neural network (RNNs) also have restrictions as the future input information cannot be reached from the current state. On the contrary, BRNNs do not require their input data to be fixed. Moreover, their future input information is reachable from the current state. BRNN are especially useful when the context of the input is needed. For example, in handwriting recognition, the performance can be enhanced by knowledge of the letters located before and after the current letter. Двонаправлена рекурентна нейронна мережа (англ. bidirectional recurrent neural network, BRNN) з'єднують у протилежних напрямках два прихованих шари з однаковим входом. Завдяки такій формі породжувального навчання, вихідний шар рекурентної нейронної мережі може отримувати інформацію з минулих (попередніх) та майбутніх станів (наступних) одночасно. Вони були винайдені в 1997 році Майком Шустером і Кулдіпом Палівалем. BRNN були введені для збільшення кількості вхідної інформації, доступної для мережі. Наприклад, багатошаровий персептрон (MLP) та нейронна мережа з часовою затримкою (TDNNs) мають обмеження на гнучкість вхідних даних, оскільки вони вимагають фіксування вхідних даних. Стандартна рекурентна нейронна мережа (RNN) також має обмеження, оскільки майбутня вхідна інформація не може бути досягнута з поточного стану. Навпаки, BRNN не вимагає фіксації вхідних даних. Більш того, майбутня вхідна інформація доступна з поточного стану. BRNN особливо корисні, коли наявність контексту вхідних даних покращує результат. Наприклад, при розпізнаванні рукописного тексту, точність може бути посилена розпізнанням букв, розташованих до і після поточної.
prov:wasDerivedFrom
wikipedia-en:Bidirectional_recurrent_neural_networks?oldid=1109265350&ns=0
dbo:wikiPageLength
5972
foaf:isPrimaryTopicOf
wikipedia-en:Bidirectional_recurrent_neural_networks