This HTML5 document contains 393 embedded RDF statements represented using HTML+Microdata notation.

The embedded RDF content will be recognized by any processor of HTML5 Microdata.

Namespace Prefixes

PrefixIRI
dbthttp://dbpedia.org/resource/Template:
dbpedia-elhttp://el.dbpedia.org/resource/
n46https://ghostarchive.org/varchive/youtube/20211212/
n13https://page.mi.fu-berlin.de/rojas/neural/chapter/
n15https://www.deeplearningbook.org/contents/
wikipedia-enhttp://en.wikipedia.org/wiki/
dbrhttp://dbpedia.org/resource/
dbpedia-arhttp://ar.dbpedia.org/resource/
n16http://
dbpedia-frhttp://fr.dbpedia.org/resource/
n23http://commons.wikimedia.org/wiki/Special:FilePath/
dctermshttp://purl.org/dc/terms/
rdfshttp://www.w3.org/2000/01/rdf-schema#
dbpedia-cshttp://cs.dbpedia.org/resource/
rdfhttp://www.w3.org/1999/02/22-rdf-syntax-ns#
n38https://docs.microsoft.com/en-us/archive/msdn-magazine/2012/october/
dbphttp://dbpedia.org/property/
n4http://dbpedia.org/resource/File:
n24http://neuralnetworksanddeeplearning.com/
n50http://galaxy.agh.edu.pl/~vlsi/AI/backp_t_en/
xsdhhttp://www.w3.org/2001/XMLSchema#
dbpedia-ukhttp://uk.dbpedia.org/resource/
dbpedia-idhttp://id.dbpedia.org/resource/
dbohttp://dbpedia.org/ontology/
dbpedia-srhttp://sr.dbpedia.org/resource/
dbpedia-vihttp://vi.dbpedia.org/resource/
dbpedia-jahttp://ja.dbpedia.org/resource/
dbchttp://dbpedia.org/resource/Category:
dbpedia-dehttp://de.dbpedia.org/resource/
dbpedia-plhttp://pl.dbpedia.org/resource/
n18https://www.youtube.com/
yagohttp://dbpedia.org/class/yago/
dbpedia-ruhttp://ru.dbpedia.org/resource/
wikidatahttp://www.wikidata.org/entity/
goldhttp://purl.org/linguistics/gold/
n42http://dbpedia.org/resource/Wikiversity:
yago-reshttp://yago-knowledge.org/resource/
n8https://global.dbpedia.org/id/
dbpedia-slhttp://sl.dbpedia.org/resource/
dbpedia-ithttp://it.dbpedia.org/resource/
dbpedia-cahttp://ca.dbpedia.org/resource/
n37https://sudeepraja.github.io/BackpropAdjoints/
provhttp://www.w3.org/ns/prov#
foafhttp://xmlns.com/foaf/0.1/
dbpedia-simplehttp://simple.dbpedia.org/resource/
dbpedia-zhhttp://zh.dbpedia.org/resource/
dbpedia-kohttp://ko.dbpedia.org/resource/
dbpedia-fahttp://fa.dbpedia.org/resource/
dbpedia-eshttp://es.dbpedia.org/resource/
freebasehttp://rdf.freebase.com/ns/
dbpedia-kahttp://ka.dbpedia.org/resource/
owlhttp://www.w3.org/2002/07/owl#

Statements

Subject Item
dbr:Q-learning
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Rumelhart_Prize
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Elastic_map
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:List_of_University_of_Toronto_faculty
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:List_of_algorithms
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Neural_network
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:MRI_artifact
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Meta-learning_(computer_science)
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Stylometry
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Bernard_Widrow
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Brain.js
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:David_Rumelhart
dbo:wikiPageWikiLink
dbr:Backpropagation
dbo:knownFor
dbr:Backpropagation
Subject Item
dbr:David_Spivak
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Delta_rule
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Almeida–Pineda_recurrent_backpropagation
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Apical_dendrite
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:History_of_artificial_intelligence
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Paul_Werbos
dbo:wikiPageWikiLink
dbr:Backpropagation
dbp:knownFor
dbr:Backpropagation
dbo:knownFor
dbr:Backpropagation
Subject Item
dbr:Perceptron
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Vanishing_gradient_problem
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Decision_boundary
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:DeepDream
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Deep_learning
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Prefrontal_cortex_basal_ganglia_working_memory
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Quickprop
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Timeline_of_artificial_intelligence
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:General_regression_neural_network
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Generative_adversarial_network
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Online_machine_learning
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Radial_basis_function_network
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Timeline_of_machine_learning
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Alex_Waibel
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Encog
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:GPT-2
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Gekko_(optimization_software)
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Generalized_Hebbian_algorithm
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Geoffrey_Hinton
dbo:wikiPageWikiLink
dbr:Backpropagation
dbo:knownFor
dbr:Backpropagation
Subject Item
dbr:Glossary_of_artificial_intelligence
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Gradient_descent
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Mitchell,_South_Dakota
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Connectionism
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Contrastive_Hebbian_learning
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Convolutional_neural_network
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Logistic_function
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Machine_learning
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Fault_detection_and_isolation
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Feedforward_neural_network
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Helmholtz_machine
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:John_K._Kruschke
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Joseph_Sgro
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Kunihiko_Fukushima
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Swish_function
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Backpropagation
rdf:type
yago:PsychologicalFeature100023100 yago:Statement106722453 yago:Algorithm105847438 owl:Thing yago:Event100029378 yago:Abstraction100002137 yago:ComputerArchitecture106725249 dbo:Software yago:Activity100407535 yago:Rule105846932 yago:Communication100033020 yago:Act100030358 yago:Description106724763 yago:Procedure101023820 yago:Message106598915 yago:YagoPermanentlyLocatedEntity yago:WikicatNeuralNetworks yago:NeuralNetwork106725467 yago:WikicatArtificialNeuralNetworks yago:Specification106725067 yago:WikicatAlgorithms
rdfs:label
Propagacja wsteczna Retropropagació Rétropropagation du gradient 역전파 Propagación hacia atrás Backpropagation バックプロパゲーション 反向传播算法 Οπισθοδιάδοση Retropropagazione dell'errore انتشار خلفي Algoritmus zpětného šíření chyby Algoritma perambatan mundur Метод обратного распространения ошибки Метод зворотного поширення помилки Backpropagation
rdfs:comment
La retropropagació, en l'àmbit de les xarxes neuronals artificials, és un mètode que s'empra per a calcular el gradient que és necessari aplicar als pesos o coeficients dels nodes de la xarxa. La retropropagació s'utilitza molt per a entrenar xarxes d'aprenentatge profund. La retropropagació és un cas especial d'una tècnica més general anomenada derivació automàtica, on s'ajusten els coeficients de les neurones tot calculant amb l'algorisme del gradient descendent. Propagacja wsteczna (ang. Backpropagation lub Backward Propagation of Errors) – podstawowy algorytm uczenia nadzorowanego wielowarstwowych, jednokierunkowych sieci neuronowych. Podaje on przepis na zmianę wag dowolnych połączeń elementów przetwarzających rozmieszczonych w sąsiednich warstwach sieci. Oparty jest on na minimalizacji sumy kwadratów błędów (lub innej funkcji błędu) uczenia z wykorzystaniem optymalizacyjnej metody największego spadku. Dzięki zastosowaniu specyficznego sposobu propagowania błędów uczenia sieci powstałych na jej wyjściu, tj. przesyłania ich od warstwy wyjściowej do wejściowej, algorytm propagacji wstecznej stał się jednym z najskuteczniejszych algorytmów uczenia sieci. O αλγόριθμος οπισθοδιάδοσης είναι μια οικογένεια μεθόδων που χρησιμοποιούνται για την αποτελεσματική εκπαίδευση των τεχνητών νευρωνικών δικτύων (συντομογραφία ΤΝΔ), ακολουθώντας έναν αλγόριθμο βελτιστοποίησης βασιζόμενο στην κλίση που εκμεταλλεύεται τον κανόνα της αλυσίδας . Το κύριο χαρακτηριστικό της οπισθοδιάδοσης είναι η επαναληπτική, αναδρομική και αποδοτική μέθοδος για τον υπολογισμό των ανανεώσεων των βαρών για τη βελτίωση του δικτύου έως ότου είναι σε θέση να εκτελέσει το έργο για το οποίο εκπαιδεύεται. Είναι στενά συνδεδεμένη με τον αλγόριθμο Gauss-Newton . Метод обратного распространения ошибки (англ. backpropagation) — метод вычисления градиента, который используется при обновлении весов многослойного перцептрона. Впервые метод был описан в 1974 г. А. И. Галушкиным, а также независимо и одновременно Полом Дж. Вербосом. Далее существенно развит в 1986 г. Дэвидом И. Румельхартом, Дж. Е. Хинтоном и Рональдом Дж. Вильямсом и независимо и одновременно и (Красноярская группа). Это , который используется с целью минимизации ошибки работы многослойного перцептрона и получения желаемого выхода. バックプロパゲーション(英: Backpropagation)または誤差逆伝播法(ごさぎゃくでんぱほう)はニューラルネットワークの学習アルゴリズムである。 Backpropagation oder auch Backpropagation of Error bzw. auch Fehlerrückführung (auch Rückpropagierung) ist ein verbreitetes Verfahren für das Einlernen von künstlichen neuronalen Netzen. Es gehört zur Gruppe der überwachten Lernverfahren und wird als Verallgemeinerung der Delta-Regel auf mehrschichtige Netze angewandt. Dazu muss ein externer Lehrer existieren, der zu jedem Zeitpunkt der Eingabe die gewünschte Ausgabe, den Zielwert, kennt.Die Rückwärtspropagierung ist ein Spezialfall eines allgemeinen Gradientenverfahrens in der Optimierung, basierend auf dem mittleren quadratischen Fehler. En aprendizaje de máquina, la propagación hacia atrás de errores o retropropagación (del inglés backpropagation) es un algoritmo de aprendizaje supervisado utilizado para entrenar redes neuronales prealimentadas. Dado que es un método de cálculo del gradiente el algoritmo generalmente se puede usar en otros tipos de redes neuronales artificiales y en general para funciones. ​ Algoritme Perambatan Mundur atau backpropagation merupakan algoritme untuk melakukan proses pembelajaran terarah (supervised learning) pada jaringan saraf tiruan (JST) untuk mencari beban (weight) pada setiap neuron yang menghasilkan nilai kesalahan seminimal mungkin melalui data pembelajaran (training data) yang diberikan. Metode ini memanfaatkan teknik optimasi berdasarkan penurunan gradien. Metode ini dilakukan setelah proses perambatan maju yang merambatkan data dari data masukan ke keluaran melalui koleksi neuron dan lapisan JST untuk kemudian dirambatkan balik ke belakang dari lapis keluaran ke lapis masukan untuk menghitung nilai kesalahan pada masing-masing neuron dibandingkan dengan nilai keluaran yang seharusnya (nilai target). En machine learning, la rétropropagation du gradient est une méthode pour entraîner un réseau de neurones, consistant à mettre à jour les poids de chaque neurone de la dernière couche vers la première. Elle vise à corriger les erreurs selon l'importance de la contribution de chaque élément à celles-ci. Dans le cas des réseaux de neurones, les poids synaptiques qui contribuent plus à une erreur seront modifiés de manière plus importante que les poids qui provoquent une erreur marginale. الانتشار الخلفي (Backpropagation) هي إحدى طرق تعليم الشبكات العصبونية التي تؤمن نقل معلومات بالانتشار العكسي للاتجاه الأصلي لقدوم المعلومات. تعتمد هذه الطريقة على مبدأ وتحتاج في مرحلة التدريب إلى بيانات خاصة تتعلم بها الشبكة حيث تقدم لها بيانات دخل (input) مع بيانات الخرج (output) المرغوب فيها ومن ثم تقوم الشبكة بعمل انتشار امامي (feed forward) لبيانات الدخل للحصول على قيمة خرج الشبكة بعدها تقوم بالمقارنة بين الخرج المحسوب والخرج المرغوب فاذا لم تتطابق النتائج تقوم الشبكة بحساب قيمة الفرق بينهما لكل عصبون من طبقة الخرج والذي يمثل قيمة الخطا (error)، بعدها تاتي مرحلة الانتشار الخلفي للأخطاء (backpropagation) حيث تعيد الشبكة حساب قيمة الخطأ في كل عصبون من الشبكات الخفية. في الأخير تأتي مرحلة تحديث قيمة الأوزان(weight update)حيث تقوم الشبكة بإعادة حساب كل الأوزان وتعوضها بالقيم الجديدة المحس Метод зворотного поширення помилки (англ. backpropagation) — метод навчання багатошарового перцептрону. Це ітеративний градієнтний алгоритм, який використовується з метою мінімізації помилки роботи багатошарового перцептрону та отримання бажаного виходу. Основна ідея цього методу полягає в поширенні сигналів помилки від виходів мережі до її входів, в напрямку, зворотному прямому поширенню сигналів у звичайному режимі роботи. Барц і Охонін запропонували відразу загальний метод («принцип подвійності»), який можна застосувати до ширшого класу систем, включаючи , , тощо .Для можливості застосування методу зворотного поширення помилки функція активації нейронів повинна бути диференційовною. La retropropagazione dell'errore (in inglese backpropagation) è un algoritmo per l'addestramento delle reti neurali artificiali, usato in combinazione con un metodo di ottimizzazione come per esempio la discesa stocastica del gradiente. Una delle principali difficoltà nell'uso della retropropagazione dell'errore è il cosiddetto problema della scomparsa del gradiente, dovuto all'uso di funzioni di attivazione non lineari che causano una diminuzione esponenziale del valore del gradiente all'aumentare della profondità della rete neurale. 역전파(逆傳播), 오차 역전파법(영어: Backpropagation 백프로퍼게이션[*]) 또는 오류 역전파 알고리즘은 다층 퍼셉트론 학습에 사용되는 통계적 기법을 의미한다. 기계 학습에서 사용되는 학습 구조로 다층 퍼셉트론이 있다. 일반적인 다층 퍼셉트론의 형태는 입력층 - 은닉층 - 은닉층 - ... - 출력층으로 구성되며, 각 층은 서로 교차되는 가중치 값으로 연결되어 있다. 출력층에서 제시한 값이 실제 원하는 값에 가까워지도록 학습하기 위해 통계적 방법에 의한 오차역전법을 사용한다. 오차역전법은 동일 입력층에 대해 원하는 값이 출력되도록 개개의 가중치를 조정하는 방법으로 사용되며, 속도는 느리지만 안정적인 결과를 얻을 수 있는 장점이 있어 기계 학습에 널리 사용되고 있다. 反向传播(英語:Backpropagation,意為误差反向传播,缩写为BP)是對多層人工神经网络進行梯度下降的算法,也就是用链式法则以网络每层的权重為變數计算损失函数的梯度,以更新权重來最小化损失函数。 In machine learning, backpropagation (backprop, BP) is a widely used algorithm for training feedforward artificial neural networks. Generalizations of backpropagation exist for other artificial neural networks (ANNs), and for functions generally. These classes of algorithms are all referred to generically as "backpropagation". In fitting a neural network, backpropagation computes the gradient of the loss function with respect to the weights of the network for a single input–output example, and does so efficiently, unlike a naive direct computation of the gradient with respect to each weight individually. This efficiency makes it feasible to use gradient methods for training multilayer networks, updating weights to minimize loss; gradient descent, or variants such as stochastic gradient des
rdfs:seeAlso
dbr:Perceptron
foaf:depiction
n23:Extrema_example.svg n23:Error_surface_of_a_linear_neuron_for_a_single_training_case.png n23:A_simple_neural_network_with_two_input_units_and_one_output_unit.png n23:ArtificialNeuronModel_english.png
dcterms:subject
dbc:Artificial_neural_networks dbc:Articles_with_example_pseudocode dbc:Machine_learning_algorithms
dbo:wikiPageID
1360091
dbo:wikiPageRevisionID
1124381939
dbo:wikiPageWikiLink
dbr:Parabola dbr:Scalar-valued_function dbr:Differentiable_function n4:A_simple_neural_network_with_two_input_units_and_one_output_unit.png dbr:Yann_LeCun dbr:Cross_entropy dbr:Catastrophic_interference dbr:Reverse_accumulation dbr:Statistical_classification dbr:Seppo_Linnainmaa dbr:AdaBoost dbr:Machine_vision dbr:Non-linear dbr:Maxima_and_minima dbr:Transpose dbr:Hadamard_product_(matrices) dbr:Rectifier_(neural_networks) dbr:Parameter_space dbr:David_E._Rumelhart dbr:Total_derivative dbr:P600_(neuroscience) dbr:Loss_function dbr:Artificial_neuron dbr:Activation_function dbr:One-hot dbr:Machine_learning dbr:Hessian_matrix dbr:Covector dbr:Softmax_function dbr:YouTube dbr:Convex_optimization dbr:Partial_derivative dbr:Stochastic_gradient_descent dbr:Parameter dbr:Backpropagation_through_time dbc:Artificial_neural_networks dbr:Optimization_problem dbr:Delta_rule dbr:Plateau_(mathematics) dbr:Dummy_variable_(statistics) dbr:MSDN_Magazine dbr:Natural_language_processing dbr:Swish_function dbr:Log_loss dbr:Gradient_method dbr:GPU dbc:Articles_with_example_pseudocode dbc:Machine_learning_algorithms dbr:Speech_recognition dbr:Neural_circuit dbr:Glossary_of_graph_theory_terms dbr:Feedforward_neural_network dbr:Artificial_neural_network n4:Error_surface_of_a_linear_neuron_for_a_single_training_case.png dbr:Monte_Carlo_tree_search dbr:Stuart_Dreyfus dbr:Overfitting dbr:Squared_error_loss dbr:Automatic_differentiation n4:Extrema_example.svg dbr:Gradient dbr:Paul_Werbos dbr:Gradient_descent dbr:Algorithm dbr:ReLU dbr:Sigmoid_function dbr:Algorithmic_efficiency dbr:Function_composition dbr:Supervised_learning dbr:Control_theory dbr:Fisher_information dbr:Training_set dbr:Geoffrey_E._Hinton dbr:Henry_J._Kelley dbr:Dynamic_programming dbr:Tuple dbr:Regression_analysis dbr:Levenberg-Marquardt_algorithm dbr:Iteration dbr:Diagonal_matrix dbr:Ensemble_learning dbr:Euclidean_distance n42:Learning_and_Neural_Networks n4:ArtificialNeuronModel_english.png dbr:N400_(neuroscience) dbr:Deep_learning dbr:AlexNet dbr:Real_number dbr:Logistic_function dbr:Chain_rule dbr:Event-related_potential dbr:Yu-Chi_Ho dbr:Arthur_E._Bryson dbr:Ronald_J._Williams dbr:Matrix_multiplication dbr:Neural_backpropagation dbr:Ramp_function
dbo:wikiPageExternalLink
n13:K7.pdf n15:mlp.html%23pf25 n16:neuralnetworksanddeeplearning.com n18:watch%3Fv=Ilg3gGewQ5U&list=PLZHQObOWTQDNU6R1_67000Dx_ZCJB-3pi&index=3 n24:chap2.html n15:mlp.html%23pf33 n18:watch%3Fv=i94OvYb6noo&list=PLkt2uSq6rBVctENoVBg1TpCC7OQi31AlC&index=4 n37: n38:test-run-neural-network-back-propagation-for-programmers n16:www.deeplearningbook.org n46:Ilg3gGewQ5U%7C n50:backprop.html n46:i94OvYb6noo%7C
owl:sameAs
dbpedia-sr:Бекпропагација n8:4xPEm freebase:m.04wmwt dbpedia-it:Retropropagazione_dell'errore dbpedia-pl:Propagacja_wsteczna dbpedia-zh:反向传播算法 dbpedia-fa:پس‌انتشار dbpedia-el:Οπισθοδιάδοση dbpedia-vi:Truyền_ngược dbpedia-cs:Algoritmus_zpětného_šíření_chyby dbpedia-id:Algoritma_perambatan_mundur dbpedia-ru:Метод_обратного_распространения_ошибки dbpedia-ko:역전파 dbpedia-simple:Backpropagation dbpedia-es:Propagación_hacia_atrás dbpedia-ja:バックプロパゲーション dbpedia-de:Backpropagation dbpedia-ka:უკუპროპაგაციული_მოდელი dbpedia-sl:Metoda_vzvratnega_razširjanja dbpedia-ar:انتشار_خلفي wikidata:Q798503 dbpedia-fr:Rétropropagation_du_gradient yago-res:Backpropagation dbpedia-ca:Retropropagació dbpedia-uk:Метод_зворотного_поширення_помилки
dbp:wikiPageUsesTemplate
dbt:Reflist dbt:About dbt:Notelist dbt:NumBlk dbt:Cite_book dbt:Slink dbt:Cite_web dbt:Cleanup_reorganize dbt:Cn dbt:Sfn dbt:See_also dbt:Expand_section dbt:Short_description dbt:Harvtxt dbt:Efn dbt:Hatnote dbt:Differentiable_computing dbt:Cbignore dbt:Authority_control dbt:EquationRef dbt:EquationNote dbt:Mvar dbt:Machine_learning_bar dbt:Further
dbo:thumbnail
n23:A_simple_neural_network_with_two_input_units_and_one_output_unit.png?width=300
dbp:date
August 2022
dbp:reason
Inconsistent use of variable names and terminology without images to match.
dbo:abstract
Propagacja wsteczna (ang. Backpropagation lub Backward Propagation of Errors) – podstawowy algorytm uczenia nadzorowanego wielowarstwowych, jednokierunkowych sieci neuronowych. Podaje on przepis na zmianę wag dowolnych połączeń elementów przetwarzających rozmieszczonych w sąsiednich warstwach sieci. Oparty jest on na minimalizacji sumy kwadratów błędów (lub innej funkcji błędu) uczenia z wykorzystaniem optymalizacyjnej metody największego spadku. Dzięki zastosowaniu specyficznego sposobu propagowania błędów uczenia sieci powstałych na jej wyjściu, tj. przesyłania ich od warstwy wyjściowej do wejściowej, algorytm propagacji wstecznej stał się jednym z najskuteczniejszych algorytmów uczenia sieci. Algorytm uczenia wyznacza kierunek, w którym w danej iteracji należy zmodyfikować wagi w celu zmniejszenia błędu popełnianego przez sieć. Tempo modyfikacji wag określone jest natomiast za pomocą współczynnika uczenia. الانتشار الخلفي (Backpropagation) هي إحدى طرق تعليم الشبكات العصبونية التي تؤمن نقل معلومات بالانتشار العكسي للاتجاه الأصلي لقدوم المعلومات. تعتمد هذه الطريقة على مبدأ وتحتاج في مرحلة التدريب إلى بيانات خاصة تتعلم بها الشبكة حيث تقدم لها بيانات دخل (input) مع بيانات الخرج (output) المرغوب فيها ومن ثم تقوم الشبكة بعمل انتشار امامي (feed forward) لبيانات الدخل للحصول على قيمة خرج الشبكة بعدها تقوم بالمقارنة بين الخرج المحسوب والخرج المرغوب فاذا لم تتطابق النتائج تقوم الشبكة بحساب قيمة الفرق بينهما لكل عصبون من طبقة الخرج والذي يمثل قيمة الخطا (error)، بعدها تاتي مرحلة الانتشار الخلفي للأخطاء (backpropagation) حيث تعيد الشبكة حساب قيمة الخطأ في كل عصبون من الشبكات الخفية. في الأخير تأتي مرحلة تحديث قيمة الأوزان(weight update)حيث تقوم الشبكة بإعادة حساب كل الأوزان وتعوضها بالقيم الجديدة المحسوبة. يشترط في الانتشار الخلفي ان تكون التي تستعملها العصبونات قابلة للاشتقاق. ذلك لانه في مرحلة تحديث الأوزان تستعمل الدالة المشتقة لدالة التنشيط في حساب القيم الجديدة. Algoritme Perambatan Mundur atau backpropagation merupakan algoritme untuk melakukan proses pembelajaran terarah (supervised learning) pada jaringan saraf tiruan (JST) untuk mencari beban (weight) pada setiap neuron yang menghasilkan nilai kesalahan seminimal mungkin melalui data pembelajaran (training data) yang diberikan. Metode ini memanfaatkan teknik optimasi berdasarkan penurunan gradien. Metode ini dilakukan setelah proses perambatan maju yang merambatkan data dari data masukan ke keluaran melalui koleksi neuron dan lapisan JST untuk kemudian dirambatkan balik ke belakang dari lapis keluaran ke lapis masukan untuk menghitung nilai kesalahan pada masing-masing neuron dibandingkan dengan nilai keluaran yang seharusnya (nilai target). * l * * s 反向传播(英語:Backpropagation,意為误差反向传播,缩写为BP)是對多層人工神经网络進行梯度下降的算法,也就是用链式法则以网络每层的权重為變數计算损失函数的梯度,以更新权重來最小化损失函数。 Backpropagation oder auch Backpropagation of Error bzw. auch Fehlerrückführung (auch Rückpropagierung) ist ein verbreitetes Verfahren für das Einlernen von künstlichen neuronalen Netzen. Es gehört zur Gruppe der überwachten Lernverfahren und wird als Verallgemeinerung der Delta-Regel auf mehrschichtige Netze angewandt. Dazu muss ein externer Lehrer existieren, der zu jedem Zeitpunkt der Eingabe die gewünschte Ausgabe, den Zielwert, kennt.Die Rückwärtspropagierung ist ein Spezialfall eines allgemeinen Gradientenverfahrens in der Optimierung, basierend auf dem mittleren quadratischen Fehler. O αλγόριθμος οπισθοδιάδοσης είναι μια οικογένεια μεθόδων που χρησιμοποιούνται για την αποτελεσματική εκπαίδευση των τεχνητών νευρωνικών δικτύων (συντομογραφία ΤΝΔ), ακολουθώντας έναν αλγόριθμο βελτιστοποίησης βασιζόμενο στην κλίση που εκμεταλλεύεται τον κανόνα της αλυσίδας . Το κύριο χαρακτηριστικό της οπισθοδιάδοσης είναι η επαναληπτική, αναδρομική και αποδοτική μέθοδος για τον υπολογισμό των ανανεώσεων των βαρών για τη βελτίωση του δικτύου έως ότου είναι σε θέση να εκτελέσει το έργο για το οποίο εκπαιδεύεται. Είναι στενά συνδεδεμένη με τον αλγόριθμο Gauss-Newton . Η οπισθοδιάδοση απαιτεί ότι οι παράγωγοι των συναρτήσεων ενεργοποίησης κατά το σχεδιασμό του δικτύου είναι γνωστοί. Η αυτόματη διαφοροποίηση είναι μια τεχνική που παρέχει αυτόματα και αναλυτικά τις παραγώγους των συναρτήσεων στον αλγόριθμο εκπαίδευσης. Στο πλαίσιο της μάθησης, η οπισθοδιάδοση χρησιμοποιείται συνήθως από τον αλγόριθμο βελτιστοποίησης μείωσης κλίσης ώστε να ρυθμίσει το βάρος των νευρώνων υπολογίζοντας την κλίση της συνάρτησης απώλειας. Η οπίσθοδιάδοση υπολογίζει τις κλίσεις, ενώ η (στοχαστική) μείωση της κλίσης χρησιμοποιεί τις κλίσεις για την εκπαίδευση του μοντέλου (μέσω βελτιστοποίησης). Метод обратного распространения ошибки (англ. backpropagation) — метод вычисления градиента, который используется при обновлении весов многослойного перцептрона. Впервые метод был описан в 1974 г. А. И. Галушкиным, а также независимо и одновременно Полом Дж. Вербосом. Далее существенно развит в 1986 г. Дэвидом И. Румельхартом, Дж. Е. Хинтоном и Рональдом Дж. Вильямсом и независимо и одновременно и (Красноярская группа). Это , который используется с целью минимизации ошибки работы многослойного перцептрона и получения желаемого выхода. Основная идея этого метода состоит в распространении сигналов ошибки от выходов сети к её входам, в направлении обратном прямому распространению сигналов в обычном режиме работы. Барцев и Охонин предложили обобщающий метод («принцип двойственности»), применимый к более широкому классу систем, включая , распределённые системы, и т. п. Для возможности применения метода обратного распространения ошибки передаточная функция нейронов должна быть дифференцируема. Метод используется для аналитического вычисления градиента в методе градиентного спуска. In machine learning, backpropagation (backprop, BP) is a widely used algorithm for training feedforward artificial neural networks. Generalizations of backpropagation exist for other artificial neural networks (ANNs), and for functions generally. These classes of algorithms are all referred to generically as "backpropagation". In fitting a neural network, backpropagation computes the gradient of the loss function with respect to the weights of the network for a single input–output example, and does so efficiently, unlike a naive direct computation of the gradient with respect to each weight individually. This efficiency makes it feasible to use gradient methods for training multilayer networks, updating weights to minimize loss; gradient descent, or variants such as stochastic gradient descent, are commonly used. The backpropagation algorithm works by computing the gradient of the loss function with respect to each weight by the chain rule, computing the gradient one layer at a time, iterating backward from the last layer to avoid redundant calculations of intermediate terms in the chain rule; this is an example of dynamic programming. The term backpropagation strictly refers only to the algorithm for computing the gradient, not how the gradient is used; however, the term is often used loosely to refer to the entire learning algorithm, including how the gradient is used, such as by stochastic gradient descent. Backpropagation generalizes the gradient computation in the delta rule, which is the single-layer version of backpropagation, and is in turn generalized by automatic differentiation, where backpropagation is a special case of reverse accumulation (or "reverse mode"). The term backpropagation and its general use in neural networks was announced in , then elaborated and popularized in , but the technique was independently rediscovered many times, and had many predecessors dating to the 1960s; see . A modern overview is given in the deep learning textbook by . La retropropagació, en l'àmbit de les xarxes neuronals artificials, és un mètode que s'empra per a calcular el gradient que és necessari aplicar als pesos o coeficients dels nodes de la xarxa. La retropropagació s'utilitza molt per a entrenar xarxes d'aprenentatge profund. La retropropagació és un cas especial d'una tècnica més general anomenada derivació automàtica, on s'ajusten els coeficients de les neurones tot calculant amb l'algorisme del gradient descendent. La retropropagazione dell'errore (in inglese backpropagation) è un algoritmo per l'addestramento delle reti neurali artificiali, usato in combinazione con un metodo di ottimizzazione come per esempio la discesa stocastica del gradiente. La retropropagazione richiede un'uscita desiderata per ogni valore in ingresso per poter calcolare il gradiente della funzione di perdita (funzione di costo). Viene considerato quindi un metodo di apprendimento supervisionato, sebbene venga usato anche in reti non supervisionate come gli autocodificatori o . È una generalizzazione della regola delta di reti feed-forward multistrato, resa possibile usando la regola di catena che iterativamente calcola i gradienti per ogni strato.La retropropagazione richiede che la funzione d'attivazione usata dai neuroni artificiali (o "nodi") sia differenziabile. Una delle principali difficoltà nell'uso della retropropagazione dell'errore è il cosiddetto problema della scomparsa del gradiente, dovuto all'uso di funzioni di attivazione non lineari che causano una diminuzione esponenziale del valore del gradiente all'aumentare della profondità della rete neurale. Метод зворотного поширення помилки (англ. backpropagation) — метод навчання багатошарового перцептрону. Це ітеративний градієнтний алгоритм, який використовується з метою мінімізації помилки роботи багатошарового перцептрону та отримання бажаного виходу. Основна ідея цього методу полягає в поширенні сигналів помилки від виходів мережі до її входів, в напрямку, зворотному прямому поширенню сигналів у звичайному режимі роботи. Барц і Охонін запропонували відразу загальний метод («принцип подвійності»), який можна застосувати до ширшого класу систем, включаючи , , тощо .Для можливості застосування методу зворотного поширення помилки функція активації нейронів повинна бути диференційовною. En machine learning, la rétropropagation du gradient est une méthode pour entraîner un réseau de neurones, consistant à mettre à jour les poids de chaque neurone de la dernière couche vers la première. Elle vise à corriger les erreurs selon l'importance de la contribution de chaque élément à celles-ci. Dans le cas des réseaux de neurones, les poids synaptiques qui contribuent plus à une erreur seront modifiés de manière plus importante que les poids qui provoquent une erreur marginale. De façon abusive, on appelle souvent « technique de rétropropagation du gradient » l'algorithme classique de correction des erreurs reposant sur le calcul du gradient grâce à la rétropropagation. C'est cette méthode qui est présentée ici. La correction des erreurs peut se faire selon d'autres méthodes, par exemple le calcul de la dérivée seconde. Ce principe fonde les méthodes de type algorithme du gradient, qui sont utilisées dans des réseaux de neurones multicouches comme les perceptrons multicouches. L'algorithme du gradient a pour but de converger de manière itérative vers une configuration optimale des poids synaptiques. Cet état peut être un minimum local de la fonction, ou, idéalement, le minimum global de cette fonction (dite fonction de coût). Normalement, la fonction de coût est non linéaire au regard des poids synaptiques. Elle dispose également d'une borne inférieure et moyennant quelques précautions lors de l'apprentissage, les procédures d'optimisation finissent par aboutir à une configuration stable au sein du réseau de neurones. En aprendizaje de máquina, la propagación hacia atrás de errores o retropropagación (del inglés backpropagation) es un algoritmo de aprendizaje supervisado utilizado para entrenar redes neuronales prealimentadas. Dado que es un método de cálculo del gradiente el algoritmo generalmente se puede usar en otros tipos de redes neuronales artificiales y en general para funciones. ​ El método emplea un ciclo de propagación–adaptación de dos fases, en resumen permite que la información del costo fluya hacia atrás a través de la red para calcular el gradiente.​ Una vez que se ha aplicado un patrón a la entrada de la red como estímulo, este se propaga desde la primera capa a través de las capas siguientes de la red, hasta generar una salida. La señal de salida se compara con la salida deseada y se calcula una señal de error para cada una de las salidas. Las salidas de error entonces se propagan hacia atrás, partiendo de la capa de salida, hacia todas las neuronas de la capa oculta que contribuyen directamente a la salida. Sin embargo las neuronas de la capa oculta solo reciben una fracción de la señal total del error, basándose aproximadamente en la contribución relativa que haya aportado cada neurona a la salida original. Este proceso se repite, capa por capa, hasta que todas las neuronas de la red hayan recibido una señal de error que describa su contribución relativa al error total. La importancia de este proceso consiste en que, a medida que se entrena la red, las neuronas de las capas intermedias se organizan a sí mismas de tal modo que las distintas neuronas aprenden a reconocer distintas características del espacio total de entrada. Después del entrenamiento, cuando se les presente un patrón arbitrario de entrada que contenga ruido o que esté incompleto, las neuronas de la capa oculta de la red responderán con una salida activa si la nueva entrada contiene un patrón que se asemeje a aquella característica que las neuronas individuales hayan aprendido a reconocer durante su entrenamiento. 역전파(逆傳播), 오차 역전파법(영어: Backpropagation 백프로퍼게이션[*]) 또는 오류 역전파 알고리즘은 다층 퍼셉트론 학습에 사용되는 통계적 기법을 의미한다. 기계 학습에서 사용되는 학습 구조로 다층 퍼셉트론이 있다. 일반적인 다층 퍼셉트론의 형태는 입력층 - 은닉층 - 은닉층 - ... - 출력층으로 구성되며, 각 층은 서로 교차되는 가중치 값으로 연결되어 있다. 출력층에서 제시한 값이 실제 원하는 값에 가까워지도록 학습하기 위해 통계적 방법에 의한 오차역전법을 사용한다. 오차역전법은 동일 입력층에 대해 원하는 값이 출력되도록 개개의 가중치를 조정하는 방법으로 사용되며, 속도는 느리지만 안정적인 결과를 얻을 수 있는 장점이 있어 기계 학습에 널리 사용되고 있다. バックプロパゲーション(英: Backpropagation)または誤差逆伝播法(ごさぎゃくでんぱほう)はニューラルネットワークの学習アルゴリズムである。
gold:hypernym
dbr:Method
prov:wasDerivedFrom
wikipedia-en:Backpropagation?oldid=1124381939&ns=0
dbo:wikiPageLength
50623
foaf:isPrimaryTopicOf
wikipedia-en:Backpropagation
Subject Item
dbr:Adjoint_state_method
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Torch_(machine_learning)
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Jürgen_Schmidhuber
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Land_cover_maps
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Language_model
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:LeNet
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Learning_rate
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Learning_rule
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Linear_classifier
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Logistic_regression
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Eta
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Fast_Artificial_Neural_Network
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:PAQ
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Capsule_neural_network
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Diagonal_matrix
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Dimensionality_reduction
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Graph_neural_network
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:History_of_artificial_neural_networks
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Spin_glass
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Stochastic_gradient_descent
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Quantum_neural_network
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Recurrent_neural_network
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Restricted_Boltzmann_machine
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:JOONE
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Backpropagation_through_time
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Backward_induction
owl:differentFrom
dbr:Backpropagation
Subject Item
dbr:TensorFlow
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Hybrid_Kohonen_self-organizing_map
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Arthur_E._Bryson
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Artificial_intelligence
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Artificial_neural_network
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:ADALINE
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:AI_winter
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:ALOPEX
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:AlexNet
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Symbolic_artificial_intelligence
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Code_stylometry
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Henry_J._Kelley
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Holographic_associative_memory
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Models_of_neural_computation
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Artificial_neuron
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Autoencoder
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Automatic_differentiation
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Boltzmann_machine
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Softmax_function
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Spiking_neural_network
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Neuroevolution
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Neuroph
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Catastrophic_interference
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Metadynamics
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Self-organizing_map
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Neural_backpropagation
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Neural_cryptography
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Neural_network_quantum_states
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Neural_style_transfer
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Neurogammon
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Extreme_learning_machine
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Unsupervised_learning
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Ronald_J._Williams
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Rprop
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Stock_market_prediction
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:First_break_picking
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Natural_computing
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Visual_temporal_attention
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Synaptic_weight
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Multi-surface_method
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Multilayer_perceptron
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Seppo_Linnainmaa
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Nonlinear_dimensionality_reduction
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Time_delay_neural_network
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Residual_neural_network
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Outline_of_artificial_intelligence
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Outline_of_machine_learning
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Stuart_Dreyfus
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Supervised_learning
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Types_of_artificial_neural_networks
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:Variational_autoencoder
dbo:wikiPageWikiLink
dbr:Backpropagation
Subject Item
dbr:BP_algorithm
dbo:wikiPageWikiLink
dbr:Backpropagation
dbo:wikiPageRedirects
dbr:Backpropagation
Subject Item
dbr:Back-Propagation
dbo:wikiPageWikiLink
dbr:Backpropagation
dbo:wikiPageRedirects
dbr:Backpropagation
Subject Item
dbr:Back-propagation
dbo:wikiPageWikiLink
dbr:Backpropagation
dbo:wikiPageRedirects
dbr:Backpropagation
Subject Item
dbr:Back_prop
dbo:wikiPageWikiLink
dbr:Backpropagation
dbo:wikiPageRedirects
dbr:Backpropagation
Subject Item
dbr:Back_propagation
dbo:wikiPageWikiLink
dbr:Backpropagation
dbo:wikiPageRedirects
dbr:Backpropagation
Subject Item
dbr:Backprop
dbo:wikiPageWikiLink
dbr:Backpropagation
dbo:wikiPageRedirects
dbr:Backpropagation
Subject Item
dbr:Backpropogation
dbo:wikiPageWikiLink
dbr:Backpropagation
dbo:wikiPageRedirects
dbr:Backpropagation
Subject Item
dbr:Error_back-propagation
dbo:wikiPageWikiLink
dbr:Backpropagation
dbo:wikiPageRedirects
dbr:Backpropagation
Subject Item
wikipedia-en:Backpropagation
foaf:primaryTopic
dbr:Backpropagation