This HTML5 document contains 189 embedded RDF statements represented using HTML+Microdata notation.

The embedded RDF content will be recognized by any processor of HTML5 Microdata.

Namespace Prefixes

PrefixIRI
dbpedia-dehttp://de.dbpedia.org/resource/
dbpedia-dahttp://da.dbpedia.org/resource/
dctermshttp://purl.org/dc/terms/
yago-reshttp://yago-knowledge.org/resource/
dbohttp://dbpedia.org/ontology/
n14http://hy.dbpedia.org/resource/
foafhttp://xmlns.com/foaf/0.1/
dbpedia-kohttp://ko.dbpedia.org/resource/
dbpedia-cahttp://ca.dbpedia.org/resource/
dbpedia-eshttp://es.dbpedia.org/resource/
n33https://global.dbpedia.org/id/
n30http://www.cs.waikato.ac.nz/ml/weka/
yagohttp://dbpedia.org/class/yago/
dbpedia-ruhttp://ru.dbpedia.org/resource/
dbthttp://dbpedia.org/resource/Template:
dbpedia-ukhttp://uk.dbpedia.org/resource/
rdfshttp://www.w3.org/2000/01/rdf-schema#
freebasehttp://rdf.freebase.com/ns/
dbpedia-plhttp://pl.dbpedia.org/resource/
dbpedia-pthttp://pt.dbpedia.org/resource/
dbpedia-fihttp://fi.dbpedia.org/resource/
dbpedia-fahttp://fa.dbpedia.org/resource/
rdfhttp://www.w3.org/1999/02/22-rdf-syntax-ns#
owlhttp://www.w3.org/2002/07/owl#
dbpedia-ithttp://it.dbpedia.org/resource/
n35http://neuroph.sourceforge.net/
dbpedia-zhhttp://zh.dbpedia.org/resource/
dbpedia-frhttp://fr.dbpedia.org/resource/
wikipedia-enhttp://en.wikipedia.org/wiki/
dbphttp://dbpedia.org/property/
dbchttp://dbpedia.org/resource/Category:
dbpedia-bghttp://bg.dbpedia.org/resource/
provhttp://www.w3.org/ns/prov#
xsdhhttp://www.w3.org/2001/XMLSchema#
goldhttp://purl.org/linguistics/gold/
wikidatahttp://www.wikidata.org/entity/
dbrhttp://dbpedia.org/resource/
dbpedia-jahttp://ja.dbpedia.org/resource/

Statements

Subject Item
dbr:Bellman_equation
dbo:wikiPageWikiLink
dbr:Multilayer_perceptron
Subject Item
dbr:Probabilistic_classification
dbo:wikiPageWikiLink
dbr:Multilayer_perceptron
Subject Item
dbr:Perceiver
dbo:wikiPageWikiLink
dbr:Multilayer_perceptron
Subject Item
dbr:Perceptron
dbo:wikiPageWikiLink
dbr:Multilayer_perceptron
Subject Item
dbr:Richard_F._Lyon
dbo:wikiPageWikiLink
dbr:Multilayer_perceptron
Subject Item
dbr:Ryzen
dbo:wikiPageWikiLink
dbr:Multilayer_perceptron
Subject Item
dbr:Generative_adversarial_network
dbo:wikiPageWikiLink
dbr:Multilayer_perceptron
Subject Item
dbr:Glossary_of_artificial_intelligence
dbo:wikiPageWikiLink
dbr:Multilayer_perceptron
Subject Item
dbr:Convolutional_neural_network
dbo:wikiPageWikiLink
dbr:Multilayer_perceptron
Subject Item
dbr:2019_in_science
dbo:wikiPageWikiLink
dbr:Multilayer_perceptron
Subject Item
dbr:Applications_of_multilayer_perceptrons
dbo:wikiPageWikiLink
dbr:Multilayer_perceptron
dbo:wikiPageRedirects
dbr:Multilayer_perceptron
Subject Item
dbr:Batch_normalization
dbo:wikiPageWikiLink
dbr:Multilayer_perceptron
Subject Item
dbr:Logic_learning_machine
dbo:wikiPageWikiLink
dbr:Multilayer_perceptron
Subject Item
dbr:Machine_learning
dbo:wikiPageWikiLink
dbr:Multilayer_perceptron
Subject Item
dbr:Computational_neurogenetic_modeling
dbo:wikiPageWikiLink
dbr:Multilayer_perceptron
Subject Item
dbr:Fault_detection_and_isolation
dbo:wikiPageWikiLink
dbr:Multilayer_perceptron
Subject Item
dbr:Feature_learning
dbo:wikiPageWikiLink
dbr:Multilayer_perceptron
Subject Item
dbr:Hamilton–Jacobi–Bellman_equation
dbo:wikiPageWikiLink
dbr:Multilayer_perceptron
Subject Item
dbr:Probabilistic_neural_network
dbo:wikiPageWikiLink
dbr:Multilayer_perceptron
Subject Item
dbr:Machine_learning_in_video_games
dbo:wikiPageWikiLink
dbr:Multilayer_perceptron
Subject Item
dbr:Torch_(machine_learning)
dbo:wikiPageWikiLink
dbr:Multilayer_perceptron
Subject Item
dbr:Motor_babbling
dbo:wikiPageWikiLink
dbr:Multilayer_perceptron
Subject Item
dbr:ADaMSoft
dbo:wikiPageWikiLink
dbr:Multilayer_perceptron
Subject Item
dbr:Receptive_field
dbo:wikiPageWikiLink
dbr:Multilayer_perceptron
Subject Item
dbr:Recurrent_neural_network
dbo:wikiPageWikiLink
dbr:Multilayer_perceptron
Subject Item
dbr:Hybrid_Kohonen_self-organizing_map
dbo:wikiPageWikiLink
dbr:Multilayer_perceptron
Subject Item
dbr:Artificial_neural_network
dbo:wikiPageWikiLink
dbr:Multilayer_perceptron
Subject Item
dbr:ADALINE
dbo:wikiPageWikiLink
dbr:Multilayer_perceptron
Subject Item
dbr:Bidirectional_recurrent_neural_networks
dbo:wikiPageWikiLink
dbr:Multilayer_perceptron
Subject Item
dbr:Relation_network
dbo:wikiPageWikiLink
dbr:Multilayer_perceptron
Subject Item
dbr:Artificial_neuron
dbo:wikiPageWikiLink
dbr:Multilayer_perceptron
Subject Item
dbr:Autoencoder
dbo:wikiPageWikiLink
dbr:Multilayer_perceptron
Subject Item
dbr:Platt_scaling
dbo:wikiPageWikiLink
dbr:Multilayer_perceptron
Subject Item
dbr:Neuroph
dbo:wikiPageWikiLink
dbr:Multilayer_perceptron
Subject Item
dbr:MLP
dbo:wikiPageWikiLink
dbr:Multilayer_perceptron
Subject Item
dbr:Volterra_series
dbo:wikiPageWikiLink
dbr:Multilayer_perceptron
Subject Item
dbr:NeuroSolutions
dbo:wikiPageWikiLink
dbr:Multilayer_perceptron
Subject Item
dbr:FMLLR
dbo:wikiPageWikiLink
dbr:Multilayer_perceptron
Subject Item
dbr:Fitness_approximation
dbo:wikiPageWikiLink
dbr:Multilayer_perceptron
Subject Item
dbr:Multilayer_perceptron
rdf:type
yago:Communication100033020 yago:Event100029378 yago:Statement106722453 dbo:Person yago:NeuralNetwork106725467 yago:Message106598915 yago:ComputerArchitecture106725249 yago:WikicatClassificationAlgorithms yago:WikicatArtificialNeuralNetworks yago:WikicatNeuralNetworks yago:Activity100407535 yago:Description106724763 yago:Act100030358 yago:Rule105846932 yago:Procedure101023820 yago:PsychologicalFeature100023100 yago:Abstraction100002137 yago:Specification106725067 yago:YagoPermanentlyLocatedEntity yago:Algorithm105847438
rdfs:label
Многослойный перцептрон Румельхарта Perceptrón multicapa Perceptron multicouche 다층 퍼셉트론 Percettrone multistrato Багатошаровий перцептрон Румельхарта Perceptron wielowarstwowy Perceptron multicamadas Perceptró multicapa 多层感知器 Mehrlagiges Perzeptron Multilayer perceptron 多層パーセプトロン
rdfs:comment
Perceptron wielowarstwowy (ang. Multilayer Perceptron, MLP) – najpopularniejszy typ sztucznych sieci neuronowych. Sieć tego typu składa się zwykle z jednej warstwy wejściowej, kilku warstw ukrytych oraz jednej warstwy wyjściowej. Warstwy ukryte składają się najczęściej z neuronów McCullocha-Pittsa. Ustalenie właściwej liczby warstw ukrytych oraz liczby neuronów znajdujących się w poszczególnych warstwach jest trudnym zagadnieniem, które musi rozwiązać twórca sieci neuronowej. Warstwa wyjściowa może składać się z neuronów liniowych (w przypadku regresji) lub neuronów nieliniowych (w przypadku klasyfikacji). Trenowanie sieci typu MLP możliwe jest dzięki zastosowaniu metody wstecznej propagacji błędów. 다층 퍼셉트론(Multilayer perceptron, MLP)은 퍼셉트론을 여러층 쌓은 순방향의 인공 신경망이다. 입력층(input layer)과 은닉층(hidden layer)과 출력층(output layer)으로 구성된다. 각 층에서는 활성함수를 통해 입력을 처리한다. El perceptrón multicapa es una red neuronal artificial (RNA) formada por múltiples capas, de tal manera que tiene capacidad para resolver problemas que no son linealmente separables, lo cual es la principal limitación del perceptrón (también llamado perceptrón simple). El perceptrón multicapa puede estar totalmente o localmente conectado. En el primer caso cada salida de una neurona de la capa "i" es entrada de todas las neuronas de la capa "i+1", mientras que en el segundo cada neurona de la capa "i" es entrada de una serie de neuronas (región) de la capa "i+1". Il Percettrone multistrato (in acronimo MLP dall'inglese Multilayer perceptron) è un modello di rete neurale artificiale che mappa insiemi di dati in ingresso in un insieme di dati in uscita appropriati. È fatta di strati multipli di nodi in un grafo diretto, con ogni strato completamente connesso al successivo. Eccetto che per i nodi in ingresso, ogni nodo è un neurone (elemento elaborante) con una funzione di attivazione lineare. Il Percettrone multistrato usa una tecnica di apprendimento supervisionato chiamata backpropagation per l'allenamento della rete. Багатошаровий перцептрон Румельхарта — окремий випадок перцептрона Розенблатта, в якому один алгоритм зворотного поширення помилки навчає всі шари. На жаль, назва з історичних причин не відображає особливості даного виду перцептрона, тобто не пов'язана з тим, що в ньому кілька шарів (тому що кілька шарів було і у перцептрона Розенблатта). Особливістю є наявність більш ніж одного учня шару (як правило — два чи три, для застосування більшої кількості наразі немає обґрунтування — втрачається швидкість без придбання якості). Необхідність у великій кількості шарів-учнів відпадає, оскільки теоретично єдиного прихованого шару достатньо, щоб перекодувати вхідний сигнал таким чином, щоб отримати лінійну карту для вихідного сигналу. Але є припущення, що, використовуючи більше число шарів, можна змен A multilayer perceptron (MLP) is a fully connected class of feedforward artificial neural network (ANN). The term MLP is used ambiguously, sometimes loosely to mean any feedforward ANN, sometimes strictly to refer to networks composed of multiple layers of perceptrons (with threshold activation); see . Multilayer perceptrons are sometimes colloquially referred to as "vanilla" neural networks, especially when they have a single hidden layer. 多層パーセプトロン(たそうパーセプトロン、英: Multilayer perceptron、略称: MLP)は、ニューラルネットワークの一分類である。MLPは少なくとも3つのノードの層からなる。入力ノードを除けば、個々のノードは非線形活性化関数を使用するニューロンである。MLPは学習のために誤差逆伝播法(バックプロパゲーション)と呼ばれる教師あり学習手法を利用する。その多層構造と非線形活性化関数が、MLPと線形パーセプトロンを区別している。MLPは線形分離可能ではないデータを識別できる。 多層パーセプトロンは時折、特に単一の隠れ層を持つ時、「バニラ」ニューラルネットワークと口語的に呼ばれることがある。 Le perceptron multicouche (multilayer perceptron MLP) est un type de réseau neuronal artificiel organisé en plusieurs couches. L'information circule de la couche d'entrée vers la couche de sortie uniquement : il s'agit donc d'un réseau à propagation directe (feedforward). Chaque couche est constituée d'un nombre variable de neurones, les neurones de la dernière couche (dite « de sortie ») étant les sorties du système global. Многослойный перцептрон — частный случай перцептрона Розенблатта, в котором один алгоритм обратного распространения ошибки обучает все слои. Название по историческим причинам не отражает особенности данного вида перцептрона, то есть не связано с тем, что в нём имеется несколько слоёв (так как несколько слоёв было и у перцептрона Розенблатта). Особенностью является наличие более чем одного обучаемого слоя (как правило — два или три). Необходимость в большом количестве обучаемых слоёв отпадает, так как теоретически единственного скрытого слоя достаточно, чтобы перекодировать входное представление таким образом, чтобы получить линейную разделимость для выходного представления. Существует предположение, что, используя большее число слоёв, можно уменьшить число элементов в них, то есть суммарно A perceptron multicamadas (MLP) é uma rede neural semelhante à perceptron, mas com mais de uma camada de neurônios em alimentação direta. Tal tipo de rede é composta por camadas de neurônios ligadas entre si por sinapses com pesos. O aprendizado nesse tipo de rede é geralmente feito através do algoritmo de retro-propagação do erro, mas existem outros algoritmos para este fim, como a Rprop. 多层感知器(Multilayer Perceptron,缩写MLP)是一种前向结构的人工神经网络,映射一组输入向量到一组输出向量。MLP可以被看作是一个有向图,由多个的节点层所组成,每一层都全连接到下一层。除了输入节点,每个节点都是一个带有非线性激活函数的神经元(或称处理单元)。一种被称为反向传播算法的监督学习方法常被用来训练MLP。 多层感知器遵循人類神經系統原理,學習並進行數據預測。它首先學習,然後使用權重存儲數據,並使用算法來調整權重並減少訓練過程中的偏差,即實際值和預測值之間的誤差。主要優勢在於其快速解決複雜問題的能力。多層感知的基本結構由三層組成:第一輸入層,中間隱藏層和最後輸出層,輸入元素和權重的乘積被饋給具有神經元偏差的求和結點,主要優勢在於其快速解決複雜問題的能力。 MLP是感知器的推广,克服了感知器不能对数据进行识别的弱点。 Un perceptró multicapa (amb acrònim MLP) és un tipus de xarxa neuronal artificial de classe directa. Una MLP consisteix , almenys, de tres capes de nodes : una capa d'entrada, una capa oculta i una capa de sortida. Excepte pel mode d'entrada, cada node empra una funció d'activació no lineal, la qual cosa permet de classificar conjunts de dades que no estan separats linealment. Es distingeixen del perceptró que només tenen una capa oculta i funció lineal. MLP utilitza una tècnica d'aprenentatge supervisat anomenada backpropagation (retropropagació).
dcterms:subject
dbc:Classification_algorithms dbc:Neural_network_architectures
dbo:wikiPageID
2266644
dbo:wikiPageRevisionID
1109264903
dbo:wikiPageWikiLink
dbr:Artificial_neural_network dbr:Universal_approximation_theorem dbr:Hyperbolic_tangent dbr:Support_vector_machine dbr:Vanishing_gradient_problem dbr:Image_recognition dbr:Linear_separability dbr:Heaviside_step_function dbr:Speech_recognition dbr:Sigmoids dbr:Least_mean_squares_filter dbr:Action_potentials dbr:Deep_learning dbc:Classification_algorithms dbr:Layer_(deep_learning) dbr:Categorical_variable dbr:Synaptic_weight dbr:Supervised_learning dbr:Natural_language_processing dbr:Learning_rate dbr:Statistical_classification dbr:Backpropagation dbr:Logistic_function dbr:Regression_analysis dbr:Activation_function dbr:Computational_complexity_theory dbr:Perceptron dbc:Neural_network_architectures dbr:Linear_algebra dbr:Radial_basis_functions dbr:Radial_basis_network dbr:Rectifier_(neural_networks) dbr:Fitness_approximation dbr:Feedforward_neural_network dbr:Machine_translation dbr:Gradient_descent
dbo:wikiPageExternalLink
n30: n35:
owl:sameAs
dbpedia-fa:پرسپترون_چندلایه dbpedia-ca:Perceptró_multicapa n14:Բազմաշերտ_պերցեպտրոն dbpedia-bg:Многослоен_перцептрон dbpedia-zh:多层感知器 dbpedia-it:Percettrone_multistrato dbpedia-fr:Perceptron_multicouche dbpedia-de:Mehrlagiges_Perzeptron dbpedia-ru:Многослойный_перцептрон_Румельхарта freebase:m.03bx6t8 dbpedia-uk:Багатошаровий_перцептрон_Румельхарта wikidata:Q2991667 dbpedia-es:Perceptrón_multicapa yago-res:Multilayer_perceptron dbpedia-fi:Monikerroksinen_perseptroniverkko dbpedia-pt:Perceptron_multicamadas dbpedia-da:Flerlags-perceptron n33:2mdVh dbpedia-ja:多層パーセプトロン dbpedia-ko:다층_퍼셉트론 dbpedia-pl:Perceptron_wielowarstwowy
dbp:wikiPageUsesTemplate
dbt:Slink dbt:Short_description dbt:Differentiable_computing dbt:Main dbt:Hatnote dbt:Machine_learning dbt:Reflist
dbo:wikiPageInterLanguageLink
dbpedia-de:Perzeptron
dbo:abstract
다층 퍼셉트론(Multilayer perceptron, MLP)은 퍼셉트론을 여러층 쌓은 순방향의 인공 신경망이다. 입력층(input layer)과 은닉층(hidden layer)과 출력층(output layer)으로 구성된다. 각 층에서는 활성함수를 통해 입력을 처리한다. Многослойный перцептрон — частный случай перцептрона Розенблатта, в котором один алгоритм обратного распространения ошибки обучает все слои. Название по историческим причинам не отражает особенности данного вида перцептрона, то есть не связано с тем, что в нём имеется несколько слоёв (так как несколько слоёв было и у перцептрона Розенблатта). Особенностью является наличие более чем одного обучаемого слоя (как правило — два или три). Необходимость в большом количестве обучаемых слоёв отпадает, так как теоретически единственного скрытого слоя достаточно, чтобы перекодировать входное представление таким образом, чтобы получить линейную разделимость для выходного представления. Существует предположение, что, используя большее число слоёв, можно уменьшить число элементов в них, то есть суммарное число элементов в слоях будет меньше, чем если использовать один скрытый слой. Это предположение успешно используется в технологиях глубокого обучения и имеет обоснование. Le perceptron multicouche (multilayer perceptron MLP) est un type de réseau neuronal artificiel organisé en plusieurs couches. L'information circule de la couche d'entrée vers la couche de sortie uniquement : il s'agit donc d'un réseau à propagation directe (feedforward). Chaque couche est constituée d'un nombre variable de neurones, les neurones de la dernière couche (dite « de sortie ») étant les sorties du système global. Le perceptron a été inventé en 1957 par Frank Rosenblatt au Cornell Aeronautical Laboratory. Dans cette première version le perceptron était alors mono-couche et n'avait qu'une seule sortie à laquelle toutes les entrées étaient connectées. Il Percettrone multistrato (in acronimo MLP dall'inglese Multilayer perceptron) è un modello di rete neurale artificiale che mappa insiemi di dati in ingresso in un insieme di dati in uscita appropriati. È fatta di strati multipli di nodi in un grafo diretto, con ogni strato completamente connesso al successivo. Eccetto che per i nodi in ingresso, ogni nodo è un neurone (elemento elaborante) con una funzione di attivazione lineare. Il Percettrone multistrato usa una tecnica di apprendimento supervisionato chiamata backpropagation per l'allenamento della rete. La MLP è una modifica del Percettrone lineare standard e può distinguere i dati che non sono separabili linearmente. Un perceptró multicapa (amb acrònim MLP) és un tipus de xarxa neuronal artificial de classe directa. Una MLP consisteix , almenys, de tres capes de nodes : una capa d'entrada, una capa oculta i una capa de sortida. Excepte pel mode d'entrada, cada node empra una funció d'activació no lineal, la qual cosa permet de classificar conjunts de dades que no estan separats linealment. Es distingeixen del perceptró que només tenen una capa oculta i funció lineal. MLP utilitza una tècnica d'aprenentatge supervisat anomenada backpropagation (retropropagació). A perceptron multicamadas (MLP) é uma rede neural semelhante à perceptron, mas com mais de uma camada de neurônios em alimentação direta. Tal tipo de rede é composta por camadas de neurônios ligadas entre si por sinapses com pesos. O aprendizado nesse tipo de rede é geralmente feito através do algoritmo de retro-propagação do erro, mas existem outros algoritmos para este fim, como a Rprop. 多層パーセプトロン(たそうパーセプトロン、英: Multilayer perceptron、略称: MLP)は、ニューラルネットワークの一分類である。MLPは少なくとも3つのノードの層からなる。入力ノードを除けば、個々のノードは非線形活性化関数を使用するニューロンである。MLPは学習のために誤差逆伝播法(バックプロパゲーション)と呼ばれる教師あり学習手法を利用する。その多層構造と非線形活性化関数が、MLPと線形パーセプトロンを区別している。MLPは線形分離可能ではないデータを識別できる。 多層パーセプトロンは時折、特に単一の隠れ層を持つ時、「バニラ」ニューラルネットワークと口語的に呼ばれることがある。 多层感知器(Multilayer Perceptron,缩写MLP)是一种前向结构的人工神经网络,映射一组输入向量到一组输出向量。MLP可以被看作是一个有向图,由多个的节点层所组成,每一层都全连接到下一层。除了输入节点,每个节点都是一个带有非线性激活函数的神经元(或称处理单元)。一种被称为反向传播算法的监督学习方法常被用来训练MLP。 多层感知器遵循人類神經系統原理,學習並進行數據預測。它首先學習,然後使用權重存儲數據,並使用算法來調整權重並減少訓練過程中的偏差,即實際值和預測值之間的誤差。主要優勢在於其快速解決複雜問題的能力。多層感知的基本結構由三層組成:第一輸入層,中間隱藏層和最後輸出層,輸入元素和權重的乘積被饋給具有神經元偏差的求和結點,主要優勢在於其快速解決複雜問題的能力。 MLP是感知器的推广,克服了感知器不能对数据进行识别的弱点。 Perceptron wielowarstwowy (ang. Multilayer Perceptron, MLP) – najpopularniejszy typ sztucznych sieci neuronowych. Sieć tego typu składa się zwykle z jednej warstwy wejściowej, kilku warstw ukrytych oraz jednej warstwy wyjściowej. Warstwy ukryte składają się najczęściej z neuronów McCullocha-Pittsa. Ustalenie właściwej liczby warstw ukrytych oraz liczby neuronów znajdujących się w poszczególnych warstwach jest trudnym zagadnieniem, które musi rozwiązać twórca sieci neuronowej. Warstwa wyjściowa może składać się z neuronów liniowych (w przypadku regresji) lub neuronów nieliniowych (w przypadku klasyfikacji). Trenowanie sieci typu MLP możliwe jest dzięki zastosowaniu metody wstecznej propagacji błędów. Perceptron wielowarstwowy w przeciwieństwie do perceptronu jednowarstwowego może być wykorzystywany do klasyfikowania zbiorów, które nie są liniowo separowalne .Sieć MLP w swojej podstawowej wersji jest siecią, w której nie ma sprzężenia zwrotnego, w przeciwieństwie do sieci zwanych sieciami rekurencyjnymi. Na bazie sieci MLP zbudowane są , służące do rozpoznawania obrazów . Багатошаровий перцептрон Румельхарта — окремий випадок перцептрона Розенблатта, в якому один алгоритм зворотного поширення помилки навчає всі шари. На жаль, назва з історичних причин не відображає особливості даного виду перцептрона, тобто не пов'язана з тим, що в ньому кілька шарів (тому що кілька шарів було і у перцептрона Розенблатта). Особливістю є наявність більш ніж одного учня шару (як правило — два чи три, для застосування більшої кількості наразі немає обґрунтування — втрачається швидкість без придбання якості). Необхідність у великій кількості шарів-учнів відпадає, оскільки теоретично єдиного прихованого шару достатньо, щоб перекодувати вхідний сигнал таким чином, щоб отримати лінійну карту для вихідного сигналу. Але є припущення, що, використовуючи більше число шарів, можна зменшити число елементів у них, тобто сумарне число елементів у шарах буде менше, ніж при використанні одного прихованого шару. El perceptrón multicapa es una red neuronal artificial (RNA) formada por múltiples capas, de tal manera que tiene capacidad para resolver problemas que no son linealmente separables, lo cual es la principal limitación del perceptrón (también llamado perceptrón simple). El perceptrón multicapa puede estar totalmente o localmente conectado. En el primer caso cada salida de una neurona de la capa "i" es entrada de todas las neuronas de la capa "i+1", mientras que en el segundo cada neurona de la capa "i" es entrada de una serie de neuronas (región) de la capa "i+1". A multilayer perceptron (MLP) is a fully connected class of feedforward artificial neural network (ANN). The term MLP is used ambiguously, sometimes loosely to mean any feedforward ANN, sometimes strictly to refer to networks composed of multiple layers of perceptrons (with threshold activation); see . Multilayer perceptrons are sometimes colloquially referred to as "vanilla" neural networks, especially when they have a single hidden layer. An MLP consists of at least three layers of nodes: an input layer, a hidden layer and an output layer. Except for the input nodes, each node is a neuron that uses a nonlinear activation function. MLP utilizes a supervised learning technique called backpropagation for training. Its multiple layers and non-linear activation distinguish MLP from a linear perceptron. It can distinguish data that is not linearly separable.
gold:hypernym
dbr:Model
prov:wasDerivedFrom
wikipedia-en:Multilayer_perceptron?oldid=1109264903&ns=0
dbo:wikiPageLength
9193
foaf:isPrimaryTopicOf
wikipedia-en:Multilayer_perceptron
Subject Item
dbr:Wasserstein_GAN
dbo:wikiPageWikiLink
dbr:Multilayer_perceptron
Subject Item
dbr:Time_delay_neural_network
dbo:wikiPageWikiLink
dbr:Multilayer_perceptron
Subject Item
dbr:Supervised_learning
dbo:wikiPageWikiLink
dbr:Multilayer_perceptron
Subject Item
dbr:Vision_transformer
dbo:wikiPageWikiLink
dbr:Multilayer_perceptron
Subject Item
dbr:Visual_Turing_Test
dbo:wikiPageWikiLink
dbr:Multilayer_perceptron
Subject Item
dbr:Types_of_artificial_neural_networks
dbo:wikiPageWikiLink
dbr:Multilayer_perceptron
Subject Item
dbr:Vanilla_neural_network
dbo:wikiPageWikiLink
dbr:Multilayer_perceptron
dbo:wikiPageRedirects
dbr:Multilayer_perceptron
Subject Item
dbr:Multi-layer_perceptron
dbo:wikiPageWikiLink
dbr:Multilayer_perceptron
dbo:wikiPageRedirects
dbr:Multilayer_perceptron
Subject Item
dbr:Multi-layer_perceptrons
dbo:wikiPageWikiLink
dbr:Multilayer_perceptron
dbo:wikiPageRedirects
dbr:Multilayer_perceptron
Subject Item
dbr:Multi_layer_perceptron
dbo:wikiPageWikiLink
dbr:Multilayer_perceptron
dbo:wikiPageRedirects
dbr:Multilayer_perceptron
Subject Item
dbr:Multilayer_perceptrons
dbo:wikiPageWikiLink
dbr:Multilayer_perceptron
dbo:wikiPageRedirects
dbr:Multilayer_perceptron
Subject Item
wikipedia-en:Multilayer_perceptron
foaf:primaryTopic
dbr:Multilayer_perceptron