An Entity of Type: Abstraction100002137, from Named Graph: http://dbpedia.org, within Data Space: dbpedia.org

In the context of artificial neural networks, the rectifier or ReLU (rectified linear unit) activation function is an activation function defined as the positive part of its argument: where x is the input to a neuron. This is also known as a ramp function and is analogous to half-wave rectification in electrical engineering. Rectified linear units find applications in computer vision and speech recognition using deep neural nets and computational neuroscience.

Property Value
dbo:abstract
  • En el context de les xarxes neuronals artificials, la funció d'activació rectificador o ReLU (Unitat lineal rectificada) és una funció d'activació definida com la part positiva del seu argument: on x és l'entrada a una neurona. Això és coneix com a la funció rampa i és anàleg a la rectificació de mitja ona en enginyeria elèctrica. Aquesta funció d'activació va començar aparèixer en el context d'extracció de les característiques visuals a les xarxes neuronals jeràrquiques a finals de la dècada de 1960. Més tard es va argumentar que té fortes motivacions biològiques i justificacions matemàtiques. El 2011 es va trobar que permet una millor formació de les xarxes més profundes, en comparació amb les funcions d'activació àmpliament utilitzades abans de 2011, com per exemple, la logística sigmoide (que s'inspira en la teoria de probabilitat; vegeu regressió logística) i la seva homòloga més pràctica, la tangent hiperbòlica. El rectificador és, a partir de 2017, la funció d'activació més popular per a xarxes neuronals profundes. Les unitats lineals rectificades tenen aplicacions en visió per ordinador i reconeixement de veu amb d'utilització de xarxes neuronals profundes i neurociència computacional. (ca)
  • Im Kontext künstlicher neuronaler Netze ist ein Rectifier (auf deutsch: Gleichrichter) eine Aktivierungsfunktion eines künstlichen Neurons, die als Positivteil seines Arguments definiert ist: mit als Eingangswert des künstlichen Neurons. Diese Aktivierungsfunktion wurde im Jahr 2000 von Hahnloser et al. mit starken biologischen Motivationen und mathematischen Begründungen erstmals bei dynamischen neuronalen Netzwerken eingeführt. Rektifizierende Aktivierungsfunktionen wurden in der von Behnke vorgeschlagenen Neuronalen Abstraktionspyramide genutzt, um spezifische Erregung und unspezifische Hemmung zu trennen. Diese hierarchische rekurrente konvolutionale Architektur wurde überwacht darauf trainiert, unterschiedliche Computer-Vision-Aufgaben iterativ zu lösen. Es wurde erstmals im Jahr 2011 nachgewiesen, dass ein Training tiefer Netzwerke mit rektifizierenden Aktivierungsfunktionen erfolgreicher ist als mit den vor dem Jahr 2011 weit verbreiteten Aktivierungsfunktionen wie z. B. der Sigmoidfunktion. Rectifier sind aktuell (Stand 2019) die beliebtesten Aktivierungsfunktionen für tiefe neuronale Netze. Eine Einheit, die den Rectifier verwendet, wird auch als rectified linear unit (ReLU) bezeichnet. Solche ReLUs finden Anwendung im Deep Learning, etwa im maschinellen Sehen und der Spracherkennung. (de)
  • En el contexto de las redes neuronales artificiales, el rectificador es una función de activación definida como: Donde 'x' es la entrada de la neurona. También es conocida como función rampa y es análoga a la rectificación de media onda en electrónica. La función de activación activa los pesos de una neurona según el resultado de dicha neurona en el mundo de la inteligencia artificial. El primer uso documentado de esta función de activación en una red dinámica fue descrito por Hahnloser et al. en un artículo del año 2000​ en donde se presenta su bioinspiración y el fundamento matemático.​ Se utiliza en redes neuronales convolucionales​ para obtener resultados de menor error que los generados con función logística (la cual es inspirada por la teoría de la probabilidad) y existe evidencia que es más práctica​ que su contraparte, la función hiperbólica. El rectificador es una función de activación común en redes neuronales profundas.​ Las unidades que emplean el rectificador son conocidas como unidad lineal rectificada (ReLU, por sus siglas en inglés). Una aproximación "suave" del rectificador es la función analítica: conocida como función softplus.​ La derivada de dicha función es , p.e. la función logística. La ReLU se emplean en visión artificial​ y reconocimiento de voz​​ usando redes neuronales profundas. (es)
  • En mathématiques, la fonction Unité Linéaire Rectifiée (ou ReLU pour Rectified Linear Unit) est définie par : pour tout réel Elle est fréquemment utilisée comme fonction d'activation dans le contexte du réseau de neurones artificiels pour sa simplicité de calcul, en particulier de sa dérivée. (fr)
  • In the context of artificial neural networks, the rectifier or ReLU (rectified linear unit) activation function is an activation function defined as the positive part of its argument: where x is the input to a neuron. This is also known as a ramp function and is analogous to half-wave rectification in electrical engineering. This activation function started showing up in the context of visual feature extraction in hierarchical neural networks starting in the late 1960s. It was later argued that it has strong biological motivations and mathematical justifications. In 2011 it was found to enable better training of deeper networks, compared to the widely used activation functions prior to 2011, e.g., the logistic sigmoid (which is inspired by probability theory; see logistic regression) and its more practical counterpart, the hyperbolic tangent. The rectifier is, as of 2017, the most popular activation function for deep neural networks. Rectified linear units find applications in computer vision and speech recognition using deep neural nets and computational neuroscience. (en)
  • ReLU 함수는 정류 선형 유닛(영어: Rectified Linear Unit 렉티파이드 리니어 유닛[*])에 대한 함수이다. ReLU는 입력값이 0보다 작으면 0으로 출력, 0보다 크면 입력값 그대로 출력하는 유닛인데, 그 함수는 다음과 같다. (ko)
  • 正規化線形関数(せいきかせんけいかんすう、英: Rectified linear functionあるいは単にrectifierとも)は、引数の正の部分として定義される活性化関数であり、次のように表される。 上式において、 はニューロンへの入力である。これはランプ関数(傾斜路関数)としても知られ、電気工学における半波整流回路と類似している。この活性化関数は、2000年にHahnloseらによって強い生物学的動機と数学的正当化を持って、動的ネットワークへ最初に導入された。2011年以前に広く使われていた活性化関数、例えばロジスティックシグモイド(これは確率論から発想を得ている。ロジスティック回帰を参照。)およびそのより実践的な機能的に同等な関数である双曲線正接関数と比較して、より深いネットワークのより良い訓練を可能にすることが2011年に初めて実証された。正規化線形関数は、2018年現在、ディープニューラルネットワークのための最も人気のある活性化関数である。 正規化線形関数を利用したユニットは正規化線形ユニット(rectified linear unit、ReLU)とも呼ばれる。 正規化線形ユニットはディープニューラルネットワークを用いたコンピュータビジョンや音声認識に応用されている。 (ja)
  • Nel contesto delle reti neurali artificiali, il rettificatore è una definita come la parte positiva del suo argomento: dove è l'input a un neurone. È anche annoverata tra le funzioni rampa ed è l'analogo di un raddrizzatore in elettronica. Questa funzione di attivazione fu introdotta per la prima volta in una rete dinamica da Hahnloser et al. in 2000 adducendo motivazioni fortemente biologiche. Nel 2011 è stato dimostrato per la prima volta che la funzione rettificatore permette di ottenere un allenamento migliore per le reti neurali profonde (Deep Neural Network). Questo risultato è ottenuto comparando il rettificatore con le funzioni di attivazione più diffusamente usate fino al 2011: sigmoide logistica e la tangente iperbolica. Nel 2018, la funzione rettificatore è stata riconosciuta come la funzione di attivazione più largamente utilizzata nelle Deep Neural Network. Un'unità che impieghi il rettificatore è anche chiamata unità lineare rettificata (ReLU, dall'inglese rectified linear unit). (it)
  • Зрі́заний ліні́йний ву́зол, іноді ви́прямлений ліні́йний ву́зол (англ. rectified linear unit, ReLU), або випрямля́ч (англ. rectifier) у контексті штучних нейронних мереж є передавальною функцією, яка визначена таким чином: , де x вхідне значення нейрона. Вона є аналогом напівперіодичного випрямляча у схемотехніці.Ця передавальна функція була запроваджена для динамічних мереж Ганлозером (англ. Hahnloser) та іншими у 2000 році з біологічним підґрунтям та математичним обґрунтуванням. В 2011 році вперше було продемонстровано, як забезпечити краще навчання глибинних мереж, на відміну від передавальних функцій, які широко використовувались до цього, а саме, логістичною функцією (яка була запозичена з теорії ймовірностей; дивись логістична регресія) і виявились більш практичними ніж гіперболічний тангенс. ReLU є, станом на 2018, найбільш популярною передавальною функцією для глибинних нейронних мереж. Гладке наближення ReLU є гладкою функцією яка називається softplus-функцією. Похідною softplus є , тобто логістична функція. ReLU часто використовується при глибинному навчанні в задачах комп'ютерного зору та розпізнавання мовлення. (uk)
  • 整流線性單位函数(Rectified Linear Unit, ReLU),又称修正线性单元,是一种人工神经网络中常用的激勵函数(activation function),通常指代以斜坡函数及其变种为代表的非线性函数。 比较常用的线性整流函数有斜坡函数 ,以及带泄露整流函数(Leaky ReLU),其中 为神经元(Neuron)的输入。线性整流被认为有一定的生物学原理,并且由于在实践中通常有着比其他常用激勵函数(譬如逻辑函数)更好的效果,而被如今的深度神经网络广泛使用于诸如图像识别等计算机视觉人工智能领域。 (zh)
dbo:thumbnail
dbo:wikiPageID
  • 37862937 (xsd:integer)
dbo:wikiPageLength
  • 14796 (xsd:nonNegativeInteger)
dbo:wikiPageRevisionID
  • 1124601657 (xsd:integer)
dbo:wikiPageWikiLink
dbp:wikiPageUsesTemplate
dcterms:subject
rdf:type
rdfs:comment
  • En mathématiques, la fonction Unité Linéaire Rectifiée (ou ReLU pour Rectified Linear Unit) est définie par : pour tout réel Elle est fréquemment utilisée comme fonction d'activation dans le contexte du réseau de neurones artificiels pour sa simplicité de calcul, en particulier de sa dérivée. (fr)
  • ReLU 함수는 정류 선형 유닛(영어: Rectified Linear Unit 렉티파이드 리니어 유닛[*])에 대한 함수이다. ReLU는 입력값이 0보다 작으면 0으로 출력, 0보다 크면 입력값 그대로 출력하는 유닛인데, 그 함수는 다음과 같다. (ko)
  • 正規化線形関数(せいきかせんけいかんすう、英: Rectified linear functionあるいは単にrectifierとも)は、引数の正の部分として定義される活性化関数であり、次のように表される。 上式において、 はニューロンへの入力である。これはランプ関数(傾斜路関数)としても知られ、電気工学における半波整流回路と類似している。この活性化関数は、2000年にHahnloseらによって強い生物学的動機と数学的正当化を持って、動的ネットワークへ最初に導入された。2011年以前に広く使われていた活性化関数、例えばロジスティックシグモイド(これは確率論から発想を得ている。ロジスティック回帰を参照。)およびそのより実践的な機能的に同等な関数である双曲線正接関数と比較して、より深いネットワークのより良い訓練を可能にすることが2011年に初めて実証された。正規化線形関数は、2018年現在、ディープニューラルネットワークのための最も人気のある活性化関数である。 正規化線形関数を利用したユニットは正規化線形ユニット(rectified linear unit、ReLU)とも呼ばれる。 正規化線形ユニットはディープニューラルネットワークを用いたコンピュータビジョンや音声認識に応用されている。 (ja)
  • 整流線性單位函数(Rectified Linear Unit, ReLU),又称修正线性单元,是一种人工神经网络中常用的激勵函数(activation function),通常指代以斜坡函数及其变种为代表的非线性函数。 比较常用的线性整流函数有斜坡函数 ,以及带泄露整流函数(Leaky ReLU),其中 为神经元(Neuron)的输入。线性整流被认为有一定的生物学原理,并且由于在实践中通常有着比其他常用激勵函数(譬如逻辑函数)更好的效果,而被如今的深度神经网络广泛使用于诸如图像识别等计算机视觉人工智能领域。 (zh)
  • Im Kontext künstlicher neuronaler Netze ist ein Rectifier (auf deutsch: Gleichrichter) eine Aktivierungsfunktion eines künstlichen Neurons, die als Positivteil seines Arguments definiert ist: mit als Eingangswert des künstlichen Neurons. (de)
  • En el contexto de las redes neuronales artificiales, el rectificador es una función de activación definida como: Donde 'x' es la entrada de la neurona. También es conocida como función rampa y es análoga a la rectificación de media onda en electrónica. La función de activación activa los pesos de una neurona según el resultado de dicha neurona en el mundo de la inteligencia artificial. Las unidades que emplean el rectificador son conocidas como unidad lineal rectificada (ReLU, por sus siglas en inglés). Una aproximación "suave" del rectificador es la función analítica: (es)
  • In the context of artificial neural networks, the rectifier or ReLU (rectified linear unit) activation function is an activation function defined as the positive part of its argument: where x is the input to a neuron. This is also known as a ramp function and is analogous to half-wave rectification in electrical engineering. Rectified linear units find applications in computer vision and speech recognition using deep neural nets and computational neuroscience. (en)
  • Nel contesto delle reti neurali artificiali, il rettificatore è una definita come la parte positiva del suo argomento: dove è l'input a un neurone. È anche annoverata tra le funzioni rampa ed è l'analogo di un raddrizzatore in elettronica. Questa funzione di attivazione fu introdotta per la prima volta in una rete dinamica da Hahnloser et al. in 2000 adducendo motivazioni fortemente biologiche. Nel 2011 è stato dimostrato per la prima volta che la funzione rettificatore permette di ottenere un allenamento migliore per le reti neurali profonde (Deep Neural Network). Questo risultato è ottenuto comparando il rettificatore con le funzioni di attivazione più diffusamente usate fino al 2011: sigmoide logistica e la tangente iperbolica. Nel 2018, la funzione rettificatore è stata riconosciuta (it)
  • Зрі́заний ліні́йний ву́зол, іноді ви́прямлений ліні́йний ву́зол (англ. rectified linear unit, ReLU), або випрямля́ч (англ. rectifier) у контексті штучних нейронних мереж є передавальною функцією, яка визначена таким чином: , Гладке наближення ReLU є гладкою функцією яка називається softplus-функцією. Похідною softplus є , тобто логістична функція. ReLU часто використовується при глибинному навчанні в задачах комп'ютерного зору та розпізнавання мовлення. (uk)
rdfs:label
  • Rectificador (xarxes neurals) (ca)
  • Rectifier (neuronale Netzwerke) (de)
  • Rectificador (redes neuronales) (es)
  • Rettificatore (reti neurali) (it)
  • Redresseur (réseaux neuronaux) (fr)
  • 正規化線形関数 (ja)
  • ReLU (ko)
  • Rectifier (neural networks) (en)
  • ReLU (uk)
  • 线性整流函数 (zh)
owl:sameAs
prov:wasDerivedFrom
foaf:depiction
foaf:isPrimaryTopicOf
is dbo:wikiPageDisambiguates of
is dbo:wikiPageRedirects of
is dbo:wikiPageWikiLink of
is rdfs:seeAlso of
is foaf:primaryTopic of
Powered by OpenLink Virtuoso    This material is Open Knowledge     W3C Semantic Web Technology     This material is Open Knowledge    Valid XHTML + RDFa
This content was extracted from Wikipedia and is licensed under the Creative Commons Attribution-ShareAlike 3.0 Unported License