About: Feature selection     Goto   Sponge   NotDistinct   Permalink

An Entity of Type : dbo:Election, within Data Space : dbpedia.org associated with source document(s)
QRcode icon
http://dbpedia.org/describe/?url=http%3A%2F%2Fdbpedia.org%2Fresource%2FFeature_selection

In machine learning and statistics, feature selection, also known as variable selection, attribute selection or variable subset selection, is the process of selecting a subset of relevant features (variables, predictors) for use in model construction. Feature selection techniques are used for several reasons: * simplification of models to make them easier to interpret by researchers/users, * shorter training times, * to avoid the curse of dimensionality, * improve data's compatibility with a learning model class, * encode inherent symmetries present in the input space.

AttributesValues
rdf:type
rdfs:label
  • اختيار المميزات (ar)
  • Výběr rysů (cs)
  • Feature Subset Selection (de)
  • Selección de variable (es)
  • Sélection de caractéristique (fr)
  • Feature selection (en)
  • Selezione delle caratteristiche (it)
  • 特徴選択 (ja)
  • Отбор признаков (ru)
  • 特征选择 (zh)
  • Обирання ознак (uk)
rdfs:comment
  • اختيار المميزات أو اختيار الأبعاد هي التقنية التي تستخدم بكثرة في التعلم الآلي لاختيار مجموعة جزئية من المميزات لمجموعة بيانات من أجل بناء نموذج تعليم مستقر. تساعد علمية اختيار الميزات على إعطاء فهم أوضح للناس حول البيانات عن طريق إخبارهم بالميزات الهامة للبيانات وعلاقتها مع بعضها البعض. (ar)
  • Výběr rysů, též selekce rysů, výběr proměnných nebo výběr atributů, je ve strojovém učení a statistice proces výběru podmnožiny relevantních rysů (též slangově fíčur), které se použijí pro konstrukci modelu. Klíčový předpoklad pro užití této metody je, že data obsahují mnoho redundantních nebo nerelevantních atributů. Redundantní jsou takové, které nenesou víc informace než aktuálně vybrané atributy. Nerelevantní atributy neobsahují žádnou užitečnou informaci. Techniky výběru rysů jsou částí obecnějších technik , která tvoří nové atributy jako funkce stávajících atributů, kdežto výběr rysů vybírá podmnožinu ze stávajících atributů. Výběr rysů se používá v těch případech a doménách, kde je mnoho atributů a k nim relativně málo příkladů (neboli datových bodů). (cs)
  • Die Feature Subset Selection (FSS), kurz Feature Selection oder Merkmalsauswahl, ist ein Ansatz aus dem maschinellen Lernen, bei dem nur eine Teilmenge der verfügbaren Features für maschinelles Lernen verwendet wird. FSS ist notwendig, weil es teilweise technisch unmöglich ist, alle Features miteinzubeziehen oder weil es Differenzierungsprobleme gibt, wenn eine große Anzahl an Features, aber nur eine kleine Zahl an Datensätzen vorhanden ist oder um Überanpassung des Modells zu vermeiden, siehe Verzerrung-Varianz-Dilemma. (de)
  • La sélection de caractéristique (ou sélection d'attribut ou de variable) est un processus utilisé en apprentissage automatique et en traitement de données. Il consiste, étant donné des données dans un espace de grande dimension, à trouver un sous-sensemble de variables pertinentes. C'est-à-dire que l'on cherche à minimiser la perte d'information venant de la suppression de toutes les autres variables. C'est une méthode de réduction de la dimensionnalité. (fr)
  • 特徴選択(とくちょうせんたく、英: feature selection)とは、機械学習と統計学の用語であり、頑健な学習モデルの構築のため、特徴集合のうち意味のある部分集合だけを選択する手法のことを指す。特徴量選択、変数選択、特徴削減、属性選択、素性選択、変数部分集合選択などとも呼ばれる。生物学の文脈では、DNAマイクロアレイの実験に基づいて影響力のある遺伝子を検出する手法を指す場合もある。不要で冗長な特徴量をデータから除去することによって、特徴選択は学習モデルを次の点で改善する: * 次元の呪いの効果を緩和する。 * 汎化性能を向上させる。 * 学習を高速化する。 * モデルの可読性を改善する。 特徴選択を行うと、データのうちどの特徴量が重要でありどのようにそれらが関係しているかなどといった点について、人間が理解しやすくなるという効果もある。 (ja)
  • 在机器学习和统计学中,特征选择(英語:feature selection)也被称为变量选择、属性选择 或变量子集选择 。它是指:为了构建模型而选择相关特征(即属性、指标)子集的过程。使用特征选择技术有三个原因: * 简化模型,使之更易于被研究人员或用户理解, * 缩短训练时间, * 改善通用性、降低过拟合(即降低方差 ) 要使用特征选择技术的关键假设是:训练数据包含许多冗余 或无关 的特征,因而移除这些特征并不会导致丢失信息。 冗余 或无关 特征是两个不同的概念。如果一个特征本身有用,但如果这个特征与另一个有用特征强相关,且那个特征也出现在数据中,那么这个特征可能是冗余的。 特征选择技术与特征提取有所不同。特征提取是从原有特征的功能中创造新的特征,而特征选择则只返回原有特征中的子集。特征选择技术的常常用于许多特征但样本(即数据点)相对较少的领域。特征选择应用的典型用例包括:解析书面文本和微阵列数据,这些场景下特征成千上万,但样本只有几十到几百个。 (zh)
  • En aprendizaje de máquina y estadística, selección de característica, también conocida como selección de variable, selección de atributo o selección de subconjunto variable, es el proceso de seleccionar un subconjunto de características pertinentes (variables, predictores) para su uso en construcción de modelos. Las técnicas de selección de la característica son utilizadas por cuatro razones: (es)
  • In machine learning and statistics, feature selection, also known as variable selection, attribute selection or variable subset selection, is the process of selecting a subset of relevant features (variables, predictors) for use in model construction. Feature selection techniques are used for several reasons: * simplification of models to make them easier to interpret by researchers/users, * shorter training times, * to avoid the curse of dimensionality, * improve data's compatibility with a learning model class, * encode inherent symmetries present in the input space. (en)
  • Nel riconoscimento di pattern e nell'elaborazione delle immagini la selezione delle caratteristiche (in inglese: feature selection) è una forma speciale di riduzione della dimensionalità di un determinato dataset. La selezione delle caratteristiche è il processo di riduzione degli ingressi per l'elaborazione e l'analisi o l'individuazione delle caratteristiche maggiormente significative rispetto alle altre. Similmente esiste l'estrazione di caratteristiche (in inglese: feature extraction), dove si applica il processo di estrazione di informazioni utili dai dati esistenti. (it)
  • В машинному навчанні та статистиці обира́ння озна́к, відоме також як обира́ння змі́нних, обира́ння атрибу́тів та обира́ння підмножини́ змі́нних (англ. feature selection, variable selection, attribute selection, variable subset selection) — це процес обирання підмножини доречних ознак (змінних, провісників) для використання в побудові моделі. Методики обирання ознак застосовують із декількома цілями: (uk)
  • Отбор признаков, также известный как отбор переменных, отбор атрибутов или отбор предикторов (в редких случаях, генерализация) — это разновидность абстрагирования, процесс отбора подмножества значимых признаков (как зависимых, так и независимых переменных) для построения модели. Отбор признаков используется по четырём причинам: * упрощение модели для повышения интерпретируемости * для сокращения времени обучения * во избежание проклятия размерности * улучшение обобщающей способности модели и борьба с переобучением. (ru)
foaf:depiction
  • http://commons.wikimedia.org/wiki/Special:FilePath/Feature_selection_Embedded_Method.png
  • http://commons.wikimedia.org/wiki/Special:FilePath/Feature_selection_Wrapper_Method.png
  • http://commons.wikimedia.org/wiki/Special:FilePath/Filter_Methode.png
dcterms:subject
Wikipage page ID
Wikipage revision ID
Link from a Wikipage to another Wikipage
Faceted Search & Find service v1.17_git139 as of Feb 29 2024


Alternative Linked Data Documents: ODE     Content Formats:   [cxml] [csv]     RDF   [text] [turtle] [ld+json] [rdf+json] [rdf+xml]     ODATA   [atom+xml] [odata+json]     Microdata   [microdata+json] [html]    About   
This material is Open Knowledge   W3C Semantic Web Technology [RDF Data] Valid XHTML + RDFa
OpenLink Virtuoso version 08.03.3330 as of Mar 19 2024, on Linux (x86_64-generic-linux-glibc212), Single-Server Edition (61 GB total memory, 49 GB memory in use)
Data on this page belongs to its respective rights holders.
Virtuoso Faceted Browser Copyright © 2009-2024 OpenLink Software