Dimensionality reduction in statistical learning

Результат исследований: Глава в книге, отчете, сборнике статейМатериалы для конференциирецензирование

5 Цитирования (Scopus)

Аннотация

Many statistical learning tasks deal with data which are presented in high-dimensional spaces, and the 'curse of dimensionality' phenomenon is often an obstacle to the use of many methods for solving these tasks. To avoid this phenomenon, various dimensionality reduction algorithms are used as the first key step in solving these tasks. The algorithms transform original high-dimensional data into lower dimensional representations in such a way that the initial task can be reduced to a lower dimensional one. The dimensionality reduction problems have varying formulations depending on their initial statistical learning tasks. A new geometrically motivated algorithm that solves various dimensionality reduction problems is presented.

Язык оригиналаАнглийский
Название основной публикацииProceedings - 2014 13th International Conference on Machine Learning and Applications, ICMLA 2014
РедакторыCesar Ferri, Guangzhi Qu, Xue-wen Chen, M. Arif Wani, Plamen Angelov, Jian-Huang Lai
ИздательInstitute of Electrical and Electronics Engineers Inc.
Страницы330-335
Число страниц6
ISBN (электронное издание)9781479974153
DOI
СостояниеОпубликовано - 5 февр. 2014
Опубликовано для внешнего пользованияДа
Событие2014 13th International Conference on Machine Learning and Applications, ICMLA 2014 - Detroit, Соединенные Штаты Америки
Продолжительность: 3 дек. 20146 дек. 2014

Серия публикаций

НазваниеProceedings - 2014 13th International Conference on Machine Learning and Applications, ICMLA 2014

Конференция

Конференция2014 13th International Conference on Machine Learning and Applications, ICMLA 2014
Страна/TерриторияСоединенные Штаты Америки
ГородDetroit
Период3/12/146/12/14

Fingerprint

Подробные сведения о темах исследования «Dimensionality reduction in statistical learning». Вместе они формируют уникальный семантический отпечаток (fingerprint).

Цитировать