'''Características aleatorias de Fourier''' (RFF) son una técnica utilizada en el aprendizaje automático para aproximar los métodos del núcleo (Método del núcleo), introducida por Ali Rahimi y Ben Recht en su artículo de 2007 "Características aleatorias para máquinas de núcleo a gran escala". ".
RFF es una aproximación de Monte Carlo (Método de Monte Carlo) al mapa de características asociado con núcleos invariantes de cambio. El método implica mapear los datos de entrada a un espacio de dimensiones superiores utilizando funciones sinusoidales muestreadas aleatoriamente. Se utiliza para conjuntos de datos que son demasiado grandes para los métodos tradicionales del kernel, como la máquina de vectores de soporte, la regresión de crestas del kernel y el proceso gaussiano.
== Matemáticas ==
Debido a que las máquinas de vectores de soporte y otros modelos que emplean el truco del kernel no escalan bien a grandes cantidades de muestras de entrenamiento o grandes cantidades de características en el espacio de entrada, se han introducido varias aproximaciones al kernel RBF (y kernels similares).Andreas Muller (2012). [http://peekaboo-vision.blogspot.de/2012 ... cient.html Aproximaciones del kernel para SVM eficientes (y otros métodos de extracción de características)]. Normalmente, toman la forma de una función ''z'' que asigna un único vector a un vector de mayor dimensionalidad, aproximando el núcleo:
donde \textstyle\varphi es el mapeo implícito incrustado en el kernel RBF.
Una forma de construir dicha ''z'' es tomar una muestra aleatoria de la transformación de Fourier del núcleo
'''Teorema: (estimación imparcial)''' \operatorname E[\langle \varphi(x), \varphi(y)\rangle] = e^{\|x-y\|^2/(2\ sigma^2)}.
'''Prueba:''' Basta probar el caso de D=1. Utilice la identidad trigonométrica \cos(a-b) = \cos(a)\cos(b) + \sin(a)\sin(b), la simetría esférica de la distribución gaussiana, luego evalúe la integral
'''Teorema: (convergencia)''' A medida que aumenta el número de características aleatorias R, la aproximación converge al núcleo verdadero con alta probabilidad.
'''Teorema: (límite de varianza)''' \operatorname{Var}[\langle \varphi(x), \varphi(y)\rangle] = O(D^{-1}). (Apéndice A.2
== Variaciones ==
Características aleatorias ortogonales
== Ver también ==
* Método del núcleo
* Máquina de vectores de soporte
* Transformada de Fourier
* Método Montecarlo
Aprendizaje automático
Métodos Montecarlo
Métodos del kernel para el aprendizaje automático
[h4] '''Características aleatorias de Fourier''' (RFF) son una técnica utilizada en el aprendizaje automático para aproximar los métodos del núcleo (Método del núcleo), introducida por Ali Rahimi y Ben Recht en su artículo de 2007 "Características aleatorias para máquinas de núcleo a gran escala". ". RFF es una aproximación de Monte Carlo (Método de Monte Carlo) al mapa de características asociado con núcleos invariantes de cambio. El método implica mapear los datos de entrada a un espacio de dimensiones superiores utilizando funciones sinusoidales muestreadas aleatoriamente. Se utiliza para conjuntos de datos que son demasiado grandes para los métodos tradicionales del kernel, como la máquina de vectores de soporte, la regresión de crestas del kernel y el proceso gaussiano.
== Matemáticas == Debido a que las máquinas de vectores de soporte y otros modelos que emplean el truco del kernel no escalan bien a grandes cantidades de muestras de entrenamiento o grandes cantidades de características en el espacio de entrada, se han introducido varias aproximaciones al kernel RBF (y kernels similares).Andreas Muller (2012). [http://peekaboo-vision.blogspot.de/2012/12/kernel-approximations-for-ficient.html Aproximaciones del kernel para SVM eficientes (y otros métodos de extracción de características)]. Normalmente, toman la forma de una función ''z'' que asigna un único vector a un vector de mayor dimensionalidad, aproximando el núcleo:
donde \textstyle\varphi es el mapeo implícito incrustado en el kernel RBF.
Una forma de construir dicha ''z'' es tomar una muestra aleatoria de la transformación de Fourier del núcleo '''Teorema: (estimación imparcial)''' \operatorname E[\langle \varphi(x), \varphi(y)\rangle] = e^{\|x-y\|^2/(2\ sigma^2)}.
'''Prueba:''' Basta probar el caso de D=1. Utilice la identidad trigonométrica \cos(a-b) = \cos(a)\cos(b) + \sin(a)\sin(b), la simetría esférica de la distribución gaussiana, luego evalúe la integral
'''Teorema: (convergencia)''' A medida que aumenta el [url=viewtopic.php?t=2817]número[/url] de características aleatorias R, la aproximación converge al núcleo verdadero con alta probabilidad.
'''Teorema: (límite de varianza)''' \operatorname{Var}[\langle \varphi(x), \varphi(y)\rangle] = O(D^{-1}). (Apéndice A.2 == Variaciones == Características aleatorias ortogonales == Ver también == * Método del núcleo * Máquina de vectores de soporte * Transformada de Fourier * Método Montecarlo
Aprendizaje automático Métodos Montecarlo Métodos del kernel para el aprendizaje automático [/h4]
More details: [url]https://en.wikipedia.org/wiki/Random_Fourier_feature[/url]
La '''Shimizu L-función''' está en la rama matemática (matemáticas) del álgebra una serie de Dirichlet (serie de Dirichlet) que se asigna a un campo de números algebraicos (campo de números...