Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Sintaxis
md1 = fscenca (X, Y)
mdl = fscnca (X, Y, Nombre, Value)
Descripción
mdl = fscnca (X, Y) realiza la selección de características para la clasificación usando los
predictores en X y respuestas en Y.
Detectar las características relevantes de los datos mediante NCA para la Clasificación
Trazar las características seleccionadas. Los pesos de las características son irrelevantes en
caso de que estén cerca de cero.
fscnca detecta correctamente determinadas características.
Este ejemplo utiliza la alta resolución de ovario conjunto de datos de cáncer que se ha
generado utilizando la matriz de proteína WCX2. La información es del banco de datos del
Programa de proteómica de la clínica FDA-NCI. Después de algunos pasos de
preprocesamiento, el conjunto de datos tiene dos variables: obs y grp. La variable obs consta
de 216 observaciones con 4000 funciones. Cada elemento de grp define el grupo al que
pertenece la fila correspondiente de obs.
Ajustar \ significa encontrar el valor \ que produce producir el mínimo de clasificación pérdida.
Para sintonizar A usando la validación cruzada:
Asignar un valor y crear una matriz para almacenar los valores de la función de pérdida.
4. Repita este proceso para todos los pliegues y todos los valores de lambda.
Ajusta el modelo de los nca en todos los datos usando la mejor lambda y graficando las
características de los pesos.
Extraer las características con los pesos de características superiores a 0 partir de los datos de
entrenamiento.
Evaluar la precisión del clasificador entrenado en los datos de prueba que no ha sido utilizado
para la selección de características.
caracteristicas = Xtrain (:, selids);
L=
0,0174
Predictor valores de las variables, especificados como una matriz n-por-p, donde nis
el número de observaciones y p es el número de variables predictoras.
Tipos de datos: solo | doble
¥ - etiquetas de clase
vector categórica | vector de lógica | vector numérico | matriz de células de vectores de
caracteres de longitud n | matriz de caracteres con n filas
etiquetas de clase, especificado como un vector categórica, vector lógico, vector numérico,
matriz de células ofcharacter vectores oflength n, o matriz de caracteres con n filas, donde
NIS las ofobservations numéricas. Elemento i o fila 1 de ¥ es la etiqueta de clase
correspondiente a la fila 1 de X (observación 1).
Ejemplo: '' Solver ' 'sgd', 'Pesos', W, 'Lambda'', 0,0003 especifica el solucionador como el
descenso de gradiente estocástico, los pesos de observación como los valores en el
vector W, y establece el parámetro de regularización en 0.0003 .
Opciones de ajuste
Método para ajustar el modelo, especificado como el par separada por comas que
consiste en 'FitMethod' y uno de los siguientes:
ofpartitions numéricos para dividir los datos para usar con 'FitMethod', opción 'medio',
especificado como el par separada por comas que consiste en 'numPartitions' y un
valor de número entero entre 2 y n, donde n es el número de observaciones.
Ejemplo: 'numPartitions', 15
Tipos de datos: doble | soltero
'Lambda' - parámetro de regularización
1 / n (predeterminado) | escalar no negativo
Para n observaciones, se espera que el mejor valor Lambda que minimiza el error
generalización deEl modelo NCA a ser un múltiplo de 1 / n.
Ejemplo: 'Lambda', 0,002
Tipos de datos: doble | soltero
* Escalas de longitud' - Anchura del grano
1 (por defecto) | escalar real positivo
Ancho deEl kernel, especificado como el par separada por comas que consiste en
'escalas de longitud' y un escalar real positivo.
los pesos de características iniciales, especificados como el par separada por comas
que consiste en * InitialFeatureWeights' y vector ap-por-1 ofreal escalares positivos,
donde p es la ofpredictors numéricos en los datos de entrenamiento.
los pesos de observación, especificados como el par separada por comas que consiste
en '' ObservationWeights y un vector de n-por-1 de escalares reales positivas. Utilizar
pesos de observación para especificar mayor importancia de algunas observaciones
en comparación con los demás. los
pesos por defecto asigna la misma importancia a todas las observaciones.
Tipos de datos: doble | soltero
Las probabilidades previas para cada clase, especificados como el par separada por
comas que consiste en 'Antes' y uno deEl siguiente:
Ejemplo: 'Verbose', 1
Tipos de datos: doble | soltero
'Solver' - Tipo de Solver
'lbfgs * | '' Sgqd' | '' minibatch-lbfgs
función de pérdida, especificado como el par separada por comas que consiste en
'LossFunction' y uno de los siguientes.
1n
i=1
Ejemplo: 'LossFunction', L
Tipos de datos: char | function_handle
Tamaño de la memoria, en MB, que se utilizará para la función objetivo y el cálculo del
gradiente, tal como se especifica el par separada por comas que consiste en
'CacheSize' y un entero.
Opciones lbfgs
Ejemplo: 'HessianHistorySize', 20
Tipos de datos: doble | soltero
tamaño de paso inicial para el solucionador 'lbfgs', especificado como el par separada
por comas que consiste en 'InitialStepSize' Anda escalar real positivo. Por defecto, la
función determina el tamaño inicial paso automáticamente.
Tipos de datos: doble | soltero
Ejemplo: 'MaxLineSearchIterations', 25
Tipos de datos: doble | soltero
Opciones SGD
El 'auto' por defecto significa que la tasa de aprendizaje inicial se determina mediante
experimentos en pequeños subconjuntos de datos. Utilice el argumento nombre-valor par
NumTuningIterations para especificar los números ofiterations para sintonizar
automáticamente la velocidad de aprendizaje inicial.
Utilice el argumento nombre-valor par TuningSubsetSize para especificar el
número de observaciones a utilizar para el ajuste automáticamente la velocidad de
aprendizaje inicial.
Para el tipo de solucionador 'minibatch-lbfgs', conjunto youcan Toa valor muy alto
'InitialLearningRate'. En este caso, la función se aplica lbfgs a cada mini-lote por
separado con los pesos de características iniciales de los últimos mini-lotes.
Para asegurarse de que la tasa de aprendizaje inicial elegido disminuye el valor objetivo
con cada iteración, la trama de la iteración en comparación con los valores objetivos
guardados en la md1.FitInfo
propiedad.
Se puede utilizar el método de volver a montar con 'InitialFeatureWeights' igual a
md1.FeatureWeights para comenzar a partir de la solución actual y efectuar iteraciones
adicionales
Número máximo ofpasses throwch todas las n observaciones para solucionador 'Sqd',
especificados como el par separada por comas que consiste en 'PassLimit' y una mteger
positivo. Cada paso a través de todos los 1s datos llamado una época.
Ejemplo: 'PassLimit', 10
Ejemplo: 'NumTuningIterations', 15
Tipos de datos: doble | soltero
iteraciones numberof máxima, especificados como el par separada por comas que consiste
en “iterationLimit' y un número entero positivo. El valor predeterminado es 10000 para SGD
y 1000 para
LBFGSand lbfgs mini-lotes.
Cada paso a través de un lote es una iteración. Cada pase a través de todos los datos es una
época.
Si los datos se divide en k mini-lotes, a continuación, cada época es equivalente a k
iteraciones.
tolerancia de convergencia en el tamaño del paso, especificado como el par separada por
comas que consiste
de 'StepTolerance' Anda escalar real positivo. El solucionador 'lbfgs' utiliza una tolerancia
absoluta paso. y el solucionador 'sgd' utiliza una tolerancia paso relativo.
Argumentos de salida