Diferencia entre revisiones de «MGranaMaterialesdetrabajo»
De Grupo de Inteligencia Computacional (GIC)
Línea 2: | Línea 2: | ||
= Clasificación & Machine Learning= | = Clasificación & Machine Learning= | ||
*El método multivariante más "sencillo" es el Naive Bayes [http://en.wikipedia.org/wiki/Naive_Bayes_classifier] que asume independencia entre las variables y, usualmente, modela con distribuciones normales las distribuciones de probabilidad condicional (verosimilitud/likelihood) de las clases. | * Sobre la normalización: en muchos casos hacer la clasificación sobre los datos normalizados (restando la media y dividiendo por la desv. standard, lo que se denomina z-score en estadística) mejora los resultados. En la cross-calidation conviene hacer normalizaciones independientes en cada fold. | ||
*El método de construir un clasificador multivariante más "sencillo" es el Naive Bayes [http://en.wikipedia.org/wiki/Naive_Bayes_classifier] que asume independencia entre las variables y, usualmente, modela con distribuciones normales las distribuciones de probabilidad condicional (verosimilitud/likelihood) de las clases. | |||
* Extreme Learning Machines: los clasificadores/regresores en dos etapas se construyen haciendo que la primera etapa se genere de forma aleatoria y la segunda se resuelve por mínimos cuadrados. [http://www.ehu.es/ccwintco/groupware/webdav.php/apps/phpbrain/420/ELM_basics.pdf] | * Extreme Learning Machines: los clasificadores/regresores en dos etapas se construyen haciendo que la primera etapa se genere de forma aleatoria y la segunda se resuelve por mínimos cuadrados. [http://www.ehu.es/ccwintco/groupware/webdav.php/apps/phpbrain/420/ELM_basics.pdf] |
Revisión del 18:51 3 jul 2011
Clasificación & Machine Learning
- Sobre la normalización: en muchos casos hacer la clasificación sobre los datos normalizados (restando la media y dividiendo por la desv. standard, lo que se denomina z-score en estadística) mejora los resultados. En la cross-calidation conviene hacer normalizaciones independientes en cada fold.
- El método de construir un clasificador multivariante más "sencillo" es el Naive Bayes [1] que asume independencia entre las variables y, usualmente, modela con distribuciones normales las distribuciones de probabilidad condicional (verosimilitud/likelihood) de las clases.
- Extreme Learning Machines: los clasificadores/regresores en dos etapas se construyen haciendo que la primera etapa se genere de forma aleatoria y la segunda se resuelve por mínimos cuadrados. [2]
- Las SVM son el standard reconocido (con sus dudas).
- Algunas aplicaciones en diagnóstico de la enfermedad de Alzheimer [3]
- Las RVM usan una aproximación bayesiana rigurosa para encontrar los vectores relevantes, articulo original [4], [5] y una version rapida [6]
Control
- Los métodos de aprendizaje por refuerzo [9] realizan el aprendizaje en función del feedback del entorno, se consideran no supervisados en la medida en que no hay una señal objetivo. Su aplicación más exitosa es la generación de sistemas de control a partir de experimentos reales o simulados. Nosotros tratamos de aplicarlo al control de sistemas multirobot linkados.
MRI
La imagen de resonancia magnética es no invasiva, no ionizante y permite largas series, además de ser muy ductil: diversas modalidades de imagen se pueden obtener mediante diversos protocolos de imagen.
DTI
La modalidad de imagen de difusion (DWI) permite medir el movimiento en diversas direcciones del agua en los tejidos. La estimación del tensor de difusión en cada voxel produce la imagen tensorial de difusión (DTI) [10]