Diferencia entre revisiones de «MGranaMaterialesdetrabajo»

De Grupo de Inteligencia Computacional (GIC)
Línea 5: Línea 5:
= Clasificación & Machine Learning=
= Clasificación & Machine Learning=


* libro de bishop [http://www.ehu.es/ccwintco/groupware/webdav.php/apps/phpbrain/270/book_bishop2006_%20Pattern%20Recognition%20and%20Machine%20Learning.pdf]
* Sobre la normalización: en muchos casos hacer la clasificación sobre los datos normalizados (restando la media y dividiendo por la desv. standard, lo que  se denomina z-score en estadística) mejora los resultados. En la cross-calidation conviene hacer normalizaciones independientes en cada fold.
* Sobre la normalización: en muchos casos hacer la clasificación sobre los datos normalizados (restando la media y dividiendo por la desv. standard, lo que  se denomina z-score en estadística) mejora los resultados. En la cross-calidation conviene hacer normalizaciones independientes en cada fold.



Revisión del 01:13 6 oct 2011


cosas temporales para cursos

Clasificación & Machine Learning

  • libro de bishop [1]
  • Sobre la normalización: en muchos casos hacer la clasificación sobre los datos normalizados (restando la media y dividiendo por la desv. standard, lo que se denomina z-score en estadística) mejora los resultados. En la cross-calidation conviene hacer normalizaciones independientes en cada fold.
  • una demo interesante de clustering en java [2]
  • El método de construir un clasificador multivariante más "sencillo" es el Naive Bayes [3] que asume independencia entre las variables y, usualmente, modela con distribuciones normales las distribuciones de probabilidad condicional (verosimilitud/likelihood) de las clases.
  • Extreme Learning Machines [4], [5]: los clasificadores/regresores en dos etapas se construyen haciendo que la primera etapa se genere de forma aleatoria y la segunda se resuelve por mínimos cuadrados. [6]
    • aplicaciones en clasificacion de glaucoma [7]
  • Las SVM son el standard reconocido (con sus dudas). [8]
    • Algunas aplicaciones en diagnóstico de la enfermedad de Alzheimer [9]
    • deteccion de strokes [10]
    • spatial-spectral kernels para imagenes hiperespectrales [11]
  • Las RVM usan una aproximación bayesiana rigurosa para encontrar los vectores relevantes, articulo original [12], [13] y una version rapida [14]

regularizacion

Trabajando sobre el metodo GNC [16] intentamos encontrar estrategias sistematicas de regularizacion

Machine Learning y Neurociencias

  • Tutorial de aplicación de machine learning en fMRI [17], multiclasificadores aplicados a fMRI [18]
  • Una de las "issues" de ML en Neurociencias es el problema de la circularidad o "double dipping" [19], [20], [21]
  • Meta-analysis [22] [23] sobre las publicaciones [24], [25], [26]
  • identificacion dediferencias en estructuras cerebrales [27]
  • decodificacion de variables continuas [28]

Control

  • Los métodos de aprendizaje por refuerzo [29] realizan el aprendizaje en función del feedback del entorno, se consideran no supervisados en la medida en que no hay una señal objetivo. Su aplicación más exitosa es la generación de sistemas de control a partir de experimentos reales o simulados. Nosotros tratamos de aplicarlo al control de sistemas multirobot linkados.
  • modualr reinforcement learning [30]
  • El aprendizaje por refuerzo se ha aplicado en
    • resolucion de conflictos [31]

MRI

La imagen de resonancia magnética es no invasiva, no ionizante y permite largas series, además de ser muy ductil: diversas modalidades de imagen se pueden obtener mediante diversos protocolos de imagen.

DTI

La modalidad de imagen de difusion (DWI) permite medir el movimiento en diversas direcciones del agua en los tejidos. La estimación del tensor de difusión en cada voxel produce la imagen tensorial de difusión (DTI) [32]

Enfermedades Neurodegenerativas