Diferencia entre revisiones de «MGranaMaterialesdetrabajo»
De Grupo de Inteligencia Computacional (GIC)
Sin resumen de edición |
|||
(No se muestra una edición intermedia del mismo usuario) | |||
Línea 3: | Línea 3: | ||
= [[cosas temporales para cursos]]= | = [[cosas temporales para cursos]]= | ||
=[ | =[[Friday_sessions|sesiones de los viernes]]= | ||
= Clasificación & Machine Learning= | = Clasificación & Machine Learning= | ||
* [[Jornada GIC random forests 2012-01-27]] | * [[Jornada GIC random forests 2012-01-27]] |
Revisión actual - 16:46 10 may 2012
cosas temporales para cursos
sesiones de los viernes
Clasificación & Machine Learning
- Jornada GIC random forests 2012-01-27
- Jornada GIC fundamentos pattern recognition duda-hart-stork 2012-02-17
- missing data [1],
- tests estadisticos [2]
- libro de bishop [3]
- kernel methods de taylor [4]
- Sobre la normalización: en muchos casos hacer la clasificación sobre los datos normalizados (restando la media y dividiendo por la desv. standard, lo que se denomina z-score en estadística) mejora los resultados. En la cross-calidation conviene hacer normalizaciones independientes en cada fold.
- El método de construir un clasificador multivariante más "sencillo" es el Naive Bayes [5] que asume independencia entre las variables y, usualmente, modela con distribuciones normales las distribuciones de probabilidad condicional (verosimilitud/likelihood) de las clases.
- distancia bhattacharyya entre cosas [6]
- Extreme Learning Machines [7], [8], [9]: los clasificadores/regresores en dos etapas se construyen haciendo que la primera etapa se genere de forma aleatoria y la segunda se resuelve por mínimos cuadrados. [10]
- aplicaciones en clasificacion de glaucoma [11], fingerprint [12]
- Jornada GIC Extreme Learning Machines 2012-04-20
- Las SVM son el standard reconocido (con sus dudas). [13]
- Las RVM usan una aproximación bayesiana parsimoniosa (sparse) para encontrar los vectores relevantes, articulo original [17], [18] y una version rapida [19]
CLustering
- Un tema que nos interesaba: clustering no estacionario [20]
regularizacion
Trabajando sobre el metodo GNC [23] intentamos encontrar estrategias sistematicas de regularizacion
Machine Learning y Neurociencias
- Una de las "issues" de ML en Neurociencias es el problema de la circularidad o "double dipping" [26], [27], [28]
- Meta-analysis [29] [30] sobre las publicaciones [31], [32], [33]
- identificacion dediferencias en estructuras cerebrales [34]
- decodificacion de variables continuas [35]
CUestiones metodologicas
- randomized controlled trials wikipedia [36]
Control
- Los métodos de aprendizaje por refuerzo [43] realizan el aprendizaje en función del feedback del entorno, se consideran no supervisados en la medida en que no hay una señal objetivo. Su aplicación más exitosa es la generación de sistemas de control a partir de experimentos reales o simulados. Nosotros tratamos de aplicarlo al control de sistemas multirobot linkados.
- modualr reinforcement learning [44]
- El aprendizaje por refuerzo se ha aplicado en
- resolucion de conflictos [45]
metodos distribuidos basados en el consenso
- calculo distribuido asíncrono de descenso de gradiente [46] constrained stoch. grad. [47] con stchastic delays [48], incremental subgradient [49], asynchronous rewlaxation [50]
OPtimization
- Particle Swarm Optimization [51]
- Jornada GIC particle swarm optimization 2012-02-10
- Jornada GIC coloreado de grafos 2012-03-23
MRI
- La imagen de resonancia magnética es no invasiva, no ionizante y permite largas series, además de ser muy ductil: diversas modalidades de imagen se pueden obtener mediante diversos protocolos de imagen.
fast introduction [52]
- skull stripping [53]
Atlas
The whole Brain Atlas [54]
DTI
La modalidad de imagen de difusion (DWI) permite medir el movimiento en diversas direcciones del agua en los tejidos. La estimación del tensor de difusión en cada voxel produce la imagen tensorial de difusión (DTI) [55], presentacion Alex [56], [57], [58]
pitfalls... [59]