Diferencia entre revisiones de «MGranaMaterialesdetrabajo»
De Grupo de Inteligencia Computacional (GIC)
(No se muestran 68 ediciones intermedias del mismo usuario) | |||
Línea 1: | Línea 1: | ||
= [[cosas temporales para cursos]]= | |||
=[[Friday_sessions|sesiones de los viernes]]= | |||
* Las SVM son el standard reconocido (con sus dudas). | = Clasificación & Machine Learning= | ||
* [[Jornada GIC random forests 2012-01-27]] | |||
* [[Jornada GIC fundamentos pattern recognition duda-hart-stork 2012-02-17]] | |||
* missing data [http://www.missingdata.org.uk/], | |||
* tests estadisticos [http://en.wikipedia.org/wiki/Statistical_hypothesis_testing] | |||
* libro de bishop [http://www.ehu.es/ccwintco/groupware/webdav.php/apps/phpbrain/270/book_bishop2006_%20Pattern%20Recognition%20and%20Machine%20Learning.pdf] | |||
* kernel methods de taylor [http://www.ehu.es/ccwintco/groupware/webdav.php/apps/phpbrain/98/John%20Shawe-Taylor%20Kernel%20Methods%20for%20Pattern%20Analysis%202004.pdf] | |||
* Sobre la normalización: en muchos casos hacer la clasificación sobre los datos normalizados (restando la media y dividiendo por la desv. standard, lo que se denomina z-score en estadística) mejora los resultados. En la cross-calidation conviene hacer normalizaciones independientes en cada fold. | |||
*El método de construir un clasificador multivariante más "sencillo" es el Naive Bayes [http://en.wikipedia.org/wiki/Naive_Bayes_classifier] que asume independencia entre las variables y, usualmente, modela con distribuciones normales las distribuciones de probabilidad condicional (verosimilitud/likelihood) de las clases. | |||
*distancia bhattacharyya entre cosas [http://en.wikipedia.org/wiki/Bhattacharyya_distance] | |||
* Extreme Learning Machines [http://www.ntu.edu.sg/home/egbhuang/], [http://www.ehu.es/ccwintco/groupware/index.php?menuaction=phpbrain.uikb.view_article&art_id=432], [http://www.sciencedirect.com/science/article/pii/S0925231206000385]: los clasificadores/regresores en dos etapas se construyen haciendo que la primera etapa se genere de forma aleatoria y la segunda se resuelve por mínimos cuadrados. [http://www.ehu.es/ccwintco/groupware/webdav.php/apps/phpbrain/420/ELM_basics.pdf] | |||
** aplicaciones en clasificacion de glaucoma [http://www.sciencedirect.com/science/article/pii/S0957417411009754], fingerprint [http://www.springerlink.com/content/5w5056u226q3qvg2/fulltext.pdf] | |||
** [[Jornada GIC Extreme Learning Machines 2012-04-20]] | |||
* Las SVM son el standard reconocido (con sus dudas). [http://www.ehu.es/ccwintco/groupware/webdav.php/apps/phpbrain/270/Campbell2011_Learning%20with%20support%20Vector%20Machines.pdf] | |||
**Algunas aplicaciones en diagnóstico de la enfermedad de Alzheimer [http://www.ehu.es/ccwintco/groupware/webdav.php/apps/phpbrain/187/zhang-2011-multimodal-alzheimer-classification.pdf] | **Algunas aplicaciones en diagnóstico de la enfermedad de Alzheimer [http://www.ehu.es/ccwintco/groupware/webdav.php/apps/phpbrain/187/zhang-2011-multimodal-alzheimer-classification.pdf] | ||
** deteccion de strokes [http://www.sciencedirect.com/science/article/pii/S1361841511000594] | |||
** spatial-spectral kernels para imagenes hiperespectrales [http://www.sciencedirect.com/science/article/pii/S0031320311002019] | |||
*Las RVM usan una aproximación bayesiana parsimoniosa (sparse) para encontrar los vectores relevantes, articulo original [http://www.ehu.es/ccwintco/groupware/webdav.php/apps/phpbrain/324/tipping-rvm_nips.pdf], [http://www.ehu.es/ccwintco/groupware/webdav.php/apps/phpbrain/324/2001%20-%20Tipping%20-%20Sparse%20Bayesian%20Learning%20and%20the%20Relevance%20Vector%20Machine.pdf] y una version rapida [http://www.ehu.es/ccwintco/groupware/webdav.php/apps/phpbrain/324/2003_%20Tipping_Fast_Marginal_Likelihood_Maximisation_for_Sparse_Bayesian_Models.pdf] | |||
* [[MaterialesMgranaActiveLearning|Active Learning]] | |||
==CLustering == | |||
* Un tema que nos interesaba: clustering no estacionario [http://www.mitpressjournals.org/doi/abs/10.1162/089976699300016755] | |||
* una demo interesante de clustering en java [http://www.ehu.es/ccwintco/groupware/index.php?menuaction=phpbrain.uikb.view_article&art_id=130] | |||
* review de clustering con redes neuronales [http://www.sciencedirect.com/science/article/pii/S089360800900207X] | |||
== regularizacion == | |||
Trabajando sobre el metodo GNC [http://www.ehu.es/ccwintco/groupware/webdav.php/apps/phpbrain/270/book_Blake1987_VisualReconstruction.pdf] intentamos encontrar estrategias sistematicas de regularizacion | |||
== Machine Learning y Neurociencias == | |||
* Tutorial de aplicación de machine learning en fMRI [http://www.ehu.es/ccwintco/groupware/webdav.php/apps/phpbrain/467/pereira-2009-machine-learning-survey.pdf], multiclasificadores aplicados a fMRI [http://www.ehu.es/ccwintco/groupware/webdav.php/apps/phpbrain/467/kuncheva-2010-fMRI-ensambles.pdf] | |||
* Una de las "issues" de ML en Neurociencias es el problema de la circularidad o "double dipping" [http://www.ncbi.nlm.nih.gov/pubmed/19396166], [http://www.nature.com/neuro/journal/v12/n5/abs/nn.2303.html], [http://www.edvul.com/pdf/KriegeskorteEtAl-JCBFM-2010.pdf] | |||
* Meta-analysis [http://en.wikipedia.org/wiki/Meta-analysis] [http://brainmap.org/ale/] sobre las publicaciones [http://dx.doi.org/10.1016/j.neurobiolaging.2010.05.019], [http://archpsyc.ama-assn.org/cgi/reprint/65/9/1017], [http://dx.doi.org/10.1016/j.neurobiolaging.2009.11.008] | |||
* identificacion dediferencias en estructuras cerebrales [http://dx.doi.org/10.1016/j.neuroimage.2010.01.019] | |||
* decodificacion de variables continuas [http://www.frontiersin.org/neuroscience/10.3389/fnins.2011.00075/abstract] | |||
== CUestiones metodologicas == | |||
* | * randomized controlled trials wikipedia [http://en.wikipedia.org/wiki/Randomized_controlled_trial] | ||
** CONSORT [http://www.consort-statement.org/index.aspx?o=1190], publicaciones [http://www.bmj.com/content/340/bmj.c332],[http://www.ncbi.nlm.nih.gov/pmc/articles/PMC2844940/?tool=pmcentrez], | |||
[http://www. | ** registro de trials usa [http://clinicaltrials.gov/], controlled trials [http://www.controlled-trials.com/], org. mundial de la salud [http://www.who.int/ictrp/network/primary/en/index.html] | ||
= Control = | = Control = | ||
Línea 17: | Línea 60: | ||
* Los métodos de aprendizaje por refuerzo [http://www.ehu.es/ccwintco/groupware/webdav.php/apps/phpbrain/104/Libro%20ReinforcementLearningSutton.pdf] realizan el aprendizaje en función del feedback del entorno, se consideran no supervisados en la medida en que no hay una señal objetivo. Su aplicación más exitosa es la generación de sistemas de control a partir de experimentos reales o simulados. Nosotros tratamos de aplicarlo al control de sistemas multirobot linkados. | * Los métodos de aprendizaje por refuerzo [http://www.ehu.es/ccwintco/groupware/webdav.php/apps/phpbrain/104/Libro%20ReinforcementLearningSutton.pdf] realizan el aprendizaje en función del feedback del entorno, se consideran no supervisados en la medida en que no hay una señal objetivo. Su aplicación más exitosa es la generación de sistemas de control a partir de experimentos reales o simulados. Nosotros tratamos de aplicarlo al control de sistemas multirobot linkados. | ||
* modualr reinforcement learning [http://www.cc.gatech.edu/~sooraj/pubs/aaai06impossibility.pdf] | |||
* El aprendizaje por refuerzo se ha aplicado en | |||
** resolucion de conflictos [http://www.sciencedirect.com/science/article/pii/S0957417411009766] | |||
==metodos distribuidos basados en el consenso== | |||
* calculo distribuido asíncrono de descenso de gradiente [http://ieeexplore.ieee.org/search/srchabstract.jsp?tp=&arnumber=1104412&openedRefinements%3D*%26filter%3DAND%28NOT%284283010803%29%29%26matchBoolean%3Dtrue%26searchField%3DSearch+All%26queryText%3D%28Document+Title%3Adistributed+asynchronous+deterministic+and+stochastic+gradiente%29] constrained stoch. grad. [http://ieeexplore.ieee.org/search/srchabstract.jsp?tp=&arnumber=5719290&openedRefinements%3D*%26filter%3DAND%28NOT%284283010803%29%29%26matchBoolean%3Dtrue%26searchField%3DSearch+All%26queryText%3D%28Document+Title%3Adistributed+asynchronous+deterministic+and+stochastic+gradiente%29] con stchastic delays [http://ieeexplore.ieee.org/search/srchabstract.jsp?tp=&arnumber=325479&openedRefinements%3D*%26filter%3DAND%28NOT%284283010803%29%29%26matchBoolean%3Dtrue%26searchField%3DSearch+All%26queryText%3D%28Document+Title%3Adistributed+asynchronous+deterministic+and+stochastic+gradiente%29], incremental subgradient [http://www.sciencedirect.com/science/article/pii/S1570579X01800239], asynchronous rewlaxation [http://www.sciencedirect.com/science/article/pii/0098135494000832] | |||
=OPtimization= | |||
* Particle Swarm Optimization [http://ieeexplore.ieee.org/search/srchabstract.jsp?tp=&arnumber=985692&refinements%3D4294967131%2C4292684789%26openedRefinements%3D*%26sortType%3Dasc_Publication+Year%26filter%3DAND%28NOT%284283010803%29%29%26matchBoolean%3Dtrue%26searchField%3DSearch+All%26queryText%3D%28particle+swarm+optimization%29] | |||
* [[Jornada GIC particle swarm optimization 2012-02-10]] | |||
* [[Jornada GIC coloreado de grafos 2012-03-23]] | |||
= MRI = | = MRI = | ||
La imagen de resonancia magnética es no invasiva, no ionizante y permite largas series, además de ser muy ductil: diversas modalidades de imagen se pueden obtener mediante diversos protocolos de imagen. | : [[Image:Alex-savio-path7087-1-9-6-8-9-3-7-8.png|thumb|200px|esquema de Alex de tipos de analisis en neurociencias]] | ||
:La imagen de resonancia magnética es no invasiva, no ionizante y permite largas series, además de ser muy ductil: diversas modalidades de imagen se pueden obtener mediante diversos protocolos de imagen. | |||
fast introduction [http://prezi.com/goiorwi3w-bl/quick-intro-to-mri-and-fmri/] | |||
: skull stripping [http://www.ehu.es/ccwintco/groupware/index.php?menuaction=phpbrain.uikb.view_article&art_id=124] | |||
== Atlas == | |||
The whole Brain Atlas [http://www.med.harvard.edu/aanlib/] | |||
== DTI == | == DTI == | ||
La modalidad de imagen de difusion (DWI) permite medir el movimiento en diversas direcciones del agua en los tejidos. La estimación del tensor de difusión en cada voxel produce la imagen tensorial de difusión (DTI) [http://www.ehu.es/ccwintco/groupware/webdav.php/apps/phpbrain/210/Vilanova_2005_an%20introduction%20to%20visualization%20of%20diffusion%20tensor%20imaging%20and%20its%20applications.pdf] | La modalidad de imagen de difusion (DWI) permite medir el movimiento en diversas direcciones del agua en los tejidos. La estimación del tensor de difusión en cada voxel produce la imagen tensorial de difusión (DTI) [http://www.ehu.es/ccwintco/groupware/webdav.php/apps/phpbrain/210/Vilanova_2005_an%20introduction%20to%20visualization%20of%20diffusion%20tensor%20imaging%20and%20its%20applications.pdf], | ||
presentacion Alex [http://www.ehu.es/ccwintco/groupware/webdav.php/apps/phpbrain/328/on_dti_models_20121001.pdf], [http://www.ehu.es/ccwintco/groupware/webdav.php/apps/phpbrain/328/fdt_diffusion_process_pipelines.png], [http://www.ehu.es/ccwintco/groupware/webdav.php/apps/phpbrain/328/fdt_xfibres_mcmc.png] | |||
pitfalls... [http://onlinelibrary.wiley.com/doi/10.1002/nbm.1543/abstract] | |||
= [[grana-materiales-enfermedades-neurodegenerativas|Enfermedades Neurodegenerativas]]= | = [[grana-materiales-enfermedades-neurodegenerativas|Enfermedades Neurodegenerativas]]= |
Revisión actual - 16:46 10 may 2012
cosas temporales para cursos
sesiones de los viernes
Clasificación & Machine Learning
- Jornada GIC random forests 2012-01-27
- Jornada GIC fundamentos pattern recognition duda-hart-stork 2012-02-17
- missing data [1],
- tests estadisticos [2]
- libro de bishop [3]
- kernel methods de taylor [4]
- Sobre la normalización: en muchos casos hacer la clasificación sobre los datos normalizados (restando la media y dividiendo por la desv. standard, lo que se denomina z-score en estadística) mejora los resultados. En la cross-calidation conviene hacer normalizaciones independientes en cada fold.
- El método de construir un clasificador multivariante más "sencillo" es el Naive Bayes [5] que asume independencia entre las variables y, usualmente, modela con distribuciones normales las distribuciones de probabilidad condicional (verosimilitud/likelihood) de las clases.
- distancia bhattacharyya entre cosas [6]
- Extreme Learning Machines [7], [8], [9]: los clasificadores/regresores en dos etapas se construyen haciendo que la primera etapa se genere de forma aleatoria y la segunda se resuelve por mínimos cuadrados. [10]
- aplicaciones en clasificacion de glaucoma [11], fingerprint [12]
- Jornada GIC Extreme Learning Machines 2012-04-20
- Las SVM son el standard reconocido (con sus dudas). [13]
- Las RVM usan una aproximación bayesiana parsimoniosa (sparse) para encontrar los vectores relevantes, articulo original [17], [18] y una version rapida [19]
CLustering
- Un tema que nos interesaba: clustering no estacionario [20]
regularizacion
Trabajando sobre el metodo GNC [23] intentamos encontrar estrategias sistematicas de regularizacion
Machine Learning y Neurociencias
- Una de las "issues" de ML en Neurociencias es el problema de la circularidad o "double dipping" [26], [27], [28]
- Meta-analysis [29] [30] sobre las publicaciones [31], [32], [33]
- identificacion dediferencias en estructuras cerebrales [34]
- decodificacion de variables continuas [35]
CUestiones metodologicas
- randomized controlled trials wikipedia [36]
Control
- Los métodos de aprendizaje por refuerzo [43] realizan el aprendizaje en función del feedback del entorno, se consideran no supervisados en la medida en que no hay una señal objetivo. Su aplicación más exitosa es la generación de sistemas de control a partir de experimentos reales o simulados. Nosotros tratamos de aplicarlo al control de sistemas multirobot linkados.
- modualr reinforcement learning [44]
- El aprendizaje por refuerzo se ha aplicado en
- resolucion de conflictos [45]
metodos distribuidos basados en el consenso
- calculo distribuido asíncrono de descenso de gradiente [46] constrained stoch. grad. [47] con stchastic delays [48], incremental subgradient [49], asynchronous rewlaxation [50]
OPtimization
- Particle Swarm Optimization [51]
- Jornada GIC particle swarm optimization 2012-02-10
- Jornada GIC coloreado de grafos 2012-03-23
MRI
- La imagen de resonancia magnética es no invasiva, no ionizante y permite largas series, además de ser muy ductil: diversas modalidades de imagen se pueden obtener mediante diversos protocolos de imagen.
fast introduction [52]
- skull stripping [53]
Atlas
The whole Brain Atlas [54]
DTI
La modalidad de imagen de difusion (DWI) permite medir el movimiento en diversas direcciones del agua en los tejidos. La estimación del tensor de difusión en cada voxel produce la imagen tensorial de difusión (DTI) [55], presentacion Alex [56], [57], [58]
pitfalls... [59]