Diferencia entre revisiones de «MGranaMaterialesdetrabajo»
De Grupo de Inteligencia Computacional (GIC)
(No se muestran 46 ediciones intermedias del mismo usuario) | |||
Línea 1: | Línea 1: | ||
= [[cosas temporales para cursos]]= | |||
=[[Friday_sessions|sesiones de los viernes]]= | |||
= Clasificación & Machine Learning= | = Clasificación & Machine Learning= | ||
* [[Jornada GIC random forests 2012-01-27]] | |||
* [[Jornada GIC fundamentos pattern recognition duda-hart-stork 2012-02-17]] | |||
* missing data [http://www.missingdata.org.uk/], | |||
* tests estadisticos [http://en.wikipedia.org/wiki/Statistical_hypothesis_testing] | |||
* libro de bishop [http://www.ehu.es/ccwintco/groupware/webdav.php/apps/phpbrain/270/book_bishop2006_%20Pattern%20Recognition%20and%20Machine%20Learning.pdf] | |||
* kernel methods de taylor [http://www.ehu.es/ccwintco/groupware/webdav.php/apps/phpbrain/98/John%20Shawe-Taylor%20Kernel%20Methods%20for%20Pattern%20Analysis%202004.pdf] | |||
* Sobre la normalización: en muchos casos hacer la clasificación sobre los datos normalizados (restando la media y dividiendo por la desv. standard, lo que se denomina z-score en estadística) mejora los resultados. En la cross-calidation conviene hacer normalizaciones independientes en cada fold. | |||
* | *El método de construir un clasificador multivariante más "sencillo" es el Naive Bayes [http://en.wikipedia.org/wiki/Naive_Bayes_classifier] que asume independencia entre las variables y, usualmente, modela con distribuciones normales las distribuciones de probabilidad condicional (verosimilitud/likelihood) de las clases. | ||
* | *distancia bhattacharyya entre cosas [http://en.wikipedia.org/wiki/Bhattacharyya_distance] | ||
* Extreme Learning Machines [http://www.ntu.edu.sg/home/egbhuang/], [http://www.ehu.es/ccwintco/groupware/index.php?menuaction=phpbrain.uikb.view_article&art_id=432]: los clasificadores/regresores en dos etapas se construyen haciendo que la primera etapa se genere de forma aleatoria y la segunda se resuelve por mínimos cuadrados. [http://www.ehu.es/ccwintco/groupware/webdav.php/apps/phpbrain/420/ELM_basics.pdf] | * Extreme Learning Machines [http://www.ntu.edu.sg/home/egbhuang/], [http://www.ehu.es/ccwintco/groupware/index.php?menuaction=phpbrain.uikb.view_article&art_id=432], [http://www.sciencedirect.com/science/article/pii/S0925231206000385]: los clasificadores/regresores en dos etapas se construyen haciendo que la primera etapa se genere de forma aleatoria y la segunda se resuelve por mínimos cuadrados. [http://www.ehu.es/ccwintco/groupware/webdav.php/apps/phpbrain/420/ELM_basics.pdf] | ||
** aplicaciones en clasificacion de glaucoma [http://www.sciencedirect.com/science/article/pii/S0957417411009754] | ** aplicaciones en clasificacion de glaucoma [http://www.sciencedirect.com/science/article/pii/S0957417411009754], fingerprint [http://www.springerlink.com/content/5w5056u226q3qvg2/fulltext.pdf] | ||
** [[Jornada GIC Extreme Learning Machines 2012-04-20]] | |||
* Las SVM son el standard reconocido (con sus dudas). [http://www.ehu.es/ccwintco/groupware/webdav.php/apps/phpbrain/270/Campbell2011_Learning%20with%20support%20Vector%20Machines.pdf] | * Las SVM son el standard reconocido (con sus dudas). [http://www.ehu.es/ccwintco/groupware/webdav.php/apps/phpbrain/270/Campbell2011_Learning%20with%20support%20Vector%20Machines.pdf] | ||
Línea 15: | Línea 27: | ||
** deteccion de strokes [http://www.sciencedirect.com/science/article/pii/S1361841511000594] | ** deteccion de strokes [http://www.sciencedirect.com/science/article/pii/S1361841511000594] | ||
** spatial-spectral kernels para imagenes hiperespectrales [http://www.sciencedirect.com/science/article/pii/S0031320311002019] | ** spatial-spectral kernels para imagenes hiperespectrales [http://www.sciencedirect.com/science/article/pii/S0031320311002019] | ||
*Las RVM usan una aproximación bayesiana | *Las RVM usan una aproximación bayesiana parsimoniosa (sparse) para encontrar los vectores relevantes, articulo original [http://www.ehu.es/ccwintco/groupware/webdav.php/apps/phpbrain/324/tipping-rvm_nips.pdf], [http://www.ehu.es/ccwintco/groupware/webdav.php/apps/phpbrain/324/2001%20-%20Tipping%20-%20Sparse%20Bayesian%20Learning%20and%20the%20Relevance%20Vector%20Machine.pdf] y una version rapida [http://www.ehu.es/ccwintco/groupware/webdav.php/apps/phpbrain/324/2003_%20Tipping_Fast_Marginal_Likelihood_Maximisation_for_Sparse_Bayesian_Models.pdf] | ||
* | * [[MaterialesMgranaActiveLearning|Active Learning]] | ||
==CLustering == | |||
* Un tema que nos interesaba: clustering no estacionario [http://www.mitpressjournals.org/doi/abs/10.1162/089976699300016755] | * Un tema que nos interesaba: clustering no estacionario [http://www.mitpressjournals.org/doi/abs/10.1162/089976699300016755] | ||
* una demo interesante de clustering en java [http://www.ehu.es/ccwintco/groupware/index.php?menuaction=phpbrain.uikb.view_article&art_id=130] | |||
* review de clustering con redes neuronales [http://www.sciencedirect.com/science/article/pii/S089360800900207X] | |||
== regularizacion == | == regularizacion == | ||
Línea 27: | Línea 42: | ||
== Machine Learning y Neurociencias == | == Machine Learning y Neurociencias == | ||
* Tutorial de aplicación de machine learning en fMRI [http://www.ehu.es/ccwintco/groupware/webdav.php/apps/phpbrain/467/pereira-2009-machine-learning-survey.pdf], multiclasificadores aplicados a fMRI [http://www.ehu.es/ccwintco/groupware/webdav.php/apps/phpbrain/467/kuncheva-2010-fMRI-ensambles.pdf] | |||
* Una de las "issues" de ML en Neurociencias es el problema de la circularidad o "double dipping" [http://www.ncbi.nlm.nih.gov/pubmed/19396166], [http://www.nature.com/neuro/journal/v12/n5/abs/nn.2303.html], [http://www.edvul.com/pdf/KriegeskorteEtAl-JCBFM-2010.pdf] | * Una de las "issues" de ML en Neurociencias es el problema de la circularidad o "double dipping" [http://www.ncbi.nlm.nih.gov/pubmed/19396166], [http://www.nature.com/neuro/journal/v12/n5/abs/nn.2303.html], [http://www.edvul.com/pdf/KriegeskorteEtAl-JCBFM-2010.pdf] | ||
* Meta-analysis [http://en.wikipedia.org/wiki/Meta-analysis] [http://brainmap.org/ale/] sobre las publicaciones [http://dx.doi.org/10.1016/j.neurobiolaging.2010.05.019], [http://archpsyc.ama-assn.org/cgi/reprint/65/9/1017], [http://dx.doi.org/10.1016/j.neurobiolaging.2009.11.008] | * Meta-analysis [http://en.wikipedia.org/wiki/Meta-analysis] [http://brainmap.org/ale/] sobre las publicaciones [http://dx.doi.org/10.1016/j.neurobiolaging.2010.05.019], [http://archpsyc.ama-assn.org/cgi/reprint/65/9/1017], [http://dx.doi.org/10.1016/j.neurobiolaging.2009.11.008] | ||
* identificacion dediferencias en estructuras cerebrales [http://dx.doi.org/10.1016/j.neuroimage.2010.01.019] | |||
* decodificacion de variables continuas [http://www.frontiersin.org/neuroscience/10.3389/fnins.2011.00075/abstract] | |||
== CUestiones metodologicas == | |||
* randomized controlled trials wikipedia [http://en.wikipedia.org/wiki/Randomized_controlled_trial] | |||
** CONSORT [http://www.consort-statement.org/index.aspx?o=1190], publicaciones [http://www.bmj.com/content/340/bmj.c332],[http://www.ncbi.nlm.nih.gov/pmc/articles/PMC2844940/?tool=pmcentrez], | |||
** registro de trials usa [http://clinicaltrials.gov/], controlled trials [http://www.controlled-trials.com/], org. mundial de la salud [http://www.who.int/ictrp/network/primary/en/index.html] | |||
= Control = | = Control = | ||
* Los métodos de aprendizaje por refuerzo [http://www.ehu.es/ccwintco/groupware/webdav.php/apps/phpbrain/104/Libro%20ReinforcementLearningSutton.pdf] realizan el aprendizaje en función del feedback del entorno, se consideran no supervisados en la medida en que no hay una señal objetivo. Su aplicación más exitosa es la generación de sistemas de control a partir de experimentos reales o simulados. Nosotros tratamos de aplicarlo al control de sistemas multirobot linkados. | * Los métodos de aprendizaje por refuerzo [http://www.ehu.es/ccwintco/groupware/webdav.php/apps/phpbrain/104/Libro%20ReinforcementLearningSutton.pdf] realizan el aprendizaje en función del feedback del entorno, se consideran no supervisados en la medida en que no hay una señal objetivo. Su aplicación más exitosa es la generación de sistemas de control a partir de experimentos reales o simulados. Nosotros tratamos de aplicarlo al control de sistemas multirobot linkados. | ||
* modualr reinforcement learning [http://www.cc.gatech.edu/~sooraj/pubs/aaai06impossibility.pdf] | |||
* El aprendizaje por refuerzo se ha aplicado en | * El aprendizaje por refuerzo se ha aplicado en | ||
** resolucion de conflictos [http://www.sciencedirect.com/science/article/pii/S0957417411009766] | ** resolucion de conflictos [http://www.sciencedirect.com/science/article/pii/S0957417411009766] | ||
==metodos distribuidos basados en el consenso== | |||
* calculo distribuido asíncrono de descenso de gradiente [http://ieeexplore.ieee.org/search/srchabstract.jsp?tp=&arnumber=1104412&openedRefinements%3D*%26filter%3DAND%28NOT%284283010803%29%29%26matchBoolean%3Dtrue%26searchField%3DSearch+All%26queryText%3D%28Document+Title%3Adistributed+asynchronous+deterministic+and+stochastic+gradiente%29] constrained stoch. grad. [http://ieeexplore.ieee.org/search/srchabstract.jsp?tp=&arnumber=5719290&openedRefinements%3D*%26filter%3DAND%28NOT%284283010803%29%29%26matchBoolean%3Dtrue%26searchField%3DSearch+All%26queryText%3D%28Document+Title%3Adistributed+asynchronous+deterministic+and+stochastic+gradiente%29] con stchastic delays [http://ieeexplore.ieee.org/search/srchabstract.jsp?tp=&arnumber=325479&openedRefinements%3D*%26filter%3DAND%28NOT%284283010803%29%29%26matchBoolean%3Dtrue%26searchField%3DSearch+All%26queryText%3D%28Document+Title%3Adistributed+asynchronous+deterministic+and+stochastic+gradiente%29], incremental subgradient [http://www.sciencedirect.com/science/article/pii/S1570579X01800239], asynchronous rewlaxation [http://www.sciencedirect.com/science/article/pii/0098135494000832] | |||
=OPtimization= | |||
* Particle Swarm Optimization [http://ieeexplore.ieee.org/search/srchabstract.jsp?tp=&arnumber=985692&refinements%3D4294967131%2C4292684789%26openedRefinements%3D*%26sortType%3Dasc_Publication+Year%26filter%3DAND%28NOT%284283010803%29%29%26matchBoolean%3Dtrue%26searchField%3DSearch+All%26queryText%3D%28particle+swarm+optimization%29] | |||
* [[Jornada GIC particle swarm optimization 2012-02-10]] | |||
* [[Jornada GIC coloreado de grafos 2012-03-23]] | |||
= MRI = | = MRI = | ||
La imagen de resonancia magnética es no invasiva, no ionizante y permite largas series, además de ser muy ductil: diversas modalidades de imagen se pueden obtener mediante diversos protocolos de imagen. | : [[Image:Alex-savio-path7087-1-9-6-8-9-3-7-8.png|thumb|200px|esquema de Alex de tipos de analisis en neurociencias]] | ||
:La imagen de resonancia magnética es no invasiva, no ionizante y permite largas series, además de ser muy ductil: diversas modalidades de imagen se pueden obtener mediante diversos protocolos de imagen. | |||
fast introduction [http://prezi.com/goiorwi3w-bl/quick-intro-to-mri-and-fmri/] | |||
: skull stripping [http://www.ehu.es/ccwintco/groupware/index.php?menuaction=phpbrain.uikb.view_article&art_id=124] | |||
== Atlas == | |||
The whole Brain Atlas [http://www.med.harvard.edu/aanlib/] | |||
== DTI == | == DTI == | ||
La modalidad de imagen de difusion (DWI) permite medir el movimiento en diversas direcciones del agua en los tejidos. La estimación del tensor de difusión en cada voxel produce la imagen tensorial de difusión (DTI) [http://www.ehu.es/ccwintco/groupware/webdav.php/apps/phpbrain/210/Vilanova_2005_an%20introduction%20to%20visualization%20of%20diffusion%20tensor%20imaging%20and%20its%20applications.pdf] | La modalidad de imagen de difusion (DWI) permite medir el movimiento en diversas direcciones del agua en los tejidos. La estimación del tensor de difusión en cada voxel produce la imagen tensorial de difusión (DTI) [http://www.ehu.es/ccwintco/groupware/webdav.php/apps/phpbrain/210/Vilanova_2005_an%20introduction%20to%20visualization%20of%20diffusion%20tensor%20imaging%20and%20its%20applications.pdf], | ||
presentacion Alex [http://www.ehu.es/ccwintco/groupware/webdav.php/apps/phpbrain/328/on_dti_models_20121001.pdf], [http://www.ehu.es/ccwintco/groupware/webdav.php/apps/phpbrain/328/fdt_diffusion_process_pipelines.png], [http://www.ehu.es/ccwintco/groupware/webdav.php/apps/phpbrain/328/fdt_xfibres_mcmc.png] | |||
pitfalls... [http://onlinelibrary.wiley.com/doi/10.1002/nbm.1543/abstract] | |||
= [[grana-materiales-enfermedades-neurodegenerativas|Enfermedades Neurodegenerativas]]= | = [[grana-materiales-enfermedades-neurodegenerativas|Enfermedades Neurodegenerativas]]= |
Revisión actual - 16:46 10 may 2012
cosas temporales para cursos
sesiones de los viernes
Clasificación & Machine Learning
- Jornada GIC random forests 2012-01-27
- Jornada GIC fundamentos pattern recognition duda-hart-stork 2012-02-17
- missing data [1],
- tests estadisticos [2]
- libro de bishop [3]
- kernel methods de taylor [4]
- Sobre la normalización: en muchos casos hacer la clasificación sobre los datos normalizados (restando la media y dividiendo por la desv. standard, lo que se denomina z-score en estadística) mejora los resultados. En la cross-calidation conviene hacer normalizaciones independientes en cada fold.
- El método de construir un clasificador multivariante más "sencillo" es el Naive Bayes [5] que asume independencia entre las variables y, usualmente, modela con distribuciones normales las distribuciones de probabilidad condicional (verosimilitud/likelihood) de las clases.
- distancia bhattacharyya entre cosas [6]
- Extreme Learning Machines [7], [8], [9]: los clasificadores/regresores en dos etapas se construyen haciendo que la primera etapa se genere de forma aleatoria y la segunda se resuelve por mínimos cuadrados. [10]
- aplicaciones en clasificacion de glaucoma [11], fingerprint [12]
- Jornada GIC Extreme Learning Machines 2012-04-20
- Las SVM son el standard reconocido (con sus dudas). [13]
- Las RVM usan una aproximación bayesiana parsimoniosa (sparse) para encontrar los vectores relevantes, articulo original [17], [18] y una version rapida [19]
CLustering
- Un tema que nos interesaba: clustering no estacionario [20]
regularizacion
Trabajando sobre el metodo GNC [23] intentamos encontrar estrategias sistematicas de regularizacion
Machine Learning y Neurociencias
- Una de las "issues" de ML en Neurociencias es el problema de la circularidad o "double dipping" [26], [27], [28]
- Meta-analysis [29] [30] sobre las publicaciones [31], [32], [33]
- identificacion dediferencias en estructuras cerebrales [34]
- decodificacion de variables continuas [35]
CUestiones metodologicas
- randomized controlled trials wikipedia [36]
Control
- Los métodos de aprendizaje por refuerzo [43] realizan el aprendizaje en función del feedback del entorno, se consideran no supervisados en la medida en que no hay una señal objetivo. Su aplicación más exitosa es la generación de sistemas de control a partir de experimentos reales o simulados. Nosotros tratamos de aplicarlo al control de sistemas multirobot linkados.
- modualr reinforcement learning [44]
- El aprendizaje por refuerzo se ha aplicado en
- resolucion de conflictos [45]
metodos distribuidos basados en el consenso
- calculo distribuido asíncrono de descenso de gradiente [46] constrained stoch. grad. [47] con stchastic delays [48], incremental subgradient [49], asynchronous rewlaxation [50]
OPtimization
- Particle Swarm Optimization [51]
- Jornada GIC particle swarm optimization 2012-02-10
- Jornada GIC coloreado de grafos 2012-03-23
MRI
- La imagen de resonancia magnética es no invasiva, no ionizante y permite largas series, además de ser muy ductil: diversas modalidades de imagen se pueden obtener mediante diversos protocolos de imagen.
fast introduction [52]
- skull stripping [53]
Atlas
The whole Brain Atlas [54]
DTI
La modalidad de imagen de difusion (DWI) permite medir el movimiento en diversas direcciones del agua en los tejidos. La estimación del tensor de difusión en cada voxel produce la imagen tensorial de difusión (DTI) [55], presentacion Alex [56], [57], [58]
pitfalls... [59]