Training Workshop on Computational Quantum Chemistry

 

Training Workshop on Computational Quantum Chemistry
16-20 January 2012,
Department of Chemistry – Angstrom, Uppsala University,
Uppsala, Sweden.


This 5-day workshop is an hands-on training with the quantum chemistry MolcasWorkshop7 software package MOLCAS. The basic philosophy behind MOLCAS is the accurate ab initio treatment of very general electronic structure in medium sized molecules in both ground and excited states, to more versatile procedures applied to systems of large size.

The workshop is aimed at users and potential users of the MOLCAS suite. The workshop will consist of 10 hours of lectures and 25 hours of practical sessions. Participants are  encouraged to bring their own problems to solve. Researchers interested in using MOLCAS as a platform to implement their own software are also welcome. The workshop is structured is based on problem solving. Main topics to be covered include:

  • overview of MOLCAS 7.6, its possibilities, capabilities, and easy ways to handle installation
  • run calculations, and interpret results
  • how to design a quantum chemical calculation with MOLCAS: geometries, basis sets, input building
  • overview of single-reference methods
  • multi-configurational approaches
  • structure optimizations
  • calculation of properties
  • solvent effects in quantum chemistry
  • case studies: bring your own problem
  • MOLCAS as a development platform
  • demonstration of GUI for MOLCAS.

The workshop labs will make use of computers, where simple calculations will be run. Lectures and computer sessions will be given by MOLCAS authors from the Department of Theoretical Chemistry of Lund University, and the Department of Chemistry – Angstrom, the Theoretical Chemistry Programme, Uppsala University.

Please note that due to the format of this workshop, space is limited to 30 participants. Successful applicants are selected based on qualification and research goals.

Prerequisites: Participants should have a background in quantum chemistry and some experience in scientific computing.

Registration fee: 3500 SEK

Registration fee includes: printed material, lunches, and coffee breaks.

All participants will receive 1-year Academic group license for MOLCAS free of charge. If a participant (or participants) belongs to a group which currently holds an Academic group license for MOLCAS – the group will receive a prolongation of existent license for a period of 1 year.

Registration deadline: December 1, 2011 (successful applicants will be notified by December 15, 2011)

File registration to roland.lindh@kvac.uu.se, send email with the subject “7th MOLCAS workshop”. File registration with personal information as name, affiliation and supervisor (if PhD student or post doc).

More Information

 

 

El IZO-SGI y el CIC-nanoGUNE colaborarán en HPC

 

Los Servicios Generales de Investigación de la UPV/EHU han promovido la firma de un contrato con la Asociación Centro de Investigación Cooperativa en Nanociencias

Los Servicios Generales de Investigación de la UPV/EHU -SGIker-, aunando esfuerzos y capacidades con las entidades adheridas al Campus de Excelencia, EUSKAMPUS, han promovido la firma de un contrato con la Asociación Centro de Investigación Cooperativa en Nanociencias – CIC nanoGUNE para el alojamiento en las instalaciones de la propia Universidad, de nodos de computación y almacenamiento. El equipamiento será gestionado y administrado por el Servicio General de Informática Aplicada a la Investigación (Cálculo Científico) -IZO- que dispone de una amplia experiencia en High Performance Computing (HPC).

Este contrato incrementará la disponibilidad actual de infraestructura de alto nivel científico y tecnológico al servicio de la comunidad investigadora.

 

Infraestructura de cálculo del IZO-SGI, cluster Arina

Infraestructura de cálculo del IZO-SGI, cluster Arina

En la imagen el cluster de cálculo Arina del IZO-SGI, principal infraestructura dedicada al cálculo científico de la UPV/EHU.

 

 

 

 

 

 

 

 

 

 

 

Spanish Supercomputing Network: Supercomputing resource request

 

Next Activity evaluation period is starting shortly. The deadline for submission is September  15th, 2011. Please refer to the web page for the exact submission deadline (www.res.es). The utilization period will be from November, 2011 to February, 2012

You will find the area to prepare/save/submit your proposals at www.res.es.

This evaluation include evaluation for the supercomputing resources installed at the RES, Red Española de Supercomputación, including

  • Barcelona Supercomputing Center – Centro Nacional de Supercomputación
  • CESVIMA
  • Instituto Astrofísico de Canarias
  • Universidad de Cantabria
  • Universidad de Malaga
  • Universidad de Valencia
  • Universidad de Zaragoza
  • Instituto Tecnologico de Canarias

This period will grant users to the systems from November 2011 to february 2012, with a total computing capacity over 24 million hours.  Please notice, that this period is 4 months duration.

Do not hesitate to contact applications@bsc.es for further help.

 

Call for compunting time at the CGS

 

Supercomputing at the leading edge

It is the mission of the Gauss Centre for Supercomputing (GCS) to offer computing power of the highest performance class for computational sciences and engineering at its three member sites in Garching (Leibniz Supercomputing Centre, LRZ), Juelich (Juelich Supercomputing Centre, JSC), and Stuttgart (High Performance Computing Center Stuttgart, HLRS). To ensure a most efficient utilisation of these highly valuable resources, GCS provides its users with worldleading support, education, and dissemination of best practices and methods in simulation science. GCS aims, in particular, at innovative and scientifically challenging large scaleprojects that cannot be carried out within smaller  infrastructures. Such projects will also benefit most from the existing successful support structures within the GCS and from their continuous synchronisation and optimisation.

State-of-the-art systems

The GCS offers a highest-level computing and networking infrastructure. At JSC the first European PetaFlop Supercomputer, a 72 rack IBM Blue Gene/P system is available; HLRS provides the first installation step of HERMIT based on CRAY XE6 with AMD Interlagos and Gemini Interconnect with more than 1 PetaFlop/s; and LRZ offers its new IBM iDataPlex as a migration system for its upcoming Petascale system. The architectures of these machines are complementary and can accommodate a broad spectrum of applications. The systems within the GCS are continuously upgraded in a round robin fashion.

Large-Scale Projects

Large-scale projects and highly scalable parallel applications are characterised by large computing time requirements, not only for short time frames, but frequently for longer time periods. The GCS centres will guarantee that large-scale projects can fully utilise the assigned resources, if necessary at the expense of normal or smaller projects.

Projects are classified as “Large-Scale”, if they require more than 5% of the potentially available CPU cycles on a member centre’s high-end system, i.e.

  • More than 70 Mill. core-hours at JSC (corresponding to 24 rack months IBM BG/P).
  • More than 30 Mill. core-hours at HLRS (HERMIT Step 1).
  • More than 4 Mill. core-hours at LRZ (IBM iDataPlex, Migration System for SuperMUC)

For these large-scale projects a competitive review and resource allocation process is established by the GCS. Requests for resources below these limits will be accepted by the individual member centres. Requests above these limits will be handed over to GCS, handled according to the joint procedures, and will be reviewed in the national context. Projects of smaller scale will be still handled by the local GCS member site.

A “Call for Large-Scale Projects” is published by the Gauss Centre twice a year. Dates for closure of calls are usually at the end of February and at the end of August of each year.

Eligible are applications from publicly funded academic and researchinstitutions, e.g., universities, Max-Planck Society and Helmholtz Association.

The deadline for the current call is 31 August 2011, 17:00.

The next call will be issued in January 2012.

Answering the Call

Leading, ground-breaking projects should deal with complex, demanding, innovative simula-tions that would not be possible without the GCS infrastructure, and which can benefit from the exceptional resources provided by GCS. Application for a large-scale project should be performed by filling in the electronic application form that can be accessed from the GCS web page “Computing Time”:

http://www.gauss-centre.eu/computing-time

Note that the regular application forms of the GCS member centres can be reached from there, and users are encouraged to choose a centre that provides the architecture and software most appropriate for their programs.

The proposals for large-scale projects will be first reviewed with respect to their technical feasibility. Afterwards, they will be peer-reviewed for a comparative scientific evaluation. On the basis of this evaluation by a GCS committee the projects will be approved for a period of one year and given their allocations.

Criteria for decision

Applications for compute resources are evaluated only according to their scientific excellence.

  • The proposed scientific tasks must be scientifically challenging, and their treatment must be of substantial interest.
  • Clear scientific goals and verifiable milestones on the way to reach these goals.
  • The implementation must be technically feasible on the available computing system, and must be in proportion to the performance characteristics of these systems.
  • The Principal Investigator must have a proven scientific record, and she/he must be able to successfully accomplish the proposed tasks. In particular, applicants must possess the necessary specialized know-how for the effective use of high-end computing systems. This has to be proven in the application for compute resources, e.g. by presenting work done on smaller computing systems, scaling studies etc.
  • The specific features of the high-end computers should be optimally exploited by the program implemen-tations. This will be checked regularly during the course of the project.

Further Information

For further help please contact the member sites via
http://www.gauss-centre.eu/contacts

Current call as pdf:
http://www.gauss-centre.eu/datapool/page/71/GaussCall6.pdf

 

 

[Arina 5] scr > qsub geom_52.gausspbs
84840.arina

Jornadas Freedom for Hardware & Communications

 

Las jornadas f4hc, Freedom for Hardware & Communications, organizadas por itsas, grupo promotor del software y las tecnologías libres en el ámbito de la UPV/EHU tiene por objetivos:

  1. Ser un escaparate en el cual mostrar casos de éxito y novedades en tecnologías relacionadas con hardware libre así como software libre empleado en dispositivos y soluciones del ámbito de las telecomunicaciones.
  2. Fomentar el interés por el hardware y software libres, tanto en empresas del sector de las TICs como en el alumnado y profesorado de la UPV/EHU.
  3. Ser un canal de contacto entre empresas, y de éstas con el alumnado, a fin de resaltar el papel del software libre como motor potencial para la economía local y el conocimiento universal.

 

Jueves 14 y viernes 15 de julio tendrán lugar en el Bizkaia Aretoa de Bilbao.

 

Más información en Freedom for Hardware & Communications

 

 

En las fronteras de la ciencia y la computación

 

El objetivo general del curso es proporcionar una visión de conjunto de las tecnologías de computación actuales, y cómo éstas son utilizadas para la obtención de nuevos descubrimientos científicos y desarrollos tecnológicos. Se revisará cómo la computación se implica con la tecnología, produciendo nuevos desarrollos que llegan a la sociedad en su conjunto.

 

En las fronteras de la ciencia y la computación

Sevilla, 12-09-2011 – 16-09-2011
Presencial – Precio: 115.00 €

 

Más información y detalles

Universidad Internacional de Andalucía

 

 

 

Computación científica en GPUs con CUDA

Por Eneko Mateo[1,2], Alexander Mendiburu[2], José Miguel-Alonso[2]

Hasta hace poco lo habitual para la computación en paralelo era unir varios procesadores o montar clústeres (grupos de ordenadores comunicados entre sí), pero ¿es el procesador el único elemento del ordenador que realiza cálculos?

Obviamente no. Las tarjetas gráficas realizan gran cantidad de cálculos al tratar las imágenes. A la utilización de estos dispositivos para realizar computación de propósito general se la denomina GPGPU (general-purpose computing on graphics procesing units).

Para entender un poco mejor por qué se pueden realizar estos cálculos, veamos a grandes rasgos la evolución tanto de las tarjetas gráficas  como de los microprocesadores. Las tarjetas gráficas (GPGPUs) tomaron una dirección muy diferente a la de los procesadores (CPUs). Mientras que los procesadores tomaron el camino de ser elementos de computación general, las tarjetas gráficas se especializaron en el tratamiento de imágenes digitales. Esto provocó que ambas arquitecturas se fueran distanciando y, mientras las CPUs se hacían con más memoria cache para almacenar y manejar diferentes datos con mayor facilidad, las GPUs se hacían con más unidades de cálculo (más sencillas que las integradas en las CPUs), puesto que su principal trabajo era realizar las mismas tareas múltiples veces sobre diferentes datos.

Por las cualidades que ofrecen las GPGPUs, ya sea su gran nivel de paralelismo o su reducido coste en comparación con un superordenador, nos ha parecido interesante realizar un acercamiento a esta nueva tecnología para averiguar cuál es su rendimiento, así como hacia dónde podría evolucionar.

 

CUDA

CUDA son las siglas de Compute Unified Device Architecture, que hace referencia tanto a la arquitectura utilizada en tarjetas gráficas NVIDIA como a un conjunto de herramientas de desarrollo creadas por esta compañía. CUDA pone al alcance de los programadores la posibilidad de desarrollar, en un lenguaje de programación común en contextos científico-técnicos (C, Fortran), aplicaciones que exploten el paralelismo masivo ofrecido por las GPUs.

CUDA no es el único modo de crear aplicaciones de propósito general sobre GPUs, pero sí es uno de los primeros; debido a eso hay disponibles múltiples recursos (libros, artículos, páginas web y foros) que ofrecen abundante información [3][4]. La competencia más directa en estos momentos es OpenCL (Open Computing Lenguage o Lenguaje de Computación Abierto) [5], que es un estándar abierto y puede ejecutarse tanto en GPUs como CPUs. Otra ventaja de este estándar emergente es que puede funcionar tanto en tarjetas NVIDIA como AMD/ATI.

CUDA processing flow

Figura. Flujo de Ejecución de CUDA (6)

Como se puede apreciar en la figura, el flujo de ejecución de CUDA es bastante sencillo. En primer lugar se copian los datos desde la memoria principal a la memoria de la GPU (1). Luego el procesador dispara la puesta en marcha de la ejecución en paralelo (2). La tarjeta gráfica se encarga de la ejecución en paralelo (3). Y para terminar se copian los resultados de la memoria de la GPU a la memoria principal (4).

 

El presente e inmediato futuro de la supercomputación está en la hibridación entre miles CPUs y de GPGPUs trabajando de forma cooperativa, las primeras llevando a cabo la lógica principal de la aplicación y las segundas realizando tareas de aceleración de las partes más costosas del código. Las GPUs no son la única alternativa a la computación híbrida: se ha trabajado con procesadores Cell y con FPGAs. Pero, por el momento, es la de más éxito, y la más accesible. Es de gran importancia, por tanto, conocer cómo explotar de forma eficiente estos potentes dispositivos.

 

GPUs en la UPV/EHU

El IZO-SGI dispone de nodos con estás caráterísticas.

 

[1] IZO-SGI.
[2] Intelligent Systems Group.
[3] Nvidia CUDA zone.
[4] Nvidia forum.
[5] Khronos Group. OpenCL.
[6] Wikimedia Commons.

 

Curso I-MATH de software libre orientado a ciencias e ingeniería

El curso, orientado a investigadores, técnicos de empresas y alumnos de grado y Máster, pretende mostrar la gran capacidad actual del software libre para resolver problemas estándar en Ciencias e Ingeniería. En particular, para el curso se han elegido paquetes de software muy testeados y de gran difusión en el contexto académico y que recorren desde software matemático básico hasta software más avanzado con orientación hacia la Matemática Discreta, la Estadística, el Diseño Asistido por Ordenador o la Simulación Numérica de diversos procesos físicos que puedan llegar a acoplarse entre ellos.

 

IV Curso intensivo I-MATH de software libre orientado a ciencias e ingeniería

Del 27 de junio al 16 de septiembre de 2011

Materias

El curso se compone de las seis materias siguientes:
1. Simulación Termomecánica de Procesos: Salome y Code-Aster (STM): Del 4 al 8 de julio de 2011 en Santiago de Compostela.
2. Simulación en Multifísica: ELMER (SMF): Del 27 de junio al 1 de julio de 2011 en A Coruña.
3. Entorno Estadístico R (EER): Del 12 al 16 de septiembre de 2011 en Santiago de Compostela.
4. Programación en Python orientado a la Ingeniería (LP): Del 5 al 9 de septiembre de 2011 en Santiago de Compostela.
5. Simulación en dinámica de fluidos con OpenFOAM (CFD): Del 18 al 22 de julio de 2011 en Vigo.
6. Simulación numérica con FreeFEM (FEM): Del 4 al 8 de julio de 2011 en Cádiz.

Más información

Se puede consultar toda la información relativa a esta cuarta edición y realizar la inscripción en la página web:
http://mathematica.nodo.cesga.es/SoftwareLibre

 

 

 

Schrödinger Workshop in Barcelona

 

A medium to advanced Schrödinger hands-on workshop that will take place on Thursday the 9th of June 2011 at CESCA facilities in Barcelona.

 

Schrödinger

Schrödinger offers products from general molecular modeling programs to a comprehensive suite of drug design software including both ligand- and structure‑based methods. The IZO-SGI Computing Service has several of them.

 

Schrödinger Workshop

Advanced hands-on: Computational Drug Discovery – Exploring Various Approaches for Novel Hit Identification

Agenda

09:30                     Welcome
09:45                     Target structure prediction, refinement and characterization
12:30                     Lunch
13:30                     Virtual Screening part 1: Docking and post-docking processing
15:00                     Virtual screening part 2: Cheminformatics, pharmacophore and shape-based searching
17:00                     Summary

Preparation

Maestro is the unified interface for all Schrödinger software and is available to all academic users at no charge. If you are not yet using Maestro on a regular basis, please request a license so that you can prepare yourself for this advanced workshop: http://www.schrodinger.com/downloadcenter/10/. Also, feel free to contact the Drug Design Service support at CESCA (sdf@suport.cesca.cat) for a basic Maestro introduction.

Registration

Participation in this workshop is free of charge, but we kindly ask you to register at your earliest convenience as seats are limited. To register, please e-mail Katia.Dekimeche@schrodinger.com with your name, department and contact information.

 

 

 

Seminario Fronteras de la Computación

 

El Seminario Fronteras de la Computación  está dirigido especialmente a estudiantes universitarios y a investigadores jóvenes, con la idea de ofrecerles una visión panorámica de distintos temas relacionados con la computación en los que haya I+D activo en España. Las ponencias serán en lengua castellana y se impartirán por prestigiosos investigadores que trabajan tanto en organismos públicos de investigación como en empresas. De esta manera se pretende que los asistentes tengan más criterios de elección sobre los temas en los que desean trabajar y los ámbitos profesionales en los que desean formar parte.

 

Seminario Fronteras de la Computación

Benasque del 17 al 22 de julio de 2011

Inscripciones antes del 31 de Mayo

Programa, las instrucciones de registro y más información.