Laboratorio de Paralelismo

Anuncio
FACULTAD DE INFORMÁTICA
DPTO. DE ARQUITECTURA Y TECNOLOGÍA DE COMPUTADORES, KAT-ATC
Laboratorio de Paralelismo
www.sc.ehu.es/arpar
Javier Muguerza
[email protected]
Agustin Arruabarrena
[email protected]
A lo largo de la asignatura Arquitecturas Paralelas hemos estudiado la estructura de los sistemas paralelos
—máquinas de memoria común y máquinas de memoria distribuida— así como los principales problemas
nuevos que hay que resolver para poder disponer de máquinas paralelas de alto rendimiento —coherencia
de los datos, sincronización de procesos, red de comunicación…—. Junto con ello, hemos estudiado
algunas de las técnicas más habituales para poder ejecutar en paralelo, de manera eficiente, programas
(bucles) de alto coste computacional: análisis de dependencias, optimizaciones, scheduling de bucles…
En esta asignatura (9 créditos: 4 t + 5 p) vamos a trabajar con las herramientas más extendidas para
programar aplicaciones en paralelo: OpenMP en el caso máquinas de memoria común y MPI para
máquinas de memoria distribuida, junto con UPC, una extensión de C para sistemas paralelos de memoria
común distribuida. Mediante el uso de diferentes programas ejemplo, iremos viendo las posibilidades de
ambos APIs, así como una metodología de programación en paralelo.
La evaluación de la asignatura se hará en base a la asistencia y participación en las sesiones de
clase/laboratorio junto con los trabajos prácticos obligatorios realizados durante el curso; la nota se puede
completar, de manera optativa, desarrollando, de manera individual, alguna aplicación paralela o
realizando un estudio sobre otros temas de interés, tales como organización y gestión de clusters, grid
computing, protocolos de comunicación de alto rendimiento, entrada/salida paralela, tolerancia a fallos,
herramientas de desarrollo, etc.
PROGRAMA de la ASIGNATURA
0. REVISIÓN DE CONCEPTOS (breve repaso)
1.1 Estructura de los sistemas paralelos: máquinas SMP, DSM y MPP; Clusters. Situación actual.
1.2 Infraestructura de comunicaciones. Paso de mensajes. Protocolos de comunicación de alto
rendimiento.
1.3 Coherencia de los datos. Sincronización de procesos. Modelo de consistencia de la memoria.
1.4 Modelos de paralelismo. Análisis de dependencias. Principales optimizaciones.
1.5 Rendimiento del sistema paralelo.
1.6 Ejercicios. Redacción de informes técnicos; presentación de resultados.
1.
PROGRAMACIÓN DE SISTEMAS DE MEMORIA COMPARTIDA (SMP): OpenMP.
2.1
2.2
2.3
2.4
2.5
2.6
Introducción.
Regiones paralelas. Gestión de threads; ámbito de las variables.
Reparto de tareas. Paralelización y planificación de bucles. Secciones paralelas.
Sincronización de los threads: secciones críticas, cerrojos, eventos y barreras.
Otras cuestiones: carreras y deadlocks. Análisis del rendimiento.
Ejercicios prácticos.
3.
PROGRAMACIÓN DE SISTEMAS DE MEMORIA DISTRIBUIDA: MPI.
3.1
3.2
3.3
3.4
3.5
3.6
3.7
3.8
3.9
Introducción.
Funciones MPI básicas: inicio y control de procesos; envío y recepción de mensajes.
Otros modos de comunicación punto a punto: síncrona, inmediata...
Funciones de comunicación colectiva. Cálculo en grupo. Sincronización.
Tipos de datos derivados: vector, indexed, struct…. Empaquetamiento de datos.
Comunicadores y topologías.
Entrada/salida paralela (introducción)
Otras cuestiones: rendimiento, debugging, profiling...
Ejercicios prácticos.
4.
TIPOS DE PROBLEMAS PARALELOS.
UNA METODOLOGÍA DE DESARROLLO DE PROGRAMAS PARALELOS.
5.
OTRAS ALTERNATIVAS: UPC, unified parallel C.
5.1
5.2
5.3
5.4
5.5
5.6
6.
Introducción.
Variables y punteros. Movimiento de datos. Memoria dinámica.
Reparto de tareas (work sharing).
Sincronización y consistencia.
Operaciones colectivas.
Conclusiones.
(OPTATIVO) TRABAJOS COMPLEMENTARIOS.
BIBLIOGRAFÍA
(para cuestiones específicas del tema 1, ver bibliografía de la asignatura Arquitecturas Paralelas)
1.
2.
R. Chandra et al.: Parallel programming in OpenMP. Morgan Kaufmann, 2001.
B. Chapman et al.: Using OpenMP. Portable shared memory parallel programming. The MIT Press,
2008.
3.
4.
5.
P.S. Pacheco: Parallel Programming with MPI. Morgan Kaufmann, 1997.
W. Groop et al: Using MPI. Portable Parallel Programming with the Message Passing Interface.
The MIT Press, 1999.
M. Snir et al: MPI. The complete reference (vol. 1 & 2). The MIT Press, 1998.
6.
T. El-Ghazawi et al.: UPC: Distributed Shared Memory programming. J. Wiley, 2005.
7.
8.
F. Almeida et al.: Introducción a la Programación Paralela. Paraninfo, 2008.
B. Wilkinson, M. Allen: Parallel Programming. Techniques and applications using networked
workstations and parallel computers. Pearson, 2005.
9. M.J. Quinn: Parallel Programming in C with MPI and OpenMP. McGraw-Hill, 2004.
10. A. Grama et al.: Introduction to Parallel Computing (2. ed.). Pearson, 2003.
11. I. Foster: Designing and Building Parallel Programs. Addison Wesley, 1995. (existe una versión on
line actualizada con mucha información complementaria en www-unix.mcs.anl.gov/dbpp/)
Otros temas complementarios:
1.
2.
3.
4.
T. Sterling: Beowulf Cluster Computing with Linux. The MIT Press, 2002.
J.D. Sloan: High Performance Linux Cluster with OSCAR, Rocks, OpenMosix & MPI. O´Reilly,
2005.
I. Foster et al: The Grid 2. Morgan Kaufmann, 2004.
J. May: Parallel I/O for High Performance Computing. Morgan Kaufmann, 2001.
Algunas direcciones útiles para la asignatura:
www.top500.org
Cantidad de información sobre los 500 computadores más rápidos del mundo. Se actualiza cada seis meses. A
partir de dicha página se puede acceder a multitud de otras páginas.
www.openmp.org
www.compunity.org.
Páginas principales de OpenMP, estándar de programación paralela para sistemas de memoria compartida..
www-unix.mcs.anl.gov/mpi
www.lam-mpi.org
Páginas de MPI, el estándar de programación paralela mediante paso de mensajes, y de sus dos implementaciones
libres más utilizadas, mpich y lam.
upc.lbl.gov
upc.gwu.edu
www.intrepid.com/upc.html
Páginas principales de UPC, extensión de C para programar sistemas paralelos de memoria común distribuida.
Otros sitios web interesantes:
www.ieeetcsc.org / www.beowulf.org
Páginas web sobre clusters y cluster computing
www.globus.org / www.gridcomputing.org / gridcafe.web.cern.ch/gridcafe
Páginas web de Grid Computing
www.infinibandta.org / www.myri.com
Infraestructura de comunicación, para clusters y sistemas SAN
Evaluación de la asignatura
La evaluación de la asignatura se va a hacer de acuerdo a los siguientes criterios:
- Obligatorio:
1. Asistencia y participación activa en las sesiones de clase y
laboratorio (> 70%).........................................................................................2 puntos
2. Ejercicios obligatorios (junto con un informe de resultados) .......................6,5 puntos
- Optativo:
3. Ejercicios optativos (junto con un informe de resultados) .............................2,5 puntos
4. Trabajos optativos sobre temas complementarios ........................................2,5 puntos
(en ambos casos, a elegir de las propuestas que haremos durante el
curso, o, mejor aún, a propuesta del alumno)
[ 5. Examen escrito/de laboratorio (alternativa a 3/4) .........................................2 puntos ]
Los ejercicios del punto 2 se evalúan en conjunto al grupo de trabajo (max. dos personas). Los ejercicios y
trabajos optativos, en cambio, son individuales (o, en su caso, en grupo, en función de la entidad del
trabajo escogido).
Se evaluarán las soluciones propuestas, las pruebas realizadas y los resultados obtenidos, así como
aspectos formales de los informes de resultados: redacción, estructuración y presentación.
Se pueden estudiar casos particulares de evaluación a petición del alumno/a al comienzo del curso.
Descargar