miércoles, 12 de noviembre de 2014

4.5 Casos de estudio.

Por numerosos motivos, el procesamiento distribuido se ha convertido en un área de gran importancia e interés dentro de la Ciencia de la Computación, produciendo profundas transformaciones en las líneas de I/D.

Interesa realizar investigación en la especificación, transformación, optimización y evaluación de algoritmos distribuidos y paralelos. Esto incluye el diseño y desarrollo de sistemas paralelos, la transformación de algoritmos secuenciales en paralelos, y las métricas de evaluación de performance sobre distintas plataformas de soporte (hardware y software). Más allá de las mejoras constantes en las arquitecturas físicas de soporte, uno de los mayores desafíos se centra en cómo aprovechar al máximo la potencia de las mismas.

Interesa realizar investigación en la especificación, transformación, optimización y evaluación de algoritmos distribuidos y paralelos. Esto incluye el diseño y desarrollo de sistemas paralelos, la transformación de algoritmos secuenciales en paralelos, y las métricas de evaluación de performance sobre distintas plataformas de soporte (hardware y software). Más allá de las mejoras constantes en las arquitecturas físicas de soporte, uno de los mayores desafíos se centra en cómo aprovechar al máximo la potencia de las mismas.

Líneas De Investigación Y Desarrollo
  • Paralelización de algoritmos secuenciales. Diseño y optimización de algoritmos.
  • Arquitecturas multicore y multithreading en multicore.
  • Arquitecturas multiprocesador.
  • Modelos de representación y predicción de performance de algoritmos paralelos.
  • Mapping y scheduling de aplicaciones paralelas sobre distintas arquitecturas multiprocesador.
  • Métricas del paralelismo. Speedup, eficiencia, rendimiento, granularidad, superlinealidad.
  • Balance de carga estático y dinámico. Técnicas de balanceo de carga.
  • Análisis de los problemas de migración y asignación óptima de procesos y datos a procesadores. Migración dinámica.
  • Patrones de diseño de algoritmos paralelos.
  • Escalabilidad de algoritmos paralelos en arquitecturas multiprocesador distribuidas.
  • Implementación de soluciones sobre diferentes modelos de arquitectura homogéneas y heterogéneas (multicores, clusters, multiclusters y grid). Ajuste del modelo de software al modelo de hardware, a fin de optimizar el sistema paralelo.
  • Evaluación de performance.
  • Laboratorios remotos para el acceso transparente a recursos de cómputo paralelo.


Grandes empresas y sus implementaciones con procesamiento paralelo:

NVIDIA
PYSICS LAYER:
  • GPU PhysX
  • CPU PhysX
Graphics Layer:
  • GPU –DirectX Windows

INTEL
PYSICS LAYER:
  • No GPU PhysX
  • CPU Havok
Graphics Layer:
  • GPU –Direct X Windows

AMD
PYSICS LAYER:
  • No GPU PhysX
CPU Havok
  • Graphics Layer:
  • GPU –DirectX Windows

3 comentarios: