Alternativas de diseño en memoria cache de primer nivel multibanco

  1. TORRES MORENO, ENRIQUE FERMÍN
Dirixida por:
  1. Pablo Enrique Ibáñez Marín Director
  2. Víctor Viñals Yufera Co-director

Universidade de defensa: Universidad de Zaragoza

Fecha de defensa: 30 de xuño de 2005

Tribunal:
  1. Mateo Valero Cortés Presidente/a
  2. José Luis Briz Velasco Secretario/a
  3. Agustin de Dios Hernández Vogal
  4. Emilio Luque Fadón Vogal

Tipo: Tese

Teseo: 127025 DIALNET

Resumo

Una solución prometedora para la distribución del primer nivel de cache es la separación del camino de datos a memoria en secciones. Gracias a la predicción de banco previa a iniciar las instrucciones de acceso a memoria y agrupando en cada camino de datos a memoria las unidades generadoras de dirección, el banco de memoria y las unidades consumidoras se consigue el ansiado ancho de banda de baja latencia necesario para conseguir alto rendimiento. En este trabajo nos centramos en la distribución tanto de los bancos de cache como de las estructuras de acceso a memoria situadas en el camino crítico del suministro load-uso. En concreto, plantearemos predictores de banco fácilmente implementables y que permitan realizar varias predicciones por ciclo. Propondremos mecanismos de recuperación en caso de error de predicción de latencia que funcionen adecuadamente en sistemas con altas tasas de ejecución especulativa de instrucciones. Analizaremos politicas conservadoras para iniciar la ejecución de un load a varios bancos para reducir la latencia load-uso en caso de error de predicción de banco. Estudiaremos técnicas de partición escalable con estrategias de distribución y replicación de contenidos que disminuyan conflictos sin degradar otras tasas de error. Y por último, abordaremos la distribucción del Store Buffer con el objetivo de suministrar datos de stores en vuelo a loads dependientes a latencia del primer nivel de cache mientras se mantiene un número elevado de stores en vuelo.