source: trunk/IPs/systemC/processor/Morpheo/Documentation/Source/Documents/poster-jnrdm_2007/fr/root.tex @ 23

Last change on this file since 23 was 23, checked in by rosiere, 17 years ago

Documentation pour chaque composant.
Documentation : ajout d'un poster et d'un article.
RegisterFile_Multi_Banked_Glue - non encore stable.

File size: 8.4 KB
Line 
1\setlength{\columnseprule}{0pt}
2\renewcommand{\labelitemi}{$\star$}
3\renewcommand{\labelitemii}{$\star$}
4
5%%%% Begin of Multicols-Environnent
6\begin{center}
7  {\it Ceci est une étude de performance sur l'incidence du partage par les contextes matériels d'un processeur, de ces caches de niveau 1, de sa partie opérative et de sa partie exécutive.
8    Nous montrons que le partage de la partie exécutive n'a que peu d'incidence sur les performances, alors que le partage des caches fait perdre 10\% de performances et que le partage de la partie opérative fait tomber les performances d'un facteur de 2,7 entre un CMP de degré 4 et un SMT de même degré. }
9\end{center}
10%\vspace*{1cm}
11\Section{\large{Là où tous commence}}
12        {
13          \begin{multicols}{3}
14           
15            {\bf Exploitation des différentes formes de parallélisme}
16
17            \begin{description}
18            \item[Intra flot :] Exploitation de l'ILP : les instructions indépendantes entre elles peuvent s'exécuter en parallèle\newline
19              Limitation intrinsèque au software. (La taille des paquets contient au maximum 3 et 5 instructions)
20            \item[Inter flot :] Exploitation du TLP   : les instructions sont prisent de plusieurs contexte. \newline
21              Limitation intrinsèque au système cible. (L'application doit pouvoir être découpée en tâche équilibrée)
22            \end{description}
23
24            \printgraph{GENERAL_type_of_multi_thread}{0.5}
25
26            \begin{description}
27            \item[CMP     :] L'intégralité des ressources d'un coeur sont dédiées   à un contexte. (\cite{2000_barroso}) %, \cite{2000_hammond})
28            \item[SMT     :] L'intégralité des ressources d'un coeur sont partagées entre tous les contextes. (\cite{1996_tullsen})%, \cite{2003_koufaty})\\
29              Dans le cas où il n'y a qu'un seul thread à exécuter, ce dernier pourra utiliser l'intégralité des ressources du processeur.
30            \item[Hybride :] Multitude de possibilité de partage des ressources internes. (\cite{2004_kalla}) %, \cite{2005_mcnairy})\\
31              Une ressource est soit dédiée à un contexte soit partagée entre un certain nombre de contextes.
32            \end{description}
33
34          \end{multicols}
35}
36       
37%\vspace*{1cm}
38       
39\Section{\large{Sous le capot}}
40{
41  \begin{multicols}{2}
42   
43    \printgraph{MORPHEO_micro_architecture-overview}{0.48}
44   
45    \begin{multicols}{2}
46     
47      {\bf Services Offerts}
48     
49      \begin{itemize}
50      \item Configuration d'une instance
51      \item Génération du VHDL synthétisable
52      \item Simulation haut niveau ({\it SystemC})
53      \item Outils de visualisation architecturale
54      \item Lors de la simulation :
55        \begin{itemize}
56        \item Génération de TestBench pour tester le VHDL
57        \item Génération de Statistiques
58        \end{itemize}
59      \end{itemize}
60     
61      \printgraph{MORPHEO_service}{0.48}
62     
63    \end{multicols}
64  \end{multicols}
65}
66
67\Section{\large{Expérimentations}}
68{
69  \begin{multicols}{3}
70    {\bf Incidence du partage des caches, des Unités d'exécutions et de la partie opérative.}
71   
72    \printgraph{MORPHEO_micro_architecture-groupement}{}
73
74   
75    \printgraph{simulation_all}{}
76
77    \begin{itemize}
78    \item Benchmark : SPECINT2000 (164.gzip, 175.vpr, 181.mcf, 255.vortex, 256.bzip2, 300.twolf).
79    \item Pour les librairies standard (libc et libm) ainsi que les fonctions bas niveaux (read, write, open, close ...), nous utilisons la librairie {\it Newlib}.
80    \item Détermine l'accélération de l'execution parrallèle sur l'execution séquentiel
81    \end{itemize}
82       
83  \end{multicols}
84}
85
86%\begin{multicols}{3}
87%{
88%  L'expérimentation ce fait avec le générateur de processeur Morpheo (``Multi ORganisation Processor with HEterogeneous and Open architecture'').
89%
90%  %Notre approche consiste à tester l'incidence du partage des caches, des Unités d'exécutions et de la partie opérative.
91
92%  Considérons ces trois degrés de partage :
93%  \begin{description}
94%  \item[Coeur              :] Les coeurs   ce partage les caches de niveaux 2 et les unités d'exécutions.
95%  \item[Unité de lancement :] Les unités de lancement ce partage les ports des caches de niveaux 1 et les unités d'exécutions.
96%  \item[Contexte           :] Les contextes se partagent l'accès au décodeur, au Icache et au prédicteur de branchement.
97%  \end{description}
98%
99%  %\printgraph{MORPHEO_micro_architecture-overview}{0.48}
100%  \printgraph{MORPHEO_micro_architecture-groupement}{}
101%
102%}
103%
104%\Section{\large{Plate-forme logicielle}}
105%{
106%  \begin{itemize}
107%  \item Sélection de 6 benchmarks parmi ce proposé dans les SPECINT2000 (164.gzip, 175.vpr, 181.mcf, 255.vortex, 256.bzip2, 300.twolf).
108%  \item Chaque architecture est soumise à une charge de travails composée de 15 simulations.%(Le nombre de simulations est décrit par la combinaison $C_{nb\_benchmarks}^{nb\_threads}$).
109%  \item Pour les librairies standard (libc et libm) ainsi que les fonctions bas niveaux (read, write, open, close ...), nous utilisons la librairie {\it Newlib}.
110%  \end{itemize}
111%}
112%
113%\Section{\large{Résultats}}
114%{
115%  {\bf Méthodoligie :}\\\\
116%  Pour chaque instance :
117%  \begin{itemize}
118%    \item 2 ensembles de simulations
119%      \begin{itemize}
120%      \item MT = moyenne du nombre de cycles pour exécuter toutes les simulations de 4 benchs en parallèles.
121%      \item ST = moyenne du nombre de cycles pour exécuter toutes les simulations de 4 benchs en séquentiels.
122%      \end{itemize}
123%    \item Chaque simulation ce fait sur 110 millions de cycles. Les 10 premiers millions sont ignorés afin de chauffer les caches et les unités de prédictions.
124%    \item A la fin de l'ensemble des simulations, le rapport MT/ST nous donne le speed-up du multi-threading sur le single-threading
125%  \end{itemize}
126
127%  \printgraph{simulation_all}{}
128%
129%
130%  {
131%    {\bf Partage du cache}
132%    \begin{itemize}
133%    \item {\it X4-4\_1\_1-2 : 3,92} - 4 I/D caches L1 de 2k chacun pour 1 contexte.
134%    \item {\it X4-2\_2\_1-2 : 3,63} - 2 I/D caches L1 de 4k chacun pour 2 contextes.
135%    \item {\it X4-1\_4\_1-2 : 3,27} - 1 I/D cache  L1 de 8k chacun pour 4 contextes.
136%    \end{itemize}
137%  }
138%  {
139%    {\bf Partage de la partie exécutive}
140%    \begin{itemize}
141%    \item {\it X4-2\_2\_1-2 : 3,63} - 4 groupes de 2 ALUs pour 1 contexte.
142%    \item {\it X4-2\_2\_1-4 : 3,41} - 2 groupes de 4 ALUs pour 2 contextes.
143%    \item {\it X4-2\_2\_1-8 : 3,38} - 1 groupe  de 8 ALUs pour 4 contextes.
144%    \end{itemize}
145%  }
146%  {
147%    {\bf Partage de la partie opérative}
148%    \begin{itemize}
149%    \item {\it X4-1\_1\_4-8 : 1,46} - 1 cluster  possédant 1 UL  avec 4 contextes chacun.
150%    \item {\it X4-1\_2\_2-8 : 2,37} - 1 cluster  possédant 2 ULs avec 2 contextes chacun.
151%    \item {\it X4-1\_4\_1-8 : 2,94} - 1 cluster  possédant 4 ULs avec 1 contexte  chacun.
152%    \item {\it X4-2\_1\_2-8 : 2,51} - 2 clusters possédant 1 UL  avec 2 contextes chacun.
153%    \item {\it X4-2\_2\_1-8 : 3,38} - 2 clusters possédant 2 ULs avec 1 contexte  chacun.
154%    \item {\it X4-4\_1\_1-8 : 3,94} - 4 clusters possédant 1 UL  avec 1 contexte  chacun.
155%    \end{itemize}
156%  }
157%}
158%%
159%%\Section{\large{Métrique}}
160%%{
161%%  \begin{itemize}
162%%  \item Obtenir le meilleur compromis Performance / Complexité.
163%%    \begin{itemize}
164%%    \item Performance : nombre de cycles nécessaire pour éxecuter les Benchmarks.
165%%    \item Compléxité  : surface occupée du FPGA.
166%%    \end{itemize}
167%%  \item Obtenir le meilleur partage des ressources entre les contextes matériels. (Gain Performance / Coût surface).
168%%    \begin{itemize}
169%%    \item Gain en performance : rapport entre la performance MT sur la performance ST.
170%%    \item Coût en surface     : rapport entre la surface     MT sur la surface     ST.
171%%    \end{itemize}
172%%  \end{itemize}
173%%}
174%%
175
176\Section{\large{Quelques pistes à suivre}}
177{
178  \begin{multicols}{3}
179
180  Des travaux équivalents ont été réalisés.
181 
182  \begin{description}
183  \item[\cite{2004_dolbeau} :] Étude de l'influence du partage des unités à latence longue (multiplication, division...), du prédicteur de branchement, ainsi que des caches Instructions et Données.
184    %Pour ce faire, ils ont implémentés l'architecture {\bf CASH} (CMP And SMT Hybrid) qui consiste en 4 coeurs ce partageant les ressources cités.
185  \item[\cite{2004_kumar} :] Étude en terme de performance d'exécution mais également en terme de surface.
186    Les blocs concernés sont les unités flottantes, les caches de premiers niveaux, et enfin les ports du crossbar reliant les Caches à la mémoire. 
187    %Ici l'équipe de Tullsen à validée leurs hypothèses sur un système à 8 coeurs.
188    %Le partage des ressources ce fait entre deux coeurs voisins.
189  \end{description}
190
191  {\small
192  \bibliography{\dircommon/bibliographie}
193  }
194  \end{multicols}
195}
Note: See TracBrowser for help on using the repository browser.