wenn man john carmack glauben kann, dann wird es wahrscheinlcih ncith in allen bereichen eine multicore "explosion" geben. wenn ich mich recht entsinne müsste man dann jedes prog in mehrere threads aufteilen, was einen größeren proammiertechnischen aufwand mit sich zieht.
Jein - Siehe dazu auch die Postings von "grover".
Das mehr oder weniger "kunstvolle" Zerhacken von linearen Abläufen ist sicher nicht der richtig Weg, weil dieses Patchwork recht schnell im Verwaltungs-Overhead erstickt.
Es geht um eine grundsätzlich neue Denk- und Codier-weise, die dem parallelen Ansatz besser gerecht wird.
Wie das genau aussehen soll und kann, überlasse ich den Mathematikern und Informations-Theoretikern.
nachdem ich maschinenbau studier ...
Maschinenbau ist doch der Traum jedes SMP-Freaks.
Ganz egal welches Problem man ansieht - man landet immer wieder bei (dünn besetzten) Matrizen.
Bei realen Unterteilungen (z.B. Biegelinien) gibt's wenige Elemente und bei diskretisierten Anordnungen (FE) gibt es sehr große Matrizen.
Ob die dann pivotisiert (z.B. Gauß-Jordan) oder orthogonalisiert (z.B. Householder) werden sollen, ist egal - das lässt sich wunderbar auf so viele CPUs verteilen, wie das Ding Spalten oder Zeilen hat.
Im FE-Bereich sind das häufig 10^x (x >> 4).
mfg, Thomas