Technische Details zum Cluster

Alles zu unserer Maschine mit purer Rechenkraft (nur registrierte Benutzer)
Nachricht
Autor
^r00t^

Technische Details zum Cluster

#1 Ungelesener Beitrag von ^r00t^ » 10.12.2003 12:41

Aufgrund mehrfacher Anfragen hier eine kleine Beschreibung, wie unser Cluster Softwareseitig aufgebaut ist. (bzw. sein wird. ;-) )

Wir haben atm 3 Rechner.
Einer ist der Master. Er fungiert bei mir zu Hause gleichzeitig als DSL Router, da ich keinen Hardware router habe. (wenn jemand einen spenden möchte, immer her damit)
Der Master hat eine Festplatte, von der er bootet. Auf ihr befinden sich auch die "home dirs" der Clients.
Diese haben keine Festplatten. Sie booten über die eingebaute Netzwerkkarte. Das Bios der Clients holt sich beim Start per DHCP eine IP Adresse vom Master. Danach bekommt er einen bootloader, der normalerweise im MBR der Festplatte liegt. Das regelt PXElinux für uns (http://linuxwiki.de/PXELINUX).
Der Bootloader holt sich per tftp den Kernel und bootet diesen dann.
Der Linux kernel holt sich dann erneut eine IP Adresse per DHCP (Linux benutzt keine BIOS Vorgaben) und mountet dann per NFS das Root-Filesystem. Dann bootet er durch und startet einen dc client.

Thats it... ganz einfach. :zzz:
Naja... leider war es das nicht... aber so läufts.

Ich möchte hier nochmal betonen, dass jeder client also seine eigenen WU's berechnet. Alles andere macht bei DC keinen Sinn, da durch die Verteilung einer WU auf mehrere clients zu viel Overhead entstehen würde. So rechnet jeder client mit voller power an einer WU und wir haben somit optimale Ausnutzung der Resourcen.
Es kann natürlich jeder Rechner an einem anderen Projekt rechnen, wenn das gewünscht ist.

r00t

Thrower

#2 Ungelesener Beitrag von Thrower » 20.01.2004 14:42

wieviele Node ID's hat der Cluster, oder rechen alle Rechner mit einer Node.prp


Thrower

Pascal

#3 Ungelesener Beitrag von Pascal » 20.01.2004 14:54

Thrower hat geschrieben:wieviele Node ID's hat der Cluster, oder rechen alle Rechner mit einer Node.prp
Ähm...die Node.prp bräuchte man lediglich bei TSC. Alle drei Nodes des Clusters (1 Master und 2 Slaves zur Zeit) werden immer die gleiche ID haben, d.h. unter einem Account rechnen.

Thrower

#4 Ungelesener Beitrag von Thrower » 20.01.2004 15:17

Pascal hat geschrieben:
Thrower hat geschrieben:wieviele Node ID's hat der Cluster, oder rechen alle Rechner mit einer Node.prp
Ähm...die Node.prp bräuchte man lediglich bei TSC. Alle drei Nodes des Clusters (1 Master und 2 Slaves zur Zeit) werden immer die gleiche ID haben, d.h. unter einem Account rechnen.
Ähm Sorry, ich ging davon aus das der Cluster bei TSC rechnet. naja was solls

Aber trotzdem Danke nun weiß ich erstaml mehr.
Oben habt ihr ja den Cluster Softwarseitig beschrieben, habt ihr das auch schon von der Hardware Seite gemacht??? Ich wüsste gerne was ich dazu benötige. Evtl ist ja nicht alles Standart, oder nicht alles eignet sich dafür.

Danke schonmal, Thrower

Pascal

#5 Ungelesener Beitrag von Pascal » 20.01.2004 15:19

Steht hier alles im Forum - such einfach mal ein wenig.

^r00t^

#6 Ungelesener Beitrag von ^r00t^ » 20.01.2004 15:24

Über die zu kaufenden Hardware wurde ja hier im Forum wohl lang und breit diskutiert... nforce2 Boards funktionieren jedenfalls super. ;-)

Thrower

#7 Ungelesener Beitrag von Thrower » 20.01.2004 16:02

^r00t^ hat geschrieben:Über die zu kaufenden Hardware wurde ja hier im Forum wohl lang und breit diskutiert... nforce2 Boards funktionieren jedenfalls super. ;-)
ja, das stimmt, diskutiert wurde viel. Habe gerade so an die 20 Seiten durchgeblättert. So richtig schlau bin ichaber immernochnicht. Da kann aber auch an mir liegen, grins

Werde dann mal weiter suchen, bin ja noch jung. lach

Thrower

^r00t^

#8 Ungelesener Beitrag von ^r00t^ » 20.01.2004 16:20

Da gibts ja nicht viel zu suchen:

Shuttle Board
Athlon CPU
MDT Ram
Netzteil
eine HD
ein 100Mbit Hub
Patchkabel

Mehr brauchst Du nicht... ach doch: Viel Nerven und Zeit.
Aber wenn es läuft, dann läuft es... uptime > 30 Tage.

Dennis Kautz
Vereinsmitglied
Vereinsmitglied
Beiträge: 4742
Registriert: 22.02.2003 02:12
Kontaktdaten:

#9 Ungelesener Beitrag von Dennis Kautz » 20.01.2004 23:15

Wie wärs denn mal, wenn wir die Hopies zum Duell rausfordern? :biggun: So Cluster gegen Cluster? :robot:

Pascal

#10 Ungelesener Beitrag von Pascal » 20.01.2004 23:18

frost hat geschrieben:Wie wärs denn mal, wenn wir die Hopies zum Duell rausfordern? :biggun: So Cluster gegen Cluster? :robot:
Wäre durchaus reizvoll. Die sind ja auch ein ganz netter Haufen. Zu allererst müssen wir da mal Details ranschaffen. Frosti...guck du doch schon mal wo der Cluster steht und was er rechnet :D

Dennis Kautz
Vereinsmitglied
Vereinsmitglied
Beiträge: 4742
Registriert: 22.02.2003 02:12
Kontaktdaten:

#11 Ungelesener Beitrag von Dennis Kautz » 20.01.2004 23:28

Der Cluster ist bei TSC@Hope im Team auf Platz 62 (Tendenz aber stark steigend):

http://vadp.com/index.php?site=1&rows=1 ... user=44438

Über die Hardware kann ich nichts sagen, aber Thrower klärt uns bestimmt darüber auf :evil2:

^r00t^

#12 Ungelesener Beitrag von ^r00t^ » 20.01.2004 23:32

Die haben nur alte Gurken, die sie bei unterschiedlichen Leuten untergestellt haben... kein richtiger Cluster wie bei uns, sondern nur mehrere Rechner, die unter einem Account rechnen... ;-)

Antworten

Zurück zu „Unser Cluster“