Clanstube Community

05. April 2025 - 03:37
 


Thema ansehen

 Thema drucken
Highend Graka Geschichten (neue gForce 88xx & Radeon HD38xx)
Dazhar
hab mal neu angefengen Wink is ja neu neue (zwischen-)generation Wink

Radeon HD3870: Crysis-Benchmark-Vergleich gegen Geforce 8800 GT
Auf iax-tech.com sind recht aussagekräftige Benchmarks zur Radeon HD3870 von AMD aufgetaucht. Im Vergleich muss sie gegen die Nvidia Geforce 8800 GT antreten. Das Ergebnis: ein Kopf-an-Kopf-Rennen.

Zwei Programme wurden zur Leistungsermittlung herangezogen: 3D Mark 06 und der Crysis-GPU-Benchmark. Während die Radeon HD3870 im synthetischen Teil des Benchmark-Parcours noch das Nachsehen hat wird es im Praxisnahen Spiele-Benchmark schon enger.

Mit 13.837 Punkten liegt die Geforce 8800 GT im 3D Mark 06 vor der Radeon HD3870, die 12.590 Punkte erreicht. Vor allem beim Einsatz vom Smartshadern 3.0 liegt die Radeon knapp hinter der Geforce. Interessant ist die Tatsache, dass die Radeon mit aktiviertem achtfachen Antialiasing am dichtesten aufrückt. Die AA-Schwäche scheint der RV670 gegenüber seinem Vorgänger abgelegt zu haben.

Im Benchmark mit Crysis ist die Radeon HD3870 nur zwei Frames langsamer als die Geforce 8800 GT, liefert aber das bessere Bild ab. Die Tester bemängelten bei der Geforce 8800 GT die Qualität der Lichtreflektionen auf dem Wasser, welche auf der Radeon deutlich besser ausgesehen haben sollen. Damit würde AMD dem Ruf der guten Bildqualität nachkommen. Gemessen wurde in 1.280 x 1.024 Pixel ohne AA/AF: 14,77 Frames für die AMD-Karte, 16,77 Frames für die Nvidia-Karte.


Quelle: http://www.pcgame..._id=620901


das schaut ja mal wieder recht gut für AMD aus. bin ja auf den preis gespannt auf dem sich die karten einpendeln. wenn die radeons so knapp mithalten können und preislich etwas gänstiger sind, wird für mich wohl das DX10.1 argument schlagend...


mfg Dazhar
 
http://www.Clanstube.info
j1nzo
an sich hasse recht mit dx10.1- nur wär ma für mich interessant wann des zum standart werden soll.
bisher is ja nich mal dx10 standard. spannend ist auch , dass ich gelesen hab, dass dx10.1 viell. sogar per treiber aktiviert werdn kann, auch wenn es bisher hiess, die änderungen seien nur hardwareseitig implementierbar.
meine hoffnung is ja die d8e. diese soll wohl 10.1 haben (gerüchteküche- noch nichts handfestes) und hat 1gig ram- reicht auch bei extremen auflösungen mit hohen aa modi. soll aber halt leider ers q1 08 kommen- egal bis dahin sinken dann wohl auch die preise.
schade is halt, dass ich kein x38/x48 chpsatz hab, der unterstüzt nämlich 2x 16 lanes für pcie- meiner (p35) hat nur 1x16, 1x8 und 2x4. sonst wärn nämlich 2 3870 im kreuzfeuer das optimum (schnell und günstig un shader 4.1).
mfg jins-lee
clanstube.dage.at/images/userbar.png
 
mastarpi
Schonmal was von 3-Way SLI gehört??
Shock
Zitat von diesem Eastw00d a.k.a. teh Hegger: wow du bist echt epic!
 
j1nzo
joa. und mit nforce 7 könnt des sogar mal was werden. bisher (nforce6) können 2x16pcie lanes vergebn werdn. die dritte lane/karte bekommt dann nur noch 8x was wiederum dafür sorgt, dass die 2.karte (sli) ca. 70% mehrleistung bringt (da 16x) und die dritte nur noch 20% (8x).
mit nforce 780sli gibbet jetzt 3x16x (auch wenn die dritte nur pcie 1.1 un nich 2.0 schafft).
der einzige hacken den es dann noch gibt is der preis. bisher geht 3wege sli nur mit 88gtx/ultra un die billigsten gtx gibs ab 330€. also knapp n taui für dreifach sli was wiederum zu teuer wär.
aber für enthusiasten/reiche/techn. freaks tolle sache und in 3-4jahren viell. auch schon für uns geeignet.

clanstube.dage.at/images/userbar.png
 
Blackcat
Nicht zu vergessen was man da für ein Netzteil braucht. Meine 8800GTS braucht zwei PCI-e Stromanschlüsse. Das mal drei? Das is ja dann ein Kocher und kein PC, wenn man pro Karte ~60-70°C Standardtemperatur annimmt. Grin

Naja wers braucht (und wer sichs leisten kann).

Nebenbei:
www.ginjfo.com/Publics/PhotoNews/3waySLI_04.JPGwww.ginjfo.com/Publics/PhotoNews/3waySLI_03.JPG

Mfg BC
www.bc-database.info/images/Samsung_sig.jpg
 
http://www.bc-database.info
Springe ins Forum: