GTX390 - Overkill eller Uberness

  • Quote

    Oprindeligt indlæg af Hampen
    Sad lige og læste en artikel omkrings nvidias planer med den nye 300-serie. Det lyder til at der kommer knald på det.


    http://www.tweaktown.com/news/…on_single_card/index.html


    Blir vist ret vildt, også på prisen. :)

    Core i7 I7-3770k 3500@4800 Siberian Tiger II
    Gigabyte GA-Z77X-UD3H
    Corsair Vengeance 4 x 4 GB 1866MHZ
    Intel Solid-State Drive 520 series 240GB
    1000gb Seagate 7200.10 (lager)
    Gigabyte GV-R797OC-3GD
    T&T 850watt
    LG GGWH20L Super Multi Blue
    Windows 7 Ultimate

  • NEJ NEJ NEJ!


    Det går da kun ned ad for NVIDIA. Det bliver jo ikke bedre af flere Cores. Det ved alle da. selv når man kører SLI/CF med 2 mainstream kort, så kræver det at man bruge over 1920x1200 for at man kan bruge det til noget. med 4 GPUer skal man jo over 2560 x 1600 for at kunne udnytte det, og det kender jeg ingen skærm der benytter endnu.


    Til bench vil det da sikkert være 2talt sygt. Men til gaming - ubrugeligt hvis vi ser på at det er et Quad-setup i kortet.


    Hvorfor er det lige de ikke tager sig sammen og gør noget ordentligt, i stedet for at vælge den nemme løsning.


    Men rimelig sygt at tænke på, om sådan et bæst kan bruges i Quad-setup, så det bliver Quad-Quad. altså 16 GPUer.


    også rimeligt varmt når man tænker over det

    CPU: 2600K | CPU køler: Noctua D14
    MoBo: ASUS P8P67 Deluxe | RAM: Crucial 16GB 1600MHz CL999 24
    GFX: Gigabyte 6870OC | Skærm: 2x Dell U2410 24"
    SSD: OCZ Agility 3 240GB | OS: Windows 8 Pro 64bit
    Kabi: Antec P182 | PSU: Corsair TX650W
    Lydkort: ASUS Xonar Essence STX | Headphones: Sennheiser HD650

    Rettet en gang, sidst af gaming-king ().

  • lol.. Quad SLI på et enkelt grafikkort. Nvidia må da være lamme i bøtten! Kunne forestille mig sådant et kort vil blive et problembarn, ligesom 8800 GTX var (de blev alt for varme og var fejlbehæftet). Dette monster skal nok komme til at koste omkring 7000 kr, hvis det overhovedet kan gøre det.


    Edit: Noget der lugter her.. Måske er det bare en skrivefejl, men artiklen skriver at kortet har 3584 mb GDDR3 ram. Så vidt jeg har forstået, vil GT300 serien kun bruge GDDR5 ram? Hvor er lige idéen i at bruge GDDR3 ram på sådan et kort, når GDDR5 skulle være hurtigere samt være ret strømbesparende i forhold til GDDR3.

  • Quote

    Oprindeligt indlæg af gaming-king
    også rimeligt varmt når man tænker over det


    Byg-selv kabinet og,
    Byg-selv vandkøling system :D
    Kunne være nice hvis man så en pc, med 16 kølehoveder til 16 GPU'er.
    :crazyeyes:

  • håber der kommet et GTX300serie ligesom 8800GT kortet som er et godt kort os til pengene bare med mindst 1gb GDDR3 el. GDDR5 ram på og så 512bit kunne være nice :)

  • Quote

    Oprindeligt indlæg af Proctie


    Byg-selv kabinet og,
    Byg-selv vandkøling system :D
    Kunne være nice hvis man så en pc, med 16 kølehoveder til 16 GPU'er.
    :crazyeyes:


    heh.


    Ja man skal nok ikke vælge GPU køleløsningen her, men nærmere Full-cover :9xo :razz:

    CPU: 2600K | CPU køler: Noctua D14
    MoBo: ASUS P8P67 Deluxe | RAM: Crucial 16GB 1600MHz CL999 24
    GFX: Gigabyte 6870OC | Skærm: 2x Dell U2410 24"
    SSD: OCZ Agility 3 240GB | OS: Windows 8 Pro 64bit
    Kabi: Antec P182 | PSU: Corsair TX650W
    Lydkort: ASUS Xonar Essence STX | Headphones: Sennheiser HD650

  • og 2 af disse i dual/quad sli ?.
    brug for 8 pci-e stik
    der skal godt nok laves nye psuer...


    Tror der snart er brug for 1000 nye vindmøller mv.

    PC: Defini Mini, Asus GENE VIII Maximus, 6700 K , Noctura 12S, 2 x 8 gb Vengance 3000 MHz


    Samsung pro 850, GTX 970 KFA 2 , 750 W psu EVGA G2


    Server/TV PC:Silverstone Sugo SG05 Black,Intel H57 M-ITX mobo 2x2 gb ram
    slimdvd, 80 SSD+ 1500 gb lager


  • 1. Du ved tilsyneladende ikke, hvorfor man går over til flere cores istedet for kraftigere grafikkort :) læs noget om arkitektur og find alle de problemer der ligger ved at give større og større cores istedet for flere cores :) grunden til at du ikke får ordentlig ydelse ved sli er jo at man ikke har lavet et tilstrækkeligt system til at maksimere ydelse.


    Du kan jo alene se på Central Processor units og eventuelt læse om de problemer man støtte på der ;) og hvorfor man i dag både laver 2, 4 og snart 6 cores processorer.


    Mon ikke deres ingeniører har lidt mere styr på det end din hjernekapacitet kan regne frem til :)


    P.S. tjek eventuelt hvorfor ATI har fået større omsætning i år end sidste år. De har utrykkeligt sagt at det er for dyrt at producerer chips som eksempelvis GTX 285, da 2 4870 chips er billigere at producere og billigere at udvikle :)

    2. der findes mange skærme der kører 2560 x 1600. vi taler blot 30 tommer.


    Quote

    Oprindeligt indlæg af TolaGarf
    lol.. Quad SLI på et enkelt grafikkort. Nvidia må da være lamme i bøtten! Kunne forestille mig sådant et kort vil blive et problembarn, ligesom 8800 GTX var (de blev alt for varme og var fejlbehæftet). Dette monster skal nok komme til at koste omkring 7000 kr, hvis det overhovedet kan gøre det.


    Edit: Noget der lugter her.. Måske er det bare en skrivefejl, men artiklen skriver at kortet har 3584 mb GDDR3 ram. Så vidt jeg har forstået, vil GT300 serien kun bruge GDDR5 ram? Hvor er lige idéen i at bruge GDDR3 ram på sådan et kort, når GDDR5 skulle være hurtigere samt være ret strømbesparende i forhold til GDDR3.


    problembarn og problembarn. Tja. 8800 GTX var altså heller ikke værre end du siger ;)

  • Quote

    Oprindeligt indlæg af gaming-king
    Men rimelig sygt at tænke på, om sådan et bæst kan bruges i Quad-setup, så det bliver Quad-Quad. altså 16 GPUer.


    Man har nu aldrig kunnet køre med fire separate nVidia kort i QuadSLI, for at opnå QuadSLI skal man bruge 2x GX2 kort i normal SLI, altså 4 GPUer i det hele. Så 16 GPUer med GTX300 serien er vist ønsketænkning ;)


    Men bare det enorme CPU overhead der bliver når driveren skal forsøge at håndtere 16 kort ville være nok til at hive performance ned på et latterligt niveau. Det ser man alleredde med de nuværende kort, hvor 2x GTX280 feks. i de fleste spil yder bedre end 3x GTX280.


    16 GPUer bliver ikke relevant lige foreløbig.

    Primær Rig
    Gigabyte GA-EP35-DS3 ** C2D E4600 ** 2x1 GB Corsair XMS2 PC2-5400 ** XFX 8800GS 384MB Alpha Dog ** Corsair VX450 ** Antec P182 ** Logitech Z5500


    NAS/FTP/VNC/Seedbox
    ASRock 775i65PE ** Celeron D326 2,53gHz ** 1536MB Kingston Value PC2700 ** Sapphire Radeon X1600Pro 512MB ** NorthQ 400Watt ** Antec SLK3000B


    Bærbar
    IBM Thinkpad T30 ** Pentium 4M 1,4 gHz ** Radeon Mobility 7500 ** 256MB DDR PC-2100


  • det er jo bare et spørgsmål om korrekt implementering i systemet, så vil man kunne udnytte 16 GPUkerner uden problemer.

  • Det bliver det nye Wankermark kort :T


    Ideen er god nok det er bare spørgsmålet om Nvidia kan holde det koldt med den køler også er spørgsmålet jo hvad kommer det til at koste..


    Hvis det kommer til at koste det samme som det speciele Asus GTX295 så er der godt nok ikke mange almindelige personer som på nogen måde kommer til at eje det.

  • ikke engang grund til at lave drivers til 32 bit styresystemer med alt det ram....

    Asrock x570 Taichi, Asrock 5700XT Challenger 8GB@AMD ryzen 7 2700X 3,7mhz, 4*16Gb DDR4g. G-skill TridentZ neo 3600, Seasonic 700W PSU, Kingston SSD M.2 1TB Harddrive.

  • Quote

    Oprindeligt indlæg af Fragman
    ikke engang grund til at lave drivers til 32 bit styresystemer med alt det ram....


    Næ kan heller ikke rigtig se ideen med 32 bit styresystem alligevel de fleste computere idag har jo 4 gb ram idag og grafikkort minimum 512 mb så det giver jo ikke rigtig mening..


  • Jeg kender ikke mange som har 30" skærme. Faktisk ingen når jeg tænker over det. Så det er da begrænset hvad der er der ude i landet.


    Desuden, det jeg mener med at NVIDIA har været for ukreative her. Er som du selv siger, at CPU'er er multikernet. Der bruger man jo ikke flere Cores, men man udvikler en CPU som er flerekernet. Det har ingen GFX-producenter endnu gjort.


    Jeg synes bare det er for ukreativt at smide flere på.

    CPU: 2600K | CPU køler: Noctua D14
    MoBo: ASUS P8P67 Deluxe | RAM: Crucial 16GB 1600MHz CL999 24
    GFX: Gigabyte 6870OC | Skærm: 2x Dell U2410 24"
    SSD: OCZ Agility 3 240GB | OS: Windows 8 Pro 64bit
    Kabi: Antec P182 | PSU: Corsair TX650W
    Lydkort: ASUS Xonar Essence STX | Headphones: Sennheiser HD650

  • Dagens GFX er da hurtige nok til at CPU ikke rigtig kan følge med så om den næste bliver endnu en 2x1 GPU eller en dualkerne er jeg da fuldstændig ligeglad med.
    Få implementeret dx11 rigtigt og hold hastigheden i ro det næste år, så brug tiden fornuftigt til at få lavet en chip layout der holder i stedet for både hvad angår hastighed og strømforbrug, så er man da nået langt i mine øjne.


    Højere GFX hastigheder er da kun for folk, som er "afhængige af wankermark", overdrivelse fremmer forståelsen.


    Mvh
    Sam

    AMD 2600X Ryzen, MSI X470 gaming plus, 16GB G.Skill 24ooMhz DDR4 ram, Noctua NH-U12S, Sapphire RX Vega 56 Pulse ,Crucial MX100 512GB SSD(OS), Crucial MX500 2TB SSD,2 WD 1.5TB Black Caviar, 4TB WD Red HD, Thermaltake thoughpower DPS G 1050 wattPSU,Lian-LI PC-011 Dynamic white, Iiyama 27" IPS skærm. Logitech Z213 højtalersæt, Win 10 pro 64 bit.