PCIe 3.00 x8 / x16 ved SLI

  • Mit system er følgende:
    Mainboard : ASUS X99-A
    Processor : Intel(R) Core(TM) i7-5820K CPU @ 3.30GHz (6C 12T 4.41GHz, 4.4GHz IMC, 6x 256kB L2, 15MB L3)
    Memory Controller : Intel Xeon (Haswell-E) Integrated Memory Controller 0 Target Address, Thermal & RAS Registers 100MHz, 4x 8GB DIMM DDR4 2.13GHz 256-bit
    4 x Memory Module : Micron 16ATF1G64AZ-2G1A1 8GB DDR4 PC4-17100U DDR4-2132 (15-15-15-37 4-52-17-6)
    Video Adapter : NVIDIA GeForce GTX 690 (2x 8CU 1536SP SM5.2 914MHz/1.2GHz, 512kB L2, 2x 2GB 6GHz 256-bit, PCIe 3.00 x16)
    Video Adapter : NVIDIA GeForce GTX 690 (2x 8CU 1536SP SM5.2 914MHz/1.2GHz, 512kB L2, 2x 2GB 6GHz 256-bit, PCIe 3.00 x16)
    NVMe INTEL SSDPEDMW40 (400.1GB, PCIe) : 373GB (D:)
    Intel Raid 0 Volume (1TB, RAID, SCSI-5) : 932GB (C:) 2 x Samsung 850 pro 500GB
    Operating System
    Windows System : Microsoft Windows 10 Professional 10.00.10240
    Platform Compliance : x64


    Spørgsmål:
    1. I bios står det ene GFX til X16 og det andet til X8 - det er jo lidt mystisk, når der er Motherboard manual/help står at ved 1xgfx pci port 1 ved 2xgfx pci port 1&3 ved 3xgfx pci port 1&3&4 - Motherboard har 3 pci x16, og jeg bruger de første 2 til GFX i SLI. Jeg tænker om man kan benchmarke for at se om det køre fornuftigt ? - jeg skulle jo gerne have noget at køre resultatet op mod


    2. mit NVMe pci-e kort køre fint når os er startet og performer fint. men jeg tænker lidt at initialiseringen fra tænd og til endt bios skaber vente tid. kan man ikke indstille at den ikke skal bruge tid på det i bios, da jeg nu har valgt ikke at bruge det som boot-up disk?


    3. giver det egentlig mening at køre SSD i raid-0 og så bruge det til boot ? jeg gør det egentlig bare for "jeg kan"


    4. ville 4 SSD diske give bedre performance i RAID0 ligesom når vi taler "servere"... ?


    5. hvad kan sådan et GFX 690 sælges for ? det er lidt overkill for mig, tror jeg...


    MVH og tak :)

  • Det kan kun betale sig at køre RAID 0, hvis det er sekventielle operationer (databasekonvertering mv.). Der er altså intet at hente ved alm. brug (spil, OS eller programmer). Faktisk er RAID 0 langsommere nogle gange.

    Acer Aspire E15 | Pentium 3556, Dual Core 1,7 GHz | 6 GB DDR3 RAM @ 1600 MHz | 128 GB SSD

  • Jeps, den er jeg med på. Jeg er bla database udvikler, derfor købte jeg det pci-e nvme kort, og har raid 0 (database, t-log, SSIS performance) - jeg syntes bare det er mystisk at jeg ikke kan vælge init pci-e slow, ligesom man kan på IBM m5 og HP-s servere... ShoutingSeeker har du nogle svar til mine andre spørgsmål ?

  • 1) Nej det er faktisk ikke så underligt, da din CPU kun har 28 PCI-e lanes at gøre godt med. PCE-e lanes bruges til at køre alt hvad der bliver tilsluttet PCI portene på bundkortet, hvor alt der er onboard styres af bundkortets egne lanes. Nogle dyre bundkort (typisk server og workstation) kan have en PLX chip, som tilføjer ekstra PCI-e lanes (nvidias dual GPU grafikkort bruger bla. sådan en chip).


    Men du går ikke rigtigt glip af noget, da forskellen mellem 16x/8x og 16x/16x SLI setup er så minimalt, at du aldrig vil kunne mærke forskellen. Forskellen i benchmarks er ret minimalt, måske 2-3% ca. Men det betyder så også at du ikke kan bruge flere udvidselses-kort i dine PCI-e porte, da du har opbrugt alle lanes. 16 + 8 + 4 (NVMe) = 28. Skal du have flere lanes skal du op i en i7 5830K, som har 40 lanes.


    2) Intels NVMe kort er generelt langsomme til at boot, hvor Samsung's (M.2) er super hurtige. Mon ikke det er noget de fixer med tiden, via firmware updates.


    3) Hvis du selv synes det er fedt, så gør det :)


    4) Aner det ik.


    5) Alt afhængigt af alder og stand, har jeg set dem gå til et sted mellem 1200 og 1500 kr på det seneste. Ærligt talt synes jeg ikke det kan svare sig. Medmindre du har vil have et single GPU kort, tja... fisk.

  • 1: Din 5820K CPU har kun 28 PCI-lanes, og derfor kan du ikke køre med to kort i x16, da det kræver minimum 32 baner i CPU'en :) Du skal dermed enten op i en 5930K for at opnå det, eller også skal du have et noget dyrere bundkort med PLX chips onboard. De giver nemlig 16 ekstra PCI-baner at lege med.


    2. Nej, al hardware skal initialiseres, inden computeren starter op. Årsagen hertil er, at defekt hardware kan skabe overgang, hvis bundkortet ikke initialerer det inden opstart. Så kan du potentielt stå med et dødt bundkort. Men som TolaGarf siger, så er den nuværende init. tid relativt høj, og det fikser de uden tvivl med tiden. Jeg var så dog ikke klar over, at visse server boards kan gøre det langsomt i baggrunden, men der er der nok en anden gardering imod overgang så :P


    3: Nej, det giver ingenting, om du har to SSD'er i RAID0 ved opstart kontra én stor SSD i AHCI.. Jeg har prøvet begge dele, og Windows loader ikke hurtigere af, at diskene kan læse med 1000 mb/sekund fremfor 500 mb/sekund :)


    4: Til det rette arbejde vil det nok, men det har ShoutingSeeker svaret på. Og jeg tvivler på, at det er sådan noget, du er ude i :) Ret mig endelig, hvis jeg tager fejl.


    5: Her vil jeg nødigt rådgive, da det kan starte en krig mellem folk, der forsøger at rådgive om pris og folk, der gerne vil prispresse sælger :P