PCI-Express 1.0 x16 vs. PCI-Express 2.0 x16 — есть ли ощутимая разница?
Все мы знаем, что разница в скорости передачи по шине pci-express увеличилась вдвое, но связан ряд вопросов:
1) Все ли возможности шины используются современными видеокартами или же видимой разницы не будет, если вставить, например, GeForce GTX460 в PCIe 1.0 и в 2.0?
2) Как проверить точную пропускную способность? Я нашёл PCIe Speed Test v0.2, но работает это только на видеокартах от ATi
3) Существуют ли уже материнские платы с честным pci-express 2.1 или же разницы между 2.0 и 2.1 никакой?
Интересует меня всё это как в контексте игр, так и в контексте CUDA
Более свежие тесты. www.thg.ru/graphic/pci_express_sli_scaling/print.html Можно считать, что 8x pci-ex 2.0 = 16x pci-ex 1.0
Разница есть. Но она очень минимальна и проявляется только в высоких разрешениях и sli/crossfire тандемах.
1. Если оба слота имеют честных 16 линий, то на высоких разрешениях у топовых видеокарт будет потеря ~5% FPS при переходе от 2.0 к 1.0.
2. В каком смысле точную? 1 линия — 500 мегабайт в секунду. Вы подозреваете что у вас «китайские» линии с заниженной ПСП?
Сколько вы реально сможете прокачивать данных в плане CUDA — это уже совсем другой вопрос, лежащий в области практики.
3. В скорости разницы нет, в фичах разница есть (интересная скорее разработчикам плат, а не их пользователям). Реализаций нет.
Ну по поводу cuda написано, что скорость копирования из host в device ограничена именно реальной скоростью передачи данных на pci-express, при этом это самая дорогая операция из всех, я потому и спросил
По поводу «точной» вопрос возник из-за того, что у меня материнская плата Gigabyte EP35C-DS3R на чипсете P35. Так вот производителем заявлено то, что она работает на pci-express 2.0, в документации на чипсет написано, что чипсет поддерживает только версию 1.1, а Everest показывает, что pci-express вообще первой версии. Так вот в связи с расходящимися данными и возник вопрос, где написана неправда, и почему же Gigabyte не получил поток критики в связи с обманом в описании. Я подумал, что возможно, они как-то исхитрились и сделали что-то среднее, но как проверить своё предположение, я не знаю
> почему же Gigabyte не получил поток критики в связи с обманом в описании
получил в своё время, но он хиленький был, поток этот =) ошиблись они на коробке, нет там 2.0, конечно.
Спасибо, но эти статьи я читал — они слишком старые (2008 год). Мне как раз интересно, изменилось ли что-нибудь с тех пор, т.к производительность видеокарт выросла очень значительно