Помню время, когда компьютер с одной видеокартой просто не мог считаться игровым. Эпоха SLI- и Crossfire-систем была чуть ли не самым интересным временем, если дело касается игр.
Однако время таких систем давно прошло: с 2015 года технология перестала активно развиваться, а с 2020-го — фактически и существовать. Но это не значит, что от нескольких видеокарт в компьютере нет никакого смысла. В вопрос погрузился Игорь Позняев, автор канала «Блог системного администратора». Давайте узнаем, кому и зачем нужно несколько видеокарт в компьютере.
Изначально она появилась еще в конце 90-х, спасибо 3DFX. Те придумали алгоритм, который заставлял движок игры рендерить сцены сразу на двух видеокартах — либо «построчно», либо покадрово: первый кадр готовит первая видеокарта, второй — вторая, третий — снова первая, четвертый — опять вторая и так далее.
Этот подход обеспечивал отличную масштабируемость: сколько видеокарт ни поставь — производительность будет увеличиваться чуть ли не линейно. Но и проблем с ним было много: разные кадры отличались по сложности, требовалось много ресурсов на синхронизацию работы двух карт и так далее. После покупки 3DFX компанией Nvidia SLI продолжили развивать, но путь технологии был тернист и очень непрост. Как, к слову, и у «красного» аналога SLI — Crossfire.
Но ведь у процессоров много ядер! Почему с видеокартами не смогли так же?
Тут причин много, но если коротко — у графического и центрального процессоров разные архитектуры. Если потоки ЦП работают быстро и независимо друг от друга, то вот несколько графических процессоров — другой разговор. Они мало того, что сложнее, так надо еще как-то синхронизировать их работу, добавить поддержку и далее по списку.
В итоге вторая видеокарта не удваивала FPS, как должна была, а увеличивала его на 50-70%, и то — только если в игре была поддержка SLI. Это не говоря о том, что поддержка 3-Way, и уж тем более 4-Way SLI была в единичных проектах.
Синхронизация, а также разная сложность кадров приводила к микростатторам. Это неприятное явление, когда картинка как бы «заикается». Они очень часто встречались на SLI-системах, даже в играх, где поддержка SLI была реализована неукоснительно — проблемы были в самом принципе работы технологии. В итоге пользователь получал «формально» больше кадров в секунду, но картинка была настолько рваной, что в увеличении ФПС не было никакого смысла.
Добавим к этому то, что вам физически нужно две видеокарты (а видеокарты, в общем-то, устройства недешевые), большой и продуваемый корпус, а также куда более мощный блок питания. Вот вам и причины, почему мощные одночиповые видеокарты победили.
Вы удивитесь, но две видеокарты могут работать не только в связке, но и по отдельности. И в некоторых сценариях такие конфигурации дают ощутимый прирост по сравнению с одиночной видеокартой.
Например, некоторые программы, где ГП используются для расчетов, могут загружать и две, и три, и четыре, хоть восемь видеокарт! Обычно это программы типа Blender или 3Ds Max, Cinema 4D. Они могут параллельно выполняться на нескольких ГП, и чем их (видеокарт) будет больше — тем выше будет производительность при работе с этими программами.
В меньшей степени это справедливо для сложного видеомонтажа (некоторые эффекты обрабатываются на ГП, соответственно, если видеокарт будет несколько — это здорово сократит время рендера), но в специфических ситуациях чаще важен сам факт наличия дискретной видеокарты, а не ее мощность.
Ну и новомодный ИИ, конечно, тоже обучается на видеокартах. Для запуска локального ИИ вам понадобится несколько довольно мощных видеокарт, тут вопрос скорее в том, нужен ли вам локальный ИИ.
На этом этапе мы выяснили, что для некоторых задач имеет смысл ставить несколько видеокарт в компьютер, но все это — специфичные задачи, которые актуальны для 0,0000…1 процента людей.
Увы — тут все не так однозначно. Большинство игровых движков выполняют работу на одном графическом процессоре, поэтому от второй видеокарты просто не будет никакого смысла. Есть только один способ занять ее работой, и это — PhysX.
Сразу вспоминаются старые системы, где вместе с мощной видеокартой, например, GTX 670, ставили еще одну «затычку», что-то вроде GT 630. Последняя не участвовала в формировании изображения, только выполняла расчеты PhysX, разгружая основную видеокарту. Сейчас такую связку тоже можно сделать.
Однако в большинстве случаев установка отдельного ускорителя под PhysX ничего не даст (для RTX 4000 и старше либо для новых игр), ибо современные видеокарты научились работать с ним очень быстро.
Также вторая независимая видеокарта может пригодиться, если вам нужно подключить к одному компьютеру много мониторов. Современные видеокарты, как правило, поддерживают подключение 4-х мониторов, но если вам по каким-то причинам нужно больше — выход только в установке еще одной или нескольких видеокарт.
К этому выводу производители пришли еще в эпоху SLI и Crossfire, собственно, поэтому поддержку этих технологий и начали постепенно сокращать. Ну а установка двух независимых видеокарт в один компьютер — решение нишевое, под какие-то конкретные задачи, в список которых не входят ни игры (за исключением RTX 5000), ни большая часть проф. программ, не говоря про соц. сети и браузеры.
Если вы хотите поставить в компьютер еще одну видеокарту — стоит хорошо подумать, где конкретно она будет использоваться. Кроме того, обращаем внимание на корпус (он должен быть достаточно большим и продуваемым), а также на блок питания — его мощности должно быть достаточно.
А вы когда-нибудь собирали компьютер с парой видеокарт? Расскажите, что это были за карты!