Gpu voltage какое должно быть

Как разогнать видеокарту

В продолжение темы о разгоне процессоров поговорим о том, как разогнать видеокарту. Зачем это делать? Причина всё та же: возможность угнаться за растущими требованиями 3D-приложений и игр без затрат на покупку более производительных устройств.

Кроме этого я расскажу о подготовке разгону, о том, каких результатов можно достичь, как проводят тестирование видеокарты на стабильность и почему некоторые из них не удается разогнать как следует, несмотря на все усилия.

[NEW] Рейтинги F1 за 2018 год:
SSD, Smart TV приставки, игровые видеокарты, процессоры для ПК, МФУ, антивирусы, роутеры, усилители Wi-Fi, смартфоны до 10000 рублей

А стоит ли овчинка выделки?

Прежде чем начинать подготовку к разгону, которая порой сопровождается тратой денег на улучшенную систему охлаждения и более мощный блок питания (как и процессор, разогнанный видеочип выделяет больше тепла и потребляет больше энергии), стоит оценить возможности своей карточки.

Наибольшим разгонным потенциалом обладают оверклокерские серии видеокарт, вроде ASUS Matrix, Gigabyte Xtreme Gaming и т. п. Они способны увеличить производительность на 40-50% и выше. Следом идут карточки средней ценовой категории. Возможности некоторых их них искусственно занижены производителем для поддержания продаж дорогостоящих топовых моделей (те и другие нередко делают на основе чипов одинаковой скорости). Их скрытый потенциал составляет 20-35%.

Хуже всего разгоняются флагманские видеокарты, поскольку из них и так выжат максимум, и бюджетные (офисные) – они и вовсе не предназначены для оверклокинга. Даже относительно быстрый чип, установленный на дешевую карту, будет тормозиться слабыми или некачественными компонентами печатной платы, низкой разрядностью шины видеопамяти (группы линий связи между видеопроцессором и памятью), типом самой памяти и другими ограничениями архитектуры печатной платы. Максимум, на что способна эта категория видеокарт – прирост скорости на 5-15%.

Если ваша бюджетная карточка не в состоянии преодолеть некий условный минимум, можете поднять производительность видеоподсистемы ПК, задействовав технологии SLI/Crossfire (при условии поддержки). То есть установить в компьютер еще одну подобную карту и «заставить» их работать вместе. Впрочем, также могут поступить и владельцы флагманов.

Внимание! Не пытайтесь разгонять видео на ноутбуках! Мобильные видеочипы очень не любят перегрева. Иначе вместо того чтобы наслаждаться приростом FPS в любимой игре, вам придется нести «железного друга» в сервис на дорогостоящий ремонт.

Итак, вы убедились, что ваша видеокарта пригодна для оверклока, обеспечили ей хорошее охлаждение и удостоверились в достаточной мощности блока питания (как это сделать, написано в статье об оверклокинге процессоров). Осталось еще 3 шага:

  • Обновить BIOS материнской платы до последней версии (у десктопных видеокарточек есть и собственный BIOS, но в абсолютном большинстве случаев трогать его не нужно).
  • Установить последнюю стабильную версию видеодрайвера и DirectX. Кстати, один из методов оверклока предусматривает повышение частот графического ядра и видеопамяти через настройки драйвера или его параметры в реестре. Однако удобнее это делать с помощью утилит, чем мы и будем заниматься далее.
  • Протестировать карту в неразогнанном состоянии для оценки производительности и стабильности работы при повышенной нагрузке. На этом я остановлюсь подробнее.

3DMark

Эталонным средством бенчмарка – сравнительной оценки производительности графики, опытные оверклокеры считают пакеты 3DMark от компании Futuremark. Это наборы синтетических тестов, каждый из которых нагружает тот или иной структурный блок видеоподсистемы. Всего в приложении 6 тестов, состоящих из отдельных подтестов, – 2 физических (Physics и Combined) и 4 графических. В первых подтестах программа загружает преимущественно процессор, во вторых – видеокарту.

3DMark выпускается в бесплатном и платных вариантах. Бесплатный – «Basic Edition», включает в себя те же тесты, что и платные, но не позволяет менять их параметры. Платный «Advanced Edition» ($24.95) открывает доступ к изменению параметров и позволяет запускать подтесты по отдельности, а самый полный и дорогой – «Professional» ($995), дает возможность, ко всему прочему, сравнивать качество отрисовки (рендеринга) отдельных кадров.

Версия пакета подбирается в зависимости от версии DirectX, установленной на компьютере. Последняя на сегодняшний день – 3DMark 11, поддерживает DirectX 11 и 12.

Процесс тестирования следует контролировать визуально. Появление на экране различных артефактов – ряби, «снега», выпадения текстур, а также подергивания и мерцания картинки указывает на перегрев графического процессора (ГП) или памяти, а в некоторых случаях – на их неисправность. Зависания, перезагрузки синие экраны смерти бывают следствием ошибок видеодрайвера, проблем по питанию, перегрева или, опять же, неисправности видеокарты.

Итоги сравнительных тестов бесплатной версии 3DMark отображаются в браузере на сайте Futuremark, а не в самой программе. Если вас не смущает это условие, она вполне подойдет вам для сравнения производительности графики перед разгоном и после.

Запустив 3DMark 11 Basic Edition, выберите один из двух вариантов тестов – «Benchmark tests only» (только бенчмарк) или «Full 3DMark 11 Experience» (полный набор), и нажмите «Run 3DMark 11».

Во время демонстрации тестового ролика в углу экрана отображается температура графического процессора. Если она быстро достигает 85-90 градусов, система охлаждения работает неэффективно.

Другие инструменты тестирования видеокарт

В процессе разгона необходимо контролировать стабильность работы видео в реальных условиях – в играх и 3D-приложениях, которые вы используете, а также в условиях стресса – при искусственной максимальной нагрузке.

Для проведения стресс-тестов используют утилиты FurMark (опция «Stability Test») или OCCT (опция «GPU 3D»). Последняя тестирует не только ГП, но и видеопамять, а также автоматически фиксирует артефакты.

Настройки теста «GPU 3D» показаны на скриншоте:

В ходе проверки следите за температурой ГП. Подъем выше 90-105 градусов указывает на переразгон (если вы уже приступили к нему) или на недостаток охлаждения.

Внимание! Максимально допустимая температура ГП NVIDIA составляет 90-105 градусов, AMD такие данные не публикует, но в среднем их критический уровень на 5-10 градусов ниже.

Неразогнанная карточка не должна при стрессовой нагрузке разогреваться до предела. Иначе у нее не останется запаса на рост температуры после оверклока.

Когда и как запускать тесты

До начала разгона проведите бенчмарк-тест (для фиксации исходной оценки производительности видео) и часовой стрессовый, чтобы проверить стабильность его работы при максимальной загрузке.

После каждого шага повышения частот достаточно запускать стресс-тест или игру на 5-10 минут, отслеживая прирост температуры ГП. Если всё идет нормально, а нагрев не достигает верхнего порога, можете продолжать.

После разгона еще раз сделайте бенчмарк и заключительную проверку на стабильность в реальный условиях – например, запустите на несколько часов демо-версию любимой 3D-игры. Полезно погонять и стрессовые тесты для контроля температуры.

Разгоняемся!

А теперь переходим к основному этапу нашей задачи – непосредственно к разгону. В отличие от оверклокинга ЦП, где нужные параметры обычно сразу выставляют в BIOS, видеокарточки разгоняют с помощью утилит. И лишь самые опытные (и безбашенные) оверклокеры затем переносят полученные данные в видеоБИОС. Но я не советую вам следовать их примеру: это рискованно, во-первых, потерей гарантии, а во-вторых, если переразогнанная карта вдруг откажется стартовать, чтобы вернуть изначальные параметры видеоБИОС, придется его выпаивать и перепрошивать на программаторе.

Разгон видеокарт представляет собой насильственное повышение тактовой частоты ГП (ядра, шейдерного блока) и видеопамяти относительно их исходного уровня.

Утилит для разгона достаточно много. Для NVIDIA это:

  • NVIDIA System Tools (ранее называлась nTune).
  • NVIDIAInspector.
  • NvClock (только для Linux и FreeBSD).
  • EVGA Precision X.
  • AMD GPU Clock Tool.
  • MSI Afterburner.
  • ATITool (поддерживает в основном ГП, выпущенные до 2007 года).
  • ATITrayTools (тоже поддерживает в основном старые карты).
Читать еще:  Монитор - Страница 9 из 9

Кроме них существуют и другие утилиты от производителей видеокарт и сторонних разработчиков, поддерживающие видеочипы разных типов. К последним относятся известная и несколько устаревшая RivaTuner и PowerStrip.

Для разгона карточки GeForce GTX 650 я воспользуюсь утилитой EVGA Precision X, созданной компанией EVGA на основе технологий RivaTuner. Она содержит массу опций для тонкой настройки карт NVIDIA, но мне потребуется лишь часть из того, что мы видим на главном экране.

Итак, в центре показаны текущие (исходные) параметры карточки:

  • GPUClock – тактовая частота графического процессора.
  • GPUTemp – соответственно, температура ГП.
  • Voltage – напряжение питания ядра ГП.

Эти же данные отражены на шкале.

Ниже находятся ползунки:

  • PowerTarget – предел энергопотребления графического процессора (можно установить 100% и ниже). Оптимальное значение – максимум.
  • GPUTempTarget – верхний порог температуры GPU – задаем в пределах 90-105 градусов.
  • GPUClockOffset – смещение частоты ядра ГП относительно базовой.
  • MemClockOffset – смещение частоты памяти относительно базовой.

Слева находится ползунок управления скоростью вентиляторов системы охлаждения GPU – Fan Speed. Справа – ползунок регулировки напряжения питания GPU – Voltage.

Я начну с того, что увеличу на 50% скорость вращения вентиляторов – передвину вверх слайдер «Fan Speed» и нажму «Apply». Это улучшит охлаждение ГП.

Следом небольшими шагами – по 10-15% от базового уровня, я подниму частоты ядра GPU (кстати, вместе с ним ускоряется шейдерный блок) и памяти. Это делается перемещением ползунков в правую сторону или вводом значений с клавиатуры. Снова нажму «Apply» и проконтролирую изменение температуры.

Далее я слегка увеличу напряжение питания GPU, выбрав возле ползунка «Voltage» опцию «Overvoltage» и переместив его вверх. Шаг прироста в моем примере составил 25 mV. Снова сохраню настройку нажатием «Apply» и запущу тест стабильности.

Когда результат разгона меня удовлетворит, я сохраню полученные настройки в профиль, щелкнув по кнопке с цифрой внизу окна. Всего в EVGA Precision X можно создать 10 таких профилей, например, для каждой игры.

Чтобы сбросить настройки на умолчания, достаточно нажать кнопку «Default», а если программа перестала отвечать – просто закрыть ее или перезагрузить компьютер.

Разгон видеокарты с помощью EVGA Precision X и других подобных ей утилит непостоянный. Он включается только тогда, когда программа запущена и в нее загружен один из профилей. Чтобы графика работала на повышенных частотах по умолчанию, настройки, как я говорил, переносят в BIOS карточки, но мы так делать не будем. Ибо повышения FPS можно добиться и без риска испортить дорогостоящее железо.

Автор еще рекомендует:

  • Как настроить бесплатные каналы на Smart TV
  • Очистка памяти на Android: проверенные способы
  • Калибровка аккумулятора ноутбука
  • Что такое UEFI и чем он лучше BIOS?
  • Как делать бекапы Windows 10 на автомате и зачем это нужно?
  • Как ускорить загрузку Windows 10
  • Если тормозит видео при просмотре онлайн

    Удачных вам экспериментов, и не забудьте поделиться результатами своих рекордов с нами!

    Тема: GPU Voltage Tuner

    Опции темы
    Поиск по теме

    GPU Voltage Tuner

    Description:
    This program allows easy GPU voltage adjustments on GPUs with volte
    rra-based voltage regulators and it uses the award-winning and criti
    cally acclaimed RivaTuner for these adjustments.

    WARNING! By using this program, you agree that the author is NOT
    responsible for ANY consequences as a result of using this program.
    You, the user, are liable for any damages occured. Be a smart overc
    locker and monitor those temperatures and voltage levels!

    Compatibility:
    Most GT200 GPUs are supported, some G92 GPUs, and all RV770/790 GPUs
    above 4870, and several custom PCB boards. If you aren’t sure, just
    try it and see if it works

    Requirements:
    — RivaTuner (v2.24 is the minimum version)
    — A compatible GPU with volterra-based voltage regulators
    — Latest GPU drivers
    — A modern Windows-NT based operating system (XP and above). Both x86 and x64 are supported.
    — Microsoft(R) Visual C++ 2008 Runtime (x86), can be found here:
    http://www.microsoft.com/downloads/d. d-074b9f2bc1bf
    — Microsoft(R) .NET Framework v2.0 (minimum), can be found here:
    http://www.microsoft.com/downloads/d. D-AAB15C5E04F5

    Instructions:
    First, you need to put the full path to RivaTuner in RivaPath.txt (with a
    trailing backslash []).

    I designed this program with automation in mind, so most settings should
    already be correct. But if they aren’t you can correct them. For example,
    in the GPU Information section, if the selected voltage is not the «3D»
    performance voltage, please select the correct one. You can change the
    «Current GPU #» drop-down to anything you want, it’s for your information.
    What you set under «GPU Voltage Tuning» for «Number of GPUs» will affect
    which GPUs’ voltages get set. Again, it should be automatically detected.
    Voltages available range from 0.8625v to 1.6000v, so be careful what you set!

    If all of the voltage VIDs are displayed as «0xff», then you selected a
    non-existant GPU under «Current GPU #».

    * Note: Do not have RivaTuner running prior to running GPU Voltage Tuner, it
    will refuse to work properly.
    * Also, if you are unsure whether the automatically detected and selected vo
    ltage is correct, you can check by loading up a full-screen game with GPU-Z
    or RivaTuner logging the GPU voltage in the background. If it is incorrect,
    simply select the correct load voltage.

    Credits:
    ———
    AgentGOD — coding this program, duh 😀
    Unwinder — for RivaTuner, excellent GPU tweaking program
    justageek95 — for originally exposing the ability to set voltages
    3oh6 — for writing an excellent in-depth guide on voltage setting
    tommyk2005 — for testing on BFG GeForce GTX 295

    И возможно это тоже пригодится
    — Microsoft(R) Visual C++ 2008 Runtime (x86), can be found here:
    http://www.microsoft.com/downloads/d. d-074b9f2bc1bf
    — Microsoft(R) .NET Framework v2.0 (minimum), can be found here:
    http://www.microsoft.com/downloads/d. D-AAB15C5E04F5

    Lights, Music, Camera, Action !

    Перевод. Если где-то ошбися, поправляйте:

    Описание:
    Программа позволяет легко изменять настройки вольтажа GPU с регуляцией на базе чипа volterra через интерфейс прославленной утилиты RivaTunner.

    Внимание! Используя эту программу, вы соглашаетесь, что автор не несет отвественности за любые негативные последствия ее использования. Ответственность несете вы пользователь. Будьте разумным оверклокером внимательно следите за температурой и уровнями напряжений.

    Совместимость:
    Поддерживается большинство видеокарт на базе GT200, некоторые G92 и все RV770/790 старше 4870, а также некоторые нереференсы. Если вы не уверены, просто попробуйте вдруг заработает!

    Требования:
    — RivaTunner (версия начиная с v2.24)
    — GPU с регуляцией напряжений на базе микросхемы volterra
    — последние драйверы на видеокарту
    — ОС начиная с Windows XP и старше (поддерживаются как 32-х, так и 64-битные версии)
    — Microsoft Visual C++ 2008 Runtime (x86) можно скачать здесь: http://www.microsoft.com/downloads/d. d-074b9f2bc1bf
    — Microsoft .NET Framework v2.0 (не ниже) можно взять здесь: http://www.microsoft.com/downloads/d. D-AAB15C5E04F5

    Инструкции:
    В первую очередь, необходимо прописать полный путь к RivaTunner в файл RivaPath.txt (с использованием обратного слэша []).
    Я разработал эту программу с максимально возможной автоматизацией, так что большинство настроек уже должно быть верным. Но если нет, то вы всегда можете их поправить. Например, если в секции информации о GPU выбранный вольтаж не соответствует режиму «производительность» для 3D, выберите правильный вариант. Вы можете менять «номер текущего GPU» на что угодно это для вашей информации. То, что вы прописываете под «GPU Voltage Tuning» для «Number of GPUs» (количество GPU) повлияет на то, для каких GPU будут установлены настройки вольтажей. Опять же, они должны определяться автоматически. Диапазон доступных напряжений лежит в промежутке от 0.8625v до 1.6000v, так что будьте внимательны к тому, что вводите!

    Читать еще:  Как увеличить производительность смартфона на андроиде

    Если все VID-вольтажи отображаются в значении «0xff», то вы выбрали несуществующий GPU в поле «Current GPU #».

    Замечание: не запускайте RivaTunner вперед GPU Voltage Tuner, иначе он не будет работать правильно.
    Также, если вы не уверены, что автоматически определенные напряжения корректны, вы можете проверить посредством запуска полноэкранной игры с запущенными GPU-Z или RivaTunner в режиме логирования напряжений в бэкграунде. Если значения неверны, просто выберите правильные напряжения для режима нагрзуки.

    Разработчики:
    AgentGOD автор кода этой программы
    Unwinder — автор RivaTuner, отличной программы GPU твикинга
    justageek95 впервые продемонстрировал возможность программной установки вольтажей
    3oh6 автор подробного гайда по редактированию вольтажей
    tommyk2005 тестирование утилиты на BFG GeForce GTX 295

    Безопасный разгон видеокарты: пошаговое руководство

    Все что нужно знать о «бесплатных» FPS в играх.

    Уже конец лета, а видеокарты не слишком торопятся сбавлять в цене. Совсем скоро начнется ежегодный осенний вал релизов, и для многих из них потребуется мощное «железо» отвечающее за графику. Попробуйте последовать нашим советам, чтобы не оказаться в новом игровом году за обочиной.

    Примечание: Данное руководство касается исключительно настольных ПК и посвящено так называемому «безопасному разгону» (без поднятия напряжения или смены системы охлаждения). Однако при любых манипуляциях с «железом» всегда есть некоторый шанс его повредить. Поэтому очень внимательно изучайте наши советы и следуйте им на свой страх и риск.

    Шаг 1: Подготавливаем компьютер

    Если после вскрытия боковой стенки системного блока вам в лучшем случае хочется чихнуть, то скорее вооружайтесь тряпкой и тазиком с тёплой водой. Предварительно выключив свою игровую машину из сети, сняв свитер и отодвинув с пола шерстяной ковер, хорошенько протрите его внутри и выдуйте всю пыль из фильтров (лучше это делать на улице). Ещё хорошо бы поменять термопасту под системой охлаждения видеокарты.

    Второе, что нужно сделать — убедиться, что у вас достаточный запас ваттажа у блока питания. Для этого найдите на сайте любого из крупных магазинов модель своей графической платы (например, GeForce GTX 760 или Radeon R9 280X) и обратите внимание на графу «Рекомендуемый блок питания». Если там написано «400 Вт» и ровно столько (или даже меньше) имеется на борту вашего ПК, то после разгона возможны зависания и даже выключения системы — повышенные частоты всегда увеличивают энергопотребление.

    Что касается параметров электропитания, то тут стоит выставить либо сбалансированный, либо режим высокой производительности. Лучше сбалансированный — он позволит видеокарте «отдыхать», когда не запущена игра. Вопреки распространенному мифу, он не влияет на производительность, а лишь разумно расходует ресурсы. Не стоит включать, разве что, экономный режим.

    Шаг 2: Устанавливаем необходимый софт

    Самые важные программы для любого начинающего оверклокера — GPU-Z и MSI Afterburner. Первая (на изображении слева) выдаёт все характеристики вашей видеокарты: от точного названия модели (графа Name) и ядра (GPU) до частот (Clock), ширины шины памяти (Bus Width) и поддержки различных технологий (Computing). Вторая позволяет увеличивать частоты ядра (Core Clock) и памяти (Memory Clock), а также управлять поведением кулера (Fan Speed) и играться с напряжением (Core Voltage). Последнее, кстати, для безопасного разгона не рекомендуется.

    Любой софт, разумеется, стоит загружать только с официальных сайтов, чтобы не нарваться на различные «сюрпризы» при его установке.

    Superposition Benchmark от Unigine

    Помимо прочего, стоит также установить один из популярных тестов производительности от Unigine: Heaven Benchmark, Valley Benchmark или совсем новый Superposition Benchmark. Если вашей графической плате больше пяти лет, то суперсовременный Superposition может не запуститься — тогда ставьте любой из первых двух.

    Бенчмарки позволяют не только полюбоваться трёхмерными сценами по красоте едва ли не обгоняющими современные игры, но и быстро «разогреть» видеокарту после разгона, чтобы проверить систему на стабильность.

    Шаг 3: Тестируем текущую производительность

    Cначала запустите GPU-Z и сравните значения из пунктов Default Clock (стандартная частота графического ядра) и Boost из верхней строчки (текущая частота графического ядра в играх). Если они отличаются, значит ваша видеокарта имеет заводской разгон и повышение частот в Afterburner будет добавляться ещё сверху.

    Далее посмотрите на количество мегагерц в параллельных графах: GPU Clock и Default Clock, а также в верхней и нижней Memory. Вверху написаны текущие частоты без учета заводского разгона, а снизу — изначальные. Парные пункты должны совпадать между собой. В противном случае ваша графическая плата уже разогнана. Позже мы её обязательно сбросим через программу MSI Afterburner.

    Теперь прогоните встроенный тест на производительность в любой требовательной игре (например, GTA 5 или Rise of the Tomb Raider) и запишите среднюю частоту кадров в блокнот. После этого откройте один из бенчмарков Unigine упоминавшихся выше, ничего не меняйте в настройках (они сами подстроятся под ваш компьютер) и нажмите кнопку Run.

    По завершении тестирования бенчмарк выдаст результаты: общее количество баллов, минимальный, максимальный и средний FPS, максимальная температура графической платы и так далее. Все эти данные тоже стоит записать.

    Шаг 4: Поднимаем частоты

    Для работы с частотами видеокарты потребуется ранее скачанная утилита MSI Afterburner. Сразу после запуска она скорее всего будет выглядеть не так, как на изображении ниже. В новом интерфейсе ничего не понятно, поэтому просто зайдите в настройки, перейдите во вкладку «Интерфейс» и выберите Default MSI Afterburner v3 Skin. Теперь намного лучше.

    Для безопасного разгона нам нужны лишь два ползунка: Core Clock и Power Limit. Первый добавляет количество мегагерц к текущей частоте ядра в играх (в GPU-Z это был пункт Boost), а второй увеличивает лимит энергопотребления графической платы. По умолчанию MSI Afterburner настроен таким образом, что в Power Limit можно выкручивать на максимум и это лишь добавит стабильности (но необходим блок питания с запасом). Что касается пункта Memory Clock (текущая частота видеопамяти), то его лучше вообще не трогать — на графических платах последних лет давно нет выгоды от разгона видеопамяти, лишь одни проблемы со стабильностью.

    Для начала, на всякий случай, нажмите кнопку Reset (вдруг видеокарта уже разогнана). А теперь можно добавить немного мегагерц в графу Core Clock, но не больше 100 единиц. После этого нажимайте кнопку Apply и опять прогоняйте бенчмарк. В крайнем случае тестовая утилита просто выключится во время работы — значит нужно убавить десяток мегагерц и попробовать снова. Если же бенчмарк добрался до результатов, то ничего пока не сохраняйте и постепенно двигайтесь в сторону увеличения частоты, пока бенчмарк не начнет выключаться. Как только это произойдёт — возвращайтесь на предыдущее значение Core Clock.

    Когда бенчмарк уже работает стабильно, это пока не значит, что и в играх всё будет хорошо. Поэтому теперь нужно хотя бы полчаса поиграть во что-то требовательное к видеокарте: в те же GTA 5, последний Tomb Raider или Battlefield 1.

    Если за продолжительное время не было зависаний и искажений изображения, значит разгон успешен. Если нет — сбрасывайте ещё десяток мегагерц. Затем снова прогоните бенчмарк и поиграйте. Повторяйте, пока не найдёте надёжную повышенную частоту. При этом следите, чтобы максимальная температура видеокарты не была выше 80 градусов (можно посмотреть в результатах бенчмарка или в датчиках MSI Afterburner).

    Шаг 5: Замеряем прирост производительности

    Автору этих строк разгон добавил около 500 баллов

    Читать еще:  Как посмотреть какой сокет на материнке

    Когда стабильная частота ядра найдена, осталось лишь узнать, насколько увеличилась производительность. Здесь всё просто: в последний раз запускаем бенчмарк, а затем встроенный тест производительности из GTA 5 или других игр, упоминавшихся выше. Теперь сравниваем результаты после разгона с теми, что записывали в шаге 3.

    Если прирост составляет хотя бы 10%, то это уже очень хорошо (максимум на воздушном охлаждении — около 15%). В таком случае нужно открыть MSI Afterburner, нажать кнопку Save, затем мигающую цифру 1 и запереть замочек слева. Теперь разгон можно будет быстро активировать через эту цифру.

    Если же после разгона в играх добавляется лишь 1-2 кадра, то возможно лучше не рисковать и нажать кнопку Reset.

    Разгон видеокарт AMD и NVIDIA: руководство Hardwareluxx

    Страница 3: Разгон GeForce GTX 980

    Мы возьмем в качестве примера эталонную видеокарту GeForce GTX 980, из которой попытаемся выжать максимальный разгон. В первую очередь нам потребуется последняя версия утилиты GPU-Z, с помощью которой мы будем отслеживать наиболее важные параметры видеокарты, а с помощью утилит EVGA Precision X или MSI Afterburner мы будем выставлять параметры. Под рукой должны быть бумага с ручкой или цифровой эквивалент, чтобы заносить заметки по ходу разгона.

    Как мы уже отмечали выше, NVIDIA для механизма GPU Boost использует два параметра, влияющие на работу видеокарты. Более важный — Power Target, который NVIDIA для видеокарты GeForce GTX 980 выставила на уровне 165 Вт. Что интересно, NVIDIA за максимальную планку энергопотребления (100%) выставила мощность 180 Вт. Но во время разгона вы наверняка быстро в неё упретесь, поэтому первым шагом следует увеличить Power Target. При уровне 125 процентов мы получаем максимальное энергопотребление 225 Вт – но это касается эталонной версии GeForce GTX 980. У видеокарт, подобных EVGA GeForce GTX 980 Classified в BIOS уже занесены более высокие настройки, которые превышают спецификации NVIDIA. Чуть ниже мы подробнее остановимся на различиях между эталонными видеокартами и версиями с заводским разгоном, у последних производители могут лучше раскрывать потенциал возможностей.

    Кроме планки Power Target по энергопотреблению можно регулировать и планку Temperature Target по температуре. Выше мы объяснили в теории, что минимально возможная температура всегда лучше. По этой причине целевая максимальная температура не так важна – во время разгона мы будем стараться сохранять температуру как можно меньше. Так что можно смело оставить целевую температуру на уровне 80 °C.

    Затем следует определиться с тактовыми частотами GPU и памяти. Что касается памяти, то современные чипы GDDR5 могут легко разгоняться с 1.750 МГц до 2.000 МГц и выше без дополнительного охлаждения. Но эффект от разгона памяти не такой существенный. Частота GPU оказывает на производительность намного большее влияние, поэтому на ней мы будем фокусироваться в нашей статье. Мы будем ориентироваться не на определенную частоту смещения, а на частоту Boost, на которой будет работать GPU.

    Приступим к разгону

    Чтобы получить определенный запас мощности с самого начала, мы увеличили Power Target до +110 процентов. Затем мы увеличили частоту GPU до определенного уровня, после которого мы перейдем к небольшим шагам. Добавка от +100 до +150 МГц вполне возможна с любой видеокартой GeForce GTX 980, причём без каких-либо изменений Power Target. После добавки +100 МГц мы будем использовать шаги по 10 МГц, пока не достигнем максимума.

    После начального увеличения частоты мы провели прогон Futuremark 3DMark Fire-Strike, чтобы определить стабильную работу. Параллельно мы запустили утилиту GPU-Z, которая снимала показания сенсоров и записывала их в журнал. Подобный журнал легко заводится на вкладке «Sensors» утилиты GPU-Z, где достаточно выбрать опцию «Log to file». Тест 3DMark мы запускали не для получения каких-либо результатов производительности, а для проверки стабильности. Конечно, можно использовать и другие приложения для подобных тестов, но нам нравится 3DMark. Во время тестов 3DMark на экране не должно появляться каких-либо артефактов картинки, тест должен выполняться абсолютно стабильно. Если появляются ошибки, то мы подошли к максимуму видеокарты, либо требуется принять какие-либо меры. Но первые шаги по повышению тактовой частоты вряд ли приведут к ошибкам. Однако при дальнейшем повышении частоты проверка стабильности становится всё более важной.

    После завершения прогона 3DMark мы фиксируем настройки и результат производительности теста. Не мешает просмотреть созданный журнал GPU-Z. В столбце частоты GPU следует заметить максимальный уровень частоты. Данное значение может отличаться может отличаться от вручную выставленного в программе Boost Offset. Если два значения довольно близки друг к другу, то в механизме Boost не наблюдаются ограничения.

    Мы увеличили частоту GPU на +200 МГц и память на +200 МГц, чтобы показать возможные ограничения, с которыми вы можете столкнуться. Для большинства GPU GTX 980 подобный прирост частоты без подъёма напряжения приведёт к появлению артефактов картинки в 3DMark. Краха может и не наблюдаться, но появление артефактов уже говорит о потере стабильности работы, такой разгон вряд ли будет полезен.

    Следующим шагом можно либо сбросить частоту, либо увеличить напряжение. Мы будем использовать шаг по 6 мВ, напряжение у всех видеокарт «Maxwell» можно увеличивать до 1,216 В. Также мы немного увеличим планку Power Target, поскольку увеличение напряжения приводит к повышению энергопотребления. При этом тепловой пакет удобно отслеживать с помощью GPU-Z. Если мы получаем уровень 99 или даже 100 процентов от максимального TDP, то следует увеличить Power Target.

    Таким путём мы рано или поздно должны получить стабильную работу на максимальной частоте после повышения частоты, напряжения и Power Target. Важно фиксировать полученные данные, чтобы затем вы могли вернуться к последним рабочим настройкам и попробовать другие меры. Конечно, на всё это уйдет немало времени. Порядок должен быть следующим:

    1. Повышение частоты – сохраняется стабильность работы или нет? Если сохраняется, то частоту можно повышать дальше.
    2. Если стабильность теряется, можно увеличить Power Target.
    3. Если это не помогает, следует увеличить напряжение.

    Для эталонной видеокарты GeForce GTX 980 можно легко достичь частоты GPU 1.450 МГц и частоты памяти 1.950 МГц. Но условия получения этих частот у видеокарт разных производителей могут отличаться. В нашей тестовой лаборатории лучшие результаты показала видеокарта EVGA GeForce GTX 980 Classified, что связано не только с более мощной подсистемой питания, но другими оптимизациями производителя.

    Видеокарту EVGA удобно разгонять через модуль EVBot или неофициальную утилиту «GTX Classified Controller».

    Оба способа позволяют обойти некоторые механизмы защиты, например, позволяют устанавливать напряжение GPU от 0,8 В до 1,65 В. Но с видеокартой, использующей воздушное охлаждение, следует быть осторожным, поскольку она вряд ли выдержит длительную работу на 1,65 В. В наших тестах напряжение 1,35 В обычно давало хорошие результаты – но об этом чуть позже. Напряжение памяти в утилите можно изменять с 1,6 В до 1,8 В, напряжение интерфейса PCI Express – с 1,055 В до 1,215 В.

    Возможность дальнейшего увеличения напряжения по сравнению с порогом многих видеокарт позволяет получить более высокие тактовые частоты. Мы повышали частоту GPU и получили стабильную частоту Boost на уровне 1.651 МГц. Память заработала на частоте 2.050 МГц. Так что мы получили дальнейший разгон более чем на 14 процентов по сравнению с довольно высокой частотой Boost у эталонной видеокарты. Если потратить больше времени на оптимизацию тактовых частот и напряжения, то с видеокарты GeForce GTX 980 под воздушным охлаждением можно выжать и более высокие тактовые частоты, но наш результат оказался всё равно весьма достойным.

    Разгон привел к следующим результатам производительности:

  • Ссылка на основную публикацию
    Adblock
    detector