Radeon ASUS RX570 4 Gb не включается не определяется
Доброго дня всем, прошу помощи: приехала с Аллегро карта, вставляю в материнку, подключаю монитор — при запуске один короткий сигнал спикера типа всё ОК но изображения нет, кулеры на карте не крутятся, горит красный светодиод около 8пин разъёма доп. питания.
В дежурке горит белый светодиод около 8пин разъёма, а а при нажатии кнопки пуск сменяется на красный. БП вроде вполне подходящий — Chieftec GPS-450AA-101A. Если монитор переключить на встроенное видео материнки — всё включается и работает штатно при вставленной этой дискретной карте — т е комп её напрочь не видит вообще т к даже не отключает встроенное видео на материнской плате. Система — B85M-G, 12 Gb DDR3, WD 320 Gb Intel 4160
Слыхал что бывают проблемы с запуском этой серии: может я чего-то не так делаю — на этой же материнке Radeon RX460 отлично работает и определяется. на БП нет 8пин разъёма а есть 6пин разъём доп. питания видеокарты я его и подключаю — может ли быть в этом причина?
Комп её не видит совсем — сложный момент отчасти в том что я не могу её ковырять а только померять что-нибудь на доступных снаружи контактах. можно вернуть обратно, но будет хохма если карта таки рабочая, а просто у меня не хватило ума её запустить. Как быть, посоветуйте пож-та.
Перенес в Песочницу.
maco
Вот по ссылке можно видеть запуск и выключение — это уже на более новой мамке Z270 DDR4
Вложение | Размер |
---|---|
yeheebtk.jpeg | 46.7 КБ |
yn411bzo.jpeg | 48.89 КБ |
Перепрошил биос — всё осталось как прежде. Ищу power on sequence на графические карты, чтобы найти на каком этапе пропадает напряжение. 12 вольт приходит, но vrm не работает — хотя кз в транзисторах нет. Без power on sequence не могу понять, на каком этапе запускаются шим-ы питания памяти и vrm.
maco , подскажите хотя бы вкратце пожалуйста — что вслед за чем поднимается если идти от разъёма доп. питания а также по разъёму PCIe
Стабилизатор +5V запускается без проверок после появления +12V_PCIE (в некоторых схемах есть возможность переключения на +12V_EXT).
Проверяется наличие +3.3V, +12V_PCIE, +12V_EXT, потом запускается стабилизатор +1.8V (причем для работы этого стабилизатора может использоваться +5V).
PWR_GD от стабилизатора +1.8V используется для запуска стабилизатора +0.8V.
PWR_GD от стабилизатора +0.8V используется для запуска стабилизатора VDDC VDDCI.
PWR_GD от стабилизатора +0.8V и наличие выходного напряжения VDDCI (опционально) обеспечивают запуск стабилизатора MVDD.
PWR_GD от стабилизатора MVDD обеспечивают запуск стабилизатора VDDC.
updated
Попутно есть еще несколько сигналов, которые могут влиять на процесс .
Кстати, вы точно знаете функциональное назначение красного светодиода на данной видеокарте?
Для примера можно придумать указание на CTF, например.
Cпасибо, maco , попробую сегодня пройти по цепочке. Красный светодиод вроде сигнализирует о недостаточном питании или мощности его — насколько я понял, почитав некоторые материалы. хотя в некоторых отзывах упоминались карты этой серии, работающие с горящим красным индикатором.
Нашёл по ходу дела PDF со схемами, правда на MSI серию RX — наверное там много общего, тоже оставлю здесь — может кому пригодится.
Вложение | Размер |
---|---|
rx580_rx570_rx480_rx470_rx_ms-v341.pdf | 2.09 МБ |
На плате обозначены контрольные точки, измерил напряжения на них:
12V — 12,07V
VGPU — 0V
5V — 5,04V
3,3V — 3,4V
1,8V — 1,82V
VPEX — 0,92V
VMEM — 1,51V
VDDCI — 0V
ШИМ памяти включён, а ШИМ VRM нет — неужели разные разрешения им приходят? Вроде включение одного и второй параллельно должно включать — а если во втором затык — то и первый как бэ не должен включиться, или это не так? Выходит, что нет 0.8 вольта, или VPEX — это оно и есть?
Вложение | Размер |
---|---|
ur2jagj4.jpeg | 91.53 КБ |
неужели разные разрешения им приходят?
Оно же PEX, оно же 0.935V, оно же 0.8V (есть небольшие нюансы по величине для разных семейств).
Вы бы по выложенной вами же схеме поглядели бы . Там как раз ваша ситуация нормально выглядит.
Источник
Тепло, скорость, обман и что с этим всем делать. Владельцам видеокарт RX 570, RX 580 и иже с ними посвящается
Вступление издалека
реклама
Когда я был молод и горяч, то пристально следил, чтобы мой ПК непременно был напичкан топовым железом. И обязательно разогнан. Оверклокинг приносил результат! До сих пор, как память, храню блок питания, у которого 4-пиновый штекер для питания процессора обуглился и «приварился» к разъему на материнской плате (на самом деле блок питания валяется в кладовке просто потому, что я не смог продать его из-за плачевного физического состояния упомянутого контактного разъема, но пусть это будет наш секрет).
Но вот в 2008 году я купил свой первый игровой ноутбук. С видеокартой 9600М GT. В этом ноутбуке стоял мобильный процессор Intel P8400 2.26 ГГц. В этом процессоре все было прекрасно, он даже умел проделывать фокус SpeedStep до 2,4 ГГц на одно ядро. И эта приятная особенность делала ноутбук неигровым: после 15-20 минут игры, когда процессор уже хорошо прогревался, после подъема частоты (и напряжения питания) ядра до 2,4 ГГц тут же следовал резкий скачок температуры, немедля приходил злобный Троттлинг и занижал частоту ЦП до 800 МГц. Fps пикировал вслед за частотой. Со всеми вытекающими. Спустя секунду ситуация повторялась и т.д… В результате чехарды скачков температуры/частот ЦП и связанных с этим задержек, например, игровой fps ежесекундно мог меняться от 16 до 45 кадров/с и обратно в одной и той же игровой сцене. Естественно, из-за фризов процесс игры превращался в форменное безобразие и нервотрепку. Поскольку постоянно участвовать в этом безобразии не очень хотелось, выход был найден: для игр частота ЦП была принудительно программно ограничена до штатных 2.26 ГГц, и проблемы нестабильной частоты кадров ушли. Тогда я впервые столкнулся с ситуацией, когда повышенная частота и усиленное питание «железа» (даже в штатном режиме), которые вызывают повышенное тепловыделение аппаратной части компьютера – это абсолютное зло. С тех пор я, по мере возможности, старался приобретать энергоэффективные решения с разумным соотношением цена/производительность. А не самый «горячий» топ.
Что касается ноутбуков, то учитывая их лаконичные системы охлаждения, троттлинг еще можно понять и простить. Однако обнаружить похожую проблему в современных настольных ПК с видеокартами, позиционируемыми как игровые, лично для меня было удивительно. И тем не менее…
Тепло
реклама
Дети разъехались на каникулы, появилось чуток свободного времени, и вот на очередные выходные я засел за дочкин комп поиграть в старенький FarCry 4. Который в свое время «пропустил». Спустя некоторое время игры, я заметил, что плавность игрового процесса куда-то исчезла, стали появляться фризы, частота кадров вместо привычных 60 (включена вертикальная синхронизация) стала проседать до 37-49. Принимая во внимание, что на ПК установлена видеокарта MSI Radeon RX 580 ARMOR 8G OC, а сама игра FarCry 4 аж 2014 года выпуска, это было подозрительно. Причину я нашел довольно быстро: по данным мониторинга, температура ГП «топталась» у отметки 90°С и порой даже переваливала за 92°. Графический процессор банально был вынужден охлаждаться и сбрасывал частоты, которые и тянули fps ко дну. Конечно, жаркое лето на дворе, однако видеокарта установлена в приличном и нормально вентилируемом корпусе мини-тауэр, кулер видяхи чист и не забит пылью (я проверил), поэтому такое поведение видеокарты было совершенно непростительно. Надо было что-то с этим делать. Подумывал даже снимать СО и менять термоинтерфейс, но это был не лучший выход – карта еще на гарантии, не хотелось бы ее лишаться. Поэтому…
Скорость
Судьба закинула меня в другую комнату, где на благо всего прогрессивного человечества (представленного моей скромной персоной) трудится видеокарта HIS Radeon RX 570 IceQ X2 OC 8GB в паре с процессором AMD Ryzen 5 1600X. Я решил использовать видеокарту для опытов поставить с видеокартой пару экспериментов, используя вместо старичка FarCry 4 новую Shadow of the Tomb Raider. Ведь Лара женщина надежная, не подведет. Не то что Пэйган Мин, свернувший с «Золотого пути» на кривую дорожку.
Маркетологи компания HIS растеряли последние крохи совести. Если они у них вообще были, конечно. Иначе я не могу объяснить, как прибавив 20 МГц (1,6%) к штатной частоте ГП можно прилепить на видеокарту приставку ОС. Ну да ладно.
реклама
На дефолтной частоте при штатном напряжении эта видеокарта нормально проходит тест производительности Shadow of the Tomb Raider с приличными результатами. Но только один раз! Стоит нам сымитировать реальную длительную игровую нагрузку (запустив тест два-три раза подряд), как показатели видеокарты проседают. Причину этого легко заметить глядя тестовое видео: примерно на 20 секунде теста температура ГП достигает 88 градусов и графический процессор начинает потихоньку сбрасывать частоты, в дальнейшем по ходу теста вместо штатных 1264 МГц частота видеочипа снижается в район 1130 МГц и даже ниже (т.е. на 9% и более). То есть HIS смело могли добавить к своей видеокарте приставку DC (Downclocking), а не ОС. Видео:
Устранить это безобразие на видеокарте HIS оказалось довольно легко. Просто понизив напряжение питания ГП на 100 мВ, можно добиться того, что видеокарта не будет агрессивно сбрасывать частоты, а будет практически всегда поддерживать штатную частоту 1264 МГц для ГП:
реклама
Убедится в этом можно на следующем видео (тест с пониженным напряжением проводился после 2-х прогонов на штатном питании, так что результат вполне заслуживает доверия):
При этом с пониженным напряжением энергопотребление и соответственно тепловыделение видеокарты снизилось (это можно отследить по видео) примерно на 20 Вт (16%), а средний fps вырос на 3 кадра/с или на 5% (с 59 до 62 кадров/с), что можно назвать вдвойне приличным достижением. Естественно, в этих случаях часть ресурсов ПК тратилась на видеозапись. Без ведения видеозаписи «чистые» результаты в тесте выше еще примерно на 3 кадра/с (см. скриншот):
Тесты выше поведены на высоких настройках графики, но на максимальных ситуация принципиально не меняется — быстродействие с пониженным напряжением по-прежнему выше, о чем говорят следующие скриншоты:
Думаю, где вариант со сниженным напряжением вы поймете сами, глядя на температуру, частоту и энергопотребление ГП (верхняя строчка слева) на скриншотах.
На этом с HIS все. Возвращаемся к MSI. Эта компания оказалась куда более щедрой, добавив к нормативной частоте ГП видеокарты целых 26 МГц (1,9%). Это дает нам куда меньше оснований возмутится, увидев в конце этой видеокарты «знаковую» приставку ОС. К несчастью, даже на этой скромно-возвышенной частоте видеокарта MSI Radeon RX 580 ARMOR 8G OC все равно не может работать долго и счастливо.
Уже на втором тесовом проходе Shadow of the Tomb Raider частота ГП во многих игровых сценах падает до примерно 1250 МГц, а временами опускается до «дна» в 914 – 950 МГц, что можно заметить, просмотрев видео теста. Причина очевидна, температура ГП приближается к критическим 90°С, и здесь уже вовсю начинается разгул троттлинга:
Совладать с видеокартой MSI оказалось немного труднее, чем с HIS. Увы, на штатной частоте ГП (1366 МГц) понизить напряжение можно только на 50 мВ, иначе карта теряет стабильность. Но проку от -50 мВ никакого. Температура ГП все равно быстро добирается до 90 градусов со всеми вытекающими печальками. Нужно понижать градус! И путь здесь остается только один – снижать частоту ГП.
Чтобы быстро достичь приемлемого результата и избежать нестыковок по синхронизации частот (это может негативно отразится на производительности), давайте пойдем на снижение с тем же шагом, что и производитель «разгонял» – это 26 МГц.
Снова печаль: на штатной для RX 580 частоте 1340 МГц карта с пониженным на 100 мВ напряжением работала по-прежнему нестабильно, а -50мВ снова не давали требуемый результат. Но нас так просто не остановить. Еще -26 МГц. И вот оно, счастье: на частоте ГП 1313 МГц видеокарта стабильно проходит тесты при пониженном на 100 мВ напряжении, при этом не сбрасывая частоту ГП во время воспроизведения игровых сцен Shadow of the Tomb Raider. Ура, товарищи! (Бурные, продолжительные аплодисменты).
Но не слишком ли мы пожертвовали производительностью, снизив максимальную частоту ГП видеокарты с 1366 до 1313 МГц (на 3,9%)? Смотрим…
Тестовый прогон показывает, что жертвовать производительностью не только не пришлось, а более того, средняя частота fps даже выросла на 5% – с 56 до 59 кадров/с (тест на максимальных настройках графики, часть ресурсов ПК тратилась на видеозапись, без видеозаписи результат на несколько кадров/с выше в обоих случаях). Таким образом, благодаря оптимальному температурному режиму с пониженным напряжением питания, когда ГП не сбрасывал частот во время просчета игровых сцен, мы даже выиграли в производительности, по сравнению с «дефолтным» состоянием. Плюс энергопотребление видеокарты под нагрузкой теперь упало примерно на 12 Вт (около 10%), что тоже плюс.
Обман
Разумеется, у других видеокарт могут быть иные системы охлаждения и температурные режимы (как лучше, так и хуже), и мой личный опыт с 2-мя видеокартами не претендует на всеобъемлющую полноту и абсолютную истину. Тем не мене, совершенно очевидно, что не единичны случаи, когда производители подсовывают потребителям технику (якобы даже с разгонным потенциалом — ОС), которая на самом деле не способна нормально работать со штатной системой охлаждения и установленными параметрами питания в выбранном производителем режиме. По крайней мере, когда речь идет не о работе в составе открытого тестового стенда, а о работе в типичном компьютерном корпусе мини-тауэр (я уже не говорю за всякие там компактные модели корпусов). В принципе, обман потребителей налицо. Впрочем, любому производителю главное продать вам товар – а дальше не его забота.
Подведем итог
«Предупрежден — значит вооружен». Думаю, никто не хочет, чтобы его игровая видеокарта работала «Горячо и медленно», как задумал нерадивый производитель. Ну что же, потратьте немного времени на настройку, и сделайте так, чтобы видеокарта работала «быстро и комфортно», как желаете вы. Надеюсь, эта статья поможет вам «копать» в правильном направлении.
Ну и, само собой, целесообразность разгона видеокарт RX 570 и RX 580 со штатными системами охлаждения лично у меня вызывает большие сомнения.
Источник