Я из старой школы (некоторые называют это олдскулл, ну и дураки), так я продолжаю считать что архитектура, применительно к данному процессу — дает гигантский скачок ежели прирост частоты.
Т.е. — заставь дурака в 2 раза быстрее бегать — он больше работы не сделает (точнее — сделает в 2 раза больше ошибок, что сведет его работу на нет)
Я нем могу понять толку от всех этих разгонов — угробить процессор на раз? Стабильно система на этой частоте не работает, многопоточные вычисления не запустишь, прирост этой мощности нигде не используешь.
После появления многоядерновсти частота стала не особо актуальна, стал расти спрос на память, ведь возможность выполнения нескольких приложений одновременно стало давить именно на память частота/объем, не на процессор.
Сначала был Селерон 1100, я не мог нарадоваться на него, потом был Атлон 4200 и я думал, как же я жил с медленным Селероном, +1 ядро было существенно, потом появился Феном 9550 (4-е ядра) прибавка была, но не настолько существенна как м/у Селероном и FX4200, теперь у меня AMD 6350 (6 ядер) и я уже не заметил разницы между 4 и 6 ядрами, о 8 ядрах даже не думаю.
Существенный плюс я заметил когда повысил память до 16Гб, стало можно запускать несколько задач сразу, 2 игры, пару фильмов и прочую мелочь.
Но самый кайф попер после перехода на SSD, тут появилась плавность в работе и удовлетворение.
Так что частота процессора далеко не главное, главное что бы вся периферия была быстрой, какой смысл в мощном движке порша стоящего на кирпичах вместо колес?
В то время как эльбрус разогнали до 2 ггц в специальной масляно-азотной ванне какие-то там геепеды путём анальной стимуляции разгоняют до 5.2 на воздухе... Загнивающий запад!
))) Вы "удельные" гигафлопсы посчитате, в пересчете на частоту. Вы ох$уте от производительности эльбруса. И теплопакет посмотрите. А потом можете пукать.
Кроме того, эльбрус не для масс. Пока во всяком случае.
неоднозначно, хотя для одного случая в моей практике верно. У меня был Атлон на торобреде 1700 степпинг В. при 1.75 вольта работал на 2100 гигагерца а при 1.45 на 2300. При этом штатное напряжение было 1.5
зачем его понижать? проц тогда будет нестабильно работать даже на штатной частоте, выигрыша в потреблении не будет, а дольше жить от этого он не начнет.
исключительно с целью уменьшения мощности потребления, потому как с точки зрения схемотехники пониженное питание это минус — сложнее получить необходимое быстродействие
максимальное быстродействие достижимо только на линейном участке характеристики транзистора. В ключевом режиме (rail-to-rail) фронты начинают затягиваться. А для вывода транзистора на линейный участок необходим запас по питанию. Всё очень просто
не путайте холодное с мягким. 12-и вольтовая амплитуда сигнала и 12-и вольтовое питание это не одно и то же. При питании 5 вольт размах может составлять сотни милливольт и это как раз оптимальное соотношение для максимального быстродействия
Не отловите вы ваши десятки при работе процессора. И система не будет работать.
Я же говорю именно про амплитуду сигнала на ключах! А не эфимерное питание.
Понятно дело, что понижая питание стремятся понизить потребление и выделение тепла. Но если принять за истину, про ваши "микровольты", тогда теряется смысл повышения напряжения при разгоне.
1,2 вольта на процессоре, это и есть размах сигнала на ключах. Ну, чуть поменьше, т.к. логический ноль не равно 0 вольт. А чуть больше.
Раньше в старых процах и питание было выше, и амплитуда сигнала соответственно.
Вольтаж при разгоне понимают отнюдь не блага ради. А чтобы уровень единицы от уровня нуля было можно отличить, при искажении в худшую сторону фронтальной и тыльной части сигнала из-за разгона. Т.е нештатной ситуации.
"... Напряжение растет не меандром. А по нарастающей. Зачем тратить время для достижения 12 вольт, если при 1,5 все прекрасно работает?"...
переходные характеристики мы считали курсе так на третьем примерно ))) еще раз вам обьясняю — питание понижают для уменьшения мощности потребления, а длительность фронта нормированной переходной характеристики НЕ ЗАВИСИТ от напряжения питания, потому как при изменении напряжения питания соответственно меняются и пороги. Длительность фронта зависит в первую очередь от режима работы транзисторов (те самые сотни милливольт размаха при питании от 5 вольт — почитайте выше) и паразитных емкостей кристалла, которые зависят от технологии изготовления кристалла. Вот почему идет борьба за нанометры — это уменьшает паразитные ёмкости.
И еще раз повторяю — от напряжения питания напрямую длительность нормированных фронтов НЕ ЗАВИСИТ
Разгон процессоров в нынешних реалиях особо не актуален. Что с обычным штатным кулером, что на жидком азоте когда действительно можно увидеть и зафиксировать желанные заоблачные гигагерцы.
А вот ранее, примерно до середины нулевых разгон действительно имел смысл.
Когда-то разгоняли даже XTшки, 286, 386 и тому подобные раритеты. Это было действительно интересно ;) Надо было, как минимум, перепаивать кварц. Да и результат того стоил. Повышение производительности можно было увидеть визуально.
Проще же всего разгонялись 486, Pentium, Pentium 2/3. Ведь для разгона было достаточно перекинуть пару перемычек на плате...
И в этом даже был какой-никакой смысл. Ведь именно в это время наиболее активно росла производительность процессоров новых поколений. А саму производительность было ещё наглядно видно. Да и мегагерцы были ещё не такими абстрактными. Производительность процессоров тогда измерялась не только ФПСами в крутых играх, но и производительностью и скоростью открытия обычных программ.
С приходом 4х пентиумов, а затем и различных Core XXX значение разгона постепенно сошло на нет.
Производительность определялась уже скорее объёмом ОЗУ и мощностью видеокарты...
Но самым интересным оказалось появление дополнительных ядер процессоров. Сначала 2х, потом и 16...
А прикол был в том, что до сих пор большую часть ПО разработчики оптимизируют под 1 ядро...
Соответственно, как бы ни было загружено это самое 1 ядро, остальные чаще всего тупо простаивают ;)
Итог — многоядерный процессор практически никогда не бывает загружен на 100%. Соответственно, и используется далеко не на 100%.
Сами же ядра в плане производительности, особенно в течение последних лет 5, поменялись слабо...
Соответственно, даже весьма "древние" по нынешним меркам процессоры вполне могут обеспечить приемлемую производительность в 90% задач.
+ Тоже не понимаю зачем оно сейчас, вот было время, шину с 66 на 75 перемкнул, 25-30% производительности в +. И игра перестала поддергиваться, смысл был. А сейчас, мне в душе оно ... 60 или 63 FPS.
с 2,4 до 3,2+ ГГц разогнан проц на штатном кулере, нагрев при макс. загрузке — около 50 градусов, прирост производительности в ресурсоемких приложениях довольно заметный. почему бы этим не пользоваться?
При необходимости, конечно ДА !!! Но ради 2-5 % FPS — глупость :). Были у меня квантовые расчеты, молекула считалась порядка недели, тут 5% — 1 день. И на одноядерном во время расчета ворд очень дико тормозил, компом просто нельзя было пользоваться.
Комментарии
Т.е. — заставь дурака в 2 раза быстрее бегать — он больше работы не сделает (точнее — сделает в 2 раза больше ошибок, что сведет его работу на нет)
Сначала был Селерон 1100, я не мог нарадоваться на него, потом был Атлон 4200 и я думал, как же я жил с медленным Селероном, +1 ядро было существенно, потом появился Феном 9550 (4-е ядра) прибавка была, но не настолько существенна как м/у Селероном и FX4200, теперь у меня AMD 6350 (6 ядер) и я уже не заметил разницы между 4 и 6 ядрами, о 8 ядрах даже не думаю.
Существенный плюс я заметил когда повысил память до 16Гб, стало можно запускать несколько задач сразу, 2 игры, пару фильмов и прочую мелочь.
Но самый кайф попер после перехода на SSD, тут появилась плавность в работе и удовлетворение.
Так что частота процессора далеко не главное, главное что бы вся периферия была быстрой, какой смысл в мощном движке порша стоящего на кирпичах вместо колес?
Кроме того, эльбрус не для масс. Пока во всяком случае.
зачем его понижать? проц тогда будет нестабильно работать даже на штатной частоте, выигрыша в потреблении не будет, а дольше жить от этого он не начнет.
Кроме того, вы представляете вон на 5Гигагерцах при амплитуде 12 Вольт? ))) Ваш кардиостимулятор скажет "кряк".
И при чем здесь кардиостимулятор ???
Смотрите переходные процессы, скорость нарастания сигнала и т.д.
тогда будет яснее.
Я же говорю именно про амплитуду сигнала на ключах! А не эфимерное питание.
Понятно дело, что понижая питание стремятся понизить потребление и выделение тепла. Но если принять за истину, про ваши "микровольты", тогда теряется смысл повышения напряжения при разгоне.
1,2 вольта на процессоре, это и есть размах сигнала на ключах. Ну, чуть поменьше, т.к. логический ноль не равно 0 вольт. А чуть больше.
Раньше в старых процах и питание было выше, и амплитуда сигнала соответственно.
Посмотрите datasheet и сомнения отпадут.
переходные характеристики мы считали курсе так на третьем примерно ))) еще раз вам обьясняю — питание понижают для уменьшения мощности потребления, а длительность фронта нормированной переходной характеристики НЕ ЗАВИСИТ от напряжения питания, потому как при изменении напряжения питания соответственно меняются и пороги. Длительность фронта зависит в первую очередь от режима работы транзисторов (те самые сотни милливольт размаха при питании от 5 вольт — почитайте выше) и паразитных емкостей кристалла, которые зависят от технологии изготовления кристалла. Вот почему идет борьба за нанометры — это уменьшает паразитные ёмкости.
И еще раз повторяю — от напряжения питания напрямую длительность нормированных фронтов НЕ ЗАВИСИТ
Скорость — волшебное слово.
А в принципе да. Вопрос технологий.
А в целом — да. Хорошие были времена.
А вот ранее, примерно до середины нулевых разгон действительно имел смысл.
Когда-то разгоняли даже XTшки, 286, 386 и тому подобные раритеты. Это было действительно интересно ;) Надо было, как минимум, перепаивать кварц. Да и результат того стоил. Повышение производительности можно было увидеть визуально.
Проще же всего разгонялись 486, Pentium, Pentium 2/3. Ведь для разгона было достаточно перекинуть пару перемычек на плате...
И в этом даже был какой-никакой смысл. Ведь именно в это время наиболее активно росла производительность процессоров новых поколений. А саму производительность было ещё наглядно видно. Да и мегагерцы были ещё не такими абстрактными. Производительность процессоров тогда измерялась не только ФПСами в крутых играх, но и производительностью и скоростью открытия обычных программ.
С приходом 4х пентиумов, а затем и различных Core XXX значение разгона постепенно сошло на нет.
Производительность определялась уже скорее объёмом ОЗУ и мощностью видеокарты...
Но самым интересным оказалось появление дополнительных ядер процессоров. Сначала 2х, потом и 16...
А прикол был в том, что до сих пор большую часть ПО разработчики оптимизируют под 1 ядро...
Соответственно, как бы ни было загружено это самое 1 ядро, остальные чаще всего тупо простаивают ;)
Итог — многоядерный процессор практически никогда не бывает загружен на 100%. Соответственно, и используется далеко не на 100%.
Сами же ядра в плане производительности, особенно в течение последних лет 5, поменялись слабо...
Соответственно, даже весьма "древние" по нынешним меркам процессоры вполне могут обеспечить приемлемую производительность в 90% задач.
и почитайте, что такое cuda. это когда обычного процессора не хватает и народ смотрит в сторону многопроцессорной видеокарты...