Интересно и много народу ведется на эту "новость"? Появилась то она несколько месяцев назад и была с юмором встречена ИТ специалистами, но видно народу надо являть чудеса отечественной науки, а потому сойдет...
Так понимаю, что мужикам удалось привести свою задачу к такому виду, чтобы её можно было решать на высокопроизводительном специализированном процессоре. Молодцы, конечно, но вряд ли таких задач бывает много, это всё же частный случай. Кстати, биткоины, кажется, тоже на графическом процессоре намного быстрее создаются.
Это хороший вопрос, с каким именно суперкомпьютером сравнивать, в статье это не указано, поэтому, можем только предположить, исходя из имеющейся информации.
В итоге усовершенствованный персональный компьютер за 15 минут выполняет ту работу, на которую суперкомпьютер тратит 2-3 дня.
Как мы видим, говориться, не о прошедшем, а настоящем времени, то есть, о современном суперкомпьютере. Мы знаем, что эти учёные из МГУ, а в МГУ есть собственный суперкомпьютер "Ломоносов". Теперь делаю логическое предположение, что именно на этом суперкомпьютере и делались расчёты, пока не придумали, как обойтись без него. Следовательно, сравнивают с ним. Таково предположение.
«Мы добились скорости, которая и присниться не может, — рассказал Владимир Кукулин. – Программа работает так, что 260 миллионов сложных интегралов на настольном компьютере она считает за три секунды. И никакого сравнения с суперкомпьютерами! Мой коллега из Тюбингенского университета, лаборатория которого занимается тем же, ведет расчеты с помощью суперкомпьютера BLUEGENE, что на самом деле очень дорогое удовольствие. И то, чего он добивается за двое-трое суток, мы делаем за 15 минут, не потратив ни копейки».
========================================
BLUEGENE соревнуется с настольным компьютером... мугахахаххаа.
Вот Вы и ответили сами на свой вопрос, это замечательно.
BLUEGENE соревнуется с настольным компьютером...
Найти информацию Вы смогли, так дело за малым: понять её. Нет никаких соревнований в мощности и производительности ПК и суперкомпьютера. Новость о другом. О том, что наши учёные придумали ДРУГОЙ МЕТОД расчёта, они придумали оптимизированный алгоритм расчётов, ниже в диалоге с wipwiper изложил своё виденье, как это было сделано.
В качестве иллюстрации разных методов расчёта, напомню легенду о маленьком мальчике, который надоедал учителю вопросами и чтобы надолго его занять, учитель озадачил мальца суммировать числа от 1 до 100. Только ответ последовал почти мгновенно... А мальчик вырос и стал великим немецким математиком. Звали его Карл Фридрих Гаусс.
Весьма возможно, но это никто никогда не узнает, так как для решения целого ряда задач теперь отпадает необходимость использования весьма дорогого машинного времени суперкомпьютера.
Вы шутите? Какой оверклокинг позволит обычный ПК сделать быстрее суперкомпьютера в сотни раз быстрее?!! Вот, гляньте на производительность суперкомпютеров, хотя бы, на самый "хилый": ТOP-50. Только изменение методики решения задачи может позволить дать такой результат.
Решения задачи может быть как железным, так и программным: скажем их вычисления могут быть выполнены в виде программы написанной на ассемблере. Собственно их компьютер ничем не отличается от обычной ноды суперкомьютера и как он мог обойти целый суперкомп по железу я не представляю. В Вашей статей нет никакой конкретики, а хотелось бы.
Задача состоит в проведении расчетов сложных уравнений квантовой механики. Ваше предположение "Решения задачи может быть как железным..." неверно, скорее всего, Вы имели ввиду какую-то иную задачу, но это уже к обсуждаемому вопросу не имеет отношения.
Своё видение, каким образом простой ПК мог "обогнать" суперкомпьютер я изложил ниже (в диалоге с wipwiper).
Это хороший вопрос, с каким именно суперкомпьютером сравнивать, в статье это не указано, поэтому, можем только предположить, исходя из имеющейся информации.
В итоге усовершенствованный персональный компьютер за 15 минут выполняет ту работу, на которую суперкомпьютер тратит 2-3 дня.
Как мы видим, говориться, не о прошедшем, а настоящем времени, то есть, о современном суперкомпьютере. Мы знаем, что эти учёные из МГУ, а в МГУ есть собственный суперкомпьютер "Ломоносов". Теперь делаю логическое предположение, что именно на этом суперкомпьютере и делались расчёты, пока не придумали, как обойтись без него. Следовательно, сравнивают с ним. Таково предположение.
> Следовательно, сравнивают с ним. Таково предположение.
это всего лишь предположение. даже если они считали что то на суперкомпьюетер Ломоносов вы даже предположить не можете сколько им узлов выделили для их расчета. не весь же "Ломоносов"
> Только изменение методики решения задачи может позволить дать такой результат.
Да что вы пишите такое... какой еще методики? про ожидаемый прирост производительности от использования CUDA известно еще в 2008 было. Народ использовал, но не писал об этом как о каком-то чуде
Тут другая ситуация, точность выбрана достаточная для решения задачи, что в случае суперкомпьютера, что здесь.
Идея использования графического процессора в качестве математического сопроцессора не нова, таким образом можно убыстрить расчёты в несколько раз. Но в данном случае убыстрение произошло на несколько порядков!!! Насколько я понял, они решили задачу не математическим, а графическим методом.
Задача решается при любой точности, только результат может отличатся))))
Метод тут в обоих случаях математический, и суперкомпутеры с графическими ускорителями тоже не новость, тут упор на малую требовательность алгоритма, скорее всего из за упрощения.
Задача решается при любой точности, только результат может отличатся))))
Видите ли в чём дело, в данном случае задача состоит в математическом моделировании физического процесса. Таким образом, достаточной точностью будет та, когда результат математического расчёта совпадёт с результатом проведённого физического опыта. В статье говориться: "Из-за невероятной сложности уравнения не поддавались исследователям до появления суперкомпьютеров". То есть, о снижении точности речь не идёт, ведь почему-то до появления суперкомпьютеров никому в голову не приходило снижать точность расчётов, спрашивается почему? Ответ понятен: это невозможно, так как результат не совпадёт с результатом опыта.
Решали именно графическим методом, создали виртуальный экран ("ядро") в "сотни триллионов пикселей", а далее рисовали "с помощью графического процессора и софта Nvidia". Графический процессор великолепно и очень быстро рисует векторную графику. Но такой огромны экран графический процессор не потянет, поэтому пришлось его разбить на 65 тысяч кусков, на каждый выделили отдельный поток вычислений графического процессора. Идея гениальная.
Физитечких опытов подобного рода ещё долго не будет, если вообще будут, пока только математическая модель имеется. Упрощать формулы можно, но нужно доказать (иногда доказательства достаточно сложны), что степень снижения точности предсказуемо влияет на результат, не делает его ничтожным.
Я Вас, возможно, удивлю, "графическая" визуализация никак не влияет на математическую составляющую))) Использовались таки универсальные шейдеры, аппаратные блоки вывод пикселей не имеют расчётных возможностей)))
Скажите мне, Киса, как программист программисту, вы код писать умеете? (с)
;)
"Уравнения ... были сформулированы еще в 60-х гг. Они описывают процесс рассеяния нескольких квантовых частиц, представляя собой некий квантовомеханический аналог ньютоновой теории трех тел."
Удивлён Вашему категорическому заявлению: "Физитечких опытов подобного рода ещё долго не будет". Судя по информации в статье, опыты элементарны, не сложнее опыта Резерфорда, но считать сложно. Там же сказано: "квантовомеханический аналог ньютоновой теории трех тел".
Кроме того, я не понимаю, откуда у Вас взялась идея о сниженной степени точности вычисления, в статье даётся другая информация: "В итоге усовершенствованный персональный компьютер за 15 минут выполняет ту работу, на которую суперкомпьютер тратит 2-3 дня." Здесь говорится о ТОЙ ЖЕ САМОЙ работе, а не упрощённой.
Про какие "аппаратные блоки вывод пикселей" Вы говорите? Причём тут ВЫВОД пикселей? Графический процессор обрабатывает информацию (как и любой иной процессор), находящуюся в оперативке, которая выделена в виде графической памяти. Я не знаю СКОЛЬКО её требуется, ведь нет информации сколько бит отведено на пиксел, не важно, проблему эту решили, недостатка в памяти нет — и хорошо. Графический процессор выполняет ту работу, на которую заточен. Он не работает, как математический сопроцессор для центрального процессора, а именно сам полностью выполняет работу — только таким образом можно было добиться сумасшедшей производительности.
Элементарность описания не определяет элементарность опыта))))
Не расшифрован термин суперкомпьютер, если это громадина прошлого века, имеющая производительность современного смартфона, это одно, если это что то более новое, притом по факту использующая ускорители на базе графических чипов, то сравнивать производительность можно только ради смеха, и да, действительно, сумасшедшего смеха)))) Не так уж и производительны графические чипы, особенно по сравнению с векторными расширениями современных процев)))
> Но такой огромны экран графический процессор не потянет, поэтому пришлось его разбить на 65 тысяч кусков, на каждый выделили отдельный поток вычислений графического процессора. Идея гениальная.
Комментарии
какой именно суперкомпьютер тратит на это 2-3 дня?
Это хороший вопрос, с каким именно суперкомпьютером сравнивать, в статье это не указано, поэтому, можем только предположить, исходя из имеющейся информации.
В итоге усовершенствованный персональный компьютер за 15 минут выполняет ту работу, на которую суперкомпьютер тратит 2-3 дня.
Как мы видим, говориться, не о прошедшем, а настоящем времени, то есть, о современном суперкомпьютере. Мы знаем, что эти учёные из МГУ, а в МГУ есть собственный суперкомпьютер "Ломоносов". Теперь делаю логическое предположение, что именно на этом суперкомпьютере и делались расчёты, пока не придумали, как обойтись без него. Следовательно, сравнивают с ним. Таково предположение.
то есть на своем персональном компьютере они посчитали с графической картой NVIDIA быстрее чем на Ломоносове с той же самой графической картой?
========================================
«Мы добились скорости, которая и присниться не может, — рассказал Владимир Кукулин. – Программа работает так, что 260 миллионов сложных интегралов на настольном компьютере она считает за три секунды. И никакого сравнения с суперкомпьютерами! Мой коллега из Тюбингенского университета, лаборатория которого занимается тем же, ведет расчеты с помощью суперкомпьютера BLUEGENE, что на самом деле очень дорогое удовольствие. И то, чего он добивается за двое-трое суток, мы делаем за 15 минут, не потратив ни копейки».
========================================
BLUEGENE соревнуется с настольным компьютером... мугахахаххаа.
BLUEGENE соревнуется с настольным компьютером...
Найти информацию Вы смогли, так дело за малым: понять её. Нет никаких соревнований в мощности и производительности ПК и суперкомпьютера. Новость о другом. О том, что наши учёные придумали ДРУГОЙ МЕТОД расчёта, они придумали оптимизированный алгоритм расчётов, ниже в диалоге с wipwiper изложил своё виденье, как это было сделано.
В качестве иллюстрации разных методов расчёта, напомню легенду о маленьком мальчике, который надоедал учителю вопросами и чтобы надолго его занять, учитель озадачил мальца суммировать числа от 1 до 100. Только ответ последовал почти мгновенно... А мальчик вырос и стал великим немецким математиком. Звали его Карл Фридрих Гаусс.
осталось только дело за малым — показать что это ДРУГОЙ МЕТОД расчета достаточно точный
Новсоть осколково что ли?
Своё видение, каким образом простой ПК мог "обогнать" суперкомпьютер я изложил ниже (в диалоге с wipwiper).
быстрее какого именно суперкомпьютера?
В итоге усовершенствованный персональный компьютер за 15 минут выполняет ту работу, на которую суперкомпьютер тратит 2-3 дня.
Как мы видим, говориться, не о прошедшем, а настоящем времени, то есть, о современном суперкомпьютере. Мы знаем, что эти учёные из МГУ, а в МГУ есть собственный суперкомпьютер "Ломоносов". Теперь делаю логическое предположение, что именно на этом суперкомпьютере и делались расчёты, пока не придумали, как обойтись без него. Следовательно, сравнивают с ним. Таково предположение.
это всего лишь предположение. даже если они считали что то на суперкомпьюетер Ломоносов вы даже предположить не можете сколько им узлов выделили для их расчета. не весь же "Ломоносов"
Да что вы пишите такое... какой еще методики? про ожидаемый прирост производительности от использования CUDA известно еще в 2008 было. Народ использовал, но не писал об этом как о каком-то чуде
Идея использования графического процессора в качестве математического сопроцессора не нова, таким образом можно убыстрить расчёты в несколько раз. Но в данном случае убыстрение произошло на несколько порядков!!! Насколько я понял, они решили задачу не математическим, а графическим методом.
Метод тут в обоих случаях математический, и суперкомпутеры с графическими ускорителями тоже не новость, тут упор на малую требовательность алгоритма, скорее всего из за упрощения.
Видите ли в чём дело, в данном случае задача состоит в математическом моделировании физического процесса. Таким образом, достаточной точностью будет та, когда результат математического расчёта совпадёт с результатом проведённого физического опыта. В статье говориться: "Из-за невероятной сложности уравнения не поддавались исследователям до появления суперкомпьютеров". То есть, о снижении точности речь не идёт, ведь почему-то до появления суперкомпьютеров никому в голову не приходило снижать точность расчётов, спрашивается почему? Ответ понятен: это невозможно, так как результат не совпадёт с результатом опыта.
Решали именно графическим методом, создали виртуальный экран ("ядро") в "сотни триллионов пикселей", а далее рисовали "с помощью графического процессора и софта Nvidia". Графический процессор великолепно и очень быстро рисует векторную графику. Но такой огромны экран графический процессор не потянет, поэтому пришлось его разбить на 65 тысяч кусков, на каждый выделили отдельный поток вычислений графического процессора. Идея гениальная.
Я Вас, возможно, удивлю, "графическая" визуализация никак не влияет на математическую составляющую))) Использовались таки универсальные шейдеры, аппаратные блоки вывод пикселей не имеют расчётных возможностей)))
;)
"Уравнения ... были сформулированы еще в 60-х гг. Они описывают процесс рассеяния нескольких квантовых частиц, представляя собой некий квантовомеханический аналог ньютоновой теории трех тел."
Удивлён Вашему категорическому заявлению: "Физитечких опытов подобного рода ещё долго не будет". Судя по информации в статье, опыты элементарны, не сложнее опыта Резерфорда, но считать сложно. Там же сказано: "квантовомеханический аналог ньютоновой теории трех тел".
Кроме того, я не понимаю, откуда у Вас взялась идея о сниженной степени точности вычисления, в статье даётся другая информация: "В итоге усовершенствованный персональный компьютер за 15 минут выполняет ту работу, на которую суперкомпьютер тратит 2-3 дня." Здесь говорится о ТОЙ ЖЕ САМОЙ работе, а не упрощённой.
Про какие "аппаратные блоки вывод пикселей" Вы говорите? Причём тут ВЫВОД пикселей? Графический процессор обрабатывает информацию (как и любой иной процессор), находящуюся в оперативке, которая выделена в виде графической памяти. Я не знаю СКОЛЬКО её требуется, ведь нет информации сколько бит отведено на пиксел, не важно, проблему эту решили, недостатка в памяти нет — и хорошо. Графический процессор выполняет ту работу, на которую заточен. Он не работает, как математический сопроцессор для центрального процессора, а именно сам полностью выполняет работу — только таким образом можно было добиться сумасшедшей производительности.
Не расшифрован термин суперкомпьютер, если это громадина прошлого века, имеющая производительность современного смартфона, это одно, если это что то более новое, притом по факту использующая ускорители на базе графических чипов, то сравнивать производительность можно только ради смеха, и да, действительно, сумасшедшего смеха)))) Не так уж и производительны графические чипы, особенно по сравнению с векторными расширениями современных процев)))
Facepalm... иначе и не скажешь
ну да. если использовать CUDA на определенных задачах убыстрение будет на несколько порядков. это для вас новость?