Тяньхэ-1А — суперкомпьютер, спроектированный Национальным университетом оборонных технологий Китайской Народной Республики[3]. Скорость вычислений, производимых суперкомпьютером, составляет 2,57 петафлопс, что по данному показателю ставит его на первое место среди ЭВМ подобного класса (на октябрь 2010 года)[4], оставляя позади суперкомпьютер Cray XT5 (1,76 петафлопс), расположенный в Национальной лаборатории Оук-Риджа в США[1].
Тяньхэ-1А использует 7168 графических процессоров Nvidia Tesla M2050 и 14336 серверных процессоров Intel Xeon
- Расчеты на них способны учесть как сложную геометрию, так и огромное количество факторов в их пространственных и временных изменениях, т.е. как бы воспроизводят сам реальный процесс.
Это, например, квантово-механические расчеты, моделирование систем на атомарном уровне, моделирование процессов старения ядерных материалов (при хранении ядерного оружия). Для проектирования наносистем такое моделирование часто оказывается единственным подходом, поскольку квантовые явления замерить трудно.
Возьмем, к примеру, проблему увеличения выхода нефти через закачивание в подземные горизонты воды для повышения давления. Нефтяники знают: иногда вода (за счет меньшей вязкости) может прорваться к откачивающим скважинам и вместо нефти мы будем откачивать эту же самую воду. Но если рассчитывает процесс мощная вычислительная машина, если она же, в помощь оператору, ведет мониторинг с учетом структуры геологического пласта и предыстории добычи, то выход нефти увеличивается на несколько процентов, что для нефтяного бизнеса очень существенно.
Расчеты снижения аэродинамического сопротивления фюзеляжа летательных аппаратов уменьшают необходимость в дорогостоящих экспериментах на аэродинамических трубах. С областью аэродинамики и гидродинамики связаны и важнейшие оборонные задачи.
Суперкомпьютеры нужны в метеорологических исследованиях, в биотехнологиях, в фармацевтике, в финансах. Исключительно важно моделирование работы человеческого мозга, нахождение новых методов диагностики заболеваний человека и способов лечения. Эта задача — огромной государственной важности и заверяю: российские ученые смогут создать вычислительную технику, а также матобеспечение и программы для быстрых и относительно дешевых расчетов массового медицинского применения.
Возьмем, к примеру, проблему увеличения выхода нефти через закачивание в подземные горизонты воды для повышения давления. Нефтяники знают: иногда вода (за счет меньшей вязкости) может прорваться к откачивающим скважинам и вместо нефти мы будем откачивать эту же самую воду. Но если рассчитывает процесс мощная вычислительная машина, если она же, в помощь оператору, ведет мониторинг с учетом структуры геологического пласта и предыстории добычи, то выход нефти увеличивается на несколько процентов, что для нефтяного бизнеса очень существенно.
...
Я вас умоляю! Вот про эту проблему — пожалуйста, не надо. Нефтяники считают только то, что в трубу пошло... А, да, еще сколько попутного газа добыли, чтобы его тут же, на месте и сжечь.
Это дополнительные затраты. Вопрос не соит об эффективном использовании месторождения, вопрос стоит как наиболее дешево взять и подороже толкнуть. О какой науке в этом случае может идти речь? В тырнете погугли, на тему % добычи нефти, узнаешь много интересного...
ааа причем ко всем этим сложным расчетам Россия в принципе?!
а вам не кажется что на них рассчитывают на самом деле поведение кривой трейда на биржах и не более того, точнее той самой которая обманывает миллионы трейдеров причем В РЕАЛЬНОМ ВРЕМЕНИ И ВСЕХ СРАЗУ
Я выше написал, что считать действительно — нечего... Посему придумывают або чем загрузить, чтобы не просто воздух гонял. Когда я спросил, а чем суперкомп загружен, то первая реакция была: есть что посчитать? Давай!
У суперкомпьютеров должен быть многолетный свободнейший доступ и пакеты самого высокого уроня.
Без прикладных пакетов высокого уровня (во первых Common Lisp и база знаний) с многолетним свободным использованием по всей стране это очерендная противная бюрократическая железяка.
вполне понятно, представь себе суперкомп как множество вычислительных агентов, т.е. они там что-то обсчитывают/моделируют, и чтобы они работали сообща, т.е. вместе как одно целое, у них должна быть связь друг с другом (что как я понял и разработала наша T-Платформы, на основе китайских деталей и американских концепций/разработок) и общая база знаний. про это и написал ylicht
я ни в коем случае не хочу принизить работу проделанную в T-Платформы, молодцы, меня удивило что мы вообще что-то в этом направлении пытаемся делать, я имею ввиду россию, и это в условиях когда у когда у нас нет своей технической базы.
даже те же самые сраные сопротивления и то наверняка из китая импортируем. а когда то у нас почти вся страна была радиолюбителями.
Перед тем, как рассуждать о суперкомпьютерах желательно что-то о них знать.
Во-первых, производительность отдельного процессора подошла к своему пределу и каждый шаг по его увеличению стоит очень дорого. Следовательно, чтобы построить суперкомпьютер, нужно объединить в единое целое тысячи и даже десятки тысяч отдельных процессоров. Тут имеются трудности, которые можно грубо поделить на три сорта.
1. Первая трудность состоит в том, чтобы связать все эти процессоры в единое целое. Другими словами, нужно изобрести некую "общую шину" через которую процессоры могли бы обмениваться информацией. Эта общая шина не имеет ничего общего с шиной PCI или там PCI Express. Собственно, каждый суперкомпьютер имеет свою шину и это первая трудность, которую надо преодолеть его создателям. Общих решений тут еще нет и каждый делает что-то свое.
2. Далее, надо придумать систему программирования (включая ОС) для этих десятков тысяч процессоров. Обычные языки типа Фортран или С не очень подходят для этих целей — они были изобретены во времена, когда в каждой ЭВМ был один процессор. Их с некоторым трудом можно приспособить к ЭВМ, в которых несколько десятков процессоров, но если их десятки тысяч, то такие языки становятся очень мало пригодными. Есть мнение, что рано или поздно суперкомпьютеры будут управляться и программироваться функциональными языками (типа Лиспа или Пролога), а не императивными (Фортран, С, Java).
3 В-третьих, надо иметь в виду проблему энергопотребления. Если стандартный ПК потребляет для простоты 500 ватт, то суперкомпьютер из 10 тысяч вычислительных модулей будет потреблять 5 тысяч киловатт, то есть 5 Мегаватт. Есть оценки, что для суперкомпьютера на 10 Пфлопс потребуется мощность целой небольшой электростанции. Мы вернулись в 50-е годы, когда для каждой ЭВМ строились отдельные здания.
Отсюда следует, что в ближайшем будущем суперкомпьютеры на столах конечных пользователей не появятся. Каждый суперкомпьютер — это отдельный проект государственного масштаба. Отсюда также следует, что для широкого внедрения суперкомпьютеров время еще не настало — пока идет научная гонка.
Россия в этой гонке не занимает первого места, но с моей точки зрения этого и не требуется.
Достаточно иметь несколько (два-три) суперкомпьютеров в первой сотне и держать руку на пульсе.
Есть оценки, что для суперкомпьютера на 10 Пфлопс потребуется мощность целой небольшой электростанции. Мы вернулись в 50-е годы, когда для каждой ЭВМ строились отдельные здания.
Отсюда следует, что в ближайшем будущем суперкомпьютеры на столах конечных пользователей не появятся.
...
То же самое говорили в IBM лет 40 тому назад ... компьютер никогда не будет нужен в персональном пользовании...
Сейчас кого-нибудь удивляет 4-х процессорный ПиСи?
Читай внимательней, то на что отвечаешь. А то совсем не в тему.
Человек пишет, что суперкомпьютеры не появятся на столах конечных пользователей в ближайшее время, потому-что они огромные и жрут кучу энергии. А в IBM грили, что они не появятся, т.к. они нафиг не нужны обычным гражданам. Не находишь разницу?
а дальше то что? :) на данный момент техника отстаёт от прогресса (потребности в вычислениях и самих возможностей которые прогеры уже могут реализовать) все больше и больше. В этой гонке заведомо проиграют нынешние технологии — т.к. у них есть физический предел :) и как уже говорилось выше — каждый шаг на пути к пределу становится всё дороже и дороже :)
тоже так думаю, т.к. современные процессоры подходят к своему физическому пределу — ну добавят ещё пару миллионов транзисторов — а дальше то что? думаю скоро будет переход на совсем другие технологии (на сколько знаю там 4-5 направлений есть, из которых нынешний признан тупиковым) а пока все в ожидании — продолжают клепать суперкомпы по старым технологиям :)
Ну ты загнул тупик :) если расшуждать то историю развития техники знай. 4-х яжерные и польше процессорные машинки на столах уже есть ?? А от куда это пошло ???? от парралельных вычислений с техже Креев слизано. Ещ] на АЙБИЭМ 380 а может и раньшей серии использовальсь так называемые виртуальные машины(на одном железе несколько машин разворачивалось ) матчасть сначала прочитай
тебе пытались объяснить, что IBM считали что компы НЕ НУЖНЫ будут простым людям, а суперкомпы по нынешней технологии НЕ ДОСТУПНЫ простым пользователям из-за огромных энергозатрат, себестоимости, громоздкости и т.д. :)
ну даже если совсем так грубо смотреть то всёравно суперкомпы не будут у каждого дома стоять, только потому что они перестанут таковыми называться)) а станут просто домашними ПЦ, а для больших задач появятся другие суперкомпы)
Когда-то просто комп с озу в ЦЕЛЫХ 512 КИЛОБАЙТ занимал места столько же, как и современный суперкомпьютер. Что имеем сейчас? Прогнозировать развитие техники — дело не благодарное...
Когда-то просто комп с озу в ЦЕЛЫХ 512 КИЛОБАЙТ занимал места столько же, как и современный суперкомпьютер. Что имеем сейчас? Прогнозировать развитие техники — дело не благодарное...
а раньше ламповые компы занимали минимум весь этаж, ато и два)) но то другая технология) ясное дело что компы будут прогрессировать непрерывно — вопрос только по какой технологии? :)
Нет. Суть разная. IBM считали, что вообще компьютер на столе пользователя не нужен. В данном случае — комп на столе пользователя есть. Уже. С производительностью, ограниченой только возможностями кошелька этого пользователя. А вот СУПЕРкомпьютер на столе пользователя — это пока нонсенс. Ввиду отсутствия подходящих пользовательских задач. Для web сёфинга за глаза хватает 3 пня с 512МБ. Для Офисной работы (документы, таблицы) — пня 4 с 1 гигом. Для самых навороченых игрушек — тоже можно подобрать. Расчётами погоды или термоядерных реакций обычный пользователь не занимается.
Анекдот был такой про НР — 600 Pentium, сотовый модем, малиновый монитор и кожаная мышь. 600Мгц — недосягаемый, да и не очень нужный предел. Это было не так давно ...
Комментарии
Американское всегда лучше!!
Вот в данном конкретном случае лучше китайское (китайский комплекс Tianhe-1A: 4,7 PFLOPS).
Тяньхэ-1А использует 7168 графических процессоров Nvidia Tesla M2050 и 14336 серверных процессоров Intel Xeon
--------------------------
Учите матчасть, невежда!
nnm.ru
- Расчеты на них способны учесть как сложную геометрию, так и огромное количество факторов в их пространственных и временных изменениях, т.е. как бы воспроизводят сам реальный процесс.
Это, например, квантово-механические расчеты, моделирование систем на атомарном уровне, моделирование процессов старения ядерных материалов (при хранении ядерного оружия). Для проектирования наносистем такое моделирование часто оказывается единственным подходом, поскольку квантовые явления замерить трудно.
Возьмем, к примеру, проблему увеличения выхода нефти через закачивание в подземные горизонты воды для повышения давления. Нефтяники знают: иногда вода (за счет меньшей вязкости) может прорваться к откачивающим скважинам и вместо нефти мы будем откачивать эту же самую воду. Но если рассчитывает процесс мощная вычислительная машина, если она же, в помощь оператору, ведет мониторинг с учетом структуры геологического пласта и предыстории добычи, то выход нефти увеличивается на несколько процентов, что для нефтяного бизнеса очень существенно.
Расчеты снижения аэродинамического сопротивления фюзеляжа летательных аппаратов уменьшают необходимость в дорогостоящих экспериментах на аэродинамических трубах. С областью аэродинамики и гидродинамики связаны и важнейшие оборонные задачи.
Суперкомпьютеры нужны в метеорологических исследованиях, в биотехнологиях, в фармацевтике, в финансах. Исключительно важно моделирование работы человеческого мозга, нахождение новых методов диагностики заболеваний человека и способов лечения. Эта задача — огромной государственной важности и заверяю: российские ученые смогут создать вычислительную технику, а также матобеспечение и программы для быстрых и относительно дешевых расчетов массового медицинского применения.
Возьмем, к примеру, проблему увеличения выхода нефти через закачивание в подземные горизонты воды для повышения давления. Нефтяники знают: иногда вода (за счет меньшей вязкости) может прорваться к откачивающим скважинам и вместо нефти мы будем откачивать эту же самую воду. Но если рассчитывает процесс мощная вычислительная машина, если она же, в помощь оператору, ведет мониторинг с учетом структуры геологического пласта и предыстории добычи, то выход нефти увеличивается на несколько процентов, что для нефтяного бизнеса очень существенно.
...
Я вас умоляю! Вот про эту проблему — пожалуйста, не надо. Нефтяники считают только то, что в трубу пошло... А, да, еще сколько попутного газа добыли, чтобы его тут же, на месте и сжечь.
Что-то больно уверенно высказываетесь.
Или представитель золотой молодежи?
Которая ничего не знает и не понимает, но много о себе думает?
а вам не кажется что на них рассчитывают на самом деле поведение кривой трейда на биржах и не более того, точнее той самой которая обманывает миллионы трейдеров причем В РЕАЛЬНОМ ВРЕМЕНИ И ВСЕХ СРАЗУ
Ыыы
Только чьё достижение, НР?
Так они уже давно рубеж в Пфлопс/с преодолели....
Слы, афтар, если бы эту шнягу сделали на 10 лет раньше, то первые были бы!
Понял?
Если бы у бабушки был бы хуй, она была бы дедушко!
Теперь думают, а что же сней делать? Пытаются что-то связаное с рекой Енисей считать...
Практическое применение = 0
Интеллект — чей? это как с палкой копалкой — круче чем лопата и копьё из неё не сделаешь, для дальнейшего развития нужны новые ресурсы.) ))
(Например на учебнике истории за 9й класс — Русский язык и физику не выучишь — нужно деньги и в другие учебники вкладывать)
Без прикладных пакетов высокого уровня (во первых Common Lisp и база знаний) с многолетним свободным использованием по всей стране это очерендная противная бюрократическая железяка.
даже те же самые сраные сопротивления и то наверняка из китая импортируем. а когда то у нас почти вся страна была радиолюбителями.
Во-первых, производительность отдельного процессора подошла к своему пределу и каждый шаг по его увеличению стоит очень дорого. Следовательно, чтобы построить суперкомпьютер, нужно объединить в единое целое тысячи и даже десятки тысяч отдельных процессоров. Тут имеются трудности, которые можно грубо поделить на три сорта.
1. Первая трудность состоит в том, чтобы связать все эти процессоры в единое целое. Другими словами, нужно изобрести некую "общую шину" через которую процессоры могли бы обмениваться информацией. Эта общая шина не имеет ничего общего с шиной PCI или там PCI Express. Собственно, каждый суперкомпьютер имеет свою шину и это первая трудность, которую надо преодолеть его создателям. Общих решений тут еще нет и каждый делает что-то свое.
2. Далее, надо придумать систему программирования (включая ОС) для этих десятков тысяч процессоров. Обычные языки типа Фортран или С не очень подходят для этих целей — они были изобретены во времена, когда в каждой ЭВМ был один процессор. Их с некоторым трудом можно приспособить к ЭВМ, в которых несколько десятков процессоров, но если их десятки тысяч, то такие языки становятся очень мало пригодными. Есть мнение, что рано или поздно суперкомпьютеры будут управляться и программироваться функциональными языками (типа Лиспа или Пролога), а не императивными (Фортран, С, Java).
3 В-третьих, надо иметь в виду проблему энергопотребления. Если стандартный ПК потребляет для простоты 500 ватт, то суперкомпьютер из 10 тысяч вычислительных модулей будет потреблять 5 тысяч киловатт, то есть 5 Мегаватт. Есть оценки, что для суперкомпьютера на 10 Пфлопс потребуется мощность целой небольшой электростанции. Мы вернулись в 50-е годы, когда для каждой ЭВМ строились отдельные здания.
Отсюда следует, что в ближайшем будущем суперкомпьютеры на столах конечных пользователей не появятся. Каждый суперкомпьютер — это отдельный проект государственного масштаба. Отсюда также следует, что для широкого внедрения суперкомпьютеров время еще не настало — пока идет научная гонка.
Россия в этой гонке не занимает первого места, но с моей точки зрения этого и не требуется.
Достаточно иметь несколько (два-три) суперкомпьютеров в первой сотне и держать руку на пульсе.
Есть оценки, что для суперкомпьютера на 10 Пфлопс потребуется мощность целой небольшой электростанции. Мы вернулись в 50-е годы, когда для каждой ЭВМ строились отдельные здания.
Отсюда следует, что в ближайшем будущем суперкомпьютеры на столах конечных пользователей не появятся.
...
То же самое говорили в IBM лет 40 тому назад ... компьютер никогда не будет нужен в персональном пользовании...
Сейчас кого-нибудь удивляет 4-х процессорный ПиСи?
Человек пишет, что суперкомпьютеры не появятся на столах конечных пользователей в ближайшее время, потому-что они огромные и жрут кучу энергии. А в IBM грили, что они не появятся, т.к. они нафиг не нужны обычным гражданам. Не находишь разницу?
И нам совершенно не нужно бежать в этом тупике впереди всех — пусть кто-нибудь другой разобьет себе голову в этой гонке.
А будущие суперкомпьютеры будут построены на каких-то новых принципах, например, квантовых вычислениях.
Именно там состоится настоящий прорыв, а не в безумном нагромождении тысяч и тысяч процессоров.
Вместе с тем, следует строить и теперешние монстры (хотя и не стоит слишком увлекаться ими) — они очень нужны для решения многих практических задач.
i3 — количество транзисторов в ЦП – 382 млн;