Кто мне скажет, нахрена смартфону такая производительность? Они что траектории ракет на нем собираются считать? Или может бесшумные винты для подводных лодок проектировать?
Видео HD отрисовывать! У меня "старый" комп, проц P4, 3 гигагерца, два потока ... и он не может показать полное HD 1080х1920.
Кстати, для расчёта траектории ракеты, как раз, не надо большой производительности. А вот показать кино, обработать сигнал гитары в реальном времени... Однажды попробовал комп применить на дискотеке, увы, НЕ СПРАВИЛСЯ! Стал "подтормаживать". То есть, просто играть музыку может, а вот играть и одновременно вести поиск по внутренним дискам, проигрывать в другом канале, увы, ресурсов не хватает. Но самая ресурсоёмкая задача, это обработка звука в реальном времени и её ещё долго не смогут реализовать.
Также, как и "отрендерить видеоигру" (но тут и процессор другой требуется) или раскодировать видео.
достаточно поставить нормальную звукашку, и комп легко обрабатывает звук у реальном времени. В свое время стоял Audigy с альтернативными дровами и atlon xp работал как гитарная примочка.
C 2005 по 2008 гг. вел дискотеку в ресторане. Поставил в комп две звуковушки, одна Sound Blaster AWE32, вторая Sound Blaster Audigy 2. Все прекрасно работало, с одной играл музыку в зал, на второй подбирал композиции в наушниках. Рабочий комп был Pentium II 450 MHz, OS = Windows 2003 Server. 2 Диска IDE по 250GB. Оперативки 1GB SDRAM. Так что правильно надо все настраивать. И поиск по дискам работал, ничего не тормозило и не зависало :)
Насчёт правильной настройки вы правы. Я специально не готовился использовать аппаратуру, а только "проверил возможности". Конечно, если бы поставил спец. программы диджейского типа (а не винамп) и глянул бы на потребление ресурсов... . Но, это была только проверка.
Но меня качество убило. /mp3 с битрейтом 320 (кажется, максимально возможный?) на слух звучал достаточно неприятно. Хотя публике незаметно было, но мы оценивали как профессиональные музыканты.
Карта Audigy 4, а вот операционка — XP (не самая подходящая для real-time режима). В то время не было у меня записей 24/96-384, а интересно было бы попробовать по качеству воспроизведения для этой карты и потреблению ресурсов процессора.
Это смотря что надо обработать. Если дистошн, то его на паре транзисторов можно сделать и не нужен комп. А вот если делать БПФ, или моделировать многоточечное звуковое поле и компоновать его по спец. алгоритму ... . Но большинство музыкантов даже не подозревает о таких возможностях.
И потом, музыкант автоматически отрабатывает миллисекундные задержки, тем более, что на гитаре процесс звукоизвлечения и так имеет достаточно длительную атаку. Поэтому, может быть и "незаметно" несколько дополнительных миллисекунд задержки атаки. А уж реверберация вообще воспринимается естественно с любыми задержками в её обработке процессором.
Ну, это вы зря. У людей "глаза разные". Я, например, без очков, вижу отдельные пиксели. В своё время провода паял 40-микронные.
Кино на смартфоне не смотрят с расстояния в метр-полметра, как телевизор. Попросите продемонстрировать вам видео на смартфоне и вы поймёте, какое разрешение экрана вам удобнее. Вполне возможно, что вы даже отличите 4К от 2К. Другое дело, что деньги, и надобность в таких разрешениях, нас ограничивают в выборе.
... почтитай на досуге про понятие углового размера и подумай почему солнце и луна у нас ТОЧНО одного размере на небе, вот с твоими 40 телеком и смартфонами так же история... и поверь, у меня 46 дома, но смотрю лежа частенько на смарте и в наушниках перед сном — лучше чем на телеке... вот 3D на 40 дюймах точно извращение, иначе бы все только его и смотрели...
Смотреть можно на большом экране:) Но с телефона :) У меня, например телек от DNS с Андройдом на борту HD видео тормозит, а с телефона по HDMI все нормально...
У S808 6 ядер. Но его некорректно сравнивать с интелом. Тем более, что у десктопных интеловских процессоров нет маломощных ядер. То есть, "молотит на полную мощу" даже в простое.
Я как-то предложил интелу, сделать двухядерный проц, где вторым ядром стоит 386 чип. Удобно, пишешь какой текстовый документ, а комп потребляет всего пару ватт. Но разве эти "монстры" будут считаться с посторонними советами? Они же считают себя умнее всех. Потому и прибыли могли быть больше, но увы, уж какие есть!
386-го на сегодняшний день не хватит даже на просчет прерываний эзернета с одним запущенным торрентом.. а с учетом многопоточности и висящих в фоне процессов, то и подавно.. можно тупо посчитать загрузку проца в фоне прокачанной системы и выяснить необходимое минимальное количество ядер и частоту данного проца, при которой он будет нагружен на 100%.. да и не забываем что разные задачи по разному нагружают проц, для одной задачи может хватить гигагерца, а другой, менее требовательной к процу, но более требовательной доступу к памяти — частота сыграет большую роль, но не нагрузит проц и на 1%.
а уж поигравшись на андроиде частотами и гувернером, без сложного алгоритма расчета необходимых режимов в каждой ситуации, хрен поймаешь оптимальное потребление и производительность. Например, приложение от квалкома для драгонов изучает режим работы смарта в течении недели для старта работы, а затем по своему алгоритму высчитывает какого гувернера выставлять, какую частоту, в какое время и какие процессы выгружать и загружать в нужные интервалы времени.
А-а, один ччёрт, комп жрёт больше 50 ватт в простое!
Вот, например, открыт блокнот, набираю текст. Это не ворд. И зачем гонять Р4-3ГГц, для этого? И видеокарта, тоже, "отрисовывает" каждый кадр, хотя можно было бы буфер поставить в монитор (поближе к экрану).
Или, второй пример, я слушаю .mp3, работаю рядышком, монитор отключен.
А третий пример ещё хлеще! — Качаю с торрента файл в несколько гигов и вынужден держать ночью комп включенным. Ну что, трудно в модем встроить жесткий диск? Модемы, как я знаю, уже есть со встроенным торрент-клиентом. Но модемов с жестким диском не встречал!
Так можно же сетевой диск купить, воткнуть в него торрент-клиент (transmission например, потому что на сетевых дисках почти на всех тот или иной Linux установлен), подключить к свитчу или чем там интернет раздаётся дома — и остаётся только с компа скормить клиенту торренты, возможно, подкорректировать путь сохранения файлов — и комп можно вырубать, сетевой диск сам всё скачает, да потом ещё и раздавать будет :)
Это говорит лишь о том, что вы только попсовые железки видели. Хотя, даже в них встречаются половинчатые решения типа роутера с разъёмом USB под внешний жесткий диск. Тор-клиенты для роутеров есть практически у каждого уважающего себя производителя. Ну а "буфер в монитор" порадовал больше всего. Давай лучше про путешествия во времени, Вить! У тебя это лучше получается..
А что вам "буфер в мониторе не понравился"? Не ваша "тема"? Вы просто не в курсе последнего "писка моды" — технологии NVIDIA G-SYNC. Вот они как раз, наконец-то додумались поставить буфер в монитор! И сразу восторженные вопли — "ой, как хорошо стало и глаза меньше устают"! Бл..! Да я это решение предложил ещё в 80-х, только ознакомившись с концепцией компьютеростроения. А когда получил первый БК-001, вот тогда и намучился из-за этой идиотской концепции. Разработчики, как всегда, предложили и внедрили не самый правильный вариант решения передачи изображения на монитор. А почему? А потому что не применяют в свой работе философские концепции и решают задачи тупо в лоб и по принципам "я так решил, и так сойдёт"!
А что в результате? А в результате мы имеем миллионы случаев (аут оф рэнг, частота вне диапазона) и надо вызывать "специалиста", которые женщине поможет "правильно настроить систему".
А решение должно было быть простое — выдавать информацию надо всегда по запросу принимающей стороны, по мере её готовности, а не задавать скорость передающей стороной! То есть, тактовую частоту (синхроимпульсы) получать от монитора, а не синхронизировать его от видеокарты. как это сейчас происходит!
А для более качественного выведения изображения, надо в монитор (как сделали в нвидиа) ставить буфер памяти. И не просто память, а двухпортовую память! И тогда будет совершенно безразлично, с какой частой передает компьютер изображение на монитор! В самом мониторе можно выставить любую частоту, хоть 50, хоть 100, хоть 4000 кадров в секунду! И не надо в компьютере лезть в настройки экрана, чем некоторые занимались несколько десятков лет назад, да и сейчас, такие случаи встречаются. Надеюсь, вам знакомо выражение обтюратор в кинопроекторе. Так вот, его туда не зря поставили и, тоже, далеко не сразу догадались это сделать!
При кинопроекции для того, чтобы зритель не замечал мерцания от работающего обтюратора, на нем предусмотрены холостые лопасти, дополнительно перекрывающие световой поток во время неподвижного положения кинопленки в кадровом окне. Это увеличивает частоту мерцаний сверх физиологического порога заметности....
А ведь у меня есть и другие замечательные решения относительно монитора. Только предложить их некому! Ни нахрен никому не сдалось делиться со мной своей прибылью! Поэтому и выпускают всякое дерьмо, с моей точки зрения; а потребитель и этому рад, потому что лучшего он не видел и даже не знает о моих предложениях.
Так что, зря вы такой стиль комментария выбрали, по отношению ко мне. Всё таки, я был лучшим схемотехником и разработчиком аппаратуры в своём городе и даже в мире. если учесть, что некоторые мои разработки так до сих пор и не имеют аналогов в мире.
"Я как-то предложил интелу, сделать двухядерный проц, где вторым ядром стоит 386 чип. "
это как понимать?
— кому предлагали, если не секрет, вот хохма была в тот момент у разрабов...
— основа 386ых регистров встроена в любой сегодняшний интел, даже в более оптимизированном транзисторном разбросе чем это было раньше
— по вашему так текстовый редактор активно может использовать графическое ядро или векторные операторы?
— вот как питается ваттами Intel NUC с процами Haswell относительно 4го пня youtube.com
— подобная система у меня в безвентиляторном корпусе прокрутилась последний год вообще без остановки и вхождения в спящий, может 5 ватт в таком режиме, пришел мышу дернул, за полсекунды все готово к работе
— SpeedStep + современная(7-8-10) винда спокойно держит на привязи последние процессоры
— про последние нуки я вообще молчу, что вот-вот выдут (там же уже 14нм заместо 22) и одно из вусняшек, можно будет ставить последние SSD на PCIe, там уж точно будет не больше 2-3 ватт в простое, ляпота...
Вы просто забыли про процессоры Cyrix! Вот где было хорошо! Хотя, по мне, даже ихние "0,3 — 0,5 ватта" для меня было много! И это было "в то время", когда "интеловские процы" жрали 50 ватт, а "амд-эшные" были "как печка"!
В общем, сейчас, при введении "социальных норм потребления" и мизерной пенсии, мне нужно, чтобы вся система потребляла не больше 3 ватт!
Как альтернативу своему "монстру", я и хотел приобрести P3 или Cyrix, но увы, дешево не встретилось. По большей части, я читаю статьи в интернете или пишу такие комментарии. Ну, сами понимаете, что не нужно для этого тратить сотни ватт!
Комментарии
Кстати, для расчёта траектории ракеты, как раз, не надо большой производительности. А вот показать кино, обработать сигнал гитары в реальном времени... Однажды попробовал комп применить на дискотеке, увы, НЕ СПРАВИЛСЯ! Стал "подтормаживать". То есть, просто играть музыку может, а вот играть и одновременно вести поиск по внутренним дискам, проигрывать в другом канале, увы, ресурсов не хватает. Но самая ресурсоёмкая задача, это обработка звука в реальном времени и её ещё долго не смогут реализовать.
Также, как и "отрендерить видеоигру" (но тут и процессор другой требуется) или раскодировать видео.
Но меня качество убило. /mp3 с битрейтом 320 (кажется, максимально возможный?) на слух звучал достаточно неприятно. Хотя публике незаметно было, но мы оценивали как профессиональные музыканты.
Карта Audigy 4, а вот операционка — XP (не самая подходящая для real-time режима). В то время не было у меня записей 24/96-384, а интересно было бы попробовать по качеству воспроизведения для этой карты и потреблению ресурсов процессора.
И потом, музыкант автоматически отрабатывает миллисекундные задержки, тем более, что на гитаре процесс звукоизвлечения и так имеет достаточно длительную атаку. Поэтому, может быть и "незаметно" несколько дополнительных миллисекунд задержки атаки. А уж реверберация вообще воспринимается естественно с любыми задержками в её обработке процессором.
хотя бы разок посмотри хд на нормальном телефоне, а потом будешь говорить, надо оно или нет.
Кино на смартфоне не смотрят с расстояния в метр-полметра, как телевизор. Попросите продемонстрировать вам видео на смартфоне и вы поймёте, какое разрешение экрана вам удобнее. Вполне возможно, что вы даже отличите 4К от 2К. Другое дело, что деньги, и надобность в таких разрешениях, нас ограничивают в выборе.
про планшетофоны уже молчу, 7-8-9 дюймов уже никого не удивить.
Я как-то предложил интелу, сделать двухядерный проц, где вторым ядром стоит 386 чип. Удобно, пишешь какой текстовый документ, а комп потребляет всего пару ватт. Но разве эти "монстры" будут считаться с посторонними советами? Они же считают себя умнее всех. Потому и прибыли могли быть больше, но увы, уж какие есть!
а уж поигравшись на андроиде частотами и гувернером, без сложного алгоритма расчета необходимых режимов в каждой ситуации, хрен поймаешь оптимальное потребление и производительность. Например, приложение от квалкома для драгонов изучает режим работы смарта в течении недели для старта работы, а затем по своему алгоритму высчитывает какого гувернера выставлять, какую частоту, в какое время и какие процессы выгружать и загружать в нужные интервалы времени.
куча технологий, уменьшающих частоту и напругу уже давно усуществует
Вот, например, открыт блокнот, набираю текст. Это не ворд. И зачем гонять Р4-3ГГц, для этого? И видеокарта, тоже, "отрисовывает" каждый кадр, хотя можно было бы буфер поставить в монитор (поближе к экрану).
Или, второй пример, я слушаю .mp3, работаю рядышком, монитор отключен.
А третий пример ещё хлеще! — Качаю с торрента файл в несколько гигов и вынужден держать ночью комп включенным. Ну что, трудно в модем встроить жесткий диск? Модемы, как я знаю, уже есть со встроенным торрент-клиентом. Но модемов с жестким диском не встречал!
А электроэнергия стоит дорого!
А что в результате? А в результате мы имеем миллионы случаев (аут оф рэнг, частота вне диапазона) и надо вызывать "специалиста", которые женщине поможет "правильно настроить систему".
А решение должно было быть простое — выдавать информацию надо всегда по запросу принимающей стороны, по мере её готовности, а не задавать скорость передающей стороной! То есть, тактовую частоту (синхроимпульсы) получать от монитора, а не синхронизировать его от видеокарты. как это сейчас происходит!
А для более качественного выведения изображения, надо в монитор (как сделали в нвидиа) ставить буфер памяти. И не просто память, а двухпортовую память! И тогда будет совершенно безразлично, с какой частой передает компьютер изображение на монитор! В самом мониторе можно выставить любую частоту, хоть 50, хоть 100, хоть 4000 кадров в секунду! И не надо в компьютере лезть в настройки экрана, чем некоторые занимались несколько десятков лет назад, да и сейчас, такие случаи встречаются. Надеюсь, вам знакомо выражение обтюратор в кинопроекторе. Так вот, его туда не зря поставили и, тоже, далеко не сразу догадались это сделать!
При кинопроекции для того, чтобы зритель не замечал мерцания от работающего обтюратора, на нем предусмотрены холостые лопасти, дополнительно перекрывающие световой поток во время неподвижного положения кинопленки в кадровом окне. Это увеличивает частоту мерцаний сверх физиологического порога заметности....
А ведь у меня есть и другие замечательные решения относительно монитора. Только предложить их некому! Ни нахрен никому не сдалось делиться со мной своей прибылью! Поэтому и выпускают всякое дерьмо, с моей точки зрения; а потребитель и этому рад, потому что лучшего он не видел и даже не знает о моих предложениях.
Так что, зря вы такой стиль комментария выбрали, по отношению ко мне. Всё таки, я был лучшим схемотехником и разработчиком аппаратуры в своём городе и даже в мире. если учесть, что некоторые мои разработки так до сих пор и не имеют аналогов в мире.
Шурик! Мы же не враги! (надеюсь) (?)
это как понимать?
— кому предлагали, если не секрет, вот хохма была в тот момент у разрабов...
— основа 386ых регистров встроена в любой сегодняшний интел, даже в более оптимизированном транзисторном разбросе чем это было раньше
— по вашему так текстовый редактор активно может использовать графическое ядро или векторные операторы?
— вот как питается ваттами Intel NUC с процами Haswell относительно 4го пня youtube.com
— подобная система у меня в безвентиляторном корпусе прокрутилась последний год вообще без остановки и вхождения в спящий, может 5 ватт в таком режиме, пришел мышу дернул, за полсекунды все готово к работе
— SpeedStep + современная(7-8-10) винда спокойно держит на привязи последние процессоры
— про последние нуки я вообще молчу, что вот-вот выдут (там же уже 14нм заместо 22) и одно из вусняшек, можно будет ставить последние SSD на PCIe, там уж точно будет не больше 2-3 ватт в простое, ляпота...
В общем, сейчас, при введении "социальных норм потребления" и мизерной пенсии, мне нужно, чтобы вся система потребляла не больше 3 ватт!
Как альтернативу своему "монстру", я и хотел приобрести P3 или Cyrix, но увы, дешево не встретилось. По большей части, я читаю статьи в интернете или пишу такие комментарии. Ну, сами понимаете, что не нужно для этого тратить сотни ватт!
raspberrypi.org
будет меньше ватта