Российские распределенные вычисления на платформе BOINC
Форум участников распределённых вычислений.

Добро пожаловать, Гость! Чтобы использовать все возможности Вход или Регистрация.

Уведомление

Icon
Error

4 Страницы«<234
Опции
К последнему сообщению К первому непрочитанному
Online hoarfrost  
#61 Оставлено : 27 января 2019 г. 10:12:07(UTC)
hoarfrost


Статус: Старожил

Медали: Переводчику: За помощь в создании сайтаРазработчику: За разработку приложения CluBORunДонор: За финансовую помощь сайту

Группы: Editors, Member, Administration, Moderator Crystal Dream, Moderators, Crystal Dream Group
Зарегистрирован: 05.10.2007(UTC)
Сообщений: 8,453
Мужчина
Откуда: Crystal Dream

Сказал «Спасибо»: 1278 раз
Поблагодарили: 1738 раз в 1098 постах
Автор: atch Перейти к цитате
Наверное, и кранчеров, которые не хотели бы считать на GPU, тоже нет.

Не так уж и важно для кранчера соотношение скоростей между CPU и GPU. Конечно, когда с GPU оказывается все совсем уж плохо, как в Милкивее и Астероидах, то терять время на полную "открытий чудных" реализацию GPU не стоит. Хотя даже в этих проектах все равно находится довольно большое количество считающих на GPU.

Хм... В MilkyWay@Home, вроде бы всё было очень даже хорошо, по крайней мере на Radeon-ах. Конечно, золотые времена 4890 / 5870 / 6970 / 7970 - уже прошли и Double порезали, но само приложение-то ложилось, по крайней мере на GPU хорошо. Ну а NVIDIA... laugh1

Цитата:
Так же многие просто переключаются на другой проект, досчитав в текущем до какого-то предела, или потому, что надоело. В этом случае выбор следующего проекта может пасть на тот, который "я давно не считал", "ура! новый проект с GPU", "меня уже все обогнали" и т. п. То есть не так уж и важна эффективность GPU в сравнении и между проектами.

Когда один проект использует их раз в 50 эффективнее чем другой, то с одной стороны, мало кто будет перебрасывать в такой проект, а с другой - отнимать такому проекту GPU от других, где они работают на 80-90-100% - ну просто некрасиво.

Цитата:
И кстати, вроде бы, "выхлоп" может регулироваться на стороне boinc-сервера, т. е. эффективность GPU во многом зависит от владельцев проета - путем регулировки соотношения жадности к совести. Мы не так давно наблюдали этот мученический процесс у великого SerVal'а.

На стороне сервера регулируется выдаваемый credit, но он должен выдаваться за объём вычислений. И если видеокарта работает в 2, а не 200 раза эффектинее CPU, то и выдаваемый за dt credit тоже должен быть таким же.
UserPostedImage
Offline atch  
#62 Оставлено : 27 января 2019 г. 10:26:27(UTC)
atch


Статус: Я тут не впервой

Группы: Member
Зарегистрирован: 31.12.2018(UTC)
Сообщений: 32
Мужчина
Российская Федерация
Откуда: Москва

Сказал «Спасибо»: 40 раз
Поблагодарили: 2 раз в 2 постах
Автор: Panda Перейти к цитате
А почему появляется это соотношение: жадность-совесть?

Вроде запускаешь приложение на ГПУ и оно отнимает ровно столько ресурсов, сколько может забрать.

Или можно регулировать загрузку ГПУ с сервера?


Как я понимаю, админ сервера может установить жесткую настройку, благодаря которой всем wu будет выдаваться одно и то же количество баллов, т.е. какой бы мощный ни был комп, сколько бы времени он не потратил на расчёт, - за каждое задание он и все остальные без исключения будут получать всегда одинаковое вознаграждение. Каков будет размер этого вознаграждения, и определяется тем соотношением. Например, в Эйнштейне соотношение кажется сбалансированным, а в Collatz'е - жадность зашкаливает, и совести у них нет.

Опять-таки, как понимаю, есть и механизм регулирования нагрузки. Например, в Amicable, или чуть сложнее в том же Collatz'е. Но надо понимать, что на реализацию этой возможности разработчику придется потратить какое-то время.

Приложение на ГПУ отнимет ровно столько ресурсов, сколько может забрать, либо сколько ему достаточно. И видимо, это тоже головная боль для разработчика. Когда проект SETI перешел на 8-ю версию приложения, и у всех все перестало работать, то в процессе тестирования исправленного приложения было потрачено очень много времени на то, чтобы оно потребляло разумное количество ресурсов, обеспечивая работой и новые видеокарты, и давно неактуальные. Какой-то компромисс был найден, и если кого-то не устраивает загрузка его ГПУ, то ему рекомендуется считать два и более заданий параллельно.
Online hoarfrost  
#63 Оставлено : 27 января 2019 г. 10:41:58(UTC)
hoarfrost


Статус: Старожил

Медали: Переводчику: За помощь в создании сайтаРазработчику: За разработку приложения CluBORunДонор: За финансовую помощь сайту

Группы: Editors, Member, Administration, Moderator Crystal Dream, Moderators, Crystal Dream Group
Зарегистрирован: 05.10.2007(UTC)
Сообщений: 8,453
Мужчина
Откуда: Crystal Dream

Сказал «Спасибо»: 1278 раз
Поблагодарили: 1738 раз в 1098 постах
Автор: atch Перейти к цитате
Автор: Panda Перейти к цитате
А почему появляется это соотношение: жадность-совесть?

Вроде запускаешь приложение на ГПУ и оно отнимает ровно столько ресурсов, сколько может забрать.

Или можно регулировать загрузку ГПУ с сервера?


Как я понимаю, админ сервера может установить жесткую настройку, благодаря которой всем wu будет выдаваться одно и то же количество баллов, т.е. какой бы мощный ни был комп, сколько бы времени он не потратил на расчёт, - за каждое задание он и все остальные без исключения будут получать всегда одинаковое вознаграждение. Каков будет размер этого вознаграждения, и определяется тем соотношением. Например, в Эйнштейне соотношение кажется сбалансированным, а в Collatz'е - жадность зашкаливает, и совести у них нет.

По идее - именно так и должно быть. Только не за 1 workunit, а за одинаковые workunit-ы. А если ещё точнее - то опять - "за объём вычислений". 1 Cobllestone, это по идее 1/100 от 1 GFLOPS/s * 1 сутки. (По одной версии - 1/100, по другой - 1/200, но если смотреть определение внимательно, то 1/100-я). Но тогда и получится, что в проекте где GPU используется хорошо, он будет вырабатывать по 200-300-500 тысяч CS в сутки, против нескольких тысяч на среднестатистическом CPU. А там, где приложение плохо на него ложится будет, ну 10-20-30 тысяч. И зачем тогда GPU в такой проект переводить?

Цитата:
Опять-таки, как понимаю, есть и механизм регулирования нагрузки. Например, в Amicable, или чуть сложнее в том же Collatz'е. Но надо понимать, что на реализацию этой возможности разработчику придется потратить какое-то время.

Приложение на ГПУ отнимет ровно столько ресурсов, сколько может забрать, либо сколько ему достаточно. И видимо, это тоже головная боль для разработчика. Когда проект SETI перешел на 8-ю версию приложения, и у всех все перестало работать, то в процессе тестирования исправленного приложения было потрачено очень много времени на то, чтобы оно потребляло разумное количество ресурсов, обеспечивая работой и новые видеокарты, и давно неактуальные. Какой-то компромисс был найден, и если кого-то не устраивает загрузка его ГПУ, то ему рекомендуется считать два и более заданий параллельно.

А вот тут и приходим к тому, о чём говорил SerVal - что GPU это не CPU. Что это очень сильно специализированная штука, которая просто не может работать также гибко, как и CPU. Если в задача состоит из постоянного применения одних и тех же инструкций (одновременно!) в тысячах параллелей к относительно небольшому объёму данных - то GPU на коне. Но таких задач - не много. В комбинаторных алгоритмах, например - такого вообще нет. Но там можно попробовать просто запустить на одном GPU тучу таких расчётов. Но максимально эффективно (или даже приближенно) при таком варианте он уже работать точно не будет. По крайней мере пока. Xeon Phi - мог бы. Но после выхода Intel Scaleable, похоже, что Intel стал про него как-то забывать.
UserPostedImage
Offline atch  
#64 Оставлено : 27 января 2019 г. 10:57:10(UTC)
atch


Статус: Я тут не впервой

Группы: Member
Зарегистрирован: 31.12.2018(UTC)
Сообщений: 32
Мужчина
Российская Федерация
Откуда: Москва

Сказал «Спасибо»: 40 раз
Поблагодарили: 2 раз в 2 постах
Автор: hoarfrost Перейти к цитате
Хм... В MilkyWay@Home, вроде бы всё было очень даже хорошо, по крайней мере на Radeon-ах. Конечно, золотые времена 4890 / 5870 / 6970 / 7970 - уже прошли и Double порезали, но само приложение-то ложилось, по крайней мере на GPU хорошо. Ну а NVIDIA... laugh1


Да, были времена!

Автор: hoarfrost Перейти к цитате
Когда один проект использует их раз в 50 эффективнее чем другой, то с одной стороны, мало кто будет перебрасывать в такой проект, а с другой - отнимать такому проекту GPU от других, где они работают на 80-90-100% - ну просто некрасиво.

На сколько один проект эффективнее другого мы можем судить только по баллам. Истинной картины мы не видим.
Народ бегает от проекта к проекту, и таких немало. Понаблюдайте за статистикой на BOINCStat'е, убедитесь в этом.
Про некрасиво - это, увы, только лирика. А в жизни... У того же Милкивея, как говорится, рыльце в пушку.

Автор: hoarfrost Перейти к цитате

На стороне сервера регулируется выдаваемый credit, но он должен выдаваться за объём вычислений. И если видеокарта работает в 2, а не 200 раза эффектинее CPU, то и выдаваемый за dt credit тоже должен быть таким же.

Должен...Ну-да, наверное, должен.
hoarfrost, Вы просто очень хороший человек! Спасибо Вам за это!

Online hoarfrost  
#65 Оставлено : 27 января 2019 г. 11:10:21(UTC)
hoarfrost


Статус: Старожил

Медали: Переводчику: За помощь в создании сайтаРазработчику: За разработку приложения CluBORunДонор: За финансовую помощь сайту

Группы: Editors, Member, Administration, Moderator Crystal Dream, Moderators, Crystal Dream Group
Зарегистрирован: 05.10.2007(UTC)
Сообщений: 8,453
Мужчина
Откуда: Crystal Dream

Сказал «Спасибо»: 1278 раз
Поблагодарили: 1738 раз в 1098 постах
Автор: atch Перейти к цитате
На сколько один проект эффективнее другого мы можем судить только по баллам. Истинной картины мы не видим.

Почему не видим? Считаем n-е число WU на CPU или GPU, заходим в каждый из них в перечне задач компьютера и смотрим на напарников. Время от времени будет попадаться сочетание CPU vs GPU.
Ещё один интересный момент - это выдача credit-а за работу с float и double. Если помню верно, то с каких-то пор решили, что за double можно давать больше.
Да, в итоге всё равно будет получаться значение в некотором интервале. Но ведь и тера- и уже пета-флопсы суперкомпьютеров - тоже весьма условные.
smile
UserPostedImage
Offline atch  
#66 Оставлено : 27 января 2019 г. 12:20:03(UTC)
atch


Статус: Я тут не впервой

Группы: Member
Зарегистрирован: 31.12.2018(UTC)
Сообщений: 32
Мужчина
Российская Федерация
Откуда: Москва

Сказал «Спасибо»: 40 раз
Поблагодарили: 2 раз в 2 постах
Автор: hoarfrost Перейти к цитате
По идее - именно так и должно быть. Только не за 1 workunit, а за одинаковые workunit-ы. А если ещё точнее - то опять - "за объём вычислений". 1 Cobllestone, это по идее 1/100 от 1 GFLOPS/s * 1 сутки. (По одной версии - 1/100, по другой - 1/200, но если смотреть определение внимательно, то 1/100-я). Но тогда и получится, что в проекте где GPU используется хорошо, он будет вырабатывать по 200-300-500 тысяч CS в сутки, против нескольких тысяч на среднестатистическом CPU. А там, где приложение плохо на него ложится будет, ну 10-20-30 тысяч. И зачем тогда GPU в такой проект переводить?

Вроде как "10-20-30 тысяч" больше, чем "нескольких тысяч на среднестатистическом CPU".
Рядовой человек видит, что у него ЦПУ работает, а ГПУ простаивает. При этом он знает, что ГПУ тоже можно загрузить. Поэтому при появлении приложения для ГПУ, человек получает дополнительные баллы, а проект - вычислительные мощности.

Но до меня, кажется, дошло, какую мысль Вы пытаетесь до меня донести. )) Приложение на ГПУ может привести к падению мощности проекта. По наблюдениям при появлении приложения для ГПУ многие перестают считать на ЦПУ. И в этом случае отток вычислительный мощностей ЦПУ может превысить добавленную мощность ГПУ. Как вычислить тот порог, после которого приложение ГПУ начнет приносить больше вреда, нежели пользы, честно не знаю. Согласен, это может быть проблемой. Конечно, есть методы борьбы и с этим, но их придется продумывать. SETI и Amicable удалось.

Автор: hoarfrost Перейти к цитате
А вот тут и приходим к тому, о чём говорил SerVal - что GPU это не CPU. Что это очень сильно специализированная штука, которая просто не может работать также гибко, как и CPU. Если в задача состоит из постоянного применения одних и тех же инструкций (одновременно!) в тысячах параллелей к относительно небольшому объёму данных - то GPU на коне. Но таких задач - не много. В комбинаторных алгоритмах, например - такого вообще нет.

Да, конечно, это так.

Автор: hoarfrost Перейти к цитате
Но там можно попробовать просто запустить на одном GPU тучу таких расчётов. Но максимально эффективно (или даже приближенно) при таком варианте он уже работать точно не будет.

Рядовому человеку эта академическая эффективность не интересна, и он не обращает на нее внимания, запуская впараллель множество заданий. Это сейчас можно наблюдать в Amicable. Ради баллов люди запускают до десяти и больше заданий ГПУ параллельно.

Автор: hoarfrost Перейти к цитате
По крайней мере пока. Xeon Phi - мог бы. Но после выхода Intel Scaleable, похоже, что Intel стал про него как-то забывать.

Они, вроде, уже объявили о закрытии этой линейки.

Автор: hoarfrost Перейти к цитате
Почему не видим? Считаем n-е число WU на CPU или GPU, заходим в каждый из них в перечне задач компьютера и смотрим на напарников. Время от времени будет попадаться сочетание CPU vs GPU.

Там речь шла о сравнении эффективности между разными проектами, а не в рамках одного. Как сравнить между проектами не по баллам и достоверно? Не знаю.
Offline Mecenat  
#67 Оставлено : 27 января 2019 г. 12:52:02(UTC)
Mecenat


Статус: Новичок

Группы: Member
Зарегистрирован: 24.01.2019(UTC)
Сообщений: 7
Российская Федерация
Откуда: ЕКБ

Сказал(а) «Спасибо»: 2 раз
Поблагодарили: 2 раз в 2 постах

"Проекты появились у Вас в списке в BOINC-менеджер? Смотрели лог BOINC-менеджера - какие сообщения пишет?"


Да, проекты появились в списке менеджера. В списке: Герасим, Акустик, уоуо. С первых 2 - задания не приходят. С уоуо - пришло задание, расчет на полтора суток - при выключении компьютера все сбрасывается, при включении - начинает задание заново считать, мне такое не подходит, т к нет возможности оставлять комп включенным сутками. В итоге удалил уоуо, Герасима. С акустика пробовал задания запрашивать, удалял проект, заново устанавливал, перезапускал проект, задания не приходят. В "полном виде" менеджера во вкладке "задания" - полно заданий с видом "загрузка данных", которые очень быстро в статус "Ошибка вычислений" переходят (((

Виндоус ХР установлен.

Установил проект odlk - загрузилось много заданий и комп начал их считать (предварительное время 50 мин).

Отредактировано пользователем 27 января 2019 г. 13:46:19(UTC)  | Причина: Не указана

Пользователь Mecenat прикрепил следующие файлы:
Акустик 3.jpg
Offline Hoar  
#68 Оставлено : 27 января 2019 г. 15:47:52(UTC)
Hoar


Статус: Administration

Группы: Member, Russia Team Group
Зарегистрирован: 05.10.2007(UTC)
Сообщений: 305
Мужчина
Российская Федерация
Откуда: Russia, Saint-Petersbourg

Сказал «Спасибо»: 28 раз
Поблагодарили: 27 раз в 18 постах
Цитата:
Виндоус ХР установлен.



Судя по сообщениям на форуме, мало какие из проектов сейчас предоставляют приложения, работающие под WinXP. По крайней мере без ошибок.
Возможно, дело в этом.
Offline Horror245  
#69 Оставлено : 27 января 2019 г. 21:56:53(UTC)
Horror245


Статус: Частенько заглядывает

Медали: Первооткрывателю: Нахождение пар ОДЛК в RakeSearch!

Группы: Member
Зарегистрирован: 02.04.2014(UTC)
Сообщений: 291
Мужчина
Украина

Сказал «Спасибо»: 76 раз
Поблагодарили: 68 раз в 52 постах
Герасим и Акустика - требует жестко х64 win7 и выше.
Offline Sid  
#70 Оставлено : 27 января 2019 г. 22:33:25(UTC)
Sid


Статус: Старожил

Группы: Member
Зарегистрирован: 26.09.2013(UTC)
Сообщений: 516

Сказал(а) «Спасибо»: 15 раз
Поблагодарили: 90 раз в 59 постах
Автор: Horror245 Перейти к цитате
Герасим и Акустика - требует жестко х64 win7 и выше.


А в чем смысл использования WinXP?

Даже на слабеньких компиках 775 с 4 Гб памяти 7 винда вполне себе чуствует хорошо.
Если только кранчить, конечно.
Да и ddr2 сейчас можно купить недорого.


Online hoarfrost  
#71 Оставлено : 27 января 2019 г. 23:34:36(UTC)
hoarfrost


Статус: Старожил

Медали: Переводчику: За помощь в создании сайтаРазработчику: За разработку приложения CluBORunДонор: За финансовую помощь сайту

Группы: Editors, Member, Administration, Moderator Crystal Dream, Moderators, Crystal Dream Group
Зарегистрирован: 05.10.2007(UTC)
Сообщений: 8,453
Мужчина
Откуда: Crystal Dream

Сказал «Спасибо»: 1278 раз
Поблагодарили: 1738 раз в 1098 постах
Автор: atch Перейти к цитате
Рядовой человек видит, что у него ЦПУ работает, а ГПУ простаивает. При этом он знает, что ГПУ тоже можно загрузить. Поэтому при появлении приложения для ГПУ, человек получает дополнительные баллы, а проект - вычислительные мощности.

Обычно, это немного по другому. Кранчер видит, что есть проекты в которых видеокарта работает с полной или почти полной загрузкой, да ещё и credit получается соответствующий и, либо покупает под такие проекты GPU (чаще), либо отдаёт в них ту видеокарту, что есть (реже - когда-то с этого начинается, но потом видекарты покупаются под РВ), после чего на CPU считаются только те проекты, где нет GPU-приложений, а в проектах где таковые есть - работает только GPU. Под GPU-приложением, в данном случае, я понимаю приложение, которое на него действительно хорошо ложится - т.е. считается в 50-100-200 раз быстрее, чем на отдельном ядре/потоке CPU. Есть, правда, некоторые исключения. В Einstein@Home поиск гравитационных волн уже долгое время идёт только на CPU и народ его на них всё равно считает, хотя есть приложения по поиску гамма- и радиопульсаров для GPU.

Цитата:
Но до меня, кажется, дошло, какую мысль Вы пытаетесь до меня донести. )) Приложение на ГПУ может привести к падению мощности проекта. По наблюдениям при появлении приложения для ГПУ многие перестают считать на ЦПУ. И в этом случае отток вычислительный мощностей ЦПУ может превысить добавленную мощность ГПУ. Как вычислить тот порог, после которого приложение ГПУ начнет приносить больше вреда, нежели пользы, честно не знаю. Согласен, это может быть проблемой. Конечно, есть методы борьбы и с этим, но их придется продумывать. SETI и Amicable удалось

Не, это как раз и не подразумевалось. Если приложение для GPU - эффективное то видеокарта будет давать большую выработку и мощности проекта резко возрастут. Если же приложение будет неэффективным, то как все считали на CPU - так и будут считать дальше. Ну, кто-то может быть и добавит GPU, но таких людей будет мало и считать они будут недолго. Ибо нет смысла.

Цитата:
Автор: hoarfrost Перейти к цитате
Но там можно попробовать просто запустить на одном GPU тучу таких расчётов. Но максимально эффективно (или даже приближенно) при таком варианте он уже работать точно не будет.

Рядовому человеку эта академическая эффективность не интересна, и он не обращает на нее внимания, запуская впараллель множество заданий. Это сейчас можно наблюдать в Amicable. Ради баллов люди запускают до десяти и больше заданий ГПУ параллельно.

Это совсем разная параллельность. В том же Einstein@Home на топовых видеокартах запускали (а может и сейчас - тоже) по несколько задач, но это, как я понимаю было связанно с тем, что несмотря на то, что приложение хорошо ложится на архитектуру GPU на уровне Thread cores (которых там тысячи), оно тем не менее, не может задействовать вычислительные блоки вышестоящего ранга - либо просто CPU не может настолько быстро управлять расчётом на GPU, либо что-то ещё. Поэтому для более эффективного задействования GPU в целом - заданий запускают несколько. Но не сотни и не тысячи. А вот если приложение вообще не распараллеливается то вариант только один - пробовать на каждом блоке (а лучше - Thread core, но это, по моему, ещё не возможно) - запустить по отдельному вычислительному процессу.

Цитата:
Автор: hoarfrost Перейти к цитате
Почему не видим? Считаем n-е число WU на CPU или GPU, заходим в каждый из них в перечне задач компьютера и смотрим на напарников. Время от времени будет попадаться сочетание CPU vs GPU.

Там речь шла о сравнении эффективности между разными проектами, а не в рамках одного. Как сравнить между проектами не по баллам и достоверно? Не знаю.

А точно также. smile
В отдельно взятом проекте мы можем определить эффективность вычислений на GPU vs CPU. Если в одном проекте GPU выигрывает в 100 раз, а в другом - в 5, то ответ очевиден. Если же разница не 100 против 5, а 100 против 50 или 30, то на выбор проекта уже будут влиять и просто личные предпочтения участника - ну нравится ему второй проект и он отправит GPU считать его. Но если разница будет 100 против 5, то скорее всего, как бы ему не нравился второй проект, GPU он отдаст в первый, потому что иное - просто не имеет смысла.
UserPostedImage
Offline Hoar  
#72 Оставлено : 28 января 2019 г. 0:25:10(UTC)
Hoar


Статус: Administration

Группы: Member, Russia Team Group
Зарегистрирован: 05.10.2007(UTC)
Сообщений: 305
Мужчина
Российская Федерация
Откуда: Russia, Saint-Petersbourg

Сказал «Спасибо»: 28 раз
Поблагодарили: 27 раз в 18 постах
Автор: Hoar Перейти к цитате
Цитата:
Виндоус ХР установлен.



Судя по сообщениям на форуме, мало какие из проектов сейчас предоставляют приложения, работающие под WinXP. По крайней мере без ошибок.
Возможно, дело в этом.


Впрочем, для Акустики можно попробовать что-то из этого.
Вижу в списке также и вин32 приложения. Может и заведется.
К тому же это оптимизированные приложения, должны считать пободрее.
Сам правда еще не пробовал, ссылка не так давно здесь помелькала.
Offline Vitalii Koshura  
#73 Оставлено : 28 января 2019 г. 0:32:05(UTC)
Vitalii Koshura


Статус: Интересующийся

Группы: Member
Зарегистрирован: 24.04.2015(UTC)
Сообщений: 50
Мужчина
Украина
Откуда: Odessa

Сказал «Спасибо»: 20 раз
Поблагодарили: 39 раз в 25 постах
Автор: Mecenat Перейти к цитате
Виндоус ХР установлен.


Сам BOINC в скором времени перестанет поддерживать Windows XP ибо есть определенные проблемы с безопасностью на новых версиях Windows, которые невозможно решить, не отказавшись от поддержки Windows XP.

Мой Вам совет: либо поставьте Win7, либо что-то из семейства линуксов (правда, в случае линукса Вы все равно не сможете считать Gerasim ибо у него только Win64 приложения).
Offline Hoar  
#74 Оставлено : 28 января 2019 г. 0:40:02(UTC)
Hoar


Статус: Administration

Группы: Member, Russia Team Group
Зарегистрирован: 05.10.2007(UTC)
Сообщений: 305
Мужчина
Российская Федерация
Откуда: Russia, Saint-Petersbourg

Сказал «Спасибо»: 28 раз
Поблагодарили: 27 раз в 18 постах
Кстати, в Акустике запланирован новый челлендж.
Хороший повод запробовать оптимизированные приложения. )
thanks 1 пользователь поблагодарил Hoar за этот пост.
atch оставлено 29.01.2019(UTC)
Offline Horror245  
#75 Оставлено : 28 января 2019 г. 8:27:57(UTC)
Horror245


Статус: Частенько заглядывает

Медали: Первооткрывателю: Нахождение пар ОДЛК в RakeSearch!

Группы: Member
Зарегистрирован: 02.04.2014(UTC)
Сообщений: 291
Мужчина
Украина

Сказал «Спасибо»: 76 раз
Поблагодарили: 68 раз в 52 постах
А там и пробовать нечего. AVX приложения дают прирост в два- три раза, SSE по скромней будет.
Offline SerVal  
#76 Оставлено : 28 января 2019 г. 12:56:33(UTC)
SerVal


Статус: Administration

Медали: Донор: За финансовую помощь сайту

Группы: Editors, Administration, Russia Team Group
Зарегистрирован: 28.09.2007(UTC)
Сообщений: 3,134
Мужчина
Откуда: Москва, Ясенево.

Сказал «Спасибо»: 325 раз
Поблагодарили: 545 раз в 377 постах
Sid написал:
Да и ddr2 сейчас можно купить недорого.

ddr2 отдам совсем бесплатно. Есть 4 штуки по 2 гигабайта.
Вместе с материнкой 775 и процессором Intel(R) Core(TM)2 Quad CPU.
*участнику распределённых вычислений
Offline atch  
#77 Оставлено : 29 января 2019 г. 8:24:20(UTC)
atch


Статус: Я тут не впервой

Группы: Member
Зарегистрирован: 31.12.2018(UTC)
Сообщений: 32
Мужчина
Российская Федерация
Откуда: Москва

Сказал «Спасибо»: 40 раз
Поблагодарили: 2 раз в 2 постах
Мы, кажется, увлеклись, hoarfrost. Поэтому постараюсь тезисно.

Цитата:
Обычно, это немного по другому.

Пожалуй.

Цитата:
Если приложение для GPU - эффективное то видеокарта будет давать большую выработку и мощности проекта резко возрастут. Если же приложение будет неэффективным, то как все считали на CPU - так и будут считать дальше. Ну, кто-то может быть и добавит GPU, но таких людей будет мало и считать они будут недолго. Ибо нет смысла.

Пытался объяснить, что участие конкретного человека в проекте определяется не только и не столько эффективностью, сколько баллами и всем, что с этим связано. Если приложение GPU дает мало баллов, его никто считать не будет. Если оно малоэффективно, но за него дают много баллов, считать будут все.

Цитата:
Это совсем разная параллельность.

Да, разная: одна - кранчера, другая - разработчика.

Цитата:
А точно также. smile

При условии, что баллы раздаются справедливо.

Цитата:
потому что иное - просто не имеет смысла.

Имеет. Не знаю, к счастью или к сожалению. Например, Formula Boinc тому доказательство, или "скопление" кранчеров возле круглых цифр в статистике.

Если хотите, можем перенести беседу в почту или созвониться.
Offline Nauchnik  
#78 Оставлено : 31 января 2019 г. 23:52:26(UTC)
Nauchnik


Статус: Старожил

Медали: Первооткрывателю: Результат в проекте SAT@homeРазработчику: За организацию проекта SAT@home

Группы: Editors, Member, Administration, Moderators, Crystal Dream Group
Зарегистрирован: 06.10.2011(UTC)
Сообщений: 1,543
Мужчина
Российская Федерация

Сказал «Спасибо»: 557 раз
Поблагодарили: 1714 раз в 559 постах
На сервере вчера и сегодня велись технические работы. Надеюсь скоро запустим все в штатном режиме.
UserPostedImage

thanks 2 пользователей поблагодарили Nauchnik за этот пост.
Yura12 оставлено 01.02.2019(UTC), Dim'OK оставлено 01.02.2019(UTC)
Offline Dim'OK  
#79 Оставлено : 1 февраля 2019 г. 9:45:34(UTC)
Dim'OK


Статус: Интересующийся

Группы: Member
Зарегистрирован: 28.04.2018(UTC)
Сообщений: 80
Мужчина
Российская Федерация
Откуда: Crystal Dream

Сказал «Спасибо»: 17 раз
Поблагодарили: 17 раз в 11 постах
Автор: Nauchnik Перейти к цитате
На сервере вчера и сегодня велись технические работы. Надеюсь скоро запустим все в штатном режиме.


Как только все будет готово, дайте нам знать.

Offline Nauchnik  
#80 Оставлено : 1 февраля 2019 г. 11:41:29(UTC)
Nauchnik


Статус: Старожил

Медали: Первооткрывателю: Результат в проекте SAT@homeРазработчику: За организацию проекта SAT@home

Группы: Editors, Member, Administration, Moderators, Crystal Dream Group
Зарегистрирован: 06.10.2011(UTC)
Сообщений: 1,543
Мужчина
Российская Федерация

Сказал «Спасибо»: 557 раз
Поблагодарили: 1714 раз в 559 постах
Автор: Dim' Перейти к цитате
Автор: Nauchnik Перейти к цитате
На сервере вчера и сегодня велись технические работы. Надеюсь скоро запустим все в штатном режиме.


Как только все будет готово, дайте нам знать.



Благодаря помощи hoarfrost удалось решить проблему с сервером. Сейчас проект работает в штатном режиме, генерация заданий работает. Возможно что будут еще отключения, постараюсь сообщать. Это коллеги из Москвы собираются таки настроить SSL-сертификат для проекта.

UserPostedImage

thanks 3 пользователей поблагодарили Nauchnik за этот пост.
Yura12 оставлено 01.02.2019(UTC), Dim'OK оставлено 01.02.2019(UTC), key оставлено 01.02.2019(UTC)
Пользователи, просматривающие эту тему
Guest (2)
4 Страницы«<234
Быстрый переход  
Вы не можете создавать новые темы в этом форуме.
Вы не можете отвечать в этом форуме.
Вы не можете удалять Ваши сообщения в этом форуме.
Вы не можете редактировать Ваши сообщения в этом форуме.
Вы не можете создавать опросы в этом форуме.
Вы не можете голосовать в этом форуме.

Boinc.ru theme. Boinc.ru
Форум YAF 2.1.1 | YAF © 2003-2019, Yet Another Forum.NET
Страница сгенерирована за 0.273 секунды.