2008-08-26 14 views
13

Что вы думаете о будущем GPU в качестве инициаторов ЦП, таких как CUDA? Считаете ли вы, что они собираются стать мейнстримом и стать следующей принятой увлечением в отрасли? Apple строит новую структуру для использования GPU для выполнения задач ЦП, и в проекте Nvidias CUDA в науках много успехов. Вы могли бы предложить, чтобы студент проводил время в этой области?Целесообразность использования графического процессора как процессора?

ответ

5

Прежде всего, я не думаю, что это вопросы действительно принадлежит SO.

На мой взгляд, GPU - очень интересная альтернатива, когда вы делаете векторную математику с плавающей точкой. Однако это означает: он не станет основным. Большинство основных (настольных) приложений выполняют очень мало вычислений с плавающей запятой.

Он уже приобрел силу в играх (физики-двигатели) и в научных расчетах. Если вы считаете, что любой из этих двух, как «основной», чем «да», GPU станет основным.

Я бы не стал рассматривать эти два как основной, и поэтому я думаю, что GPU будет поднять, чтобы стать следующей принятой причудой в индустрии массового бизнеса.

Если вы, будучи студентом, заинтересованы в научных вычислениях, основанных на физике, вы должны обязательно совершить какое-то время (графические процессоры - это очень интересные части оборудования в любом случае).

+1

мнения, но нет ответа ... – leppie 2009-02-27 22:42:13

+1

не считая, что супер-ЭВМ построены с единственной целью научных расчетов, а видеоигры приводят к развитию графики, искусственного интеллекта и интенсивного физического применения (особенно сразу), я не знаю, как вы могли бы считать их не основным потоком. Но я согласен, что GPU никогда не заменит процессор. У GPU просто нет гибкости. – Narcolapser 2010-06-21 18:48:18

+0

Интересно посмотреть на этот вопрос через несколько лет. Я думаю, что GPU определенно стал более популярным в этом плане, хотя замена CPU маловероятна. Они все равно добавляют все больше и больше ядер =) И да, это, вероятно, лучше жить в [Programmers] (http://programmers.stackexchange.com/), чем SO. – 2011-03-19 22:08:35

2

Я думаю, что это правильный путь.

Учитывая, что GPUs have been tapped to create cheap supercomputers, это, по-видимому, естественная эволюция вещей. С такой большой вычислительной мощностью и R & D уже сделано для вас, почему бы не использовать доступную технологию?

Итак, продолжайте и делайте это. Это сделало бы для некоторых интересных исследований, а также законную причину купить эту высококачественную графическую карту, чтобы вы могли играть на Crysis и Assassin's Creed на полной графической детализации;)

1

С таким количеством неиспользованной мощности я не вижу, как долго это будет продолжаться. Вопрос в том, как будет использоваться GPU для этого. На данный момент CUDA кажется хорошим догадкой, но на горизонте появляются другие технологии, которые могут сделать его более доступным для среднего разработчика.

Apple недавно анонсировала OpenCL, который, по их утверждению, намного больше, чем CUDA, но довольно простой. Я не уверен, что именно сделать, но группа khronos (ребята, работающие над стандартом OpenGL) работают над стандартом OpenCL и пытаются сделать его высоко совместимым с OpenGL. Это может привести к технологии, которая лучше подходит для нормальной разработки программного обеспечения.

Это интересная тема, и, кстати, я собираюсь начать магистерскую диссертацию по вопросу о том, как лучше всего использовать мощность GPU для средних разработчиков (если возможно) с CUDA в качестве основного фокуса.

+0

Вы видели GPU ++, он исходил из тезисов, похожих на то, что вы собираетесь начать. Могу дать вам удар. – gbjbaanb 2008-10-20 21:31:45

2

Его одна из тех вещей, для которых вы видите 1 или 2 приложения, но скоро кто-то придумает «приложение-убийца», в котором выясняется, как сделать что-то более общее с ним, при сверхбыстрой скорости.

Пиксельные шейдеры для применения процедур к большим массивам значений поплавков, возможно, мы увидим некоторые приложения для покрытия ГИС или хорошо, я не знаю. Если вы не уделяете ему больше времени, чем я, тогда вы будете иметь тот же уровень понимания, что и я, т.е. мало!

У меня такое чувство, что это может быть действительно большая вещь, как и Intel и S3, может быть, это просто нуждается в 1 маленькой настройке, добавляющей к оборудованию, или кому-то с лампочкой над головой.

6

Долгосрочный я считаю, что GPU перестанет существовать, поскольку процессоры общего назначения развиваются, чтобы взять на себя эти функции. Intel's Larrabee - первый шаг. История показала, что ставка против x86 - плохая идея.

Изучение широкомасштабных параллельных архитектур и векторной обработки по-прежнему будет полезно.

18

Задайте время, если вас интересуют научные и параллельные вычисления. Не думайте о CUDA и превращайте GPU в CPU. Это позволяет использовать более прямой метод программирования графических процессоров, чем старые методы программирования GPGPU.

ЦП общего назначения получают свою способность хорошо работать по широкому кругу задач из всей работы, которая прошла в предсказание ветвей, конвейерной обработки, суперскалера и т. Д. Это позволяет им достичь хорошей производительности на широком спектре рабочих нагрузок, в то же время заставляя их всасывать операции с плавающей запятой с высокой пропускной способностью.

Графические процессоры первоначально были предназначены для того, чтобы сделать одно, и сделать это очень, очень хорошо. Графические операции по своей сути параллельны. Вы можете рассчитать цвет всех пикселей на экране одновременно, потому что нет никаких зависимостей данных между результатами. Кроме того, требуемым алгоритмам не приходилось иметь дело с ветвями, так как почти любая ветвь, которая требовалась бы, могла быть достигнута путем установления коэффициента эффективности до нуля или одного. Поэтому аппаратное обеспечение может быть очень простым. Не стоит беспокоиться о предсказании ветвей, и вместо того, чтобы делать суперскалеров процессора, вы можете просто добавить столько же ALU, сколько сможете начинали на чипе.

С программируемыми текстурами и вершинными шейдерами, GPU получил путь к общей программируемости, но они все еще ограничены аппаратным обеспечением, которое по-прежнему предназначено для операций с плавающей точкой с высокой пропускной способностью. Некоторые дополнительные схемы, вероятно, будут добавлены для обеспечения более общего назначения, но только до определенной точки. Все, что ставит под угрозу способность графического процессора делать графику, не приведет к этому. В конце концов, компании GPU все еще находятся в графическом бизнесе, а целевым рынком все еще являются геймеры и люди, которым нужна высокая визуализация.

Рынок GPGPU по-прежнему является каплей в ковше и в определенной степени будет оставаться таким. В конце концов, «это выглядит красиво» - это гораздо более низкий стандарт для удовлетворения, чем «100% гарантированные и воспроизводимые результаты, каждый раз».

Итак, графические процессоры никогда не будут реализованы как процессоры. Они просто предназначены для различных видов рабочих нагрузок. Я ожидаю, что GPU получит функции, которые сделают их полезными для быстрого решения более широкого круга проблем, но они всегда будут графикой процессоров в первую очередь.

Всегда будет важно всегда соответствовать вашей проблеме с помощью наиболее подходящего инструмента, который вы должны решить.

5

GPU никогда не вытеснит процессор. ЦПУ выполняет набор последовательных инструкций, а графический процессор выполняет очень специфический тип вычислений параллельно. Эти GPU имеют большую полезность в численных вычислениях и графике; однако большинство программ никоим образом не могут использовать этот колорит вычислительной техники.

В ближайшее время вы увидите новых процессоров Intel и AMD, которые включают в себя графические вычисления с плавающей запятой с графическим процессором, а также стандартные вычисления ЦП.

1

Давным-давно, было очень сложно выполнить вычисления с плавающей запятой (тысячи/миллионы циклов эмуляции на инструкцию по невероятно быстродействующим (по сегодняшним меркам) процессорам, таким как 80386). Люди, которые нуждались в производительности с плавающей запятой, могли получить FPU (например, 80387.Старый FPU был довольно тесно интегрирован в работу ЦП, но они были внешними. Позже они стали интегрированными, причем 80486 имеет встроенный FPU.

Старинный FPU является аналогом вычисления графического процессора. Мы уже можем получить его с APU AMD. APU - это процессор с встроенным в него графическим процессором.

Так что, я думаю, что фактический ответ на ваш вопрос, ГПУ не будут процессорами, а центральный процессор будет иметь графический процессор встраивается.

Смежные вопросы