можно ли увеличить вычислительную мощность за счет снижения частоты и увеличения количества транзисторов [закрыто]

У меня была следующая идея / мнение в течение длительного времени, но я не уверен, что это правда.

Насколько я понимаю, в процессоре грубо говоря, напряжение, Uнеобходимое для работы, пропорционально частоте, fна которой он работает, а вычислительная мощность пропорциональна количеству Nприсутствующих транзисторов и частоте f.

Следовательно, можно было:

  • делим частоту процессора на k, что позволяет разделить напряжение наk
  • увеличить количество транзисторов наk^2

Это, в свою очередь, дало бы вычислительную мощность, увеличенную на коэффициент k(увеличение на k^2из-за количества транзисторов, уменьшение на kиз-за частоты), при неизменной электрической мощности (мощность где U^2/ R * N- Rэлектрическое сопротивление, Uделится на k, Nувеличивается по k^2). Если закон Мура дает все больше и больше транзисторов по той же цене, то у вас не должно быть ограничений на достигаемую вычислительную мощность (за счет снижения частоты и, возможно, требующих параллельного оборудования и алгоритмов).

Это разумно (или даже верно) или в этом есть основная ошибка? Наивно/приблизительно, я думаю об этом как о объяснении того, почему мозг такой мощный, но потребляет немного меньше энергии, чем ЦП (мозг, как правило, 20 Вт и 100 Гц, ЦП в наши дни часто от 35 до 130 Вт и 3 ГГц, некоторые люди сказать ).

Редактировать 1:

  • Да, я знаю, что энергопотребление/энергопотребление - это та стена, которую встречают процессоры. Здесь я говорю о напряжении (до преобразования в потребляемую мощность), потому что именно оно предсказывает (или мне так кажется?), на какой частоте можно работать.

  • Вычислительная мощность пропорциональна количеству транзисторов. Например, можно просто построить больше ядер с большим количеством транзисторов. Тогда проблема заключается в энергопотреблении; именно поэтому я рассматриваю снижение частоты, так что увеличение потребляемой мощности за счет увеличения количества транзисторов обнуляется уменьшением потребляемой мощности из-за работы на более низком напряжении (и, следовательно, частоте).

  • Я знаю, что это не увеличит скорость выполнения одного потока и потребует параллельных алгоритмов, но вопрос не в этом. Точно так же и архитектура не является проблемой. Я знаю, что производители теперь добавляют все больше и больше транзисторов в кеши и т. д., чтобы увеличить скорость выполнения одного потока / уменьшить задержку, но это не то, о чем я прошу здесь. Здесь я спрашиваю только о том, верен ли очень общий аргумент масштабирования, тогда как использование этого масштабирования с параллельным программным обеспечением — это другой вопрос.

  • Между прочим, мы становимся лучше в использовании параллельных архитектур: искусственные нейронные сети на графических процессорах — все об этом. Это именно та идея, которая стоит и за мозгом: очень медленный при работе с одним потоком, но невероятно параллельная и мощная вычислительная мощность. На самом деле я хочу понять следующее: учитывая кремниевую технологию, используемую в современных транзисторах, можем ли мы теоретически, если выполняется закон Мура (т. е. мы получаем все больше и больше транзисторов по той же цене), построить что-то столь же мощное, как мозг, который не использует мегаватт и более. Для этого кажется, что решение состоит в том, чтобы увеличить параллелизм и уменьшить частоту (как в мозгу). Например, если мой аргумент масштабирования верен, вы можете получить частоту вашего чипа от 3 ГГц до 100 Гц (т.е. разделить частоту на alpha= 30 миллионов) и добавив МНОГО транзисторов (alpha^2, но если вы ожидаете, что закон Мура будет выполняться, мы в конечном итоге его получим), и, следовательно, увеличим вычислительную мощность чипа в те же 30 миллионов раз. Я согласен, это не так просто, чтобы упаковать столько транзисторов, возможно, вам понадобится 3D-чип (например, мозг) или другое изменение архитектуры, но меня просто интересует масштабирование.

Вычислительная мощность пропорциональна количеству транзисторов? В каких единицах измеряется «вычислительная мощность»? И правильным термином для обозначения вместо «напряжения» (обычно известного как «напряжение») является мощность . Одно только напряжение никого не волнует.
Просто короткая заметка. Доктор Хеннесси провел несколько дней, разговаривая со мной лично о подходе MIPS с RISC и CISC, еще в 1986 году, когда я тогда посетил их предприятие. Они использовали на ДВА ПОРЯДКА меньше передающих вентилей и инверторов (транзисторных эквивалентов), чем Intel в то время, потому что ни Mot, ни Intel не продали бы им НИКАКОЙ доступ к лучшим FAB дня. Им приходилось делать больше с меньшими затратами. И они сделали. Они чуть не напугали Intel. И произошел огромный сдвиг в сторону RISC. Мот, например, запустил 88к. Intel также представила свои собственные проекты.
В любом случае тенденция компьютерных процессоров в настоящее время заключается в увеличении количества ядер, в то время как тактовая частота почти не меняется уже несколько лет. Оптимизация программного обеспечения для использования преимуществ нескольких ядер (распараллеливание) — одна из самых сложных задач.
Результатом в Intel стало то, частью чего я был, — PPro и P II — оба из них использовали RISC внутри (буфер повторного заказа) для достижения своего поведения CISC. Я думаю, что суть здесь в том, что более высокие тактовые частоты часто могут превзойти большее количество операций за такт, если предположить, что системы памяти могут питать конвейер. Сегодня доступны супермасштабирующие, многоядерные, параллельные конвейеры и другие методы. Так что "сложно". Вещи не могут быть так просто разбиты только на «больше транзисторных эквивалентов» или «более высокие тактовые частоты».
Есть также больше недостатков безопасности с общим кешем ЦП.
Я бы настоятельно посоветовал получить классический текст Хеннесси и Паттерсона, amazon.com/Computer-Architecture-Quantitative-John-Hennessy/dp/… После того, как вы все прочтете и поймете 50%, вернитесь. А пока я вежливо голосую за то, чтобы закрыть этот вопрос как «слишком широкий».
@jonk, 90-е (и начало 2000-х?) были посвящены увеличению тактовой частоты, но похоже, что последние 10 лет или около того были другой историей.
@ThePhoton В то время доминирующей проблемой ограничения был транзисторный эквивалент. Идеи для реализации были, но мало транса. эквивалент доступны для удовлетворения этих идей. В какой-то момент, я думаю, около отметки в 100 миллионов экв или около того, они перестали быть ограничением. На самом деле FAB Intel были НАСТОЛЬКО СПОСОБНЫ, что начали разбазаривать место на кристалле, выбрасывая его в кеш L1, пока работали над доведением до зрелости других идей. Сегодня почти ВСЕ имеет значение, и это действительно гораздо более сложный инженерный баланс с более сложным выбором.
"делить частоту процессора на k, что позволяет разделить напряжение на k" - это предположение совершенно неверно.

Ответы (1)

Нельзя бесконечно понижать напряжение, в какой-то момент транзисторы просто перестают работать, вне зависимости от частоты. Текущая технология CMOS достигла порогового напряжения около 500 мВ, и в ближайшее время не ожидается улучшения этого показателя:

введите описание изображения здесь