Дмитрий Лаптев.

Современный компьютер. Сборка и модернизация

(страница 3 из 18)

скачать книгу бесплатно

   Между тем на специализированных задачах, для которых характерна обработка данных, поступающих непрерывным потоком, особенно когда требуется прокачать через процессор гигабайты данных, как это бывает во время видеомонтажа или микширования многоканального звука, архитектура Netburst дает ощутимый выигрыш и, вполне возможно, еще получит применение в специализированных системах для подобного рода работ.
   Разумеется, процессоры с традиционной архитектурой за прошедшее время тоже прошли нелегкий путь по дороге технических усовершенствований. Как уже говорилось, главным ограничителем, сдерживающим рост производительности при непосредственном исполнении команд, являются неизбежные задержки, возникающие всякий раз, когда появляется необходимость обращения за недостающими данными во внешнюю память. Даже оперативная память работает в сто раз медленнее процессора, а уж время, требуемое для реакции винчестера на выставленный запрос, вероятно, с точки зрения процессора, кажется вечностью! И какой смысл наращивать частоту процессора, если ему все равно придется спотыкаться на каждом шагу по вине своих неторопливых «слуг»?
   Поэтому именно вокруг борьбы с этими диспропорциями и сосредоточены усилия разработчиков, и, надо сказать, результаты впечатляют! Современные «традиционные» процессоры также умеют просматривать вперед алгоритм программы, что позволяет избежать простоя по вине команд обращения к данным. Так, например, процессор может заранее начать закачку данных с жесткого диска в оперативную память, и когда они потребуются по ходу программы, то уже не придется ждать их загрузки. А чтобы процессору не приходилось обращаться за необходимыми данными вторично в оперативную память, особое внимание уделяется кэш-памяти. При этом используется двухуровневая модель, когда наиболее востребованные данные помещаются на первом уровне, имеющем максимальную производительность, а менее востребованные хранятся на втором уровне.
   Но, совершенно очевидно, каков бы ни был объем кэш-памяти, рассчитывать, что это сколько-нибудь существенно отразится на необходимости обращаться за данными в оперативную память, не приходится. Объем внешней памяти, занимаемый программами, измеряется сотнями мегабайт, и к тому же существует масса программ, не предполагающих «повторное» обращение к одним и тем же данным, поэтому их просто бессмысленно помещать в кэш-память. Причем в последний класс попадают задачи, связанные с наиболее востребованной по нынешним временам переработкой мультимедийных данных – оцифрованного видео, аудио, компьютерной объемной графики в играх и программах 3D-моделирования.
   Поэтому нужно стремиться использовать гораздо более перспективный и универсальный путь – совершенствовать способ работы с оперативной памятью. Так, в наиболее совершенном из процессоров, построенных по традиционной архитектуре, – Athlon 64, оперативная память соединена с процессором отдельным быстродействующим каналом.
В остальных случаях для этой цели используется общий системный канал, а управляет работой отдельная микросхема на материнской плате. Задержка при обращении в память по новой схеме составляет от нескольких наносекунд при последовательном считывании до 60–70 нc при полностью случайном поиске ячеек памяти. Это в 1,5–2 раза быстрее по сравнению с ранее существовавшими схемами организации работы с памятью!


   Кроме архитектуры, на производительность процессора влияет еще ряд параметров, которые различаются даже у процессоров, принадлежащих к одному семейству. В первую очередь – это тактовая частота самого процессора. Именно на выпуске вариантов с измененной частотой и строятся модельные ряды на всякий вкус и кошелек. По мере того как совершенствуется производство процессоров, появляются новые модели с большей частотой, а все их предшественники в этот момент дешевеют, смещаются на одну ступеньку вниз в ценовой «табели о рангах». Таким образом, точно сказать, какого диапазона частот стоит придерживаться, нельзя, так как информация устаревает очень быстро. Но есть любопытное наблюдение, которое остается истинным уже довольно давно. И нет причин, чтобы оно перестало действовать в будущем. Наиболее выгодным приобретением являются процессоры из середины модельного ряда, старшие, как правило, стоят намного дороже середнячков, имея всего лишь на 200–400 МГц большую частоту.
   Второй параметр, который часто можно встретить даже в прайс-листах в кратких описаниях процессоров, – частота системной шины (FSB). Системная шина – это канал, связывающий процессор с системами ввода и вывода данных. Здесь никаких хитростей нет. Чем выше частота шины, тем меньше придется простаивать процессору в ожидании данных и команд, поступающих из оперативной памяти. Исключение составляет упомянутый Athlon 64, так как для него этот параметр лишен смысла. Этот процессор работает с памятью через свой выделенный канал, и скорость обмена данными ограничивается только возможностями самой памяти. Для сообщения с остальной периферией – жесткими дисками, адаптером локальной сети и прочим оборудованием используется фирменный канал Hyper-Transport, пришедший на персональные компьютеры из мира серверов и обладающий большим запасом пропускной способности.
   Следующий параметр, подлежащий осмыслению, – это разрядность процессора. Эта величина описывает объем данных, которыми процессоры могут оперировать внутри своих вычислительных блоков. Справедливости ради, его стоило бы поставить на первое место по значимости, так как в технических справочниках по процессорам принята градация именно по этому параметру. Но до недавнего времени мы просто не имели возможности выбирать по этому критерию, так как все процессоры для персональных компьютеров (за исключением серверов и профессиональных рабочих станций) за последние без малого 20 лет были 32-битными. А еще раньше они были 16-битными. Лишь в 2003 году были выпущены первые 64-битные процессоры для персональных компьютеров (Athlon 64), а к настоящему времени совместимое 64-битное расширение было добавлено также в процессоры Pentium 4, принадлежащие к шестисотой серии. И по прогнозам экспертов, в течение ближайших 2–3 лет 64-битные процессоры полностью вытеснят в продаваемых компьютерах своих предшественников, хотя в общей массе они будут преобладать лишь через 3–4 года.
   Почему так важна разрядность? Все просто – увеличивая объем данных, обрабатываемых за один такт работы процессора, можно повлиять на производительность ничуть не хуже по сравнению с традиционным путем подъема частоты и наращивания других количественных параметров. Упрощенно говоря, для обработки того же объема данных 64-битным процессорам может потребоваться вдвое меньше тактов, чем 32-битным, при этом не наблюдается таких негативных последствий, как растущее тепловыделение, непременно сопровождающее подъем частоты.
   Конечно, двукратного прироста всюду ожидать не стоит, поскольку не все задачи занимаются непрерывной переработкой массивных данных. А самое главное затруднение состоит в том, что для извлечения пользы из увеличенной разрядности программы должны быть составлены с учетом новых возможностей процессора. Для пользователя это означает, что придется дожидаться 64-битной версии своих любимых программ. Более того, сама операционная система должна быть переписана с нуля. Именно из-за последнего обстоятельства процесс смены разрядности занимает так много времени – написать и отладить операционную систему даже для такой могущественной компании, как Microsoft, будет не быстрым делом. А разработчики программ предпочитают ориентироваться на массовый рынок и тем более не будут спешить с выпуском обновлений своих программ под еще не вышедшую Windows. Поэтому, несмотря на то, что разработка 64-битной версии Windows началась задолго до выпуска в свободную продажу самих процессоров, готовая система появилась лишь в мае 2005 года, а перевод распространенных программ на 64-битные версии займет еще несколько лет. Тем не менее никто не сомневается, что дело это стоящее и эффект в результате будет заметным и основательным.
   Впрочем, эта попытка модернизации архитектуры – далеко не первая. Однако все предшествующие не получили поддержки. Среди причин провала выделяют неубедительный прогноз (результат внедрения не обещал превзойти эффект от обычной эволюции) и полную несовместимость обновленных процессоров с уже существующим программным обеспечением, из-за чего их просто никто не хотел покупать. Почему же на этот раз удалось стронуть дело с мертвой точки, причем без каких-либо особых организационных усилий и дотаций разработчикам программ?
   Компания AMD, очевидно, смогла учесть обе трудности. Во-первых, компания предложила не просто переход на 64-битную разрядность, но и попутно ввела несколько давно напрашивающихся улучшений в саму архитектуру, чтобы сделать ее максимально привлекательной для освоения. А во-вторых, сохранила совместимость своих 64-битных процессоров со всеми существующими 32-битными операционными системами и программами. Более того, в большинстве программ новые процессоры оказались сильнее в сравнении с конкурентами уже на момент выпуска именно на 32-битных программах. Это привело к тому, что пользователи стали покупать процессоры Athlon 64, исходя из их текущих показателей без особых расчетов на будущее и даже не задумываясь о перспективах появления 64-битных версий своих программ. В настоящее время парк таких компьютеров активно растет, и разработчики программ могут рассчитывать, что их усилия по оптимизации программ для 64-битного режима будут коммерчески оправданны и новые версии гарантированно найдут сбыт.


   Наконец, последним веянием в области процессоростроения можно смело назвать «двухъядерность» – удвоение самих вычислительных блоков на кристалле. В отличие от внедрения 64-битности, пока нельзя достоверно сказать, насколько скоро это нововведение будет поддержано разработчиками ПО. Сама инициатива была озвучена компанией AMD в процессе подготовки к выпуску процессоров на ядре K8 (Athlon 64 для настольных компьютеров и Opteron для серверов) в конце девяностых годов. Первое поколение двухъядерных процессоров вышло в мае 2005 года. При этом соответствующие модели поставили на рынок оба основных производителя, так как несколько ранее, в 2004 году, о намерении «сдвоить» ядра заявила и Intel.
   Как и в случае удвоения разрядности, «сами по себе» два ядра также не обеспечивают автоматического ускорения. Есть лишь одно значимое отличие – двухъядерный процессор не требует новой операционной системы. Зато от разработчиков программ требуется несравнимо более глубокая переработка своих программ с изменением самого алгоритма, так чтобы в программе вычленялись два параллельных потока исполнения. В противном случае второе ядро будет простаивать, а скорость работы ничем не будет отличаться от работы одноядерного процессора. Однако надо учитывать, что такая оптимизация не просто затруднительна сама по себе, а зачастую невозможна в принципе – алгоритмы чаще всего предполагают, что команды исполняются одна за другой и исходные данные для последующих команд жестко зависят от результатов предшествующих. Именно так работает большинство общеупотребительных программ в настоящее время, и ситуация пока не меняется.
   Так, предыдущая попытка заставить программистов «мыслить в два потока» связана с широко разрекламированной в свое время технологией виртуальной многопоточности Hyper-Threading. Поскольку и в одноядерном процессоре есть простаивающие или незагруженные в каждый момент времени модули, разработчики рассчитывали загрузить их, представив один физический процессор как два логических. Для этого достаточно было сделать так, чтобы операционная система определяла его как два равноправных процессора. Теоретически, если бы в программах активно использовался многопоточный принцип, очередь команд через такие «два входа» начала бы продвигаться гораздо быстрее, занимая по мере возможности свободные блоки и полнее нагружая процессор работой. Но массовой оптимизации так и не произошло, несмотря на рыночное давление. Поэтому в реальности выигрыш от включения HT достигается только при условии, что вы запускаете сразу несколько программ, причем непременно – ресурсоемких, например игру с трехмерной графикой и обработку цифрового видео. В таком случае на процессоре без HT работа просто застопорится, тогда как с HT вы сможете пользоваться обоими приложениями сразу.
   Однако общий темп будет заметно снижен, не говоря уж о том, что такая работа вообще имеет мало общего с действительностью. Играть гораздо приятнее на свободном компьютере, а ресурсоемкие операции (антивирусные проверки, обработку цифрового видео и аудио) лучше оставить на то время, когда вы можете отвлечься на обеденный перерыв или будете свободны. В этом случае подобные процедуры займут гораздо меньше времени. Также следует учитывать, что не существует таких задач, которые загружали бы только процессор. В работу вовлекаются и другие компоненты, а активное обращение к оперативной памяти и дискам во время игры гарантированно затормозит реакцию компьютера до неприемлемого уровня. Что касается «офисной» многозадачности, когда необходимо проводить сканирование или распечатку текстов одновременно с получением почты веб-серфингом, то нужно помнить, что во всех этих случаях несопоставимо медлительным звеном будет сама периферия, а центральному процессору придется отвлекаться для ее обслуживания лишь на очень и очень короткие периоды времени. И на практике для совершенно прозрачного, с точки зрения пользователя, обслуживания подобных приложений достаточно любого современного процессора, хотя бы и самого дешевого.
   К настоящему моменту инициативу Hyper-Threading можно назвать в целом неудавшейся, так, в двухъядерных процессорах Pentium D виртуальная многопоточность (то есть 4 логических процессора) будет создана лишь в ограниченном количестве моделей. И по имеющимся тестам, она практически не влияет на уровень их производительности.
   Тем не менее эти выводы никак не касаются «истинной многоядерности» – есть целые категории профессиональных задач, для которых переход на двухъядерные процессоры оправдан уже сейчас. Распределение одной задачи между несколькими процессорами нельзя назвать очень уж новой идеей, но до сих пор этот способ применялся лишь для соответствующих классов задач, которые хорошо поддавались распараллеливанию. Стоимость материнской платы, на которую можно установить два процессора, равно как и стоимость пары процессоров, способных работать в паре, всегда ограничивала распространение подобных систем. Потому и список соответствующих программ получается небольшой. Значительное ускорение на «двухядерниках» наблюдается в пакетах 3ds max 6, Maya 6.5, Lightwave 8.2, небольшой эффект заметен в программах Adobe Photoshop и Distiller и уж совсем минимальный – в программах упаковки данных. В играх эффект отсутствует полностью, поскольку отображением трехмерной картинки в компьютере занимается видеокарта, а процессору остаются плохо распараллеливаемые процессы. Однако есть надежда, что переход к двум физическим ядрам все же заставит программистов начать более активную оптимизацию приложений и через несколько лет ситуация изменится.
   Но в отличие от увеличенной разрядности, многоядерность отнюдь не бесплатна. Никто не предлагает двухъядерный процессор по цене одноядерного. Себестоимость их пока ровно вдвое выше, а цена также превосходит соответствующие по частоте модели с одним ядром более чем в полтора раза. Поэтому всегда нужно выбирать – либо переплатить за двухъядерный процессор, либо серьезно пожертвовать тактовой частотой. Первый вариант всем хорош (кроме цены, конечно), а от второго хотелось бы предостеречь, так как на данный момент список оптимизированных программ слишком мал, чтобы выигрыш от использования двух ядер был бы постоянно ощутим.
   Поэтому в отношении нынешних двухъядерных процессоров рекомендации будут совершенно однозначными. Их стоит приобретать, только если вы профессионально работаете в перечисленных выше приложениях и в то же время собираетесь потратить на процессор внушительную сумму, чтобы тактовая частота оказалась на уровне старших процессоров из одноядерной линейки. В противном случае одноядерник будет более предпочтительным вариантом не только по производительности в современных программах, но и по срокам морального устаревания.
   Даже если оптимизация массовых программ для двухъядерных процессоров состоится, то к моменту появления массовых программ производительность нынешних младших двухъядерных процессоров уже не будет соответствовать их требованиям. В таком случае логично будет выбрать либо новую одноядерную модель, развитие которой не прекращается, либо один из действительно мощных двухъядерных процессоров, которые к тому времени будут иметь гораздо более логичную, соответствующую реальной привлекательности цену.


   Осталось рассмотреть еще одну не связанную с производительностью, но напрямую влияющую на потребительские свойства характеристику процессора – тепловыделение. Чем сильнее греется процессор, тем интенсивнее требуется его охлаждать, а для потребителя это почти всегда означает, что и шуметь такая система будет сильнее. А для устранения подобной проблемы, возможно, придется истратить в несколько раз больше денег на альтернативную систему охлаждения, например водяную. В большинстве своем такие системы требуют определенных навыков для установки, а их протечка грозит выходом из строя нежной электроники. Тепловыделение напрямую зависит от потребляемой мощности, поскольку процессор переводит ее в тепло. Потребление мощности, в свою очередь, зависит от используемых в производстве технологий, тактовой частоты процессора и поддержки механизмов энергосбережения.
   Самыми экономичными являются, конечно же, мобильные процессоры. Если говорить конкретнее – меньше всего тепла при работе выделяют процессоры Pentium M. Что характерно, более слабый Celeron M потребляет энергии гораздо больше и сажает батарейки ноутбука в несколько раз быстрее, поскольку он на правах дешевого процессора был лишен разработчиками развитых технологий энергосбережения. Этот процессор фактически является переведенной на современные технологические нормы реализацией архитектуры Pentium III. Если учесть небольшое количество транзисторов и добавленные механизмы энергосбережения, результат получается вполне предсказуемый. А успех Pentium M в качестве процессора для ноутбуков является вполне заслуженным. Лишь чуть больше энергии в среднем потребляет мобильный процессор Turion 64, спроектированный на основе Athlon 64, что также вполне понятно, поскольку он свежее по архитектуре, чем Pentium M. Гораздо любопытнее тот факт, что и настольный Athlon 64, несмотря на свою 64-битность и более высокие тактовые частоты, потребляет в режиме спокойной работы лишь немногим больше мобильных процессоров. Причем даже у двухъядерных Athlon 64 X2 (рис. 2.1) потребление мощности возросло незначительно. Такой результат объясняется не в последнюю очередь работой оригинальной технологии Cool & Quiet, регулирующей частоту и напряжение процессора динамически, в зависимости от реальных потребностей запущенной в данный момент программы. Благодаря такому подходу мобильная версия процессора Athlon 64 фактически ничем не отличается от «настольных» Athlon 64. А процессор Turion 64 отличается от Athlon 64 лишь тем, что дополнительно тестируется на способность работать при меньшем напряжении и компактной системе охлаждения, но при этом он все равно располагает всей функциональностью «взрослых» 64-битных процессоров. В среднем ноутбук на Turion 64 работает от одного комплекта батарей равной емкости чуть меньше, чем при использовании Pentium M, что вполне компенсируется функциональностью и большей перспективностью.
   Рис. 2.1. Процессор Athlon 64 X2.

   Процессоры Pentium 4 (рис. 2.2) отличаются наибольшим тепловыделением среди продаваемых в настоящее время процессоров для ПК. Это происходит из-за архитектурных особенностей семейства Netburst. Поэтому недавно было принято решение свернуть выпуск мобильных версий этого процессора (Pentium 4-M), так как они не выдерживали конкуренцию с Pentium M и Turion 64. Ну а рекордсменами по прожорливости и теплоотдаче закономерно являются двухъядерные Pentium D. При работе они могут потреблять и рассеивать до 150 Вт, что примерно в два раза больше тепловыделения самых «жарких» из моделей Athlon 64 в таких же условиях. Надо учесть, что значения выше 130 Вт фактически являются пределом для воздушных систем охлаждения, поэтому даже незначительное нарушение теплоотвода радиатора (запылившийся радиатор вполне может стать причиной этого) может привести к перегреву и аварийному снижению частоты такого процессора по команде от системы защиты.
   Рис. 2.2. Процессор Pentium 4.

   Процессоры с высоким тепловыделением не рекомендуется приобретать для домашних компьютеров, поскольку шум от системы охлаждения может создавать серьезный дискомфорт. И даже угрожать семейному благополучию, особенно если вы собираетесь играть или работать вечерами, когда остальные домочадцы отдыхают. А вот для работы в офисе шум является второстепенным параметром из-за высокого уровня фонового шума.


   Если вы покупаете процессор в коробочной (in BOX) комплектации, радиатор с вентилятором, которые гарантированно могут охладить процессор до безопасной температуры, вы получите в комплекте. Но все же рекомендуется заменить нанесенную на подошву кулера термопасту. Для этого стоит использовать пасту АлСил-3. Она широко продается в компьютерных магазинах. А если вы заказываете сборку компьютера, рекомендуется жестко оговорить использование этой термопасты. Она потребуется не только для лучшего теплового контакта, но и для простого снятия кулера с процессора, если это потребуется в будущем, например для частичного обновления компьютера и замены процессора на более мощную модель. К сожалению, стандартная паста отличается повышенной вязкостью, и процессор при отсоединении радиатора может вырваться из гнезда, что совсем не полезно для его состояния.
   Впрочем, если вы хотите получить гарантированный комфорт в работе, возможно, имеет смысл приобрести процессор в поставке без кулера (OEM) и выбрать достойный охладитель самостоятельно. Так, для дешевых моделей Sempron и Celeron одними из лучших являются кулеры производства компании Glacialtech. Они очень дешевы (обычно в комплекте с процессором такой кулер обойдется дешевле, чем коробочная версия) и практически бесшумны.
   Чтобы добиться бесшумной работы компьютера с мощным процессором, работающим постоянно под нагрузкой, придется потратить на кулер достаточно много: даже больше той суммы, чем составляет разница между коробочной и OEM-поставкой процессора. В этом случае на ваше внимание будут претендовать модели от Titan, Zalman, Arctic, Scythe, Cooler Master и многих других производителей. В качестве примера можно привести очень хорошо зарекомендовавшие себя в наших тестах TITAN TTC-NK15TB/SC/RB Vanessa S-Type, Zalman 7000-ALCU (рис. 2.3) и бескомпромиссный по теплоемкости выбор – Zalman 7700-CU. Любопытно, что в сочетании с экономичными моделями процессоров (это касается старших моделей Sempron под Socket 754 и всех Athlon 64, то есть тех процессоров, которые поддерживают технологию Cool & Quiet) такие кулеры позволяют добиться не просто тихой, а вовсе бесшумной работы. Вентилятор может оставаться в покое большую часть рабочего времени!
   Рис. 2.3. Кулер Zalman 7000-ALCU.

   При выборе кулера непременно обратите внимание на рейтинг процессора, для которого гарантируется охлаждение. Этот рейтинг всегда можно найти в описании и на упаковке. Желательно выбирать модель с запасом, скажем, если у вас процессор с рейтингом 3200, разумно выбрать кулер, способный охладить модели до 3800 включительно.


скачать книгу бесплатно

страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18

Поделиться ссылкой на выделенное