товарисчи, я чёт не втыкнул.прочитал, что у ящего производительность при вычислениях с плавающей точкой 1 террафлоп, а у ЗЫ3 только 218 гигафлоп..........либ я чёт реально не догоняю, либо с чего вдруг все скупают соньки для научных исследований и расчётов??
кстати всегда было интересно что это за плавающая точка и что за гигафлопы. Можно вкратце)
Flop - floating point operation per second. Обозначает количество простейших вычислений с плавающей запятой в секунду. Собственно таким способом обозначают мощность процессора. Если хочешь подробнее узнать про это, поищи на википедии.
synthez
при большом желание поймешь, только все это имхо сухие цифры. Вот когда смотрел три вроде плойки соедини по сети и делали рендер в реальном времени модели автомобиля с фиг знает каким количеством полигонов в полном HD вот это было круто.
synthez
при большом желание поймешь, только все это имхо сухие цифры. Вот когда смотрел три вроде плойки соедини по сети и делали рендер в реальном времени модели автомобиля с фиг знает каким количеством полигонов в полном HD вот это было круто.
Смысл, в играх обычно исполюзуется заранее просчитаный код, тоже освещение и т.д. читал как то статью одной студии по спец эфектам в играх, реальное освещение, как они говорят, мол в нынещних играх для консолей нового поколение не онид световой еффект заренее не просчитан а использую состряпаные заранее световые карты, мол обещают в ближайшее время световые эффекты голивудского качества.
Кому интересно
Недавно узнал как происходит рендеринг 4d графики в соньке, память у не раздельная для проца и граф проца, у кождого по 256, и они имеют доступ к памяти друг друга, так вот когда кода RSX обрабатывает текстуры загружая свою и системную память, Cell в это же время с этимиже текстурами рендерит 4d графику.
кому будет интересно почитать
маленькая статья специалистов из IBM - что такое Cell, для чего он нужен и какие при его разработке ставились задачи:
Скрытый текст:
Уровень текста: базовые знания устройства микропроцессоров.
Introduction to the Cell multiprocessor


by J. A. Kahle,
M. N. Day,
H. P. Hofstee,
C. R. Johns,
T. R. Maeurer,
and D. Shippy


 История проекта
Первоначальное обсуждение совместной работы для разработки Cell началось с подачи генеральных директоров Sony и IBM: Sony была нужна новая технология, а IBM являлась наиболее передовой компанией по разработке новейших вычислительных решений. Вскоре началась совместное обсуждение, в которой SCEI (Sony Computer Entertainment Incorporated) была постановщиком задачи, IBM - разработчиком микропроцессора, и Toshiba - поставщиком различных технологий и материалов. Во время решающей встречи в Токио летом 2000 года было установлено, что традиционные компьютерные технологии не обеспечивают достаточную вычислительную мощность, которая требовалась SCEI для решения ее будущих задач. В планах SCEI было создание компьютерных мощностей в 1000 раз превышающих мощность PlayStation2, а перед Cell была поставлена задача по достижению производительности в 100 раз превышающей производительность PlayStation2 с перспективой дальнейшего развития. При этом Исследовательскому Центру IBM было поручено исследование возможностей нового подхода при создании новой компьютерной архитектуры с привлечением новейших технологий IBM. Новая технология должна была объединить в себе такие аспекты, как широкополосное объединение, развлекательную систему, и использование структуры как у суперкомпьютера. В течении совместных обсуждений было рассмотрено много предложений, основанных на многоядерности процессора, начиная от обычных мультипроцессоров (CMP) и заканчивая мультипроцессорами, ориентированных на поток данных.
К концу 2000 года была определена концепция новой архитектуры, которая основывалась на 64-битной архитектуре Power, объединенной с контролером поточных данных, и на “синергических” процессорах, которые обеспечивали достаточную плотность и эффективность вычислений.
Через несколько месяцев 9 марта 2001 года в Остине, Техас был создан Проектный Центр STI (SCEI–Toshiba–IBM). Проектный Центр STI представлял собой совместное предприятие с бюджетом около 400 миллионов долларов. Отдельные совместные исследования проводились также и в других местах.
Для успешного создания нового мультипроцессора Cell был использован ряд ключевых моментов. Во-первых, использовался целостный подход к его созданию, определяющий процессорную архитектуру, аппаратную реализацию, системные структуры, и модели программирования. Во-вторых, руководство проектом осуществлялось специалистами из IBM. В-третьих, при создании использовалось большое количество гибких составляющих, начиная от перепрограммируемых синергических процессоров и заканчивая перенастраиваемыми интерфейсами ввода/вывода, для обеспечения поддержи большого количества разных систем на базе одного чипа.
Помимо Остина в разработке Cell приняли участие лаборатории расположенные в: Rochester, Minnesota; Yorktown Heights, New York; Boeblingen (Germany); Raleigh, North Carolina; Haifa (Israel); Almaden, California; Bangalore (India); Yasu (Japan); Burlington, Vermont; Endicott, New York; а совместная команда инженеров располагалась в East Fishkill, New York.
Задачи и проблемы проекта
Перед новой технологией ббыли поставлены следующие задачи:
• Выдающаяся производительность, особенно в мультимедия и играх.
• Реагирование на пользовательские и сетевые действия в режиме реального времени.
• Применимость в большом спектре платформ.
Выдающаяся производительность, особенно в мультимедия и играх
Ожидалось, что первая из поставленных задач, выдающаяся производительность, особенно в мультимедия и играх, будет затруднена из-за ограничений производительности, налагаемые временем ожидания памяти и ее пропускной способностью (memory latency and bandwidth), энергоснабжением (даже в большей степени, чем размера чипа), и убывающей отдачей производительности при увеличении частоты процессора, вызванной уменьшением реально выполняемой работы за цикл, при расширении пропускной способности конвейера процессора.
Первой основной преградой для увеличения производительности является увеличенное время ожидания памяти (memory latency) измеряемое в циклах, и ограничения на ее пропускную способность вызванное простоями. Эта проблема также известна как “стена памяти” (memory wall), которая происходит из-за того, что увеличивающиеся частоты процессора не соответствуют заниженному времени ожидания DRAM, в результате чего эффективное время простоя DRAM увеличивается с каждым поколением. Обычно, в многогигагерцовой процессорной системе время простоя DRAM измеряется в сотнях циклов, а в симметричных многопроцессорных системах с общей памятью (как XBox 360 или современных PC на базе Dual или Quad Core процессорах) задержки основной памяти измеряются уже в тысячах процессорных циклов. В обычном микропроцессоре, программируемом с использованием традиционного последовательного кода случается довольно малое количество конкурирующих запросов памяти. В последовательной модели программирования предполагается, что бы текущая инструкция должна быть завершена перед тем, как начнется следующая. Если запрашиваемые данные или инструкция (ейкоманда процессора называется инструкцией прим gunnar2906) отсутствуют в кэш памяти процессора, это приведет к обращению к основной памяти, а исполнение инструкции произойдет только в режиме допущения (предположения), предполагая, что доступ к памяти был успешным. Помимо этого процессор должен выйти из состояния допущения для того, что бы безопасно завершить исполнение инструкции. Если же возникает зависимость от данных предыдущего запроса к памяти, результат которого также отсутствовал в кэше процессора, для продолжения обработки инструкций необходимо еще болееее сложное допущение. Из-за того, что требуется некое количество управления для подтверждения данных, каждый раз, когда вычисления производятся в режиме допущения, и в связи с тем, что вероятность, что полезная работа процессора завершена верно, быстро уменьшается в зависимости от количества запросов, когда процессор должен “предполагать”, случаи, когда обычный процессор делает больше нескольких одновременных запросов в режиме допущения крайне редки. Поэтому, если микропроцессор имеет в обработке, допустим, восемь 128-битных кэшируемых запроса одновременно (очень оптимистичная цифра), а время задержки памяти 1024 процессорных цикла, то максимальная пропускная способность памяти всего лишь ничтожный байт за один цикл. В такого рода системах, ограничения пропускной способности памяти вызваны временем ее задержек, и увеличение пропускной способности за счет латентности (времени ожидания) памяти могут даже уменьшить производительность. Поэтому задача - это найти такую организацию процессора, которая позволяет эффективно использовать большую пропускную способность памяти, путем разрешения большего количества одновременно исполняемых запросов к памяти.
Энергоснабжение и плотность рассеиваемого тепла в процессорах CMOS уже увеличены до такой степени, что нам снова нужно искать изощренные охлаждающие системы, о которых мы уже начали забывать. Однако, для потребительской электроники размер устройства, максимально позволительная скорость и температура воздушного потока,выходящего из системы, определены ограничениями на количество допустимой потребляемой энергии, вне зависимости от изобретательности инженеров, разрабатывающих систему охлаждения. А на текущий момент это задача усложнена двумя обстоятельствами. Во-первых, малый размер транзисторов приводит к большому рассеиванию тепла из-за возникающих постоянных электрических полей. Во вторых, альтернативной технологии с низким уровнем энергопотребления пока не существует. Задача - найти способы улучшения эффективности энергоснабжения одновременно увеличивая производительность.
Третья проблема при увеличении производительности возникает из-за того, что мы уже достигли точки, когда дальнейшее увеличение производительности путем увеличения частоты процессора и увеличения пропускной способности конвейера процессора дадут нам только худшую отдачу. Проблема именно в том, что если расширять конвейер, время задержки исполнения инструкций увеличится из-за накладок связанных с увеличением количества конвейерных триггеров. Таким образом, производительность, полученная благодаря увеличению частоты, и, следовательно, возможность исполнять большее инструкций в единицу времени, должно превышать время, потерянное из-за потерь, связанных с увеличением времени исполнения инструкций. Такие потери также включают в себя ошибочные слоты, которые не могут быть использованы из-за зависимости от результата предыдущих операций, или потери от операций неправильного предсказания переходов. Если увеличение частоты не может быть полностью реализовано из-за ограничений по энергоснабжению, увеличение производительности конвейера, и как следствие, увеличение времени исполнения инструкций, скорее уменьшат, чем увеличат производительность. Это бессмысленно, так как процессоры, созданные для исполнения одной или двух инструкций за цикл могут эффективнее поддерживать большее увеличение частот, чем те,которые созданы для исполнения большего количества инструкций за цикл. Следовательно задача в том, чтобы разработать такую микроархитектуру и реализацию процессора, которая минимизировала бы пропускную способность конвейера, но смогла эффективно использовать доступные ошибочные слоты.
Реагирование на пользовательские и сетевые действия в режиме реального времени.
C самого начала, предполагалось, что Cell должен быть создан для обеспечения максимально возможно удобного взаимодействия с пользователем и наилучшей работой в сети. Этот “внешний” фокус отличается от “внутреннего” фокуса организации процессоров, происходящих из эры пакетной обработки данных, когда самый основной задачей была максимальная загрузка процессора. Как знают все разработчики игр, есть только один способ удовлетворить запросы игрока - это постоянно, в реальном времени, изменять модели виртуальных миров, с постоянной визуальной, звуковой и прочей отдачей. Поэтому, Cell процессор должен обеспечивать расширенную поддержку в режиме реального времени. В тоже время, мы ожидаем, что большинство устройств в которых будет задействован Cell будут присоединены к широкополосному каналу Интернет. На самых ранних стадиях мы видели, что это будет смесь реальных и виртуальных данных, получаемых из интернет и традиционной игры и развлечений. Это подразумевает под собой одновременную поддержку как систем в режиме реального времени, так и систем не работающих в реальном времени, для запуска приложений для доступа в Интернет. Быть ответственным за Интернет еще не значит быть оптимизированным под работу коммуникативного характера, но и быть готовым выполнять любые задачи пользователя в интернете. По причине того, что интернет поддерживает большое количество разных стандартов, как например - трансляция видео, процессор должен быть достаточно гибким и программируемым. Помимо этого он должен выполнять задачи безопасности, администрирования цифровых прав и защиты личной тайны.
Применимость в большом спектре платформ.
Проект Cell создавался для нужд разработки процессора для развлекательных систем следующего поколения. Однако, архитектура следующего поколения с достоинствами в области игр/медия, которая создавалась для оптимального взаимодействия с пользователем и широкополосным интернетом в режиме реального времени, смогла бы, при правильной архитектуре и конструкции, быть эффективной в широком спектре приложений цифрового дома и даже более того. Широкополосная сетевая архитектура процессора (The Broadband Processor Architecture) предполагает внедрение в жизнь сразу после выхода первого поколения процессоров Cell. С целью увеличения диапазона использования этой архитектуры и для благоприятствования развития сообщества разработчиков была разработана открытая система (Linux**) программной разработки совместно с выходом первого процессора.
Последний раз редактировалось Саня_; 10.03.2008 в 16:45.