Tegra 3: NVIDIA тонко «троллит» Apple, конкурентов и потребителей тоже

Роман Юрьев avatar | 44
FavoriteLoading В закладки
Tegra 3: NVIDIA тонко «троллит» Apple, конкурентов и потребителей тоже

История развивается по спирали и одной из важных ее «завитушек» в области IT-индустрии является компания NVIDIA. Это один из пионеров рынка графических ускорителей, наравне с компанией 3Dfx, которую она впоследствии купила, и ATI, которая сейчас принадлежит AMD. То, что мы на данный момент видим на рынке мобильных SoC (System-on-Chip, система-на-чипе) сильно напоминает компьютерную «гонку вооружений», особенно активно длившуюся с конца 90-х прошлого века. Если обрисовать ее упрощенно, то одни разработчики выпускали игры с непомерными требованиями к графической подсистеме, а другие предлагали те самые ускорители, смачно приправляя их рекламной шелухой о новых спецэффектах, невиданной доселе фотореалистичной графике и т. д.

По факту же оказывалось, что эти невероятные спецэффекты можно увидеть в паре модных игрушек, через полгодика после релиза ускорителя и то, на максимальном качестве графики они работали на текущем поколении видеокарт не очень шустро. Пишу об этом, основываясь на личном очень богатом опыте компьютерного «железячника» и игромана, через чьи руки прошли практически все поколения видеокарт, включая решения от упомянутой выше 3Dfx, до нее — слабые потуги S3 (может, кто помнит такой ускоритель как Virge и компанию Diamond Multimedia, славившуюся своими видеокартами Stealth и Monster), NVIDIA с ее Riva TNT, выросшей впоследствии в GeForce и прочие. Так вот, очень похожая «гонка вооружений» сейчас наблюдается и на мобильном рынке, где NVIDIA пытается применять однажды испытанные методы, но сработают ли они? Ведь были уже промашки. Что ж, теперь история повторяется вместе с SoC Tegra 3, которую разработчик сочно описал и прорекламировал, а также местами сравнил с конкурентами.


Diamond Stealth 3D 3000 — очень дорогая и очень крутая для своего времени (1995-96 годы) видеокарта с дополнительным модулем видеопамяти

Итак, что же предлагает NVIDIA в своей новой SoC? В первую очередь — много ядер, если точнее, то пять. Вообще, принято упоминать лишь о четырех основных вычислительных ядрах, но есть еще и пятое, так называемое ядро-компаньон, которое призвано снизить общее энергопотребление системы на чипе. Оно используется в большинстве задач, включая воспроизведение видео, и по своей энергоэффективности практически вдвое превосходит современные одноядерные процессоры с аналогичной частотой. Например, может воспроизводить видео в разрешении 1080p в течение 12 часов от стандартного для современных портативных устройств аккумулятора. Максимальная частота SoC, когда работают четыре основных ядра (они автоматически включаются в работу при повышении нагрузки на устройство) составляет 1,3 ГГц, для одного ядра этот показатель — 1,4 ГГц.


Модная SoC Tegra 3 и ее характеристики

Прежде чем перейти к рассмотрению графических возможностей новинки, которые оказались в сравнении с конкурентами не столь впечатляющими, как их пытается показать NVIDIA, упомяну о других менее заметных простому пользователю особенностях. Так, Tegra 3 способна качественно воспроизводить видео уровня Blu-ray, а это разрешение 1080p при потоке в 40 Мбит/с. В SoC почти втрое увеличена пропускная способность шины памяти, а скорость дисковой подсистемы в зависимости от используемого интерфейса и типа флэш-памяти возросла от 2 до 6 раз. Еще есть поддержка HD-аудио и 7.1-канального звука. Для смартфона это, конечно, не нужно, но неким будущим аналогам нетбуков на базе Tegra 3 не помешает. Не стоит забывать и о 3D. Трансляция стереоскопического изображения на внешний экран легко дается новой системе на чипе. Хотя, это набившее оскомину 3D, по сути, особо потребителям и не нужно. Красивая реклама, интересный для кинотеатра эффект, но в бытовых условиях он может превратиться в самый настоящий «вырвиглаз» (головная боль, головокружение, тошнота — говорят, что таким симптомам при просмотре 3D подвержено лишь 10% населения, но жалоб, на самом деле, больше).

Не забыла NVIDIA сравнить производительность Tegra 3 в некоторых задачах с конкурентами. В данном случае ключевое выражение «в некоторых задачах». В частности, речь идет о веб-серфинге и работе приложений. Apple A5 в первом случае опущен ниже плинтуса, особенно это касается технологии Flash, поддержки которой, как мы знаем, в iOS официально нет (и не будет). Что касается «числодробильной» мощи для приложений, то, естественно, у новой SoC она выше в сравнении с конкурентами, принимавшими участие в тестировании NVIDIA. Ведь в Tegra 3 четыре основных ядра Cortex-A9, а у конкурентов их по два. Вот и получается примерно двукратное их отставание от новичка-красавца.

А теперь самое интересное — что же такого компания накрутила в графической подсистеме новой SoC? На одном из презентационных слайдов выше есть такая скромная надпись: «До трех раз выше производительность GPU, 12-ядерный видеочип GeForce». Звучит внушительно. Более того, NVIDIA сварганила шикарную демонстрацию возможностей Tegra 3 в играх, которую можно оценить ниже:

Вот он, тот самый метод запудривания мозгов потребителей, не раз испытанный в области PC. Красивые эффекты, модные игры, вот только в данном случае он может и не сработать. Уж слишком велика конкуренция на рынке. Давайте разберем все по порядку. Компания заявляет о трехкратном увеличении производительности в сравнении с Tegra 2, но этот чип, как показывают тесты, далеко не самый мощный. Вспоминаем тестирование Galaxy SII кудесниками из AnandTech и видим, что SoC Apple A5 вчетверо превосходит Tegra 2 по скорости рендеринга, Samsung Exynos 4210 — вдвое. То есть графическая подсистема в iPad 2 и в iPhone 4S заведомо мощнее, чем в будущих продуктах на базе Tegra 3. А значит все эти вкусные «плюшки», что показали разработчики выше, должны быть доступны и для iГаджетов. Решение от Samsung тоже далеко не самое новое, но и оно не особо сильно уступает в производительности новичку. Не забываем, что в работе находятся и Apple A6, и новые корейские SoC Exynos, которые выйдут на рынок в реальных продуктах весной-летом следующего года. Как раз к тому времени, как Tegra 3 начнет становиться более-менее массовым решением.


Shadowgun и Sprinkle есть для iOS, ждем модных эффектов с их очередным обновлением

В итоге выходит, что NVIDIA яростно выпячивает игровые возможности своей платформы, скромно умалчивая, что и у конкурентов они неслабые. А у некоторых, например у Apple, «железо» и того мощнее. Графические библиотеки тоже используются единые, и все эти эффекты легко реализуются на любом современном мобильном ускорителе. На этом фоне от производителей особенно забавно слышать в видеоролике что-то вроде: «Повышенная производительность Tegra 3 позволила нам реализовать суперэффекты, увеличить скорость рендеринга до 60 кадров в секунду, в то время как на других платформах она ограничена 30 кадрами». Ребята, а как же Apple A5, ведь эта SoC еще мощнее, как же Samsung Exynos?

Все это очень похоже на «троллинг» простых потребителей со стороны NVIDIA. Компания активно пускает пыль в глаза, а лучше бы акцентировала внимание на более важных вещах, на тех же драйверах для Android. Ведь это позорище, что нормального ускорения видео до сих пор в ПО Tegra 2 не реализовано. Можно сослаться на Google и недоделанность Android, но ведь Samsung без проблем реализовала эту функцию для своих SoC. А вспомнить историю с «HD-играми» для Android, которые якобы были заточены только под Tegra 2, но тут, вот незадача, какие-то энтузиасты выпускают маленький патчик, и волшебным образом такие игры запускаются на любых Android-устройствах с более-менее мощным железом. Кроме того, все эти HD-игры прекрасно себя чувствуют и на iOS.

SoC Tegra 3 бесспорно хороша, но, все-таки, может стоит акцентировать внимание на других вещах? Однобокая реклама технологий — это путь в никуда, рано или поздно пользователи просто перестанут обращать внимание на потуги компании, а вместе с тем и производители тоже. Пусть это будет стабильно работающий сплав «железа и софта», чем однобокий набор технологий, которые и применить-то реально негде из-за кривизны программного обеспечения. То, что было применимо на PC-рынке, может и не сработать на мобильном, но ведь в ходе этого «троллинга» потребителей страдают их кошельки, что плохо. Очень малый процент людей досконально знает характеристики имеющихся в наличии устройств, зато подавляющее большинство активно смотрит рекламу и ведется на нее, а потом, после покупки «волшебного» устройства, наступает разочарование им. Потому что по факту вся эта красота оказывается лишь яркой цветной пылью, запущенной в глаза умелыми руками маркетологов.

Может в этом и есть один из секретов успеха iГаджетов? Они просто работают и делают это хорошо, именно так, как и обещает в презентациях и рекламе Apple.

1 Звезд2 Звезды3 Звезды4 Звезды5 Звезд (1 голосов, общий рейтинг: 5.00 из 5)
undefined
iPhones.ru
История развивается по спирали и одной из важных ее «завитушек» в области IT-индустрии является компания NVIDIA. Это один из пионеров рынка графических ускорителей, наравне с компанией 3Dfx, которую она впоследствии купила, и ATI, которая сейчас принадлежит AMD. То, что мы на данный момент видим на рынке мобильных SoC (System-on-Chip, система-на-чипе) сильно напоминает компьютерную «гонку вооружений»,...
Прокомментировать

🙈 Комментарии 44

  1. jpaul avatar
    jpaul9 ноября 2011
    0

    Роман, очень приятно Вас читать, как всегда!
    В этот раз согласен по всем пунктам. Nvidia в большинстве случаев оказывается пустышкой, сколько раз уже с этим сталкивался.

    Роман Юрьев avatar
    Роман Юрьев9 ноября 2011
    0

    @jpaul,
    Спасибо :).

    Да, NVIDIA частенько поступала не очень хорошо. Бывали успехи, но случались и неудачи, за которые расплачивались своими кошельками пользователи.

    snivik avatar
    snivik9 ноября 2011
    0

    @Роман Юрьев, У нвидии вообще проблемы с конкуренцией. Они как то выпустили GTX, и просто на весь интернет разлили новость о том, насколько шикарна их видюха. При том покзаатели флагмана ATI, который вышел сильно раньше, гораздо лучше Нвидиишного.

    FiLunder_7 avatar
    FiLunder_79 ноября 2011
    0

    @jpaul, Я им благодарен за CUDA и многое прощу зна неё?

    FiLunder_7 avatar
    FiLunder_79 ноября 2011
    0

    @FiLunder_7, ! – конечно же а не ? =)

    kas87 avatar
    kas8710 ноября 2011
    0

    @FiLunder_7, cuda заметно помогает! По этому все еще выбираю nvidia ))

  2. Tigrex avatar
    Tigrex9 ноября 2011
    0

    А мне кажется это вы пустили пыль в глаза. =)
    Все значит новвоведения которых нет в А5 параша (собственно потому что их нет в А5) а остальное вроде и не особо лучше. Нвидиа молодцы считаю.

    Tigrex avatar
    Tigrex9 ноября 2011
    0

    @Tigrex, я уверен что если бы было наоборот вы бы нахваливали А5 и принижали бы тегру. Мол в а5 столько новой фигни (3д и тп) а по мощности да примерно одинаково, да и не нужны смартфонам такие мощности (а внизу было бы куча таких коментов тип да-да апл форева)

    а то что 12ч в просмотре видео 1080р!!!! Почему вы не заострили внимание на этом. это кажется очень круто. многие планшетники используют как мобильные видеоплееры

    Роман Юрьев avatar
    Роман Юрьев9 ноября 2011
    0

    @Tigrex,
    12 часов — это очень неоднозначная цифра — какое устройство, какой используется аккумулятор и т. д. Компания пока назвала лишь цифру, но не показала реального образца.

    Что касается A5 — тесты говорят сами за себя, он мощнее Tegra 2 в четыре раза, а Tegra 3 мощнее предшественника в три раза — и где тут пыль (заметьте — NVIDIA не проводила прямых сравнений в графической производительности с конкурентами, только с Tegra 2)? Скажите мне, каких нововведений нет в A5 и у конкурентов? Ведь речь идет о графических технологиях? Все они работают с OpenCL и OpenGL ES 2.х, соответственно и технологии испоьзуются одинаковые.

    Главное отличие в 4 ядрах и ядре-компаньоне, но тут тоже все неднозначно. Посмотрим как оптимизируют ПО под эти 4 ядра и подождем ответа конкурентов, которые используют ровно тот же метод построения SoC.

    iOS очень хорошо оптимизирована под Apple A5, чего не скажешь про Tegra 2 и Android, и, проводя аналогии, у Tegra 3 могут оказаться те же проблемы. Да о чем тут говорить — беру iPhone 4S и он ЛЕТАЕТ в сравнении с четверкой в веб-серфинге, запуске приложений, все красиво, хотя и старичок с никаким по современным меркам процессором еще работает огого как хорошо. И тут же беру Galaxy SII, Exunos в котором будет пооптимизированей Тегры 2 и помощнее, но и он местами неприятно тормозит в интерфецсе или том же веб-серфинге.

    snivik avatar
    snivik9 ноября 2011
    0

    @Роман Юрьев, это гениально =) Вообще не поспоришь.

    Break Action avatar
    Break Action10 ноября 2011
    0

    @Роман Юрьев, прежде хочу вам привести ваш комментарий
    =====================================================
    iOS очень хорошо оптимизирована под Apple A5, чего не скажешь про Tegra 2 и Android, и, проводя аналогии, у Tegra 3 могут оказаться те же проблемы. Да о чем тут говорить — беру iPhone 4S и он ЛЕТАЕТ в сравнении с четверкой в веб-серфинге, запуске приложений, все красиво, хотя и старичок с никаким по современным меркам процессором еще работает огого как хорошо. И тут же беру Galaxy SII, Exunos в котором будет пооптимизированей Тегры 2 и помощнее, но и он местами неприятно тормозит в интерфецсе или том же веб-серфинге.
    ======================================================

    В данном месте, вы пытаетесь сравнить iPhone 4S (iOS 5) и Samsung Galaxy SII (Android 2.3.X) и считаете, при этом, что они находятся в равных весовых категориях!?
    И тут кроется ваше заблуждение!
    Дело в том, что одна из особеностей iOS – это ускорение работы отрисовки интерфейса, при помощи GPU (графического процессора), а в Android (начиная от 1.0 до 3.2) ВОВСЕ не было, подобного ускорения, то есть, за работу устройства и за отрисовку интерфейса отвечал CPU (центральный просессор).
    Но вот с выходом Android 4.X (Ice Cream Sandwich), все должно измениться. Правильно будет сравнить iPhone 4S (iOS 5.X) и Google Galaxy Nexus (Android 4.X) и тогда говорить о какой-то плавности и скорости серфинга.
    Пока вы ставите заведомо старую платформу (Android 2.3.X), в сравнении с новой (iOS 5.X) и говорите о гипотетических вещах (то бишь сотрясаете воздух /* тут не хотел вас оскорбить */).

    Роман Юрьев avatar
    Роман Юрьев10 ноября 2011
    0

    @Break Action,
    Никаких проблем, с чего мне оскоблятся :). Я понял вашу точку зрения, но позвольте напомнить, что в iOS ускорение интерфейса есть с самой первой версии. Давайте сравним iPhone 3GS на iOS 3.1.x и Galaxy SII на заведомо более новой версии Android – тот же результат будет не в пользу “галактики”. И, в принципе, как потребителя – это не моя проблема, что в Андроиде не используется GPU для отрисовки интерфейса, ИМХО.

    В любом случае буду только рад, если в 4-м Андроиде действительно исчезнут проблемы с тормозами интерфейса, а Tegra 3 окажется крутой SoC с качественным и оптимизированным ПО, а не очередным маркетинговым пузырем.

  3. alipairon avatar
    alipairon9 ноября 2011
    0

    Вот как появится так сказать in wild, когда протестируют и сравнят – тогда и посмотрим. Как можно делать обзор продукта, который еще и не на рынке толком?

  4. pavel evgenievich avatar
    pavel evgenievich9 ноября 2011
    0

    А кто в курсе, аббревиатура SoC праильно звучит как СоК или СоЧ?

    infinity avatar
    infinity9 ноября 2011
    0

    @pavel evgenievich, А не один хрен? Правильнее – System-on-Chip

    3xploit avatar
    3xploit9 ноября 2011
    0

    @pavel evgenievich, ЭС-О-СИ

    Dargalon avatar
    Dargalon10 ноября 2011
    0

    @pavel evgenievich, СНЧ.

  5. elfindeil avatar
    elfindeil9 ноября 2011
    0

    Быть может nvidia сравнивала свои продукты по другим показателям и потому говорит о возросшей в 4 раза мощи по сравнению с тегра 2 ?
    Предпочитаю дождаться непосредственного сравнения тегры 3 и а5, а потом уже делать какие-либо выводы.

    Ну, а касательно пыли в глаза – быть может нвидии запускать свои продукты под лозунгами “Наш чип такой же как и в других продуктах, но чуточку быстрее” вместо “Обладает суперэффектами!”. С такми же успехом можно запретить эпл называть айфон волшебным.

    И да, отдельно про технологии – я так понимаю, что 3д не нужен до первого продукта от эпл с 3д? ;)

    Роман Юрьев avatar
    Роман Юрьев9 ноября 2011
    0

    @elfindeil,
    Она в свое время еще первую Tegra непонятно с чем сравнивала, и с Tegra 2 тоже клялась, что это просто мощнейшее на рынке решение, а по факту до сих пор не доделала нормальную поддержку кодеков для Android. Я не уверен, что с Tegra 3 что-то изменится. Но, согласен, дождемся реальных тестов. Благо Transformer Prime с сегодняшнего дня начал поступать в продажу.

    Пыль в глаза — это когда разработчики под дудку NVIDIA говорят, что только благодаря этому чипу мы реализовали такие крутые эффекты. А потом оказывается, что любой другой современный чип так тоже может. Прецеденты были, в статье я их упоминал.

    Если Apple реализует это 3D лучше других, так почему бы и нет?

    Wannamac avatar
    Wannamac9 ноября 2011
    0

    @elfindeil, 3d не нужен в том виде, который есть сейчас. Все эти очки, а если без очков, то ломающаяся по краям картинка как в панелях zenit или нинтендо 3ds.
    Если (вернее когда) apple решит этот достаточно сложный вопрос, то ессно всем остальным захочется реализовать такое простое для консумера решение. И опять начнутся мегамощные патентные войны и прочая прочая.
    Наверняка уже что-то подобное в закромах имеется или работы ведутся полным ходом

  6. maximka1093 avatar
    maximka10939 ноября 2011
    0

    даже если бы эппл сделала 3д то мне оно не нужно было бы)чес слово
    до сих пор не вижу смысла в телеке с 3д глаза ломать только..

    Pavel Volobuev avatar
    Pavel Volobuev9 ноября 2011
    0

    @maximka1093, +1 В кино на 3Д уже давно не хожу, понял что это туфта полная, кроме единичных случаев.

    maximka1093 avatar
    maximka10939 ноября 2011
    0

    @Pavel Volobuev, вот вот)
    интересно среди читателей у которых есть 3д телек, насколько часто они используют данную функцию?

    SeeD avatar
    SeeD9 ноября 2011
    0

    @maximka1093, на столько, на сколько часто появляются 3D фильмы на обменниках. Почему так скептично многие настроены. Очень прикольно смотреть в 3D. На днях смотрел фильм про насекомых, очень впечатлило. Но это только про ТВ, на мобильниках 3D мне не понятно.

    maximka1093 avatar
    maximka10939 ноября 2011
    0

    @SeeD, а глаза не устают?
    я пробовал смотреть меня как то не очень впечатлило и глаза очень устают

    Всеволод 'FrogZard' Торопов avatar
    0

    @maximka1093, Мне нравится 3D. По мере возможности предпочитаю смотреть фильмы и играть в игры именно в 3D. Никакого дискомфорта при этом не испытываю. Только новые впечатления и фан.
    Это относится к домашнему 3D ТВ + PS3.

    Про 3D в мобильных устройствах промолчу. Там уже никаких интересных впечатлений, а только полная ерунда.

    snivik avatar
    snivik9 ноября 2011
    0

    @maximka1093, в Орландо в Universal есть кинотетра, где покзаывают кино в 3D… это лучшее 3D, что я когда-либо видел. Просто у нас никто норально то делать не хочет. Поэтому мы получаем то, что собсно получем сейчас.

    maximka1093 avatar
    maximka10939 ноября 2011
    0

    @snivik, учту)
    была бы только возможность посетить этот кинотеатр..

  7. krfighter avatar
    krfighter9 ноября 2011
    0

    Очень едкая статья и довольно ангажирована.
    Любая компания на презентации будет говорить, что их продукт лучше всех. Эппл это делает точно так же на каждой презентации.
    Хоть я и испытываю теплые чувства к эппл, но это не значит, что я должен ненавидеть NVIDIA. Они делают очень много хороших продуктов включая как игровые так и научные решения. И маркетинг у них такой же “розовый” как и у всех остальных компаний на рынке.
    Однако на сегодняшний день это первый качественный 4-ядерный чип с более-менее продуманным энергопотреблением. Если помнить о том, что это первый чип для Windows 8, то это действительно самый лучший продукт, потому что у Intel’ов жуткое энергопотребление.

    Роман Юрьев avatar
    Роман Юрьев9 ноября 2011
    0

    @krfighter,
    Очень едкая, потому что надоело видеть одно то же – это раз. И два, напомню про историю с “HD-играми” под Android, которые по факту работают на чем угодно, а NVIDIA пыталась программно запилить их только под себя, договорившись с разработчиками. Извините, но это свинство.

    То, что Tegra 3 – это первый коммерчески доступный 4-ядерный чип – не спорю, то, что он качественный – не уверен. Надеюсь что хоть с теми же видеокодеками компания разобралась. Посмотрим по первым тестам Transformer Prime.

    А хорошие продукты, да, есть. У меня в большом ПК стоит GeForce GTX 575, хорошая видеокарта, взял ради Physx, но ATI аналогичной мощности, а то и покруче, вышла бы дешевле.

    Александр avatar
    Александр9 ноября 2011
    0

    @Роман Юрьев,
    Роман, а покажите сайт где HD-игры под обычные Android смартфонов? Что то не помню что HD игры могли пойти под обычными смартфонами. Ведь часто сам ищу игры для HTC HD2

    Роман Юрьев avatar
    Роман Юрьев9 ноября 2011
    0

    @Александр,
    С HTC HD2 все сложно, ведь изанчально он на Windows Mobile заточен, проша c Android не официальная и с дровами могут быть проблемы. Что касается сайта, то есть извстный ресурс, но об этом уже в личку.

  8. BlackSunEmpire avatar
    BlackSunEmpire9 ноября 2011
    0

    Ну НВидиа сейчас лучше АТИ, у НВиди есть CUDA.

    Entze avatar
    Entze9 ноября 2011
    0

    @BlackSunEmpire, У ATI есть Stream, а у обоих должен быть OpenCL. Кто-то считает, что ATI производительнее в GPU операциях, но это всеравно подобно спору кто лучше – блондинки или брюнетки. А правильный ответ – лучше те, кто любит тебя.
    Вот apple любит нас, а nVidia с Tegra только болтает сиськами на фото, а наделе все это запрятано в тулуп цвета хакки. Что они есть – видим, что они большие – помним. И все!

  9. Max K. avatar
    Max K.9 ноября 2011
    0

    2 Роман Юрьев, on “…может, кто помнит…”

    Помним, скорбим… ;)

  10. Q3Alex avatar
    Q3Alex9 ноября 2011
    0

    Стив говоря об Apple говорил, что они софтверная компания. BootCamp демонстрирует, как могут работать Apple vs Windows система и программы, на одном железе. Все выходки Sams, Nvidia и прочих, как американские боевики, писаны по одному сценарию.

  11. Alone avatar
    Alone10 ноября 2011
    0

    Не знаю на счет не вышедшей Tegra 3, но в десктопной графике nVidia не троль. Даже во времена противостояния с 3Dfx, видеокарта Riva TNT выигрывала поддержкой 32 битного цвета. GeForce 256 первый графический ускоритель с расчетом геометрии. ATI страдает частенько кривыми драйверами, но ее решения иногда выигрывали производительностью GPU, а более низким энергопотреблением почти всегда. Но у nVidia есть и заслуги, и большой опыт, и она действительно может выстрелить. Касаемо рекламы и игр HD, то все имеют экслюзивы и та жа Apple зажала Siri для более старых девайсов, зная, что все купившие iPhone 4 ждут новое устройство, а не одну камеру на 8мп и A5 в старом корпусе. Причем 90% из них и не знают чем A5 отличается от A4.

    Роман Юрьев avatar
    Роман Юрьев10 ноября 2011
    0

    @Alone,
    Отчасти согласен, NVIDIA молодец, но она далеко не такая пушистая как кажется, и в PC-секторе тоже. Вот вам несколько примеров из личного опыта. Во времена противостояния с 3Dfx компания NVIDIA поначалу проигрывала той же Voodoo 3 (у меня, помнится, была модель 3000). Riva TNT в большинстве игр по производительности была слабее и тогда в основном использовался 16-битный рендеринг, который в TNT-хе был ужасен, а на Voodoo 3 (а до него была личная связка Voodoo2 + Riva TNT), он по качеству вплотную приближался к 32-битному и, естественно, все игры смотрелись лучще и работали быстрее. Исключение – Quake 3, он единственный тогда эффективно использовал 32-битный рендеринг, но при этом игра на TNT при одинаковом количестве оперативы работала хуже, чем на Voodoo. В свое время я не перешел на TNT 2, так как она банально проигрывала Voodoo 3 по качеству и скорости работы, опять же, игр с 32-битным рендерингом было крайне мало, а первые дрова NVIDIA стабильностью не отличались. А ведь люди велись на рекламу, на 32-битный рендеринг и в итоге получали облом.

    Первый GeForce хоть и был с функцией расчета геометрии, но по производительности это тоже для своего времени оказалось решение не фонтан из-за медленной видеопамяти и узкой пропускной шины. Люди платили деньги и получали не особо скоростное за эту сумму решение, разочаровывались. Потом вышла вариация GeForce 1 с увеличенной пропускной способностью и быстрой видеопамятью – уже лучше, но опять же, а что делать тем, кто полгода назад заплатил некислые деньги за первого “тормоза”? Плюс вся эта аппаратная геометрия особо нигде и не пригодилась во время жизненного цикла GeForce 1. Но компания цикл прокрутила, деньги срубила, а то, что за эти деньги она втюхала только обещания крутой графики и большого количества полигонов в игровых сценах, это уже не волнует компанию.

    Вот GeForce 2 GTS был знаковым для своего времени продуктом, настоящий прорыв, который отработал каждый вложенный в него доллар, у меня почти три года эта видеокарта простояла (на нее переехал с Voodoo 3), как раз и игр было уже много с поддержкой 32-битного цвета и геометрические вычисления силами GPU стали реально использоваться. Она была заменена уже на GeForce 4 Ti 4400, который к сожалению, оказался промежуточным продуктом, доработанной версией не менее прорывного GeForce 3 с поддержкой пиксельных шейдеров. Но на момент своего релиза этот GeForce 4 уже тормозил на максимуме графики в том же The Elder Scrolls 3 и многих других играх. Буквально через пару-тройку месяцев выходит революционный ATI Radeon 9700 и рвет этот ГыФорс на лоскуты. Серия GeForce 5xxx вообще оказалась ужасной, гудящей, ревущей (аццкая турбина в качестве охладилова)и неудачной и только с релизом GeForce 6800 компания реабилитировалась – опять же, работа через поколение, а до этого только обещания счастья.

    Из современной истории серия GTX 4хх оказалась переходной и не особо удачной, до нее была отличной, после тоже неплохая, сам пользуюсь сейчас GTX 575 и доволен.

    В общем, все идет циклами у NVIDIA, бывают удачные, бывают не очень, но за все платит потребитель и каждый раз компания обещает очень много, но на поверку эти обещания часто оказываются пустышкой.

  12. Abditus avatar
    Abditus10 ноября 2011
    0

    S3 Virge, 2Mb, вот это помню казалось такой крутизной в далёкие 90-е. Эх, ностальния…

    Роман Юрьев avatar
    Роман Юрьев10 ноября 2011
    0

    @Abditus,
    Более того, несмотря на высокую стоимость этой карточки (около $200, если мне не изменяет память), частенько попадались экземпляры с брачком — на экране проскакивали графические артефакты, какие-то приколы с видеопамятью. То было суровое время :), вспомнить хотя бы отсутствие ключей на кабеле питания в БП, что подключался к материнке — неправильно подключил и спалил весь комп :).

  13. Wex avatar
    Wex13 ноября 2011
    0

    S3 всегда была аутсайдером ( в 90ые), я помню, что круче 3dfx и их Vodoo сдвоенных в режиме SLI не было ничего: это 1й квейк, 2й квейк, Unreal, HL…. сам тогда сдвоенный вуду позволить себе н е мог… но Рива проигрывала 3дфх по всем параметрам в реальных играх.

    Роман Юрьев avatar
    Роман Юрьев14 ноября 2011
    0

    @Wex,
    А Turok вспомните — он только под 3DFX был — шикарный аркадный FPS, прошел с огромным удовольствием в свое время.

  14. Wex avatar
    Wex13 ноября 2011
    0

    технологиия 3дфх называлась Glide, нсколько я помню – очень круто это все тогда было, и опенГЛ был не лучше, 100%

    Роман Юрьев avatar
    Роман Юрьев14 ноября 2011
    0

    @Wex,
    Не технология, а API. Да, именно Glide. Первый Unreal только его поначалу использовал, а потом уже позже прикрутили OpenGL, но поначалу очень криво все было. Тем не менее, OpenGL развивался и со временем перегнал Glide. Проблема последнего была в его закрытости и это большая ошибка 3Ffx оказалась. Открыла бы свой API, возможно и выиграла бы битву с конкурентами.

    Эх, классное время было, шикарные карточки, никогда проблем с 3Dfx не было, все работало очень стабильно.

Вы должны авторизоваться или зарегистрироваться для комментирования.

Нашли орфографическую ошибку в новости?

Выделите ее мышью и нажмите Ctrl+Enter.

Как установить аватар в комментариях?

Ответ вот здесь