Войти

Или войди с помощью

Tegra 3: NVIDIA тонко «троллит» Apple, конкурентов и потребителей тоже

Роман Юрьев avatar |
Tegra 3: NVIDIA тонко «троллит» Apple, конкурентов и потребителей тоже

История развивается по спирали и одной из важных ее «завитушек» в области IT-индустрии является компания NVIDIA. Это один из пионеров рынка графических ускорителей, наравне с компанией 3Dfx, которую она впоследствии купила, и ATI, которая сейчас принадлежит AMD. То, что мы на данный момент видим на рынке мобильных SoC (System-on-Chip, система-на-чипе) сильно напоминает компьютерную «гонку вооружений», особенно активно длившуюся с конца 90-х прошлого века. Если обрисовать ее упрощенно, то одни разработчики выпускали игры с непомерными требованиями к графической подсистеме, а другие предлагали те самые ускорители, смачно приправляя их рекламной шелухой о новых спецэффектах, невиданной доселе фотореалистичной графике и т. д.

По факту же оказывалось, что эти невероятные спецэффекты можно увидеть в паре модных игрушек, через полгодика после релиза ускорителя и то, на максимальном качестве графики они работали на текущем поколении видеокарт не очень шустро. Пишу об этом, основываясь на личном очень богатом опыте компьютерного «железячника» и игромана, через чьи руки прошли практически все поколения видеокарт, включая решения от упомянутой выше 3Dfx, до нее — слабые потуги S3 (может, кто помнит такой ускоритель как Virge и компанию Diamond Multimedia, славившуюся своими видеокартами Stealth и Monster), NVIDIA с ее Riva TNT, выросшей впоследствии в GeForce и прочие. Так вот, очень похожая «гонка вооружений» сейчас наблюдается и на мобильном рынке, где NVIDIA пытается применять однажды испытанные методы, но сработают ли они? Ведь были уже промашки. Что ж, теперь история повторяется вместе с SoC Tegra 3, которую разработчик сочно описал и прорекламировал, а также местами сравнил с конкурентами.


Diamond Stealth 3D 3000 — очень дорогая и очень крутая для своего времени (1995-96 годы) видеокарта с дополнительным модулем видеопамяти

Итак, что же предлагает NVIDIA в своей новой SoC? В первую очередь — много ядер, если точнее, то пять. Вообще, принято упоминать лишь о четырех основных вычислительных ядрах, но есть еще и пятое, так называемое ядро-компаньон, которое призвано снизить общее энергопотребление системы на чипе. Оно используется в большинстве задач, включая воспроизведение видео, и по своей энергоэффективности практически вдвое превосходит современные одноядерные процессоры с аналогичной частотой. Например, может воспроизводить видео в разрешении 1080p в течение 12 часов от стандартного для современных портативных устройств аккумулятора. Максимальная частота SoC, когда работают четыре основных ядра (они автоматически включаются в работу при повышении нагрузки на устройство) составляет 1,3 ГГц, для одного ядра этот показатель — 1,4 ГГц.


Модная SoC Tegra 3 и ее характеристики

Прежде чем перейти к рассмотрению графических возможностей новинки, которые оказались в сравнении с конкурентами не столь впечатляющими, как их пытается показать NVIDIA, упомяну о других менее заметных простому пользователю особенностях. Так, Tegra 3 способна качественно воспроизводить видео уровня Blu-ray, а это разрешение 1080p при потоке в 40 Мбит/с. В SoC почти втрое увеличена пропускная способность шины памяти, а скорость дисковой подсистемы в зависимости от используемого интерфейса и типа флэш-памяти возросла от 2 до 6 раз. Еще есть поддержка HD-аудио и 7.1-канального звука. Для смартфона это, конечно, не нужно, но неким будущим аналогам нетбуков на базе Tegra 3 не помешает. Не стоит забывать и о 3D. Трансляция стереоскопического изображения на внешний экран легко дается новой системе на чипе. Хотя, это набившее оскомину 3D, по сути, особо потребителям и не нужно. Красивая реклама, интересный для кинотеатра эффект, но в бытовых условиях он может превратиться в самый настоящий «вырвиглаз» (головная боль, головокружение, тошнота — говорят, что таким симптомам при просмотре 3D подвержено лишь 10% населения, но жалоб, на самом деле, больше).

Не забыла NVIDIA сравнить производительность Tegra 3 в некоторых задачах с конкурентами. В данном случае ключевое выражение «в некоторых задачах». В частности, речь идет о веб-серфинге и работе приложений. Apple A5 в первом случае опущен ниже плинтуса, особенно это касается технологии Flash, поддержки которой, как мы знаем, в iOS официально нет (и не будет). Что касается «числодробильной» мощи для приложений, то, естественно, у новой SoC она выше в сравнении с конкурентами, принимавшими участие в тестировании NVIDIA. Ведь в Tegra 3 четыре основных ядра Cortex-A9, а у конкурентов их по два. Вот и получается примерно двукратное их отставание от новичка-красавца.

А теперь самое интересное — что же такого компания накрутила в графической подсистеме новой SoC? На одном из презентационных слайдов выше есть такая скромная надпись: «До трех раз выше производительность GPU, 12-ядерный видеочип GeForce». Звучит внушительно. Более того, NVIDIA сварганила шикарную демонстрацию возможностей Tegra 3 в играх, которую можно оценить ниже:

Вот он, тот самый метод запудривания мозгов потребителей, не раз испытанный в области PC. Красивые эффекты, модные игры, вот только в данном случае он может и не сработать. Уж слишком велика конкуренция на рынке. Давайте разберем все по порядку. Компания заявляет о трехкратном увеличении производительности в сравнении с Tegra 2, но этот чип, как показывают тесты, далеко не самый мощный. Вспоминаем тестирование Galaxy SII кудесниками из AnandTech и видим, что SoC Apple A5 вчетверо превосходит Tegra 2 по скорости рендеринга, Samsung Exynos 4210 — вдвое. То есть графическая подсистема в iPad 2 и в iPhone 4S заведомо мощнее, чем в будущих продуктах на базе Tegra 3. А значит все эти вкусные «плюшки», что показали разработчики выше, должны быть доступны и для iГаджетов. Решение от Samsung тоже далеко не самое новое, но и оно не особо сильно уступает в производительности новичку. Не забываем, что в работе находятся и Apple A6, и новые корейские SoC Exynos, которые выйдут на рынок в реальных продуктах весной-летом следующего года. Как раз к тому времени, как Tegra 3 начнет становиться более-менее массовым решением.


Shadowgun и Sprinkle есть для iOS, ждем модных эффектов с их очередным обновлением

В итоге выходит, что NVIDIA яростно выпячивает игровые возможности своей платформы, скромно умалчивая, что и у конкурентов они неслабые. А у некоторых, например у Apple, «железо» и того мощнее. Графические библиотеки тоже используются единые, и все эти эффекты легко реализуются на любом современном мобильном ускорителе. На этом фоне от производителей особенно забавно слышать в видеоролике что-то вроде: «Повышенная производительность Tegra 3 позволила нам реализовать суперэффекты, увеличить скорость рендеринга до 60 кадров в секунду, в то время как на других платформах она ограничена 30 кадрами». Ребята, а как же Apple A5, ведь эта SoC еще мощнее, как же Samsung Exynos?

Все это очень похоже на «троллинг» простых потребителей со стороны NVIDIA. Компания активно пускает пыль в глаза, а лучше бы акцентировала внимание на более важных вещах, на тех же драйверах для Android. Ведь это позорище, что нормального ускорения видео до сих пор в ПО Tegra 2 не реализовано. Можно сослаться на Google и недоделанность Android, но ведь Samsung без проблем реализовала эту функцию для своих SoC. А вспомнить историю с «HD-играми» для Android, которые якобы были заточены только под Tegra 2, но тут, вот незадача, какие-то энтузиасты выпускают маленький патчик, и волшебным образом такие игры запускаются на любых Android-устройствах с более-менее мощным железом. Кроме того, все эти HD-игры прекрасно себя чувствуют и на iOS.

SoC Tegra 3 бесспорно хороша, но, все-таки, может стоит акцентировать внимание на других вещах? Однобокая реклама технологий — это путь в никуда, рано или поздно пользователи просто перестанут обращать внимание на потуги компании, а вместе с тем и производители тоже. Пусть это будет стабильно работающий сплав «железа и софта», чем однобокий набор технологий, которые и применить-то реально негде из-за кривизны программного обеспечения. То, что было применимо на PC-рынке, может и не сработать на мобильном, но ведь в ходе этого «троллинга» потребителей страдают их кошельки, что плохо. Очень малый процент людей досконально знает характеристики имеющихся в наличии устройств, зато подавляющее большинство активно смотрит рекламу и ведется на нее, а потом, после покупки «волшебного» устройства, наступает разочарование им. Потому что по факту вся эта красота оказывается лишь яркой цветной пылью, запущенной в глаза умелыми руками маркетологов.

Может в этом и есть один из секретов успеха iГаджетов? Они просто работают и делают это хорошо, именно так, как и обещает в презентациях и рекламе Apple.

44
undefined
iPhones.ru
История развивается по спирали и одной из важных ее «завитушек» в области IT-индустрии является компания NVIDIA. Это один из пионеров рынка графических ускорителей, наравне с компанией 3Dfx, которую она впоследствии купила, и ATI, которая сейчас принадлежит AMD. То, что мы на данный момент видим на рынке мобильных SoC (System-on-Chip, система-на-чипе) сильно напоминает компьютерную «гонку вооружений»,...

Войди и оставь комментарий

Или войди с помощью

<- Назад Забыли пароль? Войти
  1. jpaul avatar
    jpaul 9 ноября 2011
    0

    Роман, очень приятно Вас читать, как всегда!
    В этот раз согласен по всем пунктам. Nvidia в большинстве случаев оказывается пустышкой, сколько раз уже с этим сталкивался.

    Роман Юрьев avatar
    Роман Юрьев9 ноября 2011
    0

    @jpaul,
    Спасибо :).

    Да, NVIDIA частенько поступала не очень хорошо. Бывали успехи, но случались и неудачи, за которые расплачивались своими кошельками пользователи.

    snivik avatar
    snivik9 ноября 2011
    0

    @Роман Юрьев, У нвидии вообще проблемы с конкуренцией. Они как то выпустили GTX, и просто на весь интернет разлили новость о том, насколько шикарна их видюха. При том покзаатели флагмана ATI, который вышел сильно раньше, гораздо лучше Нвидиишного.

    FiLunder_7 avatar
    FiLunder_79 ноября 2011
    0

    @jpaul, Я им благодарен за CUDA и многое прощу зна неё?

    FiLunder_7 avatar
    FiLunder_79 ноября 2011
    0

    @FiLunder_7, ! – конечно же а не ? =)

    kas87 avatar
    kas8710 ноября 2011
    0

    @FiLunder_7, cuda заметно помогает! По этому все еще выбираю nvidia ))

    Войди на сайт, чтобы ответить
    Ответить
  2. Tigrex avatar
    Tigrex 9 ноября 2011
    0

    А мне кажется это вы пустили пыль в глаза. =)
    Все значит новвоведения которых нет в А5 параша (собственно потому что их нет в А5) а остальное вроде и не особо лучше. Нвидиа молодцы считаю.

    Tigrex avatar
    Tigrex9 ноября 2011
    0

    @Tigrex, я уверен что если бы было наоборот вы бы нахваливали А5 и принижали бы тегру. Мол в а5 столько новой фигни (3д и тп) а по мощности да примерно одинаково, да и не нужны смартфонам такие мощности (а внизу было бы куча таких коментов тип да-да апл форева)

    а то что 12ч в просмотре видео 1080р!!!! Почему вы не заострили внимание на этом. это кажется очень круто. многие планшетники используют как мобильные видеоплееры

    Роман Юрьев avatar
    Роман Юрьев9 ноября 2011
    0

    @Tigrex,
    12 часов — это очень неоднозначная цифра — какое устройство, какой используется аккумулятор и т. д. Компания пока назвала лишь цифру, но не показала реального образца.

    Что касается A5 — тесты говорят сами за себя, он мощнее Tegra 2 в четыре раза, а Tegra 3 мощнее предшественника в три раза — и где тут пыль (заметьте — NVIDIA не проводила прямых сравнений в графической производительности с конкурентами, только с Tegra 2)? Скажите мне, каких нововведений нет в A5 и у конкурентов? Ведь речь идет о графических технологиях? Все они работают с OpenCL и OpenGL ES 2.х, соответственно и технологии испоьзуются одинаковые.

    Главное отличие в 4 ядрах и ядре-компаньоне, но тут тоже все неднозначно. Посмотрим как оптимизируют ПО под эти 4 ядра и подождем ответа конкурентов, которые используют ровно тот же метод построения SoC.

    iOS очень хорошо оптимизирована под Apple A5, чего не скажешь про Tegra 2 и Android, и, проводя аналогии, у Tegra 3 могут оказаться те же проблемы. Да о чем тут говорить — беру iPhone 4S и он ЛЕТАЕТ в сравнении с четверкой в веб-серфинге, запуске приложений, все красиво, хотя и старичок с никаким по современным меркам процессором еще работает огого как хорошо. И тут же беру Galaxy SII, Exunos в котором будет пооптимизированей Тегры 2 и помощнее, но и он местами неприятно тормозит в интерфецсе или том же веб-серфинге.

    snivik avatar
    snivik9 ноября 2011
    0

    @Роман Юрьев, это гениально =) Вообще не поспоришь.

    Break Action avatar
    Break Action10 ноября 2011
    0

    @Роман Юрьев, прежде хочу вам привести ваш комментарий
    =====================================================
    iOS очень хорошо оптимизирована под Apple A5, чего не скажешь про Tegra 2 и Android, и, проводя аналогии, у Tegra 3 могут оказаться те же проблемы. Да о чем тут говорить — беру iPhone 4S и он ЛЕТАЕТ в сравнении с четверкой в веб-серфинге, запуске приложений, все красиво, хотя и старичок с никаким по современным меркам процессором еще работает огого как хорошо. И тут же беру Galaxy SII, Exunos в котором будет пооптимизированей Тегры 2 и помощнее, но и он местами неприятно тормозит в интерфецсе или том же веб-серфинге.
    ======================================================

    В данном месте, вы пытаетесь сравнить iPhone 4S (iOS 5) и Samsung Galaxy SII (Android 2.3.X) и считаете, при этом, что они находятся в равных весовых категориях!?
    И тут кроется ваше заблуждение!
    Дело в том, что одна из особеностей iOS – это ускорение работы отрисовки интерфейса, при помощи GPU (графического процессора), а в Android (начиная от 1.0 до 3.2) ВОВСЕ не было, подобного ускорения, то есть, за работу устройства и за отрисовку интерфейса отвечал CPU (центральный просессор).
    Но вот с выходом Android 4.X (Ice Cream Sandwich), все должно измениться. Правильно будет сравнить iPhone 4S (iOS 5.X) и Google Galaxy Nexus (Android 4.X) и тогда говорить о какой-то плавности и скорости серфинга.
    Пока вы ставите заведомо старую платформу (Android 2.3.X), в сравнении с новой (iOS 5.X) и говорите о гипотетических вещах (то бишь сотрясаете воздух /* тут не хотел вас оскорбить */).

    Роман Юрьев avatar
    Роман Юрьев10 ноября 2011
    0

    @Break Action,
    Никаких проблем, с чего мне оскоблятся :). Я понял вашу точку зрения, но позвольте напомнить, что в iOS ускорение интерфейса есть с самой первой версии. Давайте сравним iPhone 3GS на iOS 3.1.x и Galaxy SII на заведомо более новой версии Android – тот же результат будет не в пользу “галактики”. И, в принципе, как потребителя – это не моя проблема, что в Андроиде не используется GPU для отрисовки интерфейса, ИМХО.

    В любом случае буду только рад, если в 4-м Андроиде действительно исчезнут проблемы с тормозами интерфейса, а Tegra 3 окажется крутой SoC с качественным и оптимизированным ПО, а не очередным маркетинговым пузырем.

    Войди на сайт, чтобы ответить
    Ответить
  3. alipairon avatar
    alipairon 9 ноября 2011
    0

    Вот как появится так сказать in wild, когда протестируют и сравнят – тогда и посмотрим. Как можно делать обзор продукта, который еще и не на рынке толком?

    Войди на сайт, чтобы ответить
    Ответить
  4. pavel evgenievich avatar
    pavel evgenievich 9 ноября 2011
    0

    А кто в курсе, аббревиатура SoC праильно звучит как СоК или СоЧ?

    infinity avatar
    infinity9 ноября 2011
    0

    @pavel evgenievich, А не один хрен? Правильнее – System-on-Chip

    3xploit avatar
    3xploit9 ноября 2011
    0

    @pavel evgenievich, ЭС-О-СИ

    Dargalon avatar
    Dargalon10 ноября 2011
    0

    @pavel evgenievich, СНЧ.

    Войди на сайт, чтобы ответить
    Ответить
  5. elfindeil avatar
    elfindeil 9 ноября 2011
    0

    Быть может nvidia сравнивала свои продукты по другим показателям и потому говорит о возросшей в 4 раза мощи по сравнению с тегра 2 ?
    Предпочитаю дождаться непосредственного сравнения тегры 3 и а5, а потом уже делать какие-либо выводы.

    Ну, а касательно пыли в глаза – быть может нвидии запускать свои продукты под лозунгами “Наш чип такой же как и в других продуктах, но чуточку быстрее” вместо “Обладает суперэффектами!”. С такми же успехом можно запретить эпл называть айфон волшебным.

    И да, отдельно про технологии – я так понимаю, что 3д не нужен до первого продукта от эпл с 3д? ;)

    Роман Юрьев avatar
    Роман Юрьев9 ноября 2011
    0

    @elfindeil,
    Она в свое время еще первую Tegra непонятно с чем сравнивала, и с Tegra 2 тоже клялась, что это просто мощнейшее на рынке решение, а по факту до сих пор не доделала нормальную поддержку кодеков для Android. Я не уверен, что с Tegra 3 что-то изменится. Но, согласен, дождемся реальных тестов. Благо Transformer Prime с сегодняшнего дня начал поступать в продажу.

    Пыль в глаза — это когда разработчики под дудку NVIDIA говорят, что только благодаря этому чипу мы реализовали такие крутые эффекты. А потом оказывается, что любой другой современный чип так тоже может. Прецеденты были, в статье я их упоминал.

    Если Apple реализует это 3D лучше других, так почему бы и нет?

    Wannamac avatar
    Wannamac9 ноября 2011
    0

    @elfindeil, 3d не нужен в том виде, который есть сейчас. Все эти очки, а если без очков, то ломающаяся по краям картинка как в панелях zenit или нинтендо 3ds.
    Если (вернее когда) apple решит этот достаточно сложный вопрос, то ессно всем остальным захочется реализовать такое простое для консумера решение. И опять начнутся мегамощные патентные войны и прочая прочая.
    Наверняка уже что-то подобное в закромах имеется или работы ведутся полным ходом

    Войди на сайт, чтобы ответить
    Ответить
Помни о правилах — если начал оффтопить, то не удивляйся потом.

Нашли орфографическую ошибку в новости?

Выделите ее мышью и нажмите Ctrl+Enter.