NVIDIA представила GPU нового поколения для Retina MacBook Pro и не только

Роман Юрьев avatar | 49
FavoriteLoading В закладки
NVIDIA представила GPU нового поколения для Retina MacBook Pro и не только

Производители ноутбуков по циклу обновления своих устройств фактически привязаны к разработчикам комплектующих, а у тех он составляет примерно один год. В данном случае речь идет об NVIDIA, графические решения которой в текущий момент используются в 15-дюймовом Retina MacBook Pro и в iMac. В общем-то, производительности хватает, если не говорить об играх и лэптопе, который начинает весьма ощутимо греться, да и максимальное разрешение дисплея для мобильного GPU великовато, особенно в последних играх. Но, вполне возможно, что проблема нагрева и производительности будет решена с релизом следующего поколения Retina MacBook Pro, построенного на базе видеокарты из серии GeForce GT 700M.

Всего в линейке пять GPU из которых пара начального уровня — 720M и 735M, остальные же считаются производительными игровыми решениями — это 740M, 745M и 750M. Если сравнивать производительность видеокарт со встроенным решением Intel HD4000, которое установлено во всех MacBook Pro (в 15-дюймовом как дополнительный GPU), в MacBook Air и в Retina MacBook Pro (в 15-дюймовом тоже является вторым видеочипом), то даже самый бюджетный вариант в 2,5 раза быстрее. Хотелось бы увидеть в будущем 13-дюймовом Retina MacBook Pro хоть такое решение, так как возможностей встроенной видеокарты явно не хватает.

Основная же фишка серии GeForce GT 700M, построенной на базе архитектуры Kepler, заключается не в лютой мощи, а в эффективной работе системы, когда оптимальная производительность достигается за счет минимального энергопотребления и нагрева. Технология получила название GPU Boost 2.0 и заключается в динамическом изменении частоты ядра в зависимости от нагрузки и температурного режима. То есть, видеокарта будет пытаться выдать максимальную мощность при активной игре, но можно не опасаться графических артефактов, возникающих из-за перегрева, который GPU Boost 2.0 теоретически не допустит.

Естественно, при работе в щадящем режиме, когда обрабатывается лишь интерфейс ОС, энергопотребление будет снижено до минимального уровня, что положительно скажется автономности ноутбука. Ах да, есть ведь еще технология NVIDIA Optimus, позволяющая автоматически переключаться на экономичный встроенный GPU от Intel, но, как показывает практика, из-за высокого разрешения дисплея в Retina MacBook Pro 15" практически все время работает GeForce. Так что снижение его энергопотребления в этом случае очень актуально.

Рассмотренные выше чипы уже доступны всем желающим, соответственно, ждем волны обновлений со стороны всех крупных игроков ноутбучного рынка, включая Apple. [NVIDIA]

1 Звезд2 Звезды3 Звезды4 Звезды5 Звезд (Проголосуйте первым за статью!)
undefined
iPhones.ru
Производители ноутбуков по циклу обновления своих устройств фактически привязаны к разработчикам комплектующих, а у тех он составляет примерно один год. В данном случае речь идет об NVIDIA, графические решения которой в текущий момент используются в 15-дюймовом Retina MacBook Pro и в iMac. В общем-то, производительности хватает, если не говорить об играх и лэптопе, который начинает...
Прокомментировать

🙈 Комментарии 49

  1. Ptiza000 avatar
    Ptiza0003 апреля 2013
    0

    Ну вот сразу с процом и обновят.

  2. anton1777 avatar
    anton17773 апреля 2013
    0

    15′ Retina MacBook Pro в этом году уже обновили, так что страждущим придется годик подождать!

    Никита Кольцов avatar
    Никита Кольцов3 апреля 2013
    0

    @anton1777, только купил ретину 15″. Очень рад, но.. ее обновят в этом году или нет? А то обидно, что купил, а скоро новая выходит

    miller_ avatar
    miller_3 апреля 2013
    0

    @Никита Кольцов, они всегда выходят,так что не парься…иначе смысла вообще не будет что-то покупать,всегда выйдет новое в два раза круче…

    Sla337 avatar
    Sla3373 апреля 2013
    0

    @Никита Кольцов, какие вообще могут быть обиды, вы о чём? Я вот только что взял айПад на 128Гб, хоть сведущие люди советовали немного подождать и взять следующее поколение. А мне нужен новый планшет злесь и сейчас, так зачем я буду чего-то ждать? Никаких обид, а дальше посмотрим :)

    Константин Лисенков avatar
    0

    @Никита Кольцов, всегда можно продать и купить новый с небольшой доплатой

    Константин Лисенков avatar
    0

    @Константин Лисенков, точнее не всегда, это работает в течениЕ 2х лет где-то
    Е специально выделил, потому что бесят те кто пишет И, а их процентов 70%, писать надо правильно

    twitter.com/pestrov avatar
    twitter.com/pestrov3 апреля 2013
    0

    @anton1777, то было совсем минорное обновление всё же, не в счёт

  3. Darth Saddam avatar
    Darth Saddam3 апреля 2013
    0

    не, ну я конечно всё понимаю, но 740M, 745M и 750M – это не игровые, а бюджетные видеокарты. Той же gtx680m мало для игры на фулл-ХД экране, а оно явно гораздо производительнее чем 750m. С другой стороны для аркад, казуальных и 2D игр, а так же браузэра будет очень даже хорошей заменой для 650m. В остальном, статья хорошая, годная.

    RockyCrystal avatar
    RockyCrystal3 апреля 2013
    0

    @Darth Saddam, как это мало? Посмотрите на ютубе iMac с 680mx, он и в 2560х1440 себя хорошо показывает.

    Darth Saddam avatar
    Darth Saddam3 апреля 2013
    0

    @RockyCrystal, не спорю, видео 2560х1440 на Ютубе он наверно действительно хорошо воспроизводит, но вот в у БФ3 приходится отключать сглаживание уже на 1920*1080.

    Стив Джобс avatar
    Стив Джобс3 апреля 2013
    0

    @Darth Saddam, бред какой-то.Разве что для 3d не катит,и то врятли.Я вот совсем недавно купил lenovo y 500 в максималке и 2X gt650m SLI В БФ3 на ультра в мультиплеере с 64 игроками fps ниже 40 не падает.

    Darth Saddam avatar
    Darth Saddam3 апреля 2013
    0

    @Стив Джобс, ну как сказать, 40 – это граница “играбельности”. Для комфортности все таки надо гораздо больше. Насчет максимальных, это маловероятно, честно, хотя gt650m sli – очень интересная штука.

    Elvis271 avatar
    Elvis2714 апреля 2013
    0

    @Darth Saddam, ну то есть большинство игроков по вашему играют за границей играбельности, ведь на консолях 30 фпс

    Innerspace avatar
    Innerspace4 апреля 2013
    0

    @Elvis271, при включенной вертикальной синхронизации можно и ниже 30 фпс играть

    MrPnDDekSteR avatar
    MrPnDDekSteR3 апреля 2013
    0

    @Darth Saddam,
    В ноуте стоит 620m. Играю в starcraft 2 HOTS в Full HD на ультра настройках. В игре тормозов нет.
    BioShock 3 Настройки Высокие, разрешение full HD. То же не тормозит.

    Безусловно некоторые игры тормозят, например tomb rider. Насколько помню там играбельно на средних. Если включить волосы, то видеокарте капец :)

    Smolny avatar
    Smolny3 апреля 2013
    0

    @MrPnDDekSteR, играю в диаблу 3 на минимуме, больше для фарма не нужно. Любимый дварф фортресс не тянет проц, и еще лет 20 не потянет, компы нынче не те.
    А бенчмарки вместо игр не нужны.

    Роман Юрьев avatar
    Роман Юрьев3 апреля 2013
    0

    @Darth Saddam, На таких разрешениях скглаживание, как мне кажется, не нужно. Разве что если на большом телике играть.

    Darth Saddam avatar
    Darth Saddam3 апреля 2013
    0

    @Роман Юрьев, разрешение чуть-чуть решает проблему, но лесенка из пикселей, как была, так и есть. Поэтому вот и хочется антиалиасинга и тесселяции.

    Alexos1990 avatar
    Alexos19903 апреля 2013
    0

    @Darth Saddam, ты прав только на половину. Да х50M это бюджетное решение, но на нём играю в скурим при настройках чуть выше средних и при 60фпс 1680х1050

    Faboloso avatar
    Faboloso4 апреля 2013
    0

    @Darth Saddam, Опяит маркетинг, все забыли что у Haswell будет новая интегрированя видеокарта, т.е она будет ничем не хуже чем 730м как минимум

    Darth Saddam avatar
    Darth Saddam4 апреля 2013
    0

    @Faboloso, Вы что? Какая 730м? У интегрированной видеокарты нет своей памяти. Если оно будет сильнее, чем 620 – это уже будет прогресс, и то, не некоторых задачах. В задачах, где важна память, она и этого не достигнет.

  4. Tiron avatar
    Tiron3 апреля 2013
    0

    А уже есть или возможно ли сделать технологию, чтоб интегрированная видеокарта( тот же hd 4000) не была просто так для галочки,а например дополняла дискретную карту (например gt 750m)? Что-то типо sli? Извините за глупый вопрос)

    miller_ avatar
    miller_3 апреля 2013
    0

    @Tiron, ну если вторую такую-же) я вообще не понимаю зачем ставят стоковую карту и нормальную вместе…

    waguramu avatar
    waguramu3 апреля 2013
    0

    @Tiron, есть AMD Dual Graphics

    Darth Saddam avatar
    Darth Saddam3 апреля 2013
    0

    @Tiron, Есть “Nvidia Optimus”, которая автоматически переключается между дискретной и встроенной, теоретически экономит аккумулятор. Есть совершенно бесполезная “AMD Radeon Dual Graphics”. Но о sli забудьте, это настолько разные по производительности продукты, хотябы по памяти, что вреда от этого будет больше, чем пользы.

    Rezon avatar
    Rezon3 апреля 2013
    0

    @Tiron, Вопрос вполне рациональный :) Я не эксперт по видеокартам, конечно, но попробую ответить.
    Проблема в том, что видеокарты не только сильно различаются по мощности (это как раз решить не так сложно, нужно лишь грамотно балансировать нагрузку), но и по сути своей разные, имеют различный набор поддерживаемых технологий. Тогда если более слабая видеокарта не поддерживает какую-либо фишку, придётся её отключать и на дискретной, т.к.
    И даже те технологии, которые у обеих моделей пересекаются, реализуются ими по-разному, что может привести к артефактам.
    Так же сложность в разделении памяти. Не всегда эту проблему можно обойти автоматически. Можно либо дублировать данные (большой перерасход памяти и необходимость её синхронизации), либо разделить память между дискретной и встроенной, и заставить их обращаться друг к другу, но в этом случае мы получим огромные накладные расходы на пересылку данных туда-сюда. Этого можно избежать, специально заточив приложение под такую работу, но существующие приложения (а их миллионы) получат больше вреда, чем пользы.

    В общем, подобный гибрид, хотя и довольно логичен (и не исключено, что мы увидим подобные технологии в будущем), крайне сложен в реализации, при чём не факт, что прироста производительности “в среднем” удастся добиться.

    Всё, заканчиваю заниматься графоманством :)

    Darth Saddam avatar
    Darth Saddam3 апреля 2013
    0

    @Rezon, было уже. называлось “Lucid Hydra”. Чем закончилось, думаю, вы помните.

  5. miller_ avatar
    miller_3 апреля 2013
    0

    каждый год хвалятся как новая карта или проц в х2 х3 раза мощнее прошлых,даешься диву какая мощ,проходит какое-то время читаешь уже статьи как там все нехрена не работает мощи не хватает,и что снова нужны новые турбо ярдра и уберкарты…

    T avatar
    T3 апреля 2013
    0

    @miller_, Во-во поражает, что эти цифры х2-х3, а на деле этого почти не видно. Всё-таки оптимизация важнее, чем эти попугаи

    miller_ avatar
    miller_3 апреля 2013
    0

    @T, ага,особенно по части дна в оптимизации андроид,у них там характеристики ппц космические уже 8 ядер и прочий фарш за гранью,а на деле ваще хлам…такое бы железо в айфон,вот это было бы реально х2 х3 на деле а не на хз чём….

    MSU avatar
    MSU3 апреля 2013
    0

    @miller_, LOL, согласен)) хотя может это потому-что тут же выходят еще более новые оси, проги и игры, которые “новое” железо снова не тянет?)) так и живем))

    miller_ avatar
    miller_3 апреля 2013
    0

    @MSU, я бы согласился это у компов так и есть,а в айфоне у меня проги летали еще на 3g и щас летают,как и почти все игры,ну за исключением rr3 и прочих супер навороченных разумеется,а в андроиде ума не приложу какие мощностя термоядерные требуются для каких-то дно приложений))) такой шлак все будто в дет саду дали задание создать приложения и игры и дети чет там как смогли намалевали убогость какую-то за день…пока их мама или папа не забрали домой после работы,такую,что я как попользовался ахренел как так можно вообще нахально… разумеется там куча настроек все меняется..говорят все что новая эра HD экранов всю мощ отбирает,троллят теперь этим,вон у нового ГС4 даже оболчка еле ездеет это при 8 ядерной то окте! компам такое и не снилось,уверен айфон и с двумя ядрами скромными легко будет таскать и атомное разрешение и много чего еще как и таскал в свое время,) жду большого 5* айфона вот это бы я хотел увидеть а то надоело завидовать коробке андройдов и не пользоваться из-за платформы…

  6. Silmaril avatar
    Silmaril3 апреля 2013
    0

    “но, как показывает практика, из-за высокого разрешения дисплея в Retina MacBook Pro 15″ практически все время работает GeForce”. Да ну, что то не замечаю. GeForce подключается только если приложение просит (на пример игры, iPhoto…), и то можно напрямую запретить это переключение ведь за частую оно не нужно (на пример в iPhoto).

    kas87 avatar
    kas873 апреля 2013
    0

    @Silmaril, Многие жалуются что из-за этих переключений лаги бывают. Лечится тем что в настройках отключается автоматическое переключение.

    Случаи разные). Кто-то замечает а кто-то нет.)

    Silmaril avatar
    Silmaril3 апреля 2013
    0

    @kas87, Ну у себя лагов при переключении не вижу.

    Кстати я писал не про то. Я лишь говорю, что обычно работает Intel HD4000, а не GeForce.

  7. Smolny avatar
    Smolny3 апреля 2013
    0

    Амудэ вновь ожидаемо соснуло.

    Godword avatar
    Godword3 апреля 2013
    0

    @Smolny,
    Скорей как раз в этом году этим занимается nVidia)))
    Хотя нет она этим занимается уже пару лет как)))

    Smolny avatar
    Smolny3 апреля 2013
    0

    @Godword, биткойнофармер?

  8. evgesha95 avatar
    evgesha953 апреля 2013
    0

    конечно в этом году обновят, там было минорное обновление, в первую очередь направленное на понижение цены.

  9. iRupor avatar
    iRupor3 апреля 2013
    0

    Как бы приставка “М” mobile, проще говоря обрезом от полноценной видео карты. И это не есть хорошо для iMac, лучше бы его оставили толстым, а меньшее расстояние между матрицей и стеклом позволило бы ставить в него полноценные видеокарты, вот тогда бы iMac был бы по настоящему крут! Ну а для MacBook Pro это несомненно очень стоящий вариант.

  10. Alexos1990 avatar
    Alexos19903 апреля 2013
    0

    Да эппл меня одурачил. Когда покупал мбпро осенью, я не сильно вникал в видюхи и не обратил должного внимания. А они в ноут За 2400$ впихнули бюджетное решение.сегодня ноут за 1400 уделывает мбпро по производительности. А если говорить про качество, то у моего батарейка испортилаь за 2 месяца.

    Silmaril avatar
    Silmaril4 апреля 2013
    0

    @Alexos1990, Ну так если ноут брался для винды то конечно лучше, что другое взять. Если для Mac то тут без вариантов.

    С батарейкой несите по гарантии

    Elvis271 avatar
    Elvis2714 апреля 2013
    0

    @Alexos1990, уделывает если только по графической производительности. Во всем остальном сосет. У какого другого ноутбука такой экран?

  11. xSphinx avatar
    xSphinx4 апреля 2013
    0

    Это шутка 1 апрельская. )))))

  12. oflam avatar
    oflam4 апреля 2013
    0

    nvidia optimus зло. на моем ноутбуке температура видеокарты доходит до 98 градусов и ноутбук выключается. Приходится играть на интегрированной, она совсем не греется.

    Darth Saddam avatar
    Darth Saddam4 апреля 2013
    0

    @oflam, почистите систему охлаждения, а лучше, ещё поменяйте термопасту, только не на самую дешевую. И будет вам счастье.

    Power & Control avatar
    Power & Control4 апреля 2013
    0

    @Darth Saddam, а еще есть различные охлаждающие подставки.

  13. kirrr avatar
    kirrr4 апреля 2013
    0

    для игр нужны совсем другие ноутбуки, не мак уж точно.

Вы должны авторизоваться или зарегистрироваться для комментирования.

Нашли орфографическую ошибку в новости?

Выделите ее мышью и нажмите Ctrl+Enter.

Как установить аватар в комментариях?

Ответ вот здесь