Искусственный интеллект Apple Intelligence появится в iOS 18 и других операционных системах от Apple. Однако у него есть ряд ограничений по устройствам: минимум iPhone 15 Pro и iPad/Mac с чипом M1.
Журналист Джон Грубер из Daring Fireball спросил у директора Apple по искусственному интеллекту/машинному обучению Джона Джаннандреа, директора по маркетингу Грега Джосвиака и директора по разработке программного обеспечения Крейга Федериги, почему такое ограничение для работы ИИ установила компания.
Джаннандреа: «Когда вы запускаете эти функции, это называется логическим выводом, а вывод больших языковых моделей невероятно требователен к вычислительным ресурсам. Сочетание пропускной способности устройства, размера ядер Apple Neural Engine и мощности устройства позволяет моделям работать достаточно быстро, чтобы быть полезными. В теории, вы могли бы запускать эти модели на очень старых устройствах, но это было бы настолько медленно, что было бы бесполезно».
Грубер: «Значит, это не схема продажи новых iPhone?»
Джосвиак: «Нет, совсем нет. В противном случае мы бы сделали этот ИИ доступным только для самых последних iPad и Mac, не так ли?»
Крейг Федериги тоже заявил, что для запуска Apple Intelligence требуется колоссальная мощность. В целом, подобную систему необычно запускать на iPhone, и лишь новейший айфон на такое способен.
Федериги намекнул, что оперативная память также является еще одним аспектом, который требуется для новых функций искусственного интеллекта. По этой причине все устройства, совместимые с Apple Intelligence, имеют не менее 8 ГБ оперативной памяти. [MacRumors]
30 комментариев
Форум →Фу ты, пронесло. Слава богу не на всех огрызках.
Вот как раз память там и является ограничением. А не проц и npu.
Но чип м1 на айпад по моему менее мощный по ии, чем в айфоне 14 про?
@maksimt, Вы показатели “мощности по ии” этих двух чипов не нормировали, вот отсюда и вырождение смысла. ;)
@maksimt, если смотреть недавнюю статью про Geekbench ml 15 pro, то он в Geekbench выдает 6249 баллов при тестировании Neural Engine, iPad Pro m1 в этом же тесте выдает почти 6900 баллов
@Dr.Plush, ну и с 14 pro не «катострафическая пропасть из за которой все будет тормозить в разы» как говорит эппл. Там с м1 разница в два ядра из восьми, частота одинаковая
@maksimt, а chatgpt вообще облако. + адекватная npu сама по себе должна резко снижать нагрузку на оперативку.
@maksimt, ну скачайте бенчмарк и прогоните тест и сравните результат, просто м1 мощней 15 pro max в этом тесте
Учитывая, что у огрызка сейчас основной продукт обмылок… особенно в контексте того, что ChatGPT – облачный ИИ сервис.
Может хотя бы ai заставит эппл ставить адекватный объем оперативки в базовых версиях устройств.
@mlserg, ну сделают они 16 гб в базе, с ценником на 200$ выше, вам станет легче что ли?)
Учитывая продуктовый график на 2 года вперед, Эппл прекрасно знала, что айфоны 14 pro не будут поддерживать ИИ и сознательно разместили в нем 8 гб оперативки. Так что это все-таки сознательные действия, для стимуляции продаж новых устройств.
@Slavvvcom, в 14 pro 6 гб оперативки
@hotarm, помните недавние сообщения, что у нового ipad pro нашли 4 гига “лишней” памяти?
видимо эта память как раз для того, чтобы там комфортно работала SLM модель ИИ.
@hotarm, ошибся, это и имел в виду – Эпл сознательно разместила в нем 6 гб оперативки, зная, что не будет поддержки ИИ
Маркетинг, ничего личного) Раньше прогрессом правили инженеры, теперь маркетологи)
Ну они же в презентации WWDC рассказывали про offload сложных запросов в облако..(
Почему нельзя со старых телефонов в облако отправлять сразу 100% запросов? Поглядим на релиз осенью.
@i3laze, с выходом нового (15) поколения не нашел ни единой причины менять свой 14 Pro Max.
На который поменял Х просто из-за физического износа, никаких новых прямо вот фишек в 14PM относительно Х нет.
А вот про 16 уже задумываюсь – вдруг в этих ИИшных функциях что-то будет интересное (не факт, но вдруг)
Вот для этого все и делается
@i3laze, долго и дорого (для эпл) будет, плюс надо две разные системы разрабатывать и тестировать, опять, дольше и дороже. И все для чего, чтобы пользователи получили посредственное впечатление и написали кучу негативных отзывов (запросы через интернет будут медленнее)? Так все и сейчас могут скачать приложение ChatGPT и пользоваться им на любом устройстве.
А тут Apple и деньги экономит (по максимуму загружает устройства локально) и дает причину людям обновиться. Все же Apple — не благотворительностью занимается, а в первую очередь деньги зарабатывает.
@v11v, когда слышу что для Эпл разработка чего-то нового будет долго стоить, то сразу думаю о том как найм дополнительных высококлассных специалистов сильно бьёт по карману триллионой компании
и все таки маркетинг…
Не очень верю так как по слухам этот Apple AI это просто партнерка с OpenAI, то есть облачный сервис. Так что хз, что там айфон 14 слишком большой json переварить не может?
@AppleDominator, по каким слухам? Все уже давно объяснили как работает Apple Intelligence. И в бете уже можно тестировать. Запросов к ChatGPT там почти нет.
@AppleDominator, Зачем слухи какие то если на презентации всё сказали. LLM будет работать локально на устройстве, и только для сложных информационных запросов будет отправляться запрос на OpenAI. То есть 90% запросов будет обработаться на устройстве и оффлайн, в некоторой степени это маленькая революция, все другие всё делают через сервера в интернете.
Скорее всего энергозатраты больше влияют на их решение — локальные модели потребляют много энергии, например, Stable Diffusion съедает несколько процентов батареи за 10 минут использования (около 5%). Конечно, Apple могли запускать эти модели в своем облаке, но тогда эти запросы на старых устройствах были бы дольше, чем при локальной обработке (снова недовольные пользователи) и скорее всего очень дорого для Apple (недовольная Apple). Ну и получается логично и в принципе ничего нового, удивительно, что они поддержку текущей версии айфона вообще добавили — Сири вот не была портирована на 4ку.
“бюджетный” Pixel 8a как-то может работать с встроенной нейросетью Google Gemini Nano. А Iphone нет.
У меня вопрос для чего тогда нужны были “бионические” мощности в чипах Apple начиная с A11 Bionic? чтобы бекграунд на фотках размывать? Эмейзинг, спасибо, великолепно. То есть всё это время в айфонах был ИИ-ускоритель, однако мощности его “не хватило” для работы Apple ИИ.
Так ведь оно всё на серверах OpenAI работает. Или я что-то не пойму?
@zored, нет все на устройстве, только отдельные запросы в OpenAI
Они при желании могли сделать просто: со старых аппаратов отправка запроса в облако, от последних про, обработка локальная и при необходимости в облако.
Во всей этой истории не понятно как будет работать на самом деле, что действительно будет онлайн, а что в облаке. + не забываем, чтобы что-то обработать оффлайн, нужно место под LLM модели, а это опять же будет за счет пользователя.
Эпл сейчас как никогда настроена на выкачивание денег с пользователей. Всё это продлится ровно до тех пор, пока кто-то не выпустит что-то реально революционное, далее (конечно не сразу) Эпл будет ждать участь нокии на мобильном рынке.
Нашли орфографическую ошибку в новости?
Выделите ее мышью и нажмите Ctrl+Enter.Настраиваем автозамену текста в определенном приложении на iPhone или iPad
Как хранить раздельные контакты, заметки и календари на разных iPhone с одной учёткой Apple ID
Как увеличить размер шрифта на iPhone
Почему iPhone пытается подключиться к старому почтовому ящику, который давно удален
Как вернуть оригиналы фото из iCloud
Как на iPhone найти и изменить ненадежные пароли из связки ключей
Как в macOS открывать страницы из Safari в другом браузере
Тупит Viber на macOS, как исправить