GPU ограничивают свободу программирования, поэтому в сфере ИИ появятся и другие чипы — Лиза Су

Читать в полной версии

Графические процессоры, первоначально созданные для построения трёхмерных изображений, неплохо проявили себя в сфере ускорения параллельных вычислений. В эпоху бурного развития систем искусственного интеллекта они оказались очень востребованы. Глава AMD Лиза Су (Lisa Su) ожидает, что лет через пять ситуация начнёт меняться, и достойное применение в сфере ИИ найдут не только GPU.

Источник изображения: AMD

Своими соображениями она поделилась с изданием The Wall Street Journal. «Сейчас GPU являются архитектурой выбора для больших языковых моделей, поскольку они весьма эффективны в параллельных вычислениях, но при этом они дают лишь ограниченную свободу программирования. Верю ли я, что они останутся предпочтительной архитектурой через пять с лишним лет? Думаю, что всё изменится», — заявила генеральный директор AMD. По её мнению, лет через пять от GPU никто отказываться не будет, но растущую популярность обретут компоненты для систем ИИ другого рода. Более узконаправленные чипы окажутся меньше, дешевле и продемонстрируют более высокую энергетическую эффективность.

Примеры подобных чипов существуют уже сейчас. Облачные гиганты типа AWS (Amazon) и Google разрабатывают их для собственных нужд, используя в типовых сферах применения. GPU остаются более универсальными вычислительными средствами, но оптимизировать их энергопотребление и снизить себестоимость из-за постоянной необходимости увеличения производительности проблематично. Broadcom уже помогает Google создавать специализированные чипы, и таких примеров будет становиться только больше.

Для разработчиков профильных ускорителей важно чувствовать конъюнктуру рынка и находить нужный баланс между гибкостью программирования и эффективностью работы чипов, а также обеспечивать совместимость с используемой программной экосистемой. Если специализация чипов станет узконаправленной преждевременно, это может принести разработчику большие убытки. Лиза Су добавила, что для вычислений нет универсальных решений, которые подошли бы всем. По её словам, с GPU в будущем станут соседствовать и другие архитектуры, всё просто будет зависеть от эволюции моделей.