Исследователи из Калифорнийского университета представили новый метод параллельной обработки данных, который обещает значительное повышение скорости вычислений и снижение энергопотребления компьютеров.
Революционность этого метода заключается в том, что он объединяет мощности центрального процессора, графического процессора, тензорных ядер и других компонентов для параллельной работы над данными. Этот метод обеспечивает ускорение обработки данных почти вдвое по сравнению с использованием только графического процессора, снижая при этом энергопотребление на 51%. Важно отметить, что эти результаты достигнуты без добавления новых компонентов, благодаря оптимизации использования уже имеющихся.
Создатели метода, Хунг-Вэй Ценг и Куан-Чье Сюй, успешно интегрировали центральный процессор, видеокарту Nvidia и AI-процессор на одной системной платформе. Они утверждают, что существующие компьютеры не раскрывают свой потенциал . Однако для практического внедрения этой технологии необходима оптимизация кода и аппаратных средств.
Потенциал метода огромен и может принести пользу как крупным IT-компаниям, так и обычным пользователям. Этот метод обещает ускорить разработку искусственного интеллекта, снизить стоимость и увеличить производительность компьютеров, сократить энергопотребление дата-центров, а также улучшить характеристики мобильных устройств и многое другое. Исследование ученых из Калифорнии в области параллельных вычислений может стать отправной точкой для нового этапа в развитии компьютерных технологий.