Исследователи ускорили обучение нейросетей на CPU в 15 раз

Ученые из Университета Райса разработали сублинейный механизм глубокого обучения (SLIDE), который работает на центральном процессоре и тренирует нейронные сети в 4-15 раз быстрее, чем на платформах с графическими ускорителями. Об сообщает официальный сайт университета.

В 2019 году команда исследователей переработала обучение нейросетей из перемножения матриц в задачу поиска, которую можно решить с помощью хеш-таблиц. 

Затем ученые улучшили производительность алгоритма с помощью ускорителей векторизации и оптимизации памяти в современных процессорах.

forklog.com forklog.com