Ученые из Университета Райса разработали сублинейный механизм глубокого обучения (SLIDE), который работает на центральном процессоре и тренирует нейронные сети в 4-15 раз быстрее, чем на платформах с графическими ускорителями. Об сообщает официальный сайт университета.
В 2019 году команда исследователей переработала обучение нейросетей из перемножения матриц в задачу поиска, которую можно решить с помощью хеш-таблиц.
Затем ученые улучшили производительность алгоритма с помощью ускорителей векторизации и оптимизации памяти в современных процессорах.
forklog.com