На главную Наши проекты:
Журнал   ·   Discuz!ML   ·   Wiki   ·   DRKB   ·   Помощь проекту
ПРАВИЛА FAQ Помощь Участники Календарь Избранное RSS
msm.ru
Модераторы: RaD, nsh
  
> Способы ускорения расчетов, обучения.
    Всем привет. Народ подскажите есть ли возможность запустить программу(мы) по обучению нейросети например, через какую-либо прослойку, которая задействует 2 процессора и видюху не переписывая программы. Что-то может наподобии Wine эмулятора в Линухе, только для ускорения расчетов. Прочитал бегло про CUDA так не понял как задействовать видюху, ощущение что нужно писать отдельно на CUDA то что требует быстрых расчетов.
    А то 500 слов в разных вариация разных людей обсчитывает по 4 часа при 3000 итерациях, а будет еще больше голосов(слов), шумов, не удобно тестировать разные подходы, алгоритмы.
    Сообщение отредактировано: TViT -
      Почти все библиотеки обучения нейросетей поддерживают CUDA - Torch, Theano, Caffe, вот тут можно найти обзор с примерами применения:

      http://habrahabr.ru/company/itseez/blog/254747/
        Ну у меня не используется никаких сторонних библиотек, живой код с функциями, абсолютно своя независимая система с нуля.
        Соответственно Matlab, Python совсем не подходят пользуюсь Scilab. Модуль обучения, анализа, тестирования написан на VB, по ссылкам такого модуля нет. Да я и не думаю что стал бы базироваться на готовых модулях и привязывать себя к какой либо раелизации.
        Ну а на Си потом все функции коэффициенты портируются и работают в реальном времени на микроконтроллере.
        Поэтому ищу именно запуск и ускорение моей программы для обучения и расчета. Можно свой комп обновить и/или разогнать или куда-то на мощном сервере залить и запустить. Вот было бы интересно узнать пути решения моей проблемы.
        Сообщение отредактировано: TViT -
        0 пользователей читают эту тему (0 гостей и 0 скрытых пользователей)
        0 пользователей:


        Рейтинг@Mail.ru
        [ Script execution time: 0,0161 ]   [ 15 queries used ]   [ Generated: 1.05.24, 03:22 GMT ]