Кто-нибудь здесь использовал научные вычисления двойной точности с графическими процессорами нового поколения (например, K20) через Python?
Я знаю, что эта технология быстро развивается, но каков наилучший способ сделать это в настоящее время? GPU не входит в число популярных научных библиотек Python numpy и scipy, и я хотел использовать theano, но, похоже, он использует только точность float32 для GPU. Мне известно, что Google может предоставить результаты поиска для Python GPU, но я надеюсь на большее понимание, чем список проектов, которые могут или не могут встретиться с их создателем.