Я слушал доклад группы, состоящей из двух влиятельных китайских ученых: Ван Гана и Ю Кая и других.
Отвечая на вопрос о самом большом узком месте развития искусственного интеллекта в ближайшем будущем (от 3 до 5 лет), Ю Кай, который имеет опыт работы в области аппаратного обеспечения, сказал, что аппаратное обеспечение будет существенной проблемой, и мы должны заплатить большую часть наше внимание к этому. Он привел нам два примера:
- В начале разработки компьютера мы сравнивали наши машины по чипам;
- Искусственный интеллект, который очень популярен в эти годы, был бы почти невозможен, если бы не усиливалась графическим процессором Nvidia.
Фундаментальные алгоритмы существовали уже в 1980-х и 1990-х годах, но искусственный интеллект пережил 3 зимы ИИ и не был эмпирическим, пока мы не сможем обучать модели с мегасерверами, усиленными GPU.
Затем доктор Ван прокомментировал свое мнение о том, что мы должны также разрабатывать программные системы, потому что мы не можем создать автоматическую машину, даже если мы объединили все графические процессоры и вычисления в мире вместе.
Затем, как обычно, мой разум отвлекся, и я начал думать, что, если бы те, кто мог управлять суперкомпьютерами в 1980-х и 1990-х годах, использовали существующие тогда алгоритмы нейронных сетей и обучали их множеству научных данных? Некоторые люди в то время, очевидно, могут пытаться создавать системы искусственного интеллекта, которые мы строим сейчас. Но почему ИИ стал горячей темой и стал эмпирическим до десятилетий спустя? Это только вопрос оборудования, программного обеспечения и данных?