
Современное машинное обучение, лежащее в основе всех актуальных ИИ-разработок, имеет интересную историю возникновения. Глава Nvidia, Дженсен Хуанг, в подкасте Joe Rogan Experience рассказал, как зародилось это направление.
Революционный подход к машинному обучению
В начале 2010-х годов исследователи Университета Торонто Алекс Крижевский, Илья Суцкевер и Джеффри Хинтон работали над улучшением распознавания изображений. Их нейросетевая архитектура AlexNet, состоящая из восьми слоев и примерно 60 миллионов параметров, обучалась самостоятельно с помощью комбинации нескольких типов слоев.
На тот момент этот подход был революционным. Ученые использовали пару игровых видеокарт GeForce GTX 580 с 3 гигабайтами памяти каждая и объединили их в SLI для обучения сети.
Роль CUDA-ядер в развитии ИИ
Уже в те времена видеокарты Nvidia имели CUDA-ядра, позволявшие исследователям проводить вычисления, напрямую не связанные с обсчетом графики. Видимо, именно поэтому ученые и выбрали GeForce.
Прорыв в распознавании изображений
AlexNet превзошла существующие алгоритмы распознавания изображений более чем на 70%. Это событие положило начало буму глубокого обучения и показало, что именно GPU обладают необходимой вычислительной мощностью для работы с большими нейросетями.
Переход Nvidia к ИИ-стратегии
В результате, вспоминает Хуанг, в Nvidia решили изменить стратегию и сделать ставку на искусственный интеллект. После успеха AlexNet компания начала активно инвестировать в ИИ-направление: уже в 2016 году появился первый суперкомпьютер DGX.
Долгосрочные последствия
Спустя почти полтора десятка лет Nvidia регулярно поднимается на первую строчку в списке самых дорогих публичных компаний в мире. Капитализацию компании нарастил именно высокий интерес к ее ИИ-ускорителям.
Сегодня ИИ-технологии продолжают стремительно развиваться, и Nvidia остается одним из лидеров в этой области. Будущее ИИ выглядит перспективным, и компании, инвестирующие в это направление, вероятно, будут занимать лидирующие позиции в ближайшие годы.







