Искусственный интеллект является огромным и всепроникающим трендом в технологиях, с которым я сталкиваюсь повсеместно: от рекламных объявлений в интернете до программного обеспечения, которое запрашивает разрешения для управления моими устройствами. К 2025 году ИИ может стать повсеместным явлением, хотя тип искусственного интеллекта, который мы знаем сегодня, имеет корни, восходящие к 1950-м годам. Фактически эксперименты с этим видом ИИ можно проследить вплоть до середины XX века. Однако только в 2012 году AlexNet, бот для распознавания изображений, запустил нынешнюю волну машинного обучения. Недавно Google и Музей истории компьютеров сделали его код доступным как открытый исходный код.
Со временем термин «ИИ» (Искусственный интеллект) использовался в различных контекстах, главным образом относясь к компьютерным системам или машинам, способным к самообучению. Хотя эта идея исследовалась писателями научной фантастики с XIX века, мы все еще далеки от полного реализации ее потенциала. Сегодня, когда говорят об ИИ, часто подразумевают языковые модели и машинное обучение, а не самостоятельное мышление или рассуждения машины. По сути, методы глубокого обучения включают подачу компьютерам огромного объема данных для их тренировки на выполнение конкретных задач.
Концепция глубокого обучения не нова; исследователи, такие как Фрэнк Розенблатт в Корнелле, разработали упрощенную нейронную сеть для машинного обучения еще в 1950-х годах, используя принципы, схожие с теми, которые мы применяем сегодня. Однако технологии тогда были недостаточно развиты, чтобы реализовать эту идею, и она была отвергнута. Только в 80-е годы машинное обучение снова начало набирать популярность.
В 1986 году Джеффри Хинтон, Дэвид Румельхарт и Рональд Дж. Уильямс опубликовали революционную статью о методе обратного распространения ошибки (backpropagation), алгоритме, который корректирует веса в нейронной сети на основе ее стоимости или ошибки. Хотя другие ученые ранее предлагали эту концепцию, именно эти исследователи сделали ее популярной. Метод обратного распространения ошибок как техника машинного обучения можно проследить до Фрэнка Розенблатта в 60-х годах, хотя его практическое применение появилось позже. Кроме того, многие считают backpropagation применением цепного правила, которое часто приписывают Готфриду Вильгельму Лейбницу с 1676 года.
Хотя это показывало потенциал, технологии развивались недостаточно быстро для того, чтобы такое продвинутое обучение было практичным. Для достижения уровня ИИ, который мы имеем сейчас, нам потребовались существенно большие наборы данных для обучения и значительно улучшенные вычислительные мощности.
В 2006 году профессор Фэй-Фэй Ли из Стэнфордского университета начала создание ImageNet. Ее цель заключалась в создании базы данных, содержащей изображение для каждого общего английского существительного, поэтому она и ее студенты собрали и систематизировали фотографии соответственно. Они использовали WordNet — известную коллекцию слов и их связей, чтобы идентифицировать релевантные изображения. Из-за колоссального объема задачи были переданы фрилансерам до тех пор, пока ImageNet не стал признанным самым обширным датасетом своего рода в 2009 году.
Примерно в тот же период Nvidia разрабатывала систему программирования CUDA для своих графических процессоров (GPU). Особенно эта компания, которая на конференции GTG 2025 сделала значительный акцент на ИИ и также применяла технологии для обучения языку жестов, представила эту систему. Благодаря CUDA высокопроизводительные чипы стали проще использовать для задач вне визуальной графики. В результате исследователи начали применять нейронные сети в различных областях, таких как распознавание речи, что привело к ощутимым успехам.
Как преданный поклонник оглядываясь на 2011 год, я был восхищен новаторской работой двух блестящих студентов под руководством Джеффри Хинтона – Ильи Суцкевера и Алекса Крижевского. Суцкевер, который впоследствии стал сооснователем OpenAI, осознал огромный потенциал в их прежних исследованиях и смог убедить Крижевского применить свои уникальные навыки оптимизации GPU для обучения этой нейронной сети. Тем временем, Хинтон был главным исследователем проекта. В течение следующего года Крижевский неустанно обучал, дорабатывал и повторно тренировал систему на одном компьютере с двумя видеокартами Nvidia, используя свой собственный кастомный код CUDA. В 2012 году мы опубликовали результаты в революционной научной статье, которую также представил Хинтон на конференции по компьютерному зрению во Флоренции.
Проще говоря, Хинтон сообщил в CHM, что «Илья предложил это, Алекс реализовал, а я получил Нобелевскую премию».
Сначала AlexNet не произвела особого впечатления, но её влияние на современное искусственное интеллект (AI) оказалось революционным. До появления AlexNet нейронные сети редко применялись в развитии искусственного интеллекта. Сейчас они служат основой для почти всех технологий, которые принято считать ИИ, таких как роботы-собаки с сложными нервными системами и удивительные гарнитуры. По мере увеличения вычислительной мощности компьютеров мы можем ожидать ещё более широкого использования этой технологии.
Так как AlexNet сыграл значительную роль в развитии ИИ, это замечательно, что CHM решил поделиться исходным кодом. Этот шаг не только является данью уважения, но и крайне важен для обеспечения широкого доступа. Чтобы сохранить справедливость, точность и законность, CHM связался с Алексом Крижевским, чьим именем названа AlexNet, который затем соединил их с Джеффри Хинтоном, ключевой фигурой в области машинного обучения, работавшим к тому времени в Google. Будучи одним из основополагающих фигур в этой сфере, Хинтон облегчил связь с соответствующей командой в Google. После пяти лет переговоров они наконец выпустили код.
Возможно, код на GitHub, доступный всем, является немного модифицированной версией AlexNet, но это точно его аутентичная версия. Существуют многие другие с похожими или идентичными названиями, однако они скорее дань уважения или адаптации. Конкретная загруженная версия называется ‘AlexNet source code as it was in 2012′, представляя собой значимый этап в истории развития искусственного интеллекта и потенциально определяющую его дальнейшее эволюционирование.
1. Оптимальный процессор для гейминга: Лучшие процессоры от Intel и AMD.
2. Идеальная материнская плата для игр: Рассмотрите подходящие модели.
3. Исключительная видеокарта: Ваш идеальный бустер FPS уже здесь.
4. Премиальный SSD для игр: Оставьте конкурентов позади с быстрым стартом!
Смотрите также
- В хорошей новости для симуляторов убийств, в Inzoi есть 16 различных типов смертей.
- Беременность в Warframe: специальный репортаж PC Gamer
- Обзор ASUS ROG NUC 970
- Читы Stardew Valley: каждый необходимый вам чит-код, никаких модов не требуется.
- Обзор Asus ROG Maximus Z890 Hero
- Оптимальное распределение пространства в бунгало и его планировка
- Все пути восхождения Path of Exile 2 и как получить очки восхождения
- Обзор Razer Barracuda X Chroma: «Превосходство X Chroma так же ясно, как дневной свет RGB».
- Обзор MSI RTX 5070 Ti Gaming Trio OC Plus
- Щедрый паринг Assassin’s Creed Shadows – это кошмар, и прежде чем кто-то скажет «проблема с навыками», я обвиняю Секиро и Lies of P
2025-03-24 13:45