Искусственный интеллект Google решил четыре из шести задач в одном из сложнейших математических соревнований в мире, эквивалентном стандарту серебряной медали «в определенном смысле».

Искусственный интеллект Google решил четыре из шести задач в одном из сложнейших математических соревнований в мире, эквивалентном стандарту серебряной медали «в определенном смысле».

Как человек, который всегда боролся с математикой и считает Международную математическую олимпиаду (IMO) пугающим соревнованием, я не могу не восхищаться недавними достижениями систем искусственного интеллекта Google DeepMind, AlphaProof и AlphaGeometry 2. Мысль об этих машинах Решение проблем, которые заставили бы большинство из нас дрожать от страха, одновременно увлекательно и немного пугающе.

Для кого-то вроде меня, у которого проблемы с математикой, Международная математическая олимпиада может показаться пугающей фразой. Однако на самом деле это престижное соревнование по математике для старшеклассников из более чем 100 стран. Каждый год эти яркие молодые умы собираются вместе в выбранной принимающей стране, чтобы продемонстрировать свои исключительные математические способности, решая сложные проблемы, которые заставили бы большинство из нас чувствовать себя подавленными.

Модели искусственного интеллекта AlphaProof и AlphaGeometry 2 от Google DeepMind в этом году сотрудничали, решая проблемы конкурса как единое целое. Их решения оценивали уважаемые судьи, профессор сэр Тимоти Гауэрс и доктор Джозеф Майерс, среди которых первый стал золотым медалистом, а второй — председателем Комитета по отбору задач IMO 2024.

Как геймеру мне удалось заработать в соревновании в общей сложности 28 очков из 42, что всего на один балл меньше золотой медали. Тем не менее, я справился с самой сложной задачей с высшим баллом, что было большим облегчением, поскольку еще две комбинаторные задачи оставались нерешенными. Думаю, сейчас это снова в моих силах!

Хотя в этом соревновании ИИ превзошел большинство людей, есть одна загвоздка: для решения проблем требовалось значительно больше времени. В своем сообщении в Твиттере профессор сэр Тимоти Гауэрс отмечает, что участники-люди выполняют свои задания за два сеанса примерно по 4,5 часа каждый. Удивительно, но ИИ быстро решил одну проблему, но на решение остальных ушло до трех дней.

Если бы сэр Гауэрс предоставил участникам-людям больше времени на решение задачи, они, вероятно, добились бы лучших результатов.

Я должен признать, что эти достижения выходят далеко за рамки того, чего могли достичь автоматические средства доказательства теорем в прошлом. Но не волнуйтесь: по мере продвижения вперед и повышения эффективности это время, несомненно, сократится.

Вместо того, чтобы просто делать это, важно отметить, что ни один ИИ не сидел перед контрольной бумагой и не грыз карандаш. Скорее, люди взяли на себя задачу ручного перевода проблем на Lean, помощник по доказательству и язык программирования. Следовательно, автоматическая формализация этих вопросов была осуществлена ​​человеческими усилиями.

Несмотря на согласие профессора, важно отметить, что достижения ИИ выходят за рамки простого принудительного решения проблем. Вместо этого его методы предполагают большую сложность и тонкость.

«Возможно, мы находимся на пороге создания программы, способной ответить на широкий спектр математических вопросов, хотя она, возможно, не сможет справиться с слишком сложными задачами, требующими обширных исследований и времени».

Смотрите также

2024-07-26 14:02