«Пожалуйста, прекратите эту деятельность»: не столь открытый OpenAI, похоже, стал полноправным боссом мафии, рассылая электронные письма с угрозами всем, кто задает вопросы о его последних моделях ИИ

«Пожалуйста, прекратите эту деятельность»: не столь открытый OpenAI, похоже, стал полноправным боссом мафии, рассылая электронные письма с угрозами всем, кто задает вопросы о его последних моделях ИИ

Как опытный энтузиаст искусственного интеллекта, имеющий опыт обучения этим сложным моделям, я одновременно удивлен и разочарован недавним шагом OpenAI ограничить некоторые вопросы, касающиеся ее последних моделей. Кажется, мы вступили в новую эпоху, когда фраза «ты просишь слишком многого» приобрела совершенно новый смысл, применительно не к приговоренному человеку, а к модели искусственного интеллекта.


Вопреки традиционной традиции «просить слишком многого», OpenAI, известная компания, занимающаяся чат-ботами в области искусственного интеллекта, оказывается менее открытой, чем казалось на первый взгляд. Сообщается, что компания начала рассылать электронные письма с предупреждениями пользователям, которые интересуются ее последними моделями под кодовым названием «Strawberry» и задают вопросы, которые считаются слишком подробными или навязчивыми.

Было отмечено (через Ars Technica), что использование определенных фраз или запросов при взаимодействии с o1-preview или o1-mini может привести к появлению сообщения электронной почты следующего содержания: «Пожалуйста, прекратите это поведение и убедитесь, что вы используете ChatGPT в соответствии с нашими Условиями». Руководства по использованию и политике. Постоянные нарушения этой политики могут привести к аннулированию доступа к GPT-4o с помощью Reasoning.

Пользователь по имени Thebes утверждает, что получил предупреждение при использовании фразы «след рассуждения» в своих подсказках. Райли Гудсайд, оперативный инженер Scale AI, столкнулась с предупреждением о нарушении политики в чате из-за указания модели не раскрывать свой «след рассуждений». Похоже, это указывает на то, что некоторые подозрительные варианты допроса запрещены независимо от контекста.

Похоже, что OpenAI скрывает работу своего подхода к решению проблем своей новейшей модели, который следует последовательному или линейному мыслительному процессу. Хотя пользователи могут наблюдать упрощенную версию этой логики, OpenAI предпочитает хранить сложные детали в секрете.

По данным OpenAI, решение скрыть эти «ходы мыслей» было сделано после тщательного рассмотрения различных аспектов, таких как удобство пользователя, преимущество на рынке и возможность отслеживания последовательности рассуждений.

Все это является напоминанием о том, что, хотя технически материнская компания OpenAI является некоммерческой, реальность гораздо мрачнее. На самом деле компания имеет гибридную некоммерческую и коммерческую структуру — помните, в иске Илона Маска против OpenAI утверждалось, что компания отступила от своего первоначального учредительного соглашения, когда начала искать прибыль. Неудивительно, что какая-то коммерческая компания может захотеть сохранить конкурентное преимущество, скрывая свои коммерческие тайны, которыми в данном случае являются «цепочки мыслей».

Это также напоминание пользователям, что их чаты не являются полностью приватными и бесплатными, о чем иногда легко забыть. Ранее я работал над обучением таких моделей ИИ и могу подтвердить, что множество людей, так сказать, «внутри», могут просматривать разговоры пользователей, когда это необходимо и уместно, будь то в учебных целях или что-то еще.

Было бы здорово, если бы эти модели могли дать немного больше понимания потенциально подозрительных фраз, например, показать их мыслительный процесс или рассуждения, но, учитывая точку зрения OpenAI, кажется разумным с их стороны проявить осторожность.

Смотрите также

2024-09-19 14:17