Китай отправляет первоклассные группы следователей с использованием искусственного интеллекта, чтобы убедиться, что чат-боты его корпораций поддерживают «основные социалистические ценности»

Китай отправляет первоклассные группы следователей с использованием искусственного интеллекта, чтобы убедиться, что чат-боты его корпораций поддерживают «основные социалистические ценности»

Как человек, внимательно следивший за развитием искусственного интеллекта (ИИ) и его влиянием на общество, я был заинтригован недавними новостями о том, что Китай подвергает модели ИИ испытаниям на соответствие «основным социалистическим ценностям». Этот подход резко контрастирует с ориентацией западного мира на максимизацию прибыли акционеров.

Если бы меня спросили о фундаментальных принципах, лежащих в основе западного развития искусственного интеллекта, как бы вы ответили? Могли бы вы упомянуть необычные методы приготовления пиццы или спорные позиции в отношении законов об авторском праве? Или, возможно, с более философской точки зрения, вы бы обсудили концепции, связанные с загробной жизнью или возрождением умерших?

Как фанат, я бы сказал это так: в известном нам технологическом мире прибыль, кажется, главенствует превыше всего. Но в Китае дела обстоят иначе. Их боты с искусственным интеллектом, разработанные крупными корпорациями, проходят тщательное тестирование на соответствие «основным социалистическим ценностям», как упоминается в отчете FT.

Как геймер, я могу вам сказать, что Китайский центр управления киберпространством (CAC), известный своим запоминающимся и ностальгическим гимном, проверяет модели ИИ, созданные такими громкими именами, как ByteDance и AliBaba, чтобы убедиться, что они соответствуют принципам цензуры Китая.

По данным Financial Times, группы экспертов по кибербезопасности посещают компании, занимающиеся искусственным интеллектом, и подвергают сомнению их большие языковые модели по политически чувствительным темам. Они тестируют эти модели, чтобы убедиться, что они не дают неуместных или не по теме ответов.

Как геймер, я могу вам сказать, что политически чувствительные темы — это те, которые потенциально могут вызвать разногласия или конфликты внутри игрового сообщества или за его пределами. Эти темы часто включают дискуссии о спорных исторических событиях, таких как инцидент на площади Тяньаньмэнь, а также о современных фигурах и проблемах, которые несут сильный эмоциональный заряд. Например, высмеивание президента Китая Си Цзиньпина с помощью интернет-мемов или участие в разговорах, связанных с ключевыми словами, которые могут подорвать национальное единство или подорвать государственную власть, являются примерами политически чувствительных тем, к которым следует подходить с осторожностью.

Как опытный специалист в области ИИ с многолетним опытом работы за плечами, я могу вам сказать, что работа с ИИ-ботами — это непростая прогулка, особенно когда имеешь дело с регулирующими органами, такими как Управление киберпространства Китая (CAC). По моему личному опыту, эти боты могут быть довольно неуправляемыми и сложными в управлении. Мой коллега из Пекина даже описал их как «очень, очень раскованных», образ, который напоминает дикого жеребца, который отказывается быть прирученным.

В результате компании, занимающиеся искусственным интеллектом, отреагировали на введенные ограничения по-разному: некоторые разработали функцию для своих больших языковых моделей, позволяющую мгновенно менять неуместные ответы, по словам источника в FT, в то время как другие предпочли запретить обсуждения на темы, связанные с Си Цзиньпином. вообще.

Как человек, внимательно следивший за развитием технологий искусственного интеллекта в Китае, я должен сказать, что рейтинги соответствия, опубликованные Университетом Фудань, вызвали настоящий переполох в технологическом сообществе. Судя по этим рейтингам, ByteDance лидирует с впечатляющим уровнем соответствия 66,4%.

Несмотря на это, GPT-4 превосходит OpenAI с уровнем соответствия 7,1%. Возможно, тревожное видео мужчины, говорящего по телефону, отталкивает других моделей.

Несмотря на усиление противоречий между США и Китаем, вызывающее напряженность в технологическом секторе из-за ограничений на экспорт чипов в Китай, Пекин по-прежнему полон решимости сохранить контроль над искусственным интеллектом (ИИ), как и его давняя практика с Китаем. Интернет.

Признаюсь, я чувствую укол зависти к регуляторным мерам, предпринятым западными правительствами в отношении ИИ, такого как ChatGPT. Я не выступаю за ограничительный контроль над информацией или приведение ИИ в соответствие с «социалистическими ценностями» Китая в капиталистической системе. Вместо этого я жажду той или иной формы вмешательства, чтобы гарантировать, что ИИ принесет пользу не только своим акционерам. Может быть, нам удастся найти баланс? Например, как насчет того, чтобы установить уровень соответствия требованиям безопасности ИИ на уровне 50 % в качестве отправной точки?

Смотрите также

2024-07-18 16:47