Как человек, внимательно следящий за развитием искусственного интеллекта и его этическими последствиями, я должен признаться, что это похоже на катание на американских горках с легкой тревогой. Недавняя волна ухода из OpenAI старших исследователей безопасности ИИ — это не просто повод для беспокойства, но и красный флаг того, что корабль, возможно, отклоняется от курса.
Как страстный геймер и заядлый пользователь этой удивительной платформы, которую мы все знаем как ChatGPT, я слежу за слухами о ее создателе, OpenAI. Недавно некоторые опытные исследователи из отдела безопасности ИИ OpenAI решили двигаться дальше. Этот массовый исход, похоже, связан с изменениями в корпоративной культуре и отсутствием приверженности обеспечению безопасного развития ИИ, который, по их мнению, имеет решающее значение для нашего будущего.
По сути, даже если корабль не протекает, тот факт, что спасательная команда покидает его на небольшой лодке, вызывает некоторые опасения.
Рози Кэмпбелл, ранее возглавлявшая команду Policy Frontiers, недавно объявила о своем уходе. В своем личном Substack (через Tweak Town) Кэмпбелл поделилась прощальным посланием своим коллегам в Slack. В нем она заявила, что, хотя она всегда была страстно привержена обеспечению безопасного и выгодного искусственного общего интеллекта, теперь она чувствует, что может оказать большее влияние на эту миссию за пределами организации.
Проще говоря, Кэмпбелл указывает на расформирование группы готовности к искусственному общему интеллекту (AGI) и уход Майлза Брандейджа, эксперта по безопасности ИИ, как на важные причины, побудившие ее собственный выбор двигаться дальше.
Ранее Кэмпбелл и Брандейдж сотрудничали в OpenAI, уделяя особое внимание управлению ИИ, решению политических проблем, связанных с передовыми технологиями, и подготовке к появлению общего искусственного интеллекта.
Своими словами я бы перефразировал это следующим образом: Еще в октябре Брандейдж записал свои мысли о Substack, выразив некоторые причины своего ухода из OpenAI. Он заявил: «Я считаю, что ИИ не сможет полностью реализовать свой потенциал безопасности и пользы без коллективных усилий по обеспечению этого». На своей предыдущей должности старшего советника по готовности AGI он выразил уверенность, что сможет оказать большее влияние, работая за пределами организации.
Всего несколько месяцев назад я размышлял об уходе Яна Лейке с должности соруководителя команды Superalignment OpenAI. Перед этой командой была поставлена монументальная задача — обеспечить, чтобы будущие системы искусственного интеллекта, гораздо более умные, чем мы, люди, по-прежнему соответствовали нашим основным ценностям — задача, которую они должны были решить всего за четыре года. Говоря о сжатых сроках!
Как геймер, я не привязан к какой-то конкретной отрасли, как Майлз Брандейдж. Вместо этого я обнаружил, что вступаю в новую роль одного из независимых голосов в политическом дискурсе. Тем временем мой коллега Лейке сейчас совместно возглавляет команду Alignment Science в Anthropic, конкуренте в области искусственного интеллекта, который только что получил огромные инвестиции в размере 4 миллиардов долларов от Amazon.
Покинув OpenAI, Лейке высказал X своё мнение об организации. Его высказывания, мягко говоря, были прямолинейны.
«Создание машин, которые умнее человека, — это по своей сути опасное предприятие», — написал он, прежде чем напрямую раскритиковать компанию. «OpenAI берет на себя огромную ответственность от имени всего человечества. Но за последние годы культура и процессы безопасности претерпели изменения. на заднем плане блестящие продукты».
Далее он призывает: «OpenAI должна стать компанией AGI, ориентированной на безопасность».
В уставе компании изложено обязательство служить «большому благу человечества» и создавать «безопасный и выгодный общий искусственный интеллект (AGI)». Но поскольку OpenAI значительно расширилась с момента своего создания в конце 2015 года, есть признаки того, что его фокус может меняться.
Первоначально в сентябре сообщалось, что компания планирует выйти из благотворительного фонда.
Вот еще один момент: несколько крупных канадских новостных агентств подали в суд на OpenAI из-за своей практики включения новостных статей в свои модели большого языка. На базовом уровне сложно понять, насколько широкое распространение плагиата может быть полезно для человечества, и эта дискуссия даже не затрагивает потенциальные долгосрочные экологические последствия технологии искусственного интеллекта.
В рамках аналогичной разработки компания Future PLC, курирующая PC Gamer, недавно объявила о «стратегическом альянсе» с OpenAI. Это сотрудничество предназначено для потенциального обмена контентом своих брендов с помощью ChatGPT, а не для сбора данных без разрешения. Тем не менее, специфика этого партнерства остается неясной, поскольку никаких подробностей пока не разглашается. Следовательно, мы все еще в неведении относительно того, как именно это будет развиваться.
Что касается развития искусственного интеллекта и больших языковых моделей, важно учитывать, что существенные корректировки еще могут быть внесены, однако есть веские причины рассмотреть возможность полного изменения направления, даже полностью оставив позади путь искусственного интеллекта.
Лучший игровой ПК: лучшие готовые машины.
Лучший игровой ноутбук: отличные устройства для мобильных игр.
Смотрите также
- Шоураннер Arcane говорит, что сексуальная сцена Кейт и Ви изначально была длиннее и, казалось бы, более наглядной: «Мы получили пощечину»
- Будет ли Call of Duty: Black Ops 6 на PS5 и PS4?
- Объясняются сцены после титров «Моаны 2»: сколько их и создает ли она потенциальную «Моану 3»?
- Обзор Blacklyte Kraken
- Renaissance Kingdom Wars — это приятный простой гибрид Crusader Kings, Total War и Age of Empires.
- Knights of Honor 2: Sovereign Читы и консольные команды
- Читы Stardew Valley: каждый необходимый вам чит-код, никаких модов не требуется.
- Патч Crusader Kings 3 вносит изменения в эпидемии и добавляет новые цепочки исторических событий для DLC Legends
- Анализ производительности «Сталкера 2: Сердце Чернобыля» — трассировка лучей доступна всем, но вступительный взнос высок
- Стоит ли отдавать Сенсоры Рихтеру или Зотову в СТАЛКЕР 2
2024-12-05 21:17