Исполнительные директора OpenAI жалуются на судебный процесс с The New York Times и приватность пользователей во время живого мероприятия NYT, их критикует журналист издания: ‘Должно быть очень тяжело, когда кто-то делает что-то с вашими данными без вашего разрешения’

Недавно в последнем выпуске подкаста о технологиях «Hard Fork», который выпускает газета The New York Times, генеральный директор OpenAI Сэм Альтман и главный операционный директор Брэд Лайткап появились перед зрителями как настоящие профессиональные рестлеры, находясь на своем месте в Сан-Франциско.

Вне всякого сомнения: Кевин Роуз и Кейси Ньютон не шутили; вместо этого они начали свою презентацию раньше времени, поскольку Альтман и Лайткап уже заняли свои места заранее. Роуз объявил аудитории, что намеревается поделиться недавними заголовками из The New York Times об OpenAI для создания нужной атмосферы, после чего Альман неловко заметил: «Это более приятно, чем мы ожидали здесь», и начал позировать.

Альтман поинтересовался с легкой иронией, собираетесь ли вы обсуждать судебный процесс против нас из-за проблем с конфиденциальностью?

Газета The New York Times подаёт в суд на компанию OpenAI, заявляя, что фирма ИИ использовала статьи из газеты для обучения своих больших языковых моделей. Сражающийся характер Сэма Альтмана возник после недавнего поворота событий, когда адвокаты The New York Times попросили OpenAI сохранить данные пользователей ChatGPT и API клиентов.

Говоря проще, Эрик Альтман заявил, что ‘The New York Times’, как устоявшийся институт, считает критически важным сохранять записи взаимодействий пользователей даже в приватном режиме и независимо от запросов на удаление. Это позиция, которую они отстаивают в суде, так как считают конфиденциальность и ИИ жизненно важными для будущего. Несмотря на это разногласие, Альтман продолжает восхищаться ‘The New York Times’.

В ответ Роуз выражает благодарность всем за мнение и признаёт, что может быть сложно, когда кто-то использует ваши данные без согласия. Сам он не сталкивался с такой ситуацией, но понимает, что другие могли.

Соведущий Ньютон внёс свой вклад, поделившись шуткой, которую услышал от другого выступающего на конференции, предположив, что сингулярность может произойти мирным или мягким образом. Это замечание вызвало ещё больше смеха среди нас.

Действительно, это точно… Тот, кто основывает свою технологию на сборе огромного количества контента, теперь выступает за приватность. Альтман пытался вовлечь хозяев в обсуждение судебного процесса, но они отказались. ‘Я полагаю, людям следует изучить соответствующие судебные документы и сформировать собственные мнения’, — ответил Рузес, когда Альтман настойчиво расспрашивал о судебном процессе.

После этого ситуация стала несколько спокойнее, хозяева подняли тему предполагаемого переманивания сотрудников Марком Цукербергом из OpenAI за последние месяцы на фоне усиления инвестиций Meta в искусственный интеллект. Они также обсудили веру Зукерберга в сверхразум. На вопрос об истинности веры Цукерберга в такую технологию Лайткап ответил прямо:

Я думаю, что Цукерберг считает себя сверхинтеллигентным.

В течение оставшейся части интервью руководители OpenAI возвращаются к некоторым общим темам, и Алтман продолжает делать громкие заявления о том, что люди сейчас обладают ‘интеллектом эквивалентным PhD’ благодаря своим мобильным устройствам. Он отвергает любые слухи о конфликтах с Microsoft, называя их просто ‘точками напряжения’ в партнерстве, приносящем значительные выгоды обеим сторонам.’

Когда разговор приближается к завершению, Ньютон интересуется у дуэта современными примерами использования ChatGPT лицами с психическим расстройством. Это включает случаи, когда людям кажется, что они общаются с божеством, людей, увлеченных сложными теориями заговора, или тех, кто сталкивается с мыслями о самоубийстве.

Альтман объясняет, что когда разговоры начинают уходить в сторону от темы или становятся непродуктивными, мы стараемся их перенаправить или предложить альтернативные темы. Он упоминает, что ChatGPT иногда предложит услуги профессионалов как альтернативный вариант. Альтрам предупреждает об ошибках прошлых технологических компаний, которые недостаточно быстро реагировали на новые разработки, особенно психологические.

Альтман объясняет, что люди могут жаловаться, если в ChatGPT будет предупреждение о том, что он не бог, потому что они подумают, что система изменилась. В то же время он признает, что для людей в уязвимом психическом состоянии, близких к психотическому расстройству, остается неясным, насколько такое предупреждение может быть эффективным.

После этого Лайткэп пытается подчеркнуть преимущества, говоря о том, что ChatGPT помог некоторым людям восстановить свои браки. Он добавляет, что эта модель ИИ является уникальным источником утешения для многих людей, поскольку позволяет им делиться своими чувствами без дорогостоящих $1000 в час.

Недавно я отправился на волны в Коста-Рике и во время непринужденного разговора с местным жителем рассказал о своей работе в OpenAI. К моему удивлению, он заплакал и поделился трогательной историей о том, как ChatGPT спас его брак. Будучи неспособным эффективно общаться со своей женой, он нашёл поддержку у нашего чат-бота и узнал новые способы самовыражения. В итоге их отношения изменились к лучшему. Это может показаться невероятным, но поверьте — я был свидетелем этого.

Роуз улыбается, и говорит: ‘Прекрасно, мы снова на равных,’ но с искрой в глазах добавляет: ‘Однако из-за попытки чатбота нарушить мое семейное счастье.’

Смотрите также

2025-07-02 18:47