ФБР рекомендует придумать «секретное слово или фразу», чтобы ваша семья знала, что вы — это вы, а не какой-то адский подражатель ИИ.

Как опытный геймер и энтузиаст технологий с многолетним опытом за плечами, я не могу не испытывать смесь трепета и беспокойства, когда дело касается быстро развивающейся области искусственного интеллекта. Способность озвучивать людей-клонов действительно впечатляет, но это также палка о двух концах, которая потенциально может привести к серьезным проблемам.

Представьте себе такой сценарий: человеку звонит, кажется, от любимого внука и просит денег в экстренной ситуации. Это убедительно, и ситуация кажется реальной. В таком случае ФБР может посоветовать им ответить чем-то неожиданным, например: «Что осел говорит трубкозубу?» Этот вопрос призван нарушить ход разговора, потенциально показывая, действительно ли на другом конце провода их внук.

Хотя достигнут значительный прогресс, генеративный ИИ в создании изображений и видео иногда не справляется, а воспроизведение голоса в настоящее время весьма впечатляет. С ростом популярности голосового клонирования ФБР предоставило рекомендации (через Ars Technica), как защитить себя, например, придумать уникальное кодовое слово или фразу, которая известна только вам и вашей семье.

Вокальное клонирование — это метод использования нескольких записей голоса человека для обучения модели искусственного интеллекта имитированию его обычных речевых ритмов, интонаций, высоты и тона. Например, он использовался при создании «хостов подкастов» Google для системы NotebookLM, из-за чего при прослушивании было сложно отличить реальных людей от искусственного интеллекта.

Не обязательно быть специалистом в области искусственного интеллекта, чтобы осознать возможность злоупотребления такой технологией в злонамеренных целях. Даже если для создания клона кому-то потребуются подлинные записи вашего голоса и речи, все равно остается вероятность того, что кто-то попытается использовать это, выдавая себя за вас в мошеннических целях.

Как преданный энтузиаст, я хотел бы поделиться интригующей концепцией: речь идет о нашем уникальном человеческом прикосновении – думайте об этом как о секретном коде или фразе, которая связывает нас с нашими близкими, или, точнее, о многоуровневой системе безопасности. где ваш голос — это один уровень, а пароль — другой. Системы искусственного интеллекта, будучи такими же умными, могут бороться с абсурдом и бессмысленностью, поскольку такие выражения обычно не вписываются в их предсказуемые модели общения.

Когда я спрашиваю: «Что осел говорит трубкозубу?» и получить неожиданный или бессмысленный ответ, это мгновенно вызывает у меня подозрение в подлинности сообщения.

Система обнаружения ИИ не безупречна, поскольку она полагается на то, что все участники запоминают свои пароли, быстро дают правильные ответы и готовы сделать это спонтанно. Если бы моя мама неожиданно спросила меня об ослах и трубкозубах, я бы, вероятно, ответил что-то вроде: «Э-э… ​​что?» прежде чем каждый раз от удивления вешать трубку.

Кроме того, рассмотрите случаи, когда по телефону звонит не родственник, а ваш руководитель или работодатель в офисе. Должен ли каждый человек использовать разные пароли в таких ситуациях, чтобы предотвратить мошенничество с компанией?

Имитацию голоса искусственного интеллекта можно рассматривать как логическое развитие типичных попыток фишинга, когда вышестоящая фигура, по-видимому, запрашивает у вас средства или конфиденциальные данные – если рассматриваемое лицо широко известно и записи его речи доступны, эти обманные действия могут стать весьма простой.

К сожалению, похоже, что не существует надежного подхода к борьбе с голосовым мошенничеством с использованием ИИ. Даже если ведущие компании, занимающиеся искусственным интеллектом, такие как OpenAI, Google и Microsoft, внедрят системы, которые постоянно отличают ИИ от реального человека во время разговора, все равно найдутся люди, которые смогут разработать сопоставимую модель, которая этого не делает.

Надеюсь, более умные люди, чем я, работают над решением этой сложной проблемы.

Смотрите также

2024-12-09 18:47