Используя передовые технологии искусственного интеллекта, Microsoft разрабатывает собственные модели машинного обучения для всех своих последних инициатив в области программного и аппаратного обеспечения. Одной из иллюстраций этой возможности является VASA-1, которая преобразует отдельное изображение человека и сопровождающий его аудиофайл в реалистичное видеоизображение этого человека, говорящего на записи.
Несколько лет назад было совершенно очевидно, что что-то создается с использованием генеративного ИИ. Например, в случае с неподвижными изображениями его выдадут незначительные детали, такие как количество пальцев на руке или наличие нужного количества ног. Видео, созданные генеративным искусственным интеллектом, были еще более заметными и часто становились вирусными как мемы.
Исследование, проведенное по заказу Microsoft, выявило интригующую тенденцию: различимость генеративного ИИ будет быстро снижаться. Например, рассмотрим VASA-1, инновацию в области машинного обучения. Эта модель преобразует статическое изображение лица человека в короткое реалистичное видео путем интеграции речевого звука. Модель анализирует меняющийся тон и ритм речи и впоследствии генерирует серию новых изображений, слегка изменяя лицо в соответствии с изменениями речи.
Описания, предоставленные Microsoft, не полностью отражают его возможности, поскольку некоторые примеры исключительно впечатляют. Однако другие терпят неудачу. Очевидно, что исследователи выбрали наиболее эффективные образцы, чтобы продемонстрировать свой прогресс. Краткое видео, демонстрирующее модель в действии в реальной жизни, демонстрирует, что между реальностью и реальностью, созданной компьютером, все еще существует значительный разрыв, что позволяет предположить, что предстоит еще много работы, прежде чем это различие станет неразличимым.
Несмотря на то, что для этой задачи вместо огромного суперкомпьютера используется мощный настольный ПК с видеокартой RTX 4090, создание дипфейков на основе искусственного интеллекта вполне достижимо для большинства людей, имеющих доступ к такому программному обеспечению, как признают исследователи в своем отчете. .
Наша цель — не создавать ложный или вводящий в заблуждение контент. Однако, как и в случае с другими подобными технологиями, существует риск того, что ее могут использовать не по назначению для выдачи себя за людей. Мы решительно отвергаем любые попытки создать вводящий в заблуждение или вредный контент о реальных людях. Вместо этого мы стремимся использовать нашу технологию для улучшения обнаружения подделок.
Исследования Microsoft в настоящее время скрыты, но я не думаю, что пройдет много времени, прежде чем кто-то продублирует и улучшит эту работу, которая затем может быть использована во вредных целях. Однако, если VASA-1 сможет распознавать дипфейки и превратиться в удобное настольное приложение, это будет представлять собой значительный прогресс, то есть отдалить нас от будущего, в котором ИИ представляет угрозу нашему благополучию. Ура!
Смотрите также
- Пингвин: Кто такая София Фальконе и почему в новом сериале она известна как Палач?
- Лучшие слайдеры NHL 25 и как их использовать
- Обзор MSI MAG X870 Tomahawk WiFi
- Обзор OneXPlayer OneXFly F1 Pro
- Первые отзывы о новом ужастике с клоунами говорят, что фильм даст Терриеру серьезную конкуренцию.
- Лучшие гравировки в игре Assassin’s Creed Shadows
- Обзор KTC G27P6: «Я не могу смириться с тем, насколько хорош этот более дешевый OLED-монитор»
- Мой любимый контроллер для Asus ROG Ally только что упал до самой низкой цены.
- Unbeatable — невероятно крутая ритм-ролевая игра, «где музыка запрещена законом», которая выйдет в 2025 году.
- Объяснение фрагментов и осколков Бездны в «Первом потомке»
2024-04-22 13:35