Человек неспособен распознать более четверти звуковых дипфейков
Контент, генерируемый искусственным интеллектом, часто сложно отличить от подлинного. Это становится все большей проблемой. Уже требуются качественные инструменты для распознавания подобных дипфейков.
Как сообщает издание PLoS ONE, сотрудниками Университетского колледжа Лондона был проведен эксперимент, показавший, что люди не могут понять природу от 25 до 27 процентов звуковых дипфейков, то есть, поддельных записей, сгенерированных нейросетями.
В исследовании ученые задействовали около пяти сотен носителей английского и китайского языков. Причем, часть из них специально обучалась распознаванию дипфейков.
Опыт показал, что и эти обученные добровольцы, и самые обычные люди «с улицы» смогли указать на 73-75% дипфейков. Цифра КПД оказалась примерно одинаковой как для тех, у кого родным языком был китайский, так и для англоязычных участников.
Что касается ИИ, то системе удалось «рассекретить» абсолютно все сгенерированные аудиозаписи.
Ученые подчеркивают, что быстрое развитие нейросетей и их участие в формировании контента интернета (и не только!) ставит перед человеком новые вызовы. Уже сейчас пора приступать к разработке инструментария, который позволит минимизировать подобные риски.