Baidu совершила прорыв в области технологии клонирования голоса

Компания Baidu поделилась своими последними техническими разработками в сфере искусственного интеллекта. На основе нейронной сети была создана программа, позволяющая клонировать голос человека даже с особенностями акцента.

Важным достижением «китайской Google» в этой технологии является то, что для имитации голоса в их новой программе достаточно даже несколько секунд исходного материала (образца голоса человека, который необходимо изобразить искусственно).

Предыдущие разработки инженеров Baidu не позволяли копировать голоса людей без обязательного 30-минутного фрагмента исходного голоса. Тогда их опередили Adobe с её продуктом VoCo, которым было достаточно для анализа и 20 минут. Lyrebird достигла максимума в 1 минуту имеющегося оригинала.

Сегодня последнее слово в этой области несомненно за китайцами, которые совершили научный рывок в усовершенствовании программ голосовых имитаций для них разработка нейронных сетей стала ключевым шагом для выхода на мировой рынок.

Технология клонирования голоса может использоваться не только для мелкого бытового развлечения, но и с большой практической пользой. Например, представим человека, который лишился речи и снова заговорившего, пусть даже и с помощью машинного голоса. Или, допустим, вашего ребенка, который привык слушать ваш голос перед сном, но так получилось, что вы не можете быть рядом и даже позвонить. Хотите, чтобы персонализированный цифровой ассистент разговаривал человеческим голосом, а не компьютерным? И тогда на помощь тоже придет технология клонирования голоса.

Но, как и любое другое гениальное человеческое изобретение, данная технология может использоваться не только во благо конкретных людей и прогресса общества в целом, но и для незаконных злоупотреблений. Журналисты New Scientist провели эксперимент, который выявил, что программа настолько идеально создает клон голоса, что система распознавания голоса почти в 100 % случаев не может отличить подделку. И если люди по четырёхбальной шкале оценивают качество образцов на 3,6 балла – то в скором времени этим феноменальным сходством реальных голосов людей и их машинных копий могут непременно воспользоваться разного рода мошенники и аферисты.

Сегодня в Интернете мы уже наблюдаем появление роликов в стиле порно со знаменитостями, где применяют искусственные нейронные сети — заменить их лицами лица порноактёров давно не проблема, ведь уже есть такие программы, которые при помощи нейросетей имитируют или изменяют на видео лицо человека. Поэтому вполне реально ожидать, что при совмещении этой технологии видео и технологии клонирования голоса мир может столкнуться с хаосом недостоверных новостей, когда важные политики всех стран и деятели различных сфер науки, искусства и др. будут вещать то, что задумали злоумышленники, а не то, что они сами сказали бы в предложенных обстоятельствах.

Уже сейчас большинство людей обманываются от результатов манипулирования с тем же ставшим привычным даже обывателям и детям Photoshop. А если искусственный интеллект, по возможностям в миллиарды раз превосходящий все уже привычные нам программы типа фотошопа, попадёт в руки злых гениев — мир столкнётся с огромными проблемами.

ВАШ КОММЕНТАРИЙ: