Сотрудники одной британской фирмы вплотную приблизились к стадии конструирования индивидуального голосового тракта, которая основывается на анализе особенностей речи. То есть компьютерный голос отдельно взятого человека скоро впервые сможет воспроизвести то, чего его реальный обладатель никогда не скажет. К примеру, старый писатель или актер с экрана вдруг заговорит со своими потомками. Но есть и обратная сторона медали.
Подстроенный, синтезированный голос определенного человека может, к примеру, солгать своим же близким. Сферы применения голосового терроризма могут быть различны — от звонка из банка, когда голос знакомого вам служащего попросит провести операцию с вашим счетом, до передачи по радио обращения “главы государства”.
Комментарий руководителя производства компании по компьютерным технологиям Андрея СОЛОВЬЕВА:
— Наша компания давно занимается вопросом идентификации речи, к примеру может легко отличить пародиста от оригинала. Так что проблемы с поддельным голосом президента нам удастся избежать. А что касается утверждения британцев о создании некоего голосового “конструктора” из одной короткой фразы, я в это не слишком верю. Все же для синтезирования чужой речи требуется большой набор фраз.