Исследователи из южнокорейского университета POSTECH разработали гибкий датчик, способный преобразовывать беззвучную артикуляцию в слышимую речь. Устройство фиксирует микроскопические деформации кожи шеи, а искусственный интеллект расшифровывает эти паттерны и синтезирует голос, позволяя человеку общаться, не произнося ни звука.
Технология опирается на физиологический аспект речи: даже когда мы не задействуем голосовые связки, мышцы и кожа шеи совершают характерные движения. Ученые создали мультиосевой сенсор из эластичного силикона, который плотно прилегает к телу и улавливает мельчайшие изменения поверхности. В отличие от громоздких медицинских установок вроде электромиографов, этот прибор компактен и автоматически калибруется при смене положения на теле.Собранные данные обрабатывает нейросеть, которая сопоставляет динамику растяжения кожи с конкретными словами. На выходе система выдает синтезированный голос, максимально приближенный к естественному тембру пользователя. Точность распознавания сохраняется даже в шумной среде, где обычные микрофоны пасуют перед внешними помехами. Это делает разработку пригодной для повседневного использования в офисах или на производстве.
В первую очередь гаджет предназначен для реабилитации людей с повреждениями гортани, возвращая им возможность полноценного общения. Однако разработчики POSTECH видят потенциал технологии и в массовой потребительской электронике. Она позволяет отдавать команды умным устройствам в полной тишине, не привлекая внимания окружающих. В перспективе такие носимые датчики могут стать основой для интуитивного взаимодействия с ИИ, полностью исключая необходимость в традиционном звуковом вводе данных.
Комментарии (0)
Пока нет комментариев. Будьте первым!