
![]() |
Наши проекты:
Журнал · Discuz!ML · Wiki · DRKB · Помощь проекту |
|
ПРАВИЛА | FAQ | Помощь | Поиск | Участники | Календарь | Избранное | RSS |
[216.73.216.249] |
![]() |
|
Сообщ.
#1
,
|
|
|
Альтернативный метод извлечения информации из звукового сигнала без спектрального анализа
Здравствуйте, коллеги. Хочу поделиться концепцией простого способа представления звукового сигнала, который может быть полезен для анализа речи, музыки и других аудиоформ. Метод не использует спектральный анализ, нейросети или шаблонное обучение. Вместо этого он опирается на регистрацию ритмических соотношений сигнала во времени — по сути, превращая его в цифровую азбуку Морзе. Суть метода В результате получаем последовательность событий, отражающую изменение частоты, ритма и структуры сигнала. Это не спектр и не шаблон, а своего рода частотно-временная морзянка. Что даёт метод Псевдокод ![]() ![]() loop every 1ms: if signal(t_now) > threshold: write(".") else if signal(t_now - delay) > threshold: write("-") else: skip Важно: я сам не занимаюсь программированием и не запускал код, надеюсь на помощь и комментарии тех, кто сможет реализовать эту идею практически. Сам алгоритм, по ощущениям, легко ложится в любую платформу — будь то Python, Arduino или даже простая цифровая логика. ИИ вроде ChatGPT может выдать код за минуту, но мне важно мнение опытных специалистов: стоит ли этим заниматься, какие тут подводные камни и есть ли практическая польза? С уважением, [babai.rais |