ritardo di linea
Chiedo se qualcuno è cosi gentile da spiegarmi in termini semplici, come si possa risalire ad un ritardo di un onda elettromagnetica, conoscendo la frequenza e la fase.
In sostanza mi servirebbe calcolare quanto ammonta in microsecondi il ritardo di un amplificatore di segnale, considerando che conosco la frequenza e il ritardo di fase.
Per esempio due segnali a 979Mhz arrivano con sfasamento di 62°, quanto è il ritardo in microsecondi?
Grazie e scusate se la domanda sembra sciocca.
In sostanza mi servirebbe calcolare quanto ammonta in microsecondi il ritardo di un amplificatore di segnale, considerando che conosco la frequenza e il ritardo di fase.
Per esempio due segnali a 979Mhz arrivano con sfasamento di 62°, quanto è il ritardo in microsecondi?
Grazie e scusate se la domanda sembra sciocca.

in termini di frazione del periodo, ovvero
.