Il jitter è definito come la presenza, in un segnale, di errori di temporizzazione indesiderati, con cambiamenti dei fronti che avvengono o un po’ prima o un po’ dopo rispetto a quanto previsto. Sebbene una certa quantità di jitter sia inevitabile, è possibile ridurla una volta determinate le sue cause. Metodi efficienti di analisi del jitter significano test accurati; comprenderne l’origine e saperlo misurare influenza la capacità di sviluppare progetti affidabili.
I segnali puliti hanno una loro valenza, se c’è troppo jitter il dispositivo a cui sono destinati finirà per decodificare qualcosa di completamente diverso da quello che è stato trasmesso.
All’ingegneria di ricerca e sviluppo è richiesto di produrre progetti digitali puliti e veloci in tempi brevi e con precisi requisiti di convalida. Un passo fondamentale lungo questo percorso è ridurre la quantità di jitter introdotto nel progetto: comprendendo lo sviluppo, misurandolo correttamente e trovandone la fonte. Meno jitter è presente, più è probabile che il progetto sia robusto e possa passare alla fase successiva di sviluppo.
Il jitter è definito come la presenza, in un segnale, di errori di temporizzazione indesiderati, con cambiamenti dei fronti che avvengono o un po’ prima o un po’ dopo rispetto a quanto previsto. Un jitter eccessivo provoca un’errata interpretazione dei bit sul lato ricevente, causando infine potenziali errori di sistema.
Quando si vede una distribuzione gaussiana su un istogramma, ciò indica un jitter casuale e non c’è molto che si possa fare al riguardo. Tuttavia, se si vede una distribuzione non gaussiana, ciò indica un jitter deterministico/periodico, che può essere controllato e ridotto più facilmente.
Si utilizza l’istogramma dell’oscilloscopio, il grafico del trend dei ritardi e il diagramma a occhio per comprendere appieno la quantità di jitter presente sul segnale e se rientra nell’intervallo accettabile; in caso contrario si deve intervenire sul progetto.
Il Jitter
Il jitter si innesca quando si verificano rumore e variazioni di fase sui fronti, causando errori di temporizzazione nel segnale. Come semplice esempio, si consideri un segnale dati di base (la traccia arancione nella Figura 1).
Per analizzare un dispositivo embedded per applicazioni di dati seriali, un clock di riferimento viene derivato dal flusso di dati in ingresso e utilizzato insieme al segnale in ingresso al ricevitore per ricostruire i dati. Il clock di riferimento consente al ricevitore di considera essenzialmente quei punti regolarmente distanziati nel tempo. Questa operazione gli consente di vedere qual’é la tensione del segnale in ciascuno di questi punti. Sulla base di ciò che interpreta da tale processo, ricostruisce il flusso di dati, che alla fine dovrebbe corrispondere a ciò che ha inviato il trasmettitore.
Tuttavia, sorgono problemi se nel segnale viene introdotta una quantità significativa di jitter. Se i bit nel segnale ricevuto presentano una elevata quantità di jitter, non si sincronizzeranno correttamente con il clock di riferimento. Ciò significa che il ricevitore potrebbe finire per vedere bit errati nei vari cicli di clock e, quindi, decodificare i dati in modo sbagliato.
I contrassegni “x” rossi sulla traccia arancione nella figura 1 mostrano gli errori di temporizzazione che si verificano quando un segnale presenta jitter. Si nota che ci sono alcuni casi in cui i fronti di salita o di discesa si verificano troppo presto o troppo tardi. Ciò può essere visualizzato su un oscilloscopio utilizzando la modalità di visualizzazione della persistenza. Se un fronte di salita si verifica troppo tardi, il ricevitore interpreterà erroneamente il bit.
La differenza tra il momento in cui si verificano effettivamente le variazioni dei fronti e il momento in cui dovrebbero teoricamente verificarsi è chiamato errore di intervallo di tempo (TIE, Time Interval Error). Naturalmente sarà sempre presente una certa quantità di jitter nel segnale, e di questo ne tiene conto la maggior parte dei progetti, che prevede specifiche per la tolleranza al jitter. Il problema nasce quando si supera la quantità riportata nelle specifiche.
Perché il jitter non è trascurabile
Come accennato in precedenza, se il segnale non è sincronizzato con il clock di riferimento e il jitter supera il livello tollerabile, il ricevitore finirà per interpretare i bit in modo errato.
Come semplice esempio si consideri quanto accade nella Figura 2, dove 100 è il dato binario trasmesso. La presenza del jitter nella forma d’onda ricevuta ha fatto sì che al ricevitore il secondo bit apparisse come un 1, quando in realtà il bit trasmesso era uno 0. Quindi, il ricevitore ha decodificato 110.
Non importa quanto buono possa essere il progetto, ci sarà sempre un certo numero di bit ricevuti in modo errato. Il rapporto tra i bit errati e il totale dei bit inviati è chiamato Bit Error Ratio (BER). Ovviamente è desiderabile che questo valore sia il più basso possibile, almeno al di sotto dell’obiettivo dichiarato dalle specifiche; ad esempio, per USB 3.0 è 1E-12 BER (1 × 10-12). Per limitare il BER, è necessario comprendere i diversi tipi di jitter che contribuiscono a generare questi errori di bit.
Jitter casuale e deterministico
Per garantire che il jitter nei segnali non raggiunga livelli dannosi, è importante comprendere i vari tipi di jitter e la loro origine.
Il modello a cui si fa riferimento è Dual Dirac jitter; questo modello è un semplice strumento per stimare il jitter totale definito come rapporto di errore in bit (BER). È utilizzato per componenti e sistemi di dati seriali. In virtù del fatto che può essere utilizzato per combinare RJ (random jitter) e DJ (deterministic jitter) di diversi elementi per prevedere il jitter totale (TJ) di un sistema, il modello Dual Dirac è uno strumento chiave nelle specifiche per i collegamenti di dati seriali.
Il jitter casuale (RJ) è un jitter intrinseco, il più difficile da eliminare. È causato da fattori come:
- thermal noise (o rumore termico) che è associato al flusso di elettroni in un conduttore ed aumenta con l’ampiezza di banda, la temperatura e la resistenza al rumore.
- shot noise, il rumore dovuto ad elettroni e lacune in un semiconduttore in cui la corrente di polarizzazione e la larghezza di banda ne determinano l’entità.
- “pink” noise, che è il rumore spettralmente correlato a 1/f.
Ci sono alcuni passaggi che è possibile eseguire per ridurlo nel dispositivo, ma non è possibile liberarsene completamente.
Il jitter deterministico (DJ) è causato da difetti di progettazione e limitazioni fisiche del dispositivo. Ciò include il Duty Cycle Distortion (DCD), l’InterSymbol Interference (ISI), il jitter sinusoidale (o periodico PJ), la diafonia, il disadattamento di impedenza e altro ancora. È più probabile controllare ed eliminare questo tipo di jitter che il precedente.
Verso l’analisi del problema
Esistono diversi modi per visualizzare e misurare il jitter utilizzando un oscilloscopio.
Il primo passo per misurarlo è regolare la base dei tempi dell’oscilloscopio per acquisire più periodi del segnale. L’oscilloscopio confronta quindi questi periodi con il clock di riferimento, che viene prodotto nel clock recovery. Nella comunicazione seriale di dati digitali, il clock recovery è il processo di estrazione delle informazioni di temporizzazione dal flusso stesso di dati seriale, consentendo di determinare con precisione la temporizzazione dei dati senza informazioni di clock separate.
Questo clock di riferimento fornisce il bit rate ideale, di cui l’oscilloscopio ha bisogno per determinare se un segnale è in linea con quello ideale o dove sono presenti errori. Da questo confronto l’oscilloscopio ricava i valori TIE, che possono poi essere visualizzati in vari formati.
La velocità in bit ideale può essere calcolata completamente dall’oscilloscopio utilizzando una stima inserita, oppure inserendo manualmente una specifica esatta. Quest’ultima è la più precisa, mentre la prima opzione è la meno precisa, ma è la più semplice da configurare.
Una volta impostato il bit rate, inizia l’analisi. L’applicazione EZJIT di Keysight per gli oscilloscopi Infiniium semplifica la misurazione e l’analisi del jitter in una varietà di formati grafici.
Il software per ottimizzare l’analisi
Le funzionalità del software EZJIT di Keysight che ottimizzano l’analisi del jitter includono:
• Procedura guidata facile da usare.
• Accesso a 16 trend e istogrammi di misurazione in tempo reale.
• Totale compatibilità con altri software Infiniium come Equalizzazione e InfiniiSim.
• Visualizzazione dello spettro del jitter.
Gli istogrammi del jitter, le tendenze e il tempo dello spettro correlato al segnale in tempo reale facilitano il tracciamento delle fonti di jitter. La profondità di memoria, l’estesa analisi parametrica e il clock recovery garantiscono la possibilità di effettuare le misurazioni richieste sui segnali desiderati, in tutta sicurezza.
Il wizard del software di analisi del jitter EZJIT aiuta a configurare rapidamente gli oscilloscopi Infiniium per iniziare velocemente ad effettuare le misure. Con la visualizzazione dell’andamento del jitter correlato al tempo e la visualizzazione della forma d’onda del segnale, le relazioni tra il jitter e le condizioni del segnale sono più chiaramente visibili. I display intuitivi e la chiara identificazione delle informazioni facilitano la comprensione dei risultati delle misurazioni.
È possibile scegliere il clock recovery a frequenza costante o a phase-locked loop (PLL), nonché utilizzare un clock esplicito su un altro canale di ingresso per cronometrare la transizione dei dati. Con il clock recovery PLL, la velocità dei dati e la larghezza di banda del loop sono regolabili. Il phase-locked loop è un sistema di controllo che genera un segnale di uscita la cui fase è fissa rispetto alla fase del segnale di ingresso.
Molti standard consentono l’uso del clock a spettro esteso per evitare di concentrare EMI e RFI su frequenze specifiche. Il clock a spettro esteso è semplicemente la modulazione FM della frequenza di clock, solitamente a una frequenza ben al di sotto della frequenza di clock. La larghezza di banda del PLL nell’hardware del ricevitore consente di tracciare il cambiamento lento nella frequenza di clock, consentendo al tempo stesso di misurare cambiamenti più rapidi.
Profondità di memoria e analisi
La profondità di memoria è particolarmente preziosa per l’analisi del jitter. La memoria da 2 Gpts sull’oscilloscopio Keysight 90000 Serie X e Serie Z è utile per misurare il jitter a bassa frequenza. Con una frequenza di campionamento di 80 GSa/s e una velocità dati in entrata di 2,5 Gb/s, 2 Gpts consentono di acquisire componenti di frequenza del jitter fino a 40 Hz. Comparabilmente nelle serie 90000A e 9000, la frequenza di campionamento di 20 GSa/s e la memoria da 1 Gpts consentono di acquisire jitter di frequenza fino a 40 Hz. In alcuni casi non è necessaria la misurazione del jitter a bassa frequenza; ad esempio, il PLL del clock recovery nella maggior parte dei ricevitori dati seriali può respingere il jitter in modo molto efficace a frequenze moderatamente basse. Ma a volte un evento che si verifica con una frequenza di ripetizione bassa può causare un incremento elevato di jitter o di rumore con frequenze più elevate che il PLL non può respingere.
L’istogramma mostra i valori di temporizzazione TIE sull’asse x con la frequenza con cui tali valori si verificano nel segnale sull’asse y. La funzione più importante dell’istogramma è che aiuta a determinare se il jitter nel segnale è casuale o deterministico e approssimativamente in quali proporzioni.
Un altro formato per visualizzare il jitter è il grafico del trend TIE, che mostra i TIE sull’asse y e i punti nel tempo in cui si verificano sull’asse x. Questo mostra le tendenze TIE nel tempo, consentendo di vedere se c’è qualche modulazione o uno schema ripetuto di errori.
Uno dei formati più popolari per visualizzare il jitter è un diagramma a occhio. Quando il segnale arriva, viene suddiviso in combinazioni di transizione di bit (o serie di tre bit) e queste singole tracce si sovrappongono l’una sull’altra. In totale esistono 8 possibili combinazioni di transizione di bit, come illustrato nella figura 5.