Non è la stessa, ma poco ci manca.
Gli switch (almeno, quelli di prezzi umani) sono store & forward (conserva e inoltra), il che significa che lo switch prima recupera tutto il frame (store) e poi lo manda verso la porta ethernet adatta (forward).
In un ambito con un unico switch il ritardo è quindi di uno "store", cioè il frame prima d'iniziare la trasmissione verso la destinazione dev'essere stato ricevuto completamente, in un ambito con due switch invece gli "store" sono due in quanto il secondo, funzionando come il primo, vorrà effettuare lo "store" del frame trasmesso dal primo switch per iniziare a ritrasmetterlo (con un cavo cross non c'è, ovviamente, ritardo di store).
Nella pratica hai un minimo di lag in più (ma nulla di umanamente percettibile) e nulla più, e questo perché in una connessione TCP i pacchetti vengono mandati "a flusso" ed il "trasmettitore" si ferma solo quando ha riempito la finestra d'invio.
Nel dettaglio ogni connessione TCP ha una "finestra" d'invio, che è X bytes... funziona così: se il destinatario t'ha confermato d'aver ricevuto i primi Y bytes tu manda da Y a Y+X.
Quando il trasmettitore arriva ad Y+X "vede" se Y è aumentato (cioè se la destinazione ha mandato qualche ACK), se è aumentato allora "aggiorna" il valore di Y+X e continua, altrimenti rimane in pausa in attesa che arrivi l'ACK (o che ci sia un timeout).
Nella pratica le finestre d'invio sono abbastanza larghe (e, in buona parte delle implementazioni TCP/IP sono anche "autoconfiguranti", cioè possono "allargarsi" o "rimpicciolirsi" a seconda dell'andamento della singola connessione) e non c'è mai il problema.
__________________
A casa ho almeno sette PC, in firma non ci stanno
|