La velocità di visualizzazione di una pagina web è influenzata principalmente da due fattori: l’efficienza dell’interprete che scandisce ed esegue il codice Html e il motore che gestisce le connessioni alla Rete, necessarie per recuperare le varie parti che compongono la pagina.
L’interprete del codice Html è un componente quasi standardizzato e diversi browser condividono porzioni rilevanti del codice sorgente che implementa questa funzionalità . La battaglia si è quindi spostata, più che altro, sulle modalità di gestione delle connessioni. Secondo uno standard fissato al tempo della formalizzazione delle specifiche Http 1.1, i programmi di navigazione avrebbero dovuto limitare il numero di connessioni dirette verso un singolo server: ogni client non avrebbe dovuto mantenere più di due connessioni aperte contemporaneamente.
Questo limite non era rivolto solo ai client: anche i server (per esempio, i proxy) potevano aprire, tra loro, un numero totale di connessioni pari al doppio del numero degli utenti serviti in quel momento. Lo scopo di queste prescrizioni era impedire la congestione della Rete. Dalla formalizzazione di queste specifiche sono passati diversi anni e l’evoluzione degli standard di comunicazione ha reso disponibili al pubblico connessioni a banda larga che prima erano appannaggio esclusivo delle grandi organizzazioni e quindi il rischio di congestionare la Rete si è notevolmente ridotto. Per questo motivo quasi tutti gli sviluppatori dei programmi di navigazione hanno deciso di allentare i vincoli descritti.
Gli ultimi browser a rispettare le specifiche sono stati Firefox 2.x e Internet Explorer 7. Con il rilascio di Firefox 3.x e Internet Explorer 8, entrambi gli applicativi hanno innalzato il numero di connessioni a 6. Opera e Safari si collocano in mezzo ai due principali contendenti e aprono fino a 4 collegamenti simultanei. Il programma di navigazione più aggressivo è Chrome, che sembra avere paletti ancor meno vincolanti. È proprio grazie a questo trucco che il browser di Google ha mostrato un’efficienza sorprendente.
C’è però un rovescio della medaglia: in alcuni casi il browser di Google ha mandato in crisi router Adsl e Wi-Fi di fascia consumer, incapaci di gestire un numero di connessioni così elevato. L’impressione è che, interprete Html e gestore delle connessioni a parte, gli sviluppatori dei browser stiano trascurando la qualità e l’efficienza del codice eseguibile. Ne sono la prova i rallentamenti di Firefox al crescere della dimensione dei dati nella cache e la pesantezza dell’interfaccia grafica del più recente Internet Explorer. Probabilmente è giunto il momento di produrre uno sforzo che porti all’ottimizzazione dei programmi nella loro interezza, in modo da consentire una piena fruibilità dei nuovi browser anche agli utenti che non sono in possesso di hardware di ultimissima generazione.