Managed Server S.r.l. presenta HostingAnalyzer.it: il nuovo strumento in cloud per analizzare le performance di un sito web e la qualità dell’hosting

Managed Server S.r.l., azienda specializzata in hosting ad alte prestazioni e soluzioni di sistemistica Linux, ha sviluppato HostingAnalyzer.it, un nuovo software in cloud progettato per analizzare in maniera approfondita le performance di un sito web e valutare l’efficienza dell’infrastruttura di hosting sottostante.

Questo strumento nasce con un obiettivo preciso: offrire agli utenti un sistema semplice, affidabile e trasparente per comprendere le reali capacità del proprio server, andando oltre le semplici promesse commerciali dei provider.


Un software pensato per chi cerca dati concreti, non solo marketing

Nel mercato dell’hosting, spesso è difficile orientarsi. Molti fornitori pubblicizzano prestazioni eccellenti e tempi di caricamento rapidissimi, ma la realtà, nella maggior parte dei casi, è molto diversa.
Managed Server S.r.l. ha sviluppato HostingAnalyzer.it proprio per colmare questo vuoto, fornendo a webmaster, sviluppatori, agenzie e aziende uno strumento professionale che consenta di analizzare i dati reali e comprendere dove si nascondono i veri colli di bottiglia.

Hostinganalyzer

Il software consente di valutare parametri tecnici fondamentali per le performance di un sito e fornisce un report chiaro, dettagliato e comprensibile, che permette di individuare con precisione i punti di forza e le aree di miglioramento.


Come funziona HostingAnalyzer.it

HostingAnalyzer.it è un software in cloud accessibile tramite browser: non richiede installazioni, configurazioni complesse o competenze avanzate.
Basta inserire l’indirizzo del sito da analizzare e, in pochi secondi, il sistema esegue una scansione approfondita, restituendo un report completo sui principali indicatori di performance e sulla qualità dell’infrastruttura di hosting.

Tra i parametri analizzati, troviamo:

  • Protocollo utilizzato
    Il sistema rileva se il sito opera su HTTP/1.1, HTTP/2 o HTTP/3. Questo dato è cruciale: l’adozione di protocolli moderni consente di sfruttare al meglio le potenzialità delle connessioni e migliorare la velocità di caricamento delle pagine, soprattutto da dispositivi mobili.

  • Compressione dei dati
    HostingAnalyzer verifica quale metodo di compressione viene utilizzato dal server. Oltre ai classici gzip e Deflate, il tool analizza l’eventuale supporto a tecnologie più moderne, come Brotli o Zstandard, che offrono prestazioni nettamente superiori e una riduzione significativa della banda utilizzata.

  • TTFB (Time To First Byte)
    Uno dei parametri più importanti per valutare la velocità di risposta di un server. Un TTFB inferiore ai 200 millisecondi è indice di un’infrastruttura performante, mentre valori superiori al secondo possono indicare problemi legati a configurazioni inefficienti o server sovraccarichi.

  • Prestazioni desktop vs mobile
    HostingAnalyzer confronta le performance del sito su desktop e dispositivi mobili, evidenziando eventuali differenze significative. Questa analisi è essenziale perché molti siti risultano veloci da PC ma lenti da smartphone, compromettendo l’esperienza utente.

  • Analisi della CDN
    Il software individua automaticamente l’eventuale utilizzo di una Content Delivery Network (CDN) e ne verifica l’efficacia. Non basta infatti avere una CDN attiva: è fondamentale che sia configurata correttamente per migliorare la distribuzione dei contenuti.

  • Analisi SSL/TLS e geolocalizzazione
    HostingAnalyzer controlla l’adozione dei protocolli di sicurezza più recenti, come TLS 1.3, e determina la posizione geografica del server. La distanza fisica tra server e utente, infatti, può influire in modo significativo sui tempi di caricamento.

Grazie a queste analisi, HostingAnalyzer fornisce una valutazione oggettiva dell’infrastruttura di hosting, aiutando l’utente a prendere decisioni più consapevoli.


A chi è rivolto

Il software è stato progettato per essere versatile e adattarsi alle esigenze di diversi profili:

  • Sviluppatori e sistemisti
    Grazie ai dati dettagliati, HostingAnalyzer permette di individuare rapidamente eventuali criticità tecniche e ottimizzare la configurazione del server.

  • Agenzie digitali
    Consente di eseguire audit rapidi per siti dei clienti, confrontare fornitori di hosting e proporre soluzioni basate su dati concreti.

  • Professionisti SEO
    Le prestazioni di un sito sono uno dei fattori più importanti per il posizionamento sui motori di ricerca. HostingAnalyzer fornisce metriche fondamentali per intervenire laddove necessario e migliorare il ranking organico.

  • Aziende e proprietari di siti
    Anche chi non ha competenze tecniche può trarre vantaggio dallo strumento: il report generato è chiaro e facilmente comprensibile, rendendo semplice identificare i problemi e discuterne con il proprio provider di hosting.


I vantaggi di HostingAnalyzer.it

L’utilizzo del software sviluppato da Managed Server S.r.l. offre diversi benefici:

  • Trasparenza totale
    I risultati forniti si basano su misurazioni reali, non su stime o dati “di marketing”.

  • Analisi completa in pochi secondi
    Con un solo test si ottiene un quadro chiaro dello stato delle performance e della qualità dell’infrastruttura.

  • Strumento sempre aggiornato
    HostingAnalyzer viene costantemente ottimizzato per tenere il passo con le evoluzioni tecnologiche del web, dai nuovi protocolli ai più recenti standard di sicurezza.

  • Supporto per tutti i principali CMS e piattaforme e-commerce
    Che si tratti di WordPress, PrestaShop, Magento, Drupal o WooCommerce, il test è valido per qualsiasi tipologia di sito.


L’esperienza di Managed Server S.r.l. al servizio della community

Lo sviluppo di HostingAnalyzer.it rappresenta l’evoluzione naturale dell’esperienza maturata da Managed Server S.r.l. negli anni.
L’azienda è specializzata in soluzioni di hosting ottimizzate per CMS, e-commerce e progetti web complessi, con un focus particolare sulle performance, la sicurezza e l’affidabilità delle infrastrutture.

Grazie alla conoscenza diretta delle problematiche più comuni riscontrate dai clienti, il team di Managed Server ha potuto progettare un software che risponde a esigenze concrete, offrendo un approccio data-driven alla valutazione della qualità dei servizi di hosting.


Un passo avanti verso un web più veloce

In un contesto digitale in cui la velocità è un fattore critico, HostingAnalyzer.it si propone come uno strumento indispensabile per chiunque voglia offrire un’esperienza utente di alto livello.
La lentezza di un sito non incide solo sulla soddisfazione dei visitatori, ma ha un impatto diretto sulle conversioni, sul posizionamento nei motori di ricerca e, di conseguenza, sul successo di un progetto online.

Con HostingAnalyzer, gli utenti possono finalmente basare le proprie decisioni su dati oggettivi e misurabili, evitando di affidarsi esclusivamente a promesse pubblicitarie.


Conclusioni

HostingAnalyzer.it è il risultato della continua ricerca e innovazione di Managed Server S.r.l. nel settore dell’hosting e delle performance web.
Grazie a questo software in cloud, chiunque può ottenere un’analisi chiara, approfondita e affidabile del proprio sito e della qualità del proprio hosting, senza bisogno di competenze avanzate o strumenti complessi.

Per Managed Server, si tratta di un ulteriore passo verso la diffusione della cultura delle performance e la creazione di un web più veloce, sicuro e accessibile.

Siteground miglior hosting WordPress ? Il caso reale di un nostro cliente che ha scelto le performance.

E’ facile e frequente imbattersi in moltissime recensioni che indicano Siteground come miglior hosting wordpress. Questo è derivato sicuramente dall’ottima fama che un big del settore è riuscito a crearsi nell’ambiente di sviluppatori WordPress e dell’effettiva bontà delle loro soluzioni hosting.

Conosciamo personalmente tanti loro clienti con cui abitualmente svolgiamo servizi di consulenza e di sviluppo, e occasionalmente forniamo loro servizi di ottimizzazione spinta decidendo di portarli sui nostri sistemi e fornendo dunque un servizio più performante.

Vogliamo portare l’esempio di un nostro nuovo cliente che avendo sottoscritto un piano hosting di tipo GoGeek con Siteground al costo di circa 25€/mese si trova ad avere il sito disabilitato per la grossa affluenza di visitatori che ha reso il server sovraccarico.

Questo è quello che viene comunicato dall’assistenza che intanto ha provveduto a mettere offline il sito e dunque creato un danno in termini di mancati introiti al cliente :

siteground-hosting
Siamo pertanto stati contattati dal cliente che avendo avuto notizia da un collega delle ottimizzazioni su siti di blogging WordPress based, ha voluto testare con mano i nostri servizi e l’ottimizzazione di performance che siamo riusciti a dare utilizzando i tool più in voga nel settore hosting, spaziando per PHP-FPM, Zend OpCache, Nginx, Memcached e Varnish con un sapiente uso e tuning di svariati plugin WP per aumentare il punteggio Pagespeed e YSlow, nonchè un reverse proxy a livello CDN tramite Incapsula che ci ha permesso di risparmiare banda e diminuire i tempi di caricamento di contenuti statici come le immagini.

Attualmente su www.techzoom.it (il sito migrato sui nostri sistemi)riusciamo a reggere oltre il quadruplo delle richieste che hanno creato problemi a Siteground, a costi del tutto comparabili se consideriamo un’assistenza managed e una supervisione costante che danno sicuramente un valore aggiunto al business del cliente.

Abbiamo voluto discutere e documentare questo caso per portare a conoscenza della nostra realtà di hosting alternativa a Siteground, GoDaddy o Aruba ad esempio, realtà sicuramente più piccola e moderata ma con un know how tale da essere più che adeguato alle aspettative dei clienti più esigenti e delle situazioni più dispendiose.

Cookie Law : la nuova legge europea sui Cookie. Come essere in regola con il tuo sito web.

Entro il 3 giugno 2015, i gestori di siti internet comunitari devono attuare le disposizioni della legge, detta Cookie Law, approvata con decreto legislativo 69/2012 e 70/2012. Sanzioni amministrative che vanno da 6.000 a 120.000€ (nei casi più gravi) per chi non rispetta le indicazioni europee.

eu-cookie-law

Prima di entrare nel merito della Cookie Law (o Cookie Policy) vediamo la breve storia dei cookie

Cookies? Cosa sono e a cosa servono

Nel linguaggio informatico la parola cookie non evoca biscotti da forno ma indica tutti quei piccoli file attraverso cui i siti internet riconoscono gli utenti o memorizzano informazioni relative alla ricerca sul web. In altri termini, i cookie sono strumenti validi nella raccolta di informazioni, durante la navigazione, delle persone per proporre azioni di marketing diretto: per esempio visualizzando pubblicità personalizzate in base a percorsi di navigazione.

La normativa Cookie Law in Europa ed in Italia

Fino a qualche tempo fa i cookie venivano usati inconsapevolmente dalla quasi totalità dei navigatori ma dal 2009 tutto è cambiato: l’Unione Europea, attraverso la direttiva numero 136 (testo completo della direttiva 2009/136/CE), ha imposto l’ottenimento del consenso preventivo dell’interessato nel caso di raccolta di informazioni sensibili attraverso i cookie.

In Italia la direttiva è stata recepita dal 2012: modificando il Codice in materia di protezione dei dati personali il Garante della Privacy si è assunto il compito di vigilare e di definire l’acquisizione del consenso.

Il 4 giugno 2014 il Garante ha emanato un provvedimento generale introducendo le modalità per tradurre online la Cookie Law fornendo indicazioni su come raccogliere i consensi in modo da rispettare la legge.

Cosa cambia la Cookie Law in sintesi?

La legge indica due tipologie di cookie:

  • i cookie di profilazione utilizzati nella profilazione degli utenti per fini pubblicitari
  • i cookie tecnici a tutela della navigazione e della fruizione del sito web.

L’obbligo del consenso esplicito riguarda solo i cookie con finalità di profilazione, come avviene ad esempio nei portali di shopping online o se utilizzi strumenti come Google AdSense o Google Analytics.
Nel momento in cui si accede ad un sito che fa uso di cookie (sia in home page o in un’altra pagina), deve comparire, in primo piano, un banner di idonee dimensioni dove si precisa:

  • l’uso di cookie di profilazione per inviare messaggi pubblicitari mirati, se presenti
  • l’uso di cookie di “terze parti”, ossia di cookie che raccolgono dati che verranno utilizzati da un sito diverso da quello che si sta visitando
  • un link all’approfondimento dell’informativa, con indicazioni sull’uso dei cookie inviati dal sito, che precisi la possibilità di negare il consenso alla loro installazione, direttamente o collegandosi ai vari siti, nel caso dei cookie di “terze parti”
  • evidenziare che, proseguendo nella navigazione, si presta il consenso all’uso dei cookie (ad esempio quanto si accede ad un’altra area del sito o selezionando un’immagine o un link).

Sanzioni

Entro il 3 giungo 2015 i gestori di siti web dovranno obbligatoriamente applicare il provvedimento. Oltre a tale data in caso di:

  • omessa informativa o di informativa inidonea è prevista una sanzione amministrativa (art. 161 del Codice) del pagamento di una somma compresa fra i 6.000 e 36.000€.
  • installazione di cookie sui terminali degli utenti in assenza del preventivo consenso comporta la sanzione (art. 162, comma 2-bis, del Codice) del pagamento di una somma da 10.000 a 120.000€.
  • omessa o incompleta notificazione al Garante viene applicata una sanzione (art. 163 del Codice) con il pagamento di una somma da 20.000 a 120.000€.

Mettersi in regola con la legge sui cookie

Per mettersi in regola con la legge europea sui cookie puoi disporre di alcuni plugin online da installare autonomamente. Se non hai competenze tecniche però, e preferisci affidarti a dei professionisti onde evitare problemi ed incappare in sanzioni, puoi contattarci per un preventivo e lasciare fare a noi.

Offriamo il servizio di analisi, installazione popup, e relativa certificazione ad un prezzo base di 49€ , previa verifica fattibilità (del tutto gratuita).

Possiamo dire che l’aspetto rilevante del nostro lavoro è quello di rendere il sito (o in questo caso i siti) conforme all’attuale legge che andrà in vigore il .

C’è una precisa disposizione in merito che ha lasciato erroneamente interpretazioni piuttosto fantasiose.

Di base :

  • Analizziamo il sito
  • Implementiamo il banner informativo
  • Blocchiamo Cookie di profilazione (nel 99% Google Analytics)
  • Rediamo il testo inerente alla privacy e alla gestione cookie.
  • Rilasciamo una certificazione PDF con tutti i dettagli tecnici a tutela dell’operato e come linea guida da esibire ad eventuali controlli.

Contattaci pure al 3409854556 o inviaci una mail a info@dreamsnet.it per iniziare subito a mettere in regola il tuo sito, avendo cura di inserire il sito da mettere in regola.

Domande frequenti

Quali sono i siti soggetti al regolamento della Cookie Law?

Tutti i siti la cui organizzazione/persona cade sotto la giurisdizione europea (indipendentemente da dove è situato il proprio server) e che utilizzano cookies di terze parti (social widgets come facebook o twitter, analytics, disqus ecc ecc) o che utilizzano propri cookies per tracking, analisi o affiliati senza una diretta accettazione.

Sul mio sito utilizzo strumenti per analisi delle visite (p.e. Google Analytics), quindi devo mostrare l’avviso?

Sì! Tutti i servizi esterni devono essere accettati dal visitatore, secondo le indicazioni delle Cookie Law. Ecco una piccola lista:

  • Google Analytics
  • Google Adsense
  • Google Plus
  • Facebook widgets (il semplice bottone mi piace)
  • Twitter widgets (il semplice bottone follow)
  • Sistema disqus
  • Youtube
  • Vimeo
  • Qualsiasi altro servizio che utilizza cookie e potrebbe tracciare informazioni sull’utente.

Sul mio sito utilizzo i vari pulsanti per la condivisione (Google+, Facebook, Twitter, ecc…), devo prevedere l’avviso?

Certo! Il sito deve prevedere l’informazione e l’accettazione dei cookies esterni secondo quando specificato nella Cookie Law.

Sono una Pubblica Amministrazione, anche io devo ottemperare alla Cookie Law?

La Cookie Law non fa differenza tra le categorie, tutti i soggetti sono interessati; quindi anche le Pubbliche Amministrazioni sono tenute alla modifica dei loro siti.

Come mi metto in regola sulla cookie law ?

Per mettersi in regola con la legge europea sui cookie puoi disporre di alcuni plugin online da installare autonomamente. Se non hai competenze tecniche però, e preferisci affidarti a dei professionisti onde evitare problemi ed incappare in sanzioni, puoi contattarci per un preventivo e lasciare fare a noi.

Offriamo il servizio di analisi, installazione popup, e relativa certificazione ad un prezzo base di 49€ , previa verifica fattibilità (del tutto gratuita).

Contattaci pure al 3409854556 o inviaci una mail a info@dreamsnet.it per conoscere con esattezza la miglior offerta a te riservata, avendo cura di inserire il sito da mettere in regola.

I principali portali di calcio italiani, scelgono DREAMSNET.IT per l’hosting e la consulenza sistemistica.

romanews-lazionews-bianconerinews

Come per molti altri siti ad alto traffico che abbiamo avuto modo di discutere negli scorsi articoli del nostro blog, questa volta abbiamo avuto modo di ricevere la piena fiducia da parte della società editrice MALU WEB s.r.l. di Roma che ci ha affidato il delicato compito di progettare l’infrastruttura di hosting per i loro portali calcistici ad alto traffico.

MALU WEB S.r.l. infatti è una società editrice che incentra il loro business su progetti editoriali ben targetizzati, curando portali web inerenti ad alcuni club calcistici italiani.

Romanews.eu, lazionews.eu, bianconerinews.eu, tra le testate giornalistiche in rilevanza, con picchi di traffico elevati in concomitanza di comunicati stampa dei vari club e degli impegni sportivi come derby e le varie gare calcistiche.

Gestire picchi di traffico elevati dovuti ad altrettanti picchi di visitatori, significa eseguire una progettazione ad-hoc sia per ciò che concerne la parte hardware sia per ciò che concerne la parte software.

Collocare i dati su datacenter europei come OVH in questo caso ha significato trovare una risposta estremamente intelligente alla solita domanda “Costi o prestazioni ?“.

In questo caso non abbiamo dovuto sacrificare nulla, dimensionando correttamente l’hardware alla base a prezzi estremamente competitivi su tutto il panorama europeo.

A livello software, abbiamo installato e configurato uno stack basato sulle più moderne tecnologie idonee a far girare correttamente blog WordPress.

A partire dallo strato DBMS, basato su Percona Server (Drop in replacement del più popolare MySQL Server di Oracle), PHP-FPM con Zend Opcache come process manager dell’interprete PHP, NGINX come Webserver, Memcached per gestire il caching di Worpress direttamente in RAM grazie al plugin W3 Total Cache, Varnish come cacher in reverse proxy, ed infine il tutto proxato con Incapsula (www.incapsula.com) al fine di gestire in modo trasparente un cacher e un sistema di distribuzione contenuti (ovvero CDN, Content Delivery Network).

Il tutto è stato implementato nei tempi e nelle modalità più idonee al fine di ridurre eventuali disservizi, ovvero in orario notturno tra giovedì notte e venerdì notte. La messa in produzione è stata monitorata in modo continuativo anche in tutta la giornata di sabato, al fine di visionare il carico del server e il corretto funzionamento di tutte le componenti.

Fieri come sempre di fare ciò che sappiamo fare bene e di fornire in questo caso oltre 14 milioni di visitatori al mese ai principali portali calcistici italiani, e di dimezzare i costi di infrastruttura all’azienda committente, che migrando dal vecchio fornitore, oltre ad aver migliorato sensibilmente la qualità di navigazione e la velocità di caricamento delle pagine Web, ha anche ridotto di 2 terzi i costi di noleggio e gestione dell’infrastruttura.

Qualora cerchiate soluzioni di hosting avanzato ed ottimizzazioni server avanzate, contattateci pure, sapremo trovare una soluzione ideale alle vostre esigenze, ai prezzi più interessanti sul mercato con prestazioni alla top di gamma.

Come migliorare le perfomance di un blog WordPress, grazie ad una consulenza sistemistica e ad uno stack Percona Server, PHP-FPM, NGINX, Redis, Memcache e Varnish.

In relazione all’articolo precedente sull’ottimizzazione performance di un server adibito all’hosting di un blog WordPress ad alto traffico come curiosone.tv (potete leggerlo qui), è stato deciso di fare un video dimostrativo al fine fare una comparazione prima / dopo, l’ottimizzazione, utilizzando i dati provenienti da htop, netstat, ed utilizzando il tool Apache Benchmark per effettuare uno stress testing su componenti software (plugin), alla base di un carico a livello di CPU ingestibile, dando un’esperienza di navigazione lenta e snervante, nonchè frequenti crash, e un backend letteralmente ingestibile se non in tempi biblici.

Il tutto è stato realizzato con software open source e “ricette sperimentate sul campo già altre volte”, tra i quali Percona Server, PHP-FPM, Zend Opcache, NGINX, REDIS, Memcache, Varnish, e l’ausilio di una CDN come Incapsula (Già più volte menzionata in questo blog).

La dimostrazione pratica di quanto un’assistenza sistemistica managed a livello server, possa fare la vera differenza in termini di qualità del servizio offerto, garantendo un notevole risparmio sui costi dell’infrastruttura, e garantendo un velocissimo ritorno dell’investimento iniziale, grazie alla qualità della navigazione che l’utente dispone e dei relativi modelli di business basati su interazioni con il visitatore come Advertising e campagne Pay per click di circuiti come Google Adsense.

Investire una cifra modesta per fare l’analisi della situazione iniziare ed effettuare un tuning ad-hoc è il primo passo da seguire, consultandosi con sistemisti Linux di comprovata esperienza.

Gestire un rapporto continuativo di supervisione e gestione server managed è il passo successivo per continuare a garantirsi i benefici ottenuti con una configurazione ad-hoc che deve comunque essere monitorata e supervisionata.

 

Ottenere l’auth code e lo sblocco dominio da Aruba, senza inviare documentazione cartacea. Richiesta Codice AuthInfo.

Una delle problematiche comuni in cui ci si imbatte spesso con un fornitore di Hosting come Aruba, è quello di riuscire a recuperare l’auth-code e sbloccare il dominio.
Pur accedendo con le credenziali nell’area riservata ai clienti Aruba infatti, per ottenere l’auth code o AuthInfo, ci si ritrova davanti ad una schermata che presenta una serie di moduli da scaricare, stampare, compilare, a cui allegare un documento d’identità e addirittura una visura camerale se il dominio è attribuito ad un soggetto diverso da persona fisica.

aruba-trasferire-dominio-auth-code

Premesso poi che Aruba evaderà la richiesta a mano, con il diritto di verificare l’identità tramite contatto telefonico, viene facile pensare che questa prassi sia inutile da un punto di vista pratico ma mera burocrazia.

Ben pochi invece sanno che è possibile ottenere in facili e semplici passi e sopratutto IMMEDIATAMENTE il codice di autenticazione, conosciuto anche come codice di trasferimento, auth code, o meglio AuthInfo utilizzando il pannello di controllo del dominio che aruba mette a disposizione.

Andando infatti col browser su https://admin.aruba.it/PannelloAdmin/login.aspx e inserendo i dati in proprio possesso, è possibile cliccare sul bottone “Richiesta Codice AuthInfo” (cerchiato in rosso nell’ultima immagine) pee ottenere nell’immediato lo sblocco del dominio, nonchè l’auth-code direttamente per posta all’indirizzo email del contatto ADMIN-C visibile nel whois del dominio in questione.

auth-code-dominio-aruba

 

recupero-auth-code-codice-trasferimento-sblocco-dominio

 

Da qui in poi potrete gestire questo codice come meglio credete per trasferire il vostro dominio presso un altro fornitore di hosting o un’altra valida alternativa ad Aruba.

Servire oltre 5000 visitatori al secondo ad un blog WordPress, tramite ottimizzazione server. Un esempio reale con Redis, NGINX, Varnish, Memcached, CDN.

Cosa succede quando un sito di Quiz diventa popolare ? Succede che bisogna gestire oltre 5000 visitatori al secondo per un totale di 50 mila connessioni al secondo. Come gestire soluzioni del genere ad alto traffico ? Alla base di tutto : WordPress con caching misto su memcached e Redis Server, PHP-FPM, Nginx con frontend Varnish dietro Cloudflare e Incapsula.

speed-up-wordpress-siteQuesto articolo ha lo scopo di illustrare le potenzialità di un tuning ad-hoc di un server Linux al fine di servire oltre 5000 visitatori al secondo ad un blog WordPress.

Tutto quello che leggerete di seguito è frutto di un caso reale a cui abbiamo lavorato per garantire l’erogazione del servizio di hosting in modo ottimale, nel frattempo che i programmatori riscrivessero l’applicazione in un modo più performante, ovvero senza l’utilizzo di WordPress che per l’utilizzo e la tipologia di sito è sicuramente una scelta criticabile e sostituibile con del puro HTML e Javascript.

Alla fine dell’articolo un video,  per chiunque preferisca vedere dal vivo alcuni passaggi importanti che sono solamente citati nell’articolo.

Introduzione alla vicenda

Il tutto nasce dalla richiesta di aiuto dello sviluppatore/sistemista di Quizdee.com noto sito di quiz online che mi riassume con un’immagine la situazione che avevano raggiunto : a 800 utenti al secondo il server si bloccava allocando tutta la potenza di calcolo delle 4 CPU istanziate su Amazon EC2.

server-load-carico-linuxSin da subito veder girare httpd , sinonimo di Apache fa capire che c’è molto da fare. Un successivo sguardo alla configurazione di MySQL, ci mostra eloquentemente che non è stato fatto nulla di specifico nell’ottimizzazione ma che tutto gira come fornito dall’installazione.

Guardando l’applicativo non si può far altro che criticare la scelta “veloce” (ma funzionale) di usare WordPress per lo sviluppo di un sito Web che avrebbe potuto essere sviluppato su DBMS di tipo NOSQL come MongoDB o Redis, o meglio ancora eliminando completamente il lato server side, escludendo dunque PHP e MySQL per un corretto funzionamento.

Ovviamente riscrivere tutto da 0, avrebbe comportato tempistiche non gestibili in qualche giorno, per cui nel frattempo il compito era “tamponare” con soluzioni di emergenza in grado di reggere almeno 10 volte tanto gli 800 utenti iniziali, limite in cui il server linux iniziava letteralmente a morire sotto i click dei visitatori.

Cambio Hoster e cambio Server Dedicato.

Date le grosse risorse in termini di CPU abbiamo deciso di passare da un 4 core di Amazon EC2 a un server dedicato da Hetzner in Germania.

La scelta è ricaduta su un server di fascia alta :

Intel® Xeon® E5-1650 v2
Hexacore Ivy Bridge-E
6 core fisici e 12 logici.
128 GB di RAM ECC
2 Hard Disk SATA SSD a stato solido.
Connettività 1 Gbit/s
al modico costo di 139€ al mese IVA Inclusa.

Installazione e configurazione sistema operativo Linux CentOS 6

Abbiamo scelto di installare la famosa distribuzione CentOS, già precedentemente installata anche su Amazon EC2, e di procedere alla configurazione base, eliminando tutti i servizi non necessari e installando tutti i software voluti per una successiva configurazione. Abbiamo installato dunque :

  • MySQL Server
    DBMS relazionale, necessario al funzionamento di WordPress
  • NGINX
    nginx [engine x] e’ un server HTTP e reverse proxy, nonche’ un server mail proxy, scritto da Igor Sysoev. Per molto tempo e’ stato usato principalmente per alcuni siti russi ad alto carico, ad esempio YandexMail.RuVKontakte e Rambler; in base ai dati di Netcraft, nell’ottobre 2013 nginx e’ il server HTTP o reverse proxy del 15.08% dei siti a maggiore carico.
  • PHP-FPM in versione 5.5
    è un frontend FastCGI per PHP che migliora le funzionalità di php-cgi.
  • Zend OpCache
    l’integrazione di Zend Optimizer+quale opcode cache; si tratta di un componente concepito per incrementare il livello di prestazioni nell’esecuzione delle applicazioni PHP senza alterarne i comportamenti.
  • Memcached
    è un sistema cache in RAM a oggetti distribuiti per migliorare la velocità .
    Memcached diminuisce il tempo di caricamento delle pagine dei siti web dinamici basati su database mettendo in cache i dati richiesti e riducendo il carico sui server database
  • Redis
    un key-value store open source residente in memoria con persistenza facoltativa.
  • Varnish
    un acceleratore HTTP potente e open source, che è in grado di servire contenuti in cache in modo veloce

Per ogni software abbiamo proceduto ad effettuare un tuning ed una configurazione affichè tutto si integrasse perfettamente.

Obiettivi da raggiungere prefissati nella configurazione

Tra gli obiettivi da raggiungere che ci siamo prefissati, quello di minimizzare lo spawning di processi php-fpm e query MySQL. Sono loro a divorare i 12 processori logici, saturando tutte le risorse e accodando sempre più richieste fino ad una situazione di stallo.

Per far questo (non potendo nell’immediato riscrivere il tutto in un semplice HTML statico), dobbiamo cachare nel modo più corretto e veloce possibile quanto più si riesca a cachare in modo di restituire l’output html dalla RAM, piuttosto che generarne nuovamente da PHP e MySQL.

Oltretutto bisogna anche limitare il traffico dati delle immagini, che seppur poche in termini di quantità e di pesantezza riescono a generare circa 250 gigabyte al giorno di traffico.

Per i problemi di traffico abbiamo deciso di adottare 2 CDN (Content delivery network) che tramite una configurazione di reverse proxy possano cachare le nostre immagini sui loro server e fornirle al nostro posto risparmiandoci prezioso traffico dati.

La prima CloudFlare, si occupa di cachare i contenuti del sito www.quizdee.com, la seconda Incapsula, si occupa di cachare le immagini del dominio di terzo livello creato appositamente img.quizdee.com

La struttura finale ideale è simile alla seguente:

img_imperva_cloud_waf_diagram

 Cenni sulla configurazione dei vari componenti

In breve abbiamo configurato tutti i vari software precedentemente elencati per fornire un caching rapido e veloce dei contenuti. MySQL è stato impostato per cachare qualora richiesto moltissime query fino ad oltre 32 gigabyte di RAM.Valore sicuramente ben più elevato delle centinaia di megabyte in effettivo uso.

WordPress è stato configurato con il plugin W3 Total Cache (W3TC) al fine di cachare contenuti statici direttamente su memcached. Inoltre è stato abbinato anche a Redis, al fine di cachare post direttamente in RAM e diminuire i tempi di risposta fino a 100 volte tanto.

PHP-FPM è stato settato e configurato per gestire un massimo di 1000 connessioni contemporanee, numero in cui al di sopra saremmo andati incontro a sensibili problemi di carico.

NGINX è stato configurato ad hoc ottimizzandone alcuni parametri sui timeout e sul numero di thread gestibili.

Varnish è stato configurato come reverse Proxy su NGINX che a sua volta gestisce due virtual host www.quizdee.com e img.quizdee.com

 

Installazione e configurazione delle due CDN. Cloudflare ed Incapsula

Creati account gratuiti sulle due CDN, abbiamo impostato i DNS del dominio come consigliato dal pannello di controllo delle due CDN.

Cloudflare fornisce i contenuti di www.quizdee.com e Incapsula quelle di img.quizdee.com. Dopo alcuni minuti le richieste diminuivano sensibilmente e anche il load.

Questo è stato un passaggio se non vitale, comunque significativo considerando che in 4 giorni ci ha risparmiato di solo traffico immagini ben 740 GB, con oltre 27 milioni di hits, con picchi di banda di oltre 150 Mbit/s.

banda-risparmiata-incapsula
Risultati Ottenuti

I Risultati ottenuti sono stati quelli di riuscire ad erogare un servizio ad oltre 5000 utenti al secondo, avendo toccato anche dei picchi di oltre 8000, con il vantaggio di  dare un’esperienza di usabilità reattiva e veloce, dunque maggiori risultati in termini di soddisfazione e relativi introiti.
Il costo è rimasto molto contenuto senza scalare su più macchine con load balancer che avrebbe significato una spesa fino a 10 volte tanto, tra noleggio dell’hardware e relativa configurazione più gestione managed dei server Linux.

Le statistiche di Google Analytics parlano chiaro : quasi 5000 utenti con appena 10 di carico sulla CPU.

5000
Conclusioni

La potenza è nulla senza controllo. Ancora una volta, la dimostrazione pratica che buone capacità sistemistiche possano dare risultati eccellenti con costi veramente ridotti. Se hai un sito Web con molto traffico e vuoi ottimizzare le risorse con una configurazione su misura in base alle tue esigenze, contattaci pure.

L’importanza del sistemista linux. Quando un sistemista può fare la differenza sulla velocità e la raggiungibilità di un sito web.

problem-solving-linuxQuello che andrò a narrare nelle prossime righe è una vicenda attuale riguardante un noto marchio marchigiano.
Dovendo mettere in luce alcuni aspetti negativi riguardanti alcune aziende, e avendo lavorato conto terzi, per tutelare la privacy non andrò a fare nomi, ma mi limiterò a descrivere l’accaduto.

Il noto marchio marchigian, ha un blog WordPress, in hosting dal vecchio fornitore (agenzia web specializzata in ecommerce), che fornisce il servizio di hosting Linux.

Il blog WordPress in Hosting è stato sviluppato non da questa agenzia, ma da un’altra agenzia Web, specializzata in ecommerce Magento, di cui sono sistemista sui loro server Cloud.

Il noto marchio marchigian avendo pagato fino a nuovo anno l’hosting presso il vecchio fornitore, decide di utilizzare fino alla scadenza i loro servizi e dunque la nuova agenzia si trova a dover hostare il blog da loro creato sullo spazio hosting del vecchio fornitore.

Già dalla scorsa settimana si lamentava una lentezza eccessiva e tempi di risposta altrettanto elevati, e pur convivendo con questo disagio apparantemente immotivato mai si sarebbero aspettati di vedere il blog letteralmente irraggiungibile, fino ad essere “tirato giù” dall’amministratore del server in quanto secondo lui comprometteva la stabilità dell’intero server.

Dopo vari test condotti in maniera “oscura” e non trasparente da parte dello staff del vecchio forniore, veniva fornita una spiegazione piuttosto “fantasiosa” lamentando un attacco DDOS proveniente da siti come msnbot e IP stranieri.

L’amministratore di sistema allega degli screenshot con il comando top (per mostrarci il carico della CPU) e netstat -na per mostrarci le connessioni di rete instaurate dal loro server, liquidando il tutto con poche e precise parole a riguardo, ipotizzando un attacco DDOS all’avviare del vhost nella configurazione di Apache.

A prima vista sembra assurdo vedere un load così elevato per un semplice e banale blog WordPress (che a detta di chi lo gestisce non riceve più di 80 mila visite mensili).

Sopratutto considerando che con una configurazione simile normalmente seguiamo un cliente (www.tuttoandroid.net) che genera qualche milione di visite al mese, con oltre 2000 utenti in media collegati contemporaneamente.

Qualcosa non va e questo è certo.

Non va ad esempio che giri Apache in un sistema che lamenta lentezza, piuttosto che NGINX.

Non va il fatto che il vhost giri senza separazione privilegi in mod_php piuttosto che in FastCGI o in PHP-FPM.

Non va che un sistemista che ignori alcuni concetti sopra esposti, e getti la spugna semplicemente tirando giù il sito web,  possa lamentare improbabili attacchi DDOS tramite msnbot, laddove magari non si è preoccupato minimamente di fare un tuning efficace al DBMS MySQL, al Webserver, e ad altre componenti di sistema.

A rincarare la dose, arriva la comunicazione del titolare del vecchio fornitore che dopo aver dato disponibilità a impostare i record DNS verso il nuovo server, invita cordialmente a aggiornare la versione di WordPress, nonchè manlevarsi da ipotetiche proprie responsabilità di problematiche sistemistiche, farm, o sistema operativo.

Decidiamo pertanto di testare sui nostri sistemi il tutto, configurandolo in virtual hosting su server Linux, separando i privilegi e girando in PHP-FPM avendo cura di aver abilitato Zend OpCache e un tuning a livello webserver NGINX e MySQL Server decisamente ad-hoc al fine di sfruttare al meglio le risorse di sistema disponibili, massimizzando le prestazioni e riducendo i costi in nuovo (ed inutile) hardware.

Va precisato oltretutto che le risorse di sistema in termini di potenza di calcolo e RAM, sono pressochè identiche a quelle scelte dal vecchio fornitore, sebbene il nuovo fornitore avesse scelto un’istanza su Aruba Cloud, piuttosto che una VPS su OVH come preferito  vecchio fornitore.

Il sistema ha reagito in maniera molto positiva, eliminando di fatto tutti i colli di bottiglia e servendo i contenuti in tempi variabili tra 1 e 3 secondi, senza alcun rallentamento e ripristinando la business continuity di un’azienda molto importante a livello mondiale che si trovava ormai da quasi due giorni tagliata fuori dalla rete Internet.

Conclusioni

Avremo sicuramente spazio e modo di dare giudizi alla condotta del vecchio fornitore, non tanto su quello che è stato fatto in fase di messa in opera del sito web, ma quanto non sia stato fatto una volta lamentati problemi seri alla stabilità del server, rimpallando responsabilità ai creatori del sito in una sorta di scaricabarile dimostrando senza ombra di dubbio l’impossibilità di fare di meglio al fine di risolvere la problematica in modo elegante.

La dimostrazione pratica di quanti “esperti” che alla prima problematica  al di fuori degli “standard” non hanno conoscenze a sufficienza per rimboccarsi le maniche e fare un’analisi del problema per poi risolverlo.

La prova tangibile di quante aziende di prestigio con fatturati di milioni di euro l’anno e centinaia di dipendenti non sappia scegliere un partner affidabile sotto il punto di vista sistemistico.

La dimostrazione reale che ancora una volta di fronte a problemi di natura sistemistica, siamo in grado di approcciare all’arte del problem solving garantendo professionalità e competenza in ambito di sistemistica avanzata su Linux.

La consapevolezza che un sistema Linux configurato ad hoc possa fare una differenza notevole in termini di prestazioni, potendo così risparmiare notevoli cifre che sarebbero altrimenti state investite inutilmente in hardware, non avendo avuto la brillante idea di rivolgersi a dei seri professionisti e specialisti nella configurazione di server linux.

 

Incapsula, la nota CDN e Firewall ci svela i suoi progetti per il futuro.

incapsula-cdn-waf-expansion-plans-mapCome leggiamo dalla loro newsletter appena giunta per email, Incapsula la una nota CDN con funzioni di WAF (Web Application Firewall) e DDOS mitigation, già recensita QUI, ha dei seri piani per il futuro prossimo.

Dopo la recente acquisizione da parte di Imperva, (azienda leader nel settore Data protection e IT Security) infatti ha annunciato con notevole entusiasmo che aumenteranno datacenter e banda a disposizione fino a raggiungere cifre davvero considerevoli.

Ecco cosa scrivono su : http://www.incapsula.com/blog/cdn-expansion-plans-map.html

Incapsula e i 30 datacenter per la fine dell’anno.

E ‘ bello essere in grado di unire una organizzazione che si muove veloce come Incapsula. Oggi voglio discutere di questo slancio, condividendo i nostri piani di espansione della rete per il 2014.

Con il primo trimestre dietro di noi, e con tre nuovi datacenter già attivi, siamo entusiasti di annunciare il nostro impegno a raddoppiare le dimensioni della rete di Incapsula – espansione da 16 a 30 punti di presenza (POP) entro la fine dell’anno.

Con questi nuovi data center ci aspettiamo la capacità di rete complessiva di Incapsula di oltre 1,5 Tbp/s. Inoltre, ciascun POP di Incapsula sarà configurato per memorizzare nella cache ben 30 volte più della sua capacità attuale con l’aggiunta di una nuovi switch con una maggiore densità di porte.

Località dei nuovi Datacenter

Le posizioni dei nostri data center in arrivo sono stati accuratamente scelti per la connettività di rete ottimizzata e per la loro capacità di riflettere le reali esigenze dei nostri clienti, dunque aumentare la presenza della rete in regioni ad alta richiesta, oltre a fornire una copertura in nuove posizioni geografiche.

Ecco l’elenco di tutti i POP candidati nel loro ordine alfabetico:

Atlanta, USA
Auckland, Nuova Zelanda
Lima, Perù
Hong Kong, Cina
Madrid, Spagna
Milano, Italia
Città del Messico, Messico
Mumbai, India
Sao Paulo, Brasile
Seoul, Corea del Sud
Toronto, Canada
Vienna, Austria
Varsavia, Polonia

Anche mentre parliamo, alcuni di questi luoghi sono già in fase di implementazione iniziale, e pochi sono a pochi passi di distanza dall’attivazione ufficiale.  E’ anche possibile che una posizione di alcuni dei luoghi si sposterà, a seconda della disponibilità di risorse di rete locale.

Questo è come la nostra rete sarà simile entro la fine dell’anno:

global-cdn-expansion-map

2013 ottima annata ma solo un “riscaldamento”

Nel 2013 il numero di siti protetti da Incapsula è cresciuto di oltre il 600 per cento. Oggi, Incapsula è la piattaforma di Application Delivery scelta per decine di migliaia di organizzazioni, tra cui alcuni dei più grandi marchi del mondo di elettronica di consumo, rivenditori online, istituzioni finanziarie e società SaaS di spicco.

L’anno scorso, per accogliere la nostra crescita, siamo cresciuti la nostra capacità di rete a oltre 600Gbps, espandendolo di oltre il 500 per cento. Abbiamo anche introdotto una serie di importanti aggiornamenti di servizi, tra cui statistiche in tempo reale, nuovi controlli Cache , un sistema integrato di autenticazione a due fattori e una sfilza di altre caratteristiche.

Quest’anno continuiamo ad espandere la nostra lista di servizi, così come le nostre capacità di networking. Nel primo trimestre del 2014 abbiamo già aumentata capacità di sicurezza del Incapsula con le nostre nuove regole di firewalling per il nostro motore di filtering. Più di recente, abbiamo ampliato la nostra offerta con il nostro Layer 7 Load Balancer – primi a fornirlo  nel suo genere come soluzione di high avalaibility per i nostri clienti Enterprise.

WAF, Web Application Firewall e Proxy per mitigare attacchi DDoS

La nostra espansione della rete rapida non è solo alimentata dalla propria crescita di Incapsula, ma anche dalla crescita di attacchi DDoS volumetrici. Dall’inizio del 2013, abbiamo assistito ad un aumento senza precedenti del numero di grandi minacce DDoS al punto in cui uno ogni tre attacchi all’ora raggiunge oltre 20 Gbps e DDOS da oltre 100 Gbps non sono più rari.

Con diversi grandi DDoS  che si verificano su una base quotidiana, e con sempre più siti web in cerca di Incapsula per la protezione, sapevamo che era il momento di investire; non solo per la necessità di oggi, ma anche per gli obiettivi di domani.

DREAMSNET.IT e Incapsula. Servizi di consulenza e protezione DDOS

Come azienda abbiamo valutato, analizzato e già trattato le varie CDN che il mercato offre, rilevando in Incapsula attualmente la migliore soluzione per il Firewalling a livello di applicazioni Web, nonchè come protezione DDOS per utenti commerciali vittime di attacchi DDOS di notevole portata.

Effettiamo consulenza di DDOS Mitigation, nonchè configurazione e installazione di Incapsula come elemento vitale per la disponibilità dei servizi.

Finisce il controllo del governo Usa sui domini di Internet. Parte un piano di transizione.

Il governo degli Stati Uniti sta lasciando il controllo sul sistema degli indirizzi di internet con una mossa che suscita però anche domande sul futuro delle comunicazioni. La decisione dà il via a una transizione che riguarda l’Icann (Internet Corporation for Assigned Names and Numbers), l’ente non profit lanciato nel ormai lontano 1998 dal Dipartimento del Commercio Usa per governare il sistema che assegna gli indirizzi dei siti web e dirige il traffico su Internet. Ed è proprio questo dipartimento che spera di porre termine alla supervisione di Internet da parte di Icann al momento della scadenza del contratto prevista per il settembre del prossimo anno.

Con un annuncio ufficiale il dipartimento riconosce che ormai l’agenza è pronta per diventare un’organizzazione indipendente. L’agenzia presiede a diverse attività collegate a internet che finora sono state perseguite a nome del governo Usa anche da altre organizzazioni , prima tra tutte la Internet Assigned Numbers Authority (IANA) gestita da Icann. Si attende che all’imminente convegno di Singapore la nuova gestione di Icann sia accettata .

Ma perché il governo Usa sta cedendo quanto ancora possiede del diretto controllo su Internet? Icann presiede in qualche misura alle attività di background di Internet come il sistema dei nomi dei domini (DNS) e la modalità con cui i computer si collegano tra loro. Per raggiungere un’altra persona su Internet bisogna digitare un indirizzo sul computer . un nome o un numero. Questo indirizzo deve essere unico in modo che i computer possano trovarsi tra loro. Icann coordina questi identificatori unici in tutto il mondo. L’ente è costituito da entità con interessi internazionali e rappresentanti del governo . Ora il governo Usa ha deciso di conferire a Icann quanto era rimasto di propria competenza. Icann mantiene comunque il suo modello di direzione multistakeholder per ottenere “ sicurezza, stabilità, resilienza dei DNS di Internet”, andare incontro alle necessità di clienti e partner e mantenere aperta internet anche quando il contratto con l’agenzia National Telecommunications and Information Administration (NTIA) del dipartimento verrà a finire.

In questo momento la polemica infuria sul fatto che molti attribuiscono la decisione alle recenti rivelazioni sulle azioni di spionaggio tramite NSA, mentre ufficialmente NTIA dichiara che si tratta della parte conclusiva di un piano a lungo termine di privatizzazione del sistema DNS partito nel 1997.